WO2019150715A1 - 超音波診断装置および超音波診断装置の制御方法 - Google Patents

超音波診断装置および超音波診断装置の制御方法 Download PDF

Info

Publication number
WO2019150715A1
WO2019150715A1 PCT/JP2018/042652 JP2018042652W WO2019150715A1 WO 2019150715 A1 WO2019150715 A1 WO 2019150715A1 JP 2018042652 W JP2018042652 W JP 2018042652W WO 2019150715 A1 WO2019150715 A1 WO 2019150715A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
peripheral
user
ultrasonic
image
Prior art date
Application number
PCT/JP2018/042652
Other languages
English (en)
French (fr)
Inventor
松本 剛
井上 知己
徹郎 江畑
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2019568879A priority Critical patent/JP7125428B2/ja
Priority to CN202311572355.3A priority patent/CN117379103A/zh
Priority to CN201880088230.4A priority patent/CN111670010B/zh
Priority to ES18903337T priority patent/ES2973313T3/es
Priority to CN202311582618.9A priority patent/CN117582248A/zh
Priority to EP18903337.6A priority patent/EP3747370B1/en
Publication of WO2019150715A1 publication Critical patent/WO2019150715A1/ja
Priority to US16/931,109 priority patent/US20200345324A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/56Details of data transmission or power supply
    • A61B8/565Details of data transmission or power supply involving data transmission via a network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/465Displaying means of special interest adapted to display user selection data, e.g. icons or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the present invention relates to an ultrasonic diagnostic apparatus and an ultrasonic diagnostic apparatus control method, and more particularly to an ultrasonic diagnostic apparatus and an ultrasonic diagnostic apparatus control method for guiding an operation of an ultrasonic probe to a user.
  • an ultrasonic diagnostic apparatus is known as an apparatus for obtaining an image inside a subject.
  • an ultrasonic diagnostic apparatus includes an ultrasonic probe including a transducer array in which a plurality of elements are arranged. In a state where the ultrasonic probe is in contact with the body surface of the subject, an ultrasonic beam is transmitted from the transducer array into the subject, and an ultrasonic echo from the subject is received by the transducer array to receive the element. Data is acquired. Furthermore, the ultrasonic diagnostic apparatus electrically processes the obtained element data to generate an ultrasonic image for the part of the subject.
  • the user can observe a site in the subject. At this time, the user usually determines whether or not a part to be observed is included in the ultrasonic image by visually observing the ultrasonic image. However, such a determination requires skill. is there. In view of this, in the ultrasonic diagnostic apparatus, various contrivances have been made for easily detecting a target region.
  • the medical image processing apparatus disclosed in Patent Document 1 is targeted by receiving a plurality of ultrasonic images acquired in advance and performing image analysis on each of the plurality of ultrasonic images. The part is automatically detected.
  • Patent Document 1 has a structure similar to the structure of other parts in order to detect a target part by performing image analysis on each ultrasonic image acquired in large quantities. Although it is possible to detect a part, the calculation load required to detect the target part is large, and in order to quickly detect the target part, a device having high calculation ability is required. Such an apparatus is usually a large-scale apparatus. Therefore, the medical image processing apparatus of Patent Document 1 is unsuitable, for example, in an environment such as an emergency life-saving site where prompt action is required for the user, which may hinder the user's rapid action.
  • the present invention has been made to solve such a conventional problem, and provides an ultrasonic diagnostic apparatus and an ultrasonic diagnostic apparatus control method capable of easily and quickly detecting a target site.
  • the purpose is to provide.
  • an ultrasonic diagnostic apparatus of the present invention includes an ultrasonic probe, an image acquisition unit that acquires an ultrasonic image by transmitting an ultrasonic beam from the ultrasonic probe toward a subject, A site recognition unit that performs image analysis on the ultrasound image acquired by the image acquisition unit to recognize an imaging site of the subject, and a peripheral site that stores at least one peripheral site effective for detecting the target site
  • the user is guided to operate the ultrasonic probe so as to detect at least one peripheral part stored in the peripheral part memory, and based on the recognition result by the part recognition unit, And an operation guide for guiding the operation of the ultrasonic probe to the user so as to detect.
  • the peripheral part memory stores a plurality of peripheral parts effective for detecting the target part and a predetermined detection order for the plurality of peripheral parts, and the operation guide unit sequentially sequentially detects the plurality of peripheral parts according to the predetermined detection order.
  • the operation of the ultrasonic probe can be guided to the user to detect.
  • the operation guide unit instructs the user to operate the ultrasonic probe so as to detect the next peripheral part by skipping the detection of a part of the peripheral parts based on the recognition result by the part recognition part. It is possible to guide the user to operate the ultrasonic probe so as to detect or change a predetermined detection order to detect a plurality of peripheral parts.
  • an input unit for a user to perform an input operation can be further provided.
  • the operation guide unit Based on the correction information input by the user via the input unit, the operation guide unit transmits ultrasonic waves to the user so as to skip detection of some peripheral parts of the plurality of peripheral parts and detect the next peripheral part.
  • the operation of the ultrasonic probe can be guided to the user so as to guide the operation of the probe or to change a predetermined detection order to detect a plurality of peripheral parts.
  • the operation guide unit skips detection of some peripheral parts of the plurality of peripheral parts based on the subject information regarding the state of the subject input by the user via the input unit, and selects the next peripheral part.
  • the operation of the ultrasonic probe may be guided to the user so as to detect, or the operation of the ultrasonic probe may be guided to the user so as to detect a plurality of peripheral parts by changing a predetermined detection order.
  • the guide unit guides the operation of the ultrasonic probe to the user so that the detection of one peripheral part is skipped and the next peripheral part is detected, or a plurality of peripheral parts are changed by changing a predetermined detection order. You may guide operation of an ultrasonic probe to a user so that it may detect.
  • the part recognition unit can recognize the imaging part of the subject based on the subject information regarding the state of the subject input by the user via the input unit.
  • the peripheral part memory stores a plurality of peripheral parts effective for detecting the target part and a predetermined detection order for each subject
  • the operation guide unit stores the plurality of peripheral parts stored for each subject. Can be guided to the user so as to sequentially detect in accordance with a predetermined detection order stored for each subject.
  • the ultrasonic diagnostic apparatus further includes a display unit, and the operation guide unit can display an operation guide of the ultrasonic probe toward the user on the display unit.
  • the image forming apparatus further includes a contour generation unit that generates a contour of at least one peripheral region recognized by the region recognition unit, and the display unit displays the ultrasonic image acquired by the image acquisition unit, and the contour generation unit It is preferable that the generated contour of at least one peripheral part is superimposed on the ultrasonic image displayed on the display unit.
  • a voice generation unit may be further provided, and the operation guide unit may perform guidance of the operation of the ultrasonic probe toward the user by a voice emitted from the voice generation unit.
  • the target site is preferably the common bile duct, and at least one peripheral site is preferably the portal vein and gallbladder.
  • the target site is the appendix and preferably at least one peripheral site is the ascending colon, cecum and ileum.
  • the target site is preferably the nerve root of the fifth cervical vertebra and the nerve root of the seventh cervical vertebra, and the peripheral site is preferably the nerve root of the sixth cervical vertebra.
  • an ultrasonic image is acquired based on a reception signal generated by transmitting and receiving an ultrasonic beam from an ultrasonic probe toward a subject, and the acquired ultrasonic image is acquired.
  • An image analysis is performed on the sound image to recognize the imaging region of the subject, and when detecting the target region, the user is prompted to detect at least one peripheral region effective for detecting the target region.
  • the operation is guided, and the operation of the ultrasonic probe is guided to the user so as to detect the target site based on the recognition result by the site recognition unit.
  • the processor for an ultrasonic diagnostic apparatus of the present invention acquires an ultrasonic image based on a reception signal generated by transmitting and receiving an ultrasonic beam from an ultrasonic probe toward a subject, and the acquired ultrasonic wave Perform image analysis on the image to recognize the imaging part of the subject, and when detecting the target part, the user operates the ultrasonic probe so as to detect at least one peripheral part effective for detecting the target part. And guiding the operation of the ultrasonic probe to the user so as to detect the target site based on the recognition result by the site recognition unit.
  • the processor for an ultrasonic diagnostic apparatus can be connected to an ultrasonic probe via a network.
  • a peripheral part memory that stores at least one peripheral part that is effective for detecting the target part, and at least one peripheral part that is stored in the peripheral part memory is detected when the target part is detected.
  • the operation part for guiding the operation of the ultrasonic probe to the user and detecting the target part based on the recognition result by the part recognition part. Can be detected easily and quickly.
  • Embodiment 1 is a block diagram illustrating a configuration of an ultrasonic diagnostic apparatus according to Embodiment 1 of the present invention. It is a block diagram which shows the internal structure of the receiving part in Embodiment 1 of this invention. It is a block diagram which shows the internal structure of the image generation part in Embodiment 1 of this invention.
  • 3 is a flowchart showing the operation of the ultrasonic diagnostic apparatus according to Embodiment 1 of the present invention.
  • 4 is a flowchart showing a specific example of the operation of the ultrasonic diagnostic apparatus according to Embodiment 1 of the present invention. It is a figure which shows the example of the guidance display in Embodiment 1 of this invention. It is a figure which shows the other example of the guidance display in Embodiment 1 of this invention.
  • FIG. 1 shows a configuration of an ultrasonic diagnostic apparatus 1 according to Embodiment 1 of the present invention.
  • the ultrasonic diagnostic apparatus 1 includes a transducer array 2, and a transmitter 3 and a receiver 4 are connected to the transducer array 2.
  • An image generation unit 5, a display control unit 6, and a display unit 7 are sequentially connected to the reception unit 4.
  • the transmission unit 3, the reception unit 4 and the image generation unit 5 constitute an image acquisition unit 8.
  • a part recognition unit 9 is connected to the image generation unit 5, and an operation guide unit 10 is connected to the part recognition unit 9.
  • the site recognition unit 9 and the operation guide unit 10 are connected to each other so that bidirectional information can be exchanged.
  • the peripheral part memory 11 and the display control unit 6 are connected to the operation guide unit 10.
  • a device control unit 12 is connected to the display control unit 6, the image acquisition unit 8, the part recognition unit 9, and the operation guide unit 10, and an input unit 13 and a storage unit 14 are connected to the device control unit 12. Yes.
  • the device control unit 12 and the storage unit 14 are connected so as to be able to exchange information in both directions.
  • the transducer array 2 is included in the ultrasonic probe 15, and is used for the ultrasonic diagnostic apparatus by the display control unit 6, the image acquisition unit 8, the site recognition unit 9, the operation guide unit 10, and the device control unit 12.
  • a processor 16 is configured.
  • the transducer array 2 of the ultrasonic probe 15 shown in FIG. 1 has a plurality of transducers arranged one-dimensionally or two-dimensionally. Each of these transducers transmits an ultrasonic wave according to the drive signal supplied from the transmission unit 3, and receives an ultrasonic echo from the subject and outputs a received signal.
  • Each vibrator is, for example, a piezoelectric ceramic represented by PZT (Lead Zirconate Titanate), a polymer piezoelectric element represented by PVDF (Poly Vinylidene Di Fluoride) and PMN-PT (polyvinylidene fluoride).
  • It is configured by forming electrodes on both ends of a piezoelectric body made of a piezoelectric single crystal represented by Lead Magnesium Niobate-Lead Titanate: lead magnesium niobate-lead titanate solid solution).
  • the transmission unit 3 of the image acquisition unit 8 includes, for example, a plurality of pulse generators, and based on the transmission delay pattern selected according to the control signal from the device control unit 12, the plurality of transducer arrays 2.
  • Each drive signal is supplied to a plurality of transducers with the delay amount adjusted so that the ultrasonic waves transmitted from the transducers form an ultrasonic beam.
  • a pulsed or continuous wave voltage is applied to the electrodes of a plurality of transducers of the transducer array 2
  • the piezoelectric body expands and contracts, and pulsed or continuous wave ultrasonic waves are generated from the respective transducers.
  • an ultrasonic beam is formed from the synthesized wave of the ultrasonic waves.
  • the transmitted ultrasonic beam is reflected by a target such as a part of the subject and propagates toward the transducer array 2 of the ultrasonic probe 15.
  • the ultrasonic echoes propagating toward the transducer array 2 in this way are received by each transducer constituting the transducer array 2.
  • each transducer constituting the transducer array 2 expands and contracts by receiving propagating ultrasonic echoes to generate electrical signals, and outputs these electrical signals to the receiving unit 4.
  • the reception unit 4 of the image acquisition unit 8 processes a reception signal output from the transducer array 2 in accordance with a control signal from the device control unit 12.
  • the receiving unit 4 has a configuration in which an amplifying unit 17 and an AD (Analog Digital) converting unit 18 are connected in series.
  • the amplifying unit 17 amplifies the reception signal input from each element constituting the transducer array 2, and transmits the amplified reception signal to the AD conversion unit 18.
  • the AD conversion unit 18 converts the reception signal transmitted from the amplification unit 17 into digitized data, and sends these data to the image generation unit 5 of the image acquisition unit 8.
  • the image generation unit 5 of the image acquisition unit 8 has a configuration in which a signal processing unit 19, a DSC (Digital Scan Converter) 20, and an image processing unit 21 are connected in series.
  • the signal processing unit 19 performs addition (phased addition) by giving a delay to each data of the reception signal based on the reception delay pattern selected according to the control signal from the device control unit 12. I do.
  • reception focus processing a sound ray signal in which the focal point of the ultrasonic echo is narrowed down to one scanning line is generated.
  • the signal processing unit 19 performs an envelope detection process on the generated sound ray signal after correcting the attenuation caused by the propagation distance according to the depth of the position where the ultrasonic wave is reflected, A B-mode image signal representing the tissue in the subject is generated.
  • the B-mode image signal generated in this way is output to the DSC 20.
  • the DSC 20 of the image generation unit 5 raster-converts the B-mode image signal into an image signal according to a normal television signal scanning method to generate an ultrasonic image.
  • the image processing unit 21 of the image generation unit 5 performs various necessary image processing such as brightness correction, gradation correction, sharpness correction, and color correction on the image data obtained in the DSC 20, and then performs an ultrasonic image. Is output to the display control unit 6 and the part recognition unit 9.
  • the site recognition unit 9 of the processor 16 performs image analysis on the ultrasonic image acquired by the image acquisition unit 8 to recognize the imaging site of the subject.
  • the part recognition unit 9 stores, for example, typical pattern data in advance as a template, calculates the similarity to the pattern data while searching the image with the template, and the similarity is greater than or equal to the threshold value and the maximum
  • the imaging region can be recognized by regarding that the measurement target is present at the location.
  • simple template matching for example, Csurka et al .: Visual Categorization with Bags of Keypoints, Proc.
  • the peripheral part memory 11 of the ultrasonic diagnostic apparatus 1 stores at least one peripheral part that is difficult to specify accurately and is effective for detecting a target part that is an observation target. Further, in the case where a plurality of peripheral parts effective for detecting the target part are stored, the peripheral part memory 11 also stores detection orders determined for the plurality of peripheral parts.
  • the peripheral part memory 11 includes an HDD (Hard Disk Drive), an SSD (Solid State Drive), an FD (Flexible Disk), an MO disk (Magneto-Optical disk: magneto-optical disk). ), MT (Magnetic Tape: Magnetic Tape), RAM (Random Access Memory: Random Access Memory), CD (Compact Disc: Compact Disc), DVD (Digital Versatile Disc: Digital Versatile Disc), SD Card (Secure Digital Card: Secure A recording medium such as a digital card), a USB memory (Universal Serial Bus memory), a server, or the like can be used.
  • HDD Hard Disk Drive
  • SSD Solid State Drive
  • FD Fexible Disk
  • MO disk Magneto-optical disk
  • MT Magnetic Tape
  • RAM Random Access Memory
  • CD Compact Disc
  • DVD Digital Versatile Disc: Digital Versatile Disc
  • SD Card Secure Digital Card: Secure
  • a recording medium such as a digital card
  • USB memory Universal Serial Bus memory
  • the operation guide unit 10 of the processor 16 guides the user to operate the ultrasonic probe 15 so as to detect at least one peripheral part stored in the peripheral part memory 11 when detecting the target part. Based on the recognition result by the part recognition unit 9, the operation of the ultrasonic probe 15 is guided to the user so as to detect the target part.
  • the ultrasonic diagnostic apparatus 1 according to the first embodiment of the present invention can quickly detect the target site by the operation guide unit 10, and details thereof will be described later.
  • the device control unit 12 of the processor 16 controls each unit of the ultrasonic diagnostic apparatus 1 based on a program stored in advance in the storage unit 14 or the like and a user operation via the input unit 13.
  • the display control unit 6 of the processor 16 performs predetermined processing on the ultrasonic image generated by the image generation unit 5 of the image acquisition unit 8 under the control of the device control unit 12, and displays the ultrasonic image on the display unit 7. Display.
  • the display unit 7 of the ultrasonic diagnostic apparatus 1 displays an image under the control of the display control unit 6 and includes a display device such as an LCD (Liquid Crystal Display).
  • the input unit 13 of the ultrasonic diagnostic apparatus 1 is for a user to perform an input operation, and can be configured to include a keyboard, a mouse, a trackball, a touch pad, a touch panel, and the like.
  • the storage unit 14 stores an operation program and the like of the ultrasonic diagnostic apparatus 1, and similarly to the peripheral part memory 11 of the ultrasonic diagnostic apparatus 1, HDD, SSD, FD, MO disk, MT, RAM, CD, DVD A recording medium such as an SD card or a USB memory, or a server can be used.
  • the processor 16 having the display control unit 6, the image acquisition unit 8, the part recognition unit 9, the operation guide unit 10, and the device control unit 12 includes a CPU (Central processing unit) and various processes in the CPU. Although it is comprised from the control program for performing, it may be comprised using a digital circuit. Further, the display control unit 6, the image acquisition unit 8, the part recognition unit 9, the operation guide unit 10, and the device control unit 12 may be partially or entirely integrated into one CPU.
  • a CPU Central processing unit
  • the flowchart shown in FIG. 4 represents the operation of the ultrasonic diagnostic apparatus 1 for detecting the target region M.
  • the target part M can be set by being input by the user via the input unit 13, for example.
  • the peripheral part memory 11 stores peripheral parts A and B as effective peripheral parts for detecting the target part M, and the detection process of the peripheral part B is performed after the peripheral part A detection process is performed. Assume that the detection order to be performed is stored.
  • step S1 the operation guidance unit 10 provides guidance to the user so as to search for the peripheral part A.
  • the operation guide unit 10 can display a guidance display for searching for the peripheral part A on the display unit 7 via the display control unit 6.
  • the user operates the ultrasonic probe 15 so that the peripheral part A is detected according to the guidance by the operation guide unit 10.
  • the region recognition unit 9 performs the detection process of the peripheral region A in step S2.
  • the part recognizing unit 9 can recognize at least one auxiliary part effective for detecting the peripheral part A, and can detect the peripheral part A in consideration of the recognition result. .
  • step S3 the operation guide unit 10 determines whether or not the peripheral part A has been detected. If the peripheral part A has not been detected, the process returns to step S1, and the operation guidance unit 10 provides guidance to search for the peripheral part A. After the peripheral part A is detected in step S2, the process proceeds to step S3. A determination is made. In this way, the processes in steps S1 to S3 are repeated until the peripheral part A is detected.
  • step S3 If it is determined in step S3 that the peripheral part A has been detected, the process proceeds to step S4, and the operation guidance unit 10 provides guidance to search for the peripheral part B.
  • the operation guide unit 10 can display a guidance display to the effect of searching for the peripheral part B on the display unit 7, in order to detect the peripheral part B based on the detected position of the peripheral part A.
  • a guidance display for guiding the moving direction, direction, inclination, and the like of the ultrasonic probe 15 can also be displayed on the display unit 7.
  • the user When guidance for searching for the peripheral part B is performed in step S4, the user operates the ultrasonic probe 15 so that the peripheral part B is detected according to the guidance by the operation guide unit 10.
  • the region recognition unit 9 performs the detection process of the peripheral region B in step S5.
  • the part recognition unit 9 may detect the peripheral part B in consideration of the recognition result of the peripheral part A. For example, by storing the relative positional relation between the peripheral parts A and B in the peripheral part memory 11 or the like in advance, the part recognition unit 9 takes into account the relative positional relation between the peripheral part A and the peripheral part B. Thus, the peripheral part B can be detected.
  • step S6 the operation guide unit 10 determines whether or not the peripheral portion B is detected. If the peripheral part B is not detected, the process returns to step S4, and the operation guidance unit 10 provides guidance to search for the peripheral part B. After the peripheral part B is detected in step S5, the process of step S6 is performed. A determination is made. In this way, the processes in steps S4 to S6 are repeated until the peripheral part B is detected.
  • step S6 If it is determined in step S6 that the peripheral part B has been detected, the process proceeds to step S7, and guidance for searching for the target part M is performed by the operation guide unit 10.
  • the operation guide unit 10 can display a guidance display for searching for the target site M on the display unit 7, but detects the target site M based on the detected positions of the peripheral sites A and B. Therefore, a guidance display for guiding the moving direction, direction, inclination and the like of the ultrasonic probe 15 can be displayed on the display unit 7.
  • the part recognition unit 9 When guidance to search for the target part M is performed in step S7, the user operates the ultrasonic probe 15 so that the target part M is detected according to the guidance by the operation guide unit 10. In this manner, under the state in which the ultrasonic probe 15 is operated by the user, in step S8, the part recognition unit 9 performs the target part M detection process.
  • the part recognition unit 9 may detect the target part M in consideration of the recognition results of the peripheral parts A and B. For example, by storing the relative positional relationship between the peripheral parts A and B and the target part M in the peripheral part memory 11 or the like in advance, the part recognition unit 9 can determine whether the peripheral parts A and B and the target part M are The target site M can be detected in consideration of the relative positional relationship.
  • step S9 the operation guide unit 10 determines whether or not a target site has been detected. If the target part M has not been detected, the process returns to step S7, and the operation guidance unit 10 provides guidance for searching for the target part M. After the target part M is detected in step S8, the process proceeds to step S9. A determination is made. In this way, the processes in steps S7 to S9 are repeated until the target site M is detected.
  • step S9 If it is determined in step S9 that the target part M has been detected, the process proceeds to step S10.
  • step S ⁇ b> 10 the operation guide unit 10 notifies the user that the cross section of the target site M is displayed on the display unit 7. Thereby, the operation of the ultrasonic diagnostic apparatus 1 according to Embodiment 1 of the present invention is completed.
  • the flowchart shown in FIG. 5 represents the operation of the ultrasonic diagnostic apparatus 1 when the common bile duct is detected as the target region M.
  • the peripheral part memory 11 has a short axis image of the portal vein, a long axis image of the gallbladder, and a long axis image of the portal vein as peripheral parts A1, A2, and B that are effective for detecting the common bile duct. Further, it is assumed that the detection order in which the peripheral part B is detected after the peripheral part A1 detection process and the peripheral part A2 detection process are performed is stored.
  • the short axis image of the portal vein is a cross-sectional image obtained by cutting the portal vein on a plane perpendicular to the central axis of the portal vein, although not shown in the figure.
  • the long axis image of the portal vein is the portal vein. This represents a longitudinal sectional image obtained by cutting the portal vein along the central axis.
  • the long-axis image of the gallbladder also represents a longitudinal cross-sectional image obtained by cutting the gallbladder along the central axis of the gallbladder, similarly to the long-axis image of the portal vein.
  • the operation guide unit 10 provides guidance to the user so as to search for a peripheral part A1 that is a short-axis image of the portal vein and a peripheral part A2 that is a long-axis image of the gallbladder.
  • the operation guide unit 10 can display a guidance display G ⁇ b> 1 for searching for the peripheral parts A ⁇ b> 1 and A ⁇ b> 2 on the display unit 7 together with the ultrasonic image U.
  • the guidance display G1 may include text as shown in FIG. 6, or may include a guidance image representing guidance for the user.
  • step S11 when guidance for searching for the peripheral parts A1 and A2 is performed, the user operates the ultrasonic probe 15 so that the peripheral parts A1 and A2 are detected according to the guidance by the operation guide unit 10.
  • the site recognition unit 9 performs the detection processing of the peripheral sites A1 and A2.
  • the part recognition unit 9 can recognize the inferior vena cava or the like as the auxiliary part X, and can detect the peripheral parts A1 and A2 in consideration of the recognition result.
  • step S13 the operation guide unit 10 determines whether or not the peripheral part A1 is detected.
  • the operation guide unit 10 performs guidance to search for the peripheral part A1 in step S14.
  • the process returns to step S12 and the detection process of the peripheral parts A1 and A2 is performed, and then the determination of step S13 is performed. In this way, the processes in steps S12 to S14 are repeated until the peripheral part A1 is detected.
  • step S15 the operation guide unit 10 determines whether or not the peripheral part A2 is detected. When the peripheral part A2 is not detected, the operation guidance unit 10 performs the guidance to search for the peripheral part A2 in step S16. When guidance to search for the peripheral part A2 is made in step S16, the process returns to step S12 and the detection process of the peripheral parts A1 and A2 is performed. In the subsequent step S13, it is determined whether or not the peripheral part A1 has been detected. However, since the peripheral part A1 has already been detected, the process proceeds to step S15, and it is determined whether or not the peripheral part A2 has been detected. In this way, the processes of step S12, step S13, step S15, and step S16 are repeated until the peripheral part A2 is detected.
  • step S4 the operation guide unit 10 provides guidance to the user so as to search for a peripheral part B that is a long-axis image of the portal vein.
  • the operation guidance unit 10 can display a guidance display G ⁇ b> 2 for searching for the peripheral part B on the display unit 7 together with the ultrasonic image U.
  • step S4 When guidance to search for the peripheral part B is made in step S4, the peripheral part B is detected by the part recognition unit 9 in step S5, and whether or not the peripheral part B is detected by the operation guide part 10 in the subsequent step S6. Is determined. If the peripheral part B has not been detected, the process returns to step S4 to guide the search for the peripheral part B. In subsequent steps S5 and S6, the detection process of the peripheral part B and the peripheral part B are detected. A determination is made whether or not. In this way, the processes in steps S4 to S6 are repeated until the peripheral part B is detected. If the peripheral part B is detected, the process proceeds to step S7.
  • step S7 the operation guidance unit 10 provides guidance to the user so as to search for the target site M that is the common bile duct.
  • the operation guide unit 10 can display a guidance display G ⁇ b> 3 indicating that the target site M is searched for together with the ultrasonic image U on the display unit 7.
  • step S7 When guidance to search for the target site M is made in step S7, the target site M is detected by the site recognition unit 9 in step S8, and whether or not the target site M is detected by the operation guidance unit 10 in the subsequent step S9. Is determined. If the target part M has not been detected, the process returns to step S7 to guide the search for the target part M. In subsequent steps S8 and S9, the target part M detection process and the target part M are detected. A determination is made whether or not. In this way, the processes in steps S7 to S9 are repeated until the target part M is detected. If the target part M is detected, the process proceeds to step S10.
  • step S10 the operation guide unit 10 notifies the user that the cross section of the target region M is displayed on the display unit 7. Thereby, the operation of the ultrasonic diagnostic apparatus 1 for detecting the common bile duct which is the target region M is completed.
  • the operation of the ultrasonic probe 15 is performed so as to detect at least one peripheral part effective for detecting the target part M. Since it guides the user and guides the user to operate the ultrasonic probe 15 so as to detect the target part M based on the recognition result of at least one peripheral part, there is no need to perform unnecessary image recognition processing.
  • the target part M can be detected easily and quickly while reducing the calculation load of the ultrasonic diagnostic apparatus 1.
  • a conventional ultrasonic diagnostic apparatus when detecting a part of the common bile duct or the like having a structure similar to the structure of a part of a blood vessel or the like in which blood flow exists, by performing so-called Doppler measurement, In order to perform Doppler measurement from a process of acquiring a B-mode image representing a tomographic image of a subject, it is known to discriminate a site such as a blood vessel in which blood flow exists in the blood vessel and a site such as the common bile duct. It is necessary to switch the processing of the ultrasonic diagnostic apparatus to this processing, which takes time for the user. On the other hand, according to the ultrasonic diagnostic apparatus 1 according to Embodiment 1 of the present invention, it is not necessary to perform Doppler measurement in order to detect the target site M, and the target site M can be detected more quickly.
  • the ultrasonic diagnostic apparatus 1 is the time when the process of step S7 in the flowchart shown in FIG. 4 and the flowchart shown in FIG. 5 is performed, that is, when the guidance to search for the target part M is given by the operation guide unit 10. It is not necessary to end the operation and perform the processing in steps S8 to S10. In this case, the user may determine whether or not the ultrasonic image includes a cross section of the target region M by viewing the ultrasonic image displayed on the display unit 7.
  • the operation guide unit 10 guides the operation of the ultrasonic probe 15 to the user so as to detect at least one peripheral site effective for detecting the target site M, and the site recognition unit Since the operation of the ultrasonic probe 15 is guided to the user so as to detect the target portion M based on the recognition result by 9, the user can quickly identify the target portion M.
  • the detection order of the peripheral parts A1 and A2 is determined so that the peripheral part A1 and the peripheral part A2 are detected at the same time. It is not particularly limited which of the determination process of whether or not the detection is performed and the determination process of whether or not the peripheral part A2 is detected first. For example, in the flowchart shown in FIG. 5, the process of step S13 can be performed after the process of step S15.
  • the transmission unit 3 and the reception unit 4 in Embodiment 1 of the present invention are included in the image acquisition unit 8 of the processor 16, but may be included in the ultrasonic probe 15.
  • the image acquisition unit 8 is configured by the transmission unit 3 and the reception unit 4 included in the ultrasonic probe 15 and the image generation unit 5 included in the processor 16.
  • the operation guide unit 10 guides the operation of the ultrasonic probe 15 to the user so as to detect the target part M based on the recognition result for one peripheral part.
  • the peripheral part memory 11 stores a plurality of peripheral part candidates that can be one peripheral part effective for detecting the target part M, and the user selects one of these peripheral part candidates. Then, it may be used as a peripheral part for detecting the target part M.
  • the peripheral part memory 11 stores the parts C and D as one peripheral part candidate, and the user can select any one of the parts C and D as the peripheral part via the input unit 13. it can.
  • the operation guide unit 10 guides the user to operate the ultrasonic probe 15 so that the peripheral part selected by the user through the input unit 13 among the parts C and D is detected and selected. The operation of the ultrasonic probe 15 is guided to the user so as to detect the target part M based on the recognition result for the peripheral part.
  • the peripheral part memory 11 stores a plurality of peripheral part group candidates that can be a plurality of peripheral parts effective for detecting the target part M, and the user can select among the peripheral part group candidates.
  • One set may be selected from and used as a plurality of peripheral parts for detecting the target part M.
  • the peripheral part memory 11 can store a group consisting of parts A, B, and C and a group consisting of parts B, C, and D as candidates for a set of a plurality of peripheral parts.
  • the operation guide unit 10 is selected according to the selected set of peripheral parts by selecting one set from a plurality of sets of peripheral parts by the user via the input unit 13.
  • the operation of the ultrasonic probe 15 can be guided to the user so as to detect the target portion M.
  • the ultrasonic diagnostic apparatus 1 can perform guidance according to a set of more appropriate peripheral parts to the user with respect to the state of the subject, the target part M can be detected more quickly. Is possible.
  • the peripheral part memory 11 may store a plurality of peripheral parts effective for detecting the target part M and the detection order for each subject.
  • the operation guide unit 10 is stored for the subject identified by the identification information.
  • the operation of the ultrasonic probe 15 can be guided to the user so that a plurality of peripheral parts are sequentially detected according to the detection order stored for the subject.
  • some of the sites may change in size, shape, and the like depending on the state of the subject.
  • the gallbladder immediately after the subject eats is contracted compared to the gallbladder before the subject eats.
  • the site recognition unit 9 of the processor 16 can recognize the imaging site even when the size and shape of the site changes depending on the state of the subject.
  • the part recognizing unit 9 uses an algorithm such as a template for recognizing the imaging part of the subject based on the subject information related to the state of the subject such as before and after meals input by the user via the input unit 13. By changing the above, it is possible to recognize a site whose size, shape, etc. have changed according to the state of the subject.
  • the site recognition unit 9 recognizes the gallbladder using an algorithm corresponding to the contracted gallbladder. It can be performed.
  • the subject information may include information such as the height, weight, and sex of the subject.
  • the ultrasonic diagnostic apparatus 1 can detect the target portion M more quickly.
  • guidance displays G1, G2, and G3 are displayed on the ultrasonic image U.
  • a series of guidance displays G1 to G3 displayed on the display unit 7 for detecting the target site M are displayed as shown in FIG.
  • Any one of the guidance displays G1 to G3 can be highlighted according to the progress of guidance by the operation guidance unit 10.
  • the guidance display G2 for searching for the peripheral part B among the guidance displays G1 to G3 is highlighted.
  • emphasis display means that a specific guidance display is displayed in a color different from other guidance displays, a specific guidance display frame is configured by a line of a different type from other guidance display frames, etc. Is displayed in a display mode different from other guidance displays.
  • the guidance display regarding the site that has already been detected by the site recognition unit 9 is displayed. It can also be changed to a guidance display indicating that it has been detected. For example, although not shown, in the example shown in FIG. 9, since the peripheral portions A1 and A2 have already been detected, the guidance display G1 “Find A1 and A2” is displayed, and the guidance display “A1 and A2 have been detected”. Can be changed. Thereby, the user can grasp
  • the operation guide unit 10 is superimposed on the ultrasonic image U displayed on the display unit 7, for example, near the short axis image of the portal vein that is a peripheral part in the ultrasonic image U.
  • the text “portal vein” can be displayed, and a text and an image representing the name of the part can be displayed.
  • the operation guide unit 10 displays, for example, a mark such as an arrow extending from the text and image representing the name of the part toward the part recognized by the part recognition part 9 on the ultrasonic image U. It can also be made. Thereby, it is possible to make the user clearly grasp the peripheral part, the auxiliary part, and the target part M in the ultrasonic image U, and to detect the target part M more easily and quickly.
  • the operation guide unit 10 uses the ultrasonic wave currently acquired when guiding the operation of the ultrasonic probe 15 to the user so as to detect a peripheral part effective for detecting the target part M.
  • a reference image can also be displayed side by side on the image.
  • the reference image is a reference example of an image including a part that is currently a detection target.
  • reference images for example, ultrasound images acquired in the past for the subject that is the subject of current ultrasound diagnosis, ultrasound images of other subjects, ultrasound images published in documents such as reference books, etc. Etc. can be used.
  • the user since the user operates the ultrasonic probe 15 while referring to the reference image, the user can operate the ultrasonic probe 15 more smoothly according to the guidance of the operation guide unit 10.
  • the ultrasonic diagnostic apparatus 1 includes an attitude angle detection sensor including an acceleration sensor, a gyro sensor, a magnetic sensor, a GPS (Global Positioning System), and the like as an ultrasonic probe. 15 can be provided.
  • This posture angle detection sensor is a sensor that detects the posture angle representing the inclination and direction of the ultrasonic probe 15.
  • the operation guide unit 10 allows the user to operate the ultrasonic probe 15 based on the attitude angle of the ultrasonic probe 15 when at least one peripheral part effective for detecting the target part M is detected. I can guide you.
  • the current posture angle of the ultrasonic probe 15 deviates greatly from the posture angle of the ultrasonic probe 15 so that an optimal tomographic image of the subject can be obtained for detecting the target region M.
  • the user can be alerted.
  • the operation guide unit 10 causes the current posture angle of the ultrasonic probe 15 to approach the posture angle of the ultrasonic probe 15 so that an optimal tomographic image of the subject can be obtained for detecting the target region M.
  • a specific direction and angle for operating the ultrasonic probe 15 can be guided.
  • Embodiment 2 In the first embodiment, an example of detecting the common bile duct is shown as a specific example of the target site M, but the present invention is also applied to the case of detecting other sites.
  • the operation of the ultrasonic diagnostic apparatus 1 when an appendix is detected will be introduced using FIGS. 10 to 13.
  • the peripheral part memory 11 has a short axis image of the ascending colon as the peripheral part A effective for detecting the appendix, a long axis image of the cecum as the peripheral part B, and a long axis image of the ileum as the peripheral part C. Further, it is assumed that a detection order is stored such that each peripheral part is detected in the order of peripheral part A, peripheral part B, and peripheral part C.
  • the short-axis image of the ascending colon refers to a cross-sectional image obtained by cutting the ascending colon along a plane perpendicular to the central axis of the ascending colon
  • the long-axis image of the cecum is along the central axis of the cecum.
  • a longitudinal cross-sectional image obtained by cutting the cecum is represented
  • the long-axis image of the ileum represents a vertical cross-sectional image obtained by cutting the ileum along the central axis of the ileum.
  • the operation guidance unit 10 provides guidance to the user so as to search for a peripheral part A that is a short-axis image of the ascending colon.
  • the operation guide unit 10 can display a guidance display G ⁇ b> 4 for searching for the peripheral part A together with the ultrasonic image U on the display unit 7.
  • the guidance display G4 may include text as shown in FIG. 10, or may include a guidance image representing guidance for the user.
  • the user When guidance to search for the peripheral part A is performed, the user operates the ultrasonic probe 15 so that the peripheral part A is detected according to the guidance by the operation guide unit 10.
  • part A is performed by the site
  • the operation guide unit 10 determines whether or not the peripheral part A has been detected.
  • the operation guidance unit 10 performs guidance to search for the peripheral part A again, and the part recognition unit 9 performs the detection process of the peripheral part A. In this manner, the guidance process by the operation guide unit 10 and the detection process of the peripheral site A by the site recognition unit 9 are repeated until the peripheral site A is detected.
  • the operation guide part 10 When the operation guide unit 10 determines that the peripheral part A has been detected, the operation guide part 10 asks the user to search for the peripheral part B that is a long-axis image of the cecum, for example, as shown in FIG. And give guidance. At this time, the operation guidance unit 10 can display a guidance display G5 for searching for the peripheral region B together with the ultrasonic image U on the display unit 7.
  • the operation guide unit 10 rotates the direction of the ultrasonic probe 15 by 90 degrees and displays a message indicating that a tomographic image including the peripheral region B is acquired. To the user.
  • the part recognizing unit 9 recognizes a long-axis image of the ascending colon as the auxiliary part X1, and detects the peripheral part B in consideration of the recognition result. it can.
  • the long-axis image of the ascending colon represents a longitudinal image obtained by cutting the ascending colon along the central axis of the ascending colon.
  • the operation guide unit 10 determines whether or not the peripheral part B has been detected.
  • the operation guidance unit 10 performs guidance to search for the peripheral part B again, and the part recognition unit 9 performs processing for detecting the peripheral part B. In this way, the guidance process by the operation guide unit 10 and the detection process of the peripheral site B by the site recognition unit 9 are repeated until the peripheral site B is detected.
  • the operation guide part 10 When the operation guide unit 10 determines that the peripheral part B has been detected, the operation guide part 10 asks the user to search for the peripheral part C that is a long-axis image of the ileum, for example, as shown in FIG. And give guidance. At this time, the operation guidance unit 10 can display a guidance display G6 for searching for the peripheral region C together with the ultrasonic image U on the display unit 7. Here, for example, in the guidance display G6, the operation guide unit 10 tilts the ultrasonic probe 15 to the left side to display a message indicating that a tomographic image including the peripheral part C is acquired, and gives a specific instruction to the user. Can be done.
  • the user When guidance for searching for the peripheral part C is performed, the user operates the ultrasonic probe 15 so that the peripheral part C is detected according to the guidance by the operation guide unit 10. As described above, the part recognition unit 9 performs the detection process of the peripheral part C while the ultrasonic probe 15 is operated by the user.
  • the operation guide unit 10 determines whether or not the peripheral part C has been detected.
  • the operation guidance unit 10 performs guidance to search for the peripheral part C again, and the part recognition unit 9 performs detection processing of the peripheral part C. In this way, the guidance process by the operation guide unit 10 and the detection process of the peripheral part C by the part recognition unit 9 are repeated until the peripheral part C is detected.
  • the operation guide part 10 When the operation guide unit 10 determines that the peripheral part C has been detected, the operation guide part 10 asks the user to search for a target part M that is a long-axis image of the appendix, for example, as shown in FIG. And give guidance.
  • the long axis image of the appendix represents a longitudinal image obtained by cutting the appendix along the central axis of the appendix.
  • the operation guidance unit 10 can display a guidance display G7 for searching for the peripheral part C on the display unit 7 together with the ultrasonic image U.
  • the operation guide unit 10 displays a message on the guidance display G7 that the tomographic image including the target region M is acquired by moving downward while maintaining the posture of the ultrasonic probe 15 or the like. Simple instructions can be given to the user.
  • the site recognition unit 9 performs detection processing of the target site M, and the operation guidance unit 10 determines whether or not the target site M has been detected. Made.
  • the site recognition unit 9 recognizes the long-axis image of the ileum as the auxiliary site X2, recognizes the long-axis image of the cecum as the auxiliary site X3, and considers the recognition results.
  • the target part M can be detected.
  • the operation guidance unit 10 provides guidance for searching for the target part M, and the part recognition unit 9 performs the target part M detection process. In this way, the guidance process by the operation guide unit 10 and the target site M detection process by the site recognition unit 9 are repeated until the target site M is detected.
  • the operation guide unit 10 determines that the target site M has been detected, the operation guide unit 10 notifies the user that the cross section of the target site M is displayed on the display unit 7. Thereby, the operation of the ultrasonic diagnostic apparatus 1 for detecting the appendix that is the target site M is completed.
  • At least one peripheral site effective for detecting the target site M As described above, even when a target site M different from the common bile duct is detected, such as the appendix, at least one peripheral site effective for detecting the target site M, as in the first embodiment.
  • Embodiment 3 There are seven cervical vertebrae from the first cervical vertebra to the seventh cervical vertebra from the head side in the neck of the human body, and the spinal cord is inserted into the first cervical vertebra to the seventh cervical vertebra.
  • a plurality of nerves extend from the spinal cord through each of the seven cervical vertebrae.
  • the nerve roots of these nerves are often observed using an ultrasonic diagnostic apparatus when diagnosing a disease or the like, when performing a so-called nerve block or the like, but the nerves of the first to seventh cervical vertebrae are observed.
  • the nerve roots of the fifth cervical vertebra to the seventh cervical vertebra are adjacent to each other and run parallel to each other. Therefore, for an unskilled user, by observing an ultrasonic image, It was often difficult to specify the nerve root.
  • the long axis image of the nerve root of the sixth cervical vertebra represents a longitudinal cross-sectional image obtained by cutting the nerve root of the sixth cervical vertebra along the central axis of the nerve root of the sixth cervical vertebra.
  • FIG. 14 schematically shows the fifth cervical vertebra C5, the sixth cervical vertebra C6, and the seventh cervical vertebra C7.
  • the fifth cervical vertebra C5, the sixth cervical vertebra C6, and the seventh cervical vertebra C7 have transverse processes K5, K6, and K7, respectively.
  • the nerve root N5 of the fifth cervical vertebra C5 extends from the spinal cord S along the transverse process K5 of the fifth cervical vertebra C5.
  • the nerve root N6 of the sixth cervical vertebra C6 extends from the spinal cord S along the transverse process K6 of the sixth cervical vertebra C6, and from the spinal cord S along the transverse process K7 of the seventh cervical vertebra C7.
  • the nerve root N7 of the seventh cervical vertebra C7 extends.
  • the peripheral part memory 11 of the ultrasonic diagnostic apparatus 1 has a long axis of the nerve root N6 of the sixth cervical vertebra C6 as an effective peripheral part for detecting the nerve root N5 of the fifth cervical vertebra C5 and the nerve root N7 of the seventh cervical vertebra C7.
  • An image is stored, and further, a detection order is stored such that detection is performed in the order of the nerve root N6 of the sixth cervical vertebra C6, the nerve root N5 of the fifth cervical vertebra C5, and the nerve root N7 of the seventh cervical vertebra C7. To do.
  • FIG. 16 is a flowchart showing the operation of the ultrasonic diagnostic apparatus 1 according to the third embodiment.
  • the operation guide unit 10 provides guidance to the user so as to search for a long-axis image of the nerve root N6 of the sixth cervical vertebra C6 as a peripheral part.
  • the operation guide unit 10 can display a guidance display for searching for the nerve root N6 of the sixth cervical vertebra C6 on the display unit 7 together with the ultrasonic image U, for example.
  • the guidance display may include text or a guidance image representing guidance for the user.
  • the user When guidance to search for the nerve root N6 of the sixth cervical vertebra C6 is performed, the user operates the ultrasonic probe 15 according to the guidance by the operation guide unit 10 so that the nerve root N6 of the sixth cervical vertebra C6 is detected. In this manner, in a state where the ultrasonic probe 15 is operated by the user, the detection processing of the nerve root N6 of the sixth cervical vertebra C6 is performed by the part recognition unit 9 in step S32.
  • the long-axis image of the nerve root N6 of the sixth cervical vertebra C6 is depicted adjacent to the vertebral artery.
  • the part recognition unit 9 when performing the detection process of the nerve root of the sixth cervical vertebra C6, the part recognition unit 9 also performs the detection process of the vertebral artery, and the vertebral artery depicted together adjacent to the long-axis image of the nerve root Is detected, this nerve root can be detected as the nerve root N6 of the sixth cervical vertebra C6.
  • the site recognition unit 9 can detect the nerve root N6 and the vertebral artery of the sixth cervical vertebra C6 depicted in the ultrasonic image U by using so-called template matching or the like.
  • step S33 the operation guide unit 10 determines whether or not the nerve root N6 of the sixth cervical vertebra C6 has been detected.
  • the operation guidance unit 10 returns to step S31 and guidance for searching for the nerve root N6 of the sixth cervical vertebra C6 again.
  • the site recognition unit 9 performs a detection process of the nerve root N6 of the sixth cervical vertebra C6. In this way, the processes in steps S31 to S33 are repeated until the nerve root N6 of the sixth cervical vertebra C6 is detected.
  • step S34 the operation guidance unit 10 provides guidance to the user so as to search for a long-axis image of the nerve root N5 of the fifth cervical vertebra C5 as a target site.
  • the operation guide unit 10 can display a guidance display for searching for the long axis image of the nerve root N5 of the fifth cervical vertebra C5 on the display unit 7 together with the ultrasonic image U.
  • the operation guide unit 10 moves the ultrasonic probe 15 upward, that is, moves the ultrasonic probe 15 to the head side of the subject, and the nerve of the fifth cervical vertebra C5.
  • Specific instructions can be given to the user, such as displaying a message to acquire a tomographic image including the root N5.
  • the long-axis image of the nerve root N5 of the fifth cervical vertebra C5 represents a longitudinal image obtained by cutting the nerve root N5 of the fifth cervical vertebra C5 along the central axis of the nerve root N5 of the fifth cervical vertebra C5.
  • the user draws a long axis image of the nerve root N5 of the fifth cervical vertebra C5 according to the guidance by the operation guide unit 10.
  • the ultrasonic probe 15 is operated as described above.
  • the site recognition unit 9 performs the detection process of the nerve root N5 of the fifth cervical vertebra C5 in step S35.
  • the region recognition unit 9 performs an ultrasonic image. A shape that seems to be a long-axis image of a nerve root existing in U is detected as a long-axis image of the nerve root N5 of the fifth cervical vertebra C5.
  • step S36 the operation guide unit 10 determines whether or not a long-axis image of the nerve root N5 of the fifth cervical vertebra C5 has been detected.
  • the process returns to step S34 to search for the nerve root N5 of the fifth cervical vertebra C5 by the operation guide unit 10.
  • Guidance is performed again, and in step S35, the site recognition unit 9 performs detection processing of the nerve root N5 of the fifth cervical vertebra C5. In this way, the processes in steps S34 to S36 are repeated until the long-axis image of the nerve root N5 of the fifth cervical vertebra C5 is detected.
  • step S37 the operation guide unit 10 provides guidance to the user so as to search for a long-axis image of the nerve root N7 of the seventh cervical vertebra C7 as a target site.
  • the operation guide unit 10 can display a guidance display for searching for the long axis image of the nerve root N7 of the seventh cervical vertebra C7 on the display unit 7 together with the ultrasonic image U.
  • the operation guide unit 10 moves the ultrasound probe 15 downward, that is, moves the ultrasound probe 15 to the body side of the subject, and the nerve of the seventh cervical vertebra C7.
  • Specific instructions can be given to the user, such as displaying a message to acquire a tomographic image including the root N7.
  • the long-axis image of the nerve root N7 of the seventh cervical vertebra C7 represents a longitudinal image obtained by cutting the nerve root N7 of the seventh cervical vertebra C7 along the central axis of the nerve root N7 of the seventh cervical vertebra C7.
  • the user draws a long axis image of the nerve root N7 of the seventh cervical vertebra C7 according to the guidance by the operation guide unit 10.
  • the ultrasonic probe 15 is operated as described above.
  • the site recognition unit 9 performs the detection process of the nerve root N7 of the seventh cervical vertebra C7.
  • the part recognition unit 9 detects the shape that seems to be a long axis image of the nerve root as the nerve root N7 of the seventh cervical vertebra C7.
  • step S39 the operation guide unit 10 determines whether or not a long-axis image of the nerve root N7 of the seventh cervical vertebra C7 has been detected.
  • the process returns to step S37 and the operation guide unit 10 searches for the nerve root N7 of the seventh cervical vertebra C7.
  • step S38 the site recognition unit 9 performs detection processing of the nerve root N7 of the seventh cervical vertebra C7. In this way, the processes in steps S37 to S39 are repeated until a long-axis image of the nerve root N7 of the seventh cervical vertebra C7 is detected. If it is determined in step S39 that the long axis image of the nerve root N7 of the seventh cervical vertebra C7 has been detected, the operation of the ultrasonic diagnostic apparatus according to the third embodiment ends.
  • the user specifies the nerve root N5 of the fifth cervical vertebra C5, the nerve root N6 of the sixth cervical vertebra C6, and the nerve root N7 of the seventh cervical vertebra C7 by observing the acquired ultrasonic image. Since the nerve root N5 of the fifth cervical vertebra C5, the nerve root N6 of the sixth cervical vertebra C6, and the nerve root N7 of the seventh cervical vertebra C7 are adjacent to each other and run in parallel, In many cases, it was difficult to identify from the ultrasonic image.
  • the nerve root N6 of the sixth cervical vertebra C6 is set with the nerve root N6 of the sixth cervical vertebra C6 as a peripheral site, the nerve root N5 of the fifth cervical vertebra C5 and the nerve root N7 of the seventh cervical vertebra C7 as target sites.
  • the operation of the ultrasonic probe 15 is guided to the user so as to search the nerve root N5 of the fifth cervical vertebra C5 and the nerve root N7 of the seventh cervical vertebra C7 based on the detection result of
  • the nerve root N5 of the fifth cervical vertebra C5 and the nerve root N7 of the seventh cervical vertebra C7 can be detected easily and quickly.
  • the transverse process K5 of the fifth cervical vertebra C5, the transverse process K6 of the sixth cervical vertebra C6, and the transverse process K7 of the seventh cervical vertebra C7 have different shapes. ing.
  • the region recognition unit 9 detects the long axis image of the nerve root N5 of the fifth cervical vertebra C5 and the nerve root N7 of the seventh cervical vertebra C7 by detecting a shape that seems to be a long axis image of the nerve root. Whether the detected nerve root is the nerve root N5 of the fifth cervical vertebra C5 or the nerve root N7 of the seventh cervical vertebra C7 based on the shape of the transverse process existing around the detected nerve root Can be confirmed.
  • the operation guide unit 10 generates a short-axis image of the nerve root N5 of the fifth cervical vertebra C5 using the operation guide unit 10 as a trigger when the long-axis image of the nerve root N5 of the fifth cervical vertebra C5 is detected in step S36.
  • Guidance is given to the user to search.
  • the operation guide unit 10 can display a guidance display for searching for the short axis image of the nerve root N5 of the fifth cervical vertebra C5 on the display unit 7 together with the ultrasonic image U.
  • the operation guide unit 10 rotates the direction of the ultrasonic probe 15 by 90 degrees and obtains a message indicating that a tomographic image including a short axis image of the nerve root N5 of the fifth cervical vertebra C5 is acquired.
  • Specific instructions such as display can be given to the user.
  • the short axis image of the nerve root N5 of the fifth cervical vertebra C5 represents a transverse image obtained by cutting the nerve root N5 of the fifth cervical vertebra C5 along a plane orthogonal to the central axis of the nerve root N5 of the fifth cervical vertebra C5. .
  • the user When guidance for searching for the short-axis image of the nerve root N5 of the fifth cervical vertebra C5 is performed, the user is drawn so that the short-axis image of the nerve root N5 of the fifth cervical vertebra C5 is drawn according to the guidance by the operation guide unit 10.
  • the ultrasonic probe 15 is operated.
  • the region recognition unit 9 performs a short axis image detection process of the nerve root N5 of the fifth cervical vertebra C5.
  • the site recognizing unit 9 performs processing for detecting transverse processes existing around the nerve root, and the shape of the transverse process detected together with the nerve root is unique to the transverse process K5 of the fifth cervical vertebra C5.
  • the detected nerve root can be detected as the nerve root N5 of the fifth cervical vertebra C5.
  • the operation guide unit 10 searches for the short axis image of the nerve root N7 of the seventh cervical vertebra C7 using the operation guide unit 10 as a trigger when the long axis image of the nerve root N7 of the seventh cervical vertebra C7 is detected in step S39.
  • Guidance is given to the user.
  • the operation guide unit 10 can display a guidance display for searching for the short axis image of the nerve root N7 of the seventh cervical vertebra C7 on the display unit 7 together with the ultrasonic image U.
  • the operation guide unit 10 rotates the direction of the ultrasonic probe 15 by 90 degrees and outputs a message indicating that a tomographic image including a short axis image of the nerve root N7 of the seventh cervical vertebra C7 is acquired.
  • Specific instructions such as display can be given to the user.
  • the short axis image of the nerve root N7 of the seventh cervical vertebra C7 represents a transverse image obtained by cutting the nerve root N7 of the seventh cervical vertebra C7 along a plane orthogonal to the central axis of the nerve root N7 of the seventh cervical vertebra C7. .
  • the user may draw a short-axis image of the nerve root N7 of the seventh cervical vertebra C7 according to the guidance by the operation guide unit 10.
  • the ultrasonic probe 15 is operated.
  • the region recognition unit 9 performs the short axis image detection process of the nerve root N7 of the seventh cervical vertebra C7.
  • the site recognition unit 9 performs processing for detecting the shape of the vertebrae existing around the nerve root, and the shape of the transverse process detected together with the nerve root is applied to the transverse process K7 of the seventh cervical vertebra C7.
  • the detected nerve root can be detected as the nerve root N7 of the seventh cervical vertebra C7.
  • the part recognition unit 9 can improve the detection accuracy of the nerve root N5 of the fifth cervical vertebra C5 and the nerve root N7 of the seventh cervical vertebra C7. it can.
  • the part recognition unit 9 detects the vertebral artery together with the long axis image of the nerve root, and converts the nerve root to the sixth cervical vertebra C6. In the same manner as the detection process of the nerve root N5 of the fifth cervical vertebra C5 and the nerve root N7 of the seventh cervical vertebra C7, it is further detected based on the shape of the transverse process existing around the nerve root. Thus, it can be confirmed that the detected nerve root is the nerve root N6 of the sixth cervical vertebra C6.
  • the short-axis image of the nerve root N6 of the sixth cervical vertebra C6 is a transverse image obtained by cutting the nerve root N6 of the sixth cervical vertebra C6 along a plane orthogonal to the central axis of the nerve root N6 of the sixth cervical vertebra C6.
  • the operation guide unit 10 provides guidance for searching for the short axis image of the nerve root N6 of the sixth cervical vertebra C6
  • the user follows the guidance of the operation guide unit 10 to determine the nerve root N6 of the sixth cervical vertebra C6.
  • the ultrasonic probe 15 is operated so that a short-axis image is drawn.
  • the detection process of the nerve root N6 of the sixth cervical vertebra C6 is performed by the site recognition unit 9 while the ultrasonic probe 15 is being operated by the user.
  • the site recognition unit 9 When performing the process of detecting the short axis image of the nerve root N6 of the sixth cervical vertebra C6, the site recognition unit 9 performs the process of detecting the shape of the transverse process existing around the nerve root, and together with the nerve root
  • the shape of the detected transverse process has a shape unique to the transverse process K6 of the sixth cervical vertebra C6, this nerve root can be detected as the nerve root N6 of the sixth cervical vertebra C6.
  • the user can search the nerve root N5 of the fifth cervical vertebra C5 and the nerve root N7 of the seventh cervical vertebra C7 with high accuracy.
  • the site recognition unit 9 when detecting the nerve root N6 of the sixth cervical vertebra C6, the site recognition unit 9 performs image analysis such as so-called template matching together with the vertebral artery depicted along with the long-axis image of the nerve root of the sixth cervical vertebra C6.
  • image analysis such as so-called template matching together with the vertebral artery depicted along with the long-axis image of the nerve root of the sixth cervical vertebra C6.
  • the vertebral artery can be detected based on a so-called Doppler signal.
  • the operation guide unit 10 provides guidance for searching for the long axis image of the nerve root N5 of the fifth cervical vertebra C5
  • the long axis image of the nerve root N5 of the fifth cervical vertebra C5 is not detected for a certain period of time.
  • the operation guide unit 10 gives the user the nerve root N6 of the sixth cervical vertebra C6. It is possible to provide guidance for redrawing the long axis image.
  • the operation guide unit 10 can guide the user to redraw the long axis image of the nerve root N6 of the sixth cervical vertebra C6. In this way, by guiding the user to again draw a long-axis image of the nerve root N6 of the sixth cervical vertebra C6, the user can change the fifth position based on the position of the nerve root N6 of the sixth cervical vertebra C6. It becomes easy to depict the nerve root N5 of the cervical vertebra C5 and the nerve root N7 of the seventh cervical vertebra C7.
  • the nerve root N5 of the fifth cervical vertebra C5, the nerve root N6 of the sixth cervical vertebra C6, and the nerve root N7 of the seventh cervical vertebra C7 are adjacent to each other and close to each other. Therefore, a long-axis image of the nerve root N6 of the sixth cervical vertebra C6 after a long-axis image of the nerve root N6 of the sixth cervical vertebra C6 is drawn until a long-axis image of the nerve root N5 of the fifth cervical vertebra C5 is drawn.
  • the image pattern drawn in the sequentially acquired ultrasonic image U from the time of drawing the image to the time of drawing the long axis image of the nerve root N7 of the seventh cervical vertebra C7 usually has little change.
  • ultrasonic images at the time when the operation guide unit 10 is guided to search for the long axis image of the nerve root N5 of the fifth cervical vertebra C5 or the long axis image of the nerve root N7 of the seventh cervical vertebra C7 are sequentially acquired.
  • the position of the ultrasonic probe 15 is the nerve root N5 of the fifth cervical vertebra C5, the nerve root N6 of the sixth cervical vertebra C6, and the seventh cervical vertebra C7. Therefore, the operation guide unit 10 can guide that the long axis image of the nerve root N6 of the sixth cervical vertebra C6 is drawn again.
  • the operation guide unit 10 guides the user to search for the nerve root in the order of the nerve root N6 of the sixth cervical vertebra C6, the nerve root N5 of the fifth cervical vertebra C5, and the nerve root N7 of the seventh cervical vertebra C7.
  • the user can be guided to search for the nerve root in the order of the nerve root N6 of the sixth cervical vertebra C6, the nerve root N7 of the seventh cervical vertebra C7, and the nerve root N5 of the fifth cervical vertebra C5.
  • the nerve root N5 of the fifth cervical vertebra C5 and the nerve root N7 of the seventh cervical vertebra C7 can be detected easily and quickly.
  • the short axis image of the nerve root N5 of the fifth cervical vertebra C5 is detected by detecting the shape of the transverse process K5 of the fifth cervical vertebra C5
  • the shape of the transverse process K7 of the seventh cervical vertebra C7 is detected by detecting the shape of the transverse process K5.
  • the site recognition unit 9 uses the machine learning method and the general image recognition method using deep learning to detect the short axis image of the nerve root N5 of the fifth cervical vertebra C5 and the seventh cervical vertebra. It is also possible to classify the short axis image of the C7 nerve root N7.
  • the short-axis image of the nerve root N6 of the sixth cervical vertebra C6 can also be classified by a general image recognition method using a machine learning method or deep learning.
  • FIG. 17 shows a configuration of an ultrasonic diagnostic apparatus 1A according to the fourth embodiment.
  • the ultrasonic diagnostic apparatus 1A according to the fourth embodiment is different from the ultrasonic diagnostic apparatus 1 according to the first embodiment shown in FIG. 1 in that an apparatus control unit 12A is provided instead of the apparatus control unit 12, and an outline generation unit 22 is added. It is a thing.
  • a contour generation unit 22 is connected to the part recognition unit 9, and the contour generation unit 22 is connected to the display control unit 6.
  • the device control unit 12A is connected to the display control unit 6, the image acquisition unit 8, the part recognition unit 9, the operation guide unit 10, the input unit 13, the storage unit 14, and the contour generation unit 22.
  • the display control unit 6, the image acquisition unit 8, the part recognition unit 9, the operation guide unit 10, the device control unit 12 ⁇ / b> A, and the contour generation unit 22 constitute a processor 16 ⁇ / b> A.
  • the contour generation unit 22 of the processor 16A generates the contours of at least one peripheral site, auxiliary site, and target site M recognized by the site recognition unit 9 under the control of the device control unit 12A.
  • the contour generated by the contour generation unit 22 in this way is displayed by being superimposed on the ultrasonic image U on the display unit 7 via the display control unit 6, for example, as shown in FIGS.
  • a contour line CL ⁇ b> 1 representing the contour of the peripheral part A that is a short-axis image of the ascending colon is displayed superimposed on the ultrasound image U.
  • FIG. 1 representing the contour of the peripheral part A that is a short-axis image of the ascending colon is displayed superimposed on the ultrasound image U.
  • the contour line CL2 of the peripheral site B that is a long-axis image of the cecum and the contour line CL3 of the auxiliary site X1 that is a long-axis image of the ascending colon are displayed superimposed on the ultrasound image U. ing.
  • the outline CL4 of the peripheral portion C which is a long-axis image of the ileum, is displayed superimposed on the ultrasound image U.
  • the contour line CL5 of the target site M which is a long-axis image of the appendix
  • the contour line CL6 of the auxiliary site X2 which is a long-axis image of the ileum
  • the contour generation unit 22 generates the contours of at least one detected peripheral part, auxiliary part, and target part each time the peripheral part, auxiliary part, and target part M are detected by the part recognition part 9. And superimposed on the ultrasonic image U for display.
  • the user can easily grasp the positions of the peripheral part, the auxiliary part, and the target part M included in the ultrasonic image U.
  • the target site can be detected more easily.
  • the contour generation unit 22 when the appendix is detected as the target site M, the contour generation unit 22 generates an outline of the ascending colon, cecum, ileum, and appendix, but the contour generation unit 22 Even when a part such as the common bile duct different from the appendix is detected as the target part M, the peripheral part, the auxiliary part, and the outline of the target part M can be generated in the same manner.
  • the contour generation unit 22 can highlight the generated peripheral region, auxiliary region, and target region M on the display unit 7.
  • the contour generation unit 22 can display a contour line representing the generated contour in a color different from the color used in the ultrasound image U.
  • the contour generation unit 22 can blink the contour line representing the generated contour. Thereby, the user can grasp
  • the contour generation unit 22 uses a region representing the peripheral region, the auxiliary region, and the target region M recognized by the region recognition unit 9, that is, a region inside the generated contour, in the ultrasonic image U.
  • the display unit 7 can display the color different from the color. Thereby, the user can grasp
  • Embodiment 5 In Embodiments 1, 2, and 4, each of a plurality of peripheral sites effective for detecting the target site M is detected, but detection of some of the peripheral sites among the plurality of peripheral sites is skipped. Can do.
  • the ultrasonic diagnostic apparatus 1 according to the fifth embodiment has the same configuration as the ultrasonic diagnostic apparatus 1 according to the first embodiment shown in FIG.
  • FIG. 22 is a flowchart showing the operation of the ultrasonic diagnostic apparatus 1 according to the fifth embodiment. Steps S1 to S10 in this flowchart are the same as steps S1 to S10 in the flowchart shown in FIG.
  • the operation guide unit 10 provides guidance to search for the peripheral part A in step S1
  • the peripheral part A is detected by the part recognition unit 9 in step S2
  • the peripheral part A is detected in the subsequent step S3.
  • the operation guidance unit 10 determines whether or not the operation has been performed.
  • step S21 the operation guide unit 10 determines whether or not the elapsed time T from the point in time when guidance for searching for the peripheral part A in step S1 has exceeded the threshold time Tth. If the elapsed time T is less than or equal to the threshold time Tth, the process returns to step S1 and the operation guidance unit 10 provides guidance to search for the peripheral part A.
  • the process of steps S1 to S3 and step S21 is repeated while the peripheral part A is not detected until the threshold time Tth elapses after the guidance to search for the peripheral part A is made in step S1. .
  • step S21 If it is determined in step S21 that the elapsed time T has exceeded the threshold time Tth, the process proceeds to step S22, and the operation guide unit 10 skips the detection of the peripheral part A, and proceeds to step S4. Moreover, also when it determines with the peripheral region A having been detected in step S3, it progresses to step S4.
  • step S4 when guidance for searching for the peripheral part B is given by the operation guide unit 10, the part recognition unit 9 performs detection processing of the peripheral part B in step S5, and in the subsequent step S6, the peripheral part B is detected by the operation guide unit 10. A determination is made whether B has been detected. If the peripheral part B has not been detected, the process returns to step S4 and guidance is provided to search for the peripheral part B. Next, a detection process of the peripheral part B is performed in step S5, and it is determined whether or not the peripheral part B is detected in step S6. In this way, the processes in steps S4 to S6 are repeated until the peripheral part B is detected.
  • step S6 If it is determined in step S6 that the peripheral part B has been detected, the process proceeds to step S7.
  • step S7 when the operation guide unit 10 provides guidance to search for the target site M, the site recognition unit 9 performs detection processing of the target site M in step S8, and in the subsequent step S9, the operation guide unit 10 detects the target site. A determination is made whether M has been detected. If the target part M has not been detected, the process returns to step S7 and guidance for searching for the target part M is provided. Next, the target part M is detected in step S8, and it is determined whether or not the target part M is detected in step S9. In this way, the processes in steps S7 to S9 are repeated until the target site M is detected.
  • step S9 If it is determined in step S9 that the target site M has been detected, the process proceeds to step S10, and the operation guide unit 10 notifies the display unit 7 that the cross section of the target site M is displayed. Thus, the operation of the ultrasonic diagnostic apparatus 1 according to Embodiment 5 is completed.
  • the ultrasonic diagnostic apparatus 1 when a peripheral part cannot be detected before the threshold time Tth elapses after the guidance by the operation guide unit 10 is performed, this peripheral part is detected.
  • the target region M can be detected more quickly without the need to perform multiple detection processes on a peripheral region that is difficult to detect due to, for example, the state of the subject.
  • the detection process of the peripheral part A out of the two peripheral parts A and B is skipped, but the detection process of the peripheral part B can be skipped instead of the peripheral part A.
  • the peripheral part detection process is skipped.
  • the trigger for skipping the detection process is not limited to this.
  • the operation guide unit 10 skips detection processing of some peripheral parts among a plurality of peripheral parts effective for detecting the target part M based on the recognition result of the peripheral parts by the part recognition unit 9. Can do. For example, when the peripheral parts A and B are stored in the peripheral part memory 11 as the peripheral parts that are effective for detecting the target part M, the operation guide unit 10 detects that the peripheral part A has been detected. It can be determined that the detection of the part B is unnecessary, and the detection process of the peripheral part B can be skipped.
  • the operation guide unit 10 detects some peripheral parts among a plurality of peripheral parts effective for detecting the target part M based on the correction information input by the user via the input unit 13. Processing can be skipped.
  • the user can input a peripheral part for skipping the detection process via the input unit 13 as the correction information.
  • peripheral parts A and B are stored in the peripheral part memory 11 as a plurality of peripheral parts effective for detecting the target part M, information indicating that the peripheral part A is skipped as correction information Is input via the input unit 13, the operation guide unit 10 skips the detection process of the peripheral part A.
  • the operation guide unit 10 selects one of a plurality of peripheral sites effective for detecting the target site M based on the subject information regarding the state of the subject input by the user via the input unit 13. It is possible to skip the detection process of the peripheral part of the part. For example, when a plurality of peripheral parts effective for detecting the target part M include the gallbladder and the user inputs that the subject is in a post-meal state via the input part 13, the operation guide part No. 10 can determine that the gallbladder is in a contracted state different from normal, and skip the detection process of the gallbladder.
  • Embodiment 6 In the fifth embodiment, detection of some peripheral parts among a plurality of peripheral parts effective for detecting the target part M is skipped. However, the detection order of the plurality of peripheral parts is changed and guidance to the user is performed. Can also be done.
  • the ultrasonic diagnostic apparatus 1 according to the sixth embodiment has the same configuration as the ultrasonic diagnostic apparatus 1 according to the first embodiment shown in FIG.
  • FIG. 23 is a flowchart showing the operation of the ultrasonic diagnostic apparatus 1 according to the sixth embodiment. Steps S1 to S10 in this flowchart are the same as steps S1 to S10 in the flowchart shown in FIG. 4, and step S21 is the same as step S21 in the flowchart shown in FIG.
  • the operation guide unit 10 provides guidance to search for the peripheral part A in step S1
  • the peripheral part A is detected by the part recognition unit 9 in step S2
  • the peripheral part A is detected in the subsequent step S3.
  • the operation guidance unit 10 determines whether or not the operation has been performed.
  • step S21 the operation guide unit 10 determines whether or not the elapsed time T from the point in time when guidance for searching for the peripheral part A in step S1 has exceeded the threshold time Tth. If the elapsed time T is less than or equal to the threshold time Tth, the process returns to step S1 and the operation guidance unit 10 provides guidance to search for the peripheral part A.
  • the process of steps S1 to S3 and step S21 is repeated while the peripheral part A is not detected until the threshold time Tth elapses after the guidance to search for the peripheral part A is made in step S1. .
  • step S21 If it is determined in step S21 that the elapsed time T has exceeded the threshold time Tth, the process proceeds to step S23.
  • step S ⁇ b> 23 the operation guide unit 10 changes the detection order of the peripheral part A. For example, the operation guide unit 10 performs a detection order in which the peripheral part B is detected after the peripheral part A is detected, and a detection order in which the peripheral part A is detected after the peripheral part B is detected. Change to When the detection order of the peripheral part A is changed in step S21, the process proceeds to step S4. Moreover, also when it determines with the peripheral region A having been detected in step S3, it progresses to step S4.
  • step S4 when guidance for searching for the peripheral part B is given by the operation guide unit 10, the part recognition unit 9 performs detection processing of the peripheral part B in step S5, and in the subsequent step S6, the peripheral part B is detected by the operation guide unit 10. A determination is made whether B has been detected. If it is determined that the peripheral part B has not been detected, the process returns to step S4 and guidance is provided to search for the peripheral part B. Next, a detection process of the peripheral part B is performed in step S5, and it is determined whether or not the peripheral part B is detected in step S6. In this way, the processes in steps S4 to S6 are repeated until the peripheral part B is detected.
  • step S6 determines whether the peripheral region B has been detected. If it is determined in step S6 that the peripheral region B has been detected, the process proceeds to step S24.
  • step S24 the operation guide unit 10 determines whether or not the peripheral part A has already been detected in step S2. If it is determined that the peripheral part A has not been detected yet, it is determined that the detection of the peripheral part A in step S3 has failed, and the process proceeds to step S25.
  • step S25 is the same as the processing in step S1, and the operation guidance unit 10 provides guidance to search for the peripheral part A.
  • the subsequent processing in step S26 is the same as the processing in step S2, and the peripheral region A detection process is performed by the region recognition unit 9.
  • the part recognition unit 9 can perform the detection process of the peripheral part A in consideration of the recognition result of the peripheral part B.
  • the process in step S27 subsequent to step S26 is the same as the process in step S3, and the operation guide unit 10 determines whether or not the peripheral part A is detected in step S26.
  • step S27 If the peripheral part A is not detected in step S27, the process returns to step S25, and guidance is provided to search for the peripheral part A.
  • step S26 when the peripheral part A is detected, it is determined whether or not the peripheral part A is detected in step S27. In this way, the processes in steps S25 to S27 are repeated until the peripheral part A is detected in step S26. If it is determined in step S27 that the peripheral part A has been detected, the process proceeds to step S7.
  • step S7 when the operation guide unit 10 provides guidance to search for the target site M, the site recognition unit 9 performs detection processing of the target site M in step S8, and in the subsequent step S9, the operation guide unit 10 detects the target site. A determination is made whether M has been detected. If the target part M has not been detected, the process returns to step S7 and guidance for searching for the target part M is provided. Next, the target part M is detected in step S8, and it is determined whether or not the target part M is detected in step S9. In this way, the processes in steps S7 to S9 are repeated until the target site M is detected.
  • step S9 If it is determined in step S9 that the target site M has been detected, the process proceeds to step S10, and the operation guide unit 10 notifies the display unit 7 that the cross section of the target site M is displayed. Thus, the operation of the ultrasonic diagnostic apparatus 1 according to Embodiment 6 is completed.
  • the ultrasonic diagnostic apparatus 1 when the peripheral part cannot be detected before the threshold time Tth elapses after the guidance by the operation guide unit 10 is performed, the peripheral part is detected. Therefore, the detection accuracy of the peripheral parts whose detection order has been changed can be improved in consideration of the recognition result of the peripheral parts that have already been detected. Thereby, the ultrasonic diagnostic apparatus 1 can detect the target site
  • the detection order of the peripheral part is changed.
  • the trigger for changing the detection order is not limited to this.
  • the operation guide unit 10 changes the detection order of some peripheral parts among a plurality of peripheral parts effective for detecting the target part M based on the recognition result of the peripheral parts by the part recognition unit 9. Guidance can be given to the user. For example, when peripheral sites A, B, and C are stored in the peripheral site memory 11 in the order of detection of the peripheral sites A, B, and C as peripheral sites that are effective for detecting the target site M, The operation guide unit 10 determines that it is easier to detect the peripheral part C than the peripheral part B because the peripheral part A is detected. The detection order can be changed to the peripheral parts A, C, and B in order to guide the user.
  • the operation guide unit 10 detects some peripheral parts among a plurality of peripheral parts effective for detecting the target part M based on the correction information input by the user via the input unit 13.
  • the user can be guided by changing the order.
  • the user can input the detection order of a plurality of surrounding parts via the input unit 13 as correction information.
  • the peripheral parts A and B are stored in the peripheral part memory 11 in the order of detection of the peripheral parts A and B as the peripheral parts effective for detecting the target part M
  • the user By inputting correction information in which the detection order of the part A is the second and the detection order of the peripheral part B is the first, the detection order of the peripheral parts A and B is changed in the order of the peripheral parts B and A.
  • the user can be guided.
  • the operation guide unit 10 selects one of a plurality of peripheral parts effective for detecting the target part M based on the subject information related to the subject information input by the user via the input unit 13. It is possible to provide guidance to the user by changing the detection order of the peripheral parts of the unit. For example, when a plurality of peripheral parts effective for detecting the target part M include the gallbladder and the user inputs that the subject is in a post-meal state via the input part 13, the operation guide part No. 10 determines that the gallbladder is in a contracted state different from normal, and changes the detection order of the gallbladder to a later order in order to take into account the recognition results of other peripheral parts when detecting the gallbladder. be able to.
  • the operation guide unit 10 displays guide displays G1 to G3 as shown in FIGS. 6 to 9 on the display unit 7 when guiding the operation of the ultrasonic probe 15 to the user.
  • the mode of guiding the operation of the ultrasonic probe 15 to the user is not limited to this.
  • the operation guide unit 10 can guide the operation of the ultrasonic probe 15 to the user using voice.
  • FIG. 24 is a block diagram showing the configuration of the ultrasonic diagnostic apparatus 1B according to Embodiment 7 of the present invention.
  • This ultrasonic diagnostic apparatus 1B is the same as the ultrasonic diagnostic apparatus 1 of the first embodiment, except that the apparatus control unit 12B is provided instead of the apparatus control unit 12, and a sound generation unit 23 is added.
  • the apparatus control unit 12 ⁇ / b> B is connected to the display control unit 6, the image acquisition unit 8, the site recognition unit 9, the operation guide unit 10, the input unit 13, and the storage unit 14.
  • the display control unit 6, the image acquisition unit 8, the part recognition unit 9, the operation guide unit 10, and the device control unit 12B constitute a processor 16B.
  • the sound generation unit 23 is connected to the operation guide unit 10 of the processor 16B, and includes a speaker that generates sound. Therefore, the operation guide unit 10 can guide the operation of the ultrasonic probe 15 toward the user by the sound emitted from the sound generation unit 23.
  • the ultrasonic diagnostic apparatus 1B As described above, according to the ultrasonic diagnostic apparatus 1B according to the seventh embodiment, as in the ultrasonic diagnostic apparatus 1 according to the first embodiment, at least one peripheral part effective for detecting the target part M To guide the operation of the ultrasonic probe 15 to the user so as to detect and to guide the operation of the ultrasonic probe 15 to detect the target portion M based on the recognition result of at least one peripheral portion. It is not necessary to perform unnecessary image recognition processing, and the target site M can be detected easily and quickly while reducing the calculation load of the ultrasonic diagnostic apparatus 1.
  • the ultrasound diagnostic apparatus 1 has a configuration in which the display unit 7 and the ultrasound probe 15 are directly connected to the processor 16.
  • the display unit 7, the ultrasound probe 15, and the processor 16 can also be indirectly connected to each other via a network.
  • the ultrasonic diagnostic apparatus 1C according to the eighth embodiment is configured such that the display unit 7 and the ultrasonic probe 15 are connected to the ultrasonic diagnostic apparatus main body 31 via a network NW.
  • the ultrasonic diagnostic apparatus main body 31 is obtained by removing the display unit 7 and the ultrasonic probe 15 from the ultrasonic diagnostic apparatus 1 according to the first embodiment shown in FIG.
  • the display control unit 6 and the image acquisition unit 8 are connected to a network NW.
  • the transducer array 2 of the ultrasonic probe 15 causes the transducer array 2 of the ultrasonic probe 15 to transmit the ultrasonic beam.
  • the ultrasonic echo reflected inside the subject is received and a reception signal is generated.
  • the ultrasonic probe 15 transmits the generated reception signal to the ultrasonic diagnostic apparatus main body 31 via the network NW.
  • the reception signal transmitted from the ultrasonic probe 15 in this way is received by the image acquisition unit 8 of the ultrasonic diagnostic apparatus main body 31 via the network NW, and the ultrasonic image based on the reception signal is received by the image acquisition unit 8. Is generated.
  • the ultrasonic image generated by the image acquisition unit 8 is sent to the display control unit 6 and the part recognition unit 9.
  • the display control unit 6 performs a predetermined process on the ultrasonic image sent from the image acquisition unit 8, and further transmits the ultrasonic image subjected to the predetermined process to the display unit 33 via the network NW. To do.
  • the ultrasonic image transmitted from the display control unit 6 of the ultrasonic diagnostic apparatus 31 in this way is received by the display unit 7 via the network NW and displayed on the display unit 7.
  • the part recognition unit 9 performs image analysis on the ultrasonic image transmitted from the image acquisition unit 8 to recognize the imaging part of the subject, and the peripheral part or the target part M depicted in the ultrasonic image. Is detected.
  • the operation guide unit 10 guides the user to operate the ultrasonic probe 15 so as to detect the peripheral site stored in the peripheral site memory 11, and further recognizes the site recognition unit 9. Based on the result, the operation of the ultrasonic probe 15 is guided to the user so as to detect the target portion M.
  • the operation guidance unit 10 sends text, images, and the like representing guidance to the user to the display control unit 6.
  • the display control unit 6 transmits text, images, and the like representing guidance to the user to the display unit 7 via the network NW. Text, images, and the like representing guidance to the user transmitted from the display control unit 6 are received by the display unit 7 via the network NW and displayed on the display unit 7.
  • the ultrasonic diagnostic apparatus 1C As described above, according to the ultrasonic diagnostic apparatus 1C according to the eighth embodiment of the present invention, even when the display unit 7 and the ultrasonic probe 15 are connected to the ultrasonic diagnostic apparatus main body 31 via the network NW. Similarly to the ultrasonic diagnostic apparatus 1 of the first embodiment, the operation of the ultrasonic probe 15 is guided to the user so as to detect the peripheral part effective for detecting the target part M, and the recognition result of the peripheral part Therefore, since the operation of the ultrasonic probe 15 is guided to the user so as to detect the target part M, it is not necessary to perform unnecessary image recognition processing, and the target part M can be detected easily and quickly. .
  • the ultrasonic diagnostic apparatus main body 31 can be used as a so-called remote server.
  • the user can diagnose the subject by preparing only the display unit 7 and the ultrasonic probe 15 at the user's hand, the convenience in the ultrasonic diagnosis is improved. Can do.
  • a portable thin computer called a so-called tablet and a display device that is easy to carry are used as the display unit 7, the user can more easily perform ultrasonic diagnosis of the subject. It is possible to further improve the convenience in ultrasonic diagnosis.
  • the display unit 7 and the ultrasonic probe 15 are connected to the ultrasonic diagnostic apparatus main body 31 via the network NW.
  • the display unit 7, the ultrasonic probe 15, and the ultrasonic diagnostic apparatus main body 31 are
  • the network NW may be wired or wirelessly connected.
  • the aspect of the eighth embodiment is applied to the first embodiment, the same can be applied to the second to seventh embodiments.
  • the sound generation unit 23 is connected to the ultrasonic diagnostic apparatus main body 31 via the network NW. Can be connected to.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Vascular Medicine (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Quality & Reliability (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Physiology (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

超音波診断装置(1)は、超音波プローブ(15)と、超音波プローブ(15)から被検体に向けて超音波ビームの送信を行って超音波画像を取得する画像取得部(8)と、画像取得部により取得された超音波画像に対して画像解析を行って被検体の撮像部位を認識する部位認識部(9)と、目標部位を検出するために有効な少なくとも1つの周辺部位を記憶する周辺部位メモリ(11)と、目標部位の検出に際して、周辺部位メモリ(11)に記憶されている少なくとも1つの周辺部位を検出するようにユーザに超音波プローブ(15)の操作を案内し、部位認識部(9)による認識結果に基づいて、目標部位を検出するようにユーザに超音波プローブ(15)の操作を案内する操作案内部(10)とを備える。

Description

超音波診断装置および超音波診断装置の制御方法
 本発明は、超音波診断装置および超音波診断装置の制御方法に係り、特に、超音波プローブの操作をユーザに案内する超音波診断装置および超音波診断装置の制御方法に関する。
 従来から、被検体の内部の画像を得るものとして、超音波診断装置が知られている。超音波診断装置は、一般的に、複数の素子が配列された振動子アレイが備えられた超音波プローブを備えている。この超音波プローブを被検体の体表に接触させた状態において、振動子アレイから被検体内に向けて超音波ビームが送信され、被検体からの超音波エコーを振動子アレイにおいて受信して素子データが取得される。さらに、超音波診断装置は、得られた素子データを電気的に処理して、被検体の当該部位に対する超音波画像を生成する。
 このような超音波診断装置を用いることにより、ユーザは、被検体内の部位を観察することができる。この際に、ユーザは、通常、超音波画像を目視することにより、観察の目標とする部位が超音波画像に含まれているか否かを判断するが、このような判断には熟練が必要である。そこで、超音波診断装置において、目標とする部位を容易に検出するための種々の工夫がなされている。
 例えば、特許文献1に開示されている医用画像処理装置は、予め取得された複数の超音波画像が入力され、それらの複数の超音波画像に対してそれぞれ画像解析を施すことにより、目標とする部位を自動的に検出する。
特開2015-171437号公報
 ところで、被検体内においては、例えば、総胆管と血管のように、互いに類似した構造を有する部位が存在する。このように、血管等の他の部位の構造と類似した構造を有する総胆管等の部位を、超音波診断装置を用いて観察するために、超音波プローブの操作手順を定めたワークフローが一般的に知られている。しかしながら、目標とする部位は他の部位の構造と類似した構造を有しているため、このようなワークフローに従って得られた超音波画像を目視することにより目標とする部位を特定することは、熟練したユーザであっても難しいという問題があった。
 特許文献1に開示されている技術では、大量に取得されたそれぞれの超音波画像に対して画像解析を行うことにより目的とする部位を検出するため、他の部位の構造と類似した構造を有する部位を検出することが可能だが、目標とする部位の検出に要する計算負荷が大きく、目標とする部位を素早く検出するためには高い計算能力を有する装置が必要である。このような装置は、通常、大掛かりな装置であることが多い。そのため、特許文献1の医用画像処理装置は、例えば、ユーザに対して迅速な行動が求められる救急救命現場等の環境においては、ユーザの迅速な行動を妨げることがあり、不向きである。
 本発明は、このような従来の問題点を解消するためになされたものであり、目標とする部位を容易に且つ迅速に検出することができる超音波診断装置および超音波診断装置の制御方法を提供することを目的とする。
 上記目的を達成するために、本発明の超音波診断装置は、超音波プローブと、超音波プローブから被検体に向けて超音波ビームの送信を行って超音波画像を取得する画像取得部と、画像取得部により取得された超音波画像に対して画像解析を行って被検体の撮像部位を認識する部位認識部と、目標部位を検出するために有効な少なくとも1つの周辺部位を記憶する周辺部位メモリと、目標部位の検出に際して、周辺部位メモリに記憶されている少なくとも1つの周辺部位を検出するようにユーザに超音波プローブの操作を案内し、部位認識部による認識結果に基づいて、目標部位を検出するようにユーザに超音波プローブの操作を案内する操作案内部とを備えたことを特徴とする。
 周辺部位メモリは、目標部位を検出するために有効な複数の周辺部位と複数の周辺部位に対する定められた検出順序を記憶し、操作案内部は、複数の周辺部位を定められた検出順序に従って順次検出するようにユーザに超音波プローブの操作を案内することができる。
 さらに、操作案内部は、部位認識部による認識結果に基づき、複数の周辺部位のうち一部の周辺部位の検出をスキップして次の周辺部位を検出するようにユーザに超音波プローブの操作を案内する、または、定められた検出順序を変更して複数の周辺部位を検出するようにユーザに超音波プローブの操作を案内することができる。
 もしくは、ユーザが入力操作を行うための入力部をさらに備えることができる。
 操作案内部は、入力部を介してユーザにより入力された修正情報に基づき、複数の周辺部位のうち一部の周辺部位の検出をスキップして次の周辺部位を検出するようにユーザに超音波プローブの操作を案内する、または、定められた検出順序を変更して複数の周辺部位を検出するようにユーザに超音波プローブの操作を案内することができる。
 もしくは、操作案内部は、入力部を介してユーザにより入力された被検体の状態に関する被検体情報に基づき、複数の周辺部位のうち一部の周辺部位の検出をスキップして次の周辺部位を検出するようにユーザに超音波プローブの操作を案内する、または、定められた検出順序を変更して複数の周辺部位を検出するようにユーザに超音波プローブの操作を案内してもよい。
 もしくは、複数の周辺部位のうち1つの周辺部位を検出するようにユーザに超音波プローブの操作を案内してから1つの周辺部位が検出される前に定められた時間が経過した場合に、操作案内部は、1つの周辺部位の検出をスキップして次の周辺部位を検出するようにユーザに超音波プローブの操作を案内する、または、定められた検出順序を変更して複数の周辺部位を検出するようにユーザに超音波プローブの操作を案内してもよい。
 また、部位認識部は、入力部を介してユーザにより入力された被検体の状態に関する被検体情報に基づいて、被検体の撮像部位を認識することができる。
 また、周辺部位メモリは、目標部位を検出するために有効な複数の周辺部位および定められた検出順序を被検体毎に記憶し、操作案内部は、被検体毎に記憶された複数の周辺部位を被検体毎に記憶された定められた検出順序に従って順次検出するようにユーザに超音波プローブの操作を案内することができる。
 また、超音波診断装置は、表示部をさらに備え、操作案内部は、ユーザに向けた超音波プローブの操作の案内を表示部に表示することができる。
 この際に、部位認識部により認識された少なくとも1つの周辺部位の輪郭を生成する輪郭生成部をさらに備え、表示部は、画像取得部により取得された超音波画像を表示し、輪郭生成部により生成された少なくとも1つの周辺部位の輪郭が、表示部に表示されている超音波画像に重畳表示されることが好ましい。
 もしくは、音声発生部をさらに備え、操作案内部は、ユーザに向けた超音波プローブの操作の案内を音声発生部から発する音声により行うこともできる。
 また、目標部位は、総胆管であり、少なくとも1つの周辺部位は、門脈および胆嚢であることが好ましい。
 もしくは、目標部位は、虫垂であり、少なくとも1つの周辺部位は、上行結腸、盲腸および回腸であることが好ましい。
 もしくは、目標部位は、第5頸椎の神経根および第7頸椎の神経根であり、周辺部位は、第6頸椎の神経根であることが好ましい。
 本発明の超音波診断装置の制御方法は、超音波プローブから被検体に向けて超音波ビームの送受信が行われることにより生成された受信信号に基づいて超音波画像を取得し、取得された超音波画像に対して画像解析を行って被検体の撮像部位を認識し、目標部位の検出に際して、目標部位を検出するために有効な少なくとも1つの周辺部位を検出するようにユーザに超音波プローブの操作を案内し、部位認識部による認識結果に基づいて、目標部位を検出するようにユーザに超音波プローブの操作を案内することを特徴とする。
 本発明の超音波診断装置用プロセッサは、超音波プローブから被検体に向けて超音波ビームの送受信が行われることにより生成された受信信号に基づいて超音波画像を取得し、取得された超音波画像に対して画像解析を行って被検体の撮像部位を認識し、目標部位の検出に際して、目標部位を検出するために有効な少なくとも1つの周辺部位を検出するようにユーザに超音波プローブの操作を案内し、部位認識部による認識結果に基づいて、目標部位を検出するようにユーザに超音波プローブの操作を案内することを特徴とする。
 また、超音波診断装置用プロセッサは、超音波プローブとネットワークを介して接続されることができる。
 本発明によれば、目標部位を検出するために有効な少なくとも1つの周辺部位を記憶する周辺部位メモリと、目標部位の検出に際して、周辺部位メモリに記憶されている少なくとも1つの周辺部位を検出するようにユーザに超音波プローブの操作を案内し、部位認識部による認識結果に基づいて、目標部位を検出するようにユーザに超音波プローブの操作を案内する操作案内部とを備えるため、目標部位を容易に且つ迅速に検出することができる。
本発明の実施の形態1に係る超音波診断装置の構成を示すブロック図である。 本発明の実施の形態1における受信部の内部構成を示すブロック図である。 本発明の実施の形態1における画像生成部の内部構成を示すブロック図である。 本発明の実施の形態1に係る超音波診断装置の動作を表すフローチャートである。 本発明の実施の形態1に係る超音波診断装置の動作の具体例を表すフローチャートである。 本発明の実施の形態1における案内表示の例を示す図である。 本発明の実施の形態1における案内表示の他の例を示す図である。 本発明の実施の形態1における案内表示のさらに他の例を示す図である。 本発明の実施の形態1における案内表示のさらに他の例を示す図である。 本発明の実施の形態2における案内表示の例を示す図である。 本発明の実施の形態2における案内表示の他の例を示す図である。 本発明の実施の形態2における案内表示のさらに他の例を示す図である。 本発明の実施の形態2における案内表示のさらに他の例を示す図である。 本発明の実施の形態3において検出される神経根が位置する第5頸椎、第6頸椎、第7頸椎を模式的に示す図である。 本発明の実施の形態3において検出される第5頸椎の神経根を模式的に示す図である。 本発明の実施の形態3に係る超音波診断装置の動作を表すフローチャートである。 本発明の実施の形態4に係る超音波診断装置の構成を示すブロック図である。 本発明の実施の形態4における輪郭線の例を示す図である。 本発明の実施の形態4における輪郭線の他の例を示す図である。 本発明の実施の形態4における輪郭線のさらに他の例を示す図である。 本発明の実施の形態4における輪郭線のさらに他の例を示す図である。 本発明の実施の形態5に係る超音波診断装置の動作を表すフローチャートである。 本発明の実施の形態6に係る超音波診断装置の動作を表すフローチャートである。 本発明の実施の形態7に係る超音波診断装置の構成を表すブロック図である。 本発明の実施の形態8に係る超音波診断装置の構成を表すブロック図である。
 以下、この発明の実施の形態を添付図面に基づいて説明する。
実施の形態1
 図1に、本発明の実施の形態1に係る超音波診断装置1の構成を示す。図1に示すように、超音波診断装置1は、振動子アレイ2を備えており、振動子アレイ2に送信部3および受信部4がそれぞれ接続されている。受信部4には、画像生成部5、表示制御部6および表示部7が順次接続されている。ここで、送信部3、受信部4および画像生成部5により、画像取得部8が構成されている。また、画像生成部5に、部位認識部9が接続され、部位認識部9に、操作案内部10が接続されている。部位認識部9と操作案内部10は、互いに双方向の情報の受け渡しが可能に接続されている。また、操作案内部10に、周辺部位メモリ11と表示制御部6がそれぞれ接続されている。
 さらに、表示制御部6、画像取得部8、部位認識部9および操作案内部10に、装置制御部12が接続されており、装置制御部12に、入力部13および格納部14が接続されている。装置制御部12と格納部14は、互いに双方向の情報の受け渡しが可能に接続されている。
 また、振動子アレイ2は、超音波プローブ15に含まれており、表示制御部6、画像取得部8、部位認識部9、操作案内部10、装置制御部12により、超音波診断装置用のプロセッサ16が構成されている。
 図1に示す超音波プローブ15の振動子アレイ2は、1次元または2次元に配列された複数の振動子を有している。これらの振動子は、それぞれ送信部3から供給される駆動信号に従って超音波を送信すると共に、被検体からの超音波エコーを受信して受信信号を出力する。各振動子は、例えば、PZT(Lead Zirconate Titanate:チタン酸ジルコン酸鉛)に代表される圧電セラミック、PVDF(Poly Vinylidene Di Fluoride:ポリフッ化ビニリデン)に代表される高分子圧電素子およびPMN-PT(Lead Magnesium Niobate-Lead Titanate:マグネシウムニオブ酸鉛-チタン酸鉛固溶体)に代表される圧電単結晶等からなる圧電体の両端に電極を形成することにより構成される。
 画像取得部8の送信部3は、例えば、複数のパルス発生器を含んでおり、装置制御部12からの制御信号に応じて選択された送信遅延パターンに基づいて、振動子アレイ2の複数の振動子から送信される超音波が超音波ビームを形成するように、それぞれの駆動信号を、遅延量を調節して複数の振動子に供給する。このように、振動子アレイ2の複数の振動子の電極にパルス状または連続波状の電圧が印加されると、圧電体が伸縮し、それぞれの振動子からパルス状または連続波状の超音波が発生して、それらの超音波の合成波から、超音波ビームが形成される。
 送信された超音波ビームは、例えば、被検体の部位等の対象において反射され、超音波プローブ15の振動子アレイ2に向かって伝搬する。このように振動子アレイ2に向かって伝搬する超音波エコーは、振動子アレイ2を構成するそれぞれの振動子により受信される。この際に、振動子アレイ2を構成するそれぞれの振動子は、伝搬する超音波エコーを受信することにより伸縮して電気信号を発生させ、これらの電気信号を受信部4に出力する。
 画像取得部8の受信部4は、装置制御部12からの制御信号に従って、振動子アレイ2から出力される受信信号の処理を行う。図2に示すように、受信部4は、増幅部17およびAD(Analog Digital)変換部18が直列接続された構成を有している。増幅部17は、振動子アレイ2を構成するそれぞれの素子から入力された受信信号を増幅し、増幅した受信信号をAD変換部18に送信する。AD変換部18は、増幅部17から送信された受信信号をデジタル化されたデータに変換し、これらのデータを画像取得部8の画像生成部5に送出する。
 画像取得部8の画像生成部5は、図3に示すように、信号処理部19、DSC(Digital Scan Converter:デジタルスキャンコンバータ)20および画像処理部21が直列接続された構成を有している。信号処理部19は、装置制御部12からの制御信号に応じて選択された受信遅延パターンに基づき、受信信号の各データにそれぞれの遅延を与えて加算(整相加算)を施す、受信フォーカス処理を行う。この受信フォーカス処理により、超音波エコーの焦点が1つの走査ラインに絞り込まれた音線信号が生成される。また、信号処理部19は、生成された音線信号に対して、超音波が反射した位置の深度に応じて伝搬距離に起因する減衰の補正を施した後、包絡線検波処理を施して、被検体内の組織を表すBモード画像信号を生成する。このように生成されたBモード画像信号は、DSC20に出力される。
 画像生成部5のDSC20は、Bモード画像信号を通常のテレビジョン信号の走査方式に従う画像信号にラスター変換して超音波画像を生成する。画像生成部5の画像処理部21は、DSC20において得られた画像データに対して、明るさ補正、諧調補正、シャープネス補正および色補正等の各種の必要な画像処理を施した後、超音波画像を表示制御部6および部位認識部9に出力する。
 プロセッサ16の部位認識部9は、画像取得部8により取得された超音波画像に対して画像解析を行って、被検体の撮像部位を認識する。この際に、部位認識部9は、例えば、典型的なパターンデータをテンプレートとして予め記憶しておき、画像内をテンプレートでサーチしながらパターンデータに対する類似度を算出し、類似度が閾値以上かつ最大となった場所に計測対象が存在するとみなすことにより、撮像部位を認識することができる。類似度の算出には、単純なテンプレートマッチングの他に、例えば、Csurka et al.: Visual Categorization with Bags of Keypoints, Proc. of ECCV Workshop on Statistical Learning in Computer Vision, pp.59-74 (2004)に記載されている機械学習手法、あるいは、Krizhevsk et al.: ImageNet Classification with Deep Convolutional Neural Networks, Advances in Neural Information Processing Systems 25, pp.1106-1114 (2012)に記載されているディープラーニングを用いた一般画像認識手法等を用いることができる。
 ここで、被検体内においては、例えば、総胆管と血管のように、互いに類似した構造を有する部位が存在する。このように、総胆管等の部位は、血管等の他の部位の構造に類似した構造を有しているため、熟練したユーザが観察を行った場合であっても、正確に特定されることが困難な場合があった。超音波診断装置1の周辺部位メモリ11は、正確な特定が困難であり、観察の目標となる目標部位を検出するために有効な少なくとも1つの周辺部位を記憶するものである。また、周辺部位メモリ11は、目標部位を検出するために有効な複数の周辺部位を記憶している場合には、この複数の周辺部位に対する定められた検出順序も記憶している。
 また、周辺部位メモリ11としては、HDD(Hard Disc Drive:ハードディスクドライブ)、SSD(Solid State Drive:ソリッドステートドライブ)、FD(Flexible Disc:フレキシブルディスク)、MOディスク(Magneto-Optical disc:光磁気ディスク)、MT(Magnetic Tape:磁気テープ)、RAM(Random Access Memory:ランダムアクセスメモリ)、CD(Compact Disc:コンパクトディスク)、DVD(Digital Versatile Disc:デジタルバーサタイルディスク)、SDカード(Secure Digital card:セキュアデジタルカード)、USBメモリ(Universal Serial Bus memory:ユニバーサルシリアルバスメモリ)等の記録メディア、またはサーバ等を用いることができる。
 プロセッサ16の操作案内部10は、目標部位の検出に際して、周辺部位メモリ11に記憶されている少なくとも1つの周辺部位を検出するようにユーザに超音波プローブ15の操作を案内し、さらに、プロセッサ16の部位認識部9による認識結果に基づいて、目標部位を検出するようにユーザに超音波プローブ15の操作を案内する。本発明の実施の形態1に係る超音波診断装置1は、この操作案内部10により、目標部位を素早く検出することができるが、詳細については後に説明する。
 プロセッサ16の装置制御部12は、格納部14等に予め記憶されているプログラムおよび入力部13を介したユーザの操作に基づいて、超音波診断装置1の各部の制御を行う。
 プロセッサ16の表示制御部6は、装置制御部12の制御の下、画像取得部8の画像生成部5により生成された超音波画像に所定の処理を施して、表示部7に超音波画像を表示させる。
 超音波診断装置1の表示部7は、表示制御部6の制御の下、画像を表示するものであり、例えば、LCD(Liquid Crystal Display:液晶ディスプレイ)等のディスプレイ装置を含む。
 超音波診断装置1の入力部13は、ユーザが入力操作を行うためのものであり、キーボード、マウス、トラックボール、タッチパッドおよびタッチパネル等を備えて構成することができる。
 格納部14は、超音波診断装置1の動作プログラム等を格納するもので、超音波診断装置1の周辺部位メモリ11と同様に、HDD、SSD、FD、MOディスク、MT、RAM、CD、DVD、SDカード、USBメモリ等の記録メディア、またはサーバ等を用いることができる。
 なお、表示制御部6、画像取得部8、部位認識部9、操作案内部10および装置制御部12を有するプロセッサ16は、CPU(Central Processing Unit:中央処理装置)、および、CPUに各種の処理を行わせるための制御プログラムから構成されるが、デジタル回路を用いて構成されてもよい。また、これらの表示制御部6、画像取得部8、部位認識部9、操作案内部10および装置制御部12を部分的にあるいは全体的に1つのCPUに統合させて構成することもできる。
 次に、図4に示すフローチャートを用いて、実施の形態1における超音波診断装置1の動作を詳細に説明する。ここで、図4に示すフローチャートは、目標部位Mを検出するための超音波診断装置1の動作を表している。目標部位Mは、例えば、入力部13を介してユーザにより入力されることで設定されることができる。また、周辺部位メモリ11は、目標部位Mを検出するために有効な周辺部位として周辺部位AおよびBを記憶し、さらに、周辺部位Aの検出処理が行われてから周辺部位Bの検出処理が行われるような検出順序を記憶しているとする。
 まず、ステップS1において、操作案内部10は、周辺部位Aを探すようにユーザに対して案内を行う。この際に、操作案内部10は、例えば、周辺部位Aを探す旨の案内表示を、表示制御部6を介して表示部7に表示することができる。
 ステップS1において周辺部位Aを探す旨の案内が行われると、ユーザは、操作案内部10による案内に従って周辺部位Aが検出されるように超音波プローブ15を操作する。このように、超音波プローブ15がユーザにより操作されている状態の下、ステップS2において、部位認識部9により周辺部位Aの検出処理が行われる。図示しないが、この際に、部位認識部9は、周辺部位Aを検出するために有効な少なくとも1つの補助部位を認識し、この認識結果を加味して、周辺部位Aを検出することもできる。
 続くステップS3において、操作案内部10は、周辺部位Aが検出されたか否かを判定する。周辺部位Aが検出されていない場合には、ステップS1に戻り、操作案内部10により周辺部位Aを探す旨の案内がなされ、ステップS2において周辺部位Aの検出処理がなされた後、ステップS3の判定が行われる。このようにして、周辺部位Aが検出されるまで、ステップS1~ステップS3の処理が繰り返される。
 周辺部位Aが検出されたとステップS3において判定された場合には、ステップS4に進み、周辺部位Bを探す旨の案内が操作案内部10により行われる。この際に、操作案内部10は、周辺部位Bを探す旨の案内表示を表示部7に表示させることができるが、検出した周辺部位Aの位置に基づいて、周辺部位Bを検出するために超音波プローブ15の移動方向、向き、傾き等を案内する旨の案内表示を表示部7に表示させることもできる。
 ステップS4において周辺部位Bを探す旨の案内が行われると、ユーザは、操作案内部10による案内に従って周辺部位Bが検出されるように超音波プローブ15を操作する。このように、超音波プローブ15がユーザにより操作されている状態の下、ステップS5において、部位認識部9により周辺部位Bの検出処理が行われる。図示しないが、この際に、部位認識部9は、周辺部位Aの認識結果を加味して、周辺部位Bを検出してもよい。例えば、周辺部位AおよびBの相対的な位置関係を周辺部位メモリ11等に予め記憶させておくことにより、部位認識部9は、周辺部位Aと周辺部位Bとの相対的な位置関係を加味して周辺部位Bを検出することができる。
 続くステップS6において、操作案内部10は、周辺部位Bが検出されたか否かを判定する。周辺部位Bが検出されていない場合には、ステップS4に戻り、操作案内部10により周辺部位Bを探す旨の案内がなされ、ステップS5において周辺部位Bの検出処理がなされた後、ステップS6の判定が行われる。このようにして、周辺部位Bが検出されるまで、ステップS4~ステップS6の処理が繰り返される。
 周辺部位Bが検出されたとステップS6において判定された場合には、ステップS7に進み、目標部位Mを探す旨の案内が操作案内部10により行われる。この際に、操作案内部10は、目標部位Mを探す旨の案内表示を表示部7に表示させることができるが、検出した周辺部位AおよびBの位置に基づいて、目標部位Mを検出するために超音波プローブ15の移動方向、向き、傾き等を案内する旨の案内表示を表示部7に表示させることもできる。
 ステップS7において目標部位Mを探す旨の案内が行われると、ユーザは、操作案内部10による案内に従って目標部位Mが検出されるように超音波プローブ15を操作する。このように、超音波プローブ15がユーザにより操作されている状態の下、ステップS8において、部位認識部9により目標部位Mの検出処理が行われる。図示しないが、この際に、部位認識部9は、周辺部位AおよびBの認識結果を加味して、目標部位Mを検出してもよい。例えば、周辺部位AおよびBと目標部位Mとの相対的な位置関係を周辺部位メモリ11等に予め記憶させておくことにより、部位認識部9は、周辺部位AおよびBと目標部位Mとの相対的な位置関係を加味して目標部位Mを検出することができる。
 続くステップS9において、操作案内部10は、目標部位が検出されたか否かを判定する。目標部位Mが検出されていない場合には、ステップS7に戻り、操作案内部10により目標部位Mを探す旨の案内がなされ、ステップS8において目標部位Mの検出処理がなされた後、ステップS9の判定が行われる。このようにして、目標部位Mが検出されるまで、ステップS7~ステップS9の処理が繰り返される。
 目標部位Mが検出されたとステップS9において判定された場合には、ステップS10に進む。ステップS10において、操作案内部10は、ユーザに対して、表示部7に目標部位Mの断面が表示されている旨を通知する。これにより、本発明の実施の形態1に係る超音波診断装置1の動作が終了する。
 次に、図5~図8を用いて、本発明の実施の形態1に係る超音波診断装置1の動作の具体例を紹介する。図5に示すフローチャートは、目標部位Mとして総胆管を検出する場合の超音波診断装置1の動作を表している。また、ここでは、周辺部位メモリ11は、総胆管を検出するために有効な周辺部位A1、A2、Bとして、それぞれ門脈の短軸像、胆嚢の長軸像および門脈の長軸像を記憶し、さらに、周辺部位A1の検出処理と周辺部位A2の検出処理が行われてから、周辺部位Bの検出が行われるような検出順序を記憶しているとする。
 ここで、門脈の短軸像とは、図示しないが、門脈の中心軸に直交する平面で門脈を切断した横断面像のことを表し、門脈の長軸像とは、門脈の中心軸に沿って門脈を切断した縦断面像のことを表す。また、胆嚢の長軸像についても、門脈の長軸像と同様に、胆嚢の中心軸に沿って胆嚢を切断した縦断面像のことを表す。
 まず、ステップS11において、操作案内部10は、門脈の短軸像である周辺部位A1および胆嚢の長軸像である周辺部位A2を探すようにユーザに対して案内を行う。この際に、操作案内部10は、例えば図6に示すように、周辺部位A1およびA2を探す旨の案内表示G1を超音波画像Uと共に表示部7に表示することができる。ここで、案内表示G1は、図6に示されるように、テキストを含んでいてもよく、ユーザに対する案内を表す案内画像を含んでいてもよい。
 ステップS11において周辺部位A1およびA2を探す旨の案内が行われると、ユーザは、操作案内部10による案内に従って周辺部位A1およびA2が検出されるように超音波プローブ15を操作する。このように、超音波プローブ15がユーザにより操作されている状態の下、ステップS12において、部位認識部9により周辺部位A1およびA2の検出処理が行われる。この際に、部位認識部9は、例えば、図6に示すように、補助部位Xとして下大静脈等を認識し、その認識結果を加味して周辺部位A1およびA2を検出することができる。
 続くステップS13において、操作案内部10は、周辺部位A1が検出されたか否かを判定する。周辺部位A1が検出されていない場合には、ステップS14に進み、周辺部位A1を探す旨の案内が操作案内部10により行われる。ステップS14において周辺部位A1を探す旨の案内がなされると、ステップS12に戻って周辺部位A1およびA2の検出処理が行われた後、ステップS13の判定が行われる。このようにして、周辺部位A1が検出されるまで、ステップS12~ステップS14の処理が繰り返される。
 周辺部位A1が検出されたとステップS13において判定された場合には、ステップS15に進む。ステップS15において、操作案内部10は、周辺部位A2が検出されたか否かを判定する。周辺部位A2が検出されていない場合には、ステップS16に進み、周辺部位A2を探す旨の案内が操作案内部10により行われる。ステップS16において周辺部位A2を探す旨の案内がなされると、ステップS12に戻って周辺部位A1およびA2の検出処理が行われる。続くステップS13では、周辺部位A1が検出されたか否かが判定されるが、周辺部位A1は既に検出されているため、ステップS15に進み、周辺部位A2が検出されたか否かが判定される。このようにして、周辺部位A2が検出されるまで、ステップS12、ステップS13、ステップS15およびステップS16の処理が繰り返される。
 続くステップS4~ステップS10の処理は、図4に示すフローチャートにおけるステップS4~ステップS10と同様である。すなわち、まず、ステップS4において、操作案内部10は、門脈の長軸像である周辺部位Bを探すようにユーザに対して案内を行う。この際に、操作案内部10は、例えば図7に示すように、周辺部位Bを探す旨の案内表示G2を超音波画像Uと共に表示部7に表示することができる。
 ステップS4において周辺部位Bを探す旨の案内がなされると、ステップS5において部位認識部9により周辺部位Bの検出処理がなされ、続くステップS6において操作案内部10により周辺部位Bが検出されたか否かの判定がなされる。周辺部位Bが検出されていない場合には、ステップS4に戻って周辺部位Bを探す旨の案内がなされ、続くステップS5とステップS6において、周辺部位Bの検出処理と、周辺部位Bが検出されたか否かの判定がなされる。このようにして、周辺部位Bが検出されるまでステップS4~ステップS6の処理が繰り返され、周辺部位Bが検出された場合には、ステップS7に進む。
 ステップS7において、操作案内部10は、総胆管である目標部位Mを探すようにユーザに対して案内を行う。この際に、操作案内部10は、例えば図8に示すように、目標部位Mを探す旨の案内表示G3を超音波画像Uと共に表示部7に表示することができる。
 ステップS7において目標部位Mを探す旨の案内がなされると、ステップS8において部位認識部9により目標部位Mの検出処理がなされ、続くステップS9において操作案内部10により目標部位Mが検出されたか否かの判定がなされる。目標部位Mが検出されていない場合には、ステップS7に戻って目標部位Mを探す旨の案内がなされ、続くステップS8とステップS9において、目標部位Mの検出処理と、目標部位Mが検出されたか否かの判定がなされる。このようにして、目標部位Mが検出されるまでステップS7~ステップS9の処理が繰り返され、目標部位Mが検出された場合には、ステップS10に進む。
 ステップS10において、操作案内部10は、ユーザに対して、表示部7に目標部位Mの断面が表示されている旨を通知する。これにより、目標部位Mである総胆管を検出するための超音波診断装置1の動作が終了する。
 以上のように、本発明の実施の形態1に係る超音波診断装置1によれば、目標部位Mを検出するために有効な少なくとも1つの周辺部位を検出するように超音波プローブ15の操作をユーザに案内し、その少なくとも1つの周辺部位の認識結果に基づいて、目標部位Mを検出するように超音波プローブ15の操作をユーザに案内するため、不要な画像認識処理を行う必要がなく、超音波診断装置1の計算負荷を軽減しながら、目標部位Mを容易に且つ迅速に検出することができる。
 ここで、従来の超音波診断装置において、内部に血流が存在する血管等の部位の構造と類似した構造を有する総胆管等の部位を検出する際に、いわゆるドプラ計測を行うことにより、内部に血流が存在する血管等の部位と総胆管等の部位を弁別することが知られているが、通常、被検体の断層画像を表すBモード画像を取得する処理から、ドプラ計測を行うための処理に、超音波診断装置の処理を切り替える必要があり、ユーザに対して手間がかかる。一方、本発明の実施の形態1に係る超音波診断装置1によれば、目標部位Mを検出するためにドプラ計測を行う必要がなく、より迅速に目標部位Mを検出することができる。
 なお、超音波診断装置1は、図4に示すフローチャートおよび図5に示すフローチャートにおけるステップS7の処理がなされた時点で、すなわち目標部位Mを探す旨の案内が操作案内部10によりなされた時点で動作を終了し、ステップS8~ステップS10の処理を行わなくてもよい。この場合に、ユーザは、表示部7に表示された超音波画像を目視することにより、その超音波画像に目標部位Mの断面が含まれるか否かを判断してもよい。このような場合であっても、操作案内部10が、目標部位Mを検出するために有効な少なくとも1つの周辺部位を検出するようにユーザに超音波プローブ15の操作を案内し、部位認識部9による認識結果に基づいて、目標部位Mを検出するようにユーザに超音波プローブ15の操作を案内するため、ユーザが迅速に目標部位Mを特定することが可能である。
 また、図5に示すフローチャートでは、周辺部位A1と周辺部位A2の検出が同時に行われるように周辺部位A1およびA2の検出順序が定められているが、このような場合には、周辺部位A1が検出されたか否かの判定処理と、周辺部位A2が検出されたか否かの判定処理のどちらを先に行うかは特に限定されない。例えば、図5に示すフローチャートにおいて、ステップS15の処理を行った後にステップS13の処理を行うこともできる。
 また、本発明の実施の形態1における送信部3および受信部4は、プロセッサ16の画像取得部8に含まれているが、超音波プローブ15に含まれていてもよい。この場合には、超音波プローブ15に含まれる送信部3および受信部4と、プロセッサ16に含まれる画像生成部5により、画像取得部8が構成される。
 また、実施の形態1では、図4および図5のフローチャートに示されるように、目標部位Mを検出するために有効な複数の周辺部位が周辺部位メモリ11に記憶されている例が示されているが、目標部位Mを検出するために有効な1つの周辺部位のみが周辺部位メモリ11に記憶されていてもよい。この場合に、操作案内部10は、1つの周辺部位に対する認識結果に基づいて目標部位Mを検出するように超音波プローブ15の操作をユーザに案内する。
 さらに、周辺部位メモリ11は、目標部位Mを検出するために有効な1つの周辺部位となり得る複数の周辺部位の候補を記憶し、ユーザが、これらの周辺部位の候補の中から1つを選択して、目標部位Mを検出するための周辺部位として使用してもよい。例えば、周辺部位メモリ11が、1つの周辺部位の候補として部位CおよびDを記憶し、ユーザは、入力部13を介して部位CおよびDのうちいずれか1つを周辺部位として選択することができる。この場合に、操作案内部10は、部位CおよびDのうち入力部13を介してユーザにより選択された周辺部位が検出されるように超音波プローブ15の操作をユーザに案内し、選択された周辺部位に対する認識結果に基づいて目標部位Mを検出するように超音波プローブ15の操作をユーザに案内する。
 同様に、周辺部位メモリ11は、目標部位Mを検出するために有効な複数の周辺部位となり得る複数の周辺部位の組の候補を記憶し、ユーザが、これらの周辺部位の組の候補の中から1つの組を選択して、目標部位Mを検出するための複数の周辺部位として使用してもよい。例えば、周辺部位メモリ11は、複数の周辺部位の組の候補として、部位A、B、Cからなる組と、部位B、C、Dからなる組を記憶することができる。例えば、この場合には、入力部13を介してユーザにより複数の周辺部位の組の候補のうち1つの組が選択されることにより、操作案内部10は、選択された周辺部位の組に従って、目標部位Mを検出するように超音波プローブ15の操作をユーザに案内することができる。これにより、超音波診断装置1は、被検体の状態等に対して、より適切な周辺部位の組に従った案内をユーザに行うことができるため、より迅速に目標部位Mを検出することが可能である。
 また、周辺部位メモリ11は、目標部位Mを検出するために有効な複数の周辺部位と、その検出順序を被検体毎に記憶していてもよい。この場合に、例えば、入力部13を介してユーザにより被検体を識別するための識別情報が入力されることにより、操作案内部10は、識別情報により識別された被検体に対して記憶された複数の周辺部位を、この被検体に対して記憶された検出順序に従って順次検出するように、ユーザに超音波プローブ15の操作を案内することができる。これにより、被検体に合わせた適切な周辺部位および検出順序に従って、目標部位Mを検出するため、より迅速に目標部位Mを検出することが可能である。
 ここで、被検体内の複数の部位のうち、一部の部位は、被検体の状態によって大きさおよび形状等が変化することがある。例えば、一般的に、被検体が食事を行った直後の胆嚢は、被検体が食事を行う前の胆嚢と比較して収縮している。プロセッサ16の部位認識部9は、被検体の状態により部位の大きさおよび形状等が変化した場合であっても、撮像部位を認識することができる。例えば、部位認識部9は、入力部13を介してユーザにより入力された食前、食後等の被検体の状態に関する被検体情報に基づいて、被検体の撮像部位を認識するためのテンプレート等のアルゴリズムを変更することにより、被検体の状態により大きさおよび形状等が変化した部位を認識することができる。例えば、入力部13を介してユーザにより被検体が食後の状態である旨の被検体情報が入力された場合には、部位認識部9は、収縮した胆嚢に対応したアルゴリズムを用いて胆嚢の認識を行うことができる。ここで、被検体情報には、被検体の身長、体重、性別等の情報が含まれていてもよい。
 このように、部位認識部9が被検体の状態により大きさおよび形状等が変化した部位を認識することにより、目標部位Mを検出するために有効な少なくとも1つの周辺部位の検出が失敗する可能性を低減して、ユーザへの案内がスムーズに行われるため、超音波診断装置1は、より素早く目標部位Mを検出することができる。
 また、操作案内部10がユーザに対して超音波プローブ15の操作を案内する際に、案内の例として、図6~図8に示すように、案内表示G1、G2、G3を超音波画像Uと共に表示部7に表示することを説明しているが、例えば、図9に示すように、目標部位Mを検出するために表示部7に表示する一連の案内表示G1~G3を超音波画像Uと共に表示し、操作案内部10による案内の進行状況に応じて案内表示G1~G3のいずれかを強調表示することができる。図9に示す例では、案内表示G1~G3のうち周辺部位Bを探す旨の案内表示G2が強調表示されている。ここで、強調表示とは、特定の案内表示を他の案内表示とは異なる色で表示させる、特定の案内表示の枠を他の案内表示の枠とは異なる種類の線で構成する等、特定の案内表示を他の案内表示とは異なる表示態様で表示させることをいう。これにより、ユーザは、操作案内部10による案内の一連の内容および操作案内部10による案内の進行状況を容易に把握することができるため、目標部位Mを検出するために超音波プローブ15をよりスムーズに操作することができる。
 なお、図9に示す例のように、目標部位Mを検出するための一連の案内表示が表示部7に表示される場合に、部位認識部9により既に検出がなされた部位に関する案内表示を、検出済みである旨を表す案内表示に変更することもできる。例えば、図示しないが、図9に示す例において、周辺部位A1およびA2は既に検出済みであるため、「A1とA2を探せ」という案内表示G1を、「A1とA2を検出済み」という案内表示に変更することができる。これにより、ユーザは、操作案内部10による案内の進行状況をより明確に把握することができる。
 また、図示しないが、操作案内部10は、表示部7に表示された超音波画像Uに重畳して、例えば、超音波画像U内の周辺部位である門脈の短軸像の近傍に「門脈」というテキストを表示する等、部位認識部9により認識された部位の近傍に、その部位の名称を表すテキストおよび画像等を表示させることができる。この際に、操作案内部10は、例えば、部位の名称を表すテキストおよび画像等から部位認識部9により認識された部位に向かって延びる矢印等のマークを、超音波画像Uに重畳して表示させることもできる。これにより、超音波画像U内の周辺部位、補助部位および目標部位Mをユーザに明確に把握させて、目標部位Mをより容易に且つ迅速に検出することができる。
 また、図示しないが、操作案内部10は、目標部位Mを検出するために有効な周辺部位を検出するように超音波プローブ15の操作をユーザに案内する際に、現在取得されている超音波画像に並べて参考画像を表示することもできる。ここで、参考画像とは、現在、検出の対象となっている部位を含む画像の参考例である。参考画像としては、例えば、現在の超音波診断の対象である被検体に対して過去に取得した超音波画像、他の被検体の超音波画像、参考書等の文献に掲載された超音波画像等を用いることができる。このように、ユーザは、参考画像を参照しながら超音波プローブ15を操作するため、操作案内部10の案内に従って、超音波プローブ15をよりスムーズに操作することができる。
 また、図示しないが、超音波診断装置1は、加速度センサ、ジャイロセンサ、磁気センサ、GPS(Global Positioning System:全地球測位システム)等のセンサを含んで構成される姿勢角検出センサを超音波プローブ15に備えることができる。この姿勢角検出センサは、超音波プローブ15の傾きおよびその方向を表す姿勢角を検出するセンサである。これにより、操作案内部10は、目標部位Mを検出するために有効な少なくとも1つの周辺部位が検出された際の超音波プローブ15の姿勢角に基づいて、超音波プローブ15の操作をユーザに案内することができる。
 例えば、操作案内部10は、超音波プローブ15の現在の姿勢角が、目標部位Mを検出するために最適な被検体の断層画像が得られるような超音波プローブ15の姿勢角から大きく外れた際に、ユーザに注意を促すことができる。また、例えば、操作案内部10は、超音波プローブ15の現在の姿勢角が、目標部位Mを検出するために最適な被検体の断層画像が得られるような超音波プローブ15の姿勢角に近づくように、超音波プローブ15を操作する具体的な方向および角度等を案内することができる。
実施の形態2
 実施の形態1では、目標部位Mの具体的な例として、総胆管を検出する例が示されているが、他の部位を検出する場合にも、本発明が適用される。実施の形態2では、総胆管とは異なる目標部位Mの具体例として、図10~図13を用いて、虫垂が検出される場合の超音波診断装置1の動作を紹介する。ここでは、周辺部位メモリ11は、虫垂を検出するために有効な周辺部位Aとして上行結腸の短軸像を、周辺部位Bとして盲腸の長軸像を、周辺部位Cとして回腸の長軸像を記憶し、さらに、周辺部位A、周辺部位B、周辺部位Cの順番でそれぞれの周辺部位の検出が行われるような検出順序を記憶しているとする。
 ここで、上行結腸の短軸像とは、上行結腸の中心軸に直交する平面で上行結腸を切断した横断面像のことを表し、盲腸の長軸像とは、盲腸の中心軸に沿って盲腸を切断した縦断面像のことを表し、回腸の長軸像とは、回腸の中心軸に沿って回腸を切断した縦断面像のことを表す。
 まず、操作案内部10は、上行結腸の短軸像である周辺部位Aを探すようにユーザに対して案内を行う。この際に、操作案内部10は、例えば図10に示すように、周辺部位Aを探す旨の案内表示G4を超音波画像Uと共に表示部7に表示することができる。ここで、案内表示G4は、図10に示されるように、テキストを含んでいてもよく、ユーザに対する案内を表す案内画像を含んでいてもよい。
 周辺部位Aを探す旨の案内が行われると、ユーザは、操作案内部10による案内に従って周辺部位Aが検出されるように超音波プローブ15を操作する。このように、超音波プローブ15がユーザにより操作されている状態の下、部位認識部9により、周辺部位Aの検出処理が行われる。
 次に、操作案内部10は、周辺部位Aが検出されたか否かを判定する。周辺部位Aが検出されていない場合には、操作案内部10により、周辺部位Aを探す旨の案内が再度行われ、部位認識部9により、周辺部位Aの検出処理が行われる。このようにして、周辺部位Aが検出されるまで、操作案内部10による案内の処理および部位認識部9による周辺部位Aの検出処理が繰り返される。
 周辺部位Aが検出されたと操作案内部10により判定された場合には、操作案内部10は、例えば図11に示すように、盲腸の長軸像である周辺部位Bを探すようにユーザに対して案内を行う。この際に、操作案内部10は、周辺部位Bを探す旨の案内表示G5を超音波画像Uと共に表示部7に表示することができる。ここで、操作案内部10は、例えば、案内表示G5において、超音波プローブ15の向きを90度回転させて周辺部位Bを含む断層画像を取得する旨のメッセージを表示する等、具体的な指示をユーザに向けて行うことができる。
 周辺部位Bを探す旨の案内が行われると、ユーザは、操作案内部10による案内に従って周辺部位Bが検出されるように超音波プローブ15を操作する。このように、超音波プローブ15がユーザにより操作されている状態の下、部位認識部9により、周辺部位Bの検出処理が行われる。また、この際に、部位認識部9は、例えば図11に示すように、補助部位X1として上行結腸の長軸像等を認識し、その認識結果を加味して周辺部位Bを検出することができる。ここで、上行結腸の長軸像とは、上行結腸の中心軸に沿って上行結腸を切断した縦断画像のことを表す。
 次に、操作案内部10は、周辺部位Bが検出されたか否かを判定する。周辺部位Bが検出されていない場合には、操作案内部10により、周辺部位Bを探す旨の案内が再度行われ、部位認識部9により、周辺部位Bの検出処理が行われる。このようにして、周辺部位Bが検出されるまで、操作案内部10による案内の処理および部位認識部9による周辺部位Bの検出処理が繰り返される。
 周辺部位Bが検出されたと操作案内部10により判定された場合には、操作案内部10は、例えば図12に示すように、回腸の長軸像である周辺部位Cを探すようにユーザに対して案内を行う。この際に、操作案内部10は、周辺部位Cを探す旨の案内表示G6を超音波画像Uと共に表示部7に表示することができる。ここで、操作案内部10は、例えば、案内表示G6において、超音波プローブ15を左側に傾けて周辺部位Cを含む断層画像を取得する旨のメッセージを表示する等、具体的な指示をユーザに向けて行うことができる。
 周辺部位Cを探す旨の案内が行われると、ユーザは、操作案内部10による案内に従って周辺部位Cが検出されるように超音波プローブ15を操作する。このように、超音波プローブ15がユーザにより操作されている状態の下、部位認識部9により、周辺部位Cの検出処理が行われる。
 次に、操作案内部10は、周辺部位Cが検出されたか否かを判定する。周辺部位Cが検出されていない場合には、操作案内部10により、周辺部位Cを探す旨の案内が再度行われ、部位認識部9により、周辺部位Cの検出処理が行われる。このようにして、周辺部位Cが検出されるまで、操作案内部10による案内の処理および部位認識部9による周辺部位Cの検出処理が繰り返される。
 周辺部位Cが検出されたと操作案内部10により判定された場合には、操作案内部10は、例えば図13に示すように、虫垂の長軸像である目標部位Mを探すようにユーザに対して案内を行う。ここで、虫垂の長軸像とは、虫垂の中心軸に沿って虫垂を切断した縦断画像のことを表す。また、この際に、操作案内部10は、周辺部位Cを探す旨の案内表示G7を超音波画像Uと共に表示部7に表示することができる。ここで、操作案内部10は、例えば、案内表示G7において、超音波プローブ15の姿勢を維持しながら下方に動かして目標部位Mを含む断層画像を取得する旨のメッセージを表示する等、具体的な指示をユーザに向けて行うことができる。
 このようにして、目標部位Mを探す旨の案内がなされると、部位認識部9により目標部位Mの検出処理がなされ、操作案内部10により、目標部位Mが検出されたか否かの判定がなされる。この際に、部位認識部9は、例えば図13に示すように、補助部位X2として回腸の長軸像を認識し、補助部位X3として盲腸の長軸像を認識し、それらの認識結果を加味して目標部位Mを検出することができる。目標部位Mが検出されていない場合には、操作案内部10により、目標部位Mを探す旨の案内がなされ、部位認識部9により、目標部位Mの検出処理が行われる。このようにして、目標部位Mが検出されるまで、操作案内部10による案内の処理および部位認識部9による目標部位Mの検出処理が繰り返される。
 目標部位Mが検出されたと操作案内部10により判定された場合には、操作案内部10は、ユーザに対して、表示部7に目標部位Mの断面が表示されている旨を通知する。これにより、目標部位Mである虫垂を検出するための超音波診断装置1の動作が終了する。
 以上のように、例えば虫垂のように、総胆管とは異なる目標部位Mを検出する場合でも、実施の形態1の態様と同様に、目標部位Mを検出するために有効な少なくとも1つの周辺部位を検出するように超音波プローブ15の操作をユーザに案内し、その少なくとも1つの周辺部位の認識結果に基づいて、目標部位Mを検出するように超音波プローブ15の操作をユーザに案内するため、不要な画像認識処理を行う必要がなく、超音波診断装置1の計算負荷を軽減しながら、目標部位Mを容易に且つ迅速に検出することができる。
実施の形態3
 人体の頸部には、頭部側から、第1頸椎~第7頸椎の7つの頸椎が存在しており、第1頸椎~第7頸椎には、脊髄が挿通されている。また、脊髄から、7つの頸椎のそれぞれを介して複数の神経が延びている。これらの神経の神経根は、疾患等の診断の際、いわゆる神経ブロック等の施術の際等に、超音波診断装置を用いて観察されることが多いが、第1頸椎~第7頸椎の神経根のうち、第5頸椎~第7頸椎の神経根は、互いに隣接し並走しているため、熟練度の低いユーザにとっては、超音波画像を観察することにより第5頸椎~第7頸椎の神経根を特定することが困難なことが多かった。
 また、第5頸椎~第7頸椎の神経根のうち、第6頸椎の神経根は、比較的容易に長軸像が描出されることが知られている。そこで、実施の形態3では、第6頸椎の神経根を周辺部位とし、第5頸椎の神経根および第7頸椎の神経根を目標部位として検出する場合の超音波診断装置1の動作を紹介する。
 なお、第6頸椎の神経根の長軸像とは、第6頸椎の神経根の中心軸に沿って第6頸椎の神経根を切断した縦断面像のことを表す。
 ここで、図14に、第5頸椎C5、第6頸椎C6、第7頸椎C7を模式的に示す。第5頸椎C5、第6頸椎C6、第7頸椎C7は、それぞれ、横突起K5、K6、K7を有している。また、図15に示すように、脊髄Sから第5頸椎C5の横突起K5に沿って、第5頸椎C5の神経根N5が延びている。図示しないが、第5頸椎C5と同様に、脊髄Sから第6頸椎C6の横突起K6に沿って第6頸椎C6の神経根N6が延び、脊髄Sから第7頸椎C7の横突起K7に沿って第7頸椎C7の神経根N7が延びている。
 超音波診断装置1の周辺部位メモリ11は、第5頸椎C5の神経根N5および第7頸椎C7の神経根N7を検出するために有効な周辺部位として第6頸椎C6の神経根N6の長軸像を記憶し、さらに、第6頸椎C6の神経根N6、第5頸椎C5の神経根N5、第7頸椎C7の神経根N7の順番で検出が行われるような検出順序を記憶しているとする。
 図16に、実施の形態3に係る超音波診断装置1の動作を表すフローチャートを示す。
 まず、ステップS31において、操作案内部10は、周辺部位として、第6頸椎C6の神経根N6の長軸像を探すようにユーザに対して案内を行う。この際に、操作案内部10は、例えば、第6頸椎C6の神経根N6を探す旨の案内表示を超音波画像Uと共に表示部7に表示することができる。ここで、この案内表示は、テキストを含んでいてもよく、ユーザに対する案内を表す案内画像を含んでいてもよい。
 第6頸椎C6の神経根N6を探す旨の案内が行われると、ユーザは、操作案内部10による案内に従って第6頸椎C6の神経根N6が検出されるように超音波プローブ15を操作する。このようにして、超音波プローブ15がユーザにより操作されている状態の下、ステップS32において、部位認識部9により、第6頸椎C6の神経根N6の検出処理が行われる。ここで、第6頸椎C6の神経根N6の長軸像は、椎骨動脈と隣接して一緒に描出されることが知られている。そのため、部位認識部9は、例えば、第6頸椎C6の神経根の検出処理を行う際に、椎骨動脈の検出処理も行い、神経根の長軸像と隣接して一緒に描出された椎骨動脈が検出された場合に、この神経根を、第6頸椎C6の神経根N6として検出することができる。ここで、部位認識部9は、いわゆるテンプレートマッチング等を用いて、超音波画像Uに描出されている第6頸椎C6の神経根N6および椎骨動脈を検出することができる。
 次に、ステップS33において、操作案内部10は、第6頸椎C6の神経根N6が検出されたか否かを判定する。第6頸椎C6の神経根N6が検出されていないとステップS33で判定された場合には、ステップS31に戻って操作案内部10により、第6頸椎C6の神経根N6を探す旨の案内が再度行われ、続くステップS32において部位認識部9により、第6頸椎C6の神経根N6の検出処理が行われる。このようにして、第6頸椎C6の神経根N6が検出されるまで、ステップS31~ステップS33の処理が繰り返される。
 ステップS33において第6頸椎C6の神経根N6が検出されたと操作案内部10により判定された場合には、ステップS34に進む。ステップS34において、操作案内部10は、目標部位として、第5頸椎C5の神経根N5の長軸像を探すようにユーザに対して案内を行う。この際に、操作案内部10は、第5頸椎C5の神経根N5の長軸像を探す旨の案内表示を超音波画像Uと共に表示部7に表示することができる。ここで、操作案内部10は、例えば、案内表示において、超音波プローブ15を上に移動させて、すなわち、超音波プローブ15を被検体の頭部側に移動させて、第5頸椎C5の神経根N5を含む断層画像を取得する旨のメッセージを表示する等、具体的な指示をユーザに向けて行うことができる。なお、第5頸椎C5の神経根N5の長軸像とは、第5頸椎C5の神経根N5の中心軸に沿って第5頸椎C5の神経根N5を切断した縦断画像のことを表す。
 ステップS34で第5頸椎C5の神経根N5の長軸像を探す旨の案内が行われると、ユーザは、操作案内部10による案内に従って第5頸椎C5の神経根N5の長軸像が描出されるように超音波プローブ15を操作する。このように、超音波プローブ15がユーザにより操作されている状態の下、ステップS35において部位認識部9により、第5頸椎C5の神経根N5の検出処理が行われる。ここで、第5頸椎C5の神経根N5、第6頸椎C6の神経根N6、第7頸椎C7の神経根N7が互いに類似の形状を有しているため、部位認識部9は、超音波画像U内に存在する神経根の長軸像らしい形状を、第5頸椎C5の神経根N5の長軸像として検出する。
 次に、ステップS36において、操作案内部10は、第5頸椎C5の神経根N5の長軸像が検出されたか否かを判定する。第5頸椎C5の神経根N5の長軸像が検出されていないとステップS36で判定された場合には、ステップS34に戻って操作案内部10により第5頸椎C5の神経根N5を探す旨の案内が再度行われ、続くステップS35において部位認識部9により第5頸椎C5の神経根N5の検出処理が行われる。このようにして、第5頸椎C5の神経根N5の長軸像が検出されるまで、ステップS34~ステップS36の処理が繰り返される。
 第5頸椎C5の神経根N5の長軸像が検出されたとステップS36で判定された場合には、ステップS37に進む。ステップS37において、操作案内部10は、目標部位として、第7頸椎C7の神経根N7の長軸像を探すようにユーザに対して案内を行う。この際に、操作案内部10は、第7頸椎C7の神経根N7の長軸像を探す旨の案内表示を超音波画像Uと共に表示部7に表示することができる。ここで、操作案内部10は、例えば、案内表示において、超音波プローブ15を下に移動させて、すなわち、超音波プローブ15を被検体の胴体部側に移動させて、第7頸椎C7の神経根N7を含む断層画像を取得する旨のメッセージを表示する等、具体的な指示をユーザに向けて行うことができる。なお、第7頸椎C7の神経根N7の長軸像とは、第7頸椎C7の神経根N7の中心軸に沿って第7頸椎C7の神経根N7を切断した縦断画像のことを表す。
 ステップS37において第7頸椎C7の神経根N7の長軸像を探す旨の案内が行われると、ユーザは、操作案内部10による案内に従って第7頸椎C7の神経根N7の長軸像が描出されるように超音波プローブ15を操作する。このように、超音波プローブ15がユーザにより操作されている状態の下、ステップS38において部位認識部9により、第7頸椎C7の神経根N7の検出処理が行われる。この際に、部位認識部9は、第5頸椎C5の神経根N5を検出する場合と同様に、神経根の長軸像らしい形状を第7頸椎C7の神経根N7として検出する。
 次に、ステップS39において、操作案内部10は、第7頸椎C7の神経根N7の長軸像が検出されたか否かを判定する。第7頸椎C7の神経根N7の長軸像が検出されていないとステップS39で判定された場合には、ステップS37に戻って操作案内部10により、第7頸椎C7の神経根N7を探す旨の案内が再度行われ、続くステップS38において部位認識部9により、第7頸椎C7の神経根N7の検出処理が行われる。このようにして、第7頸椎C7の神経根N7の長軸像が検出されるまで、ステップS37~ステップS39の処理が繰り返される。ステップS39において、第7頸椎C7の神経根N7の長軸像が検出されたと判定された場合には、実施の形態3に係る超音波診断装置の動作が終了する。
 ここで、従来、ユーザは、取得された超音波画像を観察することにより、第5頸椎C5の神経根N5、第6頸椎C6の神経根N6、第7頸椎C7の神経根N7を特定するが、第5頸椎C5の神経根N5、第6頸椎C6の神経根N6、第7頸椎C7の神経根N7は、互いに隣接し並走しているため、熟練度の低いユーザにとって、これらの神経根を超音波画像から特定することは困難なことが多かった。しかしながら、以上のように、第6頸椎C6の神経根N6を周辺部位とし、第5頸椎C5の神経根N5および第7頸椎C7の神経根N7を目標部位として、第6頸椎C6の神経根N6の検出結果に基づいて第5頸椎C5の神経根N5および第7頸椎C7の神経根N7を探すように超音波プローブ15の操作をユーザに案内することにより、ユーザの熟練度に関わらず、第5頸椎C5の神経根N5および第7頸椎C7の神経根N7を容易に且つ迅速に検出することができる。
 ところで、図14に示すように、解剖学的に、第5頸椎C5の横突起K5と、第6頸椎C6の横突起K6と、第7頸椎C7の横突起K7は、互いに異なる形状を有している。実施の形態3では、部位認識部9は、神経根の長軸像らしい形状を検出することにより、第5頸椎C5の神経根N5の長軸像および第7頸椎C7の神経根N7を検出しているが、検出された神経根の周囲に存在する横突起の形状に基づいて、検出された神経根が第5頸椎C5の神経根N5であるか第7頸椎C7の神経根N7であるかを確認することができる。
 この場合には、例えば、ステップS36で第5頸椎C5の神経根N5の長軸像が検出されたことをトリガとして、操作案内部10により、第5頸椎C5の神経根N5の短軸像を探すようにユーザに対して案内が行われる。この際に、操作案内部10は、第5頸椎C5の神経根N5の短軸像を探す旨の案内表示を超音波画像Uと共に表示部7に表示することができる。ここで、操作案内部10は、例えば、案内表示において、超音波プローブ15の向きを90度回転させて第5頸椎C5の神経根N5の短軸像を含む断層画像を取得する旨のメッセージを表示する等、具体的な指示をユーザに向けて行うことができる。なお、第5頸椎C5の神経根N5の短軸像とは、第5頸椎C5の神経根N5の中心軸に直交する平面で第5頸椎C5の神経根N5を切断した横断画像のことを表す。
 第5頸椎C5の神経根N5の短軸像を探す旨の案内が行われると、ユーザは、操作案内部10による案内に従って第5頸椎C5の神経根N5の短軸像が描出されるように超音波プローブ15を操作する。このように、超音波プローブ15がユーザにより操作されている状態の下、部位認識部9により、第5頸椎C5の神経根N5の短軸像の検出処理が行われる。この際に、部位認識部9は、神経根の周囲に存在する横突起を検出する処理を行い、神経根と一緒に検出された横突起の形状が、第5頸椎C5の横突起K5に特有の形状である場合に、検出された神経根を第5頸椎C5の神経根N5として検出することができる。
 また、例えば、ステップS39で第7頸椎C7の神経根N7の長軸像が検出されたことをトリガとして、操作案内部10により、第7頸椎C7の神経根N7の短軸像を探すようにユーザに対して案内が行われる。この際に、操作案内部10は、第7頸椎C7の神経根N7の短軸像を探す旨の案内表示を超音波画像Uと共に表示部7に表示することができる。ここで、操作案内部10は、例えば、案内表示において、超音波プローブ15の向きを90度回転させて第7頸椎C7の神経根N7の短軸像を含む断層画像を取得する旨のメッセージを表示する等、具体的な指示をユーザに向けて行うことができる。なお、第7頸椎C7の神経根N7の短軸像とは、第7頸椎C7の神経根N7の中心軸に直交する平面で第7頸椎C7の神経根N7を切断した横断画像のことを表す。
 第7頸椎C7の神経根N7の短軸像を探す旨の案内が行われると、ユーザは、操作案内部10による案内に従って第7頸椎C7の神経根N7の短軸像が描出されるように超音波プローブ15を操作する。このように、超音波プローブ15がユーザにより操作されている状態の下、部位認識部9により、第7頸椎C7の神経根N7の短軸像の検出処理が行われる。この際に、部位認識部9は、神経根の周囲に存在する椎骨の形状を検出する処理を行い、神経根と一緒に検出された横突起の形状が、第7頸椎C7の横突起K7に特有の形状である場合に、検出された神経根を第7頸椎C7の神経根N7として検出することができる。
 このように、部位認識部9が神経根の周囲に存在する椎骨の形状を検出することにより、第5頸椎C5の神経根N5および第7頸椎C7の神経根N7の検出精度を向上させることができる。
 また、部位認識部9は、第6頸椎C6の神経根N6の検出処理を行う際に、神経根の長軸像と一緒に椎骨動脈が検出された場合に、この神経根を第6頸椎C6の神経根N6として検出しているが、さらに、第5頸椎C5の神経根N5および第7頸椎C7の神経根N7の検出処理と同様に、神経根の周囲に存在する横突起の形状に基づいて、検出された神経根が第6頸椎C6の神経根N6であることを確認することもできる。この場合には、例えば、第6頸椎C6の神経根N6の長軸像が検出されたことをトリガとして、まず、第6頸椎C6の神経根N6の短軸像を探す旨の案内がなされ、さらに、第6頸椎C6の神経根N6の短軸像が検出されたことをトリガとして、第5頸椎C5の神経根N5の長軸像を探す旨の案内がなされる。ここで、第6頸椎C6の神経根N6の短軸像とは、第6頸椎C6の神経根N6の中心軸に直交する平面で第6頸椎C6の神経根N6を切断した横断画像のことを表す。
 ここで、操作案内部10により、第6頸椎C6の神経根N6の短軸像を探す旨の案内が行われると、ユーザは、操作案内部10による案内に従って第6頸椎C6の神経根N6の短軸像が描出されるように超音波プローブ15を操作する。このように、超音波プローブ15がユーザにより操作されている状態の下、部位認識部9により、第6頸椎C6の神経根N6の検出処理が行われる。部位認識部9は、第6頸椎C6の神経根N6の短軸像を検出する処理を行う際に、神経根の周囲に存在する横突起の形状を検出する処理を行い、神経根と一緒に検出された横突起の形状が、第6頸椎C6の横突起K6に特有の形状を有している場合に、この神経根を第6頸椎C6の神経根N6として検出することができる。これにより、第6頸椎C6の神経根N6に対する検出精度を向上させることができるため、ユーザが、第5頸椎C5の神経根N5および第7頸椎C7の神経根N7を精度良く探すことができる。
 また、部位認識部9は、第6頸椎C6の神経根N6を検出する際に、いわゆるテンプレートマッチング等の画像解析により、第6頸椎C6の神経根の長軸像と一緒に描出される椎骨動脈を検出しているが、椎骨動脈の内部には血流が存在しているため、いわゆるドプラ信号に基づいて椎骨動脈を検出することもできる。
 また、操作案内部10により、第5頸椎C5の神経根N5の長軸像を探す旨の案内がなされてから、第5頸椎C5の神経根N5の長軸像が検出されずに一定の時間が経過した場合には、ユーザが超音波プローブ15をどの位置に移動させればよいか迷っていると判断して、操作案内部10は、ユーザに対して、第6頸椎C6の神経根N6の長軸像を再度描出する旨の案内をすることができる。また、操作案内部10により、第7頸椎C7の神経根N7の長軸像を探す旨の案内がなされてから、第7頸椎C7の神経根N7の長軸像が検出されずに一定の時間が経過した場合も同様に、操作案内部10は、ユーザに対して、第6頸椎C6の神経根N6の長軸像を再度描出する旨の案内をすることができる。このようにして、再度、第6頸椎C6の神経根N6の長軸像を描出するようにユーザに案内を行うことにより、ユーザが、第6頸椎C6の神経根N6の位置を基準として第5頸椎C5の神経根N5および第7頸椎C7の神経根N7を描出しやすくなる。
 また、解剖学的に、第5頸椎C5の神経根N5、第6頸椎C6の神経根N6、第7頸椎C7の神経根N7は、互いに隣接し且つ近接した位置に存在している。そのため、第6頸椎C6の神経根N6の長軸像を描出してから第5頸椎C5の神経根N5の長軸像を描出するまでの間、第6頸椎C6の神経根N6の長軸像を描出してから第7頸椎C7の神経根N7の長軸像を描出するまでの間に、順次取得される超音波画像U内に描出される画像パターンは、通常、変化が少ない。そこで、操作案内部10により、第5頸椎C5の神経根N5の長軸像または第7頸椎C7の神経根N7の長軸像を探す旨の案内がなされた時点の超音波画像と、順次取得される超音波画像Uとの類似度が定められた閾値を超えた場合に、超音波プローブ15の位置が第5頸椎C5の神経根N5、第6頸椎C6の神経根N6、第7頸椎C7の神経根N7から遠ざかってしまったと判断して、操作案内部10は、第6頸椎C6の神経根N6の長軸像を再度描出する旨の案内をすることができる。
 また、操作案内部10は、第6頸椎C6の神経根N6、第5頸椎C5の神経根N5、第7頸椎C7の神経根N7の順に神経根を探す旨をユーザに案内しているが、第6頸椎C6の神経根N6、第7頸椎C7の神経根N7、第5頸椎C5の神経根N5の順に神経根を探す旨をユーザに案内することもできる。この場合にも、第6頸椎C6の神経根N6、第5頸椎C5の神経根N5、第7頸椎C7の神経根N7の順に神経根を探す旨をユーザに案内する場合と同様に、ユーザの熟練度に関わらず、第5頸椎C5の神経根N5および第7頸椎C7の神経根N7を容易に且つ迅速に検出することができる。
 また、第5頸椎C5の横突起K5の形状を検出することにより第5頸椎C5の神経根N5の短軸像が検出され、第7頸椎C7の横突起K7の形状を検出することにより第7頸椎C7の神経根N7が検出されているが、部位認識部9は、機械学習手法、ディープラーニングを用いた一般画像認識手法により、第5頸椎C5の神経根N5の短軸像および第7頸椎C7の神経根N7の短軸像を分類することもできる。同様に、第6頸椎C6の神経根N6の短軸像も、機械学習手法、ディープラーニングを用いた一般画像認識手法により分類されることができる。
実施の形態4
 図17に、実施の形態4に係る超音波診断装置1Aの構成を示す。実施の形態4の超音波診断装置1Aは、図1に示す実施の形態1の超音波診断装置1において、装置制御部12の代わりに装置制御部12Aが備えられ、輪郭生成部22が追加されたものである。超音波診断装置1Aにおいて、部位認識部9に輪郭生成部22が接続されており、輪郭生成部22は、表示制御部6に接続されている。また、表示制御部6、画像取得部8、部位認識部9、操作案内部10、入力部13、格納部14および輪郭生成部22に、装置制御部12Aが接続されている。
 さらに、表示制御部6、画像取得部8、部位認識部9、操作案内部10、装置制御部12Aおよび輪郭生成部22により、プロセッサ16Aが構成されている。
 プロセッサ16Aの輪郭生成部22は、装置制御部12Aの制御の下、部位認識部9により認識された少なくとも1つの周辺部位、補助部位および目標部位Mの輪郭を生成する。このようにして輪郭生成部22により生成された輪郭は、表示制御部6を介して、例えば、図18~図21に示すように、表示部7において、超音波画像Uに重畳して表示される。図18に示す例では、上行結腸の短軸像である周辺部位Aの輪郭を表す輪郭線CL1が、超音波画像Uに重畳して表示されている。図19に示す例では、盲腸の長軸像である周辺部位Bの輪郭線CL2と、上行結腸の長軸像である補助部位X1の輪郭線CL3が、超音波画像Uに重畳して表示されている。図20に示す例では、回腸の長軸像である周辺部位Cの輪郭線CL4が超音波画像Uに重畳して表示されている。図21に示す例では、虫垂の長軸像である目標部位Mの輪郭線CL5と、回腸の長軸像である補助部位X2の輪郭線CL6が、超音波画像Uに重畳して表示されている。
 このようにして、輪郭生成部22は、部位認識部9により周辺部位、補助部位および目標部位Mが検出される毎に、検出された少なくとも1つの周辺部位、補助部位および目標部位の輪郭を生成し、超音波画像Uに重畳して表示させる。
 これにより、実施の形態4に係る超音波診断装置1Aによれば、超音波画像Uに含まれる周辺部位、補助部位および目標部位Mの位置をユーザに容易に把握させることができるため、周辺部位および目標部位をさらに容易に検出することができる。
 なお、実施の形態4では、虫垂を目標部位Mとして検出する場合に、輪郭生成部22が上行結腸、盲腸、回腸、虫垂の輪郭を生成する例を示しているが、輪郭生成部22は、虫垂とは異なる総胆管等の部位を目標部位Mとして検出する場合でも同様に、周辺部位、補助部位および目標部位Mの輪郭を生成することができる。
 また、輪郭生成部22は、生成された周辺部位、補助部位および目標部位Mの輪郭を、表示部7において強調表示させることもできる。例えば、輪郭生成部22は、生成された輪郭を表す輪郭線を、超音波画像Uに用いられている色とは異なる色で表示させることができる。また、例えば、輪郭生成部22は、生成された輪郭を表す輪郭線を、点滅表示させることもできる。これにより、ユーザは、超音波画像Uに含まれている周辺部位、補助部位および目標部位Mをより明確に把握することができる。
 また、輪郭生成部22は、部位認識部9により認識された周辺部位、補助部位および目標部位Mを表す領域、すなわち、生成された輪郭の内側の領域を、超音波画像Uに用いられている色とは異なる色で表示部7に表示させることができる。これにより、ユーザは、超音波画像Uに含まれている周辺部位、補助部位および目標部位Mをさらに明確に把握することができる。
実施の形態5
 実施の形態1、2、4では、目標部位Mを検出するために有効な複数の周辺部位のそれぞれを検出しているが、複数の周辺部位のうち一部の周辺部位の検出をスキップすることができる。ここで、実施の形態5に係る超音波診断装置1は、図1に示す実施の形態1に係る超音波診断装置1と同一の構成を有している。
 図22に、実施の形態5に係る超音波診断装置1の動作を表すフローチャートを示す。このフローチャートにおけるステップS1~ステップS10は、図4に示すフローチャートにおけるステップS1~ステップS10と同一である。
 まず、ステップS1において周辺部位Aを探す旨の案内が操作案内部10によりなされると、ステップS2において周辺部位Aの検出処理が部位認識部9によりなされ、続くステップS3において周辺部位Aが検出されたか否かの判定が操作案内部10によりなされる。
 周辺部位Aが検出されていない場合には、ステップS21に進む。ステップS21において、操作案内部10は、ステップS1において周辺部位Aを探す旨の案内がなされた時点からの経過時間Tが閾値時間Tthを超えたか否かを判定する。経過時間Tが閾値時間Tth以下である場合には、ステップS1に戻り、操作案内部10により周辺部位Aを探す旨の案内がなされる。続くステップS2において周辺部位Aの検出処理がなされると、ステップS3において周辺部位Aが検出されたか否かが判定される。このようにして、ステップS1において周辺部位Aを探す旨の案内がなされてから閾値時間Tthが経過するまでに周辺部位Aが検出されない間は、ステップS1~ステップS3およびステップS21の処理が繰り返される。
 ステップS21において、経過時間Tが閾値時間Tthを超えたと判定された場合には、ステップS22に進み、操作案内部10により、周辺部位Aの検出がスキップされて、ステップS4に進む。また、ステップS3において、周辺部位Aが検出されたと判定された場合にも、ステップS4に進む。
 ステップS4において、周辺部位Bを探す旨の案内が操作案内部10によりなされると、ステップS5において部位認識部9により周辺部位Bの検出処理がなされ、続くステップS6において操作案内部10により周辺部位Bが検出されたか否かの判定がなされる。周辺部位Bが検出されてない場合には、ステップS4に戻り、周辺部位Bを探す旨の案内がなされる。次に、ステップS5において周辺部位Bの検出処理がなされ、ステップS6において周辺部位Bが検出されたか否かの判定がなされる。このようにして、周辺部位Bが検出されるまでステップS4~ステップS6の処理が繰り返される。
 周辺部位Bが検出されたとステップS6において判定された場合には、ステップS7に進む。ステップS7において、目標部位Mを探す旨の案内が操作案内部10によりなされると、ステップS8において部位認識部9により目標部位Mの検出処理がなされ、続くステップS9において操作案内部10により目標部位Mが検出されたか否かの判定がなされる。目標部位Mが検出されていない場合には、ステップS7に戻り、目標部位Mを探す旨の案内がなされる。次に、ステップS8において目標部位Mの検出処理がなされ、ステップS9において目標部位Mが検出されたか否かの判定がなされる。このようにして、目標部位Mが検出されるまでステップS7~ステップS9の処理が繰り返される。
 目標部位Mが検出されたとステップS9において判定された場合には、ステップS10に進み、操作案内部10により、目標部位Mの断面が表示部7に表示されている旨の通知がなされる。こうして、実施の形態5に係る超音波診断装置1の動作が終了する。
 以上のように、実施の形態5に係る超音波診断装置1によれば、操作案内部10による案内が行われてから閾値時間Tthが経過するまでに周辺部位が検出できない場合に、この周辺部位の検出をスキップするため、例えば被検体の状態等により検出が難しい周辺部位に対して複数回の検出処理をする必要がなく、目標部位Mをより迅速に検出することが可能である。
 なお、実施の形態5では、2つの周辺部位AおよびBのうち、周辺部位Aの検出処理をスキップしているが、周辺部位Aの代わりに周辺部位Bの検出処理をスキップすることもできる。
 また、実施の形態5では、操作案内部10による案内が行われてから閾値時間Tthが経過するまでに周辺部位が検出できない場合に、その周辺部位の検出処理をスキップしているが、周辺部位の検出処理をスキップするためのトリガは、これに限定されない。
 例えば、操作案内部10は、部位認識部9による周辺部位の認識結果に基づいて、目標部位Mを検出するために有効な複数の周辺部位のうち一部の周辺部位の検出処理をスキップすることができる。例えば、目標部位Mを検出するために有効な周辺部位として、周辺部位AおよびBが周辺部位メモリ11に記憶されている場合に、操作案内部10は、周辺部位Aが検出されたことにより周辺部位Bの検出が不要と判断して、周辺部位Bの検出処理をスキップすることができる。
 また、例えば、操作案内部10は、入力部13を介してユーザにより入力された修正情報に基づいて、目標部位Mを検出するために有効な複数の周辺部位のうち一部の周辺部位の検出処理をスキップすることができる。例えばユーザは、修正情報として、検出処理をスキップする周辺部位を、入力部13を介して入力することができる。例えば、目標部位Mを検出するために有効な複数の周辺部位として周辺部位AおよびBが周辺部位メモリ11に記憶されている場合に、修正情報として周辺部位Aをスキップする旨の情報を、ユーザが入力部13を介して入力することにより、操作案内部10は、周辺部位Aの検出処理をスキップする。
 また、例えば、操作案内部10は、入力部13を介してユーザにより入力された被検体の状態に関する被検体情報に基づいて、目標部位Mを検出するために有効な複数の周辺部位のうち一部の周辺部位の検出処理をスキップすることができる。例えば、目標部位Mを検出するために有効な複数の周辺部位に胆嚢が含まれ、入力部13を介してユーザにより、被検体が食後の状態であることが入力された場合に、操作案内部10は、胆嚢が通常とは異なる収縮した状態であると判断して、胆嚢の検出処理をスキップすることができる。
実施の形態6
 実施の形態5では、目標部位Mを検出するために有効な複数の周辺部位のうち一部の周辺部位の検出をスキップしているが、複数の周辺部位の検出順序を変更してユーザに対する案内を行うこともできる。ここで、実施の形態6に係る超音波診断装置1は、図1に示す実施の形態1に係る超音波診断装置1と同一の構成を有している。
 図23に、実施の形態6に係る超音波診断装置1の動作を表すフローチャートを示す。このフローチャートにおけるステップS1~ステップS10は、図4に示すフローチャートにおけるステップS1~ステップS10と同一であり、ステップS21は、図22に示すフローチャートにおけるステップS21と同一である。
 まず、ステップS1において周辺部位Aを探す旨の案内が操作案内部10によりなされると、ステップS2において周辺部位Aの検出処理が部位認識部9によりなされ、続くステップS3において周辺部位Aが検出されたか否かの判定が操作案内部10によりなされる。
 周辺部位Aが検出されていない場合には、ステップS21に進む。ステップS21において、操作案内部10は、ステップS1において周辺部位Aを探す旨の案内がなされた時点からの経過時間Tが閾値時間Tthを超えたか否かを判定する。経過時間Tが閾値時間Tth以下である場合には、ステップS1に戻り、操作案内部10により周辺部位Aを探す旨の案内がなされる。続くステップS2において周辺部位Aの検出処理がなされると、ステップS3において周辺部位Aが検出されたか否かが判定される。このようにして、ステップS1において周辺部位Aを探す旨の案内がなされてから閾値時間Tthが経過するまでに周辺部位Aが検出されない間は、ステップS1~ステップS3およびステップS21の処理が繰り返される。
 ステップS21において、経過時間Tが閾値時間Tthを超えたと判定された場合には、ステップS23に進む。ステップS23において、操作案内部10は、周辺部位Aの検出順序を変更する。例えば、操作案内部10は、周辺部位Aが検出された後に、周辺部位Bが検出されるような検出順序を、周辺部位Bが検出された後に、周辺部位Aが検出されるような検出順序に変更する。周辺部位Aの検出順序がステップS21において変更されると、ステップS4に進む。また、ステップS3において、周辺部位Aが検出されたと判定された場合にも、ステップS4に進む。
 ステップS4において、周辺部位Bを探す旨の案内が操作案内部10によりなされると、ステップS5において部位認識部9により周辺部位Bの検出処理がなされ、続くステップS6において操作案内部10により周辺部位Bが検出されたか否かの判定がなされる。周辺部位Bが検出されていないと判定された場合には、ステップS4に戻り、周辺部位Bを探す旨の案内がなされる。次に、ステップS5において周辺部位Bの検出処理がなされ、ステップS6において周辺部位Bが検出されたか否かの判定がなされる。このようにして、周辺部位Bが検出されるまでステップS4~ステップS6の処理が繰り返される。
 周辺部位Bが検出されたとステップS6において判定された場合には、ステップS24に進む。ステップS24において、操作案内部10は、周辺部位AがステップS2において既に検出されているか否かを判定する。周辺部位Aがまだ検出されていないと判定された場合には、ステップS3における周辺部位Aの検出が失敗したものと判断して、ステップS25に進む。
 ステップS25における処理は、ステップS1における処理と同一であり、周辺部位Aを探す旨の案内が操作案内部10によりなされる。続くステップS26における処理は、ステップS2における処理と同一であり、周辺部位Aの検出処理が、部位認識部9によりなされる。ここで、周辺部位Bの検出が既に完了しているため、例えば、部位認識部9は、周辺部位Bの認識結果を加味して周辺部位Aの検出処理を行うことができる。ステップS26に続くステップS27における処理は、ステップS3における処理と同様であり、ステップS26において周辺部位Aが検出されたか否かの判定が操作案内部10によりなされる。
 ステップS27において周辺部位Aが検出されていない場合には、ステップS25に戻り、周辺部位Aを探す旨の案内がなされる。続くステップS26において、周辺部位Aの検出処理がなされると、ステップS27において、周辺部位Aが検出されたか否かの判定がなされる。このようにして、ステップS26において周辺部位Aが検出されるまで、ステップS25~ステップS27の処理が繰り返される。周辺部位Aが検出されたとステップS27において判定された場合には、ステップS7に進む。
 また、ステップS24において、周辺部位Aが既に検出されていると判定された場合には、ステップS25~ステップS27を行うことなく、ステップS7に進む。
 ステップS7において、目標部位Mを探す旨の案内が操作案内部10によりなされると、ステップS8において部位認識部9により目標部位Mの検出処理がなされ、続くステップS9において操作案内部10により目標部位Mが検出されたか否かの判定がなされる。目標部位Mが検出されていない場合には、ステップS7に戻り、目標部位Mを探す旨の案内がなされる。次に、ステップS8において目標部位Mの検出処理がなされ、ステップS9において目標部位Mが検出されたか否かの判定がなされる。このようにして、目標部位Mが検出されるまでステップS7~ステップS9の処理が繰り返される。
 目標部位Mが検出されたとステップS9において判定された場合には、ステップS10に進み、操作案内部10により、目標部位Mの断面が表示部7に表示されている旨の通知がなされる。こうして、実施の形態6に係る超音波診断装置1の動作が終了する。
 以上のように、実施の形態6に係る超音波診断装置1によれば、操作案内部10による案内が行われてから閾値時間Tthが経過するまでに周辺部位が検出できない場合に、この周辺部位の検出順序を変更するため、既に検出された周辺部位の認識結果を加味して、検出順序を変更した周辺部位の検出精度を向上させることができる。これにより、超音波診断装置1は、容易に且つ迅速に目標部位Mを検出することができる。
 なお、実施の形態6では、操作案内部10による案内が行われてから閾値時間Tthが経過するまでに周辺部位が検出できない場合に、その周辺部位の検出順序を変更しているが、周辺部位の検出順序を変更するためのトリガは、これに限定されない。
 例えば、操作案内部10は、部位認識部9による周辺部位の認識結果に基づいて、目標部位Mを検出するために有効な複数の周辺部位のうち一部の周辺部位の検出順序を変更してユーザに対する案内を行うことができる。例えば、目標部位Mを検出するために有効な周辺部位として、周辺部位A、BおよびCが、周辺部位A、B、Cの順の検出順序で周辺部位メモリ11に記憶されている場合に、操作案内部10は、周辺部位Aが検出されたことにより、周辺部位Bを検出するよりも周辺部位Cを検出する方が容易であると判断して、周辺部位A、B、Cの順の検出順序を、周辺部位A、C、Bの順に変更してユーザに対する案内を行うことができる。
 また、例えば、操作案内部10は、入力部13を介してユーザにより入力された修正情報に基づいて、目標部位Mを検出するために有効な複数の周辺部位のうち一部の周辺部位の検出順序を変更してユーザに対する案内を行うことができる。例えばユーザは、複数の周辺部位の検出順序を、修正情報として入力部13を介して入力することができる。例えば、目標部位Mを検出するために有効な周辺部位として、周辺部位AおよびBが、周辺部位A、Bの順の検出順序で周辺部位メモリ11に記憶されている場合に、ユーザが、周辺部位Aの検出順序を第2番目とし、周辺部位Bの検出順序を第1番目とする修正情報を入力することにより、周辺部位A、Bの検出順序を、周辺部位B、Aの順に変更してユーザに対する案内を行うことができる。
 また、例えば、操作案内部10は、入力部13を介してユーザにより入力された被検体の情報に関する被検体情報に基づいて、目標部位Mを検出するために有効な複数の周辺部位のうち一部の周辺部位の検出順序を変更して、ユーザに対する案内を行うことができる。例えば、目標部位Mを検出するために有効な複数の周辺部位に胆嚢が含まれ、入力部13を介してユーザにより、被検体が食後の状態であることが入力された場合に、操作案内部10は、胆嚢が通常とは異なる収縮した状態であると判断して、胆嚢の検出の際に他の周辺部位の認識結果を加味するために、胆嚢の検出順序をより後の順序に変更することができる。
実施の形態7
 実施の形態1において、操作案内部10は、超音波プローブ15の操作をユーザに案内する際に、図6~図9に示すような案内表示G1~G3を表示部7に表示させているが、超音波プローブ15の操作をユーザに案内する態様は、これに限定されない。例えば、操作案内部10は、超音波プローブ15の操作を、音声を用いてユーザに案内することができる。
 図24に、本発明の実施の形態7に係る超音波診断装置1Bの構成を表すブロック図を示す。この超音波診断装置1Bは、実施の形態1の超音波診断装置1において、装置制御部12の代わりに装置制御部12Bが備えられ、音声発生部23が追加されたものである。超音波診断装置1Bにおいて、表示制御部6、画像取得部8、部位認識部9、操作案内部10、入力部13および格納部14に、装置制御部12Bが接続されている。また、表示制御部6、画像取得部8、部位認識部9、操作案内部10、装置制御部12Bにより、プロセッサ16Bが構成されている。
 この音声発生部23は、プロセッサ16Bの操作案内部10に接続されており、音声を発生するスピーカ等を含んで構成されている。そのため、操作案内部10は、ユーザに向けた超音波プローブ15の操作の案内を、音声発生部23から発する音声により行うことができる。
 以上のように、実施の形態7に係る超音波診断装置1Bによれば、実施の形態1に係る超音波診断装置1と同様に、目標部位Mを検出するために有効な少なくとも1つの周辺部位を検出するように超音波プローブ15の操作をユーザに案内し、その少なくとも1つの周辺部位の認識結果に基づいて、目標部位Mを検出するように超音波プローブ15の操作をユーザに案内するため、不要な画像認識処理を行う必要がなく、超音波診断装置1の計算負荷を軽減しながら、目標部位Mを容易に且つ迅速に検出することができる。
 なお、実施の形態7の態様は、実施の形態1に適用されることが説明されているが、実施の形態2~実施の形態6についても、同様に適用されることができる。
実施の形態8
 実施の形態1の超音波診断装置1は、表示部7および超音波プローブ15がプロセッサ16に直接的に接続される構成を有しているが、例えば、表示部7、超音波プローブ15、プロセッサ16が、ネットワークを介して互いに間接的に接続されることもできる。
 図25に示すように、実施の形態8における超音波診断装置1Cは、表示部7と超音波プローブ15がネットワークNWを介して超音波診断装置本体31に接続されたものである。超音波診断装置本体31は、図1に示す実施の形態1の超音波診断装置1において、表示部7と超音波プローブ15を除いたものである。超音波診断装置31において、表示制御部6および画像取得部8がネットワークNWに接続されている。
 ここで、ユーザにより超音波プローブ15が被検体に押し付けられた状態で、超音波プローブ15から被検体の内部に向けて超音波ビームが送信されると、超音波プローブ15の振動子アレイ2により、被検体の内部で反射された超音波エコーが受信されて受信信号が生成される。超音波プローブ15は、生成された受信信号を、ネットワークNWを介して超音波診断装置本体31に送信する。
 このようにして超音波プローブ15から送信された受信信号は、ネットワークNWを介して超音波診断装置本体31の画像取得部8に受信され、画像取得部8により、受信信号に基づいて超音波画像が生成される。
 画像取得部8により生成された超音波画像は、表示制御部6および部位認識部9に送出される。表示制御部6は、画像取得部8から送出された超音波画像に対して所定の処理を施し、さらに、所定の処理が施された超音波画像を、ネットワークNWを介して表示部33に送信する。このようにして超音波診断装置31の表示制御部6から送信された超音波画像は、ネットワークNWを介して表示部7により受信され、表示部7に表示される。
 また、部位認識部9は、画像取得部8により送出された超音波画像に対して画像解析を行って、被検体の撮像部位を認識し、超音波画像に描出された周辺部位または目標部位Mを検出する。
 操作案内部10は、目標部位Mの検出に際して、周辺部位メモリ11に記憶されている周辺部位を検出するように、ユーザに超音波プローブ15の操作を案内し、さらに、部位認識部9の認識結果に基づいて、目標部位Mを検出するように、ユーザに超音波プローブ15の操作を案内する。この際に、操作案内部10は、ユーザへの案内を表すテキストおよび画像等を表示制御部6に送出する。さらに、表示制御部6は、ユーザへの案内を表すテキストおよび画像等を、ネットワークNWを介して表示部7に送信する。表示制御部6から送信された、ユーザへの案内を表すテキストおよび画像等は、ネットワークNWを介して表示部7により受信され、表示部7に表示される。
 以上のように、本発明の実施の形態8に係る超音波診断装置1Cによれば、表示部7と超音波プローブ15がネットワークNWを介して超音波診断装置本体31と接続されている場合でも、実施の形態1の超音波診断装置1と同様に、目標部位Mを検出するために有効な周辺部位を検出するように超音波プローブ15の操作をユーザに案内し、その周辺部位の認識結果に基づいて、目標部位Mを検出するように超音波プローブ15の操作をユーザに案内するため、不要な画像認識処理を行う必要がなく、目標部位Mを容易に且つ迅速に検出することができる。
 また、表示部7と超音波プローブ15がネットワークNWを介して超音波診断装置本体31に接続されているため、超音波診断装置本体31を、いわゆる遠隔サーバとして使用することができる。これにより、例えば、ユーザは、表示部7と超音波プローブ15のみをユーザの手元に用意することにより、被検体の診断を行うことができるため、超音波診断の際の利便性を向上することができる。
 また、例えば、いわゆるタブレットと呼ばれる携帯型の薄型コンピュータ、および、持ち運びが容易な表示装置等が表示部7として使用される場合には、ユーザは、より手軽に被検体の超音波診断を行うことができ、超音波診断の際の利便性をさらに向上させることが可能である。
 なお、表示部7と超音波プローブ15がネットワークNWを介して超音波診断装置本体31に接続されているが、この際に、表示部7、超音波プローブ15、超音波診断装置本体31は、ネットワークNWに有線接続されていてもよく、無線接続されていてもよい。
 また、実施の形態8の態様は、実施の形態1に適用されることが説明されているが、実施の形態2~実施の形態7についても、同様に適用されることができる。特に、実施の形態8の態様が実施の形態7に適用される場合には、表示部7と超音波プローブ15の他に、音声発生部23が、ネットワークNWを介して超音波診断装置本体31に接続されることができる。
1,1A、1B、1C 超音波診断装置、2 振動子アレイ、3 送信部、4 受信部、5 画像生成部、6 表示制御部、7 表示部、8 画像取得部、9 部位認識部、10 操作案内部、11 周辺部位メモリ、12 装置制御部、13 入力部、14 格納部、15 超音波プローブ、16 プロセッサ、17 増幅部、18 AD変換部、19 信号処理部、20 DSC、21 画像処理部、22 輪郭生成部、23 音声発生部、31 超音波診断装置本体、A1,A2,B,C 周辺部位、C5 第5頸椎、C6 第6頸椎、C7 第7頸椎、CL1,CL2,CL3,CL4,CL5,CL6 輪郭線、G1,G2,G3,G4,G5,G6 案内表示、K5,K6,K7 横突起、M 目標部位、N5,N6,N7 神経根、NW ネットワーク、S 脊髄、T 経過時間、Tth 閾値時間、U 超音波画像、X,X1,X2 補助部位。

Claims (18)

  1.  超音波プローブと、
     前記超音波プローブから被検体に向けて超音波ビームの送信を行って超音波画像を取得する画像取得部と、
     前記画像取得部により取得された超音波画像に対して画像解析を行って前記被検体の撮像部位を認識する部位認識部と、
     目標部位を検出するために有効な少なくとも1つの周辺部位を記憶する周辺部位メモリと、
     前記目標部位の検出に際して、前記周辺部位メモリに記憶されている前記少なくとも1つの周辺部位を検出するようにユーザに前記超音波プローブの操作を案内し、前記部位認識部による認識結果に基づいて、前記目標部位を検出するように前記ユーザに前記超音波プローブの操作を案内する操作案内部と
     を備えた超音波診断装置。
  2.  前記周辺部位メモリは、前記目標部位を検出するために有効な複数の周辺部位と前記複数の周辺部位に対する定められた検出順序を記憶し、
     前記操作案内部は、前記複数の周辺部位を前記定められた検出順序に従って順次検出するように前記ユーザに前記超音波プローブの操作を案内する請求項1に記載の超音波診断装置。
  3.  前記操作案内部は、前記部位認識部による認識結果に基づき、前記複数の周辺部位のうち一部の周辺部位の検出をスキップして次の周辺部位を検出するように前記ユーザに前記超音波プローブの操作を案内する、または、前記定められた検出順序を変更して前記複数の周辺部位を検出するように前記ユーザに前記超音波プローブの操作を案内する請求項2に記載の超音波診断装置。
  4.  ユーザが入力操作を行うための入力部をさらに備える請求項2に記載の超音波診断装置。
  5.  前記操作案内部は、前記入力部を介してユーザにより入力された修正情報に基づき、前記複数の周辺部位のうち一部の周辺部位の検出をスキップして次の周辺部位を検出するように前記ユーザに前記超音波プローブの操作を案内する、または、前記定められた検出順序を変更して前記複数の周辺部位を検出するように前記ユーザに前記超音波プローブの操作を案内する請求項4に記載の超音波診断装置。
  6.  前記操作案内部は、前記入力部を介してユーザにより入力された前記被検体の状態に関する被検体情報に基づき、複数の周辺部位のうち一部の周辺部位の検出をスキップして次の周辺部位を検出するように前記ユーザに前記超音波プローブの操作を案内する、または、前記定められた検出順序を変更して前記複数の周辺部位を検出するように前記ユーザに前記超音波プローブの操作を案内する請求項4に記載の超音波診断装置。
  7.  前記複数の周辺部位のうち1つの周辺部位を検出するようにユーザに前記超音波プローブの操作を案内してから前記1つの周辺部位が検出される前に定められた時間が経過した場合に、前記操作案内部は、前記1つの周辺部位の検出をスキップして次の周辺部位を検出するように前記ユーザに前記超音波プローブの操作を案内する、または、前記定められた検出順序を変更して前記複数の周辺部位を検出するように前記ユーザに前記超音波プローブの操作を案内する請求項4に記載の超音波診断装置。
  8.  前記部位認識部は、前記入力部を介してユーザにより入力された前記被検体の状態に関する被検体情報に基づいて、前記被検体の撮像部位を認識する請求項4~7のいずれか一項に記載の超音波診断装置。
  9.  前記周辺部位メモリは、前記目標部位を検出するために有効な前記複数の周辺部位および前記定められた検出順序を被検体毎に記憶し、
     前記操作案内部は、被検体毎に記憶された前記複数の周辺部位を被検体毎に記憶された前記定められた検出順序に従って順次検出するように前記ユーザに前記超音波プローブの操作を案内する請求項2~8のいずれか一項に記載の超音波診断装置。
  10.  表示部をさらに備え、
     前記操作案内部は、前記ユーザに向けた前記超音波プローブの操作の案内を前記表示部に表示する請求項1~9のいずれか一項に記載の超音波診断装置。
  11.  前記部位認識部により認識された前記少なくとも1つの周辺部位の輪郭を生成する輪郭生成部をさらに備え、
     前記表示部は、前記画像取得部により取得された前記超音波画像を表示し、
     前記輪郭生成部により生成された前記少なくとも1つの周辺部位の輪郭が、前記表示部に表示されている前記超音波画像に重畳表示される請求項10に記載の超音波診断装置。
  12.  音声発生部をさらに備え、
     前記操作案内部は、前記ユーザに向けた前記超音波プローブの操作の案内を前記音声発生部から発する音声により行う請求項1~9のいずれか一項に記載の超音波診断装置。
  13.  前記目標部位は、総胆管であり、
     前記少なくとも1つの周辺部位は、門脈および胆嚢である請求項1~12のいずれか一項に記載の超音波診断装置。
  14.  前記目標部位は、虫垂であり、
     前記少なくとも1つの周辺部位は、上行結腸、盲腸および回腸である請求項1~12のいずれか一項に記載の超音波診断装置。
  15.  前記目標部位は、第5頸椎の神経根および第7頸椎の神経根であり、
     前記周辺部位は、第6頸椎の神経根である請求項1~12のいずれか一項に記載の超音波診断装置。
  16.  超音波プローブから被検体に向けて超音波ビームの送受信が行われることにより生成された受信信号に基づいて超音波画像を取得し、
     取得された超音波画像に対して画像解析を行って前記被検体の撮像部位を認識し、
     目標部位の検出に際して、前記目標部位を検出するために有効な少なくとも1つの周辺部位を検出するようにユーザに前記超音波プローブの操作を案内し、前記部位認識部による認識結果に基づいて、前記目標部位を検出するように前記ユーザに前記超音波プローブの操作を案内する超音波診断装置の制御方法。
  17.  超音波プローブから被検体に向けて超音波ビームの送受信が行われることにより生成された受信信号に基づいて超音波画像を取得し、取得された超音波画像に対して画像解析を行って前記被検体の撮像部位を認識し、目標部位の検出に際して、前記目標部位を検出するために有効な少なくとも1つの周辺部位を検出するようにユーザに前記超音波プローブの操作を案内し、前記部位認識部による認識結果に基づいて、前記目標部位を検出するように前記ユーザに前記超音波プローブの操作を案内する超音波診断装置用プロセッサ。
  18.  前記超音波プローブとネットワークを介して接続されている請求項17に記載の超音波診断装置用プロセッサ。
PCT/JP2018/042652 2018-01-31 2018-11-19 超音波診断装置および超音波診断装置の制御方法 WO2019150715A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2019568879A JP7125428B2 (ja) 2018-01-31 2018-11-19 超音波診断装置および超音波診断装置の制御方法
CN202311572355.3A CN117379103A (zh) 2018-01-31 2018-11-19 超声波诊断装置及其控制方法、超声波诊断装置用处理器
CN201880088230.4A CN111670010B (zh) 2018-01-31 2018-11-19 超声波诊断装置及超声波诊断装置的控制方法
ES18903337T ES2973313T3 (es) 2018-01-31 2018-11-19 Dispositivo de diagnóstico por ultrasonido y método de control para dispositivo de diagnóstico por ultrasonido
CN202311582618.9A CN117582248A (zh) 2018-01-31 2018-11-19 超声波诊断装置及其控制方法、超声波诊断装置用处理器
EP18903337.6A EP3747370B1 (en) 2018-01-31 2018-11-19 Ultrasound diagnostic device and control method for ultrasound diagnostic device
US16/931,109 US20200345324A1 (en) 2018-01-31 2020-07-16 Ultrasound diagnostic apparatus, method for controlling ultrasound diagnostic apparatus, and processor for ultrasound diagnostic apparatus

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2018015382 2018-01-31
JP2018-015382 2018-01-31
JP2018-103436 2018-05-30
JP2018103436 2018-05-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/931,109 Continuation US20200345324A1 (en) 2018-01-31 2020-07-16 Ultrasound diagnostic apparatus, method for controlling ultrasound diagnostic apparatus, and processor for ultrasound diagnostic apparatus

Publications (1)

Publication Number Publication Date
WO2019150715A1 true WO2019150715A1 (ja) 2019-08-08

Family

ID=67479706

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/042652 WO2019150715A1 (ja) 2018-01-31 2018-11-19 超音波診断装置および超音波診断装置の制御方法

Country Status (6)

Country Link
US (1) US20200345324A1 (ja)
EP (1) EP3747370B1 (ja)
JP (1) JP7125428B2 (ja)
CN (3) CN117379103A (ja)
ES (1) ES2973313T3 (ja)
WO (1) WO2019150715A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021054076A1 (ja) * 2019-09-18 2021-03-25
WO2022191059A1 (ja) * 2021-03-09 2022-09-15 富士フイルム株式会社 医療画像処理装置、内視鏡システム、医療画像処理方法、及び医療画像処理プログラム
WO2022234742A1 (ja) * 2021-05-06 2022-11-10 富士フイルム株式会社 表示処理装置、方法及びプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021207226A1 (en) * 2020-04-07 2021-10-14 Verathon Inc. Automated prostate analysis system
JP7159361B2 (ja) * 2021-01-06 2022-10-24 ジーイー・プレシジョン・ヘルスケア・エルエルシー 超音波画像表示システム及びその制御プログラム
IT202100004376A1 (it) * 2021-02-25 2022-08-25 Esaote Spa Metodo di determinazione di piani di scansione nell’acquisizione di immagini ecografiche e sistema ecografico per l’attuazione del detto metodo
JP2023087273A (ja) * 2021-12-13 2023-06-23 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009056125A (ja) * 2007-08-31 2009-03-19 Canon Inc 超音波画像診断システム、及びその制御方法
JP2015171437A (ja) 2014-03-11 2015-10-01 株式会社東芝 医用画像処理装置、医用画像処理システム、および医用画像処理プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005112895A2 (en) * 2004-05-20 2005-12-01 Spectrum Dynamics Llc Ingestible device platform for the colon
US7648460B2 (en) * 2005-08-31 2010-01-19 Siemens Medical Solutions Usa, Inc. Medical diagnostic imaging optimization based on anatomy recognition
EP2207483B1 (en) * 2007-10-19 2016-06-01 Metritrack, Inc. Three dimensional mapping display system for diagnostic ultrasound machines and method
JP5335280B2 (ja) * 2008-05-13 2013-11-06 キヤノン株式会社 位置合わせ処理装置、位置合わせ方法、プログラム、及び記憶媒体
US9408587B2 (en) * 2008-08-22 2016-08-09 Ultrasonix Medical Corporation Highly configurable medical ultrasound machine and related methods
US8870773B2 (en) * 2009-02-09 2014-10-28 The Cleveland Clinic Foundation Ultrasound-guided delivery of a therapy delivery device to a nerve target
US9913625B2 (en) * 2013-03-29 2018-03-13 Hitachi, Ltd. Medical diagnosis device and measurement method thereof
CN105491959B (zh) * 2013-06-26 2019-06-25 皇家飞利浦有限公司 弹性成像测量***和方法
US11096663B2 (en) * 2014-03-31 2021-08-24 Koninklijke Philips N.V. Haptic feedback for ultrasound image acquisition
JP6736864B2 (ja) * 2015-10-09 2020-08-05 コニカミノルタ株式会社 超音波画像診断装置
US10646199B2 (en) * 2015-10-19 2020-05-12 Clarius Mobile Health Corp. Systems and methods for remote graphical feedback of ultrasound scanning technique
JP6648587B2 (ja) * 2016-03-23 2020-02-14 コニカミノルタ株式会社 超音波診断装置
US20170296148A1 (en) * 2016-04-15 2017-10-19 Signostics Limited Medical imaging system and method
WO2017222970A1 (en) * 2016-06-20 2017-12-28 Butterfly Network, Inc. Automated image acquisition for assisting a user to operate an ultrasound device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009056125A (ja) * 2007-08-31 2009-03-19 Canon Inc 超音波画像診断システム、及びその制御方法
JP2015171437A (ja) 2014-03-11 2015-10-01 株式会社東芝 医用画像処理装置、医用画像処理システム、および医用画像処理プログラム

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CSURKA ET AL.: "Visual Categorization with Bags of Keypoints", PROC. OF ECCV WORKSHOP ON STATISTICAL LEARNING IN COMPUTER VISION, 2004, pages 59 - 74
JAPANESE SOCIETY OF ULTRASONIC MEDICINE: "Ultrasonic diagnosis, first edition, second printing", 1 June 1989, MEDICAL SCHOOL, JP, ISBN: 4-260-10739-9, article "Passages, Ultrasonic diagnosis, first edition, second printing", pages: 135, 407, 439, 469, 479, 493, XP009522162 *
KRIZHEVSK ET AL.: "ImageNet Classification with Deep Convolutional Neural Networks", ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS, vol. 25, 2012, pages 1106 - 1114
MORI; HIDEAKI: "Ultrasound scan for gastrointestinal disorders", JOURNAL OF THE KYORIN MEDICAL SOCIETY, vol. 48, no. 1, 31 March 2017 (2017-03-31), pages 29 - 38, XP055628573 *
See also references of EP3747370A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021054076A1 (ja) * 2019-09-18 2021-03-25
WO2021054076A1 (ja) * 2019-09-18 2021-03-25 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法
JP7199556B2 (ja) 2019-09-18 2023-01-05 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法
WO2022191059A1 (ja) * 2021-03-09 2022-09-15 富士フイルム株式会社 医療画像処理装置、内視鏡システム、医療画像処理方法、及び医療画像処理プログラム
WO2022234742A1 (ja) * 2021-05-06 2022-11-10 富士フイルム株式会社 表示処理装置、方法及びプログラム

Also Published As

Publication number Publication date
CN117379103A (zh) 2024-01-12
EP3747370A4 (en) 2021-05-05
JP7125428B2 (ja) 2022-08-24
EP3747370C0 (en) 2024-03-06
JPWO2019150715A1 (ja) 2021-01-07
EP3747370A1 (en) 2020-12-09
CN111670010A (zh) 2020-09-15
CN111670010B (zh) 2024-01-16
CN117582248A (zh) 2024-02-23
ES2973313T3 (es) 2024-06-19
US20200345324A1 (en) 2020-11-05
EP3747370B1 (en) 2024-03-06

Similar Documents

Publication Publication Date Title
JP7125428B2 (ja) 超音波診断装置および超音波診断装置の制御方法
JP7313359B2 (ja) 超音波診断装置および超音波診断装置の制御方法
JP7235868B2 (ja) 超音波診断装置および超音波診断装置の制御方法
JP6875541B2 (ja) 音響波診断装置および音響波診断装置の制御方法
EP3338642B1 (en) Ultrasonic diagnostic device and method for controlling ultrasonic diagnostic device
US20180168546A1 (en) Ultrasound diagnostic apparatus and method for controlling ultrasound diagnostic apparatus
US20210361261A1 (en) Ultrasound diagnostic apparatus and method of controlling ultrasound diagnostic apparatus
JP2023053105A (ja) 超音波診断装置、超音波診断装置の制御方法および超音波診断装置用プロセッサ
JP6423540B2 (ja) 超音波診断装置および超音波診断装置の制御方法
JP7313545B2 (ja) 超音波診断装置、超音波診断装置の制御方法および超音波診断装置用プロセッサ
US11576648B2 (en) Ultrasound diagnostic apparatus and method for controlling ultrasound diagnostic apparatus
WO2019058753A1 (ja) 超音波診断装置および超音波診断装置の制御方法
CN111770730A (zh) 超声波诊断装置及超声波诊断装置的控制方法
JP6554607B2 (ja) 超音波診断装置および超音波診断装置の制御方法
US20230285003A1 (en) Image processing apparatus and control method of image processing apparatus
US20240225590A9 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
CN117770875A (zh) 超声波诊断装置及超声波诊断装置的控制方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18903337

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019568879

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018903337

Country of ref document: EP

Effective date: 20200831