WO2013021711A1 - 超音波診断装置及び超音波画像表示方法 - Google Patents

超音波診断装置及び超音波画像表示方法 Download PDF

Info

Publication number
WO2013021711A1
WO2013021711A1 PCT/JP2012/063847 JP2012063847W WO2013021711A1 WO 2013021711 A1 WO2013021711 A1 WO 2013021711A1 JP 2012063847 W JP2012063847 W JP 2012063847W WO 2013021711 A1 WO2013021711 A1 WO 2013021711A1
Authority
WO
WIPO (PCT)
Prior art keywords
ultrasonic
image
reference image
cross
section
Prior art date
Application number
PCT/JP2012/063847
Other languages
English (en)
French (fr)
Inventor
正尚 近藤
Original Assignee
株式会社 日立メディコ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 日立メディコ filed Critical 株式会社 日立メディコ
Priority to EP12821433.5A priority Critical patent/EP2742867A4/en
Priority to US14/236,564 priority patent/US20140171800A1/en
Priority to JP2013527919A priority patent/JP5814370B2/ja
Priority to CN201280039251.XA priority patent/CN103732150B/zh
Publication of WO2013021711A1 publication Critical patent/WO2013021711A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • A61B5/066Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/465Displaying means of special interest adapted to display user selection data, e.g. icons or menus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/523Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for generating planar views from image data in a user selectable plane not corresponding to the acquisition plane
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8909Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration
    • G01S15/8915Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration using a transducer array
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/899Combination of imaging systems with ancillary equipment
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52073Production of cursor lines, markers or indicia by electronic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52074Composite displays, e.g. split-screen displays; Combination of multiple images or of images and alphanumeric tabular information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • A61B8/145Echo-tomography characterised by scanning multiple planes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4416Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to combined acquisition of different diagnostic modalities, e.g. combination of ultrasound and X-ray acquisitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe

Definitions

  • the present invention relates to an ultrasonic diagnostic apparatus and an ultrasonic image display method, and more particularly to an ultrasonic image display technique.
  • an ultrasonic tomographic image is a tomographic image obtained by a magnetic resonance imaging apparatus (hereinafter referred to as an MRI apparatus) or an X-ray computed tomographic apparatus (hereinafter referred to as an X-ray CT apparatus). It is hard to see as morphological information from the whole body of the subject.
  • ultrasonic volume data a plurality of ultrasonic images obtained by imaging the affected area, and to perform a comprehensive diagnosis while comparing these images.
  • Patent Document 1 by detecting the position and posture of the ultrasonic endoscope based on the position detection sensor attached to the ultrasonic endoscope, an image having the same cross section as the ultrasonic image is obtained.
  • An ultrasonic diagnostic apparatus and an ultrasonic image display method are disclosed in which reconstruction is performed from volume data of MRI images and CT images captured in advance, and the reconstructed images and ultrasonic images are synchronized and displayed on a monitor.
  • Patent Document 1 the quality of morphological information is improved by simultaneously displaying an MRI image and CT image of the same cross section as the ultrasonic image, but the MRI image and CT image of the same cross section as the ultrasonic image are displayed. Therefore, there was no freedom for the user.
  • the present invention has been made in view of the above problems, and provides an ultrasonic diagnostic apparatus and an ultrasonic image display method capable of displaying a reference image that is not limited within an ultrasonic radiation region reconstructed by volume data.
  • the purpose is to provide.
  • an ultrasonic diagnostic apparatus radiates an ultrasonic wave and has an ultrasonic probe having an ultrasonic radiation surface for receiving the reflected wave of the ultrasonic wave, and the reflected wave.
  • An ultrasonic image generating means for generating an ultrasonic image using a reflected echo signal based on the reference, a reference image generating means for generating a reference image of a plurality of arbitrary cross sections using three-dimensional volume data of the subject, and the ultrasonic Display means for displaying a sound wave image and the reference image.
  • An ultrasonic image display method including a generating step and a step of displaying an ultrasonic image and a reference image.
  • an ultrasonic diagnostic apparatus and an ultrasonic image display method capable of displaying an ultrasonic image that is not limited within the ultrasonic radiation region.
  • FIG. 4 is an explanatory diagram showing movement and rotation of a second reference image, (a) shows a state where the second reference image is moved along the depth direction, and (b) shows an ultrasonic probe of the second reference image. The state where it rotated with the insertion direction of the child as a rotation axis is shown. It is explanatory drawing which shows rotation of a 2nd reference image, (a) shows the state which rotated the 2nd reference image by making the depth direction into the rotating shaft, (b) shows the depth direction of the 2nd reference image. The state rotated as a rotating shaft is shown.
  • Explanatory drawing which shows the method of moving a reference image with a guide image Schematic diagram showing a screen display example displayed in the second embodiment
  • (a) shows the front-end
  • (b) is the reference image 60 from the 2nd reference image 36.
  • generates is shown.
  • FIG. 1 is a schematic diagram showing an overall schematic configuration of an ultrasonic diagnostic apparatus according to an embodiment of the present invention.
  • the ultrasonic diagnostic apparatus 10 mainly includes an ultrasonic diagnostic apparatus main body 1, an ultrasonic probe 2, a position sensor 4, a source generation source 5, and a monitor 15.
  • the ultrasonic diagnostic apparatus main body 1 is roughly divided into a system for generating an ultrasonic image and a system for generating a reference image to be referred to when diagnosing the ultrasonic image.
  • the system for generating an ultrasonic image includes an ultrasonic image generation unit 6 that generates an ultrasonic image based on a reflected echo signal from the ultrasonic probe 2, and a memory that temporarily stores a plurality of ultrasonic images. 7 and an ultrasonic volume data generation unit 8 that generates three-dimensional ultrasonic volume data based on a plurality of ultrasonic images.
  • a system for generating a reference image includes, for example, a volume data recording unit 9 that stores three-dimensional volume data captured by a medical image diagnostic apparatus 17 such as an MRI apparatus, a CT apparatus, and other ultrasonic diagnostic apparatuses.
  • the ultrasonic diagnostic apparatus main body 1 Based on the signals of the sensor 4 and the source generation source 5, a scan plane acquisition unit 11 that detects the position and orientation of the ultrasonic probe 2, and a reference image that is referred to when diagnosing the ultrasonic image, the volume A reference image generation unit 12 that generates a reference image based on the three-dimensional volume data and ultrasonic volume data stored in the data recording unit 9, and a guide image generation unit 13 that generates a guide image indicating a cross-sectional position of the reference image And a movement / rotation signal input unit 16 for receiving input of the type / movement of the reference image, the movement amount / rotation amount, and the movement direction / rotation direction. Furthermore, the ultrasonic diagnostic apparatus main body 1 includes an image processing unit 14 that performs display processing in association with cross-sectional positions of the ultrasonic image and the reference image.
  • the ultrasonic diagnostic apparatus main body 1 inputs the three-dimensional volume data of the subject imaged by the medical image diagnostic apparatus 17, the ultrasonic volume data imaged by another ultrasonic diagnostic apparatus, and the like. It has an interface. Then, the ultrasonic diagnostic apparatus body 1 is directly connected to the medical image diagnostic apparatus 17 via the interface, receives the three-dimensional volume data, and stores it in the volume data recording unit 9. Furthermore, it is also possible to store the three-dimensional volume data in the volume data recording unit 9 in the ultrasonic diagnostic apparatus main body via a network or a portable recording medium such as a USB memory. Details of each component will be described below.
  • the ultrasonic diagnostic apparatus main body 1 can generate a reference tomographic image having the same cross section, magnification, and field of view corresponding to the ultrasonic tomographic image obtained by the ultrasonic probe 2.
  • a composite image can be generated.
  • the composite image and the guide image are displayed on the same screen of the monitor 15 on the ultrasonic diagnostic apparatus 10. Therefore, the surgeon can easily grasp the correspondence between the ultrasound image and the reference image, and by comparing these images, it is possible to effectively comprehensively diagnose the subject. Become.
  • the ultrasonic probe 2 transmits an ultrasonic wave from the ultrasonic radiation surface, receives a reflected wave of the ultrasonic wave, and outputs a reflected echo signal to the ultrasonic image generation unit 6.
  • the ultrasonic image generation unit 6 generates an ultrasonic image for one frame at each position of the ultrasonic probe 2. As the position of the ultrasound probe 2 moves, ultrasound images for a plurality of frames are generated from a plurality of positions.
  • the memory 7 temporarily stores ultrasonic images for a plurality of frames.
  • the ultrasonic volume data generation unit 8 is a three-dimensional image obtained by accumulating ultrasonic images of a plurality of frames along one direction (advancing and retreating direction of the ultrasonic probe 2) based on the ultrasonic image primarily stored in the memory 7. Generate ultrasonic volume data.
  • the volume data recording unit 9 records the generated three-dimensional ultrasonic volume data, and also records the three-dimensional volume data captured by the medical image diagnostic apparatus 17.
  • a position sensor 4 such as a magnetic sensor for detecting the position and orientation of the ultrasonic probe 2 is fixed to the ultrasonic probe 2 by a position sensor fixing mechanism 3 attached to the ultrasonic probe 2.
  • a source generation source 5 that generates a source such as a magnetic field in a coordinate system including the subject is disposed, for example, next to a bed on which the subject lies.
  • the position sensor 4 and the source generation source 5 are electrically connected to the scan plane acquisition unit 11, and output signals from the position sensor 4 and the source generation source 5 are output to the scan plane acquisition unit 11.
  • the scan plane acquisition unit 11 acquires position information such as the position / inclination angle of the ultrasonic probe 2 based on the output signal from the position sensor or the source generation source 5, and the 3D of the ultrasonic probe 2
  • a scan plane calculator 11a that calculates the coordinates of the scan surface (cross section of the ultrasound image) of the ultrasound probe 2 and a scan that records the calculated scan plane coordinates
  • a surface recording unit 11b A surface recording unit 11b.
  • the position detection by the magnetic field is illustrated as an example of the position detection of the ultrasound probe 2.
  • the present invention is not limited to this, and various known position detection methods can be used.
  • the calculated coordinates of the scan plane are output to the reference image generation unit 12 and the image processing unit 14.
  • the reference image generation unit 12 uses the coordinates calculated by the scan plane acquisition unit 11 to calculate a reference image (hereinafter referred to as a first image) having the same cross section as the ultrasound image from the volume data recorded in the volume data recording unit 9.
  • a reference image (hereinafter referred to as a first image) having the same cross section as the ultrasound image from the volume data recorded in the volume data recording unit 9.
  • Reference image a reference image rotated by 90 ° or 270 ° about the depth direction of the first reference image
  • the ultrasonic radiation of the ultrasonic probe 2 A reference image parallel to the surface (hereinafter referred to as a third reference image) and a reference image having an arbitrary cross section are generated.
  • a process of superimposing and displaying dotted lines indicating the positions of other reference images or hiding those dotted lines is performed.
  • the reference image generation unit 12 calculates the coordinates of the ultrasonic radiation area (also referred to as the visual field area) in the ultrasonic image, and performs superimposition on the first, second, and third reference images. A process of reducing the luminance of the area outside the sound wave radiation area or hiding the area outside the radiation area is performed.
  • the reference image generation unit 12 can change the speed of reconstructing the reference image by changing the image size and the frame rate of the reference image according to the movement of the ultrasound probe 2. That is, when the ultrasonic probe 2 moves fast in the forward / backward direction, the frame rate is prioritized over the image quality, and the reference image is drawn at high speed. Conversely, when the moving speed of the ultrasound probe 2 is slow, the image quality is prioritized over the frame rate, and the reference image is reconstructed and drawn. As a result, the ultrasonic image follows the movement of the ultrasonic probe 2 and the reference image can be drawn.
  • the reference image generation unit 12 outputs position information indicating the cross-sectional position of each reference image and the generated reference image to the image processing unit 14. Position information indicating the cross-sectional position of each reference image is also output to the guide image generation unit 13.
  • the guide image generation unit 13 uses the three-dimensional volume data of the subject recorded in the volume data recording unit 9 and the cross-sectional position information of the reference image obtained from the reference image generation unit 12 as a reference to the three-dimensional image of the subject.
  • a guide image is generated by superimposing and displaying a cross section of the image in a translucent color.
  • a known method such as volume rendering or surface rendering can be applied.
  • the generated guide image is output to the image processing unit 14.
  • the image processing unit 14 is connected to the scan plane acquisition unit 11, the memory 7, the reference image generation unit 12, and the guide image generation unit 13. Then, an ultrasonic image is acquired from the memory 7, a reference image is acquired from the reference image generation unit 12, and a guide image is acquired from the guide image generation unit 13. Then, using the scan plane coordinates in the scan plane acquisition unit 11 and the cross-sectional position information of the reference image, a process of superimposing / not displaying a dotted line indicating the position of the reference image on the ultrasonic image is performed. Furthermore, the process for displaying on the monitor 15 in association with the positions of the ultrasound image, the reference image, and the guide image is performed.
  • the ultrasonic image and the reference image may be displayed side by side, or the reference image may be translucent and displayed superimposed on the ultrasonic image. When superimposed, it is possible to easily compare the ultrasonic image and the reference image with one image.
  • images generated by the memory 7, the reference image generation unit 12, and the guide image generation unit 13 can be appropriately combined and displayed.
  • the image processing unit 14 performs image processing for superimposing the scan surface on the guide image in a translucent color.
  • the surgeon can grasp the positional relationship between the subject and the scan surface of the ultrasound probe 2 three-dimensionally.
  • the movement / rotation signal input unit 16 is connected to a pointing device such as a mouse or a trackball and an input device such as a keyboard. Then, when the surgeon operates these input devices and inputs selection of movement or rotation, selection of movement direction or rotation direction, movement amount and rotation angle, the movement / rotation signal input unit 16 inputs those input values. Acquired and output to the reference image generation unit 12 and the guide image generation unit 13. Further, the movement / rotation signal input unit 16 may accept selection input of an image to be moved or rotated.
  • the reference image generation unit 12 moves and rotates the reference image according to the input value, and the guide image generation unit 13 moves the cross-sectional position of the reference image on the guide image.
  • the image processing unit 14 moves a mark indicating the cross-sectional position of the reference image superimposed on the ultrasonic image.
  • an operating device such as a pointing device such as a mouse or a trackball.
  • the movement / rotation signal input unit 16 detects this movement / rotation amount, and the reference image generation unit 12 generates an image of a new reference according to the detected input value, and the reference image of the monitor 15 is also updated and displayed. .
  • the ultrasonic diagnostic apparatus 10 includes an operation input device that zooms in / out the observation region.
  • the display magnification of the observation region is changed in the ultrasonic image generated by the ultrasonic image generation unit 6.
  • the reference image generation unit 12 changes the display magnification of the reference image so as to coincide with the display magnification of the new ultrasonic image (new generation).
  • the ultrasonic image and the reference image whose display magnification is changed are updated and displayed on the monitor 15.
  • FIG. 2 is an explanatory diagram showing a schematic configuration of the ultrasonic probe 2. As shown in FIG.
  • biplane ultrasonic probe A that acquires two ultrasonic images simultaneously from two ultrasonic emission surfaces and one ultrasonic image by switching between two ultrasonic emission surfaces
  • a non-biplane type ultrasonic probe B for acquiring the ultrasonic wave and an ultrasonic probe C having one ultrasonic radiation surface can be used.
  • the ultrasonic probe A is inserted into the body cavity of the subject including the prostate region, and transmits and receives ultrasound within the body cavity.
  • the ultrasonic probe A includes two ultrasonic emission surfaces 20 and 21.
  • the ultrasonic radiation surface 20 is provided at the tip of the ultrasonic probe A.
  • the depth direction dp1 of the ultrasonic waves emitted from the ultrasonic radiation surface 20 is perpendicular to the ultrasonic radiation surface 20.
  • An image captured by the ultrasonic waves emitted from the ultrasonic radiation surface 20 is a first cross-sectional image 22.
  • the ultrasonic radiation surface 21 is provided closer to the center of the ultrasonic probe A than the ultrasonic radiation surface 21.
  • the depth direction of the ultrasonic waves emitted from the ultrasonic radiation surface 21 is perpendicular to the ultrasonic radiation surface 21.
  • An image captured by the ultrasonic waves emitted from the ultrasonic radiation surface 21 is a second cross-sectional image 23.
  • the ultrasonic probe B includes two ultrasonic emission surfaces 24 and 25, and switches between the ultrasonic emission surfaces 24 and 25 to acquire an ultrasonic image from one of the ultrasonic emission surfaces. It is an ultrasonic probe.
  • An image obtained from the ultrasonic radiation surface 24 is a third cross-sectional image 26, and an image obtained from the ultrasonic radiation surface 25 is a fourth cross-sectional image 27.
  • the depth direction of each ultrasonic radiation surface 24, 25 is perpendicular to each ultrasonic radiation surface.
  • the ultrasonic probe C is an ultrasonic probe including one ultrasonic radiation surface 28.
  • An image obtained from the ultrasonic radiation surface 28 is a fifth cross-sectional image 29.
  • the ultrasound probe 2 used in this embodiment may be any of the ultrasound probes A, B, C, and is not limited to being inserted into the body cavity of the subject, for example, as used for abdominal echoes,
  • the present invention can also be applied to an ultrasonic probe that transmits and receives ultrasonic waves from the body surface toward the body.
  • the ultrasonic diagnostic apparatus 10 uses reference image generation means (reference image generation unit 12) that generates a reference image of a plurality of arbitrary cross sections using three-dimensional volume data of a subject, an ultrasonic image, It is characterized by comprising display means (monitor 15) for displaying the reference image.
  • the reference image generation means uses the calculated cross-sectional position of the ultrasonic image, the first reference image having the same cross section as the ultrasonic image, the ultrasonic image, and the second reference image having a cross section orthogonal to the ultrasonic radiation surface. Or at least one of a third reference image having a cross section parallel to the ultrasonic radiation surface. That is, in this embodiment, a reference image having three orthogonal cross sections and a guide image in which the cross sectional positions of these reference images are superimposed and displayed on the three-dimensional subject image are displayed.
  • the first reference image and the first reference image that are images of the same cross section as the ultrasound image are superposed from the three-dimensional volume data recorded in the volume data recording unit 9.
  • a second reference image consisting of an image of a section rotated 90 ° or 270 ° along the depth direction of the sound wave
  • a third reference image consisting of an image of a plane parallel to the ultrasonic radiation surface are generated.
  • the mark indicating the position is superimposed and displayed on the three-dimensional visible image of the subject.
  • the position of various reference images on the guide image can be obtained by using a device such as a trackball on the ultrasonic diagnostic apparatus or a mouse (not shown) that can be connected to the ultrasonic diagnostic apparatus.
  • the reference image is updated and displayed accordingly.
  • a case where a reference image having the same cross section as the cross section of the ultrasonic image and a biaxial cross section orthogonal to the cross section of the ultrasonic image is displayed will be described as an example. It is not limited to these three-axis cross sections, and any cross section obtained by moving and rotating these three-axis cross sections to arbitrary positions may be used.
  • FIG. 3 is an explanatory view showing the positional relationship between the ultrasonic radiation surface and the ultrasonic image, and the first reference image, the second reference image, and the third reference image, and (a) shows the ultrasonic radiation surface and the same. The positional relationship with the emitted ultrasonic image is shown, and (b) shows the positional relationship between the cross sections constituting each reference image.
  • the ultrasonic probe A of FIG. 2 is used as the ultrasonic probe 2, and an ultrasonic image emitted from the ultrasonic emission surface 20 will be described as an example. The same applies to the ultrasonic radiation surface 21.
  • the ultrasonic image 22 created by the ultrasonic waves radiated from the ultrasonic radiation surface 20 is a substantially fan-shaped region spreading in the depth direction dp1.
  • organs 70, 71, and 72 in the subject are imaged.
  • the cross section that is the same cross section as the ultrasound image 22 is the cross section 31, and the image of the cross section 31 is the first reference in the present embodiment. It is called an image.
  • a cross section 32 is obtained (see (b-3) of FIG. 3B).
  • the image of the cross section 32 is referred to as a second reference image in the present embodiment.
  • the cross section 32 is orthogonal to the cross section 31. Therefore, the second reference image and the first reference image are orthogonal.
  • the image of the cross section 33 parallel to the ultrasonic radiation surface 20 is referred to as a third reference image in this embodiment.
  • the cross section 33 is orthogonal to the cross sections 31 and 32 (see (b-2) of (b) of FIG. 3). Therefore, the third reference image is orthogonal to each of the first reference image and the second reference image.
  • ultrasonic volume data is used as the three-dimensional volume data 30, and a reference image that secures real-time properties is generated.
  • the three-dimensional volume data 30 may be volume data including an MRI image or a CT image.
  • the field of view of the ultrasound image 22 and the first reference image 31, and the mark 31m indicating the position of the first reference image 31 in the guide image to be described later are depicted with dots, the cross section 32, the first The field of view of the second reference image 35 and the mark 32m indicating the position of the cross section 32 in the guide image to be described later are depicted by hatching of the lower right oblique line, the field of view of the cross section 33, the third reference image 36, and the guide image to be described later
  • the out-of-view area is depicted using grid-like hatching in the lower right and lower left oblique lines.
  • FIG. 9 used in the description of the second embodiment to be described later is also drawn using
  • the reference image generation unit 12 has a function of extracting the visual field region and the out-of-field region of the ultrasonic image 22 obtained from the ultrasonic probe A, and reducing the luminance of the region corresponding to the out-of-field region.
  • An image 34 shown in (b-4) of FIG. 3B and an image 35 shown in (b-5) are both first reference images generated by extracting the cross section 31 from the three-dimensional volume data 30.
  • the image 34 is an image in which the area corresponding to the out-of-view area is not displayed, and the image 35 is an image displayed with the brightness reduced while displaying the area corresponding to the out-of-view area.
  • a dotted line 39a in the images 34 and 35 indicates the position of the second reference image, and a dotted line 39b in the images 34 and 35 indicates the position of the third reference image. That is, the reference image generation unit 12 superimposes and displays the first mark indicating the cross-sectional position of the other reference image on one reference image. This makes it easy to grasp the positional relationship between the displayed first reference image and the second and third reference images.
  • the image 36 shown in (b-6) of FIG. 3B and the image 37 shown in (b-7) are both generated by extracting the cross section 32 from the three-dimensional volume data 30. It is an image.
  • the image 36 is an image in which the area corresponding to the out-of-view area is not displayed, and the image 37 is an image displayed with the brightness reduced while displaying the area corresponding to the out-of-view area.
  • a dotted line 39c in the images 36 and 37 indicates the position of the first reference image, and a dotted line 39b in the images 36 and 37 indicates the position of the third reference image.
  • An image 38 shown in (b-8) of FIG. 3 (b) is a third reference image generated by extracting the cross section 33 from the three-dimensional volume data 30, and the image 38 is an area corresponding to the out-of-view area.
  • the image is displayed when the overall luminance is reduced.
  • a dotted line 39a in the image 38 indicates the position of the second reference image, and a dotted line 39c indicates the position of the first reference image.
  • the dotted lines 39a to 39c are, for example, the color of the dotted line is changed for each cross section, the type of the dotted line is distinguished by different display modes such as the one-dot chain line, the two-dot chain line, and the broken line. Different types may be used to distinguish each reference image. Also, when distinguishing the reference image by the dotted line color, in order to clarify the correspondence with the reference image corresponding to the dotted line, the reference image display area is bordered by the corresponding dotted line color, the same color or You may attach the image identification mark which consists of the same display mode. The process of superimposing and displaying these dotted lines 39a to 39c on the reference image is executed by the reference image generating unit 12.
  • FIG. 4 is an explanatory view showing a screen display example in the first embodiment.
  • FIG. 5 is an explanatory diagram illustrating processing for moving the second reference image in the up / down / left / right and diagonal directions.
  • FIG. 6 is an explanatory diagram showing the movement / rotation of the second reference image, (a) shows a state where the second reference image is moved along the depth direction, and (b) shows the second reference image. A state in which the insertion direction of the ultrasonic probe is rotated about the rotation axis is shown.
  • FIG. 5 is an explanatory diagram illustrating processing for moving the second reference image in the up / down / left / right and diagonal directions.
  • FIG. 6 is an explanatory diagram showing the movement / rotation of the second reference image, (a) shows a state where the second reference image is moved along the depth direction, and (b) shows the second reference image. A state in which the insertion direction of the ultrasonic probe is rotated about the rotation axis is shown.
  • FIG. 7 is an explanatory diagram showing rotation of the second reference image, (a) shows a state in which the second reference image is rotated around the depth direction as a rotation axis, and (b) shows the second reference image. It shows the state rotated around the depth direction of the rotation axis.
  • FIG. 8 is an explanatory diagram showing a method of moving the reference image by the guide image.
  • the ultrasonic image 22, the first reference image 34 having the same cross section as the ultrasonic image 22, and the first reference image 34 are rotated by 90 ° or 270 °.
  • the second reference image 37, the third reference image 38 parallel to the ultrasonic radiation surface, and the guide image 41 are displayed.
  • the screen 40 is provided with soft buttons for executing various functions.
  • These soft buttons include the guide line ON / OFF switch button 42 on the reference image, the guide line ON / OFF switch button 43 on the ultrasound image, the reference image move / rotate switch button 44, and the movement direction (up / down / A left / right / oblique direction / depth / front direction switching button 45 and a rotation direction (left / right / depth direction / depth / front direction) switching button 46 are included.
  • the guide image 41 is a three-dimensional visualization image that visualizes the three-dimensional internal structure of the subject by performing volume rendering, for example, based on the three-dimensional volume data of the subject imaged by the MRI apparatus or the CT apparatus.
  • the cross section 31 of the first reference image, the cross section 32 of the second reference image, and the cross section 33 of the third reference image are superimposed and displayed.
  • the display / non-display of the dotted lines 39a and 39b displayed on the ultrasonic screen can be selected.
  • the image processing unit 14 performs the process of superimposing and displaying the dotted lines 39a and 39b on the ultrasonic image 22.
  • the mode switching of the movement or rotation is performed on the cross section 31 of the first reference image, the cross section 32 of the second reference image, and the cross section 33 of the third reference image. It can be performed.
  • the movement directions of the cross-sections 31, 32, 33 are combinations of up / down direction, left / right direction, diagonal direction, or Either depth direction can be selected.
  • the “vertical direction” in the above description indicates a direction along the ultrasonic depth direction, and the upward direction corresponds to a direction in which the depth increases.
  • the “left-right direction” corresponds to a direction orthogonal to the ultrasonic depth direction in the cross section of the ultrasonic image.
  • the “diagonal direction” means that in the cross section of the ultrasonic image, from 0 ° to 90 °, 90 ° to 180 °, 180 ° to 270 °, 270 ° to the ultrasonic depth direction.
  • the “depth direction” corresponds to a direction perpendicular to both the ultrasonic depth direction and the cross section of the ultrasonic image.
  • the rotation direction of the cross sections 31, 32, 33 is a combination of the rotation in the horizontal direction and the rotation in the depth direction.
  • rotation in the depth direction can be selected.
  • the “rotation in the left-right direction” corresponds to a rotation direction in which an axis that coincides with the depth direction in the same section as the ultrasound image is a rotation axis.
  • “rotation in the depth direction” corresponds to a rotation direction in which the axis orthogonal to the depth direction is the rotation axis in the same cross section as the ultrasound image.
  • rotation in the depth direction corresponds to a rotation direction in which an axis coinciding with the depth direction is a rotation axis.
  • the operator operates the trackball 16t, and the movement / rotation signal input unit 16 calculates the movement direction and the movement amount of the image according to the rotation direction and the rotation amount of the trackball 16t.
  • the image is output to the reference image generation unit 12.
  • the reference image generation unit 12 moves the cross-sectional position of the second reference image or the third reference image, and generates and displays the second reference image or the third reference image after the movement.
  • a cross section 31 of the first reference image, a cross section 32 of the second reference image, and a cross section 33 of the third reference image are superimposed and displayed.
  • the positions of the cross sections 31, 32, and 33 with respect to the three-dimensional volume data 30 are set as reference positions.
  • the cross section 32 moves upward with respect to the reference position, that is, in the depth direction dp1 of the ultrasonic wave radiated from the radiation surface 20, and moves to the cross section 32u.
  • the cross section 32 moves in the upper right direction, the right direction, the lower direction, and the left direction with respect to the reference position.
  • the moving direction and moving amount are merely examples, and the moving direction and moving amount can be moved in any direction and amount.
  • the guide image generation unit 13 displays cross sections 31m, 32m, and 33m indicating the positions of the first, second, and third reference images on the guide image 41.
  • (8-1) in FIG. 8 shows cross sections 31m, 32m, and 33m at the reference position.
  • the surgeon moves to the cross section 32l and cuts out from the cross section 32l.
  • a second reference image is generated.
  • the movement and rotation control is performed as described above, and only the designated reference image is moved / rotated.
  • the guide image generation unit 13 includes cross sections 32m and 33m indicating the positions of the second reference image and the third reference image on the guide image 41. Is also displayed by moving or rotating in the vertical, horizontal, diagonal, and depth directions.
  • the colors used for the color coding of the cross sections 31m, 32m, and 33m are displayed in the same color as the dotted lines 39a, 39b, and 39c indicating the positions of the corresponding first, second, and third reference images, and are color coded. Thereby, the correspondence between the marks 31m, 32m, 33m indicating the position of each reference image on the guide image 41 and each reference image becomes clearer.
  • an ultrasonic image is generated using an ultrasonic probe 2 having an ultrasonic radiation surface that radiates ultrasonic waves and receives reflected ultrasonic waves, and a reflected echo signal based on the reflected waves.
  • Ultrasonic image generation means (ultrasonic image generation section 6) for generating, and reference image generation means (reference image generation section 12) for generating a reference image of a plurality of arbitrary cross sections using the three-dimensional volume data of the subject.
  • a display means (monitor 15) for displaying the ultrasonic image and the reference image.
  • An ultrasonic image display method including a generating step and a step of displaying an ultrasonic image and a reference image.
  • the reference image generation means (reference image generation unit 12) superimposes and displays the first mark indicating the cross-sectional position of the other reference image on one reference image.
  • the first mark superimposed on one reference image and the mark of the other reference image obtained from the cross-sectional position indicated by the first mark are displayed using the same display mode.
  • position information detecting means position sensor 4
  • scan surface acquiring means scan surface acquiring section 11
  • the reference image generation means uses the calculated cross-sectional position of the ultrasonic image, the first reference image having the same cross section as the ultrasonic image, the ultrasonic image and At least one of a second reference image having a cross section orthogonal to the ultrasonic radiation surface or a third reference image having a cross section parallel to the ultrasonic radiation surface is generated.
  • the apparatus further comprises first input means (movement / rotation signal input unit 16) for receiving at least one input of the movement direction and movement amount of the reference image or the rotation direction and rotation amount, and a reference image generation means (reference image generation unit). 12) generates a reference image consisting of a cross section obtained by moving / rotating an arbitrary cross section according to an input value received by the first input means (movement / rotation signal input section 16), and the display means (monitor 15) is generated Update the reference image.
  • the image processing means (image processing unit 14) further superimposes and displays a second mark indicating the cross-sectional position of the reference image on the ultrasonic image. The second mark superimposed on the ultrasonic image and the mark of the reference image obtained from the cross-sectional position indicated by the second mark are displayed using the same display mode.
  • guide image generation means for generating a guide image in which a third mark indicating the cross-sectional position of the reference image is superimposed on the three-dimensional image of the subject.
  • the reference image generation means further includes second input means for receiving at least one input of the movement direction and movement amount of the third mark superimposed on the guide image, or the rotation direction and rotation amount.
  • a reference image based on the cross section corresponding to the third mark moved / rotated according to the input value received by the second input means is generated, and the display means (monitor 15) updates and displays the generated reference image.
  • the third mark superimposed on the guide image and the mark of the reference image obtained from the cross-sectional position indicated by the third mark are displayed using the same display mode.
  • the ultrasonic image generation means (ultrasonic image generation unit 6) newly creates an ultrasonic image corresponding to the changed visual field area.
  • the reference image means (reference image generation unit 12) newly generates a reference image corresponding to the magnification of the newly generated ultrasonic image, and the display means (monitor 15) is newly generated. The displayed ultrasonic image and reference image are updated.
  • the ultrasonic probe can be moved within the body cavity of the subject. Without inserting deeply, it is possible to grasp the body cavity structure ahead of the ultrasound probe or the body cavity structure such as a portion that is difficult to observe with the ultrasound probe through the reference image.
  • the guide image 41 indicating the position of the first, second, and third reference images, it becomes easier to grasp the positional relationship between the first, second, and third reference images. Can be reduced.
  • it can be used as a navigation tool by using the above technique.
  • the reference image, guide image, mark indicating the cross-sectional position of the reference image to be superimposed on the ultrasonic image (dotted line 39a, etc.) and the border of each reference image and the mark for image identification are the same color or the same display.
  • a biplane probe (ultrasound probe A in FIG. 2) is used as an ultrasound probe, two ultrasound images obtained in real time from the ultrasound probe A, and
  • a reference image extracted from the same cross section as each ultrasonic image is displayed as a reference image corresponding to the ultrasonic image.
  • FIG. 9 is a schematic diagram showing a screen display example displayed in the second embodiment.
  • FIG. 10 is an explanatory view showing the generation process of the reference image displayed in the second embodiment, (a) shows the tip of the ultrasound probe A, and (b) shows the second reference image 36. The process of generating the reference image 60 from the above is shown.
  • FIG. 11 is an explanatory diagram showing a process of generating the reference image 60 from the third reference image 38.
  • the screen 50 in FIG. 9 is obtained by adding an image selection button 51 to the screen layout shown in the layout of the display screen according to the first embodiment (see FIG. 4).
  • the image selection button 51 is pressed and an image desired to be moved / rotated is selected and then the trackball or the mouse wheel of the mouse is rotated, only the selected image can be moved / rotated.
  • the selectable images may be not only displayed but also non-displayed.
  • the third reference image that is not displayed is selected with the image selection button 51 and then the trackball or the mouse wheel of the mouse is rotated, the position of the third reference image that is not displayed in FIG. 9 is moved.
  • the dotted line 39b indicating the position of the third reference image and the marker 33m indicating the position of the third reference image on the guide image 41 can be moved.
  • a first cross-sectional image 22 (hereinafter referred to as “ultrasonic image 22”) obtained from the ultrasonic radiation surface 20 is obtained from the ultrasonic radiation surface 21 at the upper right in the display area of the ultrasonic image.
  • a second cross-sectional image 23 (hereinafter referred to as “ultrasonic image 23”) is displayed.
  • a reference image of the ultrasonic image 22 a first reference image 34 reconstructed with a cross section 31 based on the volume data 30 is displayed.
  • a reference image 60 of the ultrasonic image 23 is displayed. The reference image 60 moves and rotates the second reference image 36 (see (b) of FIG. 10) or the third reference image 38 (see FIG.
  • the reference image 60 of the ultrasonic image 23 is generated based on the second reference image 36 or the third reference image 38 of the ultrasonic image 22.
  • the reference image 60 of the ultrasonic image 23 may be reconstructed based on the volume data 30 and displayed as the first reference image of the ultrasonic radiation surface 21, or the ultrasonic image obtained from the ultrasonic radiation surface 21
  • the second reference image or the third reference image of 23 may be moved and rotated to generate an image that is enlarged or reduced to the same cross section and the same magnification as the ultrasonic image 23.
  • the ultrasonic probe A is provided with ultrasonic radiation surfaces 20 and 21 at the tip thereof.
  • An ultrasonic image 22 is obtained from the ultrasonic radiation surface 20 (see (a-1) in FIG. 10 (a)).
  • An ultrasonic image 23 is obtained from the ultrasonic radiation surface 21 (see (a-2) in FIG. 10 (a)).
  • an organ 70 and an organ 71 are imaged.
  • the reference image generation unit 12 acquires in advance from the ultrasonic probe 2 the angle of deviation ⁇ ° between the depth direction dp1 of the ultrasonic radiation surface 20 and the depth direction of the ultrasonic radiation surface 21.
  • the coordinates of the ultrasonic emission surface 20 and the ultrasonic emission surface 21 may be acquired from the scan plane acquisition unit 11, and the shift angle ⁇ ° in the depth direction may be calculated using these.
  • the reference image generation unit 12 generates a first reference image 34 and a second reference image 36 of the ultrasonic image 23.
  • the first reference image 34 is displayed side by side below the ultrasound image 22 on the screen 50 as a reference image of the ultrasound image 23.
  • the reference image generation unit 12 rotates the second reference image 36 by ⁇ °.
  • the second reference image 36 shifted to an image 36 1 (see (b-2) in (b) of FIG. 10).
  • Reference image generating unit 12 then performs a coordinate image 36 1, using the coordinates of the ultrasonic image 23, as they match, the image 36 1 of the movement and sizes, the adjustment of the field area ( In (b-2) of FIG. 10 (b), the movement amount / direction is indicated by the arrow a1).
  • a reference image 60 having the same cross section as that of the ultrasound image 23 is generated based on the second reference image 36 (see (b-3) of FIG. 10B).
  • the reference image is based on the positional relationship between the ultrasonic radiation surface 20 and the ultrasonic radiation surface 21, and the third reference image 38 of the ultrasonic image 22 has an inclination of the reference image 60 having the same cross section as the ultrasonic image 23.
  • the matching angle ⁇ ° is acquired from the ultrasound probe 2 in advance.
  • the coordinates of the ultrasonic emission surface 20 and the ultrasonic emission surface 21 are acquired from the scan plane acquisition unit 11, the deviation angle ⁇ ° is calculated using these, and the third reference image 38 is rotated by ⁇ ° (FIG. (See 11 (11-1)).
  • a third reference image 38 shifted to an image 38 1 (see (11-2) in FIG. 11).
  • the reference image generating unit 12 uses the coordinate image 38 1, and the coordinates of the ultrasonic image 23, as they match, the image 38 1 of the movement and sizes, the adjustment of the field area performed (FIG. 11 (11-2) shows the amount and direction of movement with arrow a2.) Accordingly, a reference image 60 having the same cross section as the ultrasound image 23 is generated based on the third reference image 38 (see (11-3) in FIG. 11).
  • a reference image that is not used to generate the reference image 60 that is, the third reference image 38 when the reference image 60 is generated using the second reference image 36, or the reference image 60 is generated using the third reference image 38.
  • the dotted line indicating the position of the reference image that is not displayed in FIG. 9, the dotted line 39b indicating the position of the third reference image
  • a dotted line 39d indicating is superimposed on the ultrasonic image 22 and the first reference image 34.
  • a dotted line 39c indicating the position of the first reference image being displayed and a reference image that is not displayed (in FIG. 9, the position 39b of the third reference image).
  • And are superimposed and displayed by dotted lines.
  • the dotted lines 39d and 39c are the same color as the dotted line and the border color of the reference image 60 and the first reference image 34 in order to clarify the correspondence between the reference image 60 and the first reference image 34.
  • display / non-display can be selected.
  • the display indicating the position of the second or third reference image used when the reference image 60 is generated is automatically hidden, and instead, the position of the reference image 60 is displayed.
  • the marker 61 is displayed.
  • the marker 61 indicating the position of the reference image 60 has the same color as the color of the dotted line 39d indicating the position of the reference image 60 and the border color of the reference image 60 in order to clarify the association with the reference image 60.
  • the ultrasonic images 22 and 23, the first reference image 34, the reference image 60, and the guide image 41 obtained from the ultrasonic radiation surfaces 20 and 21 are dragged with a trackball and a keyboard on an ultrasonic device (not shown). Images can be exchanged by dropping or dragging and dropping with a mouse (not shown) that can be connected to the apparatus.
  • the ultrasound probe 2 is an ultrasound probe that includes a plurality of ultrasound radiation surfaces and simultaneously obtains ultrasound images of different cross sections from each ultrasound radiation surface, and a reference image
  • the generation unit (reference image generation unit 12) generates the reference image corresponding to each of the ultrasonic images of different cross sections
  • the display unit (monitor) 15 corresponds to a plurality of ultrasonic images and each ultrasonic image. A plurality of reference images to be displayed simultaneously.
  • the reference image adjusted so that the position, angle, magnification, field of view, etc. are the same for the two ultrasonic images 22, 23 and any of those ultrasonic images 22, 23, and the guide image 41.
  • the surgeon can observe the affected part while referring to the ultrasonic image and the reference image, and can more accurately grasp the inside of the body cavity than the prior art, and can easily perform the examination or diagnosis.
  • the guide image 41 is generated from three-dimensional volume data, it is possible to provide useful information such as a portion to be observed to the operator from an angle different from that of the ultrasonic tomographic image. Improvements can also be made.
  • ⁇ Third embodiment> when a non-biplane probe (ultrasonic probe B in FIG. 2) is used as an ultrasonic probe, a real-time ultrasonic image and a second for the ultrasonic image, This is an embodiment in which three bireference images are combined and pseudo biplane display is performed through a reference image.
  • the ultrasonic probe B (see FIG. 2) has a third cross-sectional image 26 (hereinafter referred to as “ultrasonic image 26”) from the ultrasonic radiation surface 24, and a fourth cross-sectional image 27 from the ultrasonic radiation surface 25, for example. (Hereinafter referred to as “ultrasonic image 27”) is obtained.
  • the ultrasound probe is capable of switching between the ultrasound radiation surfaces 24 and 25 by an ultrasound radiation surface switching button (not shown) on the ultrasound diagnostic apparatus 10 or the monitor 15.
  • a reference image corresponding to each of the ultrasonic images 26 and 27 is generated from the second reference image or the third reference image (or the first reference image). Become.
  • the reference image generation unit 12 generates and displays a reference image having the same cross section as the ultrasound image 27 using the second reference image or the third reference image (or the first reference image) for the ultrasound image 26. .
  • the non-biplane probe the ultrasonic image obtained from the selected ultrasonic radiation surface and the reference image obtained from the same cross section as the ultrasonic image obtained from the unselected ultrasonic radiation surface Is displayed.
  • the process of generating an image having the same cross section as the ultrasound image 27 is performed by using the ultrasound image 23 in the second embodiment. This can be realized by replacing the ultrasonic image 26 in the present embodiment.
  • the ultrasonic radiation surface 25 when the ultrasonic radiation surface 25 is selected, the same cross section as the ultrasonic image 26 using the ultrasonic image 27 and the second reference image or the third reference image for the ultrasonic image 27 is used.
  • a reference image consisting of is generated and displayed.
  • the ultrasonic image 26 and the reference image having the same cross section as the ultrasonic image 27 are displayed.
  • reference images corresponding to these images may be further displayed.
  • the ultrasound probe 2 includes a plurality of ultrasound radiation surfaces, and is an ultrasound probe that acquires an ultrasound image from any one of the selected ultrasound radiation surfaces.
  • the reference image generation means (reference image generation unit 12) generates a reference image having the same cross section as the unselected ultrasonic image
  • the display means (monitor 15) outputs either one of the selected ultrasonic radiations.
  • the ultrasonic image obtained from the surface and the reference image having the same cross section as the unselected ultrasonic image are simultaneously displayed.
  • the first, second, and third reference images for the ultrasound image obtained from the selected radiation plane are displayed as the ultrasound images that should be obtained when the non-biplane probe is used.
  • the cross-sectional positions of the first reference image, the second reference image, and the third reference image that are orthogonal to each other are set so that the desired region observed by the operator enters.
  • the ultrasonic diagnostic apparatus 10 of the fourth embodiment generates a reference image of a plurality of arbitrary cross sections using the three-dimensional volume data of the subject.
  • the reference image generation means (reference image generation unit 12) uses the calculated cross-sectional position of the ultrasonic image and is orthogonal to the first reference image, the ultrasonic image, and the ultrasonic radiation surface having the same cross section as the ultrasonic image.
  • a second reference image having a cross section or a third reference image having a cross section parallel to the ultrasonic radiation surface is generated.
  • the reference image generation means (reference image generation unit 12) generates a first reference image having the same cross section as the ultrasonic image, and based on the feature amount in the ultrasonic image, the second reference image and the third reference image Are adjusted to generate a second reference image and a third reference image having cross sections orthogonal to the first reference image.
  • the feature amount in the ultrasonic image is luminance information, elastic value (distortion, elastic modulus, etc.), blood flow information, and the like.
  • the reference image generation unit When the low-luminance region is included in the ultrasonic image, the reference image generation unit (reference image generation unit 12) generates a first reference image having the same cross section as the ultrasonic image, and generates a second reference image and a third reference image.
  • the second reference image and the third reference image are generated by adjusting the cross-sectional positions of the second reference image and the third reference image so that the low luminance region (for example, the part having the lowest luminance) is included.
  • an organ 70 in the subject is displayed in the ultrasonic image 22 created by the ultrasonic waves emitted from the ultrasonic radiation surface 20.
  • the reference image generation means displays the organ 70 in the second reference image and the third reference image. So that the cross-sectional positions of the second reference image and the third reference image are adjusted to generate the second reference image and the third reference image.
  • the reference image generation unit (reference image generation unit 12) generates a first reference image having the same cross section as the ultrasound image, and Adjust the cross-sectional position of the second reference image and the third reference image so that the hard region (for example, a portion with a small distortion or a low elastic modulus) is included in the second reference image and the third reference image.
  • An image and a third reference image are generated.
  • the elasticity value is a value calculated by detecting a displacement between a plurality of ultrasonic images, for example. As the elastic value, strain and elastic modulus can be calculated from the displacement.
  • an organ 70 in the subject is displayed in the ultrasonic image 22 created by the ultrasonic waves emitted from the ultrasonic radiation surface 20.
  • the reference image generation means (reference image generation unit 12) has the organ 70 in the second reference image and the third reference image.
  • the second reference image and the third reference image are generated by adjusting the cross-sectional positions of the second reference image and the third reference image so as to be included.
  • the reference image generation means (reference image generation unit 12) generates a first reference image having the same cross section as the ultrasonic image, and the second reference image The second reference image and the third reference image are generated by adjusting the cross-sectional positions of the second reference image and the third reference image so that blood flow information is included in the third reference image.
  • an organ 70 in the subject is displayed in the ultrasonic image 22 created by the ultrasonic waves emitted from the ultrasonic radiation surface 20.
  • the reference image generation means displays the organ in the second reference image and the third reference image. The cross-sectional positions of the second reference image and the third reference image are adjusted so that 70 is included, and the second reference image and the third reference image are generated.
  • the fourth embodiment it is possible to display the first reference image, the second reference image, and the third reference image that are orthogonal to each other so that the desired region observed by the operator enters.
  • 1 ultrasonic diagnostic layer device body 2 ultrasonic probe, 3 position sensor fixing mechanism, 4 position sensor, 5 source generation source, 6 ultrasonic image generation unit, 7 memory, 8 ultrasonic volume data generation unit, 9 volume Data recording unit, 10 ultrasonic diagnostic device, 11 scan plane acquisition unit, 12 reference image generation unit, 13 guide image generation unit, 14 image processing unit, 15 monitor, 16 movement / rotation amount input unit, 17 medical image diagnostic device

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Gynecology & Obstetrics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

 超音波の放射領域内に限定されない超音波画像を表示することができる超音波診断装置を提供することを目的とする。超音波診断装置10は、超音波を放射すると共に、前記超音波の反射波を受信する超音波放射面を有する超音波探触子2と、反射波に基づく反射エコー信号を用いて超音波画像を生成する超音波画像生成手段6と、前記超音波画像を積み重ねることにより、被検体の3次元の超音波ボリュームデータを生成する超音波ボリュームデータ生成手段9と、3次元ボリュームデータや前記超音波ボリュームデータを用いて、複数のリファレンス画像を生成するリファレンス画像生成手段12と、前記超音波画像と前記リファレンス画像とを表示する表示手段15と、を備える。

Description

超音波診断装置及び超音波画像表示方法
 本発明は、超音波診断装置及び超音波画像表示方法に係り、特に、超音波画像の表示技術に関する。
 超音波診断装置による診断は、医師等の術者が超音波探触子で診断部位を走査することによって、容易にリアルタイムで診断部位の断層像が得られるという利点がある。一方、超音波断層像(以下、超音波画像という。)は、磁気共鳴撮像装置(以下、MRI装置という。)やX線コンピュータ断層装置(以下、X線CT装置という。)で得られる断層像よりも被検体の全身からの形態的情報としては見え難い。
 そこで、超音波画像だけではなく、MRI装置で撮像した画像(以下、MRI画像という。)、X線CT装置で撮像した画像(以下、CT画像という。)、超音波診断装置で前もって被検体の患部を撮像した複数枚からなる超音波画像(以下、超音波ボリュームデータという。)等を併せて表示させ、これらの画像を対比しながら総合的な診断を行いたいという要請がある。
 このため、例えば、特許文献1には、超音波内視鏡に取り付けた位置検出センサに基づいて超音波内視鏡の位置および姿勢を検出することにより、超音波画像と同一断面の画像を、予め撮像されたMRI画像やCT画像のボリュームデータから再構成し、この再構成画像と超音波画像を同期させ、モニタに表示する超音波診断装置及び超音波画像表示方法が開示されている。
特開2009-095371号公報
 特許文献1では、超音波画像と同一断面のMRI画像やCT画像を同時に表示することにより、形態的情報の質向上を図っているが、超音波画像と同一断面のMRI画像やCT画像を表示するため、ユーザに対する自由度がなかった。
 本発明は、上記問題に鑑みてなされたものであり、ボリュームデータにより再構成された超音波の放射領域内に限定されないリファレンス画像を表示することができる超音波診断装置及び超音波画像表示方法を提供することを目的とする。
 上記課題を解決するために、本発明に係る超音波診断装置は、超音波を放射すると共に、前記超音波の反射波を受信する超音波放射面を有する超音波探触子と、前記反射波に基づく反射エコー信号を用いて超音波画像を生成する超音波画像生成手段と、被検体の3次元ボリュームデータを用いて、複数の任意断面のリファレンス画像を生成するリファレンス画像生成手段と、前記超音波画像と前記リファレンス画像とを表示する表示手段と、を備えることを特徴とする。また、超音波を放射すると共に、超音波の反射波に基づく反射エコー信号を用いて超音波画像を生成するステップと、被検体の3次元ボリュームデータを用いて、複数の任意断面のリファレンス画像を生成するステップと、超音波画像とリファレンス画像とを表示するステップとを含む超音波画像表示方法である。
 本発明によれば、超音波の放射領域内に限定されない超音波画像を表示することができる超音波診断装置及び超音波画像表示方法を提供することができる。
超音波診断装置の全体概略構成を示す模式図 超音波探触子2の概略構成を示す説明図 超音波放射面と超音波画像、及び第一リファレンス画像、第二リファレンス画像及び第三リファレンス画像の位置関係を示す説明図であって、(a)は超音波放射面とそこから放射される超音波画像との位置関係を示し、(b)は、各リファレンス画像を構成する断面の位置関係を示す。 第一実施形態における画面表示例を示す説明図 第二リファレンス画像を上下左右及び斜め方向に移動する処理を示す説明図 第二リファレンス画像の移動・回転を示す説明図であり、(a)は、第二リファレンス画像を奥行き方向に沿って移動した状態を示し、(b)は、第二リファレンス画像を超音波探触子の挿入方向を回転軸として回転させた状態を示す。 第二リファレンス画像の回転を示す説明図であり、(a)は、第二リファレンス画像を、深度方向を回転軸として回転させた状態を示し、(b)は、第二リファレンス画像の奥行方向を回転軸として回転させた状態を示す。 リファレンス画像をガイド画像によって移動させる方法を示す説明図 第二実施形態で表示される画面表示例を示す模式図 第二リファレンス画像36からリファレンス画像60を生成する処理を示す説明図であり、(a)は超音波探触子Aの先端部を示し、(b)は、第二リファレンス画像36からリファレンス画像60を生成する処理を示す。 第三リファレンス画像38からリファレンス画像60を生成する処理を示す説明図
 以下、本発明の実施形態について、図面を基に説明をする。なお、以下の説明では、同一機能部分については同一符号を付して重複説明を省略する。
 図1は、本発明の実施形態に係る超音波診断装置の全体概略構成を示す模式図である。
超音波診断装置10は、主に超音波診断装置本体1、超音波探触子2、位置センサ4、ソース発生源5、モニタ15を有して構成されている。超音波診断装置本体1は、概ね、超音波画像を生成する系統と、超音波画像を診断するときに参照するリファレンス画像を生成する系統に分けられる。
 超音波画像を生成する系統は、超音波探触子2からの反射エコー信号に基づいて超音波画像を生成する超音波画像生成部6と、複数枚の超音波画像を一時的に記憶するメモリ7、及び複数枚の超音波画像を基に3次元の超音波ボリュームデータを生成する超音波ボリュームデータ生成部8と、を含む。リファレンス画像を生成する系統は、例えばMRI装置、CT装置、他の超音波診断装置が撮像した等の医療用画像診断装置17が撮像した3次元ボリュームデータを格納するボリュームデータ記録部9と、位置センサ4及びソース発生源5の信号を基に、超音波探触子2の位置及び姿勢を検出するスキャン面取得部11と、超音波画像を診断する際に参照する参照画像であって、ボリュームデータ記録部9に格納している3次元ボリュームデータや超音波ボリュームデータを基にリファレンス画像を生成するリファレンス画像生成部12と、リファレンス画像の断面位置を示すガイド画像を生成するガイド画像生成部13と、リファレンス画像の移動/回転の種別、移動量/回転量、移動方向/回転方向の入力を受け付ける移動・回転信号入力部16と、を備える。更に、超音波診断装置本体1は、超音波画像とリファレンス画像との断面位置を対応付けて表示処理を行う画像処理部14を含む。
 なお、図示を省略するものの、超音波診断装置本体1は、医療用画像診断装置17で撮像した被検体の3次元ボリュームデータや別の超音波診断装置で撮像した超音波ボリュームデータ等を入力するインターフェイスを具備している。そして、超音波診断装置本体1を、インターフェイスを介して医療用画像診断装置17に直接接続し、3次元ボリュームデータを受け取り、ボリュームデータ記録部9に保存する。更に、ネットワーク経由又はUSBメモリ等の持ち運び可能な記録媒体を経由し、3次元ボリュームデータを超音波診断装置本体内のボリュームデータ記録部9に保存することも可能である。以下、各構成要素の詳細について説明する。
 上述の各構成要素によって、超音波診断装置本体1は、超音波探触子2で得られた超音波断層像に対応する同一の断面、倍率及び視野となるリファレンス断層像を生成することができ、合成画像を生成することができる。そして、この合成画像とガイド画像が超音波診断装置10上のモニタ15の同一画面上に表示される。したがって、術者は、超音波画像とリファレンス画像の対応関係を容易に把握することが可能であり、それらの画像を対比することによって、被検体に対し、効果的に総合的な診断が可能となる。
 超音波探触子2は、超音波を超音波放射面から送波するとともに、超音波の反射波を受信し、反射エコー信号を超音波画像生成部6に出力する。
 超音波画像生成部6は、超音波探触子2の各位置において、1フレーム分の超音波画像を生成する。そして、超音波探触子2の位置の移動に伴って、複数の位置から複数フレーム分の超音波画像を生成する。メモリ7は、複数フレーム分の超音波画像を一時記憶する。超音波ボリュームデータ生成部8は、メモリ7に一次記憶された超音波画像に基づいて一方向(超音波探触子2の進退方向)に沿った複数フレームの超音波画像を積み上げた3次元の超音波ボリュームデータを生成する。ボリュームデータ記録部9は、生成された3次元の超音波ボリュームデータを記録したり、医療用画像診断装置17が撮像した3次元ボリュームデータも記録したりする。
 超音波探触子2には、超音波探触子2の位置及び姿勢を検出するための磁気センサ等の位置センサ4が、超音波探触子2に取り付けた位置センサ固定機構3によって固定されている。また、被検体を含む座標系に磁界等のソースを発生させるソース発生源5が、例えば、被検体の横たわるベッドの傍ら等に配置される。これら位置センサ4及びソース発生源5は、スキャン面取得部11と電気的に接続され、位置センサ4とソース発生源5からの出力信号は、スキャン面取得部11に出力される。
 スキャン面取得部11は、位置センサやソース発生源5からの出力信号に基づいて、超音波探触子2の位置・傾斜角度等の位置情報を取得し、超音波探触子2の3次元的な位置及び傾斜角等を演算し、超音波探触子2のスキャン面(超音波画像の断面)の座標を算出するスキャン面演算部11aと、算出されたスキャン面の座標を記録するスキャン面記録部11bと、を有する。本実施形態では、超音波探触子2の位置検出の例として磁界による位置検出を例示したが、これに限定されるものではなく、種々の公知の位置検出方法を用いることが可能である。算出されたスキャン面の座標は、リファレンス画像生成部12及び画像処理部14に出力される。
 リファレンス画像生成部12は、スキャン面取得部11で算出された座標を用いて、ボリュームデータ記録部9に記録されているボリュームデータから、超音波画像と同一断面となるリファレンス画像(以下、第一リファレンス画像という。)や第一リファレンス像の深度方向を回転軸として、90°もしくは270°回転させたリファレンス画像(以下、第二リファレンス画像という。)及び、超音波探触子2の超音波放射面に対し、平行なリファレンス画像(以下、第三リファレンス画像)、更に任意断面のリファレンス画像を生成する。生成した各リファレンス画像上には、他のリファレンス画像の位置を示す点線を重畳表示したり、それらの点線を非表示にしたりする処理を行う。
 リファレンス画像生成部12は、スキャン面座標を基に、超音波画像内における超音波の放射領域(視野領域ともいう)の座標を演算し、第一、第二、第三リファレンス画像に対し、超音波の放射領域外の領域の輝度を落としたり、放射領域外の領域を非表示にしたりする処理を行う。
 更に、リファレンス画像生成部12は、超音波探触子2の動きに応じて、リファレンス画像の画像サイズ及びフレームレートを変更することでリファレンス画像を再構成する速度を変更することが可能である。つまり、超音波探触子2の進退方向への動きが速い場合、画質よりもフレームレートを優先し、リファレンス画像を高速に描画する。逆に超音波探触子2の動く速度が遅い場合は、フレームレートより画質を優先し、リファレンス画像を再構成して描画する。これにより、超音波探触子2の動きに超音波画像が追従し、リファレンス画像を描画することが可能となる。
 リファレンス画像生成部12は、各リファレンス画像の断面位置を示す位置情報と生成されたリファレンス画像とを画像処理部14に出力する。各リファレンス画像の断面位置を示す位置情報は、ガイド画像生成部13にも出力される。
 ガイド画像生成部13は、ボリュームデータ記録部9に記録された被検体の3次元ボリュームデータとリファレンス画像生成部12から得たリファレンス画像の断面位置情報とを用い、被検体の3次元画像にリファレンス画像の断面を半透明カラーで重畳表示したガイド画像を生成する。ガイド画像に用いる被検体の3次元画像の作成手法としては、例えば、ボリュームレンダリングやサーフェスレンダリング等の周知の方法を適用できる。生成されたガイド画像は画像処理部14に出力される。
 画像処理部14は、スキャン面取得部11、メモリ7、リファレンス画像生成部12、ガイド画像生成部13に接続される。そして、メモリ7からは超音波画像、リファレンス画像生成部12からはリファレンス画像、ガイド画像生成部13からはガイド画像を取得する。そして、スキャン面取得部11でのスキャン面の座標とリファレンス画像の断面位置情報とを用いて、超音波画像上にリファレンス画像の位置を示す点線を重畳表示/非表示の処理を行う。更に、超音波画像、リファレンス画像、及びガイド画像の位置を対応付けて、モニタ15に表示させるための処理を行う。例えば、超音波画像とリファレンス画像を並べて表示してもよいし、リファレンス画像を半透明化し、超音波画像に重畳上表示してもよい。重畳した場合、1つの画像で超音波画像とリファレンス画像との比較が容易に可能となる。その他、メモリ7、リファレンス画像生成部12、ガイド画像生成部13で生成される画像を適宜合成して表示させることが可能である。
 更に、画像処理部14は、ガイド画像にスキャン面を半透明カラーで重ね合わせる画像処理を行う。これによって、術者は被検体と超音波探触子2のスキャン面との位置関係を3次元的に把握することができる。
 移動・回転信号入力部16には、マウスやトラックボール等のポインティングデバイスやキーボードなどの入力装置が接続される。そして、術者がこれらの入力装置を操作して、移動又は回転の選択、移動方向又は回転方向の選択、移動量及び回転角度を入力すると、移動・回転信号入力部16はそれらの入力値を取得し、リファレンス画像生成部12及びガイド画像生成部13に出力する。また、移動・回転信号入力部16は、移動又は回転の対象となる画像の選択入力を受け付けてもよい。
 リファレンス画像生成部12は、入力値に従ってリファレンス画像を移動、回転し、ガイド画像生成部13は、ガイド画像上のリファレンス画像の断面位置を移動する。これに追従して画像処理部14は、超音波画像に重畳したリファレンス画像の断面位置を示すマークを移動する。又は、ガイド画像に重畳されたリファレンス画像の断面位置や、超音波画像に重畳されたリファレンス画像の断面位置を、マウスやトラックボールなどのポインティングデバイス等からなる操作装置を用いて移動・回転させると、この移動・回転量を移動・回転信号入力部16が検出し、リファレンス画像生成部12は、検出された入力値に従って新たなリファレンスが画像を生成し、モニタ15のリファレンス画像も更新表示される。
 更に超音波診断装置10は、観察部位をズームイン・アウトする操作入力装置を備える。観察部位をズームイン・アウトすると、超音波画像生成部6で生成される超音波画像では、観察部位の表示倍率が変更される。これに追従して、リファレンス画像生成部12は、新たな超音波画像の表示倍率と一致するように、リファレンス画像の表示倍率を変更させる(新たに生成する)。表示倍率が変更された超音波画像やリファレンス画像は、モニタ15において更新表示される。
 次に、図2に基づいて超音波探触子2について説明する。図2は、超音波探触子2の概略構成を示す説明図である。
 超音波探触子2として、二つの超音波放射面から同時に二つの超音波画像を取得するバイプレイン形式の超音波探触子Aと、二つの超音波放射面を切り替えて一つの超音波画像を取得する非バイプレイン形式の超音波探触子Bと、一つの超音波放射面を備える超音波探触子Cとを用いることができる。
 超音波探触子Aは、前立腺領域を含む被検体の体腔内に挿入され、体腔内で超音波を送受信するものである。超音波探触子Aは、二つの超音波放射面20、21を備える。超音波放射面20は、超音波探触子Aの先端部に備えられる。そして、超音波放射面20から放射される超音波の深度方向dp1は、超音波放射面20に垂直となる。超音波放射面20から放射される超音波により撮像される画像は、第一断面画像22となる。超音波放射面21は、超音波放射面21よりも超音波探触子Aの中央寄りに備えられる。そして、超音波放射面21から放射される超音波の深度方向は、超音波放射面21に垂直となる。超音波放射面21から放射される超音波により撮像される画像は、第二断面画像23となる。
 超音波探触子Bは、二つの超音波放射面24、25を備え、各超音波放射面24、25を切り替えてどちらか一方の超音波放射面からの超音波画像を取得する非バイプレイン超音波探触子である。超音波放射面24から得られる画像は第三断面画像26であり、超音波放射面25から得られる画像は第四断面画像27である。各超音波放射面24、25の深度方向は、各超音波放射面に対して垂直になる。
 超音波探触子Cは、一つの超音波放射面28を備える超音波探触子である。超音波放射面28から得られる画像は第五断面画像29である。
 本実施形態に用いる超音波探触子2は、超音波探触子A、B、Cのいずれでもよいし、被検体の体腔内に挿入するものに限らず、例えば腹部エコーに用いるような、体表面から体内に向けて超音波を送受信する超音波探触子にも、本発明を適用することができる。
 <第一実施形態>
 第一実施形態の超音波診断装置10は、被検体の3次元ボリュームデータを用いて、複数の任意断面のリファレンス画像を生成するリファレンス画像生成手段(リファレンス画像生成部12)と、超音波画像とリファレンス画像とを表示する表示手段(モニタ15)とを備えることに特徴がある。リファレンス画像生成手段は、算出された超音波画像の断面位置を用いて、超音波画像と同一断面からなる第一リファレンス画像、超音波画像及び超音波放射面に直交する断面からなる第二リファレンス画像、若しくは超音波放射面と平行な断面からなる第三リファレンス画像、の少なくとも一つを生成する。すなわち、直交3断面のリファレンス画像と、これらリファレンス画像の断面位置を3次元被検体画像に重畳表示したガイド画像と、を表示する実施形態である。
 より具体的には、第一実施形態は、ボリュームデータ記録部9に記録されている3次元のボリュームデータより、超音波画像と同一断面の画像からなる第一リファレンス画像、第一リファレンス画像を超音波の深度方向に沿って90°又は270°回転させた断面の画像からなる第二リファレンス画像、また超音波放射面と平行な面の画像からなる第三リファレンス画像を生成すると共に、これらの断面の位置を示すマークを被検体の3次元可視画像上に重畳表示させるものである。さらに、第一実施形態では、術者が超音波診断装置上のトラックボールもしくは超音波診断装置に接続可能な図示されていないマウス等のデバイスを用いることによって、ガイド画像上の各種リファレンス画像の位置を示すマークを移動させて、これに応じてリファレンス画像も更新表示する。本実施形態では、上記の如く、超音波画像の断面と同一断面及び超音波画像の断面と直交する2軸の断面のリファレンス画像を表示する場合を例に説明するが、リファレンス画像の断面は、これらの3軸断面に限らず、これらの3軸断面を任意の位置に移動・回転してなる任意の断面でもよい。
 まず、超音波放射面と超音波画像との位置関係、更に超音波画像と第一リファレンス画像、第二リファレンス画像及び第三リファレンス画像との位置関係について説明する。図3は、超音波放射面と超音波画像、及び第一リファレンス画像、第二リファレンス画像及び第三リファレンス画像の位置関係を示す説明図であって、(a)は超音波放射面とそこから放射される超音波画像との位置関係を示し、(b)は、各リファレンス画像を構成する断面の位置関係を示す。以下の説明では、超音波探触子2として図2の超音波探触子Aを用い、超音波放射面20から放射される超音波画像を例に説明するが、超音波探触子Aの超音波放射面21についても同様である。
 図3の(a)に示すように、超音波放射面20から放射される超音波により作られる超音波画像22は、深度方向dp1に向かって広がる略扇状の領域となる。超音波画像22には、被検体内の臓器70、71、72が撮像されている。
 図3の(b)の(b-1)に示す3次元ボリュームデータ30において、超音波画像22と同一断面となる断面は断面31であり、この断面31の画像を本実施形態では第一リファレンス画像という。第一リファレンス画像の断面31を、深度方向dp1を回転軸として90°若しくは270°回転させると断面32が得られる(図3の(b)の(b-3)参照)。この断面32の画像を本実施形態では第二リファレンス画像という。断面32は、断面31と直交する。よって第二リファレンス画像と第一リファレンス画像とは直交する。
 更に、超音波放射面20に対して平行な断面33の画像を本実施形態では第三リファレンス画像という。断面33は、断面31及び32と直交する(図3の(b)の(b-2)参照)。よって第三リファレンス画像は、第一リファレンス画像及び第二リファレンス画像のそれぞれと直交する。
 本実施形態では、3次元ボリュームデータ30として超音波ボリュームデータを用い、リアルタイム性を確保したリファレンス画像を生成するが、3次元ボリュームデータ30は、MRI画像やCT画像からなるボリュームデータであってもよい。なお、図3から図7において、超音波画像22及び第一リファレンス画像31の視野領域、及び後述するガイド画像における第一リファレンス画像31の位置を示すマーク31mをドットで描出し、断面32、第二リファレンス画像35の視野領域、及び後述するガイド画像における断面32の位置を示すマーク32mを右下斜め斜線のハッチングで描出し、断面33、第三リファレンス画像36の視野領域、及び後述するガイド画像における断面33の位置を示すマーク33mを左下斜め斜線のハッチングで描出する。さらに、視野外領域は右下及び左下斜線の格子状のハッチングを用いて描出する。後述する第二実施形態の説明で用いる図9も、上記と同様のハッチングを用いて描出する。
 リファレンス画像生成部12は、超音波探触子Aより得られる超音波画像22の視野領域および視野外領域を抽出し、視野外領域に対応する領域の輝度を低下させる機能を有している。
 また、術者の設定によって、視野外領域に対応するリファレンス画像部分を表示又は非表示を選択することも可能とする。これらの機能により、超音波画像とリファレンス画像の対応関係が明確となり、術者は両画像の対応関係を容易に把握することができる。
 図3の(b)の(b-4)に示す画像34、同(b-5)に示す画像35は、共に3次元ボリュームデータ30から断面31を抽出して生成した第一リファレンス画像である。
画像34では、視野外領域に対応する領域を非表示とした画像であり、画像35では、視野外領域に対応する領域を表示させつつ、その輝度を低下させて表示させた画像である。
また、画像34、35内の点線39aは、第二リファレンス画像の位置を示し、画像34、35内の点線39bは、第三リファレンス画像の位置を示す。すなわち、リファレンス画像生成部12は、一方のリファレンス画像に、他方のリファレンス画像の断面位置を示す第一マークを重畳表示する。これにより、表示されている第一リファレンス画像と、第二、第三リファレンス画像との位置関係を把握しやすくなる。
 同様に、図3の(b)の(b-6)に示す画像36、同(b-7)に示す画像37は、共に3次元ボリュームデータ30から断面32を抽出して生成した第二リファレンス画像である。画像36では、視野外領域に対応する領域を非表示とした画像であり、画像37では、視野外領域に対応する領域を表示させつつ、その輝度を低下させて表示させた画像である。また、画像36、37内の点線39cは、第一リファレンス画像の位置を示し、画像36、37内の点線39bは、第三リファレンス画像の位置を示す。
 図3の(b)の(b-8)に示す画像38は、3次元ボリュームデータ30から断面33を抽出して生成した第三リファレンス画像であり、画像38は、視野外領域に対応する領域のみを含むものであり、図3(b)では、全体の輝度を低下させて表示させた場合の画像となる。画像38内の点線39aは、第二リファレンス画像の位置を示し、点線39cは、第一リファレンス画像の位置を示す。
 上記点線39a~39cは、例えば、断面毎に点線の色を変えたり、点線の種類を一点鎖線や二点鎖線、破線などの種類が異なる表示態様で区別したり、点線の色と種類の2種類を用い、リファレンス画像毎に区別したりしても良い。また、点線の色でリファレンス画像を区別する場合には、その点線に対応するリファレンス画像との対応関係を明確にするため、リファレンス画像の表示エリアを対応する点線の色で縁取ったり、同色又は同一の表示態様からなる画像識別マークを付けてもよい。これら点線39a~39cをリファレンス画像に重畳表示する処理は、リファレンス画像生成部12により実行される。
 次に図4乃至図8に基づいて、第一実施形態の表示画面を説明する。図4は、第一実施形態における画面表示例を示す説明図である。図5は、第二リファレンス画像を上下左右及び斜め方向に移動する処理を示す説明図である。図6は、第二リファレンス画像の移動・回転を示す説明図であり、(a)は、第二リファレンス画像を奥行き方向に沿って移動した状態を示し、(b)は、第二リファレンス画像を超音波探触子の挿入方向を回転軸として回転させた状態を示す。図7は、第二リファレンス画像の回転を示す説明図であり、(a)は、第二リファレンス画像を、深度方向を回転軸として回転させた状態を示し、(b)は、第二リファレンス画像の奥行方向を回転軸として回転させた状態を示す。図8は、リファレンス画像をガイド画像によって移動させる方法を示す説明図である。
 図4に示すように、本実施形態に係る画面40には、超音波画像22、超音波画像22と同一断面からなる第一リファレンス画像34、第一リファレンス画像34を90°または270°回転させた第二リファレンス画像37、超音波放射面と平行な第三リファレンス画像38、及びガイド画像41が表示される。更に、画面40には、各種機能を実行させるソフトボタンが備えられる。これらソフトボタンには、リファレンス画像上のガイド線のON/OFF切替ボタン42、超音波画像上のガイド線のON/OFF切替ボタン43、リファレンス画像の移動/回転切替ボタン44、移動方向(上下・左右・斜め方向/奥行き・手前方向)切替ボタン45、及び回転方向(左右・深度方向/奥行き・手前方向)切替ボタン46が含まれる。
 ガイド画像41は、MRI装置やCT装置で撮像された被検体の3次元のボリュームデータを基に、例えばボリュームレンダリングを施すことで、被検体の3次元の内部構造を可視化した3次元可視化画像に、第一リファレンス画像の断面31と第二リファレンス画像の断面32と第三リファンレス画像の断面33とを重畳表示したものである。
 術者がリファレンス画像上のガイド線のON/OFFの切替ボタン42を押し下げると、第一リファレンス画像34、第二リファレンス画像37、第三リファレンス画像38に重畳表示された他のリファレンス画像の位置を示す点線39a、39b、39cの表示/非表示を選択することができる。
 術者が超音波画像上のガイド線のON/OFFの切替ボタン43を押し下げると、超音波画面上にも表示されている点線39a、39bの表示/非表示を選択することができる。なお、超音波画像22上に点線39a、39bを重畳表示する処理は、画像処理部14が行う。
 術者が、リファレンス画像の移動/回転切替ボタン44を押し下げると、第一リファレンス画像の断面31、第二リファレンス画像の断面32、及び第三リファレンス画像の断面33に対し、移動若しくは回転のモード切替えを行うことができる。
 リファレンス画像の移動/回転切替ボタン44により、移動が選択された状態で、移動方向切替ボタン45を押し下げると、断面31、32、33の移動方向を上下方向、左右方向、斜め方向の組合せ、又は奥行き方向のどちらかを選択することができる。上記説明における「上下方向」は、超音波の深度方向に沿った方向を示し、上方向は、深度が深くなる方向に相当する。また「左右方向」は、超音波画像の断面内において、超音波の深度方向と直交する方向に相当する。また「斜め方向」は、超音波画像の断面内において、超音波の深度方向に対して0°より大きく90°未満、90°より大きく180°未満、180°より大きく270°未満、270°より大きく360°未満のいずれかの角度を有する方向に相当する。更に「奥行き方向」は、超音波の深度方向及び超音波画像の断面の双方に直角な方向に相当する。
 リファレンス画像の移動/回転切替ボタン44により、回転が選択された状態で、回転方向切替ボタン46を押し下げると、断面31、32、33の回転方向として、左右方向の回転及び深度方向の回転の組合せ、又は奥行き方向の回転のどちらかを選択することができる。上記「左右方向の回転」は、超音波画像と同一断面内において深度方向と一致する軸を回転軸とする回転方向に相当する。また、「深度方向の回転」は、超音波画像と同一断面内において深度方向と直交する軸を回転軸とする回転方向に相当する。更に「奥行き方向の回転」とは、奥行き方向に一致する軸を回転軸とする回転方向に相当する。
 (上下左右斜め方向の移動)
 図5に基づいてリファレンス画像を上下左右斜め方向に移動させる処理について説明する。これは、リファレンス画像の移動方向切替ボタン45において、「上下・左右・斜め方向」を選択した場合に相当する。なお、図5では、第二リファレンス画像を移動する場合を例に説明するが、第一リファレンス画像、第三リファレンス画像についても同様に移動させることができる。
 図5に示すように、操作者がトラックボール16tを操作して、トラックボール16tの回転方向と回転量に応じて、移動・回転信号入力部16が画像の移動方向と移動量を算出し、リファレンス画像生成部12に出力する。リファレンス画像生成部12は、第二リファレンス画像又は第三リファレンス画像の断面位置を移動させ、移動後の第二リファレンス画像又は第三リファレンス画像を生成表示する。
 図5の3次元ボリュームデータ30には第一リファレンス画像の断面31、第二リファレンス画像の断面32、第三リファレンス画像の断面33が重畳表示されている。これら3次元ボリュームデータ30に対する断面31、32、33の位置を基準位置とする。
 術者がトラックボール16tを上方向に回転すると、断面32は、基準位置に対して上方向、すなわち放射面20から放射される超音波の深度方向dp1に移動し、断面32uに移動する。同様に、術者がトラックボール16tを右上方向、右方向、下方向、左方向に回転すると、断面32は、基準位置に対して右上方向、右方向、下方向、左方向に移動し、断面32ru、断面32r、断面32d、断面32lに移動する。上記移動方向と移動量は一例に過ぎず、任意の方向、量で移動可能である。
 (奥行き方向の移動)
 奥行き方向に沿った移動について図6の(a)に基づいて説明する。
 リファレンス画像の移動/回転切替ボタン44により「移動」を選択し、移動方向切替ボタン45で移動方向として「奥行き方向」を選択した後、術者がトラックボール16tを上方向に回転すると、断面32は、奥行き方向軸L1に沿って基準位置から奥行方向に移動し、断面32dp2に移動する。一方、術者がトラックボール16tを下方向に回転すると、断面32は、奥行き方向軸L1に沿って基準位置から手前方向に移動し、断面32dp3に移動する。
 (回転移動)
 リファレンス画像の回転について図6の(b)及び図7を用いて説明する。
 回転方向を制御する場合は、移動/回転切換えボタン44により「回転」を選択し、回転方向切替ボタン46で回転方向として「左右・深度方向」を選択した後、術者がトラックボール16tを上下方向に回転させると、第二リファレンス画像は第一リファレンス画像の左右方向を回転軸として回転する(図6の(b))。同様にトラックボール16tを左右方向に回転させると、第二リファレンス画像は深度方向dp1を回転軸として回転する(図7の(a))。
 また、回転方向切換ボタン46で回転方向として「奥行き方向」を選択した後、トラックボール16tを左右方向に回転させると、第二リファレンス画像は奥行き方向軸L1を回転軸として回転する(図7の(b))。
 (ガイド画像によるリファレンス画像の移動)
 図8に示すように、ガイド画像生成部13は、ガイド画像41上に、第一、二、三リファレンス画像の位置を示す断面31m、32m、33mを表示させておく。図8の(8-1)は、基準位置にある断面31m、32m、33m、を示す。この状態で、術者が第二リファレンス画像の断面32mをマウスで選択し左方向へドラッグすると、図8の(8-2)に示すように、断面32lへ移動し、その断面32lから切り出した第二リファレンス画像が生成される。また術者が第三リファレンス画像の断面33mをマウスで選択し、超音波の深度方向dp1へドラッグすると、図8の(8-3)に示すように、断面33mは断面33uへ移動し、その断面33uから切り出した第三リファレンス画像が生成される。
 本実施形態では、第一リファレンス画像、第二リファレンス画像及び第三リファレンス画像を、ポインティングデバイスで指定した後に、上記の如く移動及び回転制御を行い、指定したリファレンス画像のみを移動・回転させる。また、第二リファレンス画及び第三リファレンス画像の位置・回転に追従して、ガイド画像生成部13は、ガイド画像41上にある第二リファレンス画像及び第三リファレンス画像の位置を示す断面32m、33mも上下、左右、斜め、奥行き方向へ移動または回転させて表示する。
 なお、断面31m、32m、33mの色分けに用いる色は、対応する第一、二、三リファレンス画像の位置を示す点線39a、39b、39cと同色で表示し、色分けする。これによって、ガイド画像41上の各リファレンス画像の位置を示すマーク31m、32m、33mと各リファレンス画像の対応関係がより明確になる。
 本実施形態によれば、超音波を放射すると共に、超音波の反射波を受信する超音波放射面を有する超音波探触子2と、反射波に基づく反射エコー信号を用いて超音波画像を生成する超音波画像生成手段(超音波画像生成部6)と、被検体の3次元ボリュームデータを用いて、複数の任意断面のリファレンス画像を生成するリファレンス画像生成手段(リファレンス画像生成部12)と、超音波画像とリファレンス画像とを表示する表示手段(モニタ15)を備える。また、超音波を放射すると共に、超音波の反射波に基づく反射エコー信号を用いて超音波画像を生成するステップと、被検体の3次元ボリュームデータを用いて、複数の任意断面のリファレンス画像を生成するステップと、超音波画像とリファレンス画像とを表示するステップとを含む超音波画像表示方法である。
 また、リファレンス画像生成手段(リファレンス画像生成部12)は、一方のリファレンス画像に、他方のリファレンス画像の断面位置を示す第一マークを重畳表示する。また、一方のリファレンス画像に重畳された第一マークと、当該第一マークが示す断面位置から得られた他方のリファレンス画像のマークとは、同一表示態様を用いて表示される。
また、超音波探触子2の位置情報を検出する位置情報検出手段(位置センサ4)と、位置情報を基に、超音波画像の断面位置を算出するスキャン面取得手段(スキャン面取得部11)と、を更に備え、リファレンス画像生成手段(リファレンス画像生成部12)は、算出された超音波画像の断面位置を用いて、超音波画像と同一断面からなる第一リファレンス画像、超音波画像及び超音波放射面に直交する断面からなる第二リファレンス画像、若しくは超音波放射面と平行な断面からなる第三リファレンス画像、の少なくとも一つを生成する。
 また、リファレンス画像の移動方向及び移動量、又は回転方向及び回転量の少なくとも一つの入力を受け付ける第一入力手段(移動・回転信号入力部16)を更に備え、リファレンス画像生成手段(リファレンス画像生成部12)は、第一入力手段(移動・回転信号入力部16)が受け付けた入力値に従って任意断面を移動・回転した断面からなるリファレンス画像を生成し、表示手段(モニタ15)は、生成されたリファレンス画像を更新表示する。超音波画像に、リファレンス画像の断面位置を示す第二マークを重畳表示する画像処理手段(画像処理部14)を更に備える。超音波画像に重畳された第二マークと、当該第二マークが示す断面位置から得られたリファレンス画像のマークとは、同一表示態様を用いて表示される。
 また、被検体の3次元画像上に、リファレンス画像の断面位置を示す第三マークを重畳表示したガイド画像を生成するガイド画像生成手段(ガイド画像生成部13)を更に備える。ガイド画像に重畳された第三マークの移動方向及び移動量、又は回転方向及び回転量の少なくとも一つの入力を受け付ける第二入力手段を更に備え、リファレンス画像生成手段(リファレンス画像生成部12)は、第二入力手段が受け付けた入力値に従って移動・回転した第三マークに対応する断面に基づくリファレンス画像を生成し、表示手段(モニタ15)は、生成されたリファレンス画像を更新表示する。
 また、ガイド画像に重畳された第三マークと、当該第三マークが示す断面位置から得られたリファレンス画像のマークとは、同一表示態様を用いて表示される。
 超音波放射面から放射される超音波の視野領域を変更する操作手段を更に備え、超音波画像生成手段(超音波画像生成部6)は、変更後の視野領域に対応した超音波画像を新たに生成し、リファレンス画像手段(リファレンス画像生成部12)は、新たに生成された超音波画像の倍率に応じたリファレンス画像を新たに生成し、表示手段(モニタ15)は、前記新たに生成された超音波画像及びリファレンス画像を更新表示する。
 よって、第二、三リファレンス画像を深度方向、左右方向、斜め、奥行き方向へ自由に移動させたり、回転させたりすることを可能にすることによって、超音波探触子を被検体の体腔内の奥深くに挿入することなく、リファレンス画像を通じて、超音波探触子のその先の体腔内構造や、超音波探触子では観察しづらい部分などの体腔内構造を把握することが可能となる。また、第一、二、三リファレンス画像の位置を示すガイド画像41も同時に表示することによって、より第一、二、三リファレンス画像の位置関係が把握し易くなるので、被検体および術者の負担を軽減することが可能となる。また、上記の技術を使用することで、ナビゲーションツールとしても使用可能である。さらに、リファレンス画像、ガイド画像、超音波画像上に重畳するリファレンス画像の断面位置を示すマーク(点線39aなど)と、各リファレンス画像の縁取りや画像識別用のマークと、を同色にしたり、同じ表示態様を用いたりすることにより、リファレンス画像の断面位置の把握が容易となる結果、診断時に被検体のどの部位を観察しているかが把握しやすくなる。
 <第二実施形態>
 第二実施形態は、超音波探触子としてバイプレイン探触子(図2の超音波探触子A)を用い、超音波探触子Aからリアルタイムで得られる2つの超音波画像と、各超音波画像に対応するリファレンス画像として、各超音波画像とそれぞれ同一の断面から抽出されたリファレンス画像を表示させる実施形態である。
 以下、図9乃至図11に基づき第二実施形態について説明する。図9は、第二実施形態で表示される画面表示例を示す模式図である。図10は、第二実施形態で表示されるリファレンス画像の生成処理を示す説明図であり、(a)は超音波探触子Aの先端部を示し、(b)は、第二リファレンス画像36からリファレンス画像60を生成する処理を示す。
 図11は、第三リファレンス画像38からリファレンス画像60を生成する処理を示す説明図である。
 図9の画面50は、第一実施形態に係る表示画面のレイアウト(図4参照)に示した画面レイアウトに、画像選択ボタン51を追加したものである。この画像選択ボタン51を押し、移動・回転を所望する画像を選択した後、トラックボールまたはマウスのマウスホイールを回転すると、選択された画像のみを移動・回転させることができる。選択可能な画像は、表示されているものだけでなく、非表示のものでもよい。例えば、画像選択ボタン51で非表示中の第三リファレンス画像を選択した後、トラックボールまたはマウスのマウスホイールを回転させると、図9では非表示となっている第三リファレンス画像の位置を移動させることができ、これに追従して、第三リファレンス画像の位置を示す点線39bおよびガイド画像41上の第三リファレンス画像の位置を示すマーカ33mを移動することができる。
 画面50には、超音波画像の表示領域内の左上に超音波放射面20より得られる第一断面画像22(以下「超音波画像22」という)を、右上に超音波放射面21より得られる第二断面画像23(以下「超音波画像23」という)を表示する。左下には超音波画像22のリファレンス画像として、ボリュームデータ30を基に断面31で再構成した第一リファレンス画像34を表示する。右下には、超音波画像23のリファレンス画像60を表示する。リファレンス画像60は、超音波放射面20より得られる超音波画像22の第二リファレンス画像36(図10の(b)参照)又は第三リファレンス画像38(図11参照)を移動及び回転させて、超音波画像23と同一断面・かつ同一倍率に拡大・縮小した画像である。すなわち、超音波画像23のリファレンス画像60を、超音波画像22の第二リファレンス画像36又は第三リファレンス画像38を基に生成する。もちろん、超音波画像23のリファレンス画像60をボリュームデータ30を基に再構成し、超音波放射面21の第一リファレンス画像として表示しても良いし、超音波放射面21より得られる超音波画像23の第二リファレンス画像又は第三リファレンス画像を移動及び回転させて、超音波画像23と同一断面かつ同一倍率に拡大・縮小した画像を生成しても良い。
 図10、図11に基づいて、超音波画像23のリファレンス画像60を、超音波画像22の第二リファレンス画像36又は第三リファレンス画像38を基に生成する処理について説明する。
 図10の(a)の(a-3)に示すように、超音波探触子Aの先端部には、超音波放射面20、21を備える。超音波放射面20からは超音波画像22が得られる(図10の(a)の(a-1)参照)。超音波放射面21からは超音波画像23が得られる(図10の(a)の(a-2)参照)。超音波画像22、23には、臓器70と臓器71とが撮像されている。
 リファレンス画像生成部12は、超音波放射面20の深度方向dp1と、超音波放射面21の深度方向との軸のずれ角度α°を予め超音波探触子2から取得しておく。または、スキャン面取得部11から、超音波放射面20及び超音波放射面21の座標を取得し、これらを用いて深度方向のずれ角度α°を算出してもよい。
 図10の(b)の(b-1)に示すように、リファレンス画像生成部12は、超音波画像23の第一リファレンス画像34と第二リファレンス画像36とを生成する。この第一リファレンス画像34は、既述の通り、超音波画像23のリファレンス画像として、画面50において超音波画像22の下に並べて表示される。
 リファレンス画像生成部12は、第二リファレンス画像36をα°回転させる。これにより第二リファレンス画像36は、画像361へ遷移する(図10の(b)の(b-2)参照)。次いでリファレンス画像生成部12は、画像361の座標と、超音波画像23の座標と、を用いて、これらが一致するように、画像361の移動及び大きさ、視野領域の調整を行う(図10の(b)の(b-2)では矢印a1で移動量・方向を図示)。これにより、第二リファレンス画像36を基に、超音波画像23と同一断面のリファレンス画像60を生成する(図10の(b)の(b-3)参照)。
 又は、リファレンス画像は、超音波放射面20と、超音波放射面21の位置関係より、超音波画像22の第三リファレンス画像38が、超音波画像23と同一断面であるリファレンス画像60の傾きと一致する角度β°を予め超音波探触子2から取得しておく。または、スキャン面取得部11から、超音波放射面20及び超音波放射面21の座標を取得し、これらを用いてずれ角度β°を算出し、第三リファレンス画像38をβ°回転させる(図11の(11-1)参照)。これにより第三リファレンス画像38は、画像381へ遷移する(図11の(11-2)参照)。次いでリファレンス画像生成部12は、画像381の座標と、超音波画像23の座標とを用いて、これらが一致するように、画像381の移動及び大きさ、視野領域の調整を行う(図11の(11-2)では矢印a2で移動量・方向を図示)。これにより、第三リファレンス画像38を基に、超音波画像23と同一断面のリファレンス画像60を生成する(図11の(11-3)参照)。
 リファレンス画像60の生成に用いないリファレンス画像、即ち、第二リファレンス画像36を用いてリファレンス画像60を生成するときの第三リファレンス画像38、又は第三リファレンス画像38を用いてリファレンス画像60を生成するときの第二リファレンス画像36は非表示となるが、非表示となっているリファレンス画像の位置を示す点線(図9では、第三リファレンス画像の位置を示す点線39b)と、リファレンス画像60の位置を示す点線39dとが、超音波画像22及び第一リファレンス画像34に重畳表示される。同様に、超音波画像23及びリファレンス画像60上には、表示中の第一リファレンス画像の位置を示す点線39cと、非表示となっているリファレンス画像(図9では、第三リファレンス画像の位置39b)と、が点線により重畳表示される。
 点線39d、39cはリファレンス画像60及び第一リファレンス画像34との対応付けを明確にする為、点線の色とリファレンス画像60及び第一リファレンス画像34の縁取りの色と同色になっており、術者の設定によって、表示/非表示の選択も可能である。
 また、ガイド画像41上では、リファレンス画像60を生成した際に使用した第二もしくは第三リファレンス画像の位置を示す表示は自動的に非表示になり、その代わりに、リファレンス画像60の位置を示すマーカ61を表示する。リファレンス画像60の位置を示すマーカ61は、リファレンス画像60との対応付けを明確にする為、リファレンス画像60の位置を示す点線39dの色及びリファレンス画像60の縁取りの色と同色にする。
 なお、超音波放射面20、21より得られる超音波画像22、23、第一リファレンス画像34、リファレンス画像60およびガイド画像41は、トラックボールと図示されていない超音波装置上のキーボードによるドラッグ&ドロップもしくは装置に接続可能な図示されていないマウスなどによるドラッグ&ドロップで、画像同士を入れ換えることも可能とする。
 本実施形態によれば、超音波探触子2は、複数の超音波放射面を備え、各超音波放射面から異なる断面の超音波画像を同時に取得する超音波探触子であり、リファレンス画像生成手段(リファレンス画像生成部12)は、異なる断面の超音波画像の各々に対応する前記リファレンス画像を生成し、表示手段(モニタ)15は、複数の超音波画像と、各超音波画像に対応する複数のリファレンス画像と、を同時に表示する。
 2つの超音波画像22、23とそれらの超音波画像22、23の何れかに対し、位置、角度、倍率、視野等が同一となるように調整したリファレンス画像と、ガイド画像41を表示することによって、術者は超音波画像およびリファレンス画像を参照しながら、患部の観察が可能となり、従来技術より体腔内をより正確に把握することができ、検査もしくは診断を行いやすくなる。また、ガイド画像41は3次元ボリュームデータより生成されているため、例えば観察したい部分などの有用な情報を超音波断層像とは異なる角度から術者に提供することができ、その結果診断能の向上を図ることもできる。
 <第三実施形態>
 第三実施形態は、超音波探触子として非バイプレイン探触子(図2の超音波探触子B)を使用する場合に、リアルタイムの超音波画像と、その超音波画像に対する第二、三リレファレンス画像と、を組み合わせ、リファレンス画像を通じて、擬似的なバイプレイン表示を実施する実施形態である。
 超音波探触子B(図2参照)は、超音波放射面24からは第三断面画像26(以下「超音波画像26」という)が、超音波放射面25からは例えば第四断面画像27(以下「超音波画像27」という)が得られるものとする。そして、超音波診断装置10上もしくはモニタ15上の超音波放射面切換えボタン(図示を省略)によって、超音波放射面24、25を切り換えることが可能な超音波探触子である。このような超音波探触子に対し、それぞれの超音波画像26,27に対応するリファレンス画像を第二リファレンス画像もしくは第三リファレンス画像(又は第一リファレンス画像)より生成するのが本実施形態となる。
 例えば、術者が超音波探触子Bの超音波放射面24を選択した場合、超音波放射面24からの超音波画像26が表示される。ここで、超音波放射面25からの超音波画像27は、非バイプレイン方式の超音波探触子では同時には得られない。そこで、リファレンス画像生成部12が、超音波画像26に対する第二リファレンス画像もしくは第三リファレンス画像(又は第一リファレンス画像)を用いて、超音波画像27と同一断面のリファレンス画像を生成し、表示する。これにより、非バイプレイン探触子において、選択された超音波放射面から得られた超音波画像と、選択されていない超音波放射面から得られる超音波画像と同一断面から得られたリファレンス画像と、が表示される。超音波画像26に対する第二リファレンス画像もしくは第三リファレンス画像(又は第一リファレンス画像)を用いて、超音波画像27と同一断面の画像を生成する処理は、第二実施形態における超音波画像23を本実施形態における超音波画像26に置き換えることにより実現できる。
 上記の例とは反対に、超音波放射面25を選択した場合には、超音波画像27と、超音波画像27に対する第二リファレンス画像もしくは第三リファレンス画像を用いて超音波画像26と同一断面からなるリファレンス画像を生成・表示する。なお、上記では、超音波画像26と、超音波画像27と同一断面のリファレンス画像と、を表示したが、これら各画像に対応するリファレンス画像を更に表示してもよい。
 第三実施形態によれば、超音波探触子2は、複数の超音波放射面を備え、選択されたいずれかの一つの超音波放射面から超音波画像を取得する超音波探触子であり、リファレンス画像生成手段(リファレンス画像生成部12)は、選択されていない超音波画像と同一断面のリファレンス画像を生成し、表示手段(モニタ15)は、選択されたいずれか一方の超音波放射面から得られた超音波画像と、選択されていない超音波画像と同一断面のリファレンス画像と、を同時に表示する。非バイプレイン探触子を用いた場合に選択されなかった放射面から得られるはずの超音波画像を、選択された放射面から得られる超音波画像に対する第一、第二、第三リファレンス画像を基に生成表示することで、バイプレイン探触子を用いたときと同様の表示態様を実現することができる。
 <第四実施形態>
 第四実施形態は、術者が観察した所望領域が入るように互いに直交する第一リファレンス画像、第二リファレンス画像、第三リファレンス画像の断面位置が設定されることを示す実施形態である。
 第四実施形態の超音波診断装置10は、第一実施形態の超音波診断装置10と同様に、被検体の3次元ボリュームデータを用いて、複数の任意断面のリファレンス画像を生成するリファレンス画像生成手段(リファレンス画像生成部12)と、超音波画像とリファレンス画像とを表示する表示手段(モニタ15)とを備える。リファレンス画像生成手段(リファレンス画像生成部12)は、算出された超音波画像の断面位置を用いて、超音波画像と同一断面からなる第一リファレンス画像、超音波画像及び超音波放射面に直交する断面からなる第二リファレンス画像、若しくは超音波放射面と平行な断面からなる第三リファレンス画像を生成する。
 ここで、リファレンス画像生成手段(リファレンス画像生成部12)は、超音波画像と同一断面の第一リファレンス画像を生成し、超音波画像における特徴量に基づいて、第二リファレンス画像と第三リファレンス画像の断面位置を調整し、第一リファレンス画像に直交する断面からなる第二リファレンス画像と第三リファレンス画像を生成する。超音波画像における特徴量とは、輝度情報、弾性値(歪み、弾性率など)、血流情報などである。
 超音波画像において低輝度領域が含まれる場合、リファレンス画像生成手段(リファレンス画像生成部12)は、超音波画像と同一断面の第一リファレンス画像を生成し、第二リファレンス画像と第三リファレンス画像に低輝度領域(例えば、最も低輝度である部位)が含まれるように、第二リファレンス画像と第三リファレンス画像の断面位置を調整し、第二リファレンス画像と第三リファレンス画像を生成する。
 図3の(a)に示すように、超音波放射面20から放射される超音波により作られる超音波画像22には、被検体内の臓器70が表示されている。本実施形態において、超音波画像22に表示される臓器70が低輝度領域であると仮定すると、リファレンス画像生成手段(リファレンス画像生成部12)は、第二リファレンス画像と第三リファレンス画像に臓器70が含まれるように、第二リファレンス画像と第三リファレンス画像の断面位置を調整し、第二リファレンス画像と第三リファレンス画像を生成する。
 また、超音波画像において硬い領域(弾性値に基づく硬い領域)が含まれる場合、リファレンス画像生成手段(リファレンス画像生成部12)は、超音波画像と同一断面の第一リファレンス画像を生成し、第二リファレンス画像と第三リファレンス画像に硬い領域(例えば、歪みが小さい、若しくは弾性率が小さい部位)が含まれるように、第二リファレンス画像と第三リファレンス画像の断面位置を調整し、第二リファレンス画像と第三リファレンス画像を生成する。弾性値は、例えば、複数の超音波画像間における変位を検出することにより算出される値である。弾性値として、変位から歪みや弾性率を算出することができる。
 図3の(a)に示すように、超音波放射面20から放射される超音波により作られる超音波画像22には、被検体内の臓器70が表示されている。本実施形態において、超音波画像22に表示される臓器70が硬い領域であると仮定すると、リファレンス画像生成手段(リファレンス画像生成部12)は、第二リファレンス画像と第三リファレンス画像に臓器70が含まれるように、第二リファレンス画像と第三リファレンス画像の断面位置を調整し、第二リファレンス画像と第三リファレンス画像を生成する。
 また、超音波画像において血流情報(ドプラ情報)が含まれる場合、リファレンス画像生成手段(リファレンス画像生成部12)は、超音波画像と同一断面の第一リファレンス画像を生成し、第二リファレンス画像と第三リファレンス画像に血流情報が含まれるように、第二リファレンス画像と第三リファレンス画像の断面位置を調整し、第二リファレンス画像と第三リファレンス画像を生成する。
 図3の(a)に示すように、超音波放射面20から放射される超音波により作られる超音波画像22には、被検体内の臓器70が表示されている。本実施形態において、超音波画像22に表示される臓器70に血流が流れていると仮定すると、リファレンス画像生成手段(リファレンス画像生成部12)は、第二リファレンス画像と第三リファレンス画像に臓器70が含まれるように、第二リファレンス画像と第三リファレンス画像の断面位置を調整し、第二リファレンス画像と第三リファレンス画像を生成する。
 第四実施形態によれば、術者が観察した所望領域が入るように互いに直交する第一リファレンス画像、第二リファレンス画像、第三リファレンス画像を表示することができる。
 1 超音波診断層装置本体、2 超音波探触子、3 位置センサ固定機構、4 位置センサ、5 ソース発生源、6 超音波画像生成部、7 メモリ、8 超音波ボリュームデータ生成部、9 ボリュームデータ記録部、10 超音波診断装置、11 スキャン面取得部、12 リファレンス画像生成部、13 ガイド画像生成部、14 画像処理部、15 モニタ、16 移動・回転量入力部、17 医療用画像診断装置

Claims (15)

  1.  超音波を放射すると共に、前記超音波の反射波を受信する超音波放射面を有する超音波探触子と、
     前記反射波に基づく反射エコー信号を用いて超音波画像を生成する超音波画像生成手段と、
     被検体の3次元ボリュームデータを用いて、複数の任意断面のリファレンス画像を生成するリファレンス画像生成手段と、
     前記超音波画像と前記リファレンス画像とを表示する表示手段と、
    を備えることを特徴とする超音波診断装置。
  2.  前記リファレンス画像生成手段は、一方のリファレンス画像に、他方のリファレンス画像の断面位置を示す第一マークを重畳表示する、
     ことを特徴とする請求項1に記載の超音波診断装置。
  3.  前記一方のリファレンス画像に重畳された前記第一マークと、当該第一マークが示す断面位置から得られた前記他方のリファレンス画像のマークとは、同一表示態様を用いて表示される、
     ことを特徴とする請求項2に記載の超音波診断装置。
  4.  前記超音波探触子の位置情報を検出する位置情報検出手段と、
     前記位置情報を基に、前記超音波画像の断面位置を算出するスキャン面取得手段と、を更に備え、
     前記リファレンス画像生成手段は、算出された超音波画像の断面位置を用いて、前記超音波画像と同一断面からなる第一リファレンス画像、前記超音波画像及び前記超音波放射面に直交する断面からなる第二リファレンス画像、若しくは前記超音波放射面と平行な断面からなる第三リファレンス画像、の少なくとも一つを生成する、
     ことを特徴とする請求項1に記載の超音波診断装置。
  5.  前記リファレンス画像の移動方向及び移動量、又は回転方向及び回転量の少なくとも一つの入力を受け付ける第一入力手段を更に備え、
     前記リファレンス画像生成手段は、前記第一入力手段が受け付けた入力値に従って前記任意断面を移動・回転した断面からなるリファレンス画像を生成し、
     前記表示手段は、前記生成されたリファレンス画像を更新表示する、
     ことを特徴とする請求項1に記載の超音波診断装置。
  6.  前記超音波画像に、前記リファレンス画像の断面位置を示す第二マークを重畳表示する画像処理手段を更に備える、
     ことを特徴とする請求項1に記載の超音波診断装置。
  7.  前記超音波画像に重畳された前記第二マークと、当該第二マークが示す断面位置から得られた前記リファレンス画像のマークとは、同一表示態様を用いて表示される、
     ことを特徴とする請求項6に記載の超音波診断装置。
  8.  前記被検体の3次元画像上に、前記リファレンス画像の断面位置を示す第三マークを重畳表示したガイド画像を生成するガイド画像生成手段を更に備える、
     ことを特徴とする請求項1に記載の超音波診断装置。
  9.  前記ガイド画像に重畳された前記第三マークの移動方向及び移動量、又は回転方向及び回転量の少なくとも一つの入力を受け付ける第二入力手段を更に備え、
     前記リファレンス画像生成手段は、前記第二入力手段が受け付けた入力値に従って移動・回転した前記第三マークに対応する断面に基づくリファレンス画像を生成し、
     前記表示手段は、前記生成されたリファレンス画像を更新表示する、
     ことを特徴とする請求項8に記載の超音波診断装置。
  10.  前記ガイド画像に重畳された前記第三マークと、当該第三マークが示す断面位置から得られた前記リファレンス画像のマークとは、同一表示態様を用いて表示される、
     ことを特徴とする請求項8に記載の超音波診断装置。
  11.  前記超音波放射面から放射される超音波の視野領域を変更する操作手段を更に備え、
     前記超音波画像生成手段は、変更後の視野領域に対応した超音波画像を新たに生成し、
     前記リファレンス画像生成手段は、新たに生成された超音波画像の倍率に応じたリファレンス画像を新たに生成し、
     前記表示手段は、新たに生成された超音波画像及びリファレンス画像を更新表示する、
     ことを特徴とする請求項1に記載の超音波診断装置。
  12.  前記超音波探触子は、複数の超音波放射面を備え、各超音波放射面から異なる断面の超音波画像を同時に取得する超音波探触子であり、
     前記リファレンス画像生成手段は、異なる断面の超音波画像の各々に対応する前記リファレンス画像を生成し、
     前記表示手段は、前記複数の超音波画像と、各超音波画像に対応する複数のリファレンス画像と、を同時に表示する、
     ことを特徴とする請求項1に記載の超音波診断装置。
  13.  前記超音波探触子は、複数の超音波放射面を備え、選択されたいずれかの一つの超音波放射面から超音波画像を取得する超音波探触子であり、
     前記リファレンス画像生成手段は、選択されていない超音波画像と同一断面のリファレンス画像を生成し、
     前記表示手段は、選択されたいずれか一方の超音波放射面から得られた超音波画像と、選択されていない超音波画像と同一断面のリファレンス画像と、を同時に表示する、
    ことを特徴とする請求項1に記載の超音波診断装置。
  14.  前記リファレンス画像生成手段は、前記超音波画像と同一断面の第一リファレンス画像を生成し、前記超音波画像における特徴量に基づいて、第一リファレンス画像に直交する断面からなる第二リファレンス画像と第三リファレンス画像の断面位置を調整し、第二リファレンス画像と第三リファレンス画像を生成することを特徴とする請求項1に記載の超音波診断装置。
  15.  超音波を放射すると共に、前記超音波の反射波に基づく反射エコー信号を用いて超音波画像を生成するステップと、被検体の3次元ボリュームデータを用いて、複数の任意断面のリファレンス画像を生成するステップと、前記超音波画像と前記リファレンス画像とを表示するステップとを含む超音波画像表示方法。
PCT/JP2012/063847 2011-08-11 2012-05-30 超音波診断装置及び超音波画像表示方法 WO2013021711A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP12821433.5A EP2742867A4 (en) 2011-08-11 2012-05-30 ULTRASONIC DIAGNOSIS DEVICE AND METHOD FOR DISPLAYING ULTRASONIC IMAGES
US14/236,564 US20140171800A1 (en) 2011-08-11 2012-05-30 Ultrasound diagnostic device and ultrasound image display method
JP2013527919A JP5814370B2 (ja) 2011-08-11 2012-05-30 超音波診断装置及び超音波画像表示方法
CN201280039251.XA CN103732150B (zh) 2011-08-11 2012-05-30 超声波诊断装置以及超声波图像显示方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-176152 2011-08-11
JP2011176152 2011-08-11

Publications (1)

Publication Number Publication Date
WO2013021711A1 true WO2013021711A1 (ja) 2013-02-14

Family

ID=47668235

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/063847 WO2013021711A1 (ja) 2011-08-11 2012-05-30 超音波診断装置及び超音波画像表示方法

Country Status (5)

Country Link
US (1) US20140171800A1 (ja)
EP (2) EP2742867A4 (ja)
JP (1) JP5814370B2 (ja)
CN (1) CN103732150B (ja)
WO (1) WO2013021711A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104224329A (zh) * 2013-06-18 2014-12-24 台湾植体科技股份有限公司 牙科手机辅助***及其操作方法
JP2017159031A (ja) * 2016-03-04 2017-09-14 東芝メディカルシステムズ株式会社 超音波診断装置及び超音波画像生成方法
US11564660B2 (en) 2016-03-04 2023-01-31 Canon Medical Systems Corporation Ultrasonic diagnostic apparatus and method for generating ultrasonic image

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6207940B2 (ja) * 2013-09-11 2017-10-04 東芝メディカルシステムズ株式会社 超音波診断装置、医用画像処理装置および医用画像処理プログラム
KR20160012590A (ko) * 2014-07-24 2016-02-03 삼성메디슨 주식회사 초음파 영상 장치 및 그 제어방법
CN114469173A (zh) * 2015-06-05 2022-05-13 深圳迈瑞生物医疗电子股份有限公司 超声流体成像***
KR102475822B1 (ko) * 2015-07-10 2022-12-09 삼성메디슨 주식회사 초음파 진단 장치 및 초음파 진단 장치의 동작 방법
KR102551252B1 (ko) * 2015-11-11 2023-07-05 삼성메디슨 주식회사 초음파 진단 장치 및 그 동작방법
JP6615603B2 (ja) * 2015-12-24 2019-12-04 キヤノンメディカルシステムズ株式会社 医用画像診断装置および医用画像診断プログラム
CN105997141B (zh) * 2016-05-09 2020-04-10 深圳开立生物医疗科技股份有限公司 一种参数调节方法、***及超声设备
JP6985053B2 (ja) * 2017-07-28 2021-12-22 キヤノンメディカルシステムズ株式会社 超音波画像診断装置、医用画像診断装置及び医用画像表示プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010007860A1 (ja) * 2008-07-15 2010-01-21 株式会社 日立メディコ 超音波診断装置とその探触子操作ガイド表示方法
JP2010069018A (ja) * 2008-09-18 2010-04-02 Olympus Medical Systems Corp 医用ガイドシステム
JP2011125570A (ja) * 2009-12-18 2011-06-30 Canon Inc 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100805774B1 (ko) * 2005-09-14 2008-02-21 주식회사 메디슨 초음파 영상을 회전시키는 초음파 진단 시스템 및 방법
JP5495357B2 (ja) * 2005-10-07 2014-05-21 株式会社日立メディコ 画像表示方法及び医用画像診断システム
US8340374B2 (en) * 2007-01-11 2012-12-25 Kabushiki Kaisha Toshiba 3-dimensional diagnostic imaging system
JP5049728B2 (ja) 2007-10-12 2012-10-17 株式会社日立メディコ 超音波内視鏡、超音波診断装置、及び超音波内視鏡における位置センサ固定方法
US8090168B2 (en) * 2007-10-15 2012-01-03 General Electric Company Method and system for visualizing registered images
US20100286526A1 (en) * 2009-05-11 2010-11-11 Yoko Okamura Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus and ultrasonic image processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010007860A1 (ja) * 2008-07-15 2010-01-21 株式会社 日立メディコ 超音波診断装置とその探触子操作ガイド表示方法
JP2010069018A (ja) * 2008-09-18 2010-04-02 Olympus Medical Systems Corp 医用ガイドシステム
JP2011125570A (ja) * 2009-12-18 2011-06-30 Canon Inc 画像処理装置、画像処理方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2742867A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104224329A (zh) * 2013-06-18 2014-12-24 台湾植体科技股份有限公司 牙科手机辅助***及其操作方法
CN104224329B (zh) * 2013-06-18 2017-08-25 台湾植体科技股份有限公司 牙科手机辅助***及其操作方法
JP2017159031A (ja) * 2016-03-04 2017-09-14 東芝メディカルシステムズ株式会社 超音波診断装置及び超音波画像生成方法
US11564660B2 (en) 2016-03-04 2023-01-31 Canon Medical Systems Corporation Ultrasonic diagnostic apparatus and method for generating ultrasonic image

Also Published As

Publication number Publication date
EP3045117A1 (en) 2016-07-20
EP2742867A1 (en) 2014-06-18
CN103732150A (zh) 2014-04-16
EP2742867A4 (en) 2015-08-05
US20140171800A1 (en) 2014-06-19
CN103732150B (zh) 2016-05-18
JP5814370B2 (ja) 2015-11-17
JPWO2013021711A1 (ja) 2015-03-05

Similar Documents

Publication Publication Date Title
JP5814370B2 (ja) 超音波診断装置及び超音波画像表示方法
JP5775164B2 (ja) 超音波診断装置及び超音波画像表示方法
CN104411249B (zh) 用于图像引导流程的超声成像***和方法
JP5705403B2 (ja) 超音波画像内の所定の点を追跡するための方法及び装置
EP3003161B1 (en) Method for 3d acquisition of ultrasound images
JP5495357B2 (ja) 画像表示方法及び医用画像診断システム
JP4467927B2 (ja) 超音波診断装置
JP5230589B2 (ja) 超音波装置、超音波撮像プログラム及び超音波撮像方法
JP5417609B2 (ja) 医用画像診断装置
US20100121189A1 (en) Systems and methods for image presentation for medical examination and interventional procedures
JP6615603B2 (ja) 医用画像診断装置および医用画像診断プログラム
JP2012091042A (ja) 超音波診断装置
JP7171168B2 (ja) 医用画像診断装置及び医用画像処理装置
JP2015173843A (ja) 医用画像表示装置および方法並びにプログラム
JP5942217B2 (ja) 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
JP4936281B2 (ja) 超音波診断装置
JP5498090B2 (ja) 画像処理装置及び超音波診断装置
JP4790384B2 (ja) 超音波診断治療装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12821433

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013527919

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14236564

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2012821433

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2012821433

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE