WO2012157585A1 - 医用画像診断装置及び画像処理装置 - Google Patents

医用画像診断装置及び画像処理装置 Download PDF

Info

Publication number
WO2012157585A1
WO2012157585A1 PCT/JP2012/062216 JP2012062216W WO2012157585A1 WO 2012157585 A1 WO2012157585 A1 WO 2012157585A1 JP 2012062216 W JP2012062216 W JP 2012062216W WO 2012157585 A1 WO2012157585 A1 WO 2012157585A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
parallax
data
monitor
image group
Prior art date
Application number
PCT/JP2012/062216
Other languages
English (en)
French (fr)
Inventor
浜田 賢治
Original Assignee
株式会社東芝
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝, 東芝メディカルシステムズ株式会社 filed Critical 株式会社東芝
Priority to CN201280000691.4A priority Critical patent/CN102893306B/zh
Publication of WO2012157585A1 publication Critical patent/WO2012157585A1/ja
Priority to US14/067,367 priority patent/US9282324B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • H04N13/351Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/486Diagnostic techniques involving arbitrary m-mode
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Definitions

  • Embodiments described herein relate generally to a medical image diagnostic apparatus and an image processing apparatus.
  • a display device that display a stereoscopic image that can be recognized as a three-dimensional space by a projection method using binocular parallax have been put into practical use.
  • a display device for example, a multi-parallax image (for example, nine parallax images) photographed from a plurality of viewpoints is displayed using a light controller such as a lenticular lens, so that the observer can stereoscopically view with the naked eye.
  • a light controller such as a lenticular lens
  • volume data three-dimensional medical image data
  • medical diagnostic imaging devices such as ultrasonic diagnostic devices, X-ray CT (Computed Tomography) devices, and MRI (Magnetic Resonance Imaging) devices.
  • volume data generated by such a medical image diagnostic apparatus is converted into a two-dimensional image (rendered image) by various image processes (rendering processes) and displayed two-dimensionally on a general-purpose monitor.
  • volume data generated by a medical image diagnostic apparatus is converted into a two-dimensional image (volume rendering image) reflecting three-dimensional information by volume rendering, and is displayed two-dimensionally on a general-purpose monitor.
  • volume rendering image displayed on a two-dimensional display screen on a general-purpose monitor lacks a sense of depth, and the observer distinguishes whether the part he / she focuses on is in front or behind. May not stick.
  • volume rendering image generated by volume rendering from multiple viewpoints on volume data generated by a medical image diagnostic apparatus in a stereoscopic manner on a stereoscopic monitor.
  • medical images are required to have a contrasting image quality, in general, the background color of medical images is often black.
  • the background color of information such as characters displayed together with medical images is generally black. For this reason, the sense of depth of a stereoscopic medical image is reduced.
  • the problem to be solved by the present invention is to provide a medical image diagnostic apparatus and an image processing apparatus capable of avoiding a reduction in the sense of depth of a stereoscopic medical image.
  • the medical image diagnostic apparatus includes a rendering processing unit, a display unit, and a control unit.
  • the rendering processing unit generates a parallax image group that is a parallax image having a predetermined number of parallaxes by performing rendering processing from a plurality of viewpoints on volume data that is three-dimensional medical image data.
  • the display unit displays a stereoscopic image that is stereoscopically recognized by the observer by displaying the parallax image group generated by the rendering processing unit.
  • the control unit is configured to identify the first region for displaying the parallax image group on the display unit and the second region for displaying an information image indicating information other than the parallax image group on the display unit. Control is performed so that a composite image group of the group and the information image is displayed on the display unit.
  • FIG. 1 is a diagram for explaining a configuration example of an ultrasonic diagnostic apparatus according to the first embodiment.
  • FIG. 2 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display with nine parallax images.
  • FIG. 3 is a diagram for explaining an example of the volume rendering process according to the first embodiment.
  • FIG. 4 is a diagram for explaining the problems of the prior art.
  • FIG. 5A is a diagram (1) for explaining an example of the composite image group according to the first embodiment.
  • FIG. 5B is a diagram (2) for explaining an example of the composite image group according to the first embodiment.
  • FIG. 6A is a diagram (1) for explaining another example of the composite image group according to the first embodiment.
  • FIG. 6B is a diagram (2) for explaining another example of the composite image group according to the first embodiment.
  • FIG. 7 is a flowchart for explaining processing of the ultrasonic diagnostic apparatus according to the first embodiment.
  • FIG. 8A is a diagram (1) for explaining a composite image group according to the second embodiment.
  • FIG. 8B is a diagram (2) for explaining the composite image group according to the second embodiment.
  • FIG. 9 is a flowchart for explaining processing of the ultrasonic diagnostic apparatus according to the second embodiment.
  • FIG. 10A is a diagram (1) for explaining the control unit according to the third embodiment.
  • FIG. 10B is a diagram (2) for explaining the control unit according to the third embodiment.
  • FIG. 10C is a diagram (3) for explaining the control unit according to the third embodiment.
  • FIG. 11 is a flowchart for explaining processing of the ultrasonic diagnostic apparatus according to the third embodiment.
  • a “parallax image group” is an image generated by performing volume rendering processing by moving a viewpoint position by a predetermined parallax angle with respect to volume data. It is a group. That is, the “parallax image group” includes a plurality of “parallax images” having different “viewpoint positions”.
  • the “parallax angle” is a predetermined position in the space represented by the volume data and an adjacent viewpoint position among the viewpoint positions set to generate the “parallax image group” (for example, the center of the space) It is an angle determined by.
  • the “parallax number” is the number of “parallax images” necessary for stereoscopic viewing on the stereoscopic display monitor.
  • the “9 parallax images” described below is a “parallax image group” composed of nine “parallax images”.
  • the “two-parallax image” described below is a “parallax image group” composed of two “parallax images”.
  • FIG. 1 is a diagram for explaining a configuration example of an ultrasonic diagnostic apparatus according to the first embodiment.
  • the ultrasonic diagnostic apparatus according to the first embodiment includes an ultrasonic probe 1, a monitor 2, an input device 3, and an apparatus main body 10.
  • the apparatus main body 10 is connected to the external apparatus 4 via the network 100.
  • the ultrasonic probe 1 includes a plurality of piezoelectric vibrators, and the plurality of piezoelectric vibrators generate ultrasonic waves based on a drive signal supplied from a transmission / reception unit 11 included in the apparatus main body 10 described later.
  • the ultrasonic probe 1 receives a reflected wave from the subject P and converts it into an electrical signal.
  • the ultrasonic probe 1 includes a matching layer provided in the piezoelectric vibrator, a backing material that prevents propagation of ultrasonic waves from the piezoelectric vibrator to the rear, and the like.
  • the ultrasonic probe 1 is detachably connected to the apparatus main body 10.
  • the transmitted ultrasonic waves are transmitted from the ultrasonic probe 1 to the subject P
  • the transmitted ultrasonic waves are reflected one after another at the discontinuous surface of the acoustic impedance in the body tissue of the subject P
  • the ultrasonic probe is used as a reflected wave signal. 1 is received by a plurality of piezoelectric vibrators.
  • the amplitude of the received reflected wave signal depends on the difference in acoustic impedance at the discontinuous surface where the ultrasonic wave is reflected.
  • the reflected wave signal when the transmitted ultrasonic pulse is reflected by the moving blood flow or the surface of the heart wall depends on the velocity component of the moving object in the ultrasonic transmission direction due to the Doppler effect. And undergoes a frequency shift.
  • the ultrasound probe 1 according to the first embodiment is an ultrasound probe capable of scanning the subject P in two dimensions with ultrasound and scanning the subject P in three dimensions.
  • the ultrasonic probe 1 according to the first embodiment swings a plurality of ultrasonic transducers that scan the subject P in two dimensions at a predetermined angle (swing angle), thereby This is a mechanical scan probe that scans the specimen P in three dimensions.
  • the ultrasonic probe 1 according to the first embodiment is a two-dimensional ultrasonic wave capable of ultrasonically scanning the subject P in three dimensions by arranging a plurality of ultrasonic transducers in a matrix. It is a probe.
  • the two-dimensional ultrasonic probe can also scan the subject P two-dimensionally by focusing and transmitting ultrasonic waves.
  • the input device 3 is connected to the device main body 10 via an interface unit 19 described later.
  • the input device 3 includes a mouse, a keyboard, a button, a panel switch, a touch command screen, a foot switch, a trackball, and the like, accepts various setting requests from an operator of the ultrasonic diagnostic apparatus, and accepts it to the apparatus main body 10. Transfer various setting requests.
  • the monitor 2 displays a GUI (Graphical User Interface) for an operator of the ultrasonic diagnostic apparatus to input various setting requests using the input device 3, and displays an ultrasonic image generated in the apparatus main body 10. To do.
  • GUI Graphic User Interface
  • the monitor 2 according to the first embodiment is a stereoscopically visible monitor (hereinafter, stereoscopic display monitor).
  • stereoscopic display monitor a stereoscopically visible monitor
  • the stereoscopic display monitor will be described.
  • an apparatus that outputs an image to the general-purpose monitor needs to display two parallax images that can be viewed stereoscopically by the observer in parallel by the parallel method or the intersection method. is there.
  • an apparatus that outputs an image to a general-purpose monitor uses an after-color method with an eyeglass that has a red cellophane attached to the left eye portion and a blue cellophane attached to the right eye portion. It is necessary to display a stereoscopically viewable image.
  • a stereoscopic display monitor there is a monitor (hereinafter referred to as a “two-parallax monitor”) that enables stereoscopic viewing by binocular parallax by displaying a two-parallax image (also referred to as a binocular parallax image).
  • the two-parallax monitor include a device that performs stereoscopic display using a shutter method, a device that performs stereoscopic display using a polarized glasses method, and a device that performs stereoscopic display using a parallax barrier method.
  • a stereoscopic display monitor that allows a viewer to stereoscopically view a multi-parallax image such as a 9-parallax image with the naked eye by using a light controller such as a lenticular lens.
  • a light controller such as a lenticular lens.
  • Such a stereoscopic display monitor enables stereoscopic viewing based on binocular parallax, and also enables stereoscopic viewing based on motion parallax that also changes the image observed in accordance with the viewpoint movement of the observer.
  • FIG. 2 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display with nine parallax images.
  • a light beam controller is arranged on the front surface of a flat display surface 200 such as a liquid crystal panel.
  • a vertical lenticular sheet 201 whose optical aperture extends in the vertical direction is attached to the front surface of the display surface 200 as a light beam controller.
  • the display surface 200 has an aspect ratio of 3: 1 and pixels in which three sub-pixels of red (R), green (G), and blue (B) are arranged in the vertical direction.
  • 202 are arranged in a matrix.
  • the stereoscopic display monitor shown in FIG. 2 allocates and outputs nine pixels at the same position in nine parallax images to nine columns of pixels 202.
  • the nine columns of pixels 202 constitute a unit pixel group 203 that simultaneously displays nine images with different viewpoint positions.
  • the nine-parallax images simultaneously output as the unit pixel group 203 on the display surface 200 are emitted as parallel light by, for example, an LED (Light Emitting Diode) backlight, and further emitted in multiple directions by the vertical lenticular sheet 201.
  • the light incident on the right eye and the left eye of the observer changes in conjunction with the position of the observer (viewpoint position).
  • the observer can visually recognize the imaging target in three positions at each of the nine positions illustrated in FIG. 2, for example.
  • the observer can view stereoscopically in a state of facing the object to be photographed at the position “5” shown in FIG.
  • the stereoscopic display monitor described with reference to FIG. 2 is referred to as a 9-parallax monitor.
  • the first embodiment is applicable regardless of whether the monitor 2 is a two-parallax monitor or a nine-parallax monitor.
  • the monitor 2 is a 9-parallax monitor.
  • the external device 4 is a device connected to the device main body 10 via an interface unit 19 described later.
  • the external device 4 is a computer-readable storage device such as a hard disk, flexible disk, CD-ROM (Compact Disk Read Only Memory), MO (Magneto-Optical disk), DVD (Digital Versatile Disk).
  • the external device 4 is a PC (Personal Computer) or tablet PC operated by a doctor or laboratory technician working in the hospital, a printer connected to a terminal device such as a PDA (Personal Digital Assistant), a mobile phone, or the above It is a general-purpose monitor.
  • the apparatus main body 10 is an apparatus that generates ultrasonic image data based on the reflected wave received by the ultrasonic probe 1. Specifically, the apparatus body 10 according to the first embodiment generates three-dimensional ultrasonic image data (hereinafter referred to as volume data) based on the three-dimensional reflected wave data received by the ultrasonic probe 1. It can be generated.
  • volume data three-dimensional ultrasonic image data
  • the apparatus main body 10 includes a transmission / reception unit 11, a B-mode processing unit 12, a Doppler processing unit 13, a two-dimensional data processing unit 14, an image memory 15, an internal storage unit 16, a volume A data processing unit 17, a control unit 18, and an interface unit 19 are included.
  • the transmission / reception unit 11 includes a trigger generation circuit, a delay circuit, a pulsar circuit, and the like, and supplies a drive signal to the ultrasonic probe 1.
  • the pulsar circuit repeatedly generates rate pulses for forming transmission ultrasonic waves at a predetermined rate frequency.
  • the delay circuit also sets the delay time for each piezoelectric vibrator necessary for determining the transmission directivity by focusing the ultrasonic wave generated from the ultrasonic probe 1 into a beam shape, and for each rate pulse generated by the pulser circuit. Give to.
  • the trigger generation circuit applies a drive signal (drive pulse) to the ultrasonic probe 1 at a timing based on the rate pulse. In other words, the delay circuit arbitrarily adjusts the transmission direction from the piezoelectric vibrator surface by changing the delay time given to each rate pulse.
  • the transmission / reception unit 11 has a function capable of instantaneously changing a transmission frequency, a transmission drive voltage, and the like in order to execute a predetermined scan sequence based on an instruction from the control unit 18 described later.
  • the change of the transmission drive voltage is realized by a linear amplifier type transmission circuit capable of instantaneously switching its value or a mechanism for electrically switching a plurality of power supply units.
  • the transmission / reception unit 11 includes an amplifier circuit, an A / D converter, an adder, and the like, and performs various processes on the reflected wave signal received by the ultrasonic probe 1 to generate reflected wave data.
  • the amplifier circuit amplifies the reflected wave signal for each channel and performs gain correction processing.
  • the A / D converter performs A / D conversion on the gain-corrected reflected wave signal and gives a delay time necessary for determining reception directivity to the digital data.
  • the adder performs an addition process of the reflected wave signal processed by the A / D converter to generate reflected wave data. By the addition processing of the adder, the reflection component from the direction corresponding to the reception directivity of the reflected wave signal is emphasized.
  • the transmission / reception unit 11 controls transmission directivity and reception directivity in transmission / reception of ultrasonic waves.
  • the transmitting / receiving unit 11 transmits a three-dimensional ultrasonic beam from the ultrasonic probe 1 to the subject P, and from the three-dimensional reflected wave signal received by the ultrasonic probe 1. Three-dimensional reflected wave data is generated.
  • the B-mode processing unit 12 receives the reflected wave data from the transmission / reception unit 11, performs logarithmic amplification, envelope detection processing, and the like, and generates data (B-mode data) in which the signal intensity is expressed by brightness. .
  • the Doppler processing unit 13 performs frequency analysis on velocity information from the reflected wave data received from the transmission / reception unit 11, extracts blood flow, tissue, and contrast agent echo components due to the Doppler effect, and moving body information such as average velocity, dispersion, and power. Is generated for multiple points (Doppler data).
  • the B-mode processing unit 12 and the Doppler processing unit 13 can process both two-dimensional reflected wave data and three-dimensional reflected wave data. That is, the B-mode processing unit 12 generates two-dimensional B-mode data from the two-dimensional reflected wave data, and generates three-dimensional B-mode data from the three-dimensional reflected wave data.
  • the Doppler processing unit 13 generates two-dimensional Doppler data from the two-dimensional reflected wave data, and generates three-dimensional Doppler data from the three-dimensional reflected wave data.
  • the two-dimensional data processing unit 14 generates “ultrasound image data for display” from the two-dimensional data generated by the B-mode processing unit 12 and the Doppler processing unit 13. That is, the two-dimensional data processing unit 14 generates two-dimensional B-mode image data in which the intensity of the reflected wave is expressed by luminance from the two-dimensional B-mode data generated by the B-mode processing unit 12.
  • the two-dimensional data processing unit 14 is a two-dimensional color as an average velocity image, a dispersed image, a power image, or a combination image representing moving body information from the two-dimensional Doppler data generated by the Doppler processing unit 13. Generate Doppler image data.
  • the two-dimensional data processing unit 14 converts (scan converts) the scanning line signal sequence of the ultrasonic scan into a scanning line signal sequence of a video format represented by a television or the like, thereby obtaining two-dimensional B-mode image data.
  • “Ultrasonic image data for display” is generated from the two-dimensional color Doppler image data and output to the monitor 2.
  • the two-dimensional data processing unit 14 generates “ultrasound image data for display” by performing coordinate conversion in accordance with the ultrasonic scanning mode by the ultrasonic probe 1.
  • the two-dimensional data processing unit 14 generates a composite image in which character information, scales, body marks, and the like of various parameters are combined with display ultrasonic image data, and outputs the composite image to the monitor 2 as a video signal.
  • an image composed of “character information of various parameters, scales, body marks, etc.” synthesized with the ultrasonic image for display is referred to as an “information image”.
  • the image memory 15 is a memory that stores the image data generated by the two-dimensional data processing unit 14.
  • the image memory 15 can also store data generated by the B-mode processing unit 12 and the Doppler processing unit 13.
  • the internal storage unit 16 stores a control program for performing ultrasonic transmission / reception, image processing and display processing, diagnostic information (for example, patient ID, doctor's findings, etc.), various data such as a diagnostic protocol and various body marks. To do.
  • the internal storage unit 16 is also used for storing image data stored in the image memory 15 as necessary.
  • the volume data processing unit 17 generates ultrasonic image data for display from the three-dimensional data generated by the B mode processing unit 12 and the Doppler processing unit 13. As shown in FIG. 1, the volume data processing unit 17 includes a volume data generation unit 17a, a rendering processing unit 17b, and a synthesis unit 17c.
  • the volume data generation unit 17a generates three-dimensional B-mode image data in which the intensity of the reflected wave is represented by luminance from the three-dimensional B-mode data generated by the B-mode processing unit 12.
  • the volume data generation unit 17a is a three-dimensional color Doppler as an average velocity image, a dispersed image, a power image, or a combination image representing moving body information from the three-dimensional Doppler data generated by the Doppler processing unit 13. Generate image data.
  • the volume data generation unit 17a generates “volume data” that is three-dimensional ultrasonic image data by performing coordinate conversion according to the ultrasonic scanning mode of the ultrasonic probe 1.
  • the rendering processing unit 17b is a processing unit that performs rendering processing on the volume data in order to generate various images (two-dimensional images) for displaying the volume data on the monitor 2.
  • the rendering processing performed by the rendering processing unit 17b includes processing for reconstructing an MPR image from volume data by performing a cross-section reconstruction method (MPR: Multi Planer Reconstruction).
  • MPR Multi Planer Reconstruction
  • the rendering processing performed by the rendering processing unit 17b includes processing for performing “Curved MPR” on volume data and processing for performing “Intensity Projection” on volume data.
  • the rendering processing performed by the rendering processing unit 17b includes volume rendering processing for generating a two-dimensional image reflecting three-dimensional information.
  • the rendering processing unit 17b performs a rendering process from a plurality of viewpoints on volume data that is three-dimensional ultrasound image data, and thereby a parallax image group that is a parallax image having a predetermined number of parallaxes. Is generated. Specifically, the rendering processing unit 17b generates a parallax image group by performing volume rendering processing on the volume data. More specifically, since the monitor 2 is a 9-parallax monitor, the rendering processing unit 17b performs 9-parallax images, which are 9 parallax images, by performing volume rendering processing from 9 viewpoints on the volume data. Generate.
  • FIG. 3 is a diagram for explaining an example of the volume rendering process according to the first embodiment.
  • the rendering processing unit 17b accepts the parallel projection method as the rendering condition, and further, the reference viewpoint position (5) and the parallax angle “1”. ”Degree”. In such a case, the rendering processing unit 17b translates the viewpoint position from (1) to (9) so that the parallax angle is every “1 degree”, and uses the parallel projection method to change the parallax angle (between the gaze directions). Nine parallax images with different angles are generated by 1 degree.
  • the rendering processing unit 17b sets a light source that emits parallel light rays from infinity along the line-of-sight direction.
  • the rendering processing unit 17b accepts a perspective projection method as a rendering condition, and further, the reference viewpoint position (5) and the parallax angle “1”. ”Degree”. In such a case, the rendering processing unit 17b rotates the perspective position from (1) to (9) so that the parallax angle is “1 degree” around the center (center of gravity) of the volume data, and sees through.
  • the rendering processing unit 17b sets a point light source or a surface light source that radiates light three-dimensionally around the line-of-sight direction at each viewpoint.
  • the viewpoints (1) to (9) may be moved in parallel depending on the rendering conditions.
  • the rendering processing unit 17b radiates light two-dimensionally radially around the line-of-sight direction with respect to the vertical direction of the displayed volume rendering image, and with respect to the horizontal direction of the displayed volume rendering image.
  • the volume rendering process using both the parallel projection method and the perspective projection method may be performed by setting a light source that emits parallel light rays from infinity along the line-of-sight direction.
  • the nine parallax images generated in this way are a group of parallax images. That is, the parallax image group is an ultrasonic image group for stereoscopic display generated from volume data.
  • the nine parallax images are converted into intermediate images arranged in a predetermined format (for example, a lattice shape) by the control unit 18 to be described later, and are output to the monitor 2 as a stereoscopic display monitor.
  • the monitor 2 Under the control of the control unit 18, the monitor 2 displays a parallax image group generated by the rendering processing unit 17 b, thereby displaying a stereoscopic image that is stereoscopically recognized by the observer (operator of the ultrasonic diagnostic apparatus). indicate.
  • the volume data processing unit 17 displays “information image” indicating information (character information, scales, body marks, etc.) other than the parallax image group in the display parallax image group.
  • a combined image group is generated and output to the monitor 2 as a video signal.
  • volume data processing unit 17 is a processing unit installed in the volume data processing unit 17 in order to generate a composite image group.
  • the processing of the combining unit 17c will be described in detail later.
  • Various image data generated by the processing of the volume data processing unit 17 is stored in the image memory 15 or the internal storage unit 16.
  • the control unit 18 controls the entire processing of the ultrasonic diagnostic apparatus. Specifically, the control unit 18 is based on various setting requests input from the operator via the input device 3 and various control programs and various data read from the internal storage unit 16. Controls the processing of the processing unit 12, Doppler processing unit 13, two-dimensional data processing unit 14, and volume data processing unit 17. Further, the control unit 18 controls the monitor 2 to display the ultrasonic image data for display stored in the image memory 15 and the internal storage unit 16. Further, the control unit 18 performs control so that the ultrasonic image data for display is output to the external device 4 via the interface unit 19 and the network 100.
  • the interface unit 19 is an interface to the input device 3, the network 100, and the external device 4. Various setting information and various instructions from the operator received by the input device 3 are transferred to the control unit 18 by the interface unit 19. The image data output by the control of the control unit 18 is output from the interface unit 19 to the external device 4 via the network 100.
  • the overall configuration of the ultrasonic diagnostic apparatus according to the first embodiment has been described above.
  • the ultrasonic diagnostic apparatus according to the first embodiment generates volume data that is three-dimensional ultrasonic image data, and generates a parallax image group from the generated ultrasonic volume data.
  • the ultrasound diagnostic apparatus according to the first embodiment displays a stereoscopic image that is stereoscopically recognized by the observer by displaying a parallax image group on the monitor 2.
  • the image group that is actually displayed on the monitor 2 is a composite image group obtained by combining each of the parallax images constituting the parallax image group and the information image.
  • the sense of depth of the stereoscopic image recognized by the observer by referring to the monitor 2 which is a stereoscopic display monitor is reduced due to the factors described below.
  • FIG. 4 is a diagram for explaining the problems of the prior art.
  • the problem described below is not only a stereoscopic image recognized by a parallax image group based on volume data generated by an ultrasonic diagnostic apparatus, but also a volume generated by a medical image diagnostic apparatus such as an X-ray CT apparatus or an MRI apparatus.
  • the same problem arises in a stereoscopic image recognized by a parallax image group based on data.
  • the background color of medical images is often black.
  • the background color of the information image displayed together with the medical image is also generally black. That is, the background color of each of the parallax image group and the information image is the same black. Therefore, as shown in the right diagram of FIG. 4, the observer recognizes a stereoscopic image together with information such as characters in a black background on the surface of the monitor 2 (hereinafter referred to as the monitor surface). .
  • the parallax image group is a three-dimensional object having a depth from a position protruding from the monitor surface to the viewer side to a position behind the monitor surface (see A in the figure). It is an image group generated so as to be recognized by an observer as an image.
  • the stereoscopic image actually recognized by the observer is from the position protruding from the monitor surface to the observer side to the position of the monitor surface (see a in the figure).
  • the stereoscopic image has only depth. That is, since the observer recognizes the position A of the stereoscopic image as the position a, the depth of the stereoscopic image is compressed as shown in FIG.
  • the control unit 18 of the ultrasonic diagnostic apparatus avoids a reduction in the sense of depth of a stereoscopic medical image by performing the control described below.
  • the control unit 18 can identify the first region displaying the parallax image group on the monitor 2 and the second region displaying the information image indicating information other than the parallax image group on the monitor 2.
  • a composite image group of information images are controlled to be displayed on the monitor 2.
  • the control unit 18 controls the monitor 2 to display a composite image group in which the background color of the first area and the background color of the second area are different.
  • control unit 18 uses the background color of the first area and the background color of the second area as a composite image group of the parallax image group and the information image that can identify the first area and the second area. Control is performed so that the composition unit 17c generates a composite image group having different colors.
  • 5A and 5B are diagrams for explaining an example of the composite image group according to the first embodiment.
  • 6A and 6B are diagrams for explaining an example of each composite image group according to the first embodiment.
  • the control unit 18 performs control so that a composite image group in which the background color of the first region is black and the background color of the second region is gray is displayed on the monitor 2.
  • the combining unit 17c generates a combined image of the parallax image U10 whose background color is black and the information image O10 whose background color is gray, as shown in FIG. 5A.
  • the parallax image U10 illustrated in FIG. 5A indicates one parallax image among nine parallax images in which the parallax angle between the images is, for example, “1 degree”.
  • Nine combined images of the nine parallax images whose background color is black and the information image O10 whose background color is gray are generated.
  • the composition unit 17c sets the background color of each of the nine parallax images displayed in the first area to black.
  • the synthesizing unit 17c uses the nine parallax images generated by the rendering processing unit 17b as they are for subsequent processing.
  • the synthesis unit 17c sets the background color of the nine parallax images generated by the rendering processing unit 17b to black and uses it for subsequent processing.
  • the composition unit 17c generates an information image in which information such as character information is arranged in the second area set so as to surround the first area, and the color of the background portion other than the information is gray. Then, the synthesis unit 17c generates a synthesized image group including nine synthesized images by synthesizing each of the nine parallax images whose background color is black and the information image whose background color is gray.
  • the control unit 18 converts the composite image group into the above-described intermediate image and displays it on the monitor 2.
  • the observer of the monitor 2 recognizes character information drawn on the information image O10 with a gray background color.
  • the observer of the monitor 2 recognizes the stereoscopic image displayed by the parallax image group with a black background color. Since the observer recognizes that gray is closer to itself than black, the depth of the stereoscopic image whose background color is black is maintained.
  • the composite image group generated by the composite unit 17c is not limited to the composite image group illustrated in FIGS. 5A and 5B.
  • the combining unit 17c keeps the background color of the information image black and sets the background color of the parallax image group to the complementary color “B” of the parallax image group as shown in FIG. 6A. CB "may be used.
  • the background color of the parallax image group as a complementary color, the observer can identify the stereoscopic image and the information image.
  • the composition unit 17 c further sets the background color of the parallax image group as the complementary color “CB” of the color “B” of the parallax image group as shown in FIG. It is also possible to use a composite image group in which the outline of the image is highlighted in black. By using the background color of the parallax image group as a complementary color and the outline of the parallax image group as black, the observer can recognize that the outline of the stereoscopic image in the first region is located behind the monitor surface, A stereoscopic image and an information image can be identified.
  • 6A and 6B may be a case where the background color of the second area in which the information image is displayed is generated as an intermediate color between “B” and “CB”. good.
  • FIG. 7 is a flowchart for explaining processing of the ultrasonic diagnostic apparatus according to the first embodiment.
  • processing after volume data is generated and the generation conditions of the parallax image group such as the viewpoint position, the number of parallaxes, and the parallax angle for the volume data are set will be described.
  • the ultrasonic diagnostic apparatus determines whether a stereoscopic image display request has been received from the operator via the input device 3 (step S ⁇ b> 101).
  • the ultrasonic diagnostic apparatus stands by until a display request is received.
  • Step S101 when a display request is received (Yes at Step S101), the rendering processing unit 17b generates a parallax image group with a black background color (Step S102), and the composition unit 17c An information image whose color is gray is generated (step S103). Specifically, the composition unit 17c generates an information image whose background color is gray according to the shape of the second region.
  • the composition unit 17c generates a composite image group of the parallax image group and the information image in accordance with the size of the first area (step S104). Then, the monitor 2 displays the composite image group under the control of the control unit 18 (step S105), and ends the process.
  • the control unit 18 displays the first area in which the parallax image group is displayed on the monitor 2 and the information image indicating information other than the parallax image group on the monitor 2.
  • a “composite image group of a parallax image group and an information image” that allows the region to be identified is displayed. That is, in the first embodiment, the control unit 18 uses the background color of the first region and the second region as a composite image group of the parallax image group and the information image that can identify the first region and the second region.
  • the composite unit 17 c is controlled so as to generate a composite image group having a color different from the background color of the background color, and is displayed on the monitor 2.
  • control unit 18 is a composite image group of a parallax image group and an information image that can identify the first area and the second area, and the background color of the first area is black,
  • the composite image group which is gray and background color is controlled to be generated by the combining unit 17c and displayed on the monitor 2.
  • the observer may feel that the information image displayed in the second area is located on the monitor surface and feel that the background of the stereoscopic image displayed in the first area is behind the monitor surface. it can. Therefore, in the first embodiment, it is possible to avoid a reduction in the sense of depth of a stereoscopic medical image.
  • combination part 17c which concerns on 1st Embodiment is performed by the two-dimensional data processing part 14 may be sufficient.
  • the ultrasonic diagnostic apparatus according to the second embodiment is configured in the same manner as the ultrasonic diagnostic apparatus according to the first embodiment described with reference to FIG. 1, but the control process for the synthesis unit 17 c of the control unit 18 is performed. Different from the first embodiment. Hereinafter, this will be mainly described.
  • the control unit 18 controls the monitor 2 to display a composite image group in which a frame line surrounding the boundary between the first area and the second area is drawn.
  • 8A and 8B are diagrams for explaining a composite image group according to the second embodiment.
  • composition unit 17c under the control of the control unit 18, draws a frame line in which the boundary between the first region and the second region is surrounded by a white double line as shown in FIG. 8A. Generate a group of images.
  • the synthesizing unit 17c uses the nine parallax images generated by the rendering processing unit 17b as they are for subsequent processing.
  • the combining unit 17c generates an information image in which character information and the like are arranged in the second region and the background portion other than the character information has a black color as in the conventional case.
  • the synthesizing unit 17c synthesizes each of the nine parallax images and the information image, and further draws a white double line surrounding the outline of each of the nine parallax images, thereby forming the nine synthesized images.
  • a composite image group is generated.
  • the control unit 18 converts the composite image group into an intermediate image and displays it on the monitor 2. Thereby, as shown in FIG. 8B, the observer of the monitor 2 recognizes character information drawn on the information image divided by the frame line. Then, as shown in FIG. 8B, the observer of the monitor 2 recognizes the stereoscopic image divided by the frame line with a black background color. Since the observer can identify the information image and the stereoscopic image by the frame line, the depth of the stereoscopic image is maintained.
  • the identification effect by such a frame line is called a sticking effect or a frame effect.
  • a sticking effect or a frame effect.
  • the object to be reproduced in three dimensions is divided by the image frame (frame line)
  • the stereoscopic effect may be suppressed and the object may appear to be deformed.
  • the control unit 18 sets the image frame (frame line) so that the monitor display surface and the image frame (frame line) appear at different positions, weakens the presence of the frame, and uncertains the display surface position. It is also possible to extend the screen size so as to be in a proper state, or to perform control based on the aerial image / aerial image method.
  • an aerial image is an image in which a display image is formed in the air. When the aerial image is observed, the position of the display surface becomes indeterminate and the reproduction space is not fixed to the display surface. is there.
  • An aerial image is an image formed by a multilayer display surface, image plane movement, or the like. When an aerial image is observed, the same effect as that obtained when an aerial image is observed can be obtained.
  • FIG. 9 is a flowchart for explaining processing of the ultrasonic diagnostic apparatus according to the second embodiment.
  • processing after volume data is generated and the generation conditions of the parallax image group such as the viewpoint position, the number of parallaxes, and the parallax angle for the volume data are set will be described.
  • the ultrasonic diagnostic apparatus determines whether or not a stereoscopic image display request has been received from the operator via the input device 3 (step S201).
  • the ultrasonic diagnostic apparatus waits until a display request is received.
  • Step S202 when a display request is received (Yes at Step S202), the rendering processing unit 17b generates a parallax image group with a black background color (Step S202) under the control of the control unit 18, and the composition unit 17c An information image with a black color is generated (step S203). Specifically, the composition unit 17c generates an information image with a black background color according to the shape of the second region.
  • the synthesizing unit 17c generates a combined image group of the parallax image group that matches the size of the first region and each of the parallax image group in which the border is drawn at the boundary and the information image (step S204). Then, the monitor 2 displays the composite image group under the control of the control unit 18 (step S205), and ends the process.
  • control unit 18 controls the combining unit 17c to generate a combined image group in which a frame surrounding the boundary between the first region and the second region is drawn. And displayed on the monitor 2.
  • the observer can distinguish the first area and the second area with a line. That is, in the second embodiment, even when the background color is the same color, it is possible to prevent the observer from recognizing that the stereoscopic image and the information image are at the same depth position. Therefore, also in the second embodiment, it is possible to avoid a reduction in the sense of depth of a stereoscopic medical image.
  • combination part 17c which concerns on 2nd Embodiment is performed by the two-dimensional data processing part 14 may be sufficient.
  • the observed image may be output as two-dimensional data.
  • the stereoscopic image is an image recognized by displaying a plurality of parallax images.
  • the output image looks double or is blurred. That is, a plurality of parallax images are not preferable as output images. Therefore, in order to output for printing or output for observation on a general-purpose monitor, an image on which a parallax image group is not superimposed is necessary.
  • control unit 18 performs control so that image data of a predetermined viewpoint is extracted from the parallax image group recognized as a stereoscopic image and output to the external device 4.
  • the output control performed by the control unit 18 includes the following two. That is, in the first output control, the control unit 18 extracts parallax image data from viewpoints positioned at the center of all viewpoints used when generating a parallax image group as image data of a predetermined viewpoint. Or in 2nd output control, the control part 18 extracts the parallax image applicable to the stereo image which the observer who refers the monitor 2 observes as image data of a predetermined viewpoint.
  • control unit 18 selects the corresponding image data and outputs it to the external device 4.
  • control unit 18 causes the rendering processing unit 17 b to generate the image data of the predetermined viewpoint and output it to the external device 4.
  • FIGS. 10A, 10B, and 10C are diagrams for explaining a control unit according to the third embodiment.
  • the control unit 18 selects the parallax image of the viewpoint S at the center position of all viewpoints from among the nine parallax images recognized as a stereoscopic image.
  • the parallax image data of the viewpoint S is extracted and output to the external device 4.
  • the extraction process executed by the control unit 18 is an existing parallax. It can be executed by selecting from a group of images.
  • the number of parallaxes is an even number as in the case where the monitor 2 is a two-parallax monitor, there is no parallax image of the viewpoint at the center position of all viewpoints.
  • the control unit 18 sets the viewpoint S between the viewpoints S1 and S2 adjacent to the center position of all viewpoints. Then, as illustrated in FIG. 10B, the control unit 18 controls the rendering processing unit 17b to generate a parallax image from the viewpoint S by performing volume rendering processing from the volume data. Then, the control unit 18 outputs the newly generated parallax image data of the viewpoint S to the external device 4.
  • the control unit 18 When performing the second output control, the control unit 18 observes the monitor 2 as shown in FIG. 10C in order to specify the parallax image corresponding to the stereoscopic image observed by the observer who refers to the monitor 2. Acquire the gaze direction of the person. For example, the control unit 18 acquires the line-of-sight direction of the observer with respect to the monitor 2 using a camera having a face recognition function attached to the monitor 2. For example, the camera tracks (tracks) the face of the observer in the real space by the face recognition function, and further determines the line-of-sight direction with respect to the monitor 2 of the observer from the recognized face direction. The line-of-sight direction acquired by the camera is transferred to the control unit 18.
  • the control part 18 extracts the parallax image applicable to an observer's gaze direction from a parallax image group.
  • the data of the corresponding parallax image is selected and the external device 4 is selected. Output to.
  • the control unit 18 sets the viewpoint S ′ for the volume data. Then, the control unit 18 controls the rendering processing unit 17b so as to generate a parallax image from the newly set viewpoint S 'by performing volume rendering processing from the volume data. Then, the control unit 18 outputs the newly generated parallax image data of the viewpoint S ′ to the external device 4.
  • control unit 18 may also be a case where the extraction target of output parallax image data is the composite image group described in the first embodiment or the second embodiment. good.
  • the control unit 18 causes the rendering processing unit 17b to newly generate a parallax image of the predetermined viewpoint, and further causes the synthesis unit 17c to generate the parallax image of the predetermined viewpoint and the information image. A new composite image is generated.
  • FIG. 11 is a flowchart for explaining processing of the ultrasonic diagnostic apparatus according to the third embodiment.
  • the ultrasonic diagnostic apparatus determines whether or not an output request for general-purpose monitors has been received from the operator via the input device 3 (step S301).
  • the ultrasonic diagnostic apparatus stands by until an output request is received.
  • Step S301 when an output request is received (Yes at Step S301), the control unit 18 determines whether there is data corresponding to the image data for output (Step S302). Here, when it exists (Yes at Step S302), the control unit 18 selects data corresponding to the image data for output (Step S303). When the composite image group is an extraction target, the data selected in step S303 is composite image data.
  • Step S304 the rendering processing unit 17b generates data corresponding to the image data for output under the control of the control unit 18. If the composite image group is an extraction target, in step S304, new composite image data is generated by the rendering processing unit 17b and the composite unit 17c.
  • control unit 18 After the process of step S303 or step S304, the control unit 18 outputs the image data for output to the external device 4 (step S305), and ends the process.
  • control unit 18 performs control so that image data of a predetermined viewpoint is extracted from the parallax image group recognized as a stereoscopic image and output to the external device 4. Therefore, in the third embodiment, a parallax image group from multiple viewpoints can be output instead of an image from one viewpoint.
  • the image data of the predetermined viewpoint is one parallax image or one composite image at one viewpoint.
  • the image data output to the external device 4 by the processing of the control unit 18 according to the third embodiment may be a plurality of parallax images or a plurality of synthesized images. That is, the third embodiment is not limited to a case where the predetermined viewpoint is composed of one viewpoint, but may be a case where the predetermined viewpoint is composed of a plurality of viewpoints.
  • the monitor 2 is a 9-parallax monitor and the monitor connected to the external device 4 is a 9-parallax monitor.
  • the control unit 18 outputs nine parallax images and nine synthesized images displayed as a stereoscopic image on the monitor 2 to the external device 4 as image data of a predetermined viewpoint.
  • the monitor 2 is a 9-parallax monitor
  • the monitor connected to the external device 4 is a 5-parallax monitor that displays a stereoscopic image by displaying 5 parallax images.
  • the control unit 18 outputs five image data selected from nine parallax images and nine composite images displayed as a stereoscopic image on the monitor 2 to the external device 4 as image data of a predetermined viewpoint.
  • the control unit 18 outputs a parallax image group from five viewpoints centered on the viewpoint S illustrated in FIG. 10A to the external device 4 as image data of a predetermined viewpoint.
  • the control unit 18 outputs a parallax image group from five viewpoints centered on the viewpoint S ′ illustrated in FIG. 10B to the external device 4 as image data of a predetermined viewpoint.
  • the control unit 18 causes the volume data processing unit 17 to newly generate a five-parallax image or five composite images displayed as a stereoscopic image on the five-parallax monitor, and then outputs the generated image to the external device 4.
  • the control unit 18 outputs two pieces of image data selected from nine parallax images displayed as a stereoscopic image on the monitor 2 and nine composite images to the external device 4 as image data of a predetermined viewpoint.
  • the control unit 18 outputs the parallax image from the viewpoint S illustrated in FIG. 10A and the parallax image from the viewpoint positioned on the right side of the viewpoint S to the external device 4 as image data of a predetermined viewpoint.
  • control unit 18 causes the volume data processing unit 17 to newly generate a two-parallax image or two composite images displayed as a stereoscopic image on the two-parallax monitor, and then outputs the two-parallax image to the external device 4.
  • the monitor 2 is a 9-parallax monitor
  • the monitor connected to the external device 4 is an 18-parallax monitor that displays a stereoscopic image by displaying 18 parallax images.
  • the control unit 18 selects nine parallax images or nine composite images displayed as a stereoscopic image on the monitor 2. Further, the control unit 18 newly sets the positions of nine viewpoints in addition to the viewpoints used for generating nine parallax images and nine composite images displayed as a stereoscopic image on the monitor 2. Then, the control unit 18 causes the volume data processing unit 17 to generate nine parallax images and nine synthesized images using the nine newly set viewpoints.
  • control unit 18 outputs 18 parallax images and 18 synthesized images to the external device 4 as image data of a predetermined viewpoint.
  • the control unit 18 performs the above-described processing by acquiring information about the stereoscopic viewing style of the monitor connected to the external device 4 from the external device 4 from the external device 4 or the operator of the external device 4.
  • the monitor connected to the external device 4 is a 9-parallax monitor and the reference viewpoint position is received from the operator of the external device 4.
  • the control unit 18 outputs these image data to the external device 4 as image data of a predetermined viewpoint.
  • the control unit 18 displays the nine parallax images centered on the reference viewpoint position received from the operator of the external device 4 and the nine synthesized images.
  • the image is output to the external device 4.
  • the information received from the operator of the external device 4 may include information on the parallax angle in addition to the reference viewpoint position.
  • control unit 18 uses these image data as a predetermined viewpoint. Output as image data. If the image data that matches the conditions received from the operator of the external apparatus 4 has not been generated in the apparatus main body 10, the control section 18 causes the volume data processing section 17 to generate the corresponding image data, and 4 is output.
  • the monitor 2 is a 9-parallax monitor has been described.
  • the first to third embodiments described above can be applied even when the monitor 2 is a two-parallax monitor.
  • the first to third embodiments described above the case where the image displayed on the monitor 2 is a volume rendering image has been described.
  • the first to third embodiments described above are applicable even when the image displayed on the monitor 2 is an MPR image generated by MPR from volume data.
  • the ultrasonic diagnostic apparatus which is a medical image diagnostic apparatus
  • a composite image group for preventing a feeling of depth from being displayed or data for outputting a stereoscopic image are displayed.
  • the case of extracting the file has been described.
  • the processing described in the first to third embodiments may be executed in a medical image diagnostic apparatus capable of generating volume data such as an X-ray CT apparatus or an MRI apparatus. .
  • the processes described in the first to third embodiments may be executed by an image processing apparatus installed independently of the medical image diagnostic apparatus.
  • the image processing apparatus having the functions of the volume data processing unit 17 and the control unit 18 shown in FIG. 1 manages a database of PACS (Picture Archiving and Communication Systems), which is a system for managing various medical image data.
  • the volume data which is three-dimensional medical image data, is received from a database or the like of an electronic medical record system that manages an electronic medical record to which a medical image is attached, and the processing described in the first to third embodiments is performed. It may be the case.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

 実施形態の医用画像診断装置としての超音波診断装置は、レンダリング処理部(17b)と、モニタ(2)と、制御部(18)とを備える。レンダリング処理部(17b)は、3次元の医用画像データであるボリュームデータに対して複数視点からレンダリング処理を行なうことで、所定視差数の視差画像である視差画像群を生成する。モニタ(2)は、視差画像群を表示することで、観察者により立体的に認識される立体画像を表示する。制御部(18)は、モニタ(2)において視差画像群を表示する第1領域と、モニタ(2)において視差画像群以外の情報を示す情報画像を表示する第2領域とが識別可能となる視差画像群と情報画像との合成画像群がモニタ(2)に表示されるように制御する。

Description

医用画像診断装置及び画像処理装置
 本発明の実施形態は、医用画像診断装置及び画像処理装置に関する。
 近年、両眼視差を用いた投影方法により、人間が3次元空間として認識できる立体画像を表示するディスプレイ装置が実用化されている。かかるディスプレイ装置としては、例えば、レンチキュラーレンズ等の光線制御子を用いて、複数の視点から撮影された多視差画像(例えば、9つの視差画像)を表示することで、観察者が裸眼にて立体視できる立体画像を表示するモニタ等がある。
 一方、超音波診断装置やX線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置等の医用画像診断装置では、3次元の医用画像データ(ボリュームデータ)を生成可能な装置が実用化されている。従来、かかる医用画像診断装置により生成されたボリュームデータは、種々の画像処理(レンダリング処理)により2次元画像(レンダリング画像)とされ、汎用モニタ上にて2次元表示される。
 例えば、医用画像診断装置により生成されたボリュームデータは、ボリュームレンダリングにより3次元の情報を反映した2次元画像(ボリュームレンダリング画像)とされ、汎用モニタ上にて2次元表示される。しかし、汎用モニタにて2次元の表示面上に表示されるボリュームレンダリング画像には、奥行き感が不足し、観察者は、自身が着目する部位が手前にあるものなのか奥にあるものか区別がつかないことがある。
 そこで、医用画像診断装置により生成されたボリュームデータに対して多視点からボリュームレンダリングすることで生成されたボリュームレンダリング画像を、立体視可能なモニタにて立体的に表示させることが検討されている。しかし、医用画像は、コントラストのある画質が求められるため、一般的には、医用画像の背景色を黒色にすることが多い。一方、医用画像とともに表示される文字等の情報の背景色も、一般的には、黒色である。このため、立体視される医用画像の奥行き感は、低減してしまう。
特開2000-78611号公報 特開2001-326947号公報 特開2004-354540号公報
 本発明が解決しようとする課題は、立体視される医用画像の奥行き感が低減することを回避することができる医用画像診断装置及び画像処理装置を提供することである。
 実施形態の医用画像診断装置は、レンダリング処理部と、表示部と、制御部とを備える。レンダリング処理部は、3次元の医用画像データであるボリュームデータに対して複数視点からレンダリング処理を行なうことで、所定視差数の視差画像である視差画像群を生成する。表示部は、前記レンダリング処理部により生成された前記視差画像群を表示することで、観察者により立体的に認識される立体画像を表示する。制御部は、前記表示部において前記視差画像群を表示する第1領域と、前記表示部において前記視差画像群以外の情報を示す情報画像を表示する第2領域とが識別可能となる前記視差画像群と前記情報画像との合成画像群が前記表示部に表示されるように制御する。
図1は、第1の実施形態に係る超音波診断装置の構成例を説明するための図である。 図2は、9視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。 図3は、第1の実施形態に係るボリュームレンダリング処理の一例を説明するための図である。 図4は、従来技術の課題を説明するための図である。 図5Aは、第1の実施形態に係る合成画像群の一例を説明するための図(1)である。 図5Bは、第1の実施形態に係る合成画像群の一例を説明するための図(2)である。 図6Aは、第1の実施形態に係る合成画像群の別の一例を説明するための図(1)である。 図6Bは、第1の実施形態に係る合成画像群の別の一例を説明するための図(2)である。 図7は、第1の実施形態に係る超音波診断装置の処理を説明するためのフローチャートである。 図8Aは、第2の実施形態に係る合成画像群を説明するための図(1)である。 図8Bは、第2の実施形態に係る合成画像群を説明するための図(2)である。 図9は、第2の実施形態に係る超音波診断装置の処理を説明するためのフローチャートである。 図10Aは、第3の実施形態に係る制御部を説明するための図(1)である。 図10Bは、第3の実施形態に係る制御部を説明するための図(2)である。 図10Cは、第3の実施形態に係る制御部を説明するための図(3)である。 図11は、第3の実施形態に係る超音波診断装置の処理を説明するためのフローチャートである。
 以下、添付図面を参照して、医用画像診断装置及び画像処理装置の実施形態を詳細に説明する。なお、以下では、医用画像診断装置として超音波診断装置を一例に挙げて説明する。最初に、以下の実施形態で用いる用語について説明すると、「視差画像群」とは、ボリュームデータに対して、所定の視差角ずつ視点位置を移動させてボリュームレンダリング処理を行なうことで生成された画像群のことである。すなわち、「視差画像群」は、「視点位置」が異なる複数の「視差画像」から構成される。また、「視差角」とは、「視差画像群」を生成するために設定された各視点位置のうち隣接する視点位置とボリュームデータによって表される空間内の所定位置(例えば、空間の中心)とにより定まる角度のことである。また、「視差数」とは、立体表示モニタにて立体視されるために必要となる「視差画像」の数のことである。また、以下で記載する「9視差画像」とは、9つの「視差画像」から構成される「視差画像群」のことである。また、以下で記載する「2視差画像」とは、2つの「視差画像」から構成される「視差画像群」のことである。
(第1の実施形態)
 まず、本実施形態に係る超音波診断装置の構成について説明する。図1は、第1の実施形態に係る超音波診断装置の構成例を説明するための図である。図1に示すように、第1の実施形態に係る超音波診断装置は、超音波プローブ1と、モニタ2と、入力装置3と、装置本体10とを有する。また、装置本体10は、ネットワーク100を介して外部装置4と接続される。
 超音波プローブ1は、複数の圧電振動子を有し、これら複数の圧電振動子は、後述する装置本体10が有する送受信部11から供給される駆動信号に基づき超音波を発生する。また、超音波プローブ1は、被検体Pからの反射波を受信して電気信号に変換する。また、超音波プローブ1は、圧電振動子に設けられる整合層と、圧電振動子から後方への超音波の伝播を防止するバッキング材等を有する。なお、超音波プローブ1は、装置本体10と着脱自在に接続される。
 超音波プローブ1から被検体Pに超音波が送信されると、送信された超音波は、被検体Pの体内組織における音響インピーダンスの不連続面で次々と反射され、反射波信号として超音波プローブ1が有する複数の圧電振動子にて受信される。受信される反射波信号の振幅は、超音波が反射される不連続面における音響インピーダンスの差に依存する。なお、送信された超音波パルスが、移動している血流や心臓壁等の表面で反射された場合の反射波信号は、ドプラ効果により、移動体の超音波送信方向に対する速度成分に依存して、周波数偏移を受ける。
 ここで、第1の実施形態に係る超音波プローブ1は、超音波により被検体Pを2次元で走査するとともに、被検体Pを3次元で走査することが可能な超音波プローブである。具体的には、第1の実施形態に係る超音波プローブ1は、被検体Pを2次元で走査する複数の超音波振動子を所定の角度(揺動角度)で揺動させることで、被検体Pを3次元で走査するメカニカルスキャンプローブである。或いは、第1の実施形態に係る超音波プローブ1は、複数の超音波振動子がマトリックス状に配置されることで、被検体Pを3次元で超音波走査することが可能な2次元超音波プローブである。なお、2次元超音波プローブは、超音波を集束して送信することで、被検体Pを2次元で走査することも可能である。
 入力装置3は、後述するインターフェース部19を介して装置本体10と接続される。入力装置3は、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、トラックボール等を有し、超音波診断装置の操作者からの各種設定要求を受け付け、装置本体10に対して受け付けた各種設定要求を転送する。
 モニタ2は、超音波診断装置の操作者が入力装置3を用いて各種設定要求を入力するためのGUI(Graphical User Interface)を表示したり、装置本体10において生成された超音波画像等を表示したりする。
 ここで、第1の実施形態に係るモニタ2は、立体視可能なモニタ(以下、立体表示モニタ)である。以下、立体表示モニタについて説明する。
 現在最も普及している一般的な汎用モニタは、2次元画像を2次元で表示するものであり、2次元画像を立体表示することができない。仮に、観察者が汎用モニタにて立体視を要望する場合、汎用モニタに対して画像を出力する装置は、平行法や交差法により観察者が立体視可能な2視差画像を並列表示させる必要がある。又は、汎用モニタに対して画像を出力する装置は、例えば、左目用の部分に赤色のセロハンが取り付けられ、右目用の部分に青色のセロハンが取り付けられたメガネを用いて余色法により観察者が立体視可能な画像を表示する必要がある。
 一方、立体表示モニタとしては、2視差画像(両眼視差画像とも称する)を表示することで、両眼視差による立体視を可能とするモニタ(以下、2視差モニタと記載する)がある。2視差モニタとしては、シャッター方式により立体表示を行なう装置や、偏光メガネ方式により立体表示を行なう装置、視差バリア方式により立体表示を行なう装置等がある。
 更に、近年実用化された立体表示モニタとしては、レンチキュラーレンズ等の光線制御子を用いることで、例えば、9視差画像等の多視差画像を観察者が裸眼にて立体視可能とするものがある。かかる立体表示モニタは、両眼視差による立体視を可能とし、更に、観察者の視点移動に合わせて観察される映像も変化する運動視差による立体視も可能とする。
 図2は、9視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。図2に示す立体表示モニタには、液晶パネル等の平面状の表示面200の前面に、光線制御子が配置される。例えば、図2に示す立体表示モニタには、光線制御子として、光学開口が垂直方向に延びる垂直レンチキュラーシート201が表示面200の前面に貼り付けられている。
 表示面200には、図2に示すように、縦横比が3:1であり、縦方向にサブ画素である赤(R)、緑(G)、青(B)の3つが配置された画素202がマトリクス状に配置される。図2に示す立体表示モニタは、9視差画像にて同一位置にある9つの画素それぞれを、9列の画素202に割り振って出力させる。9列の画素202は、視点位置の異なる9つの画像を同時に表示する単位画素群203となる。
 表示面200において単位画素群203として同時に出力された9視差画像は、例えば、LED(Light Emitting Diode)バックライトにより平行光として放射され、更に、垂直レンチキュラーシート201により、多方向に放射される。9視差画像の各画素の光が多方向に放射されることにより、観察者の右目及び左目に入射する光は、観察者の位置(視点の位置)に連動して変化する。これにより、観察者は、例えば、図2に示す9つの位置それぞれにおいて、撮影対象を立体的に視認できる。また、観察者は、例えば、図2に示す「5」の位置において、撮影対象に対して正対した状態で立体的に視認できるとともに、図2に示す「5」以外それぞれの位置において、撮影対象の向きを変化させた状態で立体的に視認できる。以下、図2を用いて説明した立体表示モニタを9視差モニタと記載する。
 第1の実施形態は、モニタ2が2視差モニタである場合であっても、9視差モニタである場合であっても適用可能である。以下では、モニタ2が9視差モニタである場合について説明する。
 図1に戻って、外部装置4は、後述するインターフェース部19を介して装置本体10と接続される装置である。例えば、外部装置4は、ハードディスク、フレキシブルディスク、CD-ROM(Compact Disk Read Only Memory)、MO(Magneto-Optical disk)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記憶装置である。或いは、外部装置4は、病院内に勤務する医師や検査技師により操作されるPC(Personal Computer)やタブレット式PC、PDA(Personal Digital Assistant)、携帯電話等の端末装置に接続されるプリンターや上記の汎用モニタである。
 装置本体10は、超音波プローブ1が受信した反射波に基づいて超音波画像データを生成する装置である。具体的には、第1の実施形態に係る装置本体10は、超音波プローブ1が受信した3次元の反射波データに基づいて3次元の超音波画像データ(以下、ボリュームデータと記載する)を生成可能な装置である。
 装置本体10は、図1に示すように、送受信部11と、Bモード処理部12と、ドプラ処理部13と、2次元データ処理部14と、画像メモリ15と、内部記憶部16と、ボリュームデータ処理部17と、制御部18と、インターフェース部19とを有する。
 送受信部11は、トリガ発生回路、遅延回路及びパルサ回路等を有し、超音波プローブ1に駆動信号を供給する。パルサ回路は、所定のレート周波数で、送信超音波を形成するためのレートパルスを繰り返し発生する。また、遅延回路は、超音波プローブ1から発生される超音波をビーム状に集束して送信指向性を決定するために必要な圧電振動子ごとの遅延時間を、パルサ回路が発生する各レートパルスに対し与える。また、トリガ発生回路は、レートパルスに基づくタイミングで、超音波プローブ1に駆動信号(駆動パルス)を印加する。すなわち、遅延回路は、各レートパルスに対し与える遅延時間を変化させることで、圧電振動子面からの送信方向を任意に調整する。
 なお、送受信部11は、後述する制御部18の指示に基づいて、所定のスキャンシーケンスを実行するために、送信周波数、送信駆動電圧等を瞬時に変更可能な機能を有している。特に、送信駆動電圧の変更は、瞬間にその値を切り替え可能なリニアアンプ型の発信回路、または、複数の電源ユニットを電気的に切り替える機構によって実現される。
 また、送受信部11は、アンプ回路、A/D変換器、加算器等を有し、超音波プローブ1が受信した反射波信号に対して各種処理を行なって反射波データを生成する。アンプ回路は、反射波信号をチャンネルごとに増幅してゲイン補正処理を行なう。A/D変換器は、ゲイン補正された反射波信号をA/D変換し、デジタルデータに受信指向性を決定するのに必要な遅延時間を与える。加算器は、A/D変換器によって処理された反射波信号の加算処理を行なって反射波データを生成する。加算器の加算処理により、反射波信号の受信指向性に応じた方向からの反射成分が強調される。
 このように、送受信部11は、超音波の送受信における送信指向性と受信指向性とを制御する。
 ここで、第1の実施形態に係る送受信部11は、超音波プローブ1から被検体Pに対して3次元の超音波ビームを送信させ、超音波プローブ1が受信した3次元の反射波信号から3次元の反射波データを生成する。
 Bモード処理部12は、送受信部11から反射波データを受信し、対数増幅、包絡線検波処理等を行なって、信号強度が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。
 ドプラ処理部13は、送受信部11から受信した反射波データから速度情報を周波数解析し、ドプラ効果による血流や組織、造影剤エコー成分を抽出し、平均速度、分散、パワー等の移動体情報を多点について抽出したデータ(ドプラデータ)を生成する。
 なお、第1の実施形態に係るBモード処理部12及びドプラ処理部13は、2次元の反射波データ及び3次元の反射波データの両方について処理可能である。すなわち、Bモード処理部12は、2次元の反射波データから2次元のBモードデータを生成し、3次元の反射波データから3次元のBモードデータを生成する。また、ドプラ処理部13は、2次元の反射波データから2次元のドプラデータを生成し、3次元の反射波データから3次元のドプラデータを生成する。
 2次元データ処理部14は、Bモード処理部12及びドプラ処理部13が生成した2次元データから「表示用の超音波画像データ」を生成する。すなわち、2次元データ処理部14は、Bモード処理部12が生成した2次元のBモードデータから反射波の強度を輝度にて表した2次元のBモード画像データを生成する。また、2次元データ処理部14は、ドプラ処理部13が生成した2次元のドプラデータから移動体情報を表す平均速度画像、分散画像、パワー画像、又は、これらの組み合わせ画像としての2次元のカラードプラ画像データを生成する。
 そして、2次元データ処理部14は、超音波スキャンの走査線信号列を、テレビ等に代表されるビデオフォーマットの走査線信号列に変換(スキャンコンバート)することで、2次元のBモード画像データや2次元のカラードプラ画像データから「表示用の超音波画像データ」を生成し、モニタ2に出力する。具体的には、2次元データ処理部14は、超音波プローブ1による超音波の走査形態に応じて座標変換を行なうことで、「表示用の超音波画像データ」を生成する。
 ここで、2次元データ処理部14は、表示用の超音波画像データに、種々のパラメータの文字情報、目盛り、ボディーマーク等を合成した合成画像を生成し、ビデオ信号としてモニタ2に出力する。以下では、表示用の超音波画像に対して合成される「種々のパラメータの文字情報、目盛り、ボディーマーク等」により構成される画像を「情報画像」と記載する。
 画像メモリ15は、2次元データ処理部14が生成した画像データを記憶するメモリである。また、画像メモリ15は、Bモード処理部12やドプラ処理部13が生成したデータを記憶することも可能である。
 内部記憶部16は、超音波送受信、画像処理及び表示処理を行なうための制御プログラムや、診断情報(例えば、患者ID、医師の所見等)や、診断プロトコルや各種ボディーマーク等の各種データを記憶する。また、内部記憶部16は、必要に応じて、画像メモリ15が記憶する画像データの保管等にも使用される。
 ボリュームデータ処理部17は、Bモード処理部12及びドプラ処理部13が生成した3次元のデータから表示用の超音波画像データを生成する。ボリュームデータ処理部17は、図1に示すように、ボリュームデータ生成部17a、レンダリング処理部17b及び合成部17cを有する。
 ボリュームデータ生成部17aは、Bモード処理部12が生成した3次元のBモードデータから反射波の強度を輝度にて表した3次元のBモード画像データを生成する。また、ボリュームデータ生成部17aは、ドプラ処理部13が生成した3次元のドプラデータから移動体情報を表す平均速度画像、分散画像、パワー画像、又は、これらの組み合わせ画像としての3次元のカラードプラ画像データを生成する。更に、ボリュームデータ生成部17aは、超音波プローブ1による超音波の走査形態に応じて座標変換を行なうことで、3次元の超音波画像データである「ボリュームデータ」を生成する。
 レンダリング処理部17bは、ボリュームデータをモニタ2にて表示するための各種画像(2次元画像)を生成するために、ボリュームデータに対してレンダリング処理を行なう処理部である。レンダリング処理部17bが行なうレンダリング処理としては、断面再構成法(MPR:Multi Planer Reconstruction)を行なってボリュームデータからMPR画像を再構成する処理がある。また、レンダリング処理部17bが行なうレンダリング処理としては、ボリュームデータに対して「Curved MPR」を行なう処理や、ボリュームデータに対して「Intensity Projection」を行なう処理がある。
 更に、レンダリング処理部17bが行なうレンダリング処理としては、3次元の情報を反映した2次元画像を生成するボリュームレンダリング処理がある。
 これらのレンダリング機能を用いることで、レンダリング処理部17bは、3次元の超音波画像データであるボリュームデータに対して複数視点からレンダリング処理を行なうことで、所定視差数の視差画像である視差画像群を生成する。具体的には、レンダリング処理部17bは、ボリュームデータに対してボリュームレンダリング処理を行なうことで視差画像群を生成する。より具体的には、レンダリング処理部17bは、モニタ2が9視差モニタであることから、ボリュームデータに対して9つの視点からボリュームレンダリング処理を行なうことで、9つの視差画像である9視差画像を生成する。
 例えば、レンダリング処理部17bは、後述する制御部18の制御の下、図3に示すボリュームレンダリング処理を行なうことで9視差画像を生成する。図3は、第1の実施形態に係るボリュームレンダリング処理の一例を説明するための図である。
 例えば、レンダリング処理部17bが、図3の「9視差画像生成方式(1)」に示すように、レンダリング条件として、平行投影法を受け付け、更に、基準の視点位置(5)と視差角「1度」とを受け付けたとする。かかる場合、レンダリング処理部17bは、視差角が「1度」おきとなるように、視点の位置を(1)~(9)に平行移動して、平行投影法により視差角(視線方向間の角度)が1度ずつ異なる9つの視差画像を生成する。なお、平行投影法を行なう場合、レンダリング処理部17bは、視線方向に沿って無限遠から平行な光線を照射する光源を設定する。
 或いは、レンダリング処理部17bが、図3の「9視差画像生成方式(2)」に示すように、レンダリング条件として、透視投影法を受け付け、更に、基準の視点位置(5)と視差角「1度」とを受け付けたとする。かかる場合、レンダリング処理部17bは、ボリュームデータの中心(重心)を中心に視差角が「1度」おきとなるように、視点の位置を(1)~(9)に回転移動して、透視投影法により視差角が1度ずつ異なる9つの視差画像を生成する。なお、透視投影法を行なう場合、レンダリング処理部17bは、視線方向を中心に光を3次元的に放射状に照射する点光源や面光源を各視点にて設定する。また、透視投影法を行なう場合、レンダリング条件によっては、視点(1)~(9)は、平行移動される場合であってもよい。
 なお、レンダリング処理部17bは、表示されるボリュームレンダリング画像の縦方向に対しては、視線方向を中心に光を2次元的に放射状に照射し、表示されるボリュームレンダリング画像の横方向に対しては、視線方向に沿って無限遠から平行な光線を照射する光源を設定することで、平行投影法と透視投影法とを併用したボリュームレンダリング処理を行なってもよい。
 このようにして生成された9つの視差画像が、視差画像群である。すなわち、視差画像群は、ボリュームデータから生成された立体表示用の超音波画像群である。第1の実施形態において、9つの視差画像は、後述する制御部18により所定フォーマット(例えば格子状)に配置した中間画像に変換され、立体表示モニタとしてのモニタ2に出力される。
 制御部18の制御の下、モニタ2は、レンダリング処理部17bにより生成された視差画像群を表示することで、観察者(超音波診断装置の操作者)により立体的に認識される立体画像を表示する。
 ここで、ボリュームデータ処理部17は、2次元データ処理部14と同様に、表示用の視差画像群に、視差画像群以外の情報(文字情報、目盛り、ボディーマーク等)を示す「情報画像」を合成した合成画像群を生成し、ビデオ信号としてモニタ2に出力する。
 図1に示す合成部17cは、合成画像群を生成するために、ボリュームデータ処理部17に設置される処理部である。なお、合成部17cの処理については、後に詳述する。
 ボリュームデータ処理部17の処理により生成された各種画像データは、画像メモリ15や内部記憶部16に格納される。
 制御部18は、超音波診断装置の処理全体を制御する。具体的には、制御部18は、入力装置3を介して操作者から入力された各種設定要求や、内部記憶部16から読込んだ各種制御プログラム及び各種データに基づき、送受信部11、Bモード処理部12、ドプラ処理部13、2次元データ処理部14及びボリュームデータ処理部17の処理を制御する。また、制御部18は、画像メモリ15や内部記憶部16が記憶する表示用の超音波画像データをモニタ2にて表示するように制御する。また、制御部18は、表示用の超音波画像データがインターフェース部19及びネットワーク100を介して外部装置4に出力されるように制御する。
 インターフェース部19は、入力装置3、ネットワーク100及び外部装置4に対するインターフェースである。入力装置3が受け付けた操作者からの各種設定情報及び各種指示は、インターフェース部19により、制御部18に転送される。また、制御部18の制御により出力された画像データは、インターフェース部19から、ネットワーク100を介して外部装置4に出力される。
 以上、第1の実施形態に係る超音波診断装置の全体構成について説明した。かかる構成のもと、第1の実施形態に係る超音波診断装置は、3次元の超音波画像データであるボリュームデータを生成し、生成した超音波ボリュームデータから視差画像群を生成する。そして、第1の実施形態に係る超音波診断装置は、モニタ2にて視差画像群を表示することで、観察者により立体的に認識される立体画像を表示する。
 ここで、実際にモニタ2に表示される画像群は、視差画像群を構成する視差画像それぞれと情報画像とを合成した合成画像群である。しかし、立体表示モニタであるモニタ2を参照することで観察者が認識する立体画像の奥行き感は、以下に説明する要因により低減してしまう。図4は、従来技術の課題を説明するための図である。なお、以下に説明する課題は、超音波診断装置が生成したボリュームデータに基づく視差画像群により認識される立体画像だけでなく、X線CT装置やMRI装置等の医用画像診断装置が生成したボリュームデータに基づく視差画像群により認識される立体画像においても同様に生じる課題である。
 医用画像は、コントラストのある画質が求められるため、一般的には、医用画像の背景色を黒色にすることが多い。一方、医用画像とともに表示される情報画像の背景色も、一般的には、黒色である。すなわち、視差画像群及び情報画像それぞれの背景色は、同じ黒色となる。このため、観察者は、図4の右図に示すように、モニタ2の表面(以下、モニタ表面と記載する)において、黒色の背景内で文字等の情報とともに立体画像を認識することとなる。
 ここで、視差画像群は、図4の左上図に示すように、モニタ表面から観察者側に飛び出した位置からモニタ表面の後ろ側の位置(図中のAを参照)までの奥行きを持つ立体画像として観察者に認識されるように生成された画像群である。
 しかし、一般的に、人間は、黒色の場所が最も奥に位置する場所として認識する。このため、実際に観察者により認識される立体画像は、図4の左下図に示すように、モニタ表面から観察者側に飛び出した位置からモニタ表面の位置(図中のaを参照)までの奥行きしか持たない立体画像となる。すなわち、観察者は、立体画像のAの位置をaの位置として認識するため、立体画像の奥行きは、図4に示すように、圧縮された状態となる。
 そこで、第1の実施形態に係る超音波診断装置の制御部18は、以下に説明する制御を行なうことで、立体視される医用画像の奥行き感が低減することを回避する。すなわち、制御部18は、モニタ2において視差画像群を表示する第1領域と、モニタ2において視差画像群以外の情報を示す情報画像を表示する第2領域とが識別可能となる「視差画像群と情報画像との合成画像群」がモニタ2に表示されるように制御する。具体的には、制御部18は、第1領域の背景色と第2領域との背景色とが異なる色となる合成画像群がモニタ2に表示されるように制御する。
 より具体的には、制御部18は、第1領域と第2領域とを識別可能な視差画像群と情報画像との合成画像群として、第1領域の背景色と第2領域との背景色とが異なる色となる合成画像群を合成部17cに生成させるように制御する。
 以下、制御部18の制御の下、第1の実施形態に係る合成部17cが生成する合成画像群の具体例について説明する。図5A及び図5Bは、第1の実施形態に係る合成画像群の一例を説明するための図である。また、図6A及び図6Bは、第1の実施形態に係る合成画像群別の一例を説明するための図である。
 例えば、制御部18は、第1領域の背景色を黒色とし、第2領域の背景色を灰色とする合成画像群がモニタ2に表示されるように制御する。かかる制御により、合成部17cは、図5Aに示すように、背景色が黒色となる視差画像U10と背景色が灰色となる情報画像O10との合成画像を生成する。なお、図5Aに例示する視差画像U10は、画像間の視差角が例えば「1度」となる9つの視差画像の中の1つの視差画像を示しており、実際には、合成部17cは、背景色が黒色となる9つの視差画像それぞれと背景色が灰色となる情報画像O10との合成画像を9つ生成する。
 まず、合成部17cは、第1領域にて表示される9つの視差画像それぞれの背景色を黒色とする。ここで、レンダリング処理部17bが生成した9つの視差画像それぞれの背景色が黒色である場合、合成部17cは、レンダリング処理部17bが生成した9つの視差画像をそのまま後段の処理に用いる。また、レンダリング処理部17bが生成した9つの視差画像それぞれの背景色が黒色でない場合、合成部17cは、レンダリング処理部17bが生成した9つの視差画像の背景色を黒色として後段の処理に用いる。
 そして、合成部17cは、第1領域を取り囲むように設定される第2領域において、文字情報等の情報が配置され、情報以外の背景部分の色が灰色となる情報画像を生成する。そして、合成部17cは、背景色が黒色である9つの視差画像それぞれと背景色が灰色である情報画像とを合成することで9つの合成画像から構成される合成画像群を生成する。
 制御部18は、合成画像群を上述した中間画像に変換して、モニタ2に表示させる。モニタ2の観察者は、図5Bに示すように、灰色の背景色にて情報画像O10に描出される文字情報等を認識する。そして、モニタ2の観察者は、図5Bに示すように、視差画像群により表示される立体画像を黒色の背景色にて認識する。観察者は、灰色を黒色より自身に近い位置にあると認識するため、背景色が黒色である立体画像の奥行きは、維持されることとなる。
 なお、合成部17cにより生成される合成画像群は、図5A及び図5Bに例示した合成画像群に限定されるものではない。例えば、制御部18の制御により、合成部17cは、図6Aに示すように、情報画像の背景色は黒色のままとし、視差画像群の背景色を視差画像群の色「B」の補色「CB」とする場合であっても良い。視差画像群の背景色を補色とすることで、観察者は、立体画像と情報画像とを識別することができる。
 また、制御部18の制御により、合成部17cは、更に、図6Bに示すように、視差画像群の背景色を視差画像群の色「B」の補色「CB」とするとともに、視差画像群の輪郭を黒色で強調した合成画像群とする場合であっても良い。視差画像群の背景色を補色とし、視差画像群の輪郭を黒色とすることで、観察者は、第1領域における立体画像の輪郭をモニタ表面より奥まった位置にあると認識することができ、立体画像と情報画像とを識別することができる。
 また、図6Aや図6Bに示す一例の合成画像群は、更に、情報画像が表示される第2領域の背景色を、「B」及び「CB」の中間色として生成される場合であっても良い。かかる合成画像群を表示することでも、観察者は、立体画像と情報画像とを識別することができる。
 次に、図7を用いて、第1の実施形態に係る超音波診断装置の処理について説明する。図7は、第1の実施形態に係る超音波診断装置の処理を説明するためのフローチャートである。なお、図7では、ボリュームデータが生成され、更に、ボリュームデータに対する視点位置、視差数及び視差角等の視差画像群の生成条件が設定された後の処理について説明する。
 図7に示すように、第1の実施形態に係る超音波診断装置は、操作者から入力装置3を介して立体画像の表示要求を受け付けたか否かを判定する(ステップS101)。ここで、表示要求を受け付けない場合(ステップS101否定)、第1の実施形態に係る超音波診断装置は、表示要求を受けるまで待機する。
 一方、表示要求を受け付けた場合(ステップS101肯定)、制御部18の制御により、レンダリング処理部17bは、背景色を黒色とする視差画像群を生成し(ステップS102)、合成部17cは、背景色を灰色とする情報画像を生成する(ステップS103)。具体的には、合成部17cは、第2領域の形状に合わせて背景色を灰色とする情報画像を生成する。
 その後、合成部17cは、第1領域のサイズに合わせた視差画像群それぞれと情報画像との合成画像群を生成する(ステップS104)。そして、モニタ2は、制御部18の制御により、合成画像群を表示し(ステップS105)、処理を終了する。
 上述してきたように、第1の実施形態では、制御部18は、モニタ2において視差画像群を表示する第1領域と、モニタ2において視差画像群以外の情報を示す情報画像を表示する第2領域とが識別可能となる「視差画像群と情報画像との合成画像群」を表示させる。すなわち、第1の実施形態では、制御部18は、第1領域と第2領域とを識別可能な視差画像群と情報画像との合成画像群として、第1領域の背景色と第2領域との背景色とが異なる色となる合成画像群を合成部17cに生成させるように制御し、モニタ2に表示させる。
 具体的には、制御部18は、第1領域と第2領域とを識別可能な視差画像群と情報画像との合成画像群として、第1領域の背景色が黒色であり、第2領域との背景色と灰色である合成画像群を合成部17cに生成させるように制御し、モニタ2に表示させる。
 かかる制御により、観察者は、第2領域に表示される情報画像がモニタ表面に位置するように感じ、第1領域に表示される立体画像の背景がモニタ表面より奥にあるように感じることができる。従って、第1の実施形態では、立体視される医用画像の奥行き感が低減することを回避することができる。なお、第1の実施形態に係る合成部17cの処理は、2次元データ処理部14により実行される場合であっても良い。
(第2の実施形態)
 第2の実施形態では、第1の実施形態とは異なる方法により合成画像群が生成される場合について説明する。
 第2の実施形態に係る超音波診断装置は、図1を用いて説明した第1の実施形態に係る超音波診断装置と同様に構成されるが、制御部18の合成部17cに対する制御処理が第1の実施形態とは異なる。以下、これを中心に説明する。
 第2の実施形態に係る制御部18は、第1領域と第2領域との境界を囲む枠線が描画された合成画像群がモニタ2に表示されるように制御する。図8A及び図8Bは、第2の実施形態に係る合成画像群を説明するための図である。
 一例を挙げると、合成部17cは、制御部18の制御により、図8Aに示すように、第1領域と第2領域との境界が白色の2重線により囲まれた枠線を描画した合成画像群を生成する。
 ここで、レンダリング処理部17bが生成した9つの視差画像それぞれの背景色が黒色である場合、合成部17cは、レンダリング処理部17bが生成した9つの視差画像をそのまま後段の処理に用いる。また、合成部17cは、第2領域において、文字情報等が配置され、文字情報以外の背景部分の色が従来と同様に黒色となる情報画像を生成する。そして、合成部17cは、9つの視差画像それぞれと情報画像とを合成し、更に、9つの視差画像それぞれの輪郭を囲む白色の2重線を描画することで、9つの合成画像から構成される合成画像群を生成する。
 制御部18は、合成画像群を中間画像に変換して、モニタ2に表示させる。これにより、モニタ2の観察者は、図8Bに示すように、枠線で区切られた情報画像に描出される文字情報等を認識する。そして、モニタ2の観察者は、図8Bに示すように、枠線で区切られた立体画像を黒色の背景色にて認識する。観察者は、枠線により情報画像と立体画像とを識別することができるので、立体画像の奥行きは維持されることとなる。
 かかる枠線による識別効果は、張り付き効果や額縁効果と呼ばれるものである。ただし、立体再現される対象が画枠(枠線)で区切られると、左右眼への映像部分に違いが生じ、不安定な見えになる視野闘争が生じたり、対象が枠線に張り付いて立体感が抑えられて対象が変形したように見えたりする場合がある。
 このため、制御部18は、モニタ表示面と画枠(枠線)とが異なった位置に見えるように画枠(枠線)を設定したり、枠の存在を弱め、表示面位置を不確定な状態とする画面サイズの拡張を行なったり、空中像・空間像方式に基づく制御を行なっても良い。なお、空中像とは、表示像を空中に結像した映像のことであり、空中像を観察すると、表示面の存在位置が不確定になり、再現空間が表示面に固定されなくなるという効果がある。また、空間像とは、多層表示面や像面移動等で形成された映像であり、空間像を観察すると、空中像を観察する場合と同様の効果を得ることができる。
 次に、図9を用いて、第2の実施形態に係る超音波診断装置の処理について説明する。図9は、第2の実施形態に係る超音波診断装置の処理を説明するためのフローチャートである。なお、図9では、ボリュームデータが生成され、更に、ボリュームデータに対する視点位置、視差数及び視差角等の視差画像群の生成条件が設定された後の処理について説明する。
 図9に示すように、第2の実施形態に係る超音波診断装置は、操作者から入力装置3を介して立体画像の表示要求を受け付けたか否かを判定する(ステップS201)。ここで、表示要求を受け付けない場合(ステップS201否定)、第2の実施形態に係る超音波診断装置は、表示要求を受けるまで待機する。
 一方、表示要求を受け付けた場合(ステップS202肯定)、制御部18の制御により、レンダリング処理部17bは、背景色を黒色とする視差画像群を生成し(ステップS202)、合成部17cは、背景色を黒色とする情報画像を生成する(ステップS203)。具体的には、合成部17cは、第2領域の形状に合わせて背景色を黒色とする情報画像を生成する。
 その後、合成部17cは、第1領域のサイズに合わせた視差画像群であり、境界に枠線が描画された視差画像群それぞれと情報画像との合成画像群を生成する(ステップS204)。そして、モニタ2は、制御部18の制御により、合成画像群を表示し(ステップS205)、処理を終了する。
 上述してきたように、第2の実施形態では、制御部18は、第1領域と第2領域との境界を囲む枠線が描画された合成画像群を合成部17cに生成させるように制御し、モニタ2に表示させる。
 かかる制御により、観察者は、第1領域と第2領域とを線で区別することができる。すなわち、第2の実施形態では、背景色が同色であっても、立体画像と情報画像とが同じ奥行き位置にあると観察者が認識することを防ぐことができる。従って、第2の実施形態でも、立体視される医用画像の奥行き感が低減することを回避することができる。なお、第2の実施形態に係る合成部17cの処理は、2次元データ処理部14により実行される場合であっても良い。
(第3の実施形態)
 第3の実施形態では、視差画像群を印刷用に出力したり、汎用モニタにて表示用に出力したりする際に行なわれる処理について説明する。
 観察者が立体画像を観察した際に、観察した画像を2次元データとして出力したい場合がある。しかし、立体画像は、複数の視差画像を表示することで認識される画像である。複数の視差画像を、汎用モニタで再生したり印刷すると、出力される画像が2重に見えたり、ボケたりする。すなわち、複数の視差画像は、出力用の画像として好ましくない。従って、印刷用に出力したり、汎用モニタで観察するために出力したりするためには、視差画像群が重畳されない画像が必要となる。
 そこで、第3の実施形態に係る制御部18は、立体画像として認識される視差画像群から所定視点の画像データを抽出して外部装置4に出力するように制御する。
 制御部18が行なう出力制御としては、以下の2つが挙げられる。すなわち、第1の出力制御において、制御部18は、視差画像群の生成時に用いられた全視点の中心に位置している視点からの視差画像のデータを、所定視点の画像データとして抽出する。或いは、第2の出力制御において、制御部18は、モニタ2を参照する観察者が観察する立体画像に該当する視差画像を、所定視点の画像データとして抽出する。
 ここで、制御部18は、所定視点の画像データに該当する画像のデータが視差画像群に存在する場合、当該該当する画像データを選択して外部装置4に出力する。一方、制御部18は、所定視点の画像データに該当する画像データが視差画像群に存在しない場合、所定視点の画像データをレンダリング処理部17bに生成させて、外部装置4に出力する。
 以下、図10A、図10B及び図10Cを用いて第3の実施形態に係る制御部18が行なう出力制御の具体例について説明する。図10A、図10B及び図10Cは、第3の実施形態に係る制御部を説明するための図である。
 例えば、第1の出力制御を実行する場合、制御部18は、図10Aに示すように、立体画像として認識される9視差画像の中から、全視点の中心位置にある視点Sの視差画像を抽出し、視点Sの視差画像のデータを外部装置4に出力する。
 ここで、第1の出力制御を行なう場合、図10Aに示すように、モニタ2が9視差モニタであり、視差数が奇数であるならば、制御部18が実行する抽出処理は、既存の視差画像群からの選択により実行することができる。しかし、モニタ2が2視差モニタでのように、視差数が偶数である場合、全視点の中心位置にある視点の視差画像は、存在しないこととなる。
 かかる場合、制御部18は、図10Bに示すように、全視点の中心位置に隣接する視点S1及び視点S2の間に視点Sを設定する。そして、制御部18は、図10Bに示すように、視点Sからの視差画像を、ボリュームデータからボリュームレンダリング処理を行なって生成するようにレンダリング処理部17bを制御する。そして、制御部18は、新規に生成させた視点Sの視差画像のデータを外部装置4に出力する。
 また、第2の出力制御を行なう場合、モニタ2を参照する観察者が観察する立体画像に該当する視差画像を特定するために、制御部18は、図10Cに示すように、モニタ2に対する観察者の視線方向を取得する。例えば、制御部18は、モニタ2に対する観察者の視線方向を、モニタ2に取り付けられた顔認識機能を有するカメラを用いて取得する。例えば、カメラは、実空間における観察者の顔を顔認識機能により追跡(トラッキング)し、更に、認識した顔の方向から観察者のモニタ2に対する視線方向を決定する。カメラが取得した視線方向は、制御部18に転送される。
 そして、制御部18は、観察者の視線方向に該当する視差画像を視差画像群から抽出する。ここで、観察者の視線方向に該当する視点S’(図10Cを参照)からの視差画像が表示されている視差画像群に存在する場合、該当する視差画像のデータを選択して外部装置4に出力する。一方、視点S’の視差画像が表示されている視差画像群に存在しない場合、制御部18は、視点S’をボリュームデータに対して設定する。そして、制御部18は、新規に設定した視点S’からの視差画像を、ボリュームデータからボリュームレンダリング処理を行なって生成するようにレンダリング処理部17bを制御する。そして、制御部18は、新規に生成させた視点S’の視差画像のデータを外部装置4に出力する。
 なお、第3の実施形態に係る制御部18は、出力用の視差画像データの抽出対象を、第1の実施形態又は第2の実施形態にて説明した合成画像群とする場合であっても良い。かかる場合、制御部18は、所定視点の合成画像が存在しないならば、レンダリング処理部17bに所定視点の視差画像を新規に生成させ、更に、合成部17cに所定視点の視差画像と情報画像との合成画像を新規に生成させる。
 次に、図11を用いて、第3の実施形態に係る超音波診断装置の処理について説明する。図11は、第3の実施形態に係る超音波診断装置の処理を説明するためのフローチャートである。
 図11に示すように、第3の実施形態に係る超音波診断装置は、操作者から入力装置3を介して汎用モニタ用の出力要求を受け付けたか否かを判定する(ステップS301)。ここで、出力要求を受け付けない場合(ステップS301否定)、第3の実施形態に係る超音波診断装置は、出力要求を受けるまで待機する。
 一方、出力要求を受け付けた場合(ステップS301肯定)、制御部18は、出力用の画像データに該当するデータが存在するか否かを判定する(ステップS302)。ここで、存在する場合(ステップS302肯定)、制御部18は、出力用の画像データに該当するデータを選択する(ステップS303)。なお、合成画像群が抽出対象である場合、ステップS303で選択されるデータは、合成画像のデータである。
 一方、存在しない場合(ステップS302否定)、制御部18の制御により、レンダリング処理部17bは、出力用の画像データに該当するデータを生成する(ステップS304)。なお、合成画像群が抽出対象である場合、ステップS304においては、レンダリング処理部17b及び合成部17cにより、新規の合成画像データが生成される。
 ステップS303又はステップS304の処理の後、制御部18は、出力用の画像データを外部装置4に出力し(ステップS305)、処理を終了する。
 上述してきたように、第3の実施形態では、制御部18は、立体画像として認識される視差画像群から所定視点の画像データを抽出して外部装置4に出力するように制御する。従って、第3の実施形態では、多視点からの視差画像群が画像でなく、1つの視点からの画像を出力することができる。
 なお、上記では、所定視点の画像データが、1つの視点における1つの視差画像又は1つの合成画像である場合について説明した。しかし、第3の実施形態に係る制御部18の処理により、外部装置4に出力される画像データは、複数の視差画像や、複数の合成画像である場合であっても良い。すなわち、第3の実施形態は、所定視点が、1つの視点で構成される場合だけでなく、複数の視点で構成される場合であっても良い。
 例えば、モニタ2が9視差モニタであり、外部装置4に接続されるモニタが9視差モニタであるとする。かかる場合、制御部18は、モニタ2で立体画像として表示された9視差画像や9つの合成画像を、所定視点の画像データとして、外部装置4に出力する。或いは、例えば、モニタ2が9視差モニタであり、外部装置4に接続されるモニタが5つの視差画像を表示することで立体画像を表示する5視差モニタであるとする。かかる場合、制御部18は、モニタ2で立体画像として表示された9視差画像や9つの合成画像から選択した5つの画像データを、所定視点の画像データとして外部装置4に出力する。一例として、制御部18は、図10Aに例示する視点Sを中心とする5つの視点からの視差画像群を、所定視点の画像データとして外部装置4に出力する。或いは、一例として、制御部18は、図10Bに例示する視点S’を中心とする5つの視点からの視差画像群を、所定視点の画像データとして外部装置4に出力する。或いは、制御部18は、5視差モニタで立体画像として表示される5視差画像や5つの合成画像を、ボリュームデータ処理部17に新規に生成させた後に、外部装置4に出力する。
 或いは、例えば、モニタ2が9視差モニタであり、外部装置4に接続されるモニタが2視差モニタであるとする。かかる場合、制御部18は、モニタ2で立体画像として表示された9視差画像や9つの合成画像から選択した2つの画像データを、所定視点の画像データとして、外部装置4に出力する。一例として、制御部18は、図10Aに例示する視点Sからの視差画像と、視点Sの右側に位置する視点からの視差画像とを所定視点の画像データとして、外部装置4に出力する。或いは、制御部18は、2視差モニタで立体画像として表示される2視差画像や2つの合成画像を、ボリュームデータ処理部17に新規に生成させた後に、外部装置4に出力する。
 或いは、例えば、モニタ2が9視差モニタであり、外部装置4に接続されるモニタが18個の視差画像を表示することで立体画像を表示する18視差モニタであるとする。かかる場合、制御部18は、モニタ2で立体画像として表示された9視差画像や9つの合成画像を選択する。更に、制御部18は、モニタ2で立体画像として表示された9視差画像や9つの合成画像の生成に用いた視点に加えて、9つの視点の位置を新たに設定する。そして、制御部18は、新たに設定した9つの視点を用いた9つの視差画像や9つの合成画像を、ボリュームデータ処理部17に生成させる。そして、制御部18は、18個の視差画像や18個の合成画像を、所定視点の画像データとして外部装置4に出力する。なお、制御部18は、外部装置4から外部装置4に接続されるモニタの立体視様式の情報を、外部装置4や外部装置4の操作者から取得することで、上記の処理を行なう。
 更には、例えば、外部装置4に接続されるモニタが9視差モニタであり、外部装置4の操作者から基準の視点位置を受け付けたとする。ここで、受け付けた基準の視点位置を中心とする9視差画像や9つの合成画像が生成済みの場合、制御部18は、これらの画像データを所定視点の画像データとして外部装置4に出力する。一方、外部装置4の操作者の要求に合致する画像データが生成済みでない場合、制御部18は、外部装置4の操作者から受け付けた基準の視点位置を中心とする9視差画像や9つの合成画像をボリュームデータ処理部17に生成させた後、外部装置4に出力する。なお、外部装置4の操作者から受け付ける基準の視点位置は、複数である場合であっても良い。また、外部装置4の操作者から受け付ける情報は、基準の視点位置の他に、視差角の情報が含まれる場合であっても良い。
 このように、第3の実施形態に係る制御部18は、外部装置4の操作者から受け付けた条件に合致する画像データが装置本体10において生成済みである場合は、これらの画像データを所定視点の画像データとして出力する。また、制御部18は、外部装置4の操作者から受け付けた条件に合致する画像データが装置本体10において生成済みでない場合は、該当する画像データをボリュームデータ処理部17に生成させて、外部装置4に出力する。
 なお、上述した第1の実施形態~第3の実施形態では、モニタ2が9視差モニタである場合について説明した。しかし、上述した第1の実施形態~第3の実施形態は、モニタ2が2視差モニタである場合であっても適用可能である。
 また、上述した第1の実施形態~第3の実施形態では、モニタ2に表示される画像がボリュームレンダリング画像である場合について説明した。しかし、上述した第1の実施形態~第3の実施形態は、モニタ2に表示される画像がボリュームデータからMPRにより生成されたMPR画像である場合であっても、適用可能である。
 また、上述した第1の実施形態~第3の実施形態では、医用画像診断装置である超音波診断装置において、奥行き感を低減させないための合成画像群を表示したり、立体画像の出力用データを抽出したりする場合について説明した。しかし、上述した第1の実施形態~第3の実施形態で説明した処理は、X線CT装置やMRI装置等のボリュームデータを生成可能な医用画像診断装置において実行される場合であっても良い。
 また、第1の実施形態~第3の実施形態で説明した処理は、医用画像診断装置とは独立に設置された画像処理装置により実行される場合であっても良い。具体的には、図1に示すボリュームデータ処理部17及び制御部18の機能を有する画像処理装置が、各種の医用画像のデータを管理するシステムであるPACS(Picture Archiving and Communication Systems)のデータベースや、医用画像が添付された電子カルテを管理する電子カルテシステムのデータベース等から3次元の医用画像データであるボリュームデータを受信して、第1の実施形態~第3の実施形態で説明した処理を行なう場合であってもよい。
 以上、説明したとおり、第1の実施形態~第3の実施形態によれば、立体視される医用画像の奥行き感が低減することを回避することができる。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、請求の範囲に記載された発明とその均等の範囲に含まれるものである。

Claims (9)

  1.  3次元の医用画像データであるボリュームデータに対して複数視点からレンダリング処理を行なうことで、所定視差数の視差画像である視差画像群を生成するレンダリング処理部と、
     前記レンダリング処理部により生成された前記視差画像群を表示することで、観察者により立体的に認識される立体画像を表示する表示部と、
     前記表示部において前記視差画像群を表示する第1領域と、前記表示部において前記視差画像群以外の情報を示す情報画像を表示する第2領域とが識別可能となる前記視差画像群と前記情報画像との合成画像群が前記表示部に表示されるように制御する制御部と、
     を備える、医用画像診断装置。
  2.  前記制御部は、前記立体画像として認識される前記視差画像群又は前記合成画像群から、少なくとも1つの視点で構成される所定視点の画像データを抽出して所定の外部装置に出力するように制御する、請求項1に記載の医用画像診断装置。
  3.  前記制御部は、前記第1領域の背景色と前記第2領域との背景色とが異なる色となる合成画像群が前記表示部に表示されるように制御する、請求項1に記載の医用画像診断装置。
  4.  前記第1領域の背景色を黒色とし、前記第2領域の背景色を灰色とする合成画像群が前記表示部に表示されるように制御する、請求項3に記載の医用画像診断装置。
  5.  前記制御部は、前記第1領域と前記第2領域との境界を囲む枠線が描画された合成画像群が前記表示部に表示されるように制御する、請求項1に記載の医用画像診断装置。
  6.  前記制御部は、前記視差画像群の生成時に用いられた全視点の中心に位置している視点からの視差画像、又は、合成画像の画像データを、前記所定視点の画像データとして抽出する、請求項2に記載の医用画像診断装置。
  7.  前記制御部は、前記表示部を参照する観察者が観察する立体画像に該当する少なくとも1つの視差画像、又は、少なくとも1つの合成画像の画像データを、前記所定視点の画像データとして抽出する、請求項2に記載の医用画像診断装置。
  8.  前記制御部は、前記所定視点の画像データに該当する画像のデータが前記視差画像群、又は、前記合成画像群に存在する場合、当該該当するデータを選択して前記所定の外部装置に出力し、前記所定視点の画像データに該当する画像データが前記視差画像群、又は、前記合成画像群に存在しない場合、前記所定視点の画像データを前記レンダリング処理部に生成させて前記所定の外部装置に出力する、請求項2に記載の医用画像診断装置。
  9.  3次元の医用画像データであるボリュームデータに対して複数視点からレンダリング処理を行なうことで、所定視差数の視差画像である視差画像群を生成するレンダリング処理部と、
     前記レンダリング処理部により生成された前記視差画像群を表示することで、観察者により立体的に認識される立体画像を表示する表示部と、
     前記表示部において前記視差画像群を表示する第1領域と、前記表示部において前記視差画像群以外の情報を示す情報画像を表示する第2領域とが識別可能となる前記視差画像群と前記情報画像との合成画像群が前記表示部に表示されるように制御する制御部と、
     を備えたことを特徴とする画像処理装置。
PCT/JP2012/062216 2011-05-19 2012-05-11 医用画像診断装置及び画像処理装置 WO2012157585A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201280000691.4A CN102893306B (zh) 2011-05-19 2012-05-11 医用图像诊断装置及图像处理装置
US14/067,367 US9282324B2 (en) 2011-05-19 2013-10-30 Medical image diagnosis apparatus and image processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-112299 2011-05-19
JP2011112299 2011-05-19

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/067,367 Continuation US9282324B2 (en) 2011-05-19 2013-10-30 Medical image diagnosis apparatus and image processing apparatus

Publications (1)

Publication Number Publication Date
WO2012157585A1 true WO2012157585A1 (ja) 2012-11-22

Family

ID=47176903

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/062216 WO2012157585A1 (ja) 2011-05-19 2012-05-11 医用画像診断装置及び画像処理装置

Country Status (4)

Country Link
US (1) US9282324B2 (ja)
JP (1) JP6058282B2 (ja)
CN (1) CN102893306B (ja)
WO (1) WO2012157585A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6299194B2 (ja) * 2013-12-12 2018-03-28 コニカミノルタ株式会社 超音波診断装置、及び超音波画像表示方法
EP3101892A4 (en) * 2014-05-21 2017-07-26 Sony Corporation Image processing apparatus and method
WO2016081321A2 (en) 2014-11-18 2016-05-26 C.R. Bard, Inc. Ultrasound imaging system having automatic image presentation
EP3220828B1 (en) 2014-11-18 2021-12-22 C.R. Bard, Inc. Ultrasound imaging system having automatic image presentation
US9796492B2 (en) 2015-03-12 2017-10-24 Graco Minnesota Inc. Manual check valve for priming a collapsible fluid liner for a sprayer
JP6610185B2 (ja) * 2015-11-12 2019-11-27 コニカミノルタ株式会社 画像処理装置
CN113453607B (zh) * 2019-03-08 2024-02-13 富士胶片株式会社 医用图像处理装置及方法
TW202110541A (zh) 2019-05-31 2021-03-16 美商葛萊兒明尼蘇達股份有限公司 手持式流體噴霧器

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003339703A (ja) * 2003-05-26 2003-12-02 Olympus Optical Co Ltd 超音波画像信号処理装置及び超音波画像信号処理システム
WO2009057409A1 (ja) * 2007-10-30 2009-05-07 Olympus Corporation 内視鏡装置
WO2010095403A1 (ja) * 2009-02-17 2010-08-26 パナソニック株式会社 再生装置、再生方法、プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000078611A (ja) 1998-08-31 2000-03-14 Toshiba Corp 立体映像受信装置及び立体映像システム
JP2001326947A (ja) 2000-05-12 2001-11-22 Sony Corp 立体画像表示装置
JP4222875B2 (ja) 2003-05-28 2009-02-12 三洋電機株式会社 立体映像表示装置及びプログラム
CN100459719C (zh) * 2003-09-04 2009-02-04 株式会社东芝 三维影像显示装置和方法及三维显示用影像数据生成方法
JP4002875B2 (ja) * 2003-09-16 2007-11-07 株式会社東芝 立体画像表示装置
JP2009077234A (ja) * 2007-09-21 2009-04-09 Toshiba Corp 三次元画像処理装置、方法及びプログラム
US9256982B2 (en) * 2010-03-17 2016-02-09 Microsoft Technology Licensing, Llc Medical image rendering
JP5572437B2 (ja) * 2010-03-29 2014-08-13 富士フイルム株式会社 3次元医用画像に基づいて立体視用画像を生成する装置および方法、並びにプログラム
JP5673008B2 (ja) * 2010-08-11 2015-02-18 ソニー株式会社 画像処理装置、立体画像表示装置および立体画像表示システム、ならびに立体画像表示装置の視差ずれ検出方法および立体画像表示装置の製造方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003339703A (ja) * 2003-05-26 2003-12-02 Olympus Optical Co Ltd 超音波画像信号処理装置及び超音波画像信号処理システム
WO2009057409A1 (ja) * 2007-10-30 2009-05-07 Olympus Corporation 内視鏡装置
WO2010095403A1 (ja) * 2009-02-17 2010-08-26 パナソニック株式会社 再生装置、再生方法、プログラム

Also Published As

Publication number Publication date
JP2012254288A (ja) 2012-12-27
CN102893306A (zh) 2013-01-23
CN102893306B (zh) 2016-11-16
JP6058282B2 (ja) 2017-01-11
US20140055452A1 (en) 2014-02-27
US9282324B2 (en) 2016-03-08

Similar Documents

Publication Publication Date Title
JP6058282B2 (ja) 医用画像診断装置及び画像処理装置
JP6058283B2 (ja) 超音波診断装置
US9479753B2 (en) Image processing system for multiple viewpoint parallax image group
US9426443B2 (en) Image processing system, terminal device, and image processing method
JP5868026B2 (ja) 超音波診断装置
WO2012137821A1 (ja) 画像処理システム、装置、方法及びプログラム
JP5173053B2 (ja) 画像処理システム、装置、方法及び医用画像診断装置
JP5797485B2 (ja) 画像処理装置、画像処理方法及び医用画像診断装置
JP2012075645A (ja) 医用画像診断装置、及び医用画像診断装置の制御プログラム
WO2012161054A1 (ja) 医用画像診断装置、画像処理装置及び超音波診断装置
US20120320043A1 (en) Image processing system, apparatus, and method
KR20160014933A (ko) 초음파 장치 및 그 제어방법
JP6005913B2 (ja) 報知装置、報知方法及び医用画像診断装置
JP2013097772A (ja) 医用画像診断装置及び画像処理装置
JP2013121453A (ja) 超音波診断装置及び画像処理装置
JP5835975B2 (ja) 画像処理システム、装置、方法及び医用画像診断装置
JP5868051B2 (ja) 画像処理装置、画像処理方法、画像処理システム及び医用画像診断装置
JP5835980B2 (ja) 画像処理システム、装置、方法及び医用画像診断装置
JP6087618B2 (ja) 画像処理システムおよび画像処理方法
JP2015022461A (ja) 医用情報処理装置、医用画像処理装置及び医用画像表示装置
JP2012231235A (ja) 画像処理システム、装置、方法及びプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201280000691.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12786004

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12786004

Country of ref document: EP

Kind code of ref document: A1