JP2007054504A - Ultrasonographic apparatus - Google Patents

Ultrasonographic apparatus Download PDF

Info

Publication number
JP2007054504A
JP2007054504A JP2005246016A JP2005246016A JP2007054504A JP 2007054504 A JP2007054504 A JP 2007054504A JP 2005246016 A JP2005246016 A JP 2005246016A JP 2005246016 A JP2005246016 A JP 2005246016A JP 2007054504 A JP2007054504 A JP 2007054504A
Authority
JP
Japan
Prior art keywords
image
luminance
ultrasonic
unit
projection image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005246016A
Other languages
Japanese (ja)
Other versions
JP4740695B2 (en
Inventor
Takeyoshi Tsujita
剛啓 辻田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP2005246016A priority Critical patent/JP4740695B2/en
Publication of JP2007054504A publication Critical patent/JP2007054504A/en
Application granted granted Critical
Publication of JP4740695B2 publication Critical patent/JP4740695B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)
  • Image Analysis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To achieve an ultrasonographic apparatus suitable for improvement in visibility of an ultrasonic image where an in vivo-structure is imaged. <P>SOLUTION: This ultrasonographic apparatus includes: a probe 102; an ultrasonic data collecting part 104; and a structure image construction part 110, wherein the structure image construction part 110 generates volume data about a subject, generates the maximum intensity projection image 310 based upon the data of a voxel having the maximum luminance out of the voxels in the visual line direction set to the volume data, corrects the luminance information of an area corresponding to a specified point or a specified area out of the minimum intensity projection image 314 based on the luminance information of the specified point or the specified area on the maximum intensity projection image 310 by approximation to the reference luminance information, and generates a differential image between the corrected luminance distribution shifted image 317 and the maximum intensity projection image 310 as an ultrasonic image for display. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、被検体に関する診断画像として三次元超音波像を撮像する超音波診断装置に関する。   The present invention relates to an ultrasonic diagnostic apparatus that captures a three-dimensional ultrasonic image as a diagnostic image related to a subject.

被検体に関する超音波像を撮像する超音波診断装置は、被検体との間で超音波探触子により超音波を送受し、超音波探触子から出力される受信信号に基づき超音波像を再構成して表示するものである。   An ultrasonic diagnostic apparatus that picks up an ultrasonic image related to a subject transmits and receives ultrasonic waves to and from the subject using an ultrasonic probe and generates an ultrasonic image based on a reception signal output from the ultrasonic probe. Reconstructed and displayed.

この超音波診断装置として、受信信号に基づき被検体に関するボリュームデータを生成し、ボリュームデータの各ボクセルのデータから三次元超音波像を再構成するものが知られている。例えば、ボリュームデータに対して設定された視線方向の各ボクセルの輝度に、輝度に応じた透明度を乗じて加算するいわゆるボリュームレンダリング法で三次元超音波像を再構成するものがある。   As this ultrasonic diagnostic apparatus, there is known an apparatus that generates volume data relating to a subject based on a received signal and reconstructs a three-dimensional ultrasonic image from the data of each voxel of the volume data. For example, there is a method of reconstructing a three-dimensional ultrasonic image by a so-called volume rendering method in which the luminance of each voxel in the line-of-sight direction set for volume data is multiplied by transparency according to the luminance and added.

ボリュームレンダリング法に代表される三次元超音波撮像法では、肝臓などの音響インピーダンスが比較的高い実質部を撮像した際、実質部の表面のみが画像に描出されるため、実質部内の構造物(例えば、腫瘍や血管)が描出されない場合がある。   In the three-dimensional ultrasonic imaging method represented by the volume rendering method, when a substantial part having a relatively high acoustic impedance, such as the liver, is imaged, only the surface of the substantial part is depicted in the image. For example, a tumor or blood vessel) may not be depicted.

そこで、構造物の形状、構造又は相対位置を把握するために、ボリュームデータに対して設定した視線方向で最も高輝度のものを抽出して高輝度構造物(例えば、腫瘍)を表示する最大値投影法や、最も低輝度のものを抽出して低輝度構造物(例えば、血管)を表示する最小値投影法が行われる。さらに、最大値投影法及び最小値投影法で得られた各超音波像を減算することにより、描出すべき構造物以外の不必要な画像情報を打ち消して必要な画像情報を描出させることが提案されている(例えば、特許文献1参照)。   Therefore, in order to grasp the shape, structure, or relative position of the structure, the maximum value for displaying the high-luminance structure (for example, a tumor) by extracting the one with the highest luminance in the viewing direction set for the volume data. A projection method or a minimum value projection method of extracting the one with the lowest luminance and displaying a low luminance structure (for example, a blood vessel) is performed. Furthermore, by subtracting each ultrasonic image obtained by the maximum value projection method and the minimum value projection method, it is proposed to cancel the unnecessary image information other than the structure to be drawn and to draw the necessary image information. (For example, refer to Patent Document 1).

特開2001−170056号公報JP 2001-170056 A

ところで、被検体を超音波撮像する際は、被検体の組織構造などに起因して音響インピーダンスのばらつきが生じる場合や、超音波が入射した組織体を構成する微小な無数の散乱体に起因して後方散乱波の干渉が生じる場合がある。したがって、特許文献1のような方式では、最大値投影画像における不必要な画像情報と最小値投影画像における不必要な画像情報の輝度が一致するとは限らないため、最大値投影画像から最小値投影画像を単に減算しても、その不必要な画像情報の全てを打ち消すことができないことがある。その場合、差分画像に不必要な画像情報が残留することから、描出すべき構造物の画像コントラストが劣化するなど、構造物が描出される超音波像の視認性に改善の余地がある。   By the way, when ultrasonic imaging of a subject is performed, there may be variations in acoustic impedance due to the tissue structure of the subject, or due to innumerable countless scatterers that make up the tissue body on which ultrasonic waves are incident. As a result, backscattered wave interference may occur. Therefore, in the method as disclosed in Patent Document 1, since the brightness of unnecessary image information in the maximum value projection image and unnecessary image information in the minimum value projection image do not always match, the minimum value projection is performed from the maximum value projection image. Simply subtracting an image may not cancel all of the unnecessary image information. In that case, since unnecessary image information remains in the difference image, there is room for improvement in the visibility of the ultrasonic image in which the structure is drawn, for example, the image contrast of the structure to be drawn is deteriorated.

本発明の課題は、体内構造物が描出された超音波像の視認性を向上させるのにより好適な超音波診断装置を実現することにある。   An object of the present invention is to realize an ultrasonic diagnostic apparatus that is more suitable for improving the visibility of an ultrasonic image in which an internal structure is depicted.

上記課題を解決するため、本発明の超音波診断装置は、被検体との間で超音波を送受する超音波探触子と、超音波探触子に駆動信号を供給するとともに超音波探触子から出力される受信信号を受信する送受信手段と、送受信手段から出力される受信信号に基づき超音波像を再構成する画像処理部と、超音波像を表示する表示部とを備え、画像処理部は、受信信号に基づき被検体に関するボリュームデータを生成する手段と、ボリュームデータに対して設定された視線方向のボクセルのうち、輝度が一の設定範囲に該当するボクセルのデータに基づき一の投影像を生成し、輝度が他の設定範囲に該当するボクセルのデータに基づき他の投影像を生成する投影像生成手段を有し、一の投影像上の指定点又は指定領域の輝度情報を基準とし、他の投影像のうち前記指定点又は指定領域に対応した領域の輝度情報を基準輝度情報に近づけて補正し、補正後の他の投影像と一の投影像との差分画像を表示用の超音波像として生成することを特徴とする。   In order to solve the above problems, an ultrasonic diagnostic apparatus of the present invention includes an ultrasonic probe that transmits and receives ultrasonic waves to and from a subject, a drive signal to the ultrasonic probe, and an ultrasonic probe. An image processing unit comprising: a transmission / reception unit that receives a reception signal output from the child; an image processing unit that reconstructs an ultrasonic image based on the reception signal output from the transmission / reception unit; and a display unit that displays the ultrasonic image. A unit that generates volume data related to the subject based on the received signal, and one projection based on voxel data corresponding to a set range of brightness among the voxels in the line-of-sight direction set for the volume data. A projection image generating means for generating an image and generating another projection image based on voxel data whose luminance falls within another setting range, and based on luminance information of a specified point or specified area on one projection image And other investments The luminance information of the region corresponding to the designated point or the designated region of the image is corrected to be close to the reference luminance information, and a difference image between the other projected image after the correction and the one projected image is used as an ultrasonic image for display. It is characterized by generating.

これによれば、描出すべき構造物以外の不必要な画像(例えば、周辺組織の画像)を基準投影像上に指定すると、指定点又は指定領域に対応した補正後投影像の画像は、輝度が前記指定点又は指定領域の輝度と例えば一致することになる。   According to this, when an unnecessary image other than the structure to be drawn (for example, an image of surrounding tissue) is designated on the reference projection image, the image of the corrected projection image corresponding to the designated point or the designated area is luminance. For example matches the luminance of the designated point or designated area.

したがって、基準投影像から補正後投影像を減算することにより、不必要な画像の輝度情報が打ち消される。その結果、不必要な画像の輝度情報が除去又は低減されるので、超音波像に描出された構造物の周辺組織に対するコントラストが強調されるため、構造物を判別するのが容易になるなど、超音波像の視認性を向上できる。   Accordingly, unnecessary luminance information of the image is canceled by subtracting the corrected projection image from the reference projection image. As a result, since the luminance information of unnecessary images is removed or reduced, the contrast with the surrounding tissue of the structure depicted in the ultrasonic image is enhanced, so that the structure can be easily identified, etc. The visibility of ultrasonic images can be improved.

この場合において、画像処理部は、一の投影像の指定点又は指定領域の輝度分布のピーク位置を基準とし、他の投影像のうち指定点又は指定領域に対応した領域の輝度分布のピーク位置を基準ピーク位置に合わせて補正できる。また、輝度分布のピーク位置に基づき補正することに代えて又はそれと伴に、一の投影像の指定点又は指定領域の輝度値を基準とし、他の投影像のコントラストを調整した後に、調整後の他の投影像のうち指定点又は指定領域に対応した領域の輝度値を基準輝度値に合わせて補正できる。   In this case, the image processing unit uses the specified distribution point of one projection image or the peak position of the luminance distribution of the specified region as a reference, and the peak position of the luminance distribution of the region corresponding to the specified point or the specified region of the other projection images. Can be corrected according to the reference peak position. In addition, instead of or based on correction based on the peak position of the luminance distribution, after adjusting the contrast of the other projected image based on the luminance value of the designated point or designated area of one projected image, after adjustment Among the other projected images, the luminance value of the region corresponding to the designated point or the designated region can be corrected according to the reference luminance value.

また、画像処理部は、最大値投影法により一の投影像として最大値投影画像を生成し、最小値投影法により他の投影像として最小値投影画像を生成できる。これにより、音響インピーダンスの大きさが異なる複数の構造物を良好なコントラストで描出できる。例えば、高輝度構造物(例えば、穿刺針、腫瘍)と低輝度構造物(例えば、血管、のう胞)を構造物抽出画像である差分画像に良好なコントラストで描出させることができる。   Further, the image processing unit can generate a maximum value projection image as one projection image by the maximum value projection method, and can generate a minimum value projection image as another projection image by the minimum value projection method. Thereby, the several structure from which the magnitude | size of acoustic impedance differs can be drawn with favorable contrast. For example, a high-luminance structure (for example, a puncture needle, a tumor) and a low-luminance structure (for example, a blood vessel or a cyst) can be drawn with a good contrast on a differential image that is a structure extraction image.

また、画像処理部は、超音波探触子の走査面に対応する二次元超音波像と、走査面の変更に追従して更新される差分画像とを並べて又は重畳して表示部に表示させることができる。また、被検体に関するボリュームデータに対して設定された視線方向の各ボクセルの輝度に、輝度に応じた透明度を乗じて構成される三次元超音波像と、三次元超音波像に表示座標が合わせられた差分画像とを並べて又は重畳して表示部に表示させることができる。これにより、二次元超音波像(又は三次元超音波像)と差分画像である構造物抽出画像との対比が容易になるから、表示画像を視認することにより、構造物の相対位置を一層的確かつ容易に把握できる。   The image processing unit displays a two-dimensional ultrasonic image corresponding to the scanning surface of the ultrasonic probe and a difference image updated following the change of the scanning surface side by side or superimposed on the display unit. be able to. In addition, the display coordinates match the 3D ultrasound image that is configured by multiplying the brightness of each voxel in the line-of-sight direction set for the volume data related to the subject by the transparency according to the brightness, and the 3D ultrasound image. The obtained difference images can be displayed side by side or superimposed on the display unit. This facilitates the comparison between the two-dimensional ultrasonic image (or three-dimensional ultrasonic image) and the structure extraction image, which is a difference image, so that the relative position of the structure can be more accurately confirmed by viewing the display image. And easily grasped.

また、画像処理部は、被検体に関するボリュームデータに対して設定された複数の視線方向に対応した複数の差分画像を生成し、その複数の差分画像を並べて表示部に表示させることができる。これにより、視線方向の数に応じて構造物の相対位置等を多面的に把握できる。   In addition, the image processing unit can generate a plurality of difference images corresponding to a plurality of line-of-sight directions set for the volume data related to the subject, and display the plurality of difference images side by side on the display unit. Thereby, the relative position etc. of a structure can be grasped from many sides according to the number of eyes directions.

本発明によれば、体内構造物が描出された超音波像の視認性を向上させるのにより好適な超音波診断装置を実現できる。例えば、肝臓の肝腫瘍を診断又は治療する際、不必要な周辺の肝細胞の画像を除去して肝腫瘍と血管の画像だけを描出できるから、肝腫瘍と血管の相対位置を的確に把握できる。   ADVANTAGE OF THE INVENTION According to this invention, the more suitable ultrasonic diagnostic apparatus can be implement | achieved by improving the visibility of the ultrasonic image by which the internal structure was drawn. For example, when diagnosing or treating liver tumors in the liver, images of liver tumors and blood vessels can be drawn by removing unnecessary peripheral hepatocyte images, so the relative position of liver tumors and blood vessels can be accurately grasped. .

(第一の実施形態)
本発明を適用した超音波診断装置の第一の実施形態について図面を参照して説明する。図1は、本発明を適用した本実施形態の超音波診断装置の構成を示すブロック図である。図2は、図1の構造物画像構築部の詳細構成を示すブロック図である。
(First embodiment)
A first embodiment of an ultrasonic diagnostic apparatus to which the present invention is applied will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an ultrasonic diagnostic apparatus according to this embodiment to which the present invention is applied. FIG. 2 is a block diagram illustrating a detailed configuration of the structure image construction unit in FIG. 1.

図1に示すように、被検体に関する超音波像を撮像する超音波診断装置100は、被検体との間で超音波を送受する超音波探触子102(以下、探触子102)と、探触子102に駆動信号を供給するとともに探触子102から出力される受信信号を受信する送受信手段としての超音波データ収集部104と、超音波データ収集部104から出力される受信信号に基づき超音波像を再構成する画像処理部などを備えている。ここでの画像処理部は、超音波データ収集部104から出力される受信信号に基づき超音波像データを生成する超音波画像作成部106と、超音波画像作成部106から出力される超音波像データに基づき三次元画像データを構成する三次元画像構築部108と、超音波画像作成部106から出力される超音波像データに基づき体内構造物(例えば、穿刺針、腫瘍、血管、のう胞)が描出された構造物抽出画像データを構成する構造物画像構築部110と、構造物画像構築部110から出力された構造物抽出画像データに対し、超音波画像作成部106から出力された超音波像データや三次元画像構築部108から出力された三次元画像データを合成して表示用超音波像としての合成画像を生成する画像合成部112を有している。   As shown in FIG. 1, an ultrasound diagnostic apparatus 100 that captures an ultrasound image of a subject includes an ultrasound probe 102 (hereinafter referred to as a probe 102) that transmits and receives ultrasound to and from the subject. Based on an ultrasonic data collection unit 104 as a transmission / reception means for supplying a drive signal to the probe 102 and receiving a reception signal output from the probe 102, and a reception signal output from the ultrasonic data collection unit 104 An image processing unit for reconstructing an ultrasonic image is provided. Here, the image processing unit includes an ultrasonic image generation unit 106 that generates ultrasonic image data based on a reception signal output from the ultrasonic data collection unit 104, and an ultrasonic image output from the ultrasonic image generation unit 106. Based on the ultrasound image data output from the ultrasound image data output from the ultrasound image creation unit 106 and the 3D image construction unit 108 that configures the 3D image data based on the data, a body structure (for example, a puncture needle, tumor, blood vessel, cyst) The structure image constructing unit 110 constituting the rendered structure extract image data, and the ultrasound image output from the ultrasound image creating unit 106 for the structure extracted image data output from the structure image constructing unit 110. The image synthesis unit 112 generates a synthesized image as a display ultrasonic image by synthesizing data and 3D image data output from the 3D image construction unit 108.

なお、画像合成部112から出力される合成画像をモニタ画面に表示する表示部114や、各部との間で指令を授受する制御部116と、制御部116に入力指令を出力するコントロールパネル118が配設されている。ここでの制御部116は、例えば、超音波データ収集部104や超音波画像作成部106の間で指令を授受し、またコントロールパネル118の入力指令に応じて三次元画像構築部108や構造物画像構築部110又は画像合成部112に指令を出力する。   A display unit 114 that displays a composite image output from the image composition unit 112 on a monitor screen, a control unit 116 that exchanges commands with each unit, and a control panel 118 that outputs an input command to the control unit 116 are provided. It is arranged. Here, the control unit 116 exchanges commands between, for example, the ultrasonic data collection unit 104 and the ultrasonic image creation unit 106, and the 3D image construction unit 108 and the structure according to the input command of the control panel 118. Commands are output to the image construction unit 110 or the image composition unit 112.

ここで、本実施形態に適用する構造物画像構築部110は、超音波画像作成部106から出力される受信信号に基づき被検体に関するボリュームデータを作成する手段を有する。また、そのボリュームデータに対して設定された視線方向のボクセルのうち、最大輝度を有するボクセルのデータに基づき最大値投影画像を生成し、最小輝度を有するボクセルのデータに基づき最小値投影画像を生成する。そして、構造物画像構築部110は、最大値投影画像のうち指定点又は指定領域(例えば、周辺組織に対応する点又は領域)の輝度情報を基準とし、最小値投影画像のうち指定点又は指定領域に対応する領域の輝度情報を基準輝度情報に近づけて補正し、補正後の投影像と一の投影像との差分画像を表示用の超音波像として生成する。   Here, the structure image constructing unit 110 applied to the present embodiment has means for creating volume data related to the subject based on the received signal output from the ultrasonic image creating unit 106. In addition, among the voxels in the line-of-sight direction set for the volume data, a maximum value projection image is generated based on the voxel data having the maximum luminance, and a minimum value projection image is generated based on the voxel data having the minimum luminance. To do. Then, the structure image constructing unit 110 uses the luminance information of the designated point or designated area (for example, the point or area corresponding to the surrounding tissue) in the maximum value projected image as a reference, and designates the designated point or designated in the minimum value projected image. The brightness information of the area corresponding to the area is corrected to be close to the reference brightness information, and a difference image between the corrected projection image and the one projection image is generated as an ultrasonic image for display.

より詳細に超音波診断装置100について説明する。本実施形態の超音波診断装置100は、二次元走査可能な探触子102を用いて三次元超音波データを収集し、三次元超音波データに基づいた最大値投影画像データと最小値投影画像データに基づき差分画像データを構成する例である。   The ultrasonic diagnostic apparatus 100 will be described in more detail. The ultrasonic diagnostic apparatus 100 according to the present embodiment collects three-dimensional ultrasonic data using a probe 102 capable of two-dimensional scanning, and the maximum value projection image data and the minimum value projection image based on the three-dimensional ultrasonic data. It is an example which comprises difference image data based on data.

探触子102は、複数の振動子が一次元又は二次元に配列されている。各振動子は、超音波データ収集部104から供給される電気的な駆動信号を機械的な超音波に変換するとともに、被検体から反射したエコーを電気信号に変換する。また、探触子102は、走査面の位置データを検出して制御部116に送信する位置センサが貼付されている。   The probe 102 has a plurality of transducers arranged one-dimensionally or two-dimensionally. Each transducer converts an electrical drive signal supplied from the ultrasound data collection unit 104 into mechanical ultrasound, and converts an echo reflected from the subject into an electrical signal. The probe 102 is attached with a position sensor that detects the position data of the scanning plane and transmits it to the control unit 116.

超音波データ収集部104は、探触子102に駆動信号を供給する送信手段と、探触子102から出力される受信信号を処理する受信手段を備えている。ここでの受信手段は、探触子102から出力される受信信号に対し、増幅処理や整相加算処理やLog圧縮処理などを施して超音波画像作成部106に出力する。超音波画像作成部106は、超音波データ収集部104から出力される受信信号に対し、フィルタ処理や走査変換処理などで二次元超音波像データを構成する。   The ultrasonic data collection unit 104 includes a transmission unit that supplies a drive signal to the probe 102 and a reception unit that processes a reception signal output from the probe 102. Here, the receiving unit performs amplification processing, phasing addition processing, log compression processing, and the like on the reception signal output from the probe 102 and outputs the result to the ultrasonic image creation unit 106. The ultrasonic image creation unit 106 configures two-dimensional ultrasonic image data with respect to the reception signal output from the ultrasonic data collection unit 104 by filter processing, scan conversion processing, or the like.

三次元画像構築部108は、超音波画像作成部106から出力された超音波像データに対し、制御部116から出力された探触子102の位置データに基づき三次元データセット(以下、ボリュームデータという)を生成する手段と、そのボリュームデータに対して設定された視線方向の各ボクセルの輝度に、各輝度に応じた透明度値を乗じて加算して三次元超音波像を再構成する手段を備えている。なお、視線方向や透明度値は、コントロールパネル118の入力指令に応じて制御部116から入力される。   The three-dimensional image construction unit 108 performs a three-dimensional data set (hereinafter referred to as volume data) on the basis of the position data of the probe 102 output from the control unit 116 with respect to the ultrasonic image data output from the ultrasonic image creation unit 106. And a means for reconstructing a three-dimensional ultrasound image by multiplying the brightness of each voxel in the line-of-sight direction set for the volume data by a transparency value corresponding to each brightness I have. The line-of-sight direction and the transparency value are input from the control unit 116 in response to an input command from the control panel 118.

構造物画像構築部110は、図2に示すように、三次元座標変換部200と、回転情報処理部201と、投影像生成手段としての最大値抽出部202と最小値抽出部204と、補正画像作成部206と、差分画像作成部208を備えている。   As shown in FIG. 2, the structure image constructing unit 110 includes a three-dimensional coordinate conversion unit 200, a rotation information processing unit 201, a maximum value extraction unit 202 and a minimum value extraction unit 204 as a projection image generation unit, and a correction. An image creation unit 206 and a difference image creation unit 208 are provided.

三次元座標変換部200は、超音波画像作成部106から出力された超音波像データを三次元座標上に再構成する。例えば、三次元座標変換部200は、超音波画像作成部106から出力された各超音波像データに対し、制御部116から出力される探触子102の位置データを関連付けてボリュームデータを生成する。回転情報処理部201は、コントロールパネル118から入力される視線方向に対応した視点情報からボリュームデータの回転情報を作成する。   The three-dimensional coordinate conversion unit 200 reconstructs the ultrasonic image data output from the ultrasonic image creation unit 106 on the three-dimensional coordinates. For example, the three-dimensional coordinate conversion unit 200 generates volume data by associating each ultrasonic image data output from the ultrasonic image creation unit 106 with the position data of the probe 102 output from the control unit 116. . The rotation information processing unit 201 creates volume data rotation information from viewpoint information corresponding to the line-of-sight direction input from the control panel 118.

最大値抽出部202は、最大値投影法により最大値投影画像を構成する。例えば、最大値抽出部202は、三次元座標変換部200から出力されるボリュームデータを回転情報処理部201から出力される回転情報に従って回転し、回転後のボリュームデータに対し、視線方向で最も高輝度のボクセルを抽出することによって高輝度構造物(例えば、腫瘍、穿刺針)の描出画像を生成する。また、最小値抽出部204は、最小値投影法により最小値投影画像を構成する。例えば、最小値抽出部204は、三次元座標変換部200から出力されるボリュームデータを回転情報処理部201から出力される回転情報に従って回転し、回転後のボリュームデータに対し、視線方向で最も低輝度のボクセルを抽出することによって低輝度構造物(例えば、血管、のう胞)の描出画像を生成する。   The maximum value extraction unit 202 configures a maximum value projection image by the maximum value projection method. For example, the maximum value extraction unit 202 rotates the volume data output from the three-dimensional coordinate conversion unit 200 according to the rotation information output from the rotation information processing unit 201, and is the highest in the line-of-sight direction with respect to the rotated volume data. By extracting luminance voxels, a rendered image of a high-luminance structure (for example, a tumor, a puncture needle) is generated. Further, the minimum value extraction unit 204 forms a minimum value projection image by the minimum value projection method. For example, the minimum value extraction unit 204 rotates the volume data output from the three-dimensional coordinate conversion unit 200 according to the rotation information output from the rotation information processing unit 201, and is the lowest in the line-of-sight direction with respect to the volume data after rotation. By extracting luminance voxels, a rendered image of a low-luminance structure (for example, a blood vessel or a cyst) is generated.

補正画像生成部206は、最大値抽出部202から出力される最大値投影画像のうち指定点又は指定領域(例えば、周辺組織に対応する点又は領域)の輝度情報を基準とし、最小値抽出部204から出力される最小値投影画像のうち前記指定領域に対応する領域の輝度情報を基準輝度情報に近づけて補正して補正後投影画像を生成する。差分画像作成部208は、補正画像作成部206から出力される補正後投影画像と最大値抽出部202から出力される最大値投影画像との差分画像を生成して構造物抽出画像として画像合成部112に出力する。   The correction image generation unit 206 uses the luminance information of a specified point or a specified region (for example, a point or region corresponding to the surrounding tissue) in the maximum value projection image output from the maximum value extraction unit 202 as a reference, and a minimum value extraction unit Of the minimum value projection image output from 204, the luminance information of the region corresponding to the specified region is corrected to be close to the reference luminance information to generate a corrected projection image. The difference image creation unit 208 generates a difference image between the corrected projection image output from the correction image creation unit 206 and the maximum value projection image output from the maximum value extraction unit 202 to generate an image composition unit as a structure extraction image. To 112.

また、図1に示す画像合成部112は、超音波画像作成部106から出力される超音波像データと、三次元画像構築部108から出力される三次元画像と、構造物画像構築部110から出力される構造物抽出画像とを必要に応じて合成することによって表示用超音波像を生成する。例えば、三次元画像構築部108から出力された三次元画像と、構造物画像構築部110から出力された構造物抽出画像とを乗算係数に基づき加算して表示用超音波像を生成する。生成された表示用超音波像は、三次元超音波画像中の構造物だけが強調表示された画像になる。なお、ここでの乗算係数は、制御部116から画像合成部112に出力される係数であり、必要に応じて変更可能な係数である。   Further, the image composition unit 112 shown in FIG. 1 outputs the ultrasound image data output from the ultrasound image creation unit 106, the 3D image output from the 3D image construction unit 108, and the structure image construction unit 110. A display ultrasonic image is generated by synthesizing the output structure extraction image as necessary. For example, the display ultrasonic image is generated by adding the three-dimensional image output from the three-dimensional image construction unit 108 and the structure extraction image output from the structure image construction unit 110 based on the multiplication coefficient. The generated ultrasonic image for display is an image in which only the structure in the three-dimensional ultrasonic image is highlighted. Note that the multiplication coefficient here is a coefficient output from the control unit 116 to the image composition unit 112 and is a coefficient that can be changed as necessary.

このように構成される超音波診断装置の基本動作について説明する。まず、探触子102の超音波送受面側を被検体の例えば体表に接触させる。接触させた探触子102に駆動信号が供給されると、探触子102から被検体に向けて超音波が送波される。送波された超音波は、被検体内を伝播する過程で生体組織の音響インピーダンスに応じてエコーとして反射する。反射エコーは、探触子102で受波された後、超音波データ収集部104により所定の処理が施される。処理が施された反射エコーに基づき、超音波画像作成部106により超音波像データが構成される。構成された超音波像データに基づき、三次元画像構築部108により三次元画像データが生成されるとともに、構造物画像構築部110により構造物抽出画像データが生成される。生成された超音波像データと三次元画像データと構造物抽出画像データは、画像合成部112により合成されることによって表示用の超音波像として生成される。生成された超音波像は、被検体の診断画像として表示部114のモニタ画面に表示される。   A basic operation of the ultrasonic diagnostic apparatus configured as described above will be described. First, the ultrasonic transmitting / receiving surface side of the probe 102 is brought into contact with, for example, the body surface of the subject. When a drive signal is supplied to the contacted probe 102, ultrasonic waves are transmitted from the probe 102 toward the subject. The transmitted ultrasonic wave is reflected as an echo according to the acoustic impedance of the living tissue in the process of propagating through the subject. The reflected echo is received by the probe 102 and then subjected to predetermined processing by the ultrasonic data collection unit 104. Ultrasonic image data is constructed by the ultrasonic image creation unit 106 based on the processed reflected echo. Based on the configured ultrasonic image data, the 3D image construction unit 108 generates 3D image data, and the structure image construction unit 110 generates structure extraction image data. The generated ultrasonic image data, three-dimensional image data, and structure extraction image data are combined by the image combining unit 112 to generate a display ultrasonic image. The generated ultrasonic image is displayed on the monitor screen of the display unit 114 as a diagnostic image of the subject.

図3は、図1及び図2の構造物画像構築部の動作を説明するための概念図である。図3に示す形態は、実質部である肝臓を撮像したものであり、肝臓内の音響インピーダンスが異なる構造物(例えば、穿刺針302、肝腫瘍304、血管306、のう胞308)を描出させる例である。図3Aは、最大値抽出部202で得られる最大値投影画像310とその輝度分布ヒストグラム312である。図3Bは、最小値抽出部204で得られる最小値投影画像314とその輝度分布ヒストグラム316である。図3Cは、補正画像作成部206で得られる補正後画像つまり輝度分布シフト後画像317とその輝度分布ヒストグラム318である。図3Dは、差分画像作成部208で得られる構造物抽出画像320である。図3Zは、輝度分布をシフトさせる概念を示す図である。なお、実質部として肝臓を撮像した例を示すが、腎臓、膵臓、脾臓、甲状線などのいわゆる実質エコーを呈する他の実質部を撮像してもよい。   FIG. 3 is a conceptual diagram for explaining the operation of the structure image construction unit of FIGS. 1 and 2. The form shown in FIG. 3 is an example in which a liver that is a substantial part is imaged, and a structure (for example, a puncture needle 302, a liver tumor 304, a blood vessel 306, and a cyst 308) having different acoustic impedances in the liver is depicted. is there. FIG. 3A shows a maximum value projection image 310 obtained by the maximum value extraction unit 202 and its luminance distribution histogram 312. FIG. 3B shows a minimum value projection image 314 obtained by the minimum value extraction unit 204 and its luminance distribution histogram 316. FIG. 3C shows a corrected image obtained by the corrected image creation unit 206, that is, a luminance distribution shifted image 317 and a luminance distribution histogram 318 thereof. FIG. 3D is a structure extraction image 320 obtained by the difference image creation unit 208. FIG. 3Z is a diagram illustrating a concept of shifting the luminance distribution. In addition, although the example which imaged the liver as a substantial part is shown, you may image the other substantial part which exhibits what is called a substantial echo, such as a kidney, pancreas, spleen, and a thyroid line.

図3Aの最大値投影画像310は、音響インピーダンスが周辺組織のものよりも大きな高輝度構造物(例えば、穿刺針302、肝腫瘍304)が描出されている。最大値投影画像310の周辺組織画像305は、例えば、組織構造などに起因した音響インピーダンスのばらつき、あるいは、超音波の波長よりも十分小さな無数の反射つまり群反射体による後方散乱波の干渉に起因したまだら模様のスペックルパターンが生じることから、輝度情報がばらついたスペックル画像になる。このスペックル画像の信号振幅の輝度分布は、輝度分布ヒストグラム312に示すように、ある輝度でピークを有する。   In the maximum value projection image 310 of FIG. 3A, a high-luminance structure (for example, a puncture needle 302 and a liver tumor 304) whose acoustic impedance is larger than that of the surrounding tissue is depicted. The surrounding tissue image 305 of the maximum value projection image 310 is caused by, for example, variations in acoustic impedance due to tissue structure or the like, or innumerable reflections sufficiently smaller than the wavelength of ultrasonic waves, that is, interference of backscattered waves by group reflectors. Since a speckle pattern with a mottled pattern is generated, a speckle image with varying luminance information is obtained. The luminance distribution of the signal amplitude of the speckle image has a peak at a certain luminance as shown in the luminance distribution histogram 312.

一方、図3Bの最小値投影画像314は、音響インピーダンスが周辺組織のものよりも小さな低輝度構造物(例えば、血管306、のう胞308)が描出されている。最小値投影画像314の周辺組織画像307についても輝度がばらついたスペックル画像になる。このスペックル画像の信号振幅の輝度分布を示したものが輝度分布ヒストグラム316である。輝度分布ヒストグラム316は、音響インピーダンスのばらつきや超音波の後方散乱波の干渉に起因して、図3Aの輝度分布ヒストグラム312と異なるものになる。すなわち、最大値投影画像310のうち不必要な情報である周辺組織画像305の輝度分布と、最小値投影画像314のうち不必要な情報である周辺組織画像307の画像の輝度分布は異なるものになる。   On the other hand, in the minimum value projection image 314 in FIG. 3B, a low-luminance structure (for example, a blood vessel 306 and a cyst 308) whose acoustic impedance is smaller than that of the surrounding tissue is depicted. The peripheral tissue image 307 of the minimum value projection image 314 is also a speckle image with varying luminance. A luminance distribution histogram 316 shows the luminance distribution of the signal amplitude of the speckle image. The luminance distribution histogram 316 is different from the luminance distribution histogram 312 in FIG. 3A due to variations in acoustic impedance and interference of ultrasonic backscattered waves. That is, the luminance distribution of the surrounding tissue image 305 that is unnecessary information in the maximum value projection image 310 and the luminance distribution of the peripheral tissue image 307 that is unnecessary information in the minimum value projection image 314 are different. Become.

そこで、補正画像作成部206は、図3Zに示すように、最大値投影画像310のうち周辺組織画像305の輝度分布のピーク位置を基準とし、最小値投影画像314のうち周辺組織画像307の輝度分布のピーク位置と前記基準ピーク位置とのズレ量Sを求める。例えば、補正画像作成部206は、輝度分布ヒストグラム312と輝度分布ヒストグラム316の相互相関関数322を求め、相互相関関数322に基づきピーク位置のズレ量Sを算定する。   Therefore, as shown in FIG. 3Z, the corrected image creation unit 206 uses the peak position of the luminance distribution of the peripheral tissue image 305 in the maximum value projection image 310 as a reference, and the luminance of the peripheral tissue image 307 in the minimum value projection image 314. A deviation amount S between the distribution peak position and the reference peak position is obtained. For example, the corrected image creation unit 206 obtains a cross-correlation function 322 between the luminance distribution histogram 312 and the luminance distribution histogram 316 and calculates a peak position shift amount S based on the cross-correlation function 322.

次に、補正画像作成部206は、ズレ量Sをゼロにするように輝度分布ヒストグラム316の輝度分布をシフトする。すなわち、補正画像作成部206は、最小値投影画像314の周辺組織画像307に対応する輝度分布ヒストグラム316のピーク位置と、最大値投影画像310の周辺組織画像305に対応する輝度分布ヒストグラム312のピーク位置とを一致させる。このように輝度分布をシフトした後のヒストグラムが図3Cの輝度分布ヒストグラム318であり、輝度分布ヒストグラム318に対応した画像が輝度分布シフト後画像317である。   Next, the corrected image creation unit 206 shifts the luminance distribution of the luminance distribution histogram 316 so that the deviation amount S is zero. That is, the corrected image creation unit 206 has the peak position of the luminance distribution histogram 316 corresponding to the peripheral tissue image 307 of the minimum value projection image 314 and the peak of the luminance distribution histogram 312 corresponding to the peripheral tissue image 305 of the maximum value projection image 310. Match the position. The histogram after shifting the luminance distribution in this way is the luminance distribution histogram 318 in FIG. 3C, and the image corresponding to the luminance distribution histogram 318 is the image 317 after the luminance distribution shift.

要するに、補正画像作成部206で求められるズレ量Sは、図3Aの周辺組織画像305と図3Bの周辺組織画像307の輝度差に相当する。したがって、補正画像作成部206は、ズレ量Sをオフセットとして最小値投影画像314に加算して輝度分布シフト後画像317を生成することによって、図3Aの周辺組織画像305の輝度と図3Cの周辺組織画像309の輝度を一致させることができる。なお、補正画像作成部206は、輝度分布シフト後画像317を差分画像作成部208に出力する。   In short, the shift amount S obtained by the corrected image creation unit 206 corresponds to the luminance difference between the peripheral tissue image 305 in FIG. 3A and the peripheral tissue image 307 in FIG. 3B. Therefore, the corrected image creation unit 206 adds the shift amount S to the minimum value projection image 314 as an offset to generate the brightness distribution shifted image 317, thereby generating the brightness of the peripheral tissue image 305 in FIG. 3A and the periphery in FIG. 3C. The brightness of the tissue image 309 can be matched. The corrected image creation unit 206 outputs the post-luminance distribution shifted image 317 to the difference image creation unit 208.

そして、差分画像作成部208は、最大値抽出部202から出力された最大値投影画像310と補正画像作成部206から出力された輝度分布シフト後画像317とを減算して構造物抽出画像320を生成する。なお、減算する際の差分係数については、コントロールパネル118を介して任意に設定可能である。   Then, the difference image creation unit 208 subtracts the maximum value projection image 310 output from the maximum value extraction unit 202 from the brightness distribution shifted image 317 output from the correction image creation unit 206 to obtain the structure extraction image 320. Generate. Note that the difference coefficient at the time of subtraction can be arbitrarily set via the control panel 118.

構造物抽出画像320は、図3Dに示すように、周辺組織画像311の輝度が除去又は低減されるから、構造物(例えば、穿刺針302、肝腫瘍304、血管306、のう胞308)の周辺組織に対するコントラストが強調された画像になる。このような構造物抽出画像320は、画像合成部112を介して表示部114に表示される。なお、図3Dにおいては、周辺組織画像311の輝度情報が除去又は低減されているため、図示の便宜上、周辺組織画像311が黒色に記載されている。   As shown in FIG. 3D, the structure extraction image 320 has the brightness of the surrounding tissue image 311 removed or reduced, so that the surrounding tissue of the structure (for example, the puncture needle 302, the liver tumor 304, the blood vessel 306, and the cyst 308). An image with enhanced contrast. Such a structure extraction image 320 is displayed on the display unit 114 via the image composition unit 112. In FIG. 3D, since the luminance information of the surrounding tissue image 311 is removed or reduced, the surrounding tissue image 311 is shown in black for convenience of illustration.

要するに、本実施形態によれば、描出すべき構造物以外の不必要な周辺組織画像305を最大値投影画像310に指定すると、輝度分布シフト後画像317の周辺組織画像309の輝度は、最大値投影画像310の周辺組織画像305の輝度に合わせられたものになる。すなわち、最大値投影画像310の周辺組織画像305の輝度と輝度分布シフト後画像317の周辺組織画像309の輝度は一致したものになる。   In short, according to the present embodiment, when an unnecessary surrounding tissue image 305 other than the structure to be rendered is designated as the maximum value projection image 310, the luminance of the surrounding tissue image 309 of the image 317 after the luminance distribution shift is the maximum value. The projection image 310 is adapted to the brightness of the surrounding tissue image 305. That is, the brightness of the surrounding tissue image 305 of the maximum value projection image 310 and the brightness of the surrounding tissue image 309 of the post-luminance distribution shifted image 317 are the same.

したがって、最大値投影画像310から輝度分布シフト後画像317を減算して構造物抽出画像320を生成すると、構造物抽出画像320は、周辺組織画像305と周辺組織画像309の輝度が打ち消されたものになる。換言すると、周辺組織画像311の画像情報が除去又は低減されるため、構造物(例えば、穿刺針302、肝腫瘍304、血管306、のう胞308)の周辺組織に対する画像コントラストが強調される。その結果、表示部114表示された構造物抽出画像320を視認することにより、構造物を判別するのが容易になるなど、超音波像の視認性を向上できる。このように図3に示す例では、肝腫瘍304を治療するために穿刺針302を体内に刺入するに際し、血管306を避けながら穿刺針302を刺入する作業を容易かつ的確に実施できる。   Therefore, when the structure extraction image 320 is generated by subtracting the luminance distribution shifted image 317 from the maximum value projection image 310, the structure extraction image 320 is obtained by canceling the luminances of the peripheral tissue image 305 and the peripheral tissue image 309. become. In other words, since the image information of the surrounding tissue image 311 is removed or reduced, the image contrast with respect to the surrounding tissue of the structure (for example, the puncture needle 302, the liver tumor 304, the blood vessel 306, and the cyst 308) is enhanced. As a result, by visually recognizing the structure extraction image 320 displayed on the display unit 114, the visibility of the ultrasonic image can be improved, for example, it becomes easy to distinguish the structure. As described above, in the example shown in FIG. 3, when the puncture needle 302 is inserted into the body to treat the liver tumor 304, the operation of inserting the puncture needle 302 while avoiding the blood vessel 306 can be performed easily and accurately.

図4は、二次元超音波像と構造物抽出画像の表示形態を示す図である。図4に示す二次元超音波像400は、図1に示す超音波画像作成部106から画像合成部112に転送されたものであり、撮像中の探触子102の走査面に対応している。また、構造物抽出画像320は、図1に示す構造物画像構築部110から画像合成部112に転送されたものであり、図3Dに示す画像に対応する。すなわち、二次元超音波像400は、必要に応じて変更される走査面に対応した画像であり、構造物抽出画像320は、二次元超音波像400の走査面の変更に追従して更新される画像である。   FIG. 4 is a diagram illustrating a display form of a two-dimensional ultrasonic image and a structure extraction image. A two-dimensional ultrasonic image 400 shown in FIG. 4 is transferred from the ultrasonic image creation unit 106 shown in FIG. 1 to the image synthesis unit 112, and corresponds to the scanning plane of the probe 102 being imaged. . The structure extraction image 320 is transferred from the structure image construction unit 110 illustrated in FIG. 1 to the image composition unit 112, and corresponds to the image illustrated in FIG. 3D. That is, the two-dimensional ultrasonic image 400 is an image corresponding to the scanning plane that is changed as necessary, and the structure extraction image 320 is updated following the change of the scanning plane of the two-dimensional ultrasonic image 400. This is an image.

このような二次元超音波像400と構造物抽出画像320は、図4に示すように、表示部114の表示画面に並んで同時に表示されている。これによれば、二次元超音波像400の関心領域内の構造物を的確に描出した構造物抽出画像320を視認することにより、診断精度や検査効率が向上する。   Such a two-dimensional ultrasonic image 400 and the structure extraction image 320 are simultaneously displayed side by side on the display screen of the display unit 114 as shown in FIG. According to this, by visually recognizing the structure extraction image 320 in which the structure in the region of interest of the two-dimensional ultrasonic image 400 is accurately depicted, diagnostic accuracy and inspection efficiency are improved.

図4に示す形態では、二次元超音波像400と構造物抽出画像320を表示画面に並べて表示する例を説明したが、これに代えて、二次元超音波像400と構造物抽出画像320を合成して表示してもよい。例えば、二次元超音波像400と構造物抽出画像320を予め決めた乗算係数で加算してもよいし、二次元超音波像400又は構造物抽出画像320の一方を半透明にし、それを他方に重畳して表示してもよい。これにより、二次元超音波像400の関心領域内の構造物を把握するのがより的確かつ容易になる。   In the embodiment shown in FIG. 4, the example in which the two-dimensional ultrasonic image 400 and the structure extraction image 320 are displayed side by side on the display screen has been described. Instead, the two-dimensional ultrasonic image 400 and the structure extraction image 320 are displayed. You may combine and display. For example, the two-dimensional ultrasonic image 400 and the structure extraction image 320 may be added with a predetermined multiplication coefficient, or one of the two-dimensional ultrasonic image 400 or the structure extraction image 320 is made translucent and the other You may superimpose and display. Thereby, it becomes more accurate and easy to grasp the structure in the region of interest of the two-dimensional ultrasonic image 400.

また、構造物抽出画像320を三次元超音波像に合成して表示できる。より具体的には、被検体に関するボリュームデータに対して設定された視線方向の各ボクセルの輝度に、その輝度に応じた透明度を乗じて構成される三次元超音波像と、三次元超音波像の表示座標に変換された構造物抽出画像320とを並べて又は重畳して表示部114に表示してもよい。   In addition, the structure extraction image 320 can be combined with a three-dimensional ultrasonic image and displayed. More specifically, a 3D ultrasound image configured by multiplying the brightness of each voxel in the line-of-sight direction set for volume data related to the subject by the transparency according to the brightness, and a 3D ultrasound image The structure extraction image 320 converted into the display coordinates may be displayed side by side or superimposed on the display unit 114.

図5は、二次元超音波像と構造物抽出画像の他の表示形態を示す図である。図5に示す二次元超音波像400は、図1に示す超音波画像作成部106から画像合成部112に転送されたものであり、探触子102の走査面に対応する。なお、説明の便宜上、二次元超音波像400を基準とし、紙面に対して垂直方向をX軸、X軸に直交した水平方向をY軸、X軸及びY軸に直交した鉛直方向をZ軸方向とする。   FIG. 5 is a diagram showing another display form of the two-dimensional ultrasonic image and the structure extraction image. A two-dimensional ultrasonic image 400 shown in FIG. 5 is transferred from the ultrasonic image creation unit 106 shown in FIG. 1 to the image synthesis unit 112 and corresponds to the scanning plane of the probe 102. For convenience of explanation, with reference to the two-dimensional ultrasonic image 400, the vertical direction with respect to the paper surface is the X axis, the horizontal direction orthogonal to the X axis is the Y axis, and the vertical direction orthogonal to the X axis and the Y axis is the Z axis. The direction.

図5に示す構造物抽出画像500は、Z軸方向からみた投影像であり、構造物(例えば、穿刺針302、肝腫瘍304、血管306、のう胞308)が抽出して表示されたものである。構造物抽出画像502は、走査面をX軸周りに回転した投影像であり、構造物が同様に描出されている。構造物抽出画像504は、Y軸方向からみた投影像であり、構造物が同様に描出されている。このような投影像を生成するに際しては、コントロールパネル118から制御部116を介して回転情報処理部201に入力する指令(例えば、穿刺針のガイド情報)に応じて投影像を作成するための視線方向を決めることができる。   A structure extraction image 500 shown in FIG. 5 is a projection image viewed from the Z-axis direction, and is a display of extracted structures (eg, puncture needle 302, liver tumor 304, blood vessel 306, and cyst 308). . The structure extraction image 502 is a projection image obtained by rotating the scanning plane around the X axis, and the structure is similarly depicted. The structure extraction image 504 is a projection image viewed from the Y-axis direction, and the structure is similarly depicted. When generating such a projected image, a line of sight for creating a projected image in accordance with a command (for example, guide information of a puncture needle) input from the control panel 118 to the rotation information processing unit 201 via the control unit 116. You can decide the direction.

図5に示す形態によれば、二次元超音波像400と、互いに直交する三方向からみた構造物抽出画像500、502、504は、表示部114の表示画面に並べて同時に表示されている。したがって、各画像を参照することにより、構造物の相対位置を多面的に把握できるから、診断精度や検査効率が一層向上する。例えば、体内に穿刺針302を刺入するに際し、穿刺針302に対する血管306又は肝腫瘍304の相対位置を的確に把握できるから、穿刺針302の刺入作業が的確かつ容易になる。   According to the form shown in FIG. 5, the two-dimensional ultrasound image 400 and the structure extraction images 500, 502, and 504 viewed from three directions orthogonal to each other are displayed side by side on the display screen of the display unit 114 at the same time. Accordingly, by referring to each image, the relative position of the structure can be grasped in a multifaceted manner, so that diagnostic accuracy and inspection efficiency are further improved. For example, when the puncture needle 302 is inserted into the body, the relative position of the blood vessel 306 or the liver tumor 304 with respect to the puncture needle 302 can be accurately grasped, so that the insertion operation of the puncture needle 302 can be performed accurately and easily.

図5に示す形態では、互いに直交する3方向の投影像を同時に表示する例を説明したが、これに限らず、要は、被検体に関するボリュームデータに対して設定された複数の視線方向のそれぞれに対応する複数の構造物抽出画像を生成し、それら構造物抽出画像を表示部114に並べて表示できる。これにより、視線方向の数に応じて構造物の相対位置等を多面的に把握できる。   In the form shown in FIG. 5, an example in which projected images in three directions orthogonal to each other are displayed at the same time is not limited to this. A plurality of extracted structure images can be generated, and the extracted structure images can be displayed side by side on the display unit 114. Thereby, the relative position etc. of a structure can be grasped from many sides according to the number of eyes directions.

図6は、図3の輝度分布シフト後画像317をインタラクティブに生成するための対話的な設定画面601の表示形態を示す図である。図6に示す形態は、輝度分布シフト後画像317を操作者の手動でインタラクティブに作成する点で、輝度分布シフト後画像317を自動生成する図3の形態と異なる。   FIG. 6 is a diagram showing a display form of an interactive setting screen 601 for interactively generating the image 317 after shifting the luminance distribution of FIG. The form shown in FIG. 6 is different from the form shown in FIG. 3 in which the post-luminance distribution shifted image 317 is automatically generated in that the post-luminance distribution shifted image 317 is manually created interactively by the operator.

図6に示す設定画面601は、輝度分布シフト後画像317の表示領域と、構造物抽出画像320の表示領域と、輝度分布ヒストグラム603の表示領域と、輝度分布シフト量調整バー605の表示領域を有する。操作者は、コントロールパネル118を介して輝度分布シフト量調整バー605のカーソル607を移動させると、前述のズレ量Sを任意に設定できる。ズレ量Sを可変するにつれて、輝度分布シフト後画像317の輝度がリアルタイムに更新されるし、輝度分布シフト後画像317を用いて生成される構造物抽出画像320の輝度もリアルタイムに更新される。   The setting screen 601 illustrated in FIG. 6 includes a display area for the luminance distribution shifted image 317, a display area for the structure extraction image 320, a display area for the luminance distribution histogram 603, and a display area for the luminance distribution shift amount adjustment bar 605. Have. When the operator moves the cursor 607 of the luminance distribution shift amount adjustment bar 605 via the control panel 118, the above-described deviation amount S can be arbitrarily set. As the shift amount S is varied, the luminance of the post-luminance distribution shifted image 317 is updated in real time, and the luminance of the structure extraction image 320 generated using the post-luminance distribution shifted image 317 is also updated in real time.

ここで、輝度分布ヒストグラム603は、基準として設定した最大値投影画像310の輝度分布609と、輝度分布シフト後画像317の現在の輝度分布611の双方が表示されている。したがって、操作者は、輝度分布ヒストグラム603を参照しながらカーソル607を操作することにより、輝度分布611を輝度分布609側に移動させる作業を視覚的に行えるから、輝度分布611のピーク位置を輝度分布609のピーク位置に合わせることが容易になる。また、カーソル607の動きに連動して構造物抽出画像320の輝度も更新されるから、構造物抽出画像320も同時に参照しながらカーソル607を操作することにより、視認性がより一層向上した構造物抽出画像320を簡単に得ることができる。   Here, the luminance distribution histogram 603 displays both the luminance distribution 609 of the maximum value projection image 310 set as a reference and the current luminance distribution 611 of the image 317 after the luminance distribution shift. Therefore, the operator can visually move the luminance distribution 611 to the luminance distribution 609 side by operating the cursor 607 while referring to the luminance distribution histogram 603. Therefore, the peak position of the luminance distribution 611 is changed to the luminance distribution. It becomes easy to match the peak position of 609. Further, since the brightness of the structure extraction image 320 is also updated in conjunction with the movement of the cursor 607, the visibility is further improved by operating the cursor 607 while simultaneously referring to the structure extraction image 320. The extracted image 320 can be easily obtained.

上述のように、第一の実施形態により本発明を適用した超音波診断装置を説明したが、これに限られるものではない。例えば、操作者が任意の領域のみを除去して観察を行いたい場合は、図4に示すように、二次元超音波像400に関心領域を指定し、設定された関心領域に対応する輝度分布ヒストグラムに基づき、図3に示す最大値投影画像310の輝度分布のピーク位置と最小値投影画像314の輝度分布のピーク位置とのズレ量Sを求めることができる。   As described above, the ultrasonic diagnostic apparatus to which the present invention is applied has been described according to the first embodiment, but is not limited thereto. For example, when the operator wants to perform observation while removing only an arbitrary region, as shown in FIG. 4, the region of interest is specified in the two-dimensional ultrasonic image 400, and the luminance distribution corresponding to the set region of interest is set. Based on the histogram, a deviation amount S between the peak position of the luminance distribution of the maximum value projection image 310 shown in FIG. 3 and the peak position of the luminance distribution of the minimum value projection image 314 can be obtained.

また、二次元超音波像400に任意の点を指定し、指定された点に関しての最大値投影画像310の最小値投影画像314の輝度差を求め、求めた輝度差をオフセットとして最小値投影画像314に加算してもよい。これにより、最大値投影画像310の周辺組織画像305の輝度と最小値投影画像314の周辺組織画像307の輝度を一致させて輝度分布シフト後画像317を生成することができる。   Further, an arbitrary point is designated on the two-dimensional ultrasonic image 400, the luminance difference of the minimum value projection image 314 of the maximum value projection image 310 with respect to the designated point is obtained, and the minimum value projection image is obtained using the obtained luminance difference as an offset. You may add to 314. As a result, the brightness distribution shifted image 317 can be generated by matching the brightness of the surrounding tissue image 305 of the maximum value projection image 310 with the brightness of the surrounding tissue image 307 of the minimum value projection image 314.

(第二の実施形態)
本発明を適用した超音波診断装置の第二の実施形態について図面を参照して説明する。本実施形態の超音波診断装置は、最小値投影画像の周辺組織画像の輝度を最大値投影画像の周辺組織画像の輝度を合わせる前に、最小値投影画像のコントラストを調整する点で、各投影画像の輝度分布に基づき各投影画像の周辺組織画像の輝度を合わせる第一の実施形態と異なる。したがって、第一の実施形態と相互に対応する箇所については説明を省略し、相違点を中心に説明する。
(Second embodiment)
A second embodiment of an ultrasonic diagnostic apparatus to which the present invention is applied will be described with reference to the drawings. The ultrasonic diagnostic apparatus of the present embodiment adjusts the contrast of the minimum value projection image before adjusting the luminance of the peripheral tissue image of the minimum value projection image to the luminance of the peripheral tissue image of the maximum value projection image. This is different from the first embodiment in which the brightness of the surrounding tissue image of each projection image is matched based on the brightness distribution of the image. Therefore, description of portions corresponding to the first embodiment will be omitted, and differences will be mainly described.

図7は、本実施形態の構造物画像構築部の動作を説明するための概念図である。本実施形態の構造物画像構築部は、図2に示す補正画像作成部206の処理内容が第一の実施形態と異なる。図2及び図7を参照すると、まず、補正画像作成部206は、最小値抽出部204で得られた最小値投影画像314の画像データに基づき、最小値投影画像314の最大輝度値、最小輝度値、中央輝度値を算出する。その後、補正画像作成部206は、最大輝度値と最小輝度値の差をシステムが保持する輝度階調に変換し、中央輝度値をオフセットとして採用する。そして、補正画像作成部206は、コントラストがゼロの場合は、中央輝度値になるようなガンマカーブを自動作成し、作成したガンマカーブに基づき最小値投影画像314に対してコントラストの調整をする。要するに、補正画像作成部206は、最小値投影画像314の中央輝度値を変更せずに、コントラストの良好な画像に変更する。なお、最小値投影画像314のコントラストを調整するに際し、最小値投影画像314の中央輝度値を用いたが、その中央輝度値に代えて平均輝度値を用いてもよい。   FIG. 7 is a conceptual diagram for explaining the operation of the structure image construction unit of the present embodiment. The structure image construction unit of the present embodiment differs from the first embodiment in the processing content of the corrected image creation unit 206 shown in FIG. 2 and 7, first, the corrected image creating unit 206 is based on the image data of the minimum value projection image 314 obtained by the minimum value extraction unit 204, and the maximum luminance value and the minimum luminance of the minimum value projection image 314. Value and median luminance value are calculated. Thereafter, the corrected image creating unit 206 converts the difference between the maximum luminance value and the minimum luminance value into a luminance gradation held by the system, and adopts the central luminance value as an offset. Then, when the contrast is zero, the corrected image creation unit 206 automatically creates a gamma curve that has a central luminance value, and adjusts the contrast for the minimum value projected image 314 based on the created gamma curve. In short, the corrected image creation unit 206 changes the image to a good contrast without changing the central luminance value of the minimum value projection image 314. Note that, when adjusting the contrast of the minimum value projection image 314, the central luminance value of the minimum value projection image 314 is used, but an average luminance value may be used instead of the central luminance value.

次に、補正画像作成部206は、コントラスト調整後の最小値投影画像314の中央輝度値を求めるとともに、最大値抽出部202で得られた最大値投影画像310の中央輝度値を求める。その後、補正画像作成部206は、最小値投影画像314の中央輝度値と、最大値投影画像310の中央輝度値との比を算定し、算定した比を補正係数として最小値投影画像314に乗算してコントラスト補正後画像701を生成する。ここでの補正係数は、最小値投影画像314の中央輝度値と、最大値投影画像310の中央輝度値との輝度差を反映したものである。したがって、補正係数を最小値投影画像314に乗じることにより、最大値投影画像310の周辺組織画像305の輝度値と、コントラスト補正後画像701の周辺組織画像703の輝度値を等しい値にできる。なお、補正係数については、コントロールパネル118を介して必要に応じて変更することもできる。   Next, the corrected image creating unit 206 obtains the central luminance value of the minimum value projected image 314 after contrast adjustment, and obtains the central luminance value of the maximum value projected image 310 obtained by the maximum value extracting unit 202. Thereafter, the corrected image creating unit 206 calculates a ratio between the central luminance value of the minimum value projected image 314 and the central luminance value of the maximum value projected image 310, and multiplies the minimum value projected image 314 by using the calculated ratio as a correction coefficient. Thus, a contrast-corrected image 701 is generated. The correction coefficient here reflects a luminance difference between the central luminance value of the minimum value projection image 314 and the central luminance value of the maximum value projection image 310. Therefore, by multiplying the minimum value projection image 314 by the correction coefficient, the luminance value of the peripheral tissue image 305 of the maximum value projection image 310 and the luminance value of the peripheral tissue image 703 of the contrast corrected image 701 can be made equal. The correction coefficient can be changed as needed via the control panel 118.

そして、図2に示す差分画像作成部208は、最大値抽出部202から出力された最大値投影画像310と補正画像作成部206から出力されたコントラスト補正後画像701とを減算して構造物抽出画像705を生成する。   Then, the difference image creation unit 208 shown in FIG. 2 subtracts the maximum value projection image 310 output from the maximum value extraction unit 202 and the contrast-corrected image 701 output from the correction image creation unit 206 to extract a structure. An image 705 is generated.

本実施形態によれば、コントラスト補正後画像701のうち周辺組織画像703の輝度は、最大値投影画像310の周辺組織画像305の輝度に合わせられたものになる。したがって、最大値投影画像310からコントラスト補正後画像701を減算して構造物抽出画像705を生成すると、構造物抽出画像705は、その周辺組織画像707の画像情報が除去されるため、構造物の周辺組織に対する画像コントラストが強調される。その結果、表示部114に表示された構造物抽出画像320を視認することにより、構造物を判別するのが容易になるなど、超音波像の視認性を向上できる。   According to the present embodiment, the luminance of the surrounding tissue image 703 in the post-contrast correction image 701 is adjusted to the luminance of the surrounding tissue image 305 of the maximum value projection image 310. Therefore, when the structure extraction image 705 is generated by subtracting the contrast-corrected image 701 from the maximum value projection image 310, the structure extraction image 705 removes the image information of the surrounding tissue image 707. Image contrast with respect to surrounding tissue is enhanced. As a result, by visually recognizing the structure extraction image 320 displayed on the display unit 114, it is possible to improve the visibility of the ultrasonic image, such as making it easier to determine the structure.

以上、第一及び第二の実施形態により本発明を適用した超音波診断装置を適用したが、これに限られるものではない。例えば、第一及び第二の実施形態では、最大値投影画像と最小値投影画像という二つの投影像を用いた例を説明したが、二以上の投影像を生成した場合にも本発明を適用できる。   As described above, the ultrasonic diagnostic apparatus to which the present invention is applied is applied according to the first and second embodiments, but is not limited thereto. For example, in the first and second embodiments, the example using two projection images, that is, the maximum value projection image and the minimum value projection image has been described. However, the present invention is also applied to the case where two or more projection images are generated. it can.

より具体的には、図2の三次元座標変換部200から出力されるボリュームデータに対して設定された視線方向のボクセルのうち、輝度が設定範囲Aに該当するボクセルのデータに基づき一の投影像A´を生成し、輝度が設定範囲Bに該当するボクセルのデータに基づき一の投影像B´を生成し、輝度が設定範囲Cに該当するボクセルのデータに基づき一の投影像C´を生成する。そして、投影像A´〜投影像C´のうち例えば投影像A´を基準投影像として選択する。次に、投影像A´のうち不必要な画像情報(例えば、周辺組織画像)の輝度と、投影像B´及びC´のうち不必要な画像情報(例えば、周辺組織画像)の輝度が一致するように、投影像B´及び投影像C´の輝度情報を補正して新たな投影像B´´及び投影像C´´を生成する。次いで、補正後の投影像B´´と投影像A´の差分画像Dを生成するとともに、補正後の投影像C´´と投影像A´の差分画像Eを生成する。最後に、差分画像Dと差分画像Eを合成した構造物抽出画像を表示部114に表示する。このように複数の投影像に基づき構造物抽出画像を表示することにより、音響インピーダンスの大きさが異なる多層構造の構造物の形状、構造又は相対位置を的確に把握できる。   More specifically, one projection is performed based on the data of voxels whose luminance corresponds to the setting range A among the voxels in the line-of-sight direction set for the volume data output from the three-dimensional coordinate conversion unit 200 of FIG. An image A ′ is generated, one projection image B ′ is generated based on voxel data whose luminance corresponds to the setting range B, and one projection image C ′ is generated based on voxel data whose luminance corresponds to the setting range C. Generate. Then, for example, the projection image A ′ is selected as the reference projection image among the projection images A ′ to C ′. Next, the brightness of unnecessary image information (for example, surrounding tissue images) in the projection image A ′ matches the brightness of unnecessary image information (for example, surrounding tissue images) in the projection images B ′ and C ′. As described above, the brightness information of the projection image B ′ and the projection image C ′ is corrected to generate new projection images B ″ and projection images C ″. Next, a difference image D between the corrected projection image B ″ and the projection image A ′ is generated, and a difference image E between the corrected projection image C ″ and the projection image A ′ is generated. Finally, a structure extraction image obtained by synthesizing the difference image D and the difference image E is displayed on the display unit 114. Thus, by displaying a structure extraction image based on a plurality of projection images, it is possible to accurately grasp the shape, structure, or relative position of a multilayer structure having different acoustic impedance magnitudes.

要するに、本実施形態の超音波診断装置は、ボリュームデータに対して設定された視線方向のボクセルのうち、輝度が一の設定範囲に該当するボクセルのデータに基づき一の投影像を生成し、輝度が他の設定範囲に該当するボクセルのデータに基づき他の投影像を生成する投影像生成手段を有し、一の投影像のうち指定領域の輝度情報を基準とし、他の投影像のうち指定領域に対応する領域の輝度情報を基準輝度情報に近づけて補正し、補正後の投影像と一の投影像との差分画像を表示用の超音波像として生成する手段を備えて構成することにより、体内構造物が描出された超音波像の視認性を向上させることができる。   In short, the ultrasonic diagnostic apparatus according to the present embodiment generates one projection image based on voxel data corresponding to a set range of luminance among the voxels in the line-of-sight direction set for the volume data, and the luminance Has a projection image generation means for generating another projection image based on voxel data corresponding to another setting range, and designates the luminance information of a specified area in one projection image as a reference and designates in another projection image By comprising means for correcting the luminance information of the area corresponding to the area close to the reference luminance information, and generating a difference image between the corrected projected image and the one projected image as an ultrasonic image for display. The visibility of the ultrasonic image in which the internal structure is depicted can be improved.

本発明を適用した第一の実施形態の超音波診断装置の構成を示すブロック図である。It is a block diagram which shows the structure of the ultrasonic diagnosing device of 1st embodiment to which this invention is applied. 図1の構造物画像構築部の詳細構成を示すブロック図である。It is a block diagram which shows the detailed structure of the structure image construction part of FIG. 図1及び図2の構造物画像構築部の動作を説明するための概念図である。It is a conceptual diagram for demonstrating operation | movement of the structure image construction part of FIG.1 and FIG.2. 二次元超音波像と構造物抽出画像の表示形態を示す図である。It is a figure which shows the display form of a two-dimensional ultrasonic image and a structure extraction image. 二次元超音波像と構造物抽出画像の他の表示形態を示す図である。It is a figure which shows the other display form of a two-dimensional ultrasonic image and a structure extraction image. 図3の輝度分布シフト後画像を対話的に生成するための設定画面の表示形態を示す図である。It is a figure which shows the display form of the setting screen for producing | generating the image after the luminance distribution shift of FIG. 3 interactively. 本発明を適用した第二の実施形態の構造物画像構築部の動作を説明するための概念図である。It is a conceptual diagram for demonstrating operation | movement of the structure image construction part of 2nd embodiment to which this invention is applied.

符号の説明Explanation of symbols

102 超音波探触子
104 超音波データ収集部
106 超音波画像作成部
110 構造物画像構築部
112 画像合成部
114 表示部
202 最大値抽出部
204 最小値抽出部
206 補正画像作成部
208 差分画像作成部
310 最大値投影画像
312,316,318 輝度分布ヒストグラム
314 最小値投影画像
317 輝度分布シフト後画像
320 構造物抽出画像
102 Ultrasonic probe 104 Ultrasound data collection unit 106 Ultrasound image creation unit 110 Structure image construction unit 112 Image composition unit 114 Display unit 202 Maximum value extraction unit 204 Minimum value extraction unit 206 Correction image creation unit 208 Difference image creation Unit 310 Maximum Value Projected Image 312, 316, 318 Luminance Distribution Histogram 314 Minimum Value Projected Image 317 Luminance Distribution Shifted Image 320 Structure Extraction Image

Claims (7)

被検体との間で超音波を送受する超音波探触子と、該超音波探触子に駆動信号を供給するとともに前記超音波探触子から出力される受信信号を受信する送受信手段と、該送受信手段から出力される受信信号に基づき超音波像を再構成する画像処理部と、前記超音波像を表示する表示部とを備え、
前記画像処理部は、前記受信信号に基づき前記被検体に関するボリュームデータを生成する手段と、前記ボリュームデータに対して設定された視線方向のボクセルのうち、輝度が一の設定範囲に該当するボクセルのデータに基づき一の投影像を生成し、輝度が他の設定範囲に該当するボクセルのデータに基づき他の投影像を生成する投影像生成手段を有し、
前記一の投影像上の指定点又は指定領域の輝度情報を基準とし、前記他の投影像のうち前記指定点又は指定領域に対応した領域の輝度情報を前記基準輝度情報に近づけて補正し、該補正後の他の投影像と前記一の投影像との差分画像を表示用の超音波像として生成することを特徴とする超音波診断装置。
An ultrasonic probe for transmitting and receiving ultrasonic waves to and from the subject, a transmission / reception means for supplying a drive signal to the ultrasonic probe and receiving a reception signal output from the ultrasonic probe; An image processing unit for reconstructing an ultrasonic image based on a reception signal output from the transmission / reception means, and a display unit for displaying the ultrasonic image,
The image processing unit is configured to generate volume data relating to the subject based on the received signal, and among voxels in a line-of-sight direction set for the volume data, a luminance of a voxel corresponding to a set range of luminance A projection image generating means for generating one projection image based on the data and generating another projection image based on the data of the voxel whose luminance falls in another setting range;
The luminance information of the designated point or designated area on the one projection image is used as a reference, and the luminance information of the area corresponding to the designated point or designated area in the other projected image is corrected close to the reference luminance information, An ultrasonic diagnostic apparatus, wherein a difference image between the other projected image after the correction and the one projected image is generated as an ultrasonic image for display.
前記画像処理部は、前記一の投影像の前記指定点又は指定領域の輝度分布のピーク位置を基準とし、前記他の投影像のうち前記指定点又は指定領域に対応した領域の輝度分布のピーク位置を前記基準ピーク位置に合わせて補正することを特徴とする請求項1に記載の超音波診断装置。   The image processing unit uses the peak position of the luminance distribution of the designated point or designated area of the one projection image as a reference, and the peak of the luminance distribution of the area corresponding to the designated point or designated area of the other projected image The ultrasonic diagnostic apparatus according to claim 1, wherein the position is corrected according to the reference peak position. 前記画像処理部は、前記一の投影像の前記指定点又は指定領域の輝度値を基準とし、前記他の投影像のコントラストを調整した後に、該調整後の他の投影像のうち前記指定点又は指定領域に対応した領域の輝度値を前記基準輝度値に合わせて補正することを特徴とする請求項1に記載の超音波診断装置。   The image processing unit adjusts the contrast of the other projected image with reference to the luminance value of the designated point or designated area of the one projected image, and then the designated point of the other projected image after the adjustment. The ultrasonic diagnostic apparatus according to claim 1, wherein a luminance value of an area corresponding to the designated area is corrected according to the reference luminance value. 前記画像処理部は、前記一の投影像として最大値投影画像を生成し、前記他の投影像として最小値投影画像を生成することを特徴とする請求項1乃至3のいずれかに記載の超音波診断装置。   The super image according to any one of claims 1 to 3, wherein the image processing unit generates a maximum value projection image as the one projection image and generates a minimum value projection image as the other projection image. Ultrasonic diagnostic equipment. 前記画像処理部は、前記超音波探触子の走査面に対応する二次元超音波像と、前記走査面の変更に追従して更新される前記差分画像とを並べて又は重畳して前記表示部に表示させることを特徴とする請求項1乃至4のいずれかに記載の超音波診断装置。   The image processing unit arranges or superimposes the two-dimensional ultrasonic image corresponding to the scanning surface of the ultrasonic probe and the difference image updated following the change of the scanning surface, or the display unit. The ultrasonic diagnostic apparatus according to claim 1, wherein the ultrasonic diagnostic apparatus is displayed. 前記画像処理部は、前記被検体に関するボリュームデータに対して設定された視線方向の各ボクセルの輝度に、該輝度に応じた透明度を乗じて構成される三次元超音波像と、該三次元超音波像の表示座標に変換された前記差分画像とを並べて又は重畳して前記表示部に表示させることを特徴とする請求項1乃至5のいずれかに記載の超音波診断装置。   The image processing unit includes a three-dimensional ultrasound image configured by multiplying the luminance of each voxel in the line-of-sight direction set with respect to the volume data related to the subject by the transparency according to the luminance, The ultrasonic diagnostic apparatus according to claim 1, wherein the difference image converted into a display coordinate of a sound wave image is displayed side by side or superimposed on the display unit. 前記画像処理部は、前記被検体に関するボリュームデータに対して設定された複数の視線方向に対応した複数の前記差分画像を生成し、該複数の差分画像を並べて前記表示部に表示させることを特徴とする請求項1乃至6のいずれかに記載の超音波診断装置。
The image processing unit generates a plurality of difference images corresponding to a plurality of line-of-sight directions set for volume data related to the subject, and displays the plurality of difference images side by side on the display unit. The ultrasonic diagnostic apparatus according to any one of claims 1 to 6.
JP2005246016A 2005-08-26 2005-08-26 Ultrasonic diagnostic equipment Expired - Fee Related JP4740695B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005246016A JP4740695B2 (en) 2005-08-26 2005-08-26 Ultrasonic diagnostic equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005246016A JP4740695B2 (en) 2005-08-26 2005-08-26 Ultrasonic diagnostic equipment

Publications (2)

Publication Number Publication Date
JP2007054504A true JP2007054504A (en) 2007-03-08
JP4740695B2 JP4740695B2 (en) 2011-08-03

Family

ID=37918482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005246016A Expired - Fee Related JP4740695B2 (en) 2005-08-26 2005-08-26 Ultrasonic diagnostic equipment

Country Status (1)

Country Link
JP (1) JP4740695B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009064398A (en) * 2007-09-10 2009-03-26 Olympus Corp Cell analysis method, apparatus and program
JP2010227499A (en) * 2009-03-30 2010-10-14 Aloka Co Ltd Ultrasonic diagnostic apparatus
WO2010143587A1 (en) * 2009-06-10 2010-12-16 株式会社 日立メディコ Ultrasonic diagnosis device, ultrasonic image processing device, ultrasonic image processing program, and ultrasonic image generation method
JP2012213606A (en) * 2011-04-01 2012-11-08 Toshiba Corp Ultrasonic diagnostic apparatus, and control program
CN103049920A (en) * 2011-10-14 2013-04-17 美国西门子医疗解决公司 Identifying regions of interest in medical imaging data
JP2016016159A (en) * 2014-07-09 2016-02-01 キヤノン株式会社 Analyte information acquisition device and control method of analyte information acquisition device
RU2620865C2 (en) * 2012-06-25 2017-05-30 Конинклейке Филипс Н.В. System and method for three-dimensional ultrasound measuring volumetric areas

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104173073B (en) * 2013-11-19 2015-09-30 上海联影医疗科技有限公司 A kind of method of three-dimensional localization

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08161520A (en) * 1994-12-06 1996-06-21 Hitachi Medical Corp Method for extracting object part from three-dimensional image
JPH1147134A (en) * 1997-05-07 1999-02-23 General Electric Co <Ge> Three-dimensional imaging system and method for ultrasonic scattered medium
JPH1156840A (en) * 1997-08-15 1999-03-02 Ge Yokogawa Medical Syst Ltd Projected imaging and ultrasonograph
JP2001170056A (en) * 1999-12-20 2001-06-26 Ge Yokogawa Medical Systems Ltd Ultrasonic image display method and ultrasonograph
JP2001276066A (en) * 2000-03-29 2001-10-09 Toshiba Corp Three-dimensional image processor
JP2002190010A (en) * 2000-12-22 2002-07-05 Mitsubishi Space Software Kk Method and device for correcting difference image for detecting shape change
JP2004152043A (en) * 2002-10-31 2004-05-27 Fuji Photo Film Co Ltd Method for correcting difference image, and image processor

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08161520A (en) * 1994-12-06 1996-06-21 Hitachi Medical Corp Method for extracting object part from three-dimensional image
JPH1147134A (en) * 1997-05-07 1999-02-23 General Electric Co <Ge> Three-dimensional imaging system and method for ultrasonic scattered medium
JPH1156840A (en) * 1997-08-15 1999-03-02 Ge Yokogawa Medical Syst Ltd Projected imaging and ultrasonograph
JP2001170056A (en) * 1999-12-20 2001-06-26 Ge Yokogawa Medical Systems Ltd Ultrasonic image display method and ultrasonograph
JP2001276066A (en) * 2000-03-29 2001-10-09 Toshiba Corp Three-dimensional image processor
JP2002190010A (en) * 2000-12-22 2002-07-05 Mitsubishi Space Software Kk Method and device for correcting difference image for detecting shape change
JP2004152043A (en) * 2002-10-31 2004-05-27 Fuji Photo Film Co Ltd Method for correcting difference image, and image processor

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009064398A (en) * 2007-09-10 2009-03-26 Olympus Corp Cell analysis method, apparatus and program
JP2010227499A (en) * 2009-03-30 2010-10-14 Aloka Co Ltd Ultrasonic diagnostic apparatus
US8948485B2 (en) 2009-06-10 2015-02-03 Hitachi Medical Corporation Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, ultrasonic image processing program, and ultrasonic image generation method
WO2010143587A1 (en) * 2009-06-10 2010-12-16 株式会社 日立メディコ Ultrasonic diagnosis device, ultrasonic image processing device, ultrasonic image processing program, and ultrasonic image generation method
CN102458255A (en) * 2009-06-10 2012-05-16 株式会社日立医疗器械 Ultrasonic diagnosis device, ultrasonic image processing device, ultrasonic image processing program, and ultrasonic image generation method
JP2012213606A (en) * 2011-04-01 2012-11-08 Toshiba Corp Ultrasonic diagnostic apparatus, and control program
US11751842B2 (en) 2011-04-01 2023-09-12 Toshiba Medical Systems Corporation Ultrasound diagnosis apparatus and controlling method
US9326749B2 (en) 2011-04-01 2016-05-03 Kabushiki Kaisha Toshiba Ultrasound diagnosis apparatus and controlling method
GB2496246A (en) * 2011-10-14 2013-05-08 Siemens Medical Solutions Identifying regions of interest in medical imaging data
US9117141B2 (en) 2011-10-14 2015-08-25 Siemens Medical Solutions Usa, Inc. Method and apparatus for identifying regions of interest in medical imaging data
CN103049920B (en) * 2011-10-14 2016-02-17 美国西门子医疗解决公司 For identifying method and the device of area-of-interest in medical imaging data
GB2496246B (en) * 2011-10-14 2013-10-30 Siemens Medical Solutions Method and apparatus for identifying regions of interest in medical imaging data
CN103049920A (en) * 2011-10-14 2013-04-17 美国西门子医疗解决公司 Identifying regions of interest in medical imaging data
RU2620865C2 (en) * 2012-06-25 2017-05-30 Конинклейке Филипс Н.В. System and method for three-dimensional ultrasound measuring volumetric areas
JP2016016159A (en) * 2014-07-09 2016-02-01 キヤノン株式会社 Analyte information acquisition device and control method of analyte information acquisition device

Also Published As

Publication number Publication date
JP4740695B2 (en) 2011-08-03

Similar Documents

Publication Publication Date Title
JP4847334B2 (en) Ultrasonic imaging apparatus and projection image generation method
JP4740695B2 (en) Ultrasonic diagnostic equipment
JP5264097B2 (en) Ultrasonic diagnostic equipment
JP5495357B2 (en) Image display method and medical image diagnostic system
JP3187148B2 (en) Ultrasound diagnostic equipment
CN100518656C (en) Ultrasonographic apparatus, ultrasonographic data processing method, and ultrasonographic data processing program
US20120113111A1 (en) Ultrasonic diagnosis system and image data display control program
WO2014021402A1 (en) Ultrasonic diagnostic device and control method
WO2012161088A1 (en) Ultrasound diagnostic apparatus
JP6125380B2 (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and image processing program
JP5559580B2 (en) Ultrasound system and method for aligning 3D ultrasound images
JP2009018115A (en) Three-dimensional ultrasonograph
US9566044B2 (en) Medical image display apparatus and ultrasonic diagnosis apparatus
JP4864554B2 (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image processing program
WO2012053514A1 (en) Ultrasound diagnostic apparatus, ultrasound image-processing apparatus and ultrasound image-processing method
JP5996268B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and program
JP4936281B2 (en) Ultrasonic diagnostic equipment
US20120095341A1 (en) Ultrasonic image processing apparatus and ultrasonic image processing method
KR101107478B1 (en) Ultrasound system and method for forming a plurality of 3 dimensional ultrasound images
JP5562785B2 (en) Ultrasonic diagnostic apparatus and method
JP2009061182A (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and ultrasonic image processing program
JP6169911B2 (en) Ultrasonic image pickup apparatus and ultrasonic image display method
JP5331313B2 (en) Ultrasonic diagnostic equipment
JP2008079885A (en) Ultrasonic diagnostic equipment
JP2019205604A (en) Blood flow image processor and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110419

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110502

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4740695

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees