JP2012045253A - Ultrasonograph - Google Patents
Ultrasonograph Download PDFInfo
- Publication number
- JP2012045253A JP2012045253A JP2010191757A JP2010191757A JP2012045253A JP 2012045253 A JP2012045253 A JP 2012045253A JP 2010191757 A JP2010191757 A JP 2010191757A JP 2010191757 A JP2010191757 A JP 2010191757A JP 2012045253 A JP2012045253 A JP 2012045253A
- Authority
- JP
- Japan
- Prior art keywords
- value
- ray
- voxel
- rendering operation
- rendering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
Description
本発明は、三次元空間内から得られる速度情報に基づいて表示画像を形成する超音波診断装置に関する。 The present invention relates to an ultrasonic diagnostic apparatus that forms a display image based on velocity information obtained from a three-dimensional space.
三次元空間内からエコー情報を収集して三次元の超音波画像を形成する装置が知られている。例えば、特許文献1には、三次元の生体組織画像と血流画像とを同時に表示する超音波診断装置が示されている。この装置により、例えば、生体組織部分を白で表示させて血流部分を赤く表示させ、さらに、生体組織部分と血流部分の前後関係をより明確に表現した画像を形成することができる。 An apparatus that collects echo information from within a three-dimensional space to form a three-dimensional ultrasound image is known. For example, Patent Document 1 discloses an ultrasonic diagnostic apparatus that simultaneously displays a three-dimensional biological tissue image and a blood flow image. With this device, for example, the biological tissue portion can be displayed in white, the blood flow portion can be displayed in red, and an image that more clearly expresses the front-rear relationship between the biological tissue portion and the blood flow portion can be formed.
また、例えば、正方向の血流に対して暖色系の色相を割り当て、負方向の血流に対して寒色系の色相を割り当てることにより、血流の方向を表現したカラードプラ画像が知られており、特許文献2には、カラードプラの情報を三次元画像に反映させる技術が示されている。 In addition, for example, a color Doppler image representing the direction of blood flow by assigning a warm color hue to the positive blood flow and assigning a cold color hue to the negative blood flow is known. Japanese Patent Application Laid-Open No. H10-228561 discloses a technique for reflecting color Doppler information in a three-dimensional image.
上述した基礎的な技術に支えられ、近年においては、三次元画像を形成する際の視点を超音波プローブに固定せず、視点の位置を任意に変更できる装置も登場している。この装置によれば、例えば医師等のユーザが診断状況等に応じた所望の位置に視点を設定し、診断対象の三次元画像を観察することが可能になる。 In recent years, supported by the basic technology described above, devices that can arbitrarily change the position of the viewpoint without fixing the viewpoint at the time of forming a three-dimensional image to the ultrasonic probe have appeared. According to this apparatus, for example, a user such as a doctor can set a viewpoint at a desired position according to a diagnosis situation or the like and observe a three-dimensional image to be diagnosed.
ところが、診断対象が血流でありその方向を色で表現する場合において、例えば、超音波ビームの方向を基準として、固定的に、正方向の血流を暖色系の色相として負方向の血流を寒色系の色相とすると、視点の位置が超音波プローブ側にある場合には、視点に向かってくる血流が暖色系となり視点から遠ざかる血流が寒色系となるため、カラードプラと同様な色の表現が維持されるものの、視点の位置が血流を挟んで超音波プローブの反対側に設定されてしまうと、視点に向かってくる血流が寒色系となり視点から遠ざかる血流が暖色系となるため、カラードプラにおける色の表現と逆になってしまう。 However, when the object to be diagnosed is blood flow and its direction is expressed in color, for example, with reference to the direction of the ultrasonic beam, the blood flow in the negative direction is fixed with the positive blood flow as the warm hue. If the position of the viewpoint is on the ultrasonic probe side, the blood flow toward the viewpoint is a warm color system and the blood flow away from the viewpoint is a cold color system. Although color expression is maintained, if the viewpoint position is set on the opposite side of the ultrasound probe across the blood flow, the blood flow toward the viewpoint becomes a cold color system and the blood flow away from the viewpoint is a warm color system Therefore, the color expression in the color Doppler is reversed.
つまり、超音波ビームの方向を基準として速度情報を表示してしまうと、視点の位置の変更に対して十分に対応しきれない。 In other words, if the speed information is displayed based on the direction of the ultrasonic beam, the change in the viewpoint position cannot be sufficiently handled.
上述した背景技術に鑑み、本願の発明者は、視点の位置を任意に変更して三次元画像を形成する技術について研究開発を重ねてきた。 In view of the background art described above, the inventor of the present application has repeatedly researched and developed a technique for forming a three-dimensional image by arbitrarily changing the position of the viewpoint.
本発明は、その研究開発の過程において成されたものであり、その目的は、三次元画像に関する視点の位置を基準として速度情報を表示する技術を提供することにある。 The present invention has been made in the course of research and development, and an object of the present invention is to provide a technique for displaying speed information on the basis of the position of the viewpoint regarding a three-dimensional image.
上記目的にかなう好適な超音波診断装置は、三次元空間に対して互いに異なる複数の原点方向から超音波を送受する送受波部と、前記送受波部を制御することにより、前記各原点方向ごとに超音波ビームを立体的に走査して各原点方向ごとに三次元的にエコーデータを収集する送受信処理部と、前記三次元空間に対応したデータ空間内の各座標ごとに、前記複数の原点方向から得られるその座標に対応した複数のエコーデータに基づいて、その座標における三次元の速度ベクトル情報を得る三次元情報生成部と、前記データ空間に対して設定された視点側からデータ空間内を通る複数のレイを設定するレイ設定部と、前記各レイごとに、そのレイに沿って並ぶ複数のボクセルに関して、各ボクセルに対応した座標の前記速度ベクトル情報に基づいて、各ボクセルごとにそのレイの方向の速度値を算出するボクセル値算出部と、前記各レイごとに、そのレイに沿って並ぶ複数のボクセルに関する複数の速度値に基づいてレンダリング演算を実行するレンダリング処理部と、前記レンダリング演算により前記複数のレイから得られる複数の画素値に基づいて前記三次元空間に関する表示画像を形成する画像形成部と、を有することを特徴とする。 A suitable ultrasonic diagnostic apparatus that meets the above-mentioned purpose is configured to transmit and receive ultrasonic waves from a plurality of different origin directions with respect to a three-dimensional space, and to control each of the origin and direction by controlling the transmission and reception sections. A transmission / reception processing unit that three-dimensionally scans the ultrasonic beam and collects echo data three-dimensionally for each origin direction, and the plurality of origins for each coordinate in the data space corresponding to the three-dimensional space. Based on a plurality of echo data corresponding to the coordinates obtained from the direction, a three-dimensional information generation unit that obtains three-dimensional velocity vector information at the coordinates, and the data space from the viewpoint set for the data space A ray setting unit for setting a plurality of rays passing through the plurality of voxels arranged along the ray for each ray based on the velocity vector information of coordinates corresponding to each voxel. A voxel value calculation unit that calculates a velocity value in the direction of the ray for each voxel, and a rendering operation is performed for each ray based on a plurality of velocity values related to a plurality of voxels arranged along the ray. A rendering processing unit; and an image forming unit configured to form a display image related to the three-dimensional space based on a plurality of pixel values obtained from the plurality of rays by the rendering calculation.
上記構成によれば、三次元の速度ベクトル情報に基づいて各ボクセルごとにレイの方向の速度値が算出される。そのため、例えば、視点の位置の変更に伴ってレイの方向が変化した場合においても、変化後のレイの方向に応じた速度値が算出され、その速度値に基づいて表示画像が形成される。このように、例えば任意の位置に設定される視点を基準として速度値を得て表示画像を形成することが可能になる。 According to the above configuration, the velocity value in the ray direction is calculated for each voxel based on the three-dimensional velocity vector information. Therefore, for example, even when the ray direction changes with the change in the position of the viewpoint, a velocity value corresponding to the changed ray direction is calculated, and a display image is formed based on the velocity value. As described above, for example, a display image can be formed by obtaining a velocity value with reference to a viewpoint set at an arbitrary position.
望ましい具体例において、前記レンダリング処理部は、前記各レイごとに、前記速度値が正の値となる複数のボクセルを対象とした正のレンダリング演算と、前記速度値が負の値となる複数のボクセルを対象とした負のレンダリング演算と、を実行し、前記画像形成部は、前記各レイごとに、前記正のレンダリング演算により得られる結果値と前記負のレンダリング演算により得られる結果値に基づいて画素値を決定する、ことを特徴とする。 In a desirable specific example, the rendering processing unit includes, for each ray, a positive rendering operation for a plurality of voxels having a positive velocity value, and a plurality of velocity values having a negative value. A negative rendering operation for voxels, and the image forming unit, for each ray, based on a result value obtained by the positive rendering operation and a result value obtained by the negative rendering operation. The pixel value is determined.
望ましい具体例において、前記各ボクセルに対応した座標のエコーデータに基づいて各ボクセルごとに輝度値が決定され、前記レンダリング処理部は、前記各レイごとに、前記正のレンダリング演算と前記負のレンダリング演算に加えて、そのレイに沿って並ぶ複数のボクセルに関する複数の輝度値に基づいた輝度のレンダリング演算を実行し、前記画像形成部は、前記各レイごとに、前記正のレンダリング演算と前記負のレンダリング演算により得られる色相と、前記輝度のレンダリング演算により得られる輝度と、に基づいて画素値を決定する、ことを特徴とする。 In a preferred embodiment, a luminance value is determined for each voxel based on echo data of coordinates corresponding to each voxel, and the rendering processing unit performs the positive rendering operation and the negative rendering for each ray. In addition to the calculation, the image forming unit performs a luminance rendering operation based on a plurality of luminance values regarding a plurality of voxels arranged along the ray, and the image forming unit performs the positive rendering operation and the negative rendering for each ray. The pixel value is determined based on the hue obtained by the rendering operation and the luminance obtained by the luminance rendering operation.
望ましい具体例において、前記レンダリング処理部は、前記各レイごとに、レンダリング演算の進行と共に、そのレイに沿って並ぶ複数のボクセルに関する複数の速度値と複数の輝度値を複合的に累積処理し、その累積処理の結果が予め設定された閾値に達した時点をレンダリング演算の終了時点とする、ことを特徴とする。 In a preferred embodiment, for each ray, the rendering processing unitarily performs a cumulative process of a plurality of velocity values and a plurality of luminance values regarding a plurality of voxels arranged along the ray as the rendering operation proceeds. A point in time when the result of the accumulation process reaches a preset threshold value is set as the end point of the rendering operation.
望ましい具体例において、前記送受波部は、三次元空間に対して互いに異なる複数の原点方向から超音波を送受する複数の三次元プローブを備える、ことを特徴とする。 In a preferred embodiment, the wave transmitting / receiving unit includes a plurality of three-dimensional probes that transmit and receive ultrasonic waves from a plurality of different origin directions with respect to a three-dimensional space.
本発明により、三次元画像に関する視点の位置を基準として速度情報を表示することが可能になる。 According to the present invention, it becomes possible to display speed information on the basis of the position of the viewpoint regarding a three-dimensional image.
以下に本発明の好適な実施形態を説明する。 Hereinafter, preferred embodiments of the present invention will be described.
図1は、本発明の実施において好適な超音波診断装置の全体構成を示す図である。3Dプローブ11は、血流などの対象物を含む三次元空間に対して超音波を送受波する超音波プローブである。3Dプローブ11は、超音波を送受する複数の振動素子を備えており、複数の振動素子がビームフォーマ21によって送信制御されて送信ビームが形成される。また、複数の振動素子が三次元空間内から得られる超音波を受波し、これにより得られた信号がビームフォーマ21へ出力され、ビームフォーマ21が受信ビームを形成する。 FIG. 1 is a diagram showing an overall configuration of an ultrasonic diagnostic apparatus suitable for implementing the present invention. The 3D probe 11 is an ultrasonic probe that transmits and receives ultrasonic waves to and from a three-dimensional space including an object such as a blood flow. The 3D probe 11 includes a plurality of vibration elements that transmit and receive ultrasonic waves, and the plurality of vibration elements are transmission-controlled by the beam former 21 to form a transmission beam. Further, the plurality of vibration elements receive ultrasonic waves obtained from the three-dimensional space, and signals obtained thereby are output to the beam former 21, which forms a reception beam.
3Dプローブ11は、超音波ビーム(送信ビームと受信ビーム)を三次元空間内において走査して立体的にエコーデータを収集する三次元プローブである。例えば、一次元的に配列された複数の振動素子(1Dアレイ振動子)によって電子的に形成される走査面を機械的に動かすことにより超音波ビームが立体的に走査される。また、二次元的に配列された複数の振動素子(2Dアレイ振動子)を電子的に制御して超音波ビームを立体的に走査してもよい。3Dプローブ11を利用して三次元空間内から収集されたエコーデータは3Dメモリ31に記憶される。
The 3D probe 11 is a three-dimensional probe that three-dimensionally collects echo data by scanning an ultrasonic beam (a transmission beam and a reception beam) in a three-dimensional space. For example, the ultrasonic beam is three-dimensionally scanned by mechanically moving a scanning surface electronically formed by a plurality of vibration elements (1D array transducers) arranged one-dimensionally. Alternatively, the ultrasonic beam may be scanned three-dimensionally by electronically controlling a plurality of two-dimensionally arranged vibration elements (2D array transducers). Echo data collected from the 3D space using the 3D probe 11 is stored in the
図1の超音波診断装置は、3Dプローブ11に加えて、3Dプローブ12,13を備えている。3Dプローブ12,13も三次元プローブであり、例えば3Dプローブ11と同じ構成のプローブが利用される。但し、3つの3Dプローブ11,12,13は、互いに異なる方向から三次元空間に対して超音波を送受するように配置される。 The ultrasonic diagnostic apparatus in FIG. 1 includes 3D probes 12 and 13 in addition to the 3D probe 11. The 3D probes 12 and 13 are also three-dimensional probes. For example, a probe having the same configuration as that of the 3D probe 11 is used. However, the three 3D probes 11, 12, and 13 are arranged so as to transmit and receive ultrasonic waves to and from the three-dimensional space from different directions.
3Dプローブ12は、ビームフォーマ22により制御される。これにより超音波ビームが三次元空間内において立体的に走査されてエコーデータが収集される。3Dプローブ12を利用して三次元空間内から収集されたエコーデータは3Dメモリ32に記憶される。
The 3D probe 12 is controlled by a beam former 22. As a result, the ultrasonic beam is scanned three-dimensionally in the three-dimensional space, and echo data is collected. The echo data collected from the three-dimensional space using the 3D probe 12 is stored in the
同様に、3Dプローブ13は、ビームフォーマ23により制御される。これにより、超音波ビームが三次元空間内において立体的に走査されてエコーデータが収集される。3Dプローブ13を利用して三次元空間内から収集されたエコーデータは3Dメモリ33に記憶される。
Similarly, the 3D probe 13 is controlled by the beam former 23. Thereby, the ultrasonic beam is scanned three-dimensionally in the three-dimensional space, and echo data is collected. Echo data collected from the 3D space using the 3D probe 13 is stored in the
3つの3Dプローブ11,12,13により三次元空間内からエコーデータが収集されると、3Dデータ生成部40は、3Dメモリ31,32,33に記憶されたそれらのエコーデータを合成処理することにより、三次元空間に対応したデータ空間内において、各座標ごとに輝度や速度ベクトルを算出する。
When the echo data is collected from the three-dimensional space by the three 3D probes 11, 12, and 13, the 3D
図2は、エコーデータの合成処理を説明するための図であり、図2には、図1を利用して説明した3Dプローブ11,12,13が図示されている。図2に示すように、3つの3Dプローブ11,12,13は、三次元空間100に対して互いに異なる方向から超音波を送受するように配置されている。例えば、3つの3Dプローブ11,12,13の互いの相対的な配置関係が既知とされ、3Dプローブ12を基準として三次元空間100の座標系が設定される。 FIG. 2 is a view for explaining echo data synthesis processing. FIG. 2 shows the 3D probes 11, 12, and 13 described with reference to FIG. As shown in FIG. 2, the three 3D probes 11, 12, and 13 are arranged so as to transmit and receive ultrasonic waves from different directions with respect to the three-dimensional space 100. For example, the relative positional relationship between the three 3D probes 11, 12, and 13 is known, and the coordinate system of the three-dimensional space 100 is set based on the 3D probe 12.
3Dデータ生成部40(図1)は、三次元空間100に対応したデータ空間内の各座標ごとに、3つの3Dプローブ11,12,13から得られるエコーデータを合成処理して三次元の速度ベクトルを得る。そこで、図2に示す三次元空間100内の座標Cにおける合成処理について説明する。 The 3D data generation unit 40 (FIG. 1) synthesizes echo data obtained from the three 3D probes 11, 12, and 13 for each coordinate in the data space corresponding to the three-dimensional space 100, and performs a three-dimensional velocity. Get a vector. Therefore, a synthesis process at the coordinates C in the three-dimensional space 100 shown in FIG. 2 will be described.
まず、3Dプローブ11から座標Cに向けられた超音波ビームB1に沿って得られるエコーデータに含まれるドプラ情報に基づいて、超音波ビームB1と同じ方向の速度ベクトル成分V1が決定される。3Dプローブ11についてのエコーデータは、3Dメモリ31(図1)から読み出される。また、3Dプローブ12から座標Cに向けられた超音波ビームB2に沿って得られるエコーデータに含まれるドプラ情報に基づいて、超音波ビームB2と同じ方向の速度ベクトル成分V2が決定される。3Dプローブ12についてのエコーデータは、3Dメモリ32(図1)から読み出される。さらに、3Dプローブ13から座標Cに向けられた超音波ビームB3に沿って得られるエコーデータに含まれるドプラ情報に基づいて、超音波ビームB3と同じ方向の速度ベクトル成分V3が決定される。3Dプローブ13についてのエコーデータは、3Dメモリ33(図1)から読み出される。そして、速度ベクトル成分V1と速度ベクトル成分V2と速度ベクトル成分V3をベクトル的に加算することにより、三次元空間100内の座標Cにおける三次元の速度ベクトルVが得られる。 First, a velocity vector component V1 in the same direction as the ultrasonic beam B1 is determined based on Doppler information included in echo data obtained along the ultrasonic beam B1 directed from the 3D probe 11 to the coordinate C. The echo data for the 3D probe 11 is read from the 3D memory 31 (FIG. 1). Further, a velocity vector component V2 in the same direction as the ultrasonic beam B2 is determined based on Doppler information included in echo data obtained along the ultrasonic beam B2 directed from the 3D probe 12 to the coordinate C. The echo data for the 3D probe 12 is read from the 3D memory 32 (FIG. 1). Further, a velocity vector component V3 in the same direction as the ultrasonic beam B3 is determined based on Doppler information included in the echo data obtained along the ultrasonic beam B3 directed from the 3D probe 13 to the coordinate C. The echo data for the 3D probe 13 is read from the 3D memory 33 (FIG. 1). Then, the three-dimensional velocity vector V at the coordinates C in the three-dimensional space 100 is obtained by adding the velocity vector component V1, the velocity vector component V2, and the velocity vector component V3 in vector.
また、3Dデータ生成部40は、三次元空間100に対応したデータ空間内の各座標ごとに、3つの3Dプローブ11,12,13から得られるエコーデータに基づいて輝度(エコーデータの大きさ)を得る。なお、輝度はスカラー値であるため、例えば3つの3Dプローブ11,12,13のうちのいずれか1つのプローブから得られるエコーデータのみにより座標Cにおける輝度が決定されてもよいし、複数のプローブから得られるエコーデータの平均値などから座標Cにおける輝度が決定されてもよい。
In addition, the 3D
こうして、3Dデータ生成部40は、三次元空間100内(データ空間内)の全座標について、各座標ごとに三次元の速度ベクトルと輝度を決定する。全座標についての速度ベクトルと輝度は、例えば座標値をアドレスとして3Dデータ生成部40が備えるメモリに記憶される。
In this way, the 3D
図1の超音波診断装置は、3Dデータ生成部40において得られた三次元空間100内(データ空間内)の各座標の速度ベクトルと輝度に基づいて、ボリュームレンダリングの手法を利用して表示画像を形成する。そこで、そのボリュームレンダリングの原理について説明する。
The ultrasonic diagnostic apparatus in FIG. 1 uses a volume rendering technique based on the velocity vector and the luminance of each coordinate in the three-dimensional space 100 (in the data space) obtained by the 3D
図3は、ボリュームレンダリングの原理を説明するための図である。図3には、三次元空間100(データ空間)がXYZの直交座標系で示されている。三次元空間100内の全座標について、各座標ごとにデータ(三次元の速度ベクトルと輝度)が決定されていることは先に説明したとおりである。 FIG. 3 is a diagram for explaining the principle of volume rendering. In FIG. 3, the three-dimensional space 100 (data space) is shown in an XYZ orthogonal coordinate system. As described above, data (three-dimensional velocity vector and brightness) is determined for each coordinate in the three-dimensional space 100 for each coordinate.
ボリュームレンダリングにおいては、通常、三次元空間100(データ空間)の外側に仮想的に視点VPが設定され、三次元空間100を間に介して、視点VPと反対側に二次元平面としてのスクリーン110が仮想的に設定される。その視点VPを基準として複数のレイ(透視線)112が定義される。レイ112は、三次元空間100を貫通するように設定される。そして、三次元空間100内において、レイ112上には複数のボクセル(黒丸)からなるボクセル列が対応付けられる。
In volume rendering, a viewpoint VP is generally set virtually outside the three-dimensional space 100 (data space), and a
なお、各ボクセルのデータ(ボクセル値)は、そのボクセルに対応した座標の速度ベクトルや輝度から算出される。各ボクセルの位置に合致する座標が無ければ、そのボクセルの近傍にある座標の速度ベクトルや輝度を用いて、補間処理などにより、そのボクセルのボクセル値が算出される。本実施形態におけるボクセル値については後に説明する。 Note that the data (voxel value) of each voxel is calculated from the velocity vector and the luminance of the coordinates corresponding to that voxel. If there is no coordinate that matches the position of each voxel, the voxel value of that voxel is calculated by interpolation processing or the like using the velocity vector and brightness of the coordinates in the vicinity of that voxel. The voxel value in this embodiment will be described later.
ボリュームレンダリングにおいては、視点VP側からレイ112に沿って並ぶ複数のボクセル値を対象として、レンダリング演算(ボクセル演算)が逐次的に実行される。そして、最終のレンダリング演算の結果として画素値が決定される。その画素値がスクリーン上における当該レイ112に対応する画素Pにマッピングされる。
In volume rendering, rendering operations (voxel operations) are sequentially performed on a plurality of voxel values arranged along the
図3において、スクリーン110は、Xs,Ysの座標系で示されている。つまり、スクリーン110内の各座標はXs,Ysの座標値で定義される。このスクリーン110内の各座標ごとに1本のレイ112が設定されており、上述にように各レイ112ごとに得られた画素値をスクリーン110上にマッピングすることにより、スクリーン110上に三次元画像が形成される。なお、複数のレイ112が互いに平行の場合もあるが、複数のレイ112が互いに非平行となる場合もある。
In FIG. 3, the
レンダリング演算の好適な例では、i番目のボクセルのデータ(ボクセル値)をeiとし、その際のオパシティ(不透明度)をαi(但し0≦αi≦1)とし、i番目の演算結果をCOUTiとし、i番目の演算における入力値((i−1)番目の演算結果)をCINiとすると、次式で示すことができる。もちろん、次式以外の公知の演算が用いられてもよい。 In a preferred example of the rendering operation, the i-th voxel data (voxel value) is e i , the opacity (opacity) at that time is α i (where 0 ≦ α i ≦ 1), and the i-th operation result Is C OUTi, and the input value in the i-th calculation ((i−1) -th calculation result) is C INi , it can be expressed by the following equation. Of course, a known calculation other than the following equation may be used.
例えば数1式を利用してレイ112に沿って逐次的にレンダリング演算を行う場合においては、それと並行して各オパシティαiが積算され、その積算値が所定値(例えば1)以上となった時点において、そのレイ112についての演算が終了する。また、最終のボクセル値についての演算が終了した場合にもそのレイ112についての演算は終了する。さらに、本実施形態においては、後に詳述する終了条件に基づいてレイ112についての演算を終了させてもよい。
For example, in the case where the rendering operation is sequentially performed along the
なお、本実施形態に係る超音波診断装置は、上記のようなボリュームレンダリングを利用することが特に好適であるものの、各レイ112に沿って逐次演算を行う他のレンダリング処理が適用されてもよい。例えば、積算法、最大値や最小値の検出法などが適用されてもよい。
Note that the ultrasound diagnostic apparatus according to the present embodiment is particularly suitable to use volume rendering as described above, but other rendering processes that perform sequential computation along each
図1に戻り、レイ設定部52は、視点VP(図2)からデータ空間内を通る複数のレイ(図2の符号112)を設定する。視点VPは、任意の位置に設定される。例えば、図示しない操作デバイスを利用してユーザが所望の位置に視点VPを設定する。また、スクリーン(図2の符号110)は、データ空間を間に挟むように、視点VPの反対側に設定される。レイ設定部52は、設定された視点VPからデータ空間内を通りスクリーンに達する複数のレイを設定する。
Returning to FIG. 1, the
複数のレイが設定されると、ボクセル値算出部50は、設定された各レイに沿って並ぶ複数のボクセルに関して、各ボクセルごとにボクセル値を算出する。ボクセル値算出部50は、ボクセル値として各ボクセルごとに速度値と輝度値を算出する。
When a plurality of rays are set, the voxel
まず、各ボクセルの速度値は、そのボクセルに対応した座標の速度ベクトルに基づいて算出される。複数のボクセルは三次元空間内(データ空間内)にあるため(図3参照)、三次元空間内における各ボクセルの位置に対応した座標の速度ベクトル(図2)が参照される。そして、各ボクセルの速度値として、そのボクセルに対応した速度ベクトルのレイ方向成分が算出される。つまり、対象となるボクセルが載るレイとそのボクセルに対応した速度ベクトルとの間の角度をθとし、その速度ベクトルの大きさをVとすると、そのボクセルの速度値は、速度値=V×cosθと算出される。なお、視点に向かう方向を速度の正方向とし、視点から遠ざかる方向を速度の負方向とする。 First, the velocity value of each voxel is calculated based on the velocity vector of coordinates corresponding to that voxel. Since the plurality of voxels are in the three-dimensional space (in the data space) (see FIG. 3), the velocity vector (FIG. 2) of the coordinates corresponding to the position of each voxel in the three-dimensional space is referred to. Then, the ray direction component of the velocity vector corresponding to the voxel is calculated as the velocity value of each voxel. That is, if the angle between the ray on which the target voxel is placed and the velocity vector corresponding to the voxel is θ and the magnitude of the velocity vector is V, the velocity value of the voxel is velocity value = V × cos θ. Is calculated. A direction toward the viewpoint is a positive direction of speed, and a direction away from the viewpoint is a negative direction of speed.
また、各ボクセルの輝度値は、そのボクセルに対応した座標の輝度(エコーデータの大きさ)に基づいて算出される。つまり、三次元空間内における各ボクセルの位置に対応した座標の輝度(エコーデータの大きさ)が参照され、そのエコーデータの大きさがそのボクセルの輝度値とされる。 Further, the luminance value of each voxel is calculated based on the luminance of the coordinates corresponding to the voxel (the size of echo data). That is, the brightness of the coordinates corresponding to the position of each voxel in the three-dimensional space (the size of the echo data) is referred to, and the size of the echo data is used as the brightness value of the voxel.
こうして、ボクセル値算出部50により、各レイに沿って並ぶ複数のボクセルの各々についての速度値と輝度値が算出されると、レンダリング処理部60において、ボクセル値として算出された速度値と輝度値を利用して、各レイについてのレンダリング演算が実行される。
Thus, when the velocity value and the luminance value for each of the plurality of voxels arranged along each ray are calculated by the voxel
図4は、レンダリング処理部における演算を説明するための図である。レンダリング処理部(図1の符号60)は、ボクセル値として算出された速度値と輝度値を利用して、各レイごとにレンダリング演算を実行する。
FIG. 4 is a diagram for explaining calculation in the rendering processing unit. The rendering processing unit (
図4(I)は、1本のレイについてのレンダリング演算を示しており、1本のレイについて、輝度値を対象としたレンダリング演算(輝度レンダリング)と、正の速度値を対象としたレンダリング演算(正レンダリング)と、負の速度値を対象としたレンダリング演算(負レンダリング)が実行される。 FIG. 4I shows a rendering operation for one ray. For one ray, a rendering operation for luminance values (luminance rendering) and a rendering operation for positive velocity values are performed. (Positive rendering) and a rendering operation (negative rendering) for a negative velocity value are executed.
輝度レンダリングにおいては、レイに沿って並ぶ複数のボクセルについて、視点に近い側のボクセル1から順に、ボクセル値として輝度値を利用して、レンダリング演算(ボクセル演算)が実行される。 In luminance rendering, a rendering operation (voxel operation) is performed on a plurality of voxels arranged along a ray, using the luminance value as a voxel value in order from the voxel 1 closer to the viewpoint.
正レンダリングにおいては、レイに沿って並ぶ複数のボクセルについて、視点に近い側のボクセル1から順に、ボクセル値として速度値を利用して、レンダリング演算(ボクセル演算)が実行される。但し、正レンダリングにおいては、正の速度値つまり視点に向かう方向の速度値のみが演算の対象とされ、速度値がゼロまたは負となるボクセルについては演算の対象から除かれる。なお、速度値がゼロまたは負となるボクセルのボクセル値を0として演算を進めることにより、結果的に演算結果に反映させないようにしてもよい。 In normal rendering, a rendering operation (voxel operation) is executed for a plurality of voxels arranged along a ray, using a velocity value as a voxel value in order from the voxel 1 closer to the viewpoint. However, in positive rendering, only a positive velocity value, that is, a velocity value in the direction toward the viewpoint, is subject to computation, and voxels whose velocity values are zero or negative are excluded from the subject of computation. It should be noted that the voxel value of the voxel whose velocity value is zero or negative may be set to 0 so that the result is not reflected in the calculation result.
一方、負レンダリングにおいては、負の速度値つまり視点から遠ざかる方向の速度値のみが演算の対象とされ、速度値がゼロまたは正となるボクセルについては演算の対象から除かれる。なお、速度値がゼロまたは正となるボクセルのボクセル値を0として演算を進めることにより、結果的に演算結果に反映させないようにしてもよい。 On the other hand, in negative rendering, only negative velocity values, that is, velocity values in a direction away from the viewpoint, are subject to computation, and voxels whose velocity values are zero or positive are excluded from computation subjects. It should be noted that the voxel value of a voxel whose velocity value is zero or positive may be set to 0 so that the result is not reflected in the calculation result.
図4(II)は、(I)に示したレンダリング演算の終了判定を示しており、(I)のレンダリング演算と並行して実行される処理を示している。この終了判定においては、レイに沿って並ぶ複数のボクセルに関する速度値と輝度値が複合的に累積処理され、累積処理の結果が予め設定された閾値に達した時点がレンダリング演算の終了時点とされる。 FIG. 4 (II) shows the end determination of the rendering operation shown in (I), and shows the processing executed in parallel with the rendering operation of (I). In this end determination, the speed value and the luminance value regarding a plurality of voxels arranged along the ray are combined and accumulated, and the time when the result of the accumulation process reaches a preset threshold is set as the end time of the rendering operation. The
具体的には、例えば、各ボクセルに関する速度値と輝度値の絶対値が利用される。そして、各ボクセルに関する輝度値の絶対値と速度値の絶対値が累積処理の対象とされ、(I)に示すレンダリング演算に並行するように、視点に近い側のボクセル1から順に絶対値の加算(累積処理)が進行される。図4(II)に示す例においては、ボクセル1の輝度値の絶対値と正の速度値の絶対値が加算され、さらにその加算結果に対して、ボクセル2の輝度値の絶対値と正の速度値の絶対値が加算され、さらにその加算結果に対して、ボクセル3の輝度値の絶対値と負の速度値の絶対値が加算される。こうして、累積処理が進められ、ボクセルiにおいて累積処理の結果が予め設定された閾値に達すると、(I)に示す各レンダリング演算がボクセルiの段階で終了され、その段階における各レンダリング演算の値が演算結果とされる。 Specifically, for example, the absolute value of the velocity value and the luminance value regarding each voxel is used. Then, the absolute value of the luminance value and the absolute value of the velocity value for each voxel are subjected to accumulation processing, and the absolute values are added sequentially from the voxel 1 on the side closer to the viewpoint so as to be parallel to the rendering operation shown in (I). (Cumulative processing) proceeds. In the example shown in FIG. 4 (II), the absolute value of the luminance value of voxel 1 and the absolute value of the positive velocity value are added, and the absolute value of the luminance value of voxel 2 and the positive value are added to the addition result. The absolute value of the velocity value is added, and the absolute value of the luminance value of the voxel 3 and the absolute value of the negative velocity value are added to the addition result. Thus, the accumulation process is advanced, and when the result of the accumulation process reaches a preset threshold value in voxel i, each rendering operation shown in (I) is terminated at the stage of voxel i, and the value of each rendering operation at that stage Is the result of the operation.
図1に戻り、レンダリング処理部60は、複数のレイの各々について3つのレンダリング演算を実行し、各レイごとに演算結果(E)と演算結果(+V)と演算結果(−V)を得る(図4参照)。そして、画像形成部70は、各レイごとに得られる3つの演算結果に基づいて、スクリーン上におけるそのレイに対応した画素P(図3参照)の画素値を決定する。各画素Pの画素値は、RGB(赤緑青)の3原色に対応したR信号値とG信号値とB信号値により決定される。これらR信号値とG信号値とB信号値は、各レイごとに3つのレンダリング演算の結果として得られる演算結果(E)と演算結果(+V)と演算結果(−V)に基づいて決定される。
Returning to FIG. 1, the
図5は、レンダリング演算の結果に基づいた3原色の信号値を示す図である。演算結果(+V)は、正の速度値を対象としたレンダリング演算の演算結果であり、演算結果(−V)は、負の速度値を対象としたレンダリング演算の演算結果であり、演算結果(E)は輝度値を対象としたレンダリング演算の演算結果である(図4参照)。 FIG. 5 is a diagram showing signal values of the three primary colors based on the result of the rendering operation. The calculation result (+ V) is a calculation result of a rendering calculation for a positive speed value, and the calculation result (−V) is a calculation result of a rendering calculation for a negative speed value. E) is a calculation result of the rendering calculation for the luminance value (see FIG. 4).
演算結果(+V)と演算結果(−V)が共にゼロの場合には、R信号値とG信号値とB信号値の全ての信号値を演算結果(E)とする。一方、演算結果(+V)と演算結果(−V)の少なくとも一方がゼロでない場合には、R信号値を演算結果(+V)としてB信号値を演算結果(−V)とし、G信号値は0または0以外の固定値とする。 When the calculation result (+ V) and the calculation result (−V) are both zero, all signal values of the R signal value, the G signal value, and the B signal value are set as the calculation result (E). On the other hand, when at least one of the calculation result (+ V) and the calculation result (−V) is not zero, the R signal value is the calculation result (+ V), the B signal value is the calculation result (−V), and the G signal value is 0 or a fixed value other than 0.
これにより、演算結果(+V)つまり視点に向かってくる正の速度値に関する演算結果が赤(R)を基調とした暖色系で画素に反映され、演算結果(−V)つまり視点から遠ざかる負の速度値に関する演算結果が青(B)を基調とした寒色系で画素に反映される。 As a result, the calculation result (+ V), that is, the calculation result related to the positive speed value toward the viewpoint is reflected on the pixel in a warm color system based on red (R), and the calculation result (−V), that is, a negative value moving away from the viewpoint. The calculation result relating to the speed value is reflected on the pixel in a cool color system based on blue (B).
図1に戻り、画像形成部70は、各レイごとに得られる3つの演算結果に基づいて、スクリーン上におけるそのレイに対応した画素の画素値(R信号値,G信号値,B信号値)を決定する(図5参照)。こうして、仮想的なスクリーン上における全ての画素の画素値が決定され、このスクリーン上に形成される画像が三次元空間に関する表示画像としてモニタなどに表示される。なお、図1に示した超音波診断装置内の各部は、制御部80により制御される。
Returning to FIG. 1, the
以上、本発明の好適な実施形態を説明したが、上述した実施形態によれば、三次元の速度ベクトルに基づいて各ボクセルごとにレイの方向の速度値が算出され、その算出において、視点に向かう方向が正の速度値とされ視点から遠ざかる方向が負の速度値される。つまり、レイの起点となる視点VPが任意の位置に変更されたとしても、常に視点を基準として速度の正負が決定されている。これにより、例えば、視点に向かってくる血流等が赤を基調とした暖色系で表現され、視点から遠ざかる血流等が青を基調とした寒色系で表現され、視点の位置に関わらずカラードプラと同様な色の表現を維持することができる。 As described above, the preferred embodiment of the present invention has been described. According to the above-described embodiment, the velocity value in the ray direction is calculated for each voxel based on the three-dimensional velocity vector. The direction of heading is a positive speed value, and the direction away from the viewpoint is a negative speed value. In other words, even if the viewpoint VP that is the starting point of the ray is changed to an arbitrary position, the sign of the speed is always determined based on the viewpoint. Thus, for example, blood flow toward the viewpoint is expressed in a warm color system based on red, and blood flow away from the viewpoint is expressed in a cool color system based on blue. A color expression similar to that of Doppler can be maintained.
なお、上述した実施形態は、あらゆる点で単なる例示にすぎず、本発明の範囲を限定するものではない。本発明は、その本質を逸脱しない範囲で各種の変形形態を包含する。例えば、図1では、3つの3Dプローブ11,12,13を利用した実施形態を示したが、4つ以上の複数の3Dプローブが利用されてもよい。その場合には、例えばそれら複数の3Dプローブの中から3つの3Dプローブが選択的に利用されて、図2以降に説明した処理が実現される。 The above-described embodiments are merely examples in all respects, and do not limit the scope of the present invention. The present invention includes various modifications without departing from the essence thereof. For example, although FIG. 1 shows an embodiment using three 3D probes 11, 12, and 13, four or more 3D probes may be used. In that case, for example, three 3D probes are selectively used from among the plurality of 3D probes, and the processes described in FIG.
11,12,13 3Dプローブ、21,22,23 ビームフォーマ、40 3Dデータ生成部、50 ボクセル値算出部、52 レイ設定部、60 レンダリング処理部。 11, 12, 13 3D probe, 21, 22, 23 beamformer, 40 3D data generation unit, 50 voxel value calculation unit, 52 ray setting unit, 60 rendering processing unit.
Claims (5)
前記送受波部を制御することにより、前記各原点方向ごとに超音波ビームを立体的に走査して各原点方向ごとに三次元的にエコーデータを収集する送受信処理部と、
前記三次元空間に対応したデータ空間内の各座標ごとに、前記複数の原点方向から得られるその座標に対応した複数のエコーデータに基づいて、その座標における三次元の速度ベクトル情報を得る三次元情報生成部と、
前記データ空間に対して設定された視点側からデータ空間内を通る複数のレイを設定するレイ設定部と、
前記各レイごとに、そのレイに沿って並ぶ複数のボクセルに関して、各ボクセルに対応した座標の前記速度ベクトル情報に基づいて、各ボクセルごとにそのレイの方向の速度値を算出するボクセル値算出部と、
前記各レイごとに、そのレイに沿って並ぶ複数のボクセルに関する複数の速度値に基づいてレンダリング演算を実行するレンダリング処理部と、
前記レンダリング演算により前記複数のレイから得られる複数の画素値に基づいて前記三次元空間に関する表示画像を形成する画像形成部と、
を有する、
ことを特徴とする超音波診断装置。 A transmission / reception unit for transmitting and receiving ultrasonic waves from a plurality of different origin directions relative to a three-dimensional space;
By controlling the transmission / reception unit, a transmission / reception processing unit that three-dimensionally scans the ultrasonic beam for each origin direction and collects echo data three-dimensionally for each origin direction;
For each coordinate in the data space corresponding to the three-dimensional space, based on a plurality of echo data corresponding to the coordinates obtained from the plurality of origin directions, three-dimensional velocity vector information at the coordinates is obtained. An information generator,
A ray setting unit for setting a plurality of rays passing through the data space from the viewpoint side set for the data space;
A voxel value calculation unit that calculates a velocity value in the direction of each ray for each voxel based on the velocity vector information of coordinates corresponding to each voxel for a plurality of voxels arranged along the ray for each ray. When,
A rendering processor that performs a rendering operation based on a plurality of velocity values for a plurality of voxels arranged along the ray for each ray;
An image forming unit that forms a display image related to the three-dimensional space based on a plurality of pixel values obtained from the plurality of rays by the rendering operation;
Having
An ultrasonic diagnostic apparatus.
前記レンダリング処理部は、前記各レイごとに、前記速度値が正の値となる複数のボクセルを対象とした正のレンダリング演算と、前記速度値が負の値となる複数のボクセルを対象とした負のレンダリング演算と、を実行し、
前記画像形成部は、前記各レイごとに、前記正のレンダリング演算により得られる結果値と前記負のレンダリング演算により得られる結果値に基づいて画素値を決定する、
ことを特徴とする超音波診断装置。 The ultrasonic diagnostic apparatus according to claim 1,
The rendering processing unit targets, for each ray, a positive rendering operation for a plurality of voxels in which the velocity value is a positive value and a plurality of voxels in which the velocity value is a negative value. Perform negative rendering operations, and
The image forming unit determines a pixel value based on a result value obtained by the positive rendering operation and a result value obtained by the negative rendering operation for each ray.
An ultrasonic diagnostic apparatus.
前記各ボクセルに対応した座標のエコーデータに基づいて各ボクセルごとに輝度値が決定され、
前記レンダリング処理部は、前記各レイごとに、前記正のレンダリング演算と前記負のレンダリング演算に加えて、そのレイに沿って並ぶ複数のボクセルに関する複数の輝度値に基づいた輝度のレンダリング演算を実行し、
前記画像形成部は、前記各レイごとに、前記正のレンダリング演算と前記負のレンダリング演算により得られる色相と、前記輝度のレンダリング演算により得られる輝度と、に基づいて画素値を決定する、
ことを特徴とする超音波診断装置。 The ultrasonic diagnostic apparatus according to claim 2,
A luminance value is determined for each voxel based on echo data of coordinates corresponding to each voxel,
The rendering processing unit executes, for each ray, a luminance rendering operation based on a plurality of luminance values related to a plurality of voxels arranged along the ray in addition to the positive rendering operation and the negative rendering operation. And
The image forming unit determines a pixel value for each ray based on the hue obtained by the positive rendering operation and the negative rendering operation and the luminance obtained by the luminance rendering operation.
An ultrasonic diagnostic apparatus.
前記レンダリング処理部は、前記各レイごとに、レンダリング演算の進行と共に、そのレイに沿って並ぶ複数のボクセルに関する複数の速度値と複数の輝度値を複合的に累積処理し、その累積処理の結果が予め設定された閾値に達した時点をレンダリング演算の終了時点とする、
ことを特徴とする超音波診断装置。 The ultrasonic diagnostic apparatus according to claim 3.
For each ray, the rendering processing unit compositely accumulates a plurality of velocity values and a plurality of luminance values related to a plurality of voxels arranged along the ray as the rendering operation proceeds, and results of the accumulation processing The point in time at which the preset threshold is reached is the end point of the rendering operation.
An ultrasonic diagnostic apparatus.
前記送受波部は、三次元空間に対して互いに異なる複数の原点方向から超音波を送受する複数の三次元プローブを備える、
ことを特徴とする超音波診断装置。 In the ultrasonic diagnostic apparatus according to any one of claims 1 to 4,
The transmission / reception unit includes a plurality of three-dimensional probes that transmit and receive ultrasonic waves from a plurality of different origin directions with respect to a three-dimensional space.
An ultrasonic diagnostic apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010191757A JP2012045253A (en) | 2010-08-30 | 2010-08-30 | Ultrasonograph |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010191757A JP2012045253A (en) | 2010-08-30 | 2010-08-30 | Ultrasonograph |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012045253A true JP2012045253A (en) | 2012-03-08 |
Family
ID=45900838
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010191757A Withdrawn JP2012045253A (en) | 2010-08-30 | 2010-08-30 | Ultrasonograph |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012045253A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019058657A1 (en) * | 2017-09-19 | 2019-03-28 | 富士フイルム株式会社 | Fluid analysis device, method for operating fluid analysis device, and fluid analysis program |
-
2010
- 2010-08-30 JP JP2010191757A patent/JP2012045253A/en not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019058657A1 (en) * | 2017-09-19 | 2019-03-28 | 富士フイルム株式会社 | Fluid analysis device, method for operating fluid analysis device, and fluid analysis program |
JPWO2019058657A1 (en) * | 2017-09-19 | 2020-09-24 | 富士フイルム株式会社 | Fluid analysis device and operation method of fluid analysis device and fluid analysis program |
US11730384B2 (en) | 2017-09-19 | 2023-08-22 | Fujifilm Corporation | Fluid analysis apparatus, method for operating fluid analysis apparatus, and fluid analysis program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5814646B2 (en) | Ultrasonic data processing method and system | |
JP4847334B2 (en) | Ultrasonic imaging apparatus and projection image generation method | |
JP5438012B2 (en) | Ultrasonic diagnostic equipment | |
JP5632680B2 (en) | Ultrasonic image processing device | |
KR101100464B1 (en) | Ultrasound system and method for providing three-dimensional ultrasound image based on sub region of interest | |
KR100954988B1 (en) | Ultrasound system and method for forming ultrasound image | |
JP5470253B2 (en) | Ultrasonic diagnostic equipment | |
US9514564B2 (en) | Ultrasonic diagnostic apparatus and ultrasonic image display method | |
JP5525930B2 (en) | Ultrasound diagnostic device for generating and displaying 3D ultrasound images | |
JP2010000340A (en) | Image processor, image processing method and image processing program | |
JP2009291295A5 (en) | ||
JPH09192131A (en) | Real-time biplane image display method for ultrasonic diagnostic system | |
JP4177217B2 (en) | Ultrasonic diagnostic equipment | |
JP4740695B2 (en) | Ultrasonic diagnostic equipment | |
CN110537936B (en) | Blood flow image processing device and method, and computer-readable storage medium | |
JP6890677B2 (en) | A virtual light source embedded in a 3D volume and coupled to the crosshairs in the MPR diagram | |
JP2013165922A (en) | Ultrasonic diagnostic apparatus | |
JP6169911B2 (en) | Ultrasonic image pickup apparatus and ultrasonic image display method | |
JP2012045253A (en) | Ultrasonograph | |
JP4861127B2 (en) | Ultrasonic diagnostic equipment | |
JP5009745B2 (en) | Ultrasonic diagnostic equipment | |
US20130030293A1 (en) | Ultrasound diagnostic apparatus and method thereof | |
JP6299194B2 (en) | Ultrasonic diagnostic apparatus and ultrasonic image display method | |
JP6793075B2 (en) | Ultrasonic image processing equipment | |
KR20080086678A (en) | Ultrasound system and method for forming ultrasound image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20131105 |