JP2012045253A - Ultrasonograph - Google Patents

Ultrasonograph Download PDF

Info

Publication number
JP2012045253A
JP2012045253A JP2010191757A JP2010191757A JP2012045253A JP 2012045253 A JP2012045253 A JP 2012045253A JP 2010191757 A JP2010191757 A JP 2010191757A JP 2010191757 A JP2010191757 A JP 2010191757A JP 2012045253 A JP2012045253 A JP 2012045253A
Authority
JP
Japan
Prior art keywords
value
ray
voxel
rendering operation
rendering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010191757A
Other languages
Japanese (ja)
Inventor
Eiji Kasahara
英司 笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Aloka Medical Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Aloka Medical Ltd filed Critical Hitachi Aloka Medical Ltd
Priority to JP2010191757A priority Critical patent/JP2012045253A/en
Publication of JP2012045253A publication Critical patent/JP2012045253A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

PROBLEM TO BE SOLVED: To display speed information having as reference the position of a visual point relating to a three-dimensional image.SOLUTION: A three-dimensional data creating section 40 combines echo data obtained from three three-dimensional probes 11, 12 and 13 for each coordinate within data space and obtains a three-dimensional speed vector. A lay setting section 52 sets a plurality of lays passing through data space from a visual point. A voxel value calculating section 50 calculates a speed value and luminance value for each voxel, in terms of a plurality of voxels arranged along the corresponding set lays. The lay direction component of the speed vector corresponding to the voxel is calculated as the speed value of each voxel. When the speed value and luminance value for each of the voxels arranged along the corresponding lays are calculated, a rendering operation for each lay is performed using the speed and luminance values in a rendering processing section 60.

Description

本発明は、三次元空間内から得られる速度情報に基づいて表示画像を形成する超音波診断装置に関する。   The present invention relates to an ultrasonic diagnostic apparatus that forms a display image based on velocity information obtained from a three-dimensional space.

三次元空間内からエコー情報を収集して三次元の超音波画像を形成する装置が知られている。例えば、特許文献1には、三次元の生体組織画像と血流画像とを同時に表示する超音波診断装置が示されている。この装置により、例えば、生体組織部分を白で表示させて血流部分を赤く表示させ、さらに、生体組織部分と血流部分の前後関係をより明確に表現した画像を形成することができる。   An apparatus that collects echo information from within a three-dimensional space to form a three-dimensional ultrasound image is known. For example, Patent Document 1 discloses an ultrasonic diagnostic apparatus that simultaneously displays a three-dimensional biological tissue image and a blood flow image. With this device, for example, the biological tissue portion can be displayed in white, the blood flow portion can be displayed in red, and an image that more clearly expresses the front-rear relationship between the biological tissue portion and the blood flow portion can be formed.

また、例えば、正方向の血流に対して暖色系の色相を割り当て、負方向の血流に対して寒色系の色相を割り当てることにより、血流の方向を表現したカラードプラ画像が知られており、特許文献2には、カラードプラの情報を三次元画像に反映させる技術が示されている。   In addition, for example, a color Doppler image representing the direction of blood flow by assigning a warm color hue to the positive blood flow and assigning a cold color hue to the negative blood flow is known. Japanese Patent Application Laid-Open No. H10-228561 discloses a technique for reflecting color Doppler information in a three-dimensional image.

上述した基礎的な技術に支えられ、近年においては、三次元画像を形成する際の視点を超音波プローブに固定せず、視点の位置を任意に変更できる装置も登場している。この装置によれば、例えば医師等のユーザが診断状況等に応じた所望の位置に視点を設定し、診断対象の三次元画像を観察することが可能になる。   In recent years, supported by the basic technology described above, devices that can arbitrarily change the position of the viewpoint without fixing the viewpoint at the time of forming a three-dimensional image to the ultrasonic probe have appeared. According to this apparatus, for example, a user such as a doctor can set a viewpoint at a desired position according to a diagnosis situation or the like and observe a three-dimensional image to be diagnosed.

ところが、診断対象が血流でありその方向を色で表現する場合において、例えば、超音波ビームの方向を基準として、固定的に、正方向の血流を暖色系の色相として負方向の血流を寒色系の色相とすると、視点の位置が超音波プローブ側にある場合には、視点に向かってくる血流が暖色系となり視点から遠ざかる血流が寒色系となるため、カラードプラと同様な色の表現が維持されるものの、視点の位置が血流を挟んで超音波プローブの反対側に設定されてしまうと、視点に向かってくる血流が寒色系となり視点から遠ざかる血流が暖色系となるため、カラードプラにおける色の表現と逆になってしまう。   However, when the object to be diagnosed is blood flow and its direction is expressed in color, for example, with reference to the direction of the ultrasonic beam, the blood flow in the negative direction is fixed with the positive blood flow as the warm hue. If the position of the viewpoint is on the ultrasonic probe side, the blood flow toward the viewpoint is a warm color system and the blood flow away from the viewpoint is a cold color system. Although color expression is maintained, if the viewpoint position is set on the opposite side of the ultrasound probe across the blood flow, the blood flow toward the viewpoint becomes a cold color system and the blood flow away from the viewpoint is a warm color system Therefore, the color expression in the color Doppler is reversed.

つまり、超音波ビームの方向を基準として速度情報を表示してしまうと、視点の位置の変更に対して十分に対応しきれない。   In other words, if the speed information is displayed based on the direction of the ultrasonic beam, the change in the viewpoint position cannot be sufficiently handled.

特許第3977779号公報Japanese Patent No. 39777779 特開2005−278988号公報JP 2005-278988 A

上述した背景技術に鑑み、本願の発明者は、視点の位置を任意に変更して三次元画像を形成する技術について研究開発を重ねてきた。   In view of the background art described above, the inventor of the present application has repeatedly researched and developed a technique for forming a three-dimensional image by arbitrarily changing the position of the viewpoint.

本発明は、その研究開発の過程において成されたものであり、その目的は、三次元画像に関する視点の位置を基準として速度情報を表示する技術を提供することにある。   The present invention has been made in the course of research and development, and an object of the present invention is to provide a technique for displaying speed information on the basis of the position of the viewpoint regarding a three-dimensional image.

上記目的にかなう好適な超音波診断装置は、三次元空間に対して互いに異なる複数の原点方向から超音波を送受する送受波部と、前記送受波部を制御することにより、前記各原点方向ごとに超音波ビームを立体的に走査して各原点方向ごとに三次元的にエコーデータを収集する送受信処理部と、前記三次元空間に対応したデータ空間内の各座標ごとに、前記複数の原点方向から得られるその座標に対応した複数のエコーデータに基づいて、その座標における三次元の速度ベクトル情報を得る三次元情報生成部と、前記データ空間に対して設定された視点側からデータ空間内を通る複数のレイを設定するレイ設定部と、前記各レイごとに、そのレイに沿って並ぶ複数のボクセルに関して、各ボクセルに対応した座標の前記速度ベクトル情報に基づいて、各ボクセルごとにそのレイの方向の速度値を算出するボクセル値算出部と、前記各レイごとに、そのレイに沿って並ぶ複数のボクセルに関する複数の速度値に基づいてレンダリング演算を実行するレンダリング処理部と、前記レンダリング演算により前記複数のレイから得られる複数の画素値に基づいて前記三次元空間に関する表示画像を形成する画像形成部と、を有することを特徴とする。   A suitable ultrasonic diagnostic apparatus that meets the above-mentioned purpose is configured to transmit and receive ultrasonic waves from a plurality of different origin directions with respect to a three-dimensional space, and to control each of the origin and direction by controlling the transmission and reception sections. A transmission / reception processing unit that three-dimensionally scans the ultrasonic beam and collects echo data three-dimensionally for each origin direction, and the plurality of origins for each coordinate in the data space corresponding to the three-dimensional space. Based on a plurality of echo data corresponding to the coordinates obtained from the direction, a three-dimensional information generation unit that obtains three-dimensional velocity vector information at the coordinates, and the data space from the viewpoint set for the data space A ray setting unit for setting a plurality of rays passing through the plurality of voxels arranged along the ray for each ray based on the velocity vector information of coordinates corresponding to each voxel. A voxel value calculation unit that calculates a velocity value in the direction of the ray for each voxel, and a rendering operation is performed for each ray based on a plurality of velocity values related to a plurality of voxels arranged along the ray. A rendering processing unit; and an image forming unit configured to form a display image related to the three-dimensional space based on a plurality of pixel values obtained from the plurality of rays by the rendering calculation.

上記構成によれば、三次元の速度ベクトル情報に基づいて各ボクセルごとにレイの方向の速度値が算出される。そのため、例えば、視点の位置の変更に伴ってレイの方向が変化した場合においても、変化後のレイの方向に応じた速度値が算出され、その速度値に基づいて表示画像が形成される。このように、例えば任意の位置に設定される視点を基準として速度値を得て表示画像を形成することが可能になる。   According to the above configuration, the velocity value in the ray direction is calculated for each voxel based on the three-dimensional velocity vector information. Therefore, for example, even when the ray direction changes with the change in the position of the viewpoint, a velocity value corresponding to the changed ray direction is calculated, and a display image is formed based on the velocity value. As described above, for example, a display image can be formed by obtaining a velocity value with reference to a viewpoint set at an arbitrary position.

望ましい具体例において、前記レンダリング処理部は、前記各レイごとに、前記速度値が正の値となる複数のボクセルを対象とした正のレンダリング演算と、前記速度値が負の値となる複数のボクセルを対象とした負のレンダリング演算と、を実行し、前記画像形成部は、前記各レイごとに、前記正のレンダリング演算により得られる結果値と前記負のレンダリング演算により得られる結果値に基づいて画素値を決定する、ことを特徴とする。   In a desirable specific example, the rendering processing unit includes, for each ray, a positive rendering operation for a plurality of voxels having a positive velocity value, and a plurality of velocity values having a negative value. A negative rendering operation for voxels, and the image forming unit, for each ray, based on a result value obtained by the positive rendering operation and a result value obtained by the negative rendering operation. The pixel value is determined.

望ましい具体例において、前記各ボクセルに対応した座標のエコーデータに基づいて各ボクセルごとに輝度値が決定され、前記レンダリング処理部は、前記各レイごとに、前記正のレンダリング演算と前記負のレンダリング演算に加えて、そのレイに沿って並ぶ複数のボクセルに関する複数の輝度値に基づいた輝度のレンダリング演算を実行し、前記画像形成部は、前記各レイごとに、前記正のレンダリング演算と前記負のレンダリング演算により得られる色相と、前記輝度のレンダリング演算により得られる輝度と、に基づいて画素値を決定する、ことを特徴とする。   In a preferred embodiment, a luminance value is determined for each voxel based on echo data of coordinates corresponding to each voxel, and the rendering processing unit performs the positive rendering operation and the negative rendering for each ray. In addition to the calculation, the image forming unit performs a luminance rendering operation based on a plurality of luminance values regarding a plurality of voxels arranged along the ray, and the image forming unit performs the positive rendering operation and the negative rendering for each ray. The pixel value is determined based on the hue obtained by the rendering operation and the luminance obtained by the luminance rendering operation.

望ましい具体例において、前記レンダリング処理部は、前記各レイごとに、レンダリング演算の進行と共に、そのレイに沿って並ぶ複数のボクセルに関する複数の速度値と複数の輝度値を複合的に累積処理し、その累積処理の結果が予め設定された閾値に達した時点をレンダリング演算の終了時点とする、ことを特徴とする。   In a preferred embodiment, for each ray, the rendering processing unitarily performs a cumulative process of a plurality of velocity values and a plurality of luminance values regarding a plurality of voxels arranged along the ray as the rendering operation proceeds. A point in time when the result of the accumulation process reaches a preset threshold value is set as the end point of the rendering operation.

望ましい具体例において、前記送受波部は、三次元空間に対して互いに異なる複数の原点方向から超音波を送受する複数の三次元プローブを備える、ことを特徴とする。   In a preferred embodiment, the wave transmitting / receiving unit includes a plurality of three-dimensional probes that transmit and receive ultrasonic waves from a plurality of different origin directions with respect to a three-dimensional space.

本発明により、三次元画像に関する視点の位置を基準として速度情報を表示することが可能になる。   According to the present invention, it becomes possible to display speed information on the basis of the position of the viewpoint regarding a three-dimensional image.

本発明の実施において好適な超音波診断装置の全体構成を示す図である。1 is a diagram illustrating an overall configuration of an ultrasonic diagnostic apparatus that is preferable in the practice of the present invention. エコーデータの合成処理を説明するための図である。It is a figure for demonstrating the synthesis | combination process of echo data. ボリュームレンダリングの原理を説明するための図である。It is a figure for demonstrating the principle of volume rendering. レンダリング処理部における演算を説明するための図である。It is a figure for demonstrating the calculation in a rendering process part. レンダリング演算の結果に基づいた3原色の信号値を示す図である。It is a figure which shows the signal value of 3 primary colors based on the result of a rendering calculation.

以下に本発明の好適な実施形態を説明する。   Hereinafter, preferred embodiments of the present invention will be described.

図1は、本発明の実施において好適な超音波診断装置の全体構成を示す図である。3Dプローブ11は、血流などの対象物を含む三次元空間に対して超音波を送受波する超音波プローブである。3Dプローブ11は、超音波を送受する複数の振動素子を備えており、複数の振動素子がビームフォーマ21によって送信制御されて送信ビームが形成される。また、複数の振動素子が三次元空間内から得られる超音波を受波し、これにより得られた信号がビームフォーマ21へ出力され、ビームフォーマ21が受信ビームを形成する。   FIG. 1 is a diagram showing an overall configuration of an ultrasonic diagnostic apparatus suitable for implementing the present invention. The 3D probe 11 is an ultrasonic probe that transmits and receives ultrasonic waves to and from a three-dimensional space including an object such as a blood flow. The 3D probe 11 includes a plurality of vibration elements that transmit and receive ultrasonic waves, and the plurality of vibration elements are transmission-controlled by the beam former 21 to form a transmission beam. Further, the plurality of vibration elements receive ultrasonic waves obtained from the three-dimensional space, and signals obtained thereby are output to the beam former 21, which forms a reception beam.

3Dプローブ11は、超音波ビーム(送信ビームと受信ビーム)を三次元空間内において走査して立体的にエコーデータを収集する三次元プローブである。例えば、一次元的に配列された複数の振動素子(1Dアレイ振動子)によって電子的に形成される走査面を機械的に動かすことにより超音波ビームが立体的に走査される。また、二次元的に配列された複数の振動素子(2Dアレイ振動子)を電子的に制御して超音波ビームを立体的に走査してもよい。3Dプローブ11を利用して三次元空間内から収集されたエコーデータは3Dメモリ31に記憶される。   The 3D probe 11 is a three-dimensional probe that three-dimensionally collects echo data by scanning an ultrasonic beam (a transmission beam and a reception beam) in a three-dimensional space. For example, the ultrasonic beam is three-dimensionally scanned by mechanically moving a scanning surface electronically formed by a plurality of vibration elements (1D array transducers) arranged one-dimensionally. Alternatively, the ultrasonic beam may be scanned three-dimensionally by electronically controlling a plurality of two-dimensionally arranged vibration elements (2D array transducers). Echo data collected from the 3D space using the 3D probe 11 is stored in the 3D memory 31.

図1の超音波診断装置は、3Dプローブ11に加えて、3Dプローブ12,13を備えている。3Dプローブ12,13も三次元プローブであり、例えば3Dプローブ11と同じ構成のプローブが利用される。但し、3つの3Dプローブ11,12,13は、互いに異なる方向から三次元空間に対して超音波を送受するように配置される。   The ultrasonic diagnostic apparatus in FIG. 1 includes 3D probes 12 and 13 in addition to the 3D probe 11. The 3D probes 12 and 13 are also three-dimensional probes. For example, a probe having the same configuration as that of the 3D probe 11 is used. However, the three 3D probes 11, 12, and 13 are arranged so as to transmit and receive ultrasonic waves to and from the three-dimensional space from different directions.

3Dプローブ12は、ビームフォーマ22により制御される。これにより超音波ビームが三次元空間内において立体的に走査されてエコーデータが収集される。3Dプローブ12を利用して三次元空間内から収集されたエコーデータは3Dメモリ32に記憶される。   The 3D probe 12 is controlled by a beam former 22. As a result, the ultrasonic beam is scanned three-dimensionally in the three-dimensional space, and echo data is collected. The echo data collected from the three-dimensional space using the 3D probe 12 is stored in the 3D memory 32.

同様に、3Dプローブ13は、ビームフォーマ23により制御される。これにより、超音波ビームが三次元空間内において立体的に走査されてエコーデータが収集される。3Dプローブ13を利用して三次元空間内から収集されたエコーデータは3Dメモリ33に記憶される。   Similarly, the 3D probe 13 is controlled by the beam former 23. Thereby, the ultrasonic beam is scanned three-dimensionally in the three-dimensional space, and echo data is collected. Echo data collected from the 3D space using the 3D probe 13 is stored in the 3D memory 33.

3つの3Dプローブ11,12,13により三次元空間内からエコーデータが収集されると、3Dデータ生成部40は、3Dメモリ31,32,33に記憶されたそれらのエコーデータを合成処理することにより、三次元空間に対応したデータ空間内において、各座標ごとに輝度や速度ベクトルを算出する。   When the echo data is collected from the three-dimensional space by the three 3D probes 11, 12, and 13, the 3D data generation unit 40 synthesizes the echo data stored in the 3D memories 31, 32, and 33. Thus, the luminance and velocity vectors are calculated for each coordinate in the data space corresponding to the three-dimensional space.

図2は、エコーデータの合成処理を説明するための図であり、図2には、図1を利用して説明した3Dプローブ11,12,13が図示されている。図2に示すように、3つの3Dプローブ11,12,13は、三次元空間100に対して互いに異なる方向から超音波を送受するように配置されている。例えば、3つの3Dプローブ11,12,13の互いの相対的な配置関係が既知とされ、3Dプローブ12を基準として三次元空間100の座標系が設定される。   FIG. 2 is a view for explaining echo data synthesis processing. FIG. 2 shows the 3D probes 11, 12, and 13 described with reference to FIG. As shown in FIG. 2, the three 3D probes 11, 12, and 13 are arranged so as to transmit and receive ultrasonic waves from different directions with respect to the three-dimensional space 100. For example, the relative positional relationship between the three 3D probes 11, 12, and 13 is known, and the coordinate system of the three-dimensional space 100 is set based on the 3D probe 12.

3Dデータ生成部40(図1)は、三次元空間100に対応したデータ空間内の各座標ごとに、3つの3Dプローブ11,12,13から得られるエコーデータを合成処理して三次元の速度ベクトルを得る。そこで、図2に示す三次元空間100内の座標Cにおける合成処理について説明する。   The 3D data generation unit 40 (FIG. 1) synthesizes echo data obtained from the three 3D probes 11, 12, and 13 for each coordinate in the data space corresponding to the three-dimensional space 100, and performs a three-dimensional velocity. Get a vector. Therefore, a synthesis process at the coordinates C in the three-dimensional space 100 shown in FIG. 2 will be described.

まず、3Dプローブ11から座標Cに向けられた超音波ビームB1に沿って得られるエコーデータに含まれるドプラ情報に基づいて、超音波ビームB1と同じ方向の速度ベクトル成分V1が決定される。3Dプローブ11についてのエコーデータは、3Dメモリ31(図1)から読み出される。また、3Dプローブ12から座標Cに向けられた超音波ビームB2に沿って得られるエコーデータに含まれるドプラ情報に基づいて、超音波ビームB2と同じ方向の速度ベクトル成分V2が決定される。3Dプローブ12についてのエコーデータは、3Dメモリ32(図1)から読み出される。さらに、3Dプローブ13から座標Cに向けられた超音波ビームB3に沿って得られるエコーデータに含まれるドプラ情報に基づいて、超音波ビームB3と同じ方向の速度ベクトル成分V3が決定される。3Dプローブ13についてのエコーデータは、3Dメモリ33(図1)から読み出される。そして、速度ベクトル成分V1と速度ベクトル成分V2と速度ベクトル成分V3をベクトル的に加算することにより、三次元空間100内の座標Cにおける三次元の速度ベクトルVが得られる。   First, a velocity vector component V1 in the same direction as the ultrasonic beam B1 is determined based on Doppler information included in echo data obtained along the ultrasonic beam B1 directed from the 3D probe 11 to the coordinate C. The echo data for the 3D probe 11 is read from the 3D memory 31 (FIG. 1). Further, a velocity vector component V2 in the same direction as the ultrasonic beam B2 is determined based on Doppler information included in echo data obtained along the ultrasonic beam B2 directed from the 3D probe 12 to the coordinate C. The echo data for the 3D probe 12 is read from the 3D memory 32 (FIG. 1). Further, a velocity vector component V3 in the same direction as the ultrasonic beam B3 is determined based on Doppler information included in the echo data obtained along the ultrasonic beam B3 directed from the 3D probe 13 to the coordinate C. The echo data for the 3D probe 13 is read from the 3D memory 33 (FIG. 1). Then, the three-dimensional velocity vector V at the coordinates C in the three-dimensional space 100 is obtained by adding the velocity vector component V1, the velocity vector component V2, and the velocity vector component V3 in vector.

また、3Dデータ生成部40は、三次元空間100に対応したデータ空間内の各座標ごとに、3つの3Dプローブ11,12,13から得られるエコーデータに基づいて輝度(エコーデータの大きさ)を得る。なお、輝度はスカラー値であるため、例えば3つの3Dプローブ11,12,13のうちのいずれか1つのプローブから得られるエコーデータのみにより座標Cにおける輝度が決定されてもよいし、複数のプローブから得られるエコーデータの平均値などから座標Cにおける輝度が決定されてもよい。   In addition, the 3D data generation unit 40 determines the luminance (the size of the echo data) for each coordinate in the data space corresponding to the three-dimensional space 100 based on the echo data obtained from the three 3D probes 11, 12, and 13. Get. Since the luminance is a scalar value, for example, the luminance at the coordinate C may be determined only by echo data obtained from any one of the three 3D probes 11, 12, and 13, or a plurality of probes may be determined. The luminance at the coordinates C may be determined from the average value of echo data obtained from the above.

こうして、3Dデータ生成部40は、三次元空間100内(データ空間内)の全座標について、各座標ごとに三次元の速度ベクトルと輝度を決定する。全座標についての速度ベクトルと輝度は、例えば座標値をアドレスとして3Dデータ生成部40が備えるメモリに記憶される。   In this way, the 3D data generation unit 40 determines a three-dimensional velocity vector and brightness for each coordinate for all coordinates in the three-dimensional space 100 (in the data space). The velocity vector and the luminance for all coordinates are stored in a memory included in the 3D data generation unit 40 using, for example, coordinate values as addresses.

図1の超音波診断装置は、3Dデータ生成部40において得られた三次元空間100内(データ空間内)の各座標の速度ベクトルと輝度に基づいて、ボリュームレンダリングの手法を利用して表示画像を形成する。そこで、そのボリュームレンダリングの原理について説明する。   The ultrasonic diagnostic apparatus in FIG. 1 uses a volume rendering technique based on the velocity vector and the luminance of each coordinate in the three-dimensional space 100 (in the data space) obtained by the 3D data generation unit 40 to display a display image. Form. Therefore, the principle of volume rendering will be described.

図3は、ボリュームレンダリングの原理を説明するための図である。図3には、三次元空間100(データ空間)がXYZの直交座標系で示されている。三次元空間100内の全座標について、各座標ごとにデータ(三次元の速度ベクトルと輝度)が決定されていることは先に説明したとおりである。   FIG. 3 is a diagram for explaining the principle of volume rendering. In FIG. 3, the three-dimensional space 100 (data space) is shown in an XYZ orthogonal coordinate system. As described above, data (three-dimensional velocity vector and brightness) is determined for each coordinate in the three-dimensional space 100 for each coordinate.

ボリュームレンダリングにおいては、通常、三次元空間100(データ空間)の外側に仮想的に視点VPが設定され、三次元空間100を間に介して、視点VPと反対側に二次元平面としてのスクリーン110が仮想的に設定される。その視点VPを基準として複数のレイ(透視線)112が定義される。レイ112は、三次元空間100を貫通するように設定される。そして、三次元空間100内において、レイ112上には複数のボクセル(黒丸)からなるボクセル列が対応付けられる。   In volume rendering, a viewpoint VP is generally set virtually outside the three-dimensional space 100 (data space), and a screen 110 serving as a two-dimensional plane on the opposite side of the viewpoint VP with the three-dimensional space 100 in between. Is virtually set. A plurality of rays (perspective lines) 112 are defined on the basis of the viewpoint VP. The ray 112 is set so as to penetrate the three-dimensional space 100. In the three-dimensional space 100, a voxel string composed of a plurality of voxels (black circles) is associated with the ray 112.

なお、各ボクセルのデータ(ボクセル値)は、そのボクセルに対応した座標の速度ベクトルや輝度から算出される。各ボクセルの位置に合致する座標が無ければ、そのボクセルの近傍にある座標の速度ベクトルや輝度を用いて、補間処理などにより、そのボクセルのボクセル値が算出される。本実施形態におけるボクセル値については後に説明する。   Note that the data (voxel value) of each voxel is calculated from the velocity vector and the luminance of the coordinates corresponding to that voxel. If there is no coordinate that matches the position of each voxel, the voxel value of that voxel is calculated by interpolation processing or the like using the velocity vector and brightness of the coordinates in the vicinity of that voxel. The voxel value in this embodiment will be described later.

ボリュームレンダリングにおいては、視点VP側からレイ112に沿って並ぶ複数のボクセル値を対象として、レンダリング演算(ボクセル演算)が逐次的に実行される。そして、最終のレンダリング演算の結果として画素値が決定される。その画素値がスクリーン上における当該レイ112に対応する画素Pにマッピングされる。   In volume rendering, rendering operations (voxel operations) are sequentially performed on a plurality of voxel values arranged along the ray 112 from the viewpoint VP side. Then, the pixel value is determined as a result of the final rendering operation. The pixel value is mapped to the pixel P corresponding to the ray 112 on the screen.

図3において、スクリーン110は、Xs,Ysの座標系で示されている。つまり、スクリーン110内の各座標はXs,Ysの座標値で定義される。このスクリーン110内の各座標ごとに1本のレイ112が設定されており、上述にように各レイ112ごとに得られた画素値をスクリーン110上にマッピングすることにより、スクリーン110上に三次元画像が形成される。なお、複数のレイ112が互いに平行の場合もあるが、複数のレイ112が互いに非平行となる場合もある。   In FIG. 3, the screen 110 is shown in the coordinate system of Xs and Ys. That is, each coordinate in the screen 110 is defined by the coordinate values of Xs and Ys. One ray 112 is set for each coordinate in the screen 110. By mapping the pixel values obtained for each ray 112 on the screen 110 as described above, a three-dimensional image is displayed on the screen 110. An image is formed. The plurality of rays 112 may be parallel to each other, but the plurality of rays 112 may be non-parallel to each other.

レンダリング演算の好適な例では、i番目のボクセルのデータ(ボクセル値)をeとし、その際のオパシティ(不透明度)をα(但し0≦α≦1)とし、i番目の演算結果をCOUTiとし、i番目の演算における入力値((i−1)番目の演算結果)をCINiとすると、次式で示すことができる。もちろん、次式以外の公知の演算が用いられてもよい。 In a preferred example of the rendering operation, the i-th voxel data (voxel value) is e i , the opacity (opacity) at that time is α i (where 0 ≦ α i ≦ 1), and the i-th operation result Is C OUTi, and the input value in the i-th calculation ((i−1) -th calculation result) is C INi , it can be expressed by the following equation. Of course, a known calculation other than the following equation may be used.

Figure 2012045253
Figure 2012045253

例えば数1式を利用してレイ112に沿って逐次的にレンダリング演算を行う場合においては、それと並行して各オパシティαが積算され、その積算値が所定値(例えば1)以上となった時点において、そのレイ112についての演算が終了する。また、最終のボクセル値についての演算が終了した場合にもそのレイ112についての演算は終了する。さらに、本実施形態においては、後に詳述する終了条件に基づいてレイ112についての演算を終了させてもよい。 For example, in the case where the rendering operation is sequentially performed along the ray 112 using Formula 1, each opacity α i is integrated in parallel with the rendering operation, and the integrated value becomes a predetermined value (for example, 1) or more. At that time, the computation for that ray 112 ends. Also, when the calculation for the final voxel value is completed, the calculation for the ray 112 is completed. Furthermore, in the present embodiment, the calculation for the ray 112 may be ended based on an end condition described in detail later.

なお、本実施形態に係る超音波診断装置は、上記のようなボリュームレンダリングを利用することが特に好適であるものの、各レイ112に沿って逐次演算を行う他のレンダリング処理が適用されてもよい。例えば、積算法、最大値や最小値の検出法などが適用されてもよい。   Note that the ultrasound diagnostic apparatus according to the present embodiment is particularly suitable to use volume rendering as described above, but other rendering processes that perform sequential computation along each ray 112 may be applied. . For example, an integration method, a maximum value or minimum value detection method, or the like may be applied.

図1に戻り、レイ設定部52は、視点VP(図2)からデータ空間内を通る複数のレイ(図2の符号112)を設定する。視点VPは、任意の位置に設定される。例えば、図示しない操作デバイスを利用してユーザが所望の位置に視点VPを設定する。また、スクリーン(図2の符号110)は、データ空間を間に挟むように、視点VPの反対側に設定される。レイ設定部52は、設定された視点VPからデータ空間内を通りスクリーンに達する複数のレイを設定する。   Returning to FIG. 1, the ray setting unit 52 sets a plurality of rays (reference numeral 112 in FIG. 2) passing through the data space from the viewpoint VP (FIG. 2). The viewpoint VP is set at an arbitrary position. For example, the user sets the viewpoint VP at a desired position using an operation device (not shown). Further, the screen (reference numeral 110 in FIG. 2) is set on the opposite side of the viewpoint VP so as to sandwich the data space. The ray setting unit 52 sets a plurality of rays that reach the screen from the set viewpoint VP through the data space.

複数のレイが設定されると、ボクセル値算出部50は、設定された各レイに沿って並ぶ複数のボクセルに関して、各ボクセルごとにボクセル値を算出する。ボクセル値算出部50は、ボクセル値として各ボクセルごとに速度値と輝度値を算出する。   When a plurality of rays are set, the voxel value calculation unit 50 calculates a voxel value for each voxel with respect to the plurality of voxels arranged along each set ray. The voxel value calculation unit 50 calculates a velocity value and a luminance value for each voxel as a voxel value.

まず、各ボクセルの速度値は、そのボクセルに対応した座標の速度ベクトルに基づいて算出される。複数のボクセルは三次元空間内(データ空間内)にあるため(図3参照)、三次元空間内における各ボクセルの位置に対応した座標の速度ベクトル(図2)が参照される。そして、各ボクセルの速度値として、そのボクセルに対応した速度ベクトルのレイ方向成分が算出される。つまり、対象となるボクセルが載るレイとそのボクセルに対応した速度ベクトルとの間の角度をθとし、その速度ベクトルの大きさをVとすると、そのボクセルの速度値は、速度値=V×cosθと算出される。なお、視点に向かう方向を速度の正方向とし、視点から遠ざかる方向を速度の負方向とする。   First, the velocity value of each voxel is calculated based on the velocity vector of coordinates corresponding to that voxel. Since the plurality of voxels are in the three-dimensional space (in the data space) (see FIG. 3), the velocity vector (FIG. 2) of the coordinates corresponding to the position of each voxel in the three-dimensional space is referred to. Then, the ray direction component of the velocity vector corresponding to the voxel is calculated as the velocity value of each voxel. That is, if the angle between the ray on which the target voxel is placed and the velocity vector corresponding to the voxel is θ and the magnitude of the velocity vector is V, the velocity value of the voxel is velocity value = V × cos θ. Is calculated. A direction toward the viewpoint is a positive direction of speed, and a direction away from the viewpoint is a negative direction of speed.

また、各ボクセルの輝度値は、そのボクセルに対応した座標の輝度(エコーデータの大きさ)に基づいて算出される。つまり、三次元空間内における各ボクセルの位置に対応した座標の輝度(エコーデータの大きさ)が参照され、そのエコーデータの大きさがそのボクセルの輝度値とされる。   Further, the luminance value of each voxel is calculated based on the luminance of the coordinates corresponding to the voxel (the size of echo data). That is, the brightness of the coordinates corresponding to the position of each voxel in the three-dimensional space (the size of the echo data) is referred to, and the size of the echo data is used as the brightness value of the voxel.

こうして、ボクセル値算出部50により、各レイに沿って並ぶ複数のボクセルの各々についての速度値と輝度値が算出されると、レンダリング処理部60において、ボクセル値として算出された速度値と輝度値を利用して、各レイについてのレンダリング演算が実行される。   Thus, when the velocity value and the luminance value for each of the plurality of voxels arranged along each ray are calculated by the voxel value calculating unit 50, the rendering processor 60 calculates the velocity value and the luminance value as the voxel values. Is used to perform a rendering operation for each ray.

図4は、レンダリング処理部における演算を説明するための図である。レンダリング処理部(図1の符号60)は、ボクセル値として算出された速度値と輝度値を利用して、各レイごとにレンダリング演算を実行する。   FIG. 4 is a diagram for explaining calculation in the rendering processing unit. The rendering processing unit (reference numeral 60 in FIG. 1) performs a rendering operation for each ray using the velocity value and the luminance value calculated as the voxel value.

図4(I)は、1本のレイについてのレンダリング演算を示しており、1本のレイについて、輝度値を対象としたレンダリング演算(輝度レンダリング)と、正の速度値を対象としたレンダリング演算(正レンダリング)と、負の速度値を対象としたレンダリング演算(負レンダリング)が実行される。   FIG. 4I shows a rendering operation for one ray. For one ray, a rendering operation for luminance values (luminance rendering) and a rendering operation for positive velocity values are performed. (Positive rendering) and a rendering operation (negative rendering) for a negative velocity value are executed.

輝度レンダリングにおいては、レイに沿って並ぶ複数のボクセルについて、視点に近い側のボクセル1から順に、ボクセル値として輝度値を利用して、レンダリング演算(ボクセル演算)が実行される。   In luminance rendering, a rendering operation (voxel operation) is performed on a plurality of voxels arranged along a ray, using the luminance value as a voxel value in order from the voxel 1 closer to the viewpoint.

正レンダリングにおいては、レイに沿って並ぶ複数のボクセルについて、視点に近い側のボクセル1から順に、ボクセル値として速度値を利用して、レンダリング演算(ボクセル演算)が実行される。但し、正レンダリングにおいては、正の速度値つまり視点に向かう方向の速度値のみが演算の対象とされ、速度値がゼロまたは負となるボクセルについては演算の対象から除かれる。なお、速度値がゼロまたは負となるボクセルのボクセル値を0として演算を進めることにより、結果的に演算結果に反映させないようにしてもよい。   In normal rendering, a rendering operation (voxel operation) is executed for a plurality of voxels arranged along a ray, using a velocity value as a voxel value in order from the voxel 1 closer to the viewpoint. However, in positive rendering, only a positive velocity value, that is, a velocity value in the direction toward the viewpoint, is subject to computation, and voxels whose velocity values are zero or negative are excluded from the subject of computation. It should be noted that the voxel value of the voxel whose velocity value is zero or negative may be set to 0 so that the result is not reflected in the calculation result.

一方、負レンダリングにおいては、負の速度値つまり視点から遠ざかる方向の速度値のみが演算の対象とされ、速度値がゼロまたは正となるボクセルについては演算の対象から除かれる。なお、速度値がゼロまたは正となるボクセルのボクセル値を0として演算を進めることにより、結果的に演算結果に反映させないようにしてもよい。   On the other hand, in negative rendering, only negative velocity values, that is, velocity values in a direction away from the viewpoint, are subject to computation, and voxels whose velocity values are zero or positive are excluded from computation subjects. It should be noted that the voxel value of a voxel whose velocity value is zero or positive may be set to 0 so that the result is not reflected in the calculation result.

図4(II)は、(I)に示したレンダリング演算の終了判定を示しており、(I)のレンダリング演算と並行して実行される処理を示している。この終了判定においては、レイに沿って並ぶ複数のボクセルに関する速度値と輝度値が複合的に累積処理され、累積処理の結果が予め設定された閾値に達した時点がレンダリング演算の終了時点とされる。   FIG. 4 (II) shows the end determination of the rendering operation shown in (I), and shows the processing executed in parallel with the rendering operation of (I). In this end determination, the speed value and the luminance value regarding a plurality of voxels arranged along the ray are combined and accumulated, and the time when the result of the accumulation process reaches a preset threshold is set as the end time of the rendering operation. The

具体的には、例えば、各ボクセルに関する速度値と輝度値の絶対値が利用される。そして、各ボクセルに関する輝度値の絶対値と速度値の絶対値が累積処理の対象とされ、(I)に示すレンダリング演算に並行するように、視点に近い側のボクセル1から順に絶対値の加算(累積処理)が進行される。図4(II)に示す例においては、ボクセル1の輝度値の絶対値と正の速度値の絶対値が加算され、さらにその加算結果に対して、ボクセル2の輝度値の絶対値と正の速度値の絶対値が加算され、さらにその加算結果に対して、ボクセル3の輝度値の絶対値と負の速度値の絶対値が加算される。こうして、累積処理が進められ、ボクセルiにおいて累積処理の結果が予め設定された閾値に達すると、(I)に示す各レンダリング演算がボクセルiの段階で終了され、その段階における各レンダリング演算の値が演算結果とされる。   Specifically, for example, the absolute value of the velocity value and the luminance value regarding each voxel is used. Then, the absolute value of the luminance value and the absolute value of the velocity value for each voxel are subjected to accumulation processing, and the absolute values are added sequentially from the voxel 1 on the side closer to the viewpoint so as to be parallel to the rendering operation shown in (I). (Cumulative processing) proceeds. In the example shown in FIG. 4 (II), the absolute value of the luminance value of voxel 1 and the absolute value of the positive velocity value are added, and the absolute value of the luminance value of voxel 2 and the positive value are added to the addition result. The absolute value of the velocity value is added, and the absolute value of the luminance value of the voxel 3 and the absolute value of the negative velocity value are added to the addition result. Thus, the accumulation process is advanced, and when the result of the accumulation process reaches a preset threshold value in voxel i, each rendering operation shown in (I) is terminated at the stage of voxel i, and the value of each rendering operation at that stage Is the result of the operation.

図1に戻り、レンダリング処理部60は、複数のレイの各々について3つのレンダリング演算を実行し、各レイごとに演算結果(E)と演算結果(+V)と演算結果(−V)を得る(図4参照)。そして、画像形成部70は、各レイごとに得られる3つの演算結果に基づいて、スクリーン上におけるそのレイに対応した画素P(図3参照)の画素値を決定する。各画素Pの画素値は、RGB(赤緑青)の3原色に対応したR信号値とG信号値とB信号値により決定される。これらR信号値とG信号値とB信号値は、各レイごとに3つのレンダリング演算の結果として得られる演算結果(E)と演算結果(+V)と演算結果(−V)に基づいて決定される。   Returning to FIG. 1, the rendering processing unit 60 executes three rendering operations for each of a plurality of rays, and obtains an operation result (E), an operation result (+ V), and an operation result (−V) for each ray ( (See FIG. 4). Then, the image forming unit 70 determines the pixel value of the pixel P (see FIG. 3) corresponding to the ray on the screen based on the three calculation results obtained for each ray. The pixel value of each pixel P is determined by the R signal value, G signal value, and B signal value corresponding to the three primary colors of RGB (red, green, and blue). These R signal value, G signal value, and B signal value are determined based on the calculation result (E), calculation result (+ V), and calculation result (−V) obtained as a result of three rendering calculations for each ray. The

図5は、レンダリング演算の結果に基づいた3原色の信号値を示す図である。演算結果(+V)は、正の速度値を対象としたレンダリング演算の演算結果であり、演算結果(−V)は、負の速度値を対象としたレンダリング演算の演算結果であり、演算結果(E)は輝度値を対象としたレンダリング演算の演算結果である(図4参照)。   FIG. 5 is a diagram showing signal values of the three primary colors based on the result of the rendering operation. The calculation result (+ V) is a calculation result of a rendering calculation for a positive speed value, and the calculation result (−V) is a calculation result of a rendering calculation for a negative speed value. E) is a calculation result of the rendering calculation for the luminance value (see FIG. 4).

演算結果(+V)と演算結果(−V)が共にゼロの場合には、R信号値とG信号値とB信号値の全ての信号値を演算結果(E)とする。一方、演算結果(+V)と演算結果(−V)の少なくとも一方がゼロでない場合には、R信号値を演算結果(+V)としてB信号値を演算結果(−V)とし、G信号値は0または0以外の固定値とする。   When the calculation result (+ V) and the calculation result (−V) are both zero, all signal values of the R signal value, the G signal value, and the B signal value are set as the calculation result (E). On the other hand, when at least one of the calculation result (+ V) and the calculation result (−V) is not zero, the R signal value is the calculation result (+ V), the B signal value is the calculation result (−V), and the G signal value is 0 or a fixed value other than 0.

これにより、演算結果(+V)つまり視点に向かってくる正の速度値に関する演算結果が赤(R)を基調とした暖色系で画素に反映され、演算結果(−V)つまり視点から遠ざかる負の速度値に関する演算結果が青(B)を基調とした寒色系で画素に反映される。   As a result, the calculation result (+ V), that is, the calculation result related to the positive speed value toward the viewpoint is reflected on the pixel in a warm color system based on red (R), and the calculation result (−V), that is, a negative value moving away from the viewpoint. The calculation result relating to the speed value is reflected on the pixel in a cool color system based on blue (B).

図1に戻り、画像形成部70は、各レイごとに得られる3つの演算結果に基づいて、スクリーン上におけるそのレイに対応した画素の画素値(R信号値,G信号値,B信号値)を決定する(図5参照)。こうして、仮想的なスクリーン上における全ての画素の画素値が決定され、このスクリーン上に形成される画像が三次元空間に関する表示画像としてモニタなどに表示される。なお、図1に示した超音波診断装置内の各部は、制御部80により制御される。   Returning to FIG. 1, the image forming unit 70, based on the three calculation results obtained for each ray, the pixel values (R signal value, G signal value, B signal value) of the pixel corresponding to that ray on the screen. Is determined (see FIG. 5). Thus, the pixel values of all the pixels on the virtual screen are determined, and an image formed on the screen is displayed on a monitor or the like as a display image relating to the three-dimensional space. Each unit in the ultrasonic diagnostic apparatus shown in FIG.

以上、本発明の好適な実施形態を説明したが、上述した実施形態によれば、三次元の速度ベクトルに基づいて各ボクセルごとにレイの方向の速度値が算出され、その算出において、視点に向かう方向が正の速度値とされ視点から遠ざかる方向が負の速度値される。つまり、レイの起点となる視点VPが任意の位置に変更されたとしても、常に視点を基準として速度の正負が決定されている。これにより、例えば、視点に向かってくる血流等が赤を基調とした暖色系で表現され、視点から遠ざかる血流等が青を基調とした寒色系で表現され、視点の位置に関わらずカラードプラと同様な色の表現を維持することができる。   As described above, the preferred embodiment of the present invention has been described. According to the above-described embodiment, the velocity value in the ray direction is calculated for each voxel based on the three-dimensional velocity vector. The direction of heading is a positive speed value, and the direction away from the viewpoint is a negative speed value. In other words, even if the viewpoint VP that is the starting point of the ray is changed to an arbitrary position, the sign of the speed is always determined based on the viewpoint. Thus, for example, blood flow toward the viewpoint is expressed in a warm color system based on red, and blood flow away from the viewpoint is expressed in a cool color system based on blue. A color expression similar to that of Doppler can be maintained.

なお、上述した実施形態は、あらゆる点で単なる例示にすぎず、本発明の範囲を限定するものではない。本発明は、その本質を逸脱しない範囲で各種の変形形態を包含する。例えば、図1では、3つの3Dプローブ11,12,13を利用した実施形態を示したが、4つ以上の複数の3Dプローブが利用されてもよい。その場合には、例えばそれら複数の3Dプローブの中から3つの3Dプローブが選択的に利用されて、図2以降に説明した処理が実現される。   The above-described embodiments are merely examples in all respects, and do not limit the scope of the present invention. The present invention includes various modifications without departing from the essence thereof. For example, although FIG. 1 shows an embodiment using three 3D probes 11, 12, and 13, four or more 3D probes may be used. In that case, for example, three 3D probes are selectively used from among the plurality of 3D probes, and the processes described in FIG.

11,12,13 3Dプローブ、21,22,23 ビームフォーマ、40 3Dデータ生成部、50 ボクセル値算出部、52 レイ設定部、60 レンダリング処理部。   11, 12, 13 3D probe, 21, 22, 23 beamformer, 40 3D data generation unit, 50 voxel value calculation unit, 52 ray setting unit, 60 rendering processing unit.

Claims (5)

三次元空間に対して互いに異なる複数の原点方向から超音波を送受する送受波部と、
前記送受波部を制御することにより、前記各原点方向ごとに超音波ビームを立体的に走査して各原点方向ごとに三次元的にエコーデータを収集する送受信処理部と、
前記三次元空間に対応したデータ空間内の各座標ごとに、前記複数の原点方向から得られるその座標に対応した複数のエコーデータに基づいて、その座標における三次元の速度ベクトル情報を得る三次元情報生成部と、
前記データ空間に対して設定された視点側からデータ空間内を通る複数のレイを設定するレイ設定部と、
前記各レイごとに、そのレイに沿って並ぶ複数のボクセルに関して、各ボクセルに対応した座標の前記速度ベクトル情報に基づいて、各ボクセルごとにそのレイの方向の速度値を算出するボクセル値算出部と、
前記各レイごとに、そのレイに沿って並ぶ複数のボクセルに関する複数の速度値に基づいてレンダリング演算を実行するレンダリング処理部と、
前記レンダリング演算により前記複数のレイから得られる複数の画素値に基づいて前記三次元空間に関する表示画像を形成する画像形成部と、
を有する、
ことを特徴とする超音波診断装置。
A transmission / reception unit for transmitting and receiving ultrasonic waves from a plurality of different origin directions relative to a three-dimensional space;
By controlling the transmission / reception unit, a transmission / reception processing unit that three-dimensionally scans the ultrasonic beam for each origin direction and collects echo data three-dimensionally for each origin direction;
For each coordinate in the data space corresponding to the three-dimensional space, based on a plurality of echo data corresponding to the coordinates obtained from the plurality of origin directions, three-dimensional velocity vector information at the coordinates is obtained. An information generator,
A ray setting unit for setting a plurality of rays passing through the data space from the viewpoint side set for the data space;
A voxel value calculation unit that calculates a velocity value in the direction of each ray for each voxel based on the velocity vector information of coordinates corresponding to each voxel for a plurality of voxels arranged along the ray for each ray. When,
A rendering processor that performs a rendering operation based on a plurality of velocity values for a plurality of voxels arranged along the ray for each ray;
An image forming unit that forms a display image related to the three-dimensional space based on a plurality of pixel values obtained from the plurality of rays by the rendering operation;
Having
An ultrasonic diagnostic apparatus.
請求項1に記載の超音波診断装置において、
前記レンダリング処理部は、前記各レイごとに、前記速度値が正の値となる複数のボクセルを対象とした正のレンダリング演算と、前記速度値が負の値となる複数のボクセルを対象とした負のレンダリング演算と、を実行し、
前記画像形成部は、前記各レイごとに、前記正のレンダリング演算により得られる結果値と前記負のレンダリング演算により得られる結果値に基づいて画素値を決定する、
ことを特徴とする超音波診断装置。
The ultrasonic diagnostic apparatus according to claim 1,
The rendering processing unit targets, for each ray, a positive rendering operation for a plurality of voxels in which the velocity value is a positive value and a plurality of voxels in which the velocity value is a negative value. Perform negative rendering operations, and
The image forming unit determines a pixel value based on a result value obtained by the positive rendering operation and a result value obtained by the negative rendering operation for each ray.
An ultrasonic diagnostic apparatus.
請求項2に記載の超音波診断装置において、
前記各ボクセルに対応した座標のエコーデータに基づいて各ボクセルごとに輝度値が決定され、
前記レンダリング処理部は、前記各レイごとに、前記正のレンダリング演算と前記負のレンダリング演算に加えて、そのレイに沿って並ぶ複数のボクセルに関する複数の輝度値に基づいた輝度のレンダリング演算を実行し、
前記画像形成部は、前記各レイごとに、前記正のレンダリング演算と前記負のレンダリング演算により得られる色相と、前記輝度のレンダリング演算により得られる輝度と、に基づいて画素値を決定する、
ことを特徴とする超音波診断装置。
The ultrasonic diagnostic apparatus according to claim 2,
A luminance value is determined for each voxel based on echo data of coordinates corresponding to each voxel,
The rendering processing unit executes, for each ray, a luminance rendering operation based on a plurality of luminance values related to a plurality of voxels arranged along the ray in addition to the positive rendering operation and the negative rendering operation. And
The image forming unit determines a pixel value for each ray based on the hue obtained by the positive rendering operation and the negative rendering operation and the luminance obtained by the luminance rendering operation.
An ultrasonic diagnostic apparatus.
請求項3に記載の超音波診断装置において、
前記レンダリング処理部は、前記各レイごとに、レンダリング演算の進行と共に、そのレイに沿って並ぶ複数のボクセルに関する複数の速度値と複数の輝度値を複合的に累積処理し、その累積処理の結果が予め設定された閾値に達した時点をレンダリング演算の終了時点とする、
ことを特徴とする超音波診断装置。
The ultrasonic diagnostic apparatus according to claim 3.
For each ray, the rendering processing unit compositely accumulates a plurality of velocity values and a plurality of luminance values related to a plurality of voxels arranged along the ray as the rendering operation proceeds, and results of the accumulation processing The point in time at which the preset threshold is reached is the end point of the rendering operation.
An ultrasonic diagnostic apparatus.
請求項1から4のいずれか1項に記載の超音波診断装置において、
前記送受波部は、三次元空間に対して互いに異なる複数の原点方向から超音波を送受する複数の三次元プローブを備える、
ことを特徴とする超音波診断装置。
In the ultrasonic diagnostic apparatus according to any one of claims 1 to 4,
The transmission / reception unit includes a plurality of three-dimensional probes that transmit and receive ultrasonic waves from a plurality of different origin directions with respect to a three-dimensional space.
An ultrasonic diagnostic apparatus.
JP2010191757A 2010-08-30 2010-08-30 Ultrasonograph Withdrawn JP2012045253A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010191757A JP2012045253A (en) 2010-08-30 2010-08-30 Ultrasonograph

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010191757A JP2012045253A (en) 2010-08-30 2010-08-30 Ultrasonograph

Publications (1)

Publication Number Publication Date
JP2012045253A true JP2012045253A (en) 2012-03-08

Family

ID=45900838

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010191757A Withdrawn JP2012045253A (en) 2010-08-30 2010-08-30 Ultrasonograph

Country Status (1)

Country Link
JP (1) JP2012045253A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019058657A1 (en) * 2017-09-19 2019-03-28 富士フイルム株式会社 Fluid analysis device, method for operating fluid analysis device, and fluid analysis program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019058657A1 (en) * 2017-09-19 2019-03-28 富士フイルム株式会社 Fluid analysis device, method for operating fluid analysis device, and fluid analysis program
JPWO2019058657A1 (en) * 2017-09-19 2020-09-24 富士フイルム株式会社 Fluid analysis device and operation method of fluid analysis device and fluid analysis program
US11730384B2 (en) 2017-09-19 2023-08-22 Fujifilm Corporation Fluid analysis apparatus, method for operating fluid analysis apparatus, and fluid analysis program

Similar Documents

Publication Publication Date Title
JP5814646B2 (en) Ultrasonic data processing method and system
JP4847334B2 (en) Ultrasonic imaging apparatus and projection image generation method
JP5438012B2 (en) Ultrasonic diagnostic equipment
JP5632680B2 (en) Ultrasonic image processing device
KR101100464B1 (en) Ultrasound system and method for providing three-dimensional ultrasound image based on sub region of interest
KR100954988B1 (en) Ultrasound system and method for forming ultrasound image
JP5470253B2 (en) Ultrasonic diagnostic equipment
US9514564B2 (en) Ultrasonic diagnostic apparatus and ultrasonic image display method
JP5525930B2 (en) Ultrasound diagnostic device for generating and displaying 3D ultrasound images
JP2010000340A (en) Image processor, image processing method and image processing program
JP2009291295A5 (en)
JPH09192131A (en) Real-time biplane image display method for ultrasonic diagnostic system
JP4177217B2 (en) Ultrasonic diagnostic equipment
JP4740695B2 (en) Ultrasonic diagnostic equipment
CN110537936B (en) Blood flow image processing device and method, and computer-readable storage medium
JP6890677B2 (en) A virtual light source embedded in a 3D volume and coupled to the crosshairs in the MPR diagram
JP2013165922A (en) Ultrasonic diagnostic apparatus
JP6169911B2 (en) Ultrasonic image pickup apparatus and ultrasonic image display method
JP2012045253A (en) Ultrasonograph
JP4861127B2 (en) Ultrasonic diagnostic equipment
JP5009745B2 (en) Ultrasonic diagnostic equipment
US20130030293A1 (en) Ultrasound diagnostic apparatus and method thereof
JP6299194B2 (en) Ultrasonic diagnostic apparatus and ultrasonic image display method
JP6793075B2 (en) Ultrasonic image processing equipment
KR20080086678A (en) Ultrasound system and method for forming ultrasound image

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20131105