JP2008104705A - Ultrasonic diagnostic equipment - Google Patents

Ultrasonic diagnostic equipment Download PDF

Info

Publication number
JP2008104705A
JP2008104705A JP2006291181A JP2006291181A JP2008104705A JP 2008104705 A JP2008104705 A JP 2008104705A JP 2006291181 A JP2006291181 A JP 2006291181A JP 2006291181 A JP2006291181 A JP 2006291181A JP 2008104705 A JP2008104705 A JP 2008104705A
Authority
JP
Japan
Prior art keywords
tracking
tracking point
point
image data
pattern matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006291181A
Other languages
Japanese (ja)
Other versions
JP5102475B2 (en
Inventor
Takanari Uno
隆也 宇野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Aloka Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aloka Co Ltd filed Critical Aloka Co Ltd
Priority to JP2006291181A priority Critical patent/JP5102475B2/en
Publication of JP2008104705A publication Critical patent/JP2008104705A/en
Application granted granted Critical
Publication of JP5102475B2 publication Critical patent/JP5102475B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology continuing a tracking process as precisely as possible even if a pattern matching process is not performed at sufficient precision. <P>SOLUTION: A tracking process section 20 tracks a tracking point set in image data of a time phase to be a criterion across a plurality of time phases. The tracking process section 20 moves the tracking point to a predicted position found from the moving distance of the tracking point or a tracing position obtained by the pattern matching process related to the image data. That is to say, this equipment moves the tracking point to the tracing point, if the tracing point is within the prediction range, and to the predicted position, if the tracing point is out of the prediction range, using the prediction range set using the predicted point as a criterion. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、超音波診断装置に関し、特に、複数の時相に亘って関心部位をトラッキングする超音波診断装置に関する。   The present invention relates to an ultrasonic diagnostic apparatus, and more particularly to an ultrasonic diagnostic apparatus that tracks a region of interest over a plurality of time phases.

エコーデータに基づいて形成される超音波画像内の関心部分にポイントを設定し、テンプレートマッチング法などのパターンマッチング処理により、そのポイントを複数の時相に亘ってトラッキングする超音波診断装置が知られている。これにより、例えば、心臓などの運動する組織の特徴部分をトラッキングし、その特徴部分の運動状態などを診断することなどが可能になる。   An ultrasonic diagnostic apparatus is known in which a point is set in a portion of interest in an ultrasonic image formed based on echo data, and the point is tracked over a plurality of time phases by a pattern matching process such as a template matching method. ing. As a result, for example, it is possible to track a feature portion of a moving tissue such as the heart and diagnose the motion state of the feature portion.

例えば、特許文献1には、組織速度の時空間分布を求めることにより、組織の運動機能などを反映させた情報を取得する技術が示されている。また、特許文献2には、追跡可能なトラッキングポイントを自動抽出する技術が示されている。   For example, Patent Document 1 discloses a technique for obtaining information reflecting the motion function of a tissue by obtaining a spatiotemporal distribution of the tissue velocity. Patent Document 2 discloses a technique for automatically extracting tracking points that can be tracked.

特開2003−175041号公報JP 2003-175041 A 特開2003−250804号公報JP 2003-250804 A

ところが、複数の時相に亘って得られる断層画像内において、心臓などの動きの大きな組織をパターンマッチング処理によりトラッキングする場合には、いくつかの問題点が考えられる。   However, there are several problems in tracking a tissue with a large motion such as the heart by pattern matching processing in a tomographic image obtained over a plurality of time phases.

例えば、複数の時相に亘って得られる断層画像が常に同一の断面を捉えているとは限らないため、特徴部位が断層画像内から大きく外れて移動した場合に、画像のパターンマッチング処理によって追跡を行うことが困難な場合がある。また、例えば、アーチファクトなどの影響によりトラッキングポイントにノイズが入り込み、正確なパターンマッチング処理ができない可能性もある。   For example, since the tomographic images obtained over a plurality of time phases do not always capture the same cross section, tracking is performed by image pattern matching processing when the feature part moves greatly out of the tomographic image. It may be difficult to do. Further, for example, noise may enter the tracking point due to artifacts and the like, and there is a possibility that accurate pattern matching processing cannot be performed.

こうした背景において、本願の発明者は、パターンマッチング処理を利用したトラッキングに関する改良技術について研究を重ねてきた。   Against this background, the inventor of the present application has been researching improved techniques relating to tracking using pattern matching processing.

本発明は、その研究の過程において成されたものであり、その目的は、パターンマッチング処理が十分な精度で実行されない場合でも可能な限り正確にトラッキング処理を継続させる技術を提供することにある。   The present invention has been made in the course of the research, and an object of the present invention is to provide a technique for continuing the tracking process as accurately as possible even when the pattern matching process is not performed with sufficient accuracy.

上記目的を達成するために、本発明の好適な態様である超音波診断装置は、対象組織を含む空間内で超音波を送受波することにより複数の時相に亘ってエコーデータを取得する送受波部と、複数の時相に亘って取得されるエコーデータに基づいて対象組織に関する画像データを形成する画像形成部と、基準となる時相の画像データ内に設定されたトラッキングポイントを複数の時相に亘ってトラッキングするトラッキング処理部と、を有し、前記トラッキング処理部は、トラッキングポイントの移動量から求められるトラッキングポイントの予想位置、または、画像データに関するパターンマッチング処理によって得られるトラッキングポイントの追跡位置にトラッキングポイントを移動させることを特徴とする。   In order to achieve the above object, an ultrasonic diagnostic apparatus according to a preferred embodiment of the present invention transmits and receives ultrasonic data over a plurality of time phases by transmitting and receiving ultrasonic waves in a space including a target tissue. A wave unit, an image forming unit that forms image data related to a target tissue based on echo data acquired over a plurality of time phases, and a plurality of tracking points set in image data of a reference time phase A tracking processing unit that tracks over a time phase, and the tracking processing unit detects an expected position of the tracking point obtained from a movement amount of the tracking point or a tracking point obtained by pattern matching processing related to image data. The tracking point is moved to a tracking position.

上記構成において、トラッキングポイントの移動量とは、例えば、時相間におけるトラッキングポイントの移動量などである。所定時間内の移動量として、トラッキングポイントの移動速度を求めてもよい。移動速度は、例えば、ベクトル量として求められる。   In the above configuration, the amount of movement of the tracking point is, for example, the amount of movement of the tracking point between time phases. The movement speed of the tracking point may be obtained as the movement amount within a predetermined time. The moving speed is obtained as a vector amount, for example.

上記構成によれば、例えば、パターンマッチング処理によって得られるトラッキングポイントの追跡位置が予想位置に比較的近い場合には、パターンマッチング処理が高い精度で行われたと判断して追跡位置にトラッキングポイントを移動させる。これにより、パターンマッチング処理の長所を活かした高い精度のトラッキングが可能になる。一方、例えば、追跡位置が予想位置から比較的遠い場合には、パターンマッチング処理が十分な精度で実行されていないと判断して予想位置にトラッキングポイントを移動させる。これにより、パターンマッチング処理が十分な精度で実行されない場合でも可能な限り正確にトラッキング処理を継続させることが可能になる。   According to the above configuration, for example, when the tracking position of the tracking point obtained by the pattern matching process is relatively close to the expected position, it is determined that the pattern matching process has been performed with high accuracy and the tracking point is moved to the tracking position. Let As a result, high-accuracy tracking utilizing the advantages of pattern matching processing becomes possible. On the other hand, for example, when the tracking position is relatively far from the predicted position, it is determined that the pattern matching process is not performed with sufficient accuracy, and the tracking point is moved to the predicted position. Thereby, even when the pattern matching process is not executed with sufficient accuracy, the tracking process can be continued as accurately as possible.

望ましい態様において、前記トラッキング処理部は、前記予想位置を基準として設定される予想範囲を利用し、前記追跡位置が予想範囲内であれば追跡位置にトラッキングポイントを移動させ、前記追跡位置が予想範囲内でなければ予想位置にトラッキングポイントを移動させることを特徴とする。   In a preferred aspect, the tracking processing unit uses an expected range set based on the predicted position, and moves the tracking point to the tracking position if the tracking position is within the expected range, and the tracking position is within the expected range. If not, the tracking point is moved to an expected position.

望ましい態様において、前記トラッキング処理部は、対象組織の運動方向に沿って伸長された形状の予想範囲を利用することを特徴とする。予想範囲の形状は、例えば、対象組織の運動方向に沿った軸を長軸とする楕円形などである。   In a preferred aspect, the tracking processing unit uses an expected range of a shape extended along the movement direction of the target tissue. The shape of the expected range is, for example, an ellipse whose major axis is the axis along the direction of motion of the target tissue.

本発明の好適な態様により、パターンマッチング処理が十分な精度で実行されない場合でも可能な限り正確にトラッキング処理を継続させることが可能になる。   According to a preferred aspect of the present invention, it is possible to continue the tracking process as accurately as possible even when the pattern matching process is not executed with sufficient accuracy.

以下、本発明の好適な実施形態を説明する。   Hereinafter, preferred embodiments of the present invention will be described.

図1には、本発明に係る超音波診断装置の好適な実施形態が示されており、図1はその全体構成を示す機能ブロック図である。   FIG. 1 shows a preferred embodiment of an ultrasonic diagnostic apparatus according to the present invention, and FIG. 1 is a functional block diagram showing the overall configuration thereof.

プローブ10は、図示しない複数の振動素子を備えており、例えば心臓などの対象組織を含む空間内で超音波ビームを電子的に走査する。例えばrθφ極座標系において、深さr方向に沿って形成される超音波ビームをθ方向に走査して走査面を形成する。さらに走査面をφ方向(エレベーション方向)に走査することにより三次元的に超音波ビームを走査させてもよい。なお、超音波ビームは機械的に走査されてもよい。   The probe 10 includes a plurality of vibration elements (not shown), and electronically scans an ultrasonic beam in a space including a target tissue such as a heart. For example, in the rθφ polar coordinate system, an ultrasonic beam formed along the depth r direction is scanned in the θ direction to form a scanning plane. Further, the ultrasonic beam may be scanned three-dimensionally by scanning the scanning surface in the φ direction (elevation direction). Note that the ultrasonic beam may be mechanically scanned.

送受信部12は、送信ビームフォーマおよび受信ビームフォーマとして機能する。つまり、送受信部12は、プローブ10が備える各振動素子に対してその振動素子に応じた送信信号を供給することにより送信ビームを形成し、また、複数の振動素子から得られる受信信号を整相加算処理して受信ビームを形成する。これにより、対象組織を含む空間内から複数のエコーデータが取得される。   The transmission / reception unit 12 functions as a transmission beamformer and a reception beamformer. That is, the transmission / reception unit 12 forms a transmission beam by supplying a transmission signal corresponding to the vibration element to each vibration element included in the probe 10, and phasing received signals obtained from the plurality of vibration elements. Addition processing is performed to form a reception beam. Thereby, a plurality of echo data is acquired from the space including the target tissue.

画像形成部14は、複数のエコーデータに基づいて画像形成処理を実行する。本実施形態では、対象組織を動的に映し出した超音波画像が形成される。つまり、複数の時相に亘って複数のエコーデータが次々に取得され、各時相ごとに、複数のエコーデータに基づいて画像データが形成される。   The image forming unit 14 performs image forming processing based on a plurality of echo data. In the present embodiment, an ultrasonic image that dynamically reflects the target tissue is formed. That is, a plurality of echo data are acquired one after another over a plurality of time phases, and image data is formed based on the plurality of echo data for each time phase.

表示処理部16は、画像形成部14の画像形成処理によって得られた画像データに基づいて表示画像を形成し、形成された表示画像がモニタ18に表示される。こうして、対象組織を動的に映し出した超音波画像がモニタ18に表示される。   The display processing unit 16 forms a display image based on the image data obtained by the image forming process of the image forming unit 14, and the formed display image is displayed on the monitor 18. In this way, an ultrasonic image dynamically reflecting the target tissue is displayed on the monitor 18.

トラッキング処理部20は、基準となる時相の画像データ内に設定されたトラッキングポイントを複数の時相に亘ってトラッキングする。これにより、例えば、対象組織内の特徴点の移動が複数の時相に亘って追跡される。表示処理部16は、追跡されるトラッキングポイントを超音波画像内にマーカなどによって表示させてもよい。なお、本実施形態におけるトラッキング処理については、後にさらに詳述する。   The tracking processing unit 20 tracks the tracking points set in the reference time phase image data over a plurality of time phases. Thereby, for example, the movement of the feature point in the target tissue is tracked over a plurality of time phases. The display processing unit 16 may display the tracking point to be tracked with a marker or the like in the ultrasonic image. The tracking process in the present embodiment will be described in detail later.

制御部22はCPUおよびそのための動作プログラムによって構成され、図1に示される各構成の動作制御を行う。その制御部22には操作デバイス24が接続されている。操作デバイス24は、例えば、タッチパネルやキーボードやマウスなどのユーザインタフェースである。ユーザはその操作デバイス24を用いて超音波診断装置の動作モードの選択やパラメータの指定などの各種の入力操作を行うことができる。   The control unit 22 is constituted by a CPU and an operation program therefor, and performs operation control of each component shown in FIG. An operation device 24 is connected to the control unit 22. The operation device 24 is a user interface such as a touch panel, a keyboard, or a mouse. The user can use the operation device 24 to perform various input operations such as selection of an operation mode of the ultrasonic diagnostic apparatus and specification of parameters.

本実施形態の概要は以上のとおりである。次に、図1の超音波診断装置によるトラッキング処理について詳述する。なお、図1に既に示した部分(各構成)については、以下の説明においても図1の符号を利用する。   The outline of the present embodiment is as described above. Next, the tracking process by the ultrasonic diagnostic apparatus of FIG. 1 will be described in detail. In addition, about the part (each structure) already shown in FIG. 1, the code | symbol of FIG. 1 is utilized also in the following description.

図2は、本実施形態におけるトラッキング処理を説明するための説明図である。図2(A)は、基準となる時相(フレーム♯0)の画像(画像データ)を示している。トラッキング処理を行う場合には、まず、基準となる時相の画像データ内にトラッキングポイントが設定される。例えば、図2(A)に示すように、フレーム♯0の画像データ内にトラッキングポイント(TP0)が設定される。トラッキングポイントの設定は、例えば、ユーザがモニタ18に表示される画像を見ながら操作デバイス24を利用して設定する。もちろん、装置が画像データ内の所定のデータ部分を抽出し、そのデータ部分にトラッキングポイントを設定するようにしてもよい。   FIG. 2 is an explanatory diagram for explaining the tracking processing in the present embodiment. FIG. 2A shows an image (image data) of a reference time phase (frame # 0). When performing the tracking process, first, a tracking point is set in image data of a reference time phase. For example, as shown in FIG. 2A, a tracking point (TP0) is set in the image data of frame # 0. For example, the tracking point is set using the operation device 24 while the user looks at the image displayed on the monitor 18. Of course, the apparatus may extract a predetermined data portion in the image data and set a tracking point in the data portion.

トラッキングポイント(TP0)が設定されると、そのポイントを基準としてテンプレートが設定される。例えば、トラッキングポイント(TP0)を中心とした正方形のテンプレートが設定される。テンプレートの形状は、長方形や円形や楕円形などでもよい。   When the tracking point (TP0) is set, a template is set based on that point. For example, a square template with the tracking point (TP0) as the center is set. The shape of the template may be a rectangle, a circle or an ellipse.

次に、図2(B)に示すように、次の時相のフレーム♯1の画像データが形成される。そして、テンプレートマッチング法などのパターンマッチング処理により、フレーム♯1の画像データ内で、フレーム♯0の画像データに設定されたテンプレート内の画像データと最も相関関係が強い画像部分が検索される。   Next, as shown in FIG. 2B, image data of frame # 1 of the next time phase is formed. Then, an image portion having the strongest correlation with the image data in the template set in the image data of frame # 0 is searched in the image data of frame # 1 by pattern matching processing such as a template matching method.

例えば、フレーム♯1の画像データ内に、テンプレートと同じ形状で同じ大きさのウィンドウが設定され、ウィンドウによって抽出されるフレーム♯1の画像データ部分と、テンプレート内のフレーム♯0の画像データ部分との間の相関値が求められる。ウィンドウはフレーム♯1の画像データ内で走査され、各走査位置で相関値が求められる。ちなみに、ウィンドウは、並行移動によって走査されるが、並行移動の他に回転移動などを加えてもよい。こうして、最も相関値が大きい部分(ウィンドウの走査位置)が検索され、そのウィンドウの中心に、図2(B)に示すトラッキングポイント(TP1)が設定される。   For example, a window having the same shape and size as the template is set in the image data of frame # 1, and the image data portion of frame # 1 extracted by the window, the image data portion of frame # 0 in the template, and The correlation value between is obtained. The window is scanned within the image data of frame # 1, and a correlation value is obtained at each scanning position. Incidentally, the window is scanned by parallel movement, but rotational movement or the like may be added in addition to parallel movement. In this way, the portion having the largest correlation value (window scanning position) is searched, and the tracking point (TP1) shown in FIG. 2B is set at the center of the window.

また、設定されたトラッキングポイント(TP1)を中心として、新たに正方形のテンプレートが設定される。なお、図2(B)に示される移動ベクトルv1は、トラッキングポイント(TP0)からトラッキングポイント(TP1)への移動量を示すベクトルである。この移動ベクトルは、トラッキングポイントの予想位置を求める際に利用される。   A new square template is set around the set tracking point (TP1). 2B is a vector indicating the amount of movement from the tracking point (TP0) to the tracking point (TP1). This movement vector is used when obtaining the predicted position of the tracking point.

次に、図2(C)に示すように、さらに次の時相のフレーム♯2の画像データが形成され、フレーム♯2の画像データ内からトラッキングポイント(TP2)が検索される。その際、トラッキング処理部20は、トラッキングポイントの移動量から求められるトラッキングポイントの予想位置と、画像データに関するパターンマッチング処理によって得られるトラッキングポイントの追跡位置とを比較することにより、予想位置または追跡位置にトラッキングポイントを移動させる。   Next, as shown in FIG. 2C, the image data of frame # 2 of the next time phase is further formed, and the tracking point (TP2) is searched from the image data of frame # 2. At that time, the tracking processing unit 20 compares the predicted position of the tracking point obtained from the amount of movement of the tracking point with the tracking position of the tracking point obtained by the pattern matching process on the image data, thereby obtaining the predicted position or the tracking position. Move the tracking point to.

トラッキング処理部20は、トラッキングポイントの移動ベクトルv1からトラッキングポイント(TP2)の予想位置を求める。例えば、トラッキングポイント(TP1)の位置から移動ベクトルv1だけ進んだ位置にトラッキングポイント(TP2)の予想位置を設定する。結果的に、トラッキングポイント(TP0)の位置から移動ベクトルv1を2つ分だけ進めた位置にトラッキングポイント(TP2)の予想位置が設定される。そして、その予想位置を中心として円形の予想範囲(TP2の予想範囲)が設定される。   The tracking processing unit 20 obtains an expected position of the tracking point (TP2) from the movement vector v1 of the tracking point. For example, the predicted position of the tracking point (TP2) is set at a position advanced by the movement vector v1 from the position of the tracking point (TP1). As a result, the predicted position of the tracking point (TP2) is set to a position obtained by advancing the movement vector v1 by two from the position of the tracking point (TP0). Then, a circular expected range (TP2 expected range) is set around the predicted position.

また、トラッキング処理部20は、パターンマッチング処理により、フレーム♯2の画像データ内で、フレーム♯1の画像データに設定されたテンプレート内の画像データと最も相関関係が強い画像部分を検索する。図2(C)において、パターンマッチング処理によって検索されたトラッキングポイントがxTP2である。   Further, the tracking processing unit 20 searches for an image portion having the strongest correlation with the image data in the template set in the image data of the frame # 1 in the image data of the frame # 1 by the pattern matching process. In FIG. 2C, the tracking point retrieved by the pattern matching process is xTP2.

そして、トラッキング処理部20は、パターンマッチング処理によって検索されたxTP2がTP2の予想範囲内に存在するか否かを確認する。図2(C)に示す例では、xTP2がTP2の予想範囲内に存在する。この場合、トラッキング処理部20は、フレーム♯2の画像データのトラッキングポイント(TP2)として、パターンマッチング処理によって検索されたxTP2を採用する。   Then, the tracking processing unit 20 confirms whether or not xTP2 searched by the pattern matching process is within the expected range of TP2. In the example shown in FIG. 2C, xTP2 is within the expected range of TP2. In this case, the tracking processing unit 20 employs xTP2 searched by the pattern matching process as the tracking point (TP2) of the image data of frame # 2.

ちなみに、xTP2がTP2の予想範囲内に存在しなければ、トラッキング処理部20は、フレーム♯2の画像データのトラッキングポイント(TP2)として、TP2の予想範囲の中心である予想位置を採用する。   Incidentally, if xTP2 does not exist within the expected range of TP2, the tracking processing unit 20 adopts the predicted position that is the center of the expected range of TP2 as the tracking point (TP2) of the image data of frame # 2.

また、設定されたトラッキングポイント(TP2)を中心として、新たに正方形のテンプレートが設定される。なお、図2(C)に示される移動ベクトルv2は、トラッキングポイント(TP1)からトラッキングポイント(TP2)への移動量を示すベクトルである。この移動ベクトルは、次の時相のトラッキングポイントの予想位置を求める際に利用される。   Further, a new square template is set around the set tracking point (TP2). Note that the movement vector v2 shown in FIG. 2C is a vector indicating the amount of movement from the tracking point (TP1) to the tracking point (TP2). This movement vector is used when obtaining the predicted position of the tracking point of the next time phase.

図2(D)は、さらに次の時相のフレーム♯3の画像データを示している。トラッキング処理部20は、フレーム♯3の画像データ内からトラッキングポイント(TP3)が検索される。その際にも、トラッキング処理部20は、トラッキングポイントの予想位置と、パターンマッチング処理によって得られるトラッキングポイントの追跡位置とを比較することにより、予想位置または追跡位置にトラッキングポイントを移動させる。   FIG. 2D shows the image data of frame # 3 of the next time phase. The tracking processing unit 20 searches for the tracking point (TP3) from the image data of frame # 3. Also in this case, the tracking processing unit 20 moves the tracking point to the predicted position or the tracking position by comparing the predicted position of the tracking point with the tracking position of the tracking point obtained by the pattern matching process.

トラッキング処理部20は、トラッキングポイントの移動ベクトルv2からトラッキングポイント(TP3)の予想位置(iTP3)を求める。例えば、トラッキングポイント(TP2)の位置から移動ベクトルv2だけ進んだ位置に予想位置(iTP3)を設定する。そして、その予想位置を中心としてTP3の予想範囲が設定される。   The tracking processing unit 20 obtains the predicted position (iTP3) of the tracking point (TP3) from the tracking point movement vector v2. For example, the expected position (iTP3) is set at a position advanced by the movement vector v2 from the position of the tracking point (TP2). Then, an expected range of TP3 is set with the predicted position as the center.

また、トラッキング処理部20は、パターンマッチング処理により、フレーム♯3の画像データ内で、フレーム♯2の画像データに設定されたテンプレート内の画像データと最も相関関係が強い画像部分を検索する。図2(D)において、パターンマッチング処理によって検索されたトラッキングポイントがxTP3である。   Further, the tracking processing unit 20 searches the image data of the frame # 3 for the image portion having the strongest correlation with the image data in the template set in the image data of the frame # 2 by the pattern matching process. In FIG. 2D, the tracking point retrieved by the pattern matching process is xTP3.

そして、トラッキング処理部20は、パターンマッチング処理によって検索されたxTP3がTP3の予想範囲内に存在するか否かを確認する。図2(D)に示す例では、xTP3がTP3の予想範囲内に存在しない。この場合、トラッキング処理部20は、フレーム♯3の画像データのトラッキングポイント(TP3)として、予想位置(iTP3)を採用する。   Then, the tracking processing unit 20 confirms whether or not xTP3 searched by the pattern matching process exists within the expected range of TP3. In the example shown in FIG. 2D, xTP3 does not exist within the expected range of TP3. In this case, the tracking processing unit 20 employs the predicted position (iTP3) as the tracking point (TP3) of the image data of frame # 3.

なお、図2(D)に示される移動ベクトルv3は、トラッキングポイント(TP2)からトラッキングポイント(TP3)への移動量を示すベクトルである。この移動ベクトルは、次の時相のトラッキングポイントの予想位置を求める際に利用される。   Note that the movement vector v3 shown in FIG. 2D is a vector indicating the amount of movement from the tracking point (TP2) to the tracking point (TP3). This movement vector is used when obtaining the predicted position of the tracking point of the next time phase.

図2では、予想範囲として円形の予想範囲を示したが、予想範囲の形状は、例えば、対象組織の運動状態などに応じて変形させてもよい。   In FIG. 2, a circular predicted range is shown as the predicted range, but the shape of the predicted range may be deformed according to, for example, the motion state of the target tissue.

図3は、楕円形状の予想範囲を説明するための図である。本実施形態のトラッキング処理は、例えば、心臓の運動状態を観察する場合などに好適である。この場合には、心臓の運動状態に応じた形状として、楕円形状の予想範囲が好適となる。   FIG. 3 is a diagram for explaining the expected range of the elliptical shape. The tracking process of this embodiment is suitable for, for example, observing the motion state of the heart. In this case, an elliptical expected range is suitable as the shape corresponding to the motion state of the heart.

本実施形態において、心臓の運動状態つまり心筋の収縮拡張運動を観察する際には、まず、心筋の運動方向に沿って変化軸が設定される。例えば、ユーザがモニタ18に表示される画像を見ながら、操作デバイス24を利用して、観察したい心筋の運動方向に沿って画像上に変化軸を設定する。さらにユーザは、例えば、操作デバイス24を利用して観察したい心筋内の特徴部位にトラッキングポイントを設定する。   In this embodiment, when observing the motion state of the heart, that is, the contraction and expansion motion of the myocardium, first, a change axis is set along the motion direction of the myocardium. For example, while viewing the image displayed on the monitor 18, the user uses the operation device 24 to set a change axis on the image along the motion direction of the myocardium to be observed. Further, for example, the user sets a tracking point at a characteristic site in the myocardium to be observed using the operation device 24.

図3(A)は、時相(0)の画像データ上に設定された変化軸と、変化軸上に設定された2つのトラッキングポイントTP0(0),TP1(0)を示している。2つのトラッキングポイントは、心筋内の2つの特徴点に設定される。例えば、外膜、中膜、内膜のうちの2つに設定される。もちろん、外膜、中膜、内膜の3つの全てにトラッキングポイント(3ポイント)を設定してもよい。   FIG. 3A shows a change axis set on the time phase (0) image data and two tracking points TP0 (0) and TP1 (0) set on the change axis. Two tracking points are set to two feature points in the myocardium. For example, two of the outer membrane, the inner membrane, and the inner membrane are set. Of course, tracking points (3 points) may be set for all three of the outer membrane, the middle membrane, and the inner membrane.

図3(B)は、次の時相(1)の画像データ上におけるトラッキングポイントを示している。つまり、図2を利用して詳述したパターンマッチング処理により、トラッキングポイントTP0(0)に対応したトラッキングポイントTP0(1)が求められ、さらに、トラッキングポイントTP1(0)に対応したトラッキングポイントTP1(1)が求められる。   FIG. 3B shows tracking points on the image data of the next time phase (1). That is, the tracking point TP0 (1) corresponding to the tracking point TP0 (0) is obtained by the pattern matching process described in detail with reference to FIG. 2, and the tracking point TP1 (0) corresponding to the tracking point TP1 (0) is obtained. 1) is required.

図3(B)において、移動ベクトルv0(1)は、トラッキングポイントTP0(0)からトラッキングポイントTP0(1)への移動量を示すベクトルである。そして、ベクトル成分v0ax(1)は、移動ベクトルv0(1)の変化軸方向の成分である。図3の例では、このベクトル成分v0ax(1)に基づいて、トラッキングポイントTP0(1)に関する次の時相の予想位置が求められる。   In FIG. 3B, the movement vector v0 (1) is a vector indicating the movement amount from the tracking point TP0 (0) to the tracking point TP0 (1). The vector component v0ax (1) is a component in the change axis direction of the movement vector v0 (1). In the example of FIG. 3, the predicted position of the next time phase with respect to the tracking point TP0 (1) is obtained based on the vector component v0ax (1).

また、図3(B)において、移動ベクトルv1(1)は、トラッキングポイントTP1(0)からトラッキングポイントTP1(1)への移動量を示すベクトルであり、ベクトル成分v1ax(1)は、移動ベクトルv1(1)の変化軸方向の成分である。このベクトル成分v1ax(1)に基づいて、トラッキングポイントTP1(1)に関する次の時相の予想位置が求められる。   In FIG. 3B, the movement vector v1 (1) is a vector indicating the amount of movement from the tracking point TP1 (0) to the tracking point TP1 (1), and the vector component v1ax (1) is the movement vector. It is a component in the change axis direction of v1 (1). Based on this vector component v1ax (1), the predicted position of the next time phase with respect to the tracking point TP1 (1) is obtained.

図3(C)は、さらに次の時相(2)の画像データ上におけるトラッキングポイントを示している。まず、パターンマッチング処理により、トラッキングポイントTP0(1)に対応した追跡位置xTP0(2)が求められる。同様に、トラッキングポイントTP1(1)に対応した追跡位置xTP1(2)が求められる。そして、これらの追跡位置xTP0(2),xTP1(2)の各々が、楕円形状の予想範囲内に存在するか否かが確認される。   FIG. 3C shows tracking points on the image data of the next time phase (2). First, a tracking position xTP0 (2) corresponding to the tracking point TP0 (1) is obtained by pattern matching processing. Similarly, a tracking position xTP1 (2) corresponding to the tracking point TP1 (1) is obtained. Then, it is confirmed whether or not each of these tracking positions xTP0 (2) and xTP1 (2) is within the expected range of the elliptical shape.

トラッキング処理部20は、トラッキングポイントTP0(0)の位置から、ベクトル成分v0ax(1)を2つ分だけ進めた位置に、トラッキングポイントTP0(2)の予想位置iTP0(2)を設定する。そして、その予想位置iTP0(2)を中心として変化軸に沿った長軸を備えた楕円形状の予想範囲(TP0(2)の予想範囲)を設定する。   The tracking processing unit 20 sets the expected position iTP0 (2) of the tracking point TP0 (2) at a position obtained by advancing the vector component v0ax (1) by two from the position of the tracking point TP0 (0). Then, an elliptical expected range (expected range of TP0 (2)) having a long axis along the change axis with the predicted position iTP0 (2) as the center is set.

そして、トラッキング処理部20は、パターンマッチング処理によって検索されたxTP0(2)がTP0(2)の予想範囲内に存在するか否かを確認する。図3(C)に示す例では、xTP0(2)が予想範囲内に存在する。この場合、トラッキング処理部20は、時相(2)の画像データのトラッキングポイントTP0(2)として、パターンマッチング処理によって検索されたxTP0(2)を採用する。   Then, the tracking processing unit 20 confirms whether or not xTP0 (2) searched by the pattern matching process is within the expected range of TP0 (2). In the example shown in FIG. 3C, xTP0 (2) is within the expected range. In this case, the tracking processing unit 20 employs xTP0 (2) searched by the pattern matching process as the tracking point TP0 (2) of the image data of the time phase (2).

同様な処理により、トラッキング処理部20は、トラッキングポイントTP1(0)の位置から、ベクトル成分v1ax(1)を2つ分だけ進めた位置に、トラッキングポイントTP1(2)の予想位置iTP1(2)を設定する。そして、その予想位置iTP1(2)を中心として変化軸に沿った長軸を備えた楕円形状の予想範囲(TP1(2)の予想範囲)を設定する。そして、xTP1(2)がTP1(2)の予想範囲内に存在するか否かを確認する。図3(C)に示す例では、xTP1(2)が予想範囲内に存在しない。この場合、トラッキング処理部20は、時相(2)の画像データのトラッキングポイントTP1(2)として、予想位置iTP1(2)を採用する。   By similar processing, the tracking processing unit 20 moves the predicted position iTP1 (2) of the tracking point TP1 (2) from the position of the tracking point TP1 (0) to a position advanced by two vector components v1ax (1). Set. Then, an elliptical expected range (expected range of TP1 (2)) having a long axis along the change axis with the predicted position iTP1 (2) as the center is set. And it is confirmed whether xTP1 (2) exists in the expected range of TP1 (2). In the example shown in FIG. 3C, xTP1 (2) does not exist within the expected range. In this case, the tracking processing unit 20 employs the predicted position iTP1 (2) as the tracking point TP1 (2) of the time phase (2) image data.

このように、心臓の運動状態に応じて、つまり心筋が変化軸方向に沿って大きく移動することを考慮して、変化軸に沿って伸長された楕円形状の予想範囲を採用してもよい。これにより、心筋の動きを的確に捉えたトラッキングが可能になり、例えば、2点のトラッキングポイント間の距離の変化から、変化軸に沿った心筋の厚さの変化などを計測することが可能になる。   As described above, an elliptical expected range extended along the change axis may be adopted in accordance with the motion state of the heart, that is, taking into account that the myocardium moves greatly along the change axis direction. This enables tracking that accurately captures the movement of the myocardium. For example, it is possible to measure changes in the thickness of the myocardium along the change axis from changes in the distance between the two tracking points. Become.

図4は、本実施形態のトラッキング処理を示すフローチャートである。図4に示すフローチャートは、図1から図3を利用して説明した本実施形態のトラッキング処理に関する動作を纏めたものである。   FIG. 4 is a flowchart showing the tracking process of this embodiment. The flowchart shown in FIG. 4 summarizes the operations related to the tracking processing of the present embodiment described with reference to FIGS.

まず、基準となるフレーム♯0の超音波画像上(画像データ上)にトラッキングポイント(TP0)が設定され(S402)、トラッキングポイント(TP0)に対応したテンプレートが設定される(S404)。   First, the tracking point (TP0) is set on the ultrasonic image (image data) of the reference frame # 0 (S402), and a template corresponding to the tracking point (TP0) is set (S404).

次に、フレーム♯nの画像データが形成されてフレーム(時相)が更新され(S406)、更新されたフレーム♯n内において、パターンマッチング処理により、TP0に対応したトラッキングポイント(xTP(n))が算出され(S408)、その位置にトラッキングポイントが移動される(S410)。移動後のトラッキングポイントをTP(n)とする。   Next, image data of frame #n is formed and the frame (time phase) is updated (S406), and the tracking point (xTP (n)) corresponding to TP0 is obtained by pattern matching processing in the updated frame #n. ) Is calculated (S408), and the tracking point is moved to that position (S410). Let TP (n) be the tracking point after movement.

そして、TP0からTP(n)への移動量を示す速度ベクトル(移動ベクトル)が検出され(S412)、次フレームのトラッキングポイントの予想位置(iTP(n+1))が求められる(S414)。一方、S410においてトラッキングポイントがTP(n)に移動されると、パターンマッチング処理用のテンプレートが、フレーム♯n内のTP(n)に対応したテンプレートに更新され(S416)、フレームが次の時相のフレーム♯n+1に更新される(S418)。   Then, a velocity vector (movement vector) indicating the amount of movement from TP0 to TP (n) is detected (S412), and the predicted position (iTP (n + 1)) of the tracking point of the next frame is obtained (S414). On the other hand, when the tracking point is moved to TP (n) in S410, the pattern matching processing template is updated to a template corresponding to TP (n) in frame #n (S416). The phase frame is updated to # n + 1 (S418).

続いて、パターンマッチング処理によりフレーム♯n+1内においてトラッキングポイントの追跡位置(xTP(n+1))が求められ(S420)、S414で求められた予想位置iTP(n+1)に対応した予想範囲内に、S420で求められた追跡位置xTP(n+1)が存在するか否かが確認される(S422)。   Subsequently, the tracking position (xTP (n + 1)) of the tracking point is obtained in the frame # n + 1 by pattern matching processing (S420), and within the expected range corresponding to the expected position iTP (n + 1) obtained in S414, S420 is obtained. It is confirmed whether or not the tracking position xTP (n + 1) obtained in (1) exists (S422).

xTP(n+1)が予想範囲内にあれば、フレーム♯n+1内のトラッキングポイントTP(n+1)として、追跡位置xTP(n+1)が採用され(S424)、xTP(n+1)が予想範囲内でなければ、TP(n+1)として予想位置iTP(n+1)が採用される(S426)。   If xTP (n + 1) is within the expected range, the tracking position xTP (n + 1) is adopted as the tracking point TP (n + 1) in frame # n + 1 (S424), and xTP (n + 1) is not within the expected range. The predicted position iTP (n + 1) is adopted as TP (n + 1) (S426).

次に、TP(n+1)の位置にトラッキングポイントが移動され(S428)、TP(n)からTP(n+1)への移動量を示す速度ベクトル(移動ベクトル)が検出され(S430)、次フレームのトラッキングポイントの予想位置(iTP(n+2))が求められる(S434)。一方、S428においてトラッキングポイントがTP(n+1)に移動されると、パターンマッチング処理用のテンプレートが、フレーム♯n+1内のTP(n+1)に対応したテンプレートに更新され(S432)、そして、さらに次のフレームに更新される(S418)。   Next, the tracking point is moved to the position of TP (n + 1) (S428), and a velocity vector (movement vector) indicating the amount of movement from TP (n) to TP (n + 1) is detected (S430). An expected position (iTP (n + 2)) of the tracking point is obtained (S434). On the other hand, when the tracking point is moved to TP (n + 1) in S428, the pattern matching processing template is updated to a template corresponding to TP (n + 1) in frame # n + 1 (S432), and then the next The frame is updated (S418).

S418においてフレームが更新されるとS420以降の処理が再び実行される。こうして、S420においてフレームが更新される度に、S420以降の処理によってトラッキングポイントが移動される。なお、S418においてフレームの更新が行われなくなった場合に(例えば、ユーザによってトラッキング処理の終了操作が行われた場合に)、本フローチャートは終了する。   When the frame is updated in S418, the processing after S420 is executed again. Thus, each time the frame is updated in S420, the tracking point is moved by the processing after S420. Note that when the frame is no longer updated in S418 (for example, when the user performs an operation to end the tracking process), this flowchart ends.

以上、本発明の好適な実施形態を説明した。上述した実施形態では、パターンマッチング処理によって得られるトラッキングポイントの追跡位置が予想位置に比較的近い場合には、パターンマッチング処理が高い精度で行われたと判断して追跡位置にトラッキングポイントを移動させる。これにより、パターンマッチング処理の長所を活かした高い精度のトラッキングが可能になる。一方、例えば、追跡位置が予想位置から比較的遠い場合には、パターンマッチング処理が十分な精度で実行されていないと判断して予想位置にトラッキングポイントを移動させる。これにより、パターンマッチング処理が十分な精度で実行されない場合でも可能な限り正確にトラッキング処理を継続させることが可能になる。   The preferred embodiment of the present invention has been described above. In the above-described embodiment, when the tracking position of the tracking point obtained by the pattern matching process is relatively close to the expected position, it is determined that the pattern matching process has been performed with high accuracy, and the tracking point is moved to the tracking position. As a result, high-accuracy tracking utilizing the advantages of pattern matching processing becomes possible. On the other hand, for example, when the tracking position is relatively far from the predicted position, it is determined that the pattern matching process is not performed with sufficient accuracy, and the tracking point is moved to the predicted position. Thereby, even when the pattern matching process is not executed with sufficient accuracy, the tracking process can be continued as accurately as possible.

なお、上述した実施形態は、あらゆる点で単なる例示にすぎず、本発明の範囲を限定するものではない。本発明は、その本質を逸脱しない範囲で各種の変形形態を包含する。   The above-described embodiments are merely examples in all respects, and do not limit the scope of the present invention. The present invention includes various modifications without departing from the essence thereof.

本発明に係る超音波診断装置の全体構成を示す機能ブロック図である。1 is a functional block diagram showing an overall configuration of an ultrasonic diagnostic apparatus according to the present invention. 本実施形態におけるトラッキング処理を説明するための説明図である。It is explanatory drawing for demonstrating the tracking process in this embodiment. 楕円形状の予想範囲を説明するための図である。It is a figure for demonstrating the expected range of an elliptical shape. 本実施形態のトラッキング処理を示すフローチャートである。It is a flowchart which shows the tracking process of this embodiment.

符号の説明Explanation of symbols

10 プローブ、12 送受信部、14 画像形成部、20 トラッキング処理部。   10 probe, 12 transmitting / receiving unit, 14 image forming unit, 20 tracking processing unit.

Claims (3)

対象組織を含む空間内で超音波を送受波することにより複数の時相に亘ってエコーデータを取得する送受波部と、
複数の時相に亘って取得されるエコーデータに基づいて対象組織に関する画像データを形成する画像形成部と、
基準となる時相の画像データ内に設定されたトラッキングポイントを複数の時相に亘ってトラッキングするトラッキング処理部と、
を有し、
前記トラッキング処理部は、トラッキングポイントの移動量から求められるトラッキングポイントの予想位置、または、画像データに関するパターンマッチング処理によって得られるトラッキングポイントの追跡位置にトラッキングポイントを移動させる、
ことを特徴とする超音波診断装置。
A transmission / reception unit for acquiring echo data over a plurality of time phases by transmitting / receiving ultrasonic waves in a space including the target tissue;
An image forming unit that forms image data related to a target tissue based on echo data acquired over a plurality of time phases;
A tracking processing unit for tracking a tracking point set in image data of a reference time phase over a plurality of time phases;
Have
The tracking processing unit moves the tracking point to the predicted position of the tracking point obtained from the amount of movement of the tracking point, or the tracking position of the tracking point obtained by pattern matching processing related to image data.
An ultrasonic diagnostic apparatus.
請求項1に記載の超音波診断装置において、
前記トラッキング処理部は、前記予想位置を基準として設定される予想範囲を利用し、前記追跡位置が予想範囲内であれば追跡位置にトラッキングポイントを移動させ、前記追跡位置が予想範囲内でなければ予想位置にトラッキングポイントを移動させる、
ことを特徴とする超音波診断装置。
The ultrasonic diagnostic apparatus according to claim 1,
The tracking processing unit uses an expected range set based on the predicted position, and moves the tracking point to the tracking position if the tracking position is within the expected range, and if the tracking position is not within the expected range Move the tracking point to the expected position,
An ultrasonic diagnostic apparatus.
請求項2に記載の超音波診断装置において、
前記トラッキング処理部は、対象組織の運動方向に沿って伸長された形状の予想範囲を利用する、
ことを特徴とする超音波診断装置。
The ultrasonic diagnostic apparatus according to claim 2,
The tracking processing unit uses an expected range of a shape extended along the movement direction of the target tissue.
An ultrasonic diagnostic apparatus.
JP2006291181A 2006-10-26 2006-10-26 Ultrasonic diagnostic equipment Expired - Fee Related JP5102475B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006291181A JP5102475B2 (en) 2006-10-26 2006-10-26 Ultrasonic diagnostic equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006291181A JP5102475B2 (en) 2006-10-26 2006-10-26 Ultrasonic diagnostic equipment

Publications (2)

Publication Number Publication Date
JP2008104705A true JP2008104705A (en) 2008-05-08
JP5102475B2 JP5102475B2 (en) 2012-12-19

Family

ID=39438560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006291181A Expired - Fee Related JP5102475B2 (en) 2006-10-26 2006-10-26 Ultrasonic diagnostic equipment

Country Status (1)

Country Link
JP (1) JP5102475B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010194299A (en) * 2009-01-30 2010-09-09 Toshiba Corp Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, medical image diagnostic apparatus, and medical image processing apparatus
JP2011177494A (en) * 2010-02-04 2011-09-15 Toshiba Corp Image processing apparatus, ultrasonic diagnostic apparatus, and image processing method
JP2012115387A (en) * 2010-11-30 2012-06-21 Hitachi Aloka Medical Ltd Ultrasonic image processor
JP2012152379A (en) * 2011-01-26 2012-08-16 Hitachi Aloka Medical Ltd Ultrasonic image processing apparatus
JP2013027452A (en) * 2011-07-27 2013-02-07 Hitachi Aloka Medical Ltd Ultrasonic image processor
JP2018004453A (en) * 2016-07-01 2018-01-11 三菱重工業株式会社 Processing hole position determination device and processing hole position determination method
JP2020110363A (en) * 2019-01-11 2020-07-27 キヤノン株式会社 Information processing device, information processing method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274625A (en) * 1993-03-18 1994-09-30 Toshiba Corp Moving object tracking method for monitor image
JP2001092976A (en) * 1999-09-24 2001-04-06 Mitsubishi Heavy Ind Ltd Detecting method for moving object
JP2002177273A (en) * 2000-12-12 2002-06-25 Toshiba Corp Ultrasonic diagnostic device
JP2003175041A (en) * 2001-09-21 2003-06-24 Toshiba Corp Ultrasound diagnostic apparatus and image processing method
JP2005309740A (en) * 2004-04-21 2005-11-04 Nippon Telegr & Teleph Corp <Ntt> Method and program for tracking moving body, recording medium therefor, and moving body tracking apparatus
WO2005120373A1 (en) * 2004-06-11 2005-12-22 Hitachi Medical Corporation Ultrasonic curing device
JP2006075590A (en) * 2004-08-09 2006-03-23 Hirochika Matsuoka Apparatus, program and method for motion analysis in inside of living body

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274625A (en) * 1993-03-18 1994-09-30 Toshiba Corp Moving object tracking method for monitor image
JP2001092976A (en) * 1999-09-24 2001-04-06 Mitsubishi Heavy Ind Ltd Detecting method for moving object
JP2002177273A (en) * 2000-12-12 2002-06-25 Toshiba Corp Ultrasonic diagnostic device
JP2003175041A (en) * 2001-09-21 2003-06-24 Toshiba Corp Ultrasound diagnostic apparatus and image processing method
JP2005309740A (en) * 2004-04-21 2005-11-04 Nippon Telegr & Teleph Corp <Ntt> Method and program for tracking moving body, recording medium therefor, and moving body tracking apparatus
WO2005120373A1 (en) * 2004-06-11 2005-12-22 Hitachi Medical Corporation Ultrasonic curing device
JP2006075590A (en) * 2004-08-09 2006-03-23 Hirochika Matsuoka Apparatus, program and method for motion analysis in inside of living body

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010194299A (en) * 2009-01-30 2010-09-09 Toshiba Corp Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, medical image diagnostic apparatus, and medical image processing apparatus
JP2011177494A (en) * 2010-02-04 2011-09-15 Toshiba Corp Image processing apparatus, ultrasonic diagnostic apparatus, and image processing method
JP2012115387A (en) * 2010-11-30 2012-06-21 Hitachi Aloka Medical Ltd Ultrasonic image processor
JP2012152379A (en) * 2011-01-26 2012-08-16 Hitachi Aloka Medical Ltd Ultrasonic image processing apparatus
JP2013027452A (en) * 2011-07-27 2013-02-07 Hitachi Aloka Medical Ltd Ultrasonic image processor
JP2018004453A (en) * 2016-07-01 2018-01-11 三菱重工業株式会社 Processing hole position determination device and processing hole position determination method
JP2020110363A (en) * 2019-01-11 2020-07-27 キヤノン株式会社 Information processing device, information processing method, and program
JP7199972B2 (en) 2019-01-11 2023-01-06 キヤノン株式会社 Information processing device, information processing method, program

Also Published As

Publication number Publication date
JP5102475B2 (en) 2012-12-19

Similar Documents

Publication Publication Date Title
JP5102475B2 (en) Ultrasonic diagnostic equipment
JPWO2017038300A1 (en) Ultrasonic imaging apparatus, image processing apparatus, and method
WO2012164919A1 (en) Ultrasound image-generating apparatus and ultrasound image-generating method
WO2021192824A1 (en) Ultrasonic diagnostic apparatus, control method for ultrasonic diagnostic apparatus, and processor for ultrasonic diagnostic apparatus
JP6667676B2 (en) Ultrasonic imaging system, ultrasonic imaging apparatus, ultrasonic imaging method, and image synthesis program
JP5999935B2 (en) Ultrasonic diagnostic equipment
JP4761999B2 (en) Ultrasonic diagnostic apparatus, image processing method thereof, and image processing program thereof
US10667708B2 (en) Ultrasound diagnostic device
US9349190B2 (en) Ultrasound image processing apparatus
JP2017038638A (en) Ultrasonic diagnostic equipment
WO2016039100A1 (en) Ultrasonic diagnostic device
JP5528935B2 (en) Ultrasonic diagnostic equipment
JP6382031B2 (en) Ultrasonic diagnostic apparatus and control program therefor
JP7071898B2 (en) How to operate ultrasonic diagnostic equipment, programs and ultrasonic diagnostic equipment
JP5746926B2 (en) Ultrasonic image processing device
JP6864555B2 (en) Ultrasonic diagnostic equipment
JP7008590B2 (en) Ultrasonic image processing equipment
JP6591199B2 (en) Ultrasonic diagnostic apparatus and program
JP2017127528A (en) Ultrasonic diagnostic equipment
JP5587751B2 (en) Ultrasonic image processing device
JP5559003B2 (en) Ultrasonic diagnostic equipment
JP2013017716A (en) Ultrasonic diagnostic apparatus
JP2012152379A (en) Ultrasonic image processing apparatus
JP2013042929A (en) Ultrasonic image processing apparatus
JP2013176499A (en) Diagnostic ultrasound imaging system, and method for calculating displacement of probe thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111004

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120925

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120928

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151005

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees