WO2018195946A1 - 一种超声图像显示方法、设备及存储介质 - Google Patents

一种超声图像显示方法、设备及存储介质 Download PDF

Info

Publication number
WO2018195946A1
WO2018195946A1 PCT/CN2017/082485 CN2017082485W WO2018195946A1 WO 2018195946 A1 WO2018195946 A1 WO 2018195946A1 CN 2017082485 W CN2017082485 W CN 2017082485W WO 2018195946 A1 WO2018195946 A1 WO 2018195946A1
Authority
WO
WIPO (PCT)
Prior art keywords
organ
image
map
data
planar
Prior art date
Application number
PCT/CN2017/082485
Other languages
English (en)
French (fr)
Inventor
邹耀贤
林穆清
黄永
陈志杰
Original Assignee
深圳迈瑞生物医疗电子股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳迈瑞生物医疗电子股份有限公司 filed Critical 深圳迈瑞生物医疗电子股份有限公司
Priority to CN201780079229.0A priority Critical patent/CN110087550B/zh
Priority to PCT/CN2017/082485 priority patent/WO2018195946A1/zh
Publication of WO2018195946A1 publication Critical patent/WO2018195946A1/zh

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves

Definitions

  • the present invention relates to an ultrasonic image display method and apparatus.
  • Ultrasonic instruments are generally used by doctors to observe the internal tissue structure of the human body.
  • the doctor places the ultrasound probe on the surface of the skin corresponding to the human body part, and an ultrasound image of the part can be obtained.
  • Ultrasound has become one of the main aids for doctors' diagnosis because of its safety, convenience, losslessness and low cost.
  • three-dimensional ultrasound has been widely used in clinical practice.
  • the reason is that three-dimensional ultrasound can completely detect a tissue or an organ with a scan, and then the doctor can perform the clinical needs by post-processing such as rotation and translation.
  • the cut surface is adjusted, which greatly reduces the doctor's scan time, and also facilitates data storage.
  • the three-dimensional space is relatively abstract, and the existing ultrasound equipment lacks a clear orientation indication, which makes it difficult for many doctors to associate the three-dimensional spatial position with the actual organ, which limits the three-dimensional ultrasound to a certain extent in clinical practice. use.
  • the present invention mainly provides an ultrasonic image display method and apparatus, which can display a cut surface image in a real organ by displaying a planar image mark on an organ map, so that the doctor can associate the cut image with the actual organ. Visually capture the cut surface position of the cut image in the real organ, which helps the doctor diagnose the cut image.
  • an ultrasound image display method including:
  • a planar image marker is displayed at a corresponding location on the organ map at the location of the slice.
  • the planar image marker comprises a planar region and/or a line segment, wherein the planar region is enclosed by a line segment and/or a curved segment.
  • the organ map is a three-dimensional map or a two-dimensional plan.
  • the ultrasound image display method further includes:
  • a planar image mark is displayed at a corresponding position on the organ map at the current slice position.
  • the organ map and the planar image indicia are distinguished by setting transparency and/or color on the organ map.
  • planar image marks ⁇ when a plurality of planar image marks ⁇ are included, different planar image marks are distinguished by setting transparency and/or color.
  • the method for displaying an ultrasound image further includes: receiving an instruction for a position change of the slice image by a user, and when the position of the slice image is changed, a plane image corresponding to the slice image is associated The position of the marker on the organ map is also updated.
  • the importing the organ model data corresponding to the target tissue includes:
  • the organ model data of the organ type is introduced according to the acquired organ type.
  • the method further includes:
  • an ultrasound image display device including:
  • a transmit/receive control circuit configured to control the probe to scan the target tissue to obtain three-dimensional volume data
  • a data processor configured to generate one or more aspect images in the three-dimensional volume data; import organ model data corresponding to the target tissue, and generate an organ map according to the organ model data;
  • the three-dimensional volume data is matched with the organ model data to obtain a correspondence relationship, and according to the correspondence relationship, a cut surface position of at least one of the one or more aspect images relative to the organ model data is obtained, and the organ is A plane image mark is generated on the map at a corresponding position of the cut surface position;
  • a display for displaying one or more aspect images generated by the data processor, displaying the organ map and displaying the planar image mark at a corresponding position on the organ map at the cut surface position.
  • the planar image marker comprises a planar region and/or a line segment, wherein the planar region is surrounded by a line segment and/or a curved segment.
  • the organ map is a three-dimensional map or a two-dimensional plan.
  • the data processor is further configured to acquire an instruction to activate a slice image, and obtain a current slice position of the current slice image relative to the organ model data according to the corresponding relationship;
  • the display is further configured to display a planar image mark at a corresponding position of the current slice position on the organ map.
  • the data processor is further configured to distinguish the organ map and the planar image marker by setting a transparency and/or a color.
  • the data processor is further configured to distinguish different planar image marks by setting transparency and/or color.
  • the ultrasonic image display device further includes an input unit, configured to receive an instruction that the user performs a position change on the slice image, and when the position of the slice image changes, the data processor is to be The position of the corresponding planar image mark associated with the facet image on the organ map is also updated and displayed by the display.
  • the data processor is further configured to automatically identify the target organization according to the three-dimensional volume data.
  • the organ type data of the organ type is imported according to the type of the organ that is automatically recognized.
  • the data processor obtains an ultrasound image according to the three-dimensional volume data, receives an instruction of a user to adjust the ultrasound image or the organ map, and adjusts the organ map or the location according to the instruction.
  • the display orientation of the ultrasound image wherein the ultrasound image comprises a two-dimensional ultrasound image or a three-dimensional ultrasound image
  • the display is further configured to provide a selection or input interface for the user to select or input an organ type, and the data processor imports the organ model data of the organ type according to the organ type input by the user.
  • an embodiment provides a storage medium storing a program executable by the processor to implement the ultrasound image display method disclosed in any of the above embodiments.
  • the three-dimensional volume data is matched with the organ model data to obtain a correspondence relationship; and the one or more slice images are obtained according to the correspondence relationship a cut surface position of at least one of the cut surface images relative to the organ model data; and at the corresponding position of the cut surface position on the organ map, displaying the planar image mark, thereby displaying the cut surface image of the displayed three-dimensional volume data in the real organ
  • the position of the cut surface is indicated by displaying a flat image mark on an organ map, which is convenient for the doctor to understand the cut surface position of the cut image of the three-dimensional volume data in the actual organ.
  • FIG. 1 is a flow chart of an ultrasonic image display method according to an embodiment of the present invention.
  • FIG. 2 is a flowchart of a method for displaying an ultrasound image according to an embodiment of the present invention, and importing data of an official model corresponding to the target tissue;
  • FIG. 3 is a partial flow chart of an ultrasonic image display method according to another embodiment of the present invention.
  • FIG. 4 is a schematic structural diagram of an ultrasonic image display device according to an embodiment of the present invention.
  • FIG. 5 is a schematic diagram of an effect in an embodiment of the present invention.
  • FIG. 6 is a diagram showing changes in a planar marker image after positional movement of a sliced image according to an embodiment of the present invention.
  • FIG. 7 is a schematic diagram showing the effect of the organ image as a two-dimensional plan ⁇ in an embodiment of the present invention, wherein FIG. 7( a) is a section image, and FIG. 7 (b) is a plane on the organ diagram and the organ diagram.
  • Image tag
  • FIG. 8 is a schematic diagram showing the effect of organ images in a plurality of plane image marks in an embodiment of the present invention.
  • connection and “connection” as used in this application include direct and indirect connections (connections) unless otherwise stated.
  • a cut image is an image of a plane in which a certain slice is located in three-dimensional volume data. Similar to 2D ultrasound images, 3D volume According to the cut-off image, a cross-sectional image is displayed, so the lack of spatial information, coupled with the complicated operation of the ultrasound, makes it difficult for the doctor to map the cut-off image of the three-dimensional volume data with the actual organ.
  • the present invention further obtains the cut surface position of the displayed three-dimensional volume data with respect to the organ model data, and finally displays the cut surface image of the displayed three-dimensional volume data in the real organ. The position is indicated by displaying a flat image mark on an organ map, which is convenient for the doctor to understand the cut surface position of the cut image of the three-dimensional volume data in the actual organ.
  • an embodiment of the present invention provides an ultrasonic image display method, including steps S10 ⁇ S70.
  • Step S10 The control probe scans the target tissue to obtain three-dimensional volume data.
  • the ultrasound probes mentioned in this article can be either 1D probes or area array probes.
  • the three-dimensional volume data may be volume data obtained by the area array probe, or three-dimensional volume data obtained by three-dimensional reconstruction after obtaining multi-frame two-dimensional ultrasound images by other types of probes, or may be STIC (Skull associated imaging, Spatiotemporal) Image
  • Step S20 Importing organ model data corresponding to the target tissue.
  • step S20 includes step S21 and step S23.
  • Step S21 Obtain an organ type corresponding to the target tissue.
  • organ types can be fetal heart, fetal brain, adult heart, liver, pelvic floor and endometrium.
  • the determination of the organ type can be determined by a manual method, for example, providing an interface for the user to select the type of the organ; or automatically identifying the organ type of the target tissue based on the acquired three-dimensional volume data, for example, some machine learning methods can be employed.
  • To classify three-dimensional volume data specifically, collect a large amount of target data (called a positive sample) and non-target data (called a negative sample), and then learn a feature that can distinguish between positive and negative samples by designing a machine learning algorithm.
  • step S21 acquires an organ type corresponding to the target tissue, and at least includes one of the following methods: [0068] (1) Providing a selection or input interface for the user to select or input an organ type.
  • Step S23 Importing organ model data of the organ type according to the acquired organ type.
  • Step S30 Matching the foregoing three-dimensional volume data with the organ model data to obtain a correspondence relationship.
  • the three-dimensional volume data can be matched with the organ model data in the next step.
  • the position of some key anatomical structures in the organ model data can be obtained. Because the corresponding image position on the organ model is displayed, it is used to help The doctor understands the position of the cut surface image of the three-dimensional volume data in the actual organ, so it is not necessary to display the position of the cut surface on the organ model.
  • the three-body data and the organ model data are linearly transformed. Relationship, the linear transformation relationship may be a rigid body transformation or a non-rigid body transformation.
  • the transformation relationship between the two can be calculated by least squares estimation, data fitting, Ransac and the like. It may be assumed that the three-body data and the organ model data are rigid body transformations, and the transformation relationship between the two can be represented by a matrix. If the organ model data is data of a three-dimensional model, then at least three points are determined in space. The transformation relationship between the two can be established. If the organ model data is the data of a two-dimensional model, then at least the position of the two points can be determined to establish a transformation relationship between the two.
  • the matching relationship between the three-dimensional volume data and the organ model data is established by matching, or the corresponding relationship, the key is to acquire the spatial position of some specific anatomical structures in the three-dimensional volume data, which can be based on the three-dimensional volume data.
  • corresponding organs to select some anatomical structures in the organ that are easy to locate and identify.
  • the anatomical features of the skull aura, sagittal plane, cerebellum and transparent compartment are relatively obvious. It is easier to identify.
  • the matching relationship and correspondence between the three-dimensional volume data and the brain organ model data can be established.
  • the anatomical features of the aorta, the four-chamber heart and the gastric vesicle are more obvious, and it is easier to identify.
  • the fetus can be established.
  • the matching relationship and correspondence relationship between the three-dimensional body data of the heart and the fetal heart model data can be established.
  • the corresponding algorithm can be designed according to the characteristics of the anatomical structure.
  • the structure of the stomach cavity in the fetal heart volume image data is usually low.
  • An echogenic or anechoic ellipsoidal target can be segmented by image segmentation.
  • the three-dimensional volume data may be firstly binarized, and some necessary morphological operations are performed to obtain a plurality of candidate regions, and then each candidate region is judged according to the shape and the like to determine the probability that the region is a gastric sac, and the probability of selection The highest area is the area of the stomach bubble.
  • template matching can also be used to detect some key anatomical structures in the three-dimensional volume data.
  • the transparent compartment in the brain is shaped like a crescent, and the data of the transparent compartment can be collected in advance to establish a template. Detecting ⁇ traversing all possible regions in the volume data, matching the template with similarity, and selecting the region with the highest similarity as the target region.
  • a machine learning method can be used to detect some key anatomical structures in the three-dimensional body data.
  • the cerebellum in the brain can collect a certain number of cerebellum images in advance, which is called a positive sample, and collect a certain number of The non-cerebellar image, called the negative sample, then the machine learning algorithm is designed to automatically learn the features that can distinguish between the positive and negative samples. Using these features to detect all the possible regions in the 3D volume data, the region is judged as The probability of positive samples, the region with the highest probability of selection is the target region.
  • Commonly used machine learning algorithms can include Adaboost algorithm, support vector machine (SV M), neural network algorithm, deep learning algorithm and so on.
  • Step S40 Display one or more aspect images in the foregoing three-dimensional volume data. For example, you can display a cut image or you can display multiple different cut images on one display.
  • Step S50 Obtain a tangent position of at least one of the one or more aspect images relative to the organ model data according to a matching correspondence between the three-dimensional volume data and the organ model data.
  • Step S60 Display the aforementioned organ model data to obtain an organ map.
  • the aforementioned organ map is a three-dimensional map or a two-dimensional plan.
  • Step S70 displaying a planar image mark on the aforementioned organ map at a corresponding position of the aforementioned slice position.
  • the planar image indicia may comprise planar regions and/or line segments, wherein the planar regions are enclosed by line segments and/or curved segments.
  • the aforementioned organ map and planar image markers can be distinguished by setting the transparency and/or color.
  • different plane image marks can be distinguished by setting transparency and/or color. .
  • the ultrasonic image display method further includes: activating the slice image, and obtaining a current slice position of the activated slice image relative to the organ model data according to a matching correspondence between the three-dimensional volume data and the organ model data, A planar image mark is displayed at a corresponding position on the organ map at the current slice position.
  • the selected slice image may be activated according to an instruction issued by a mouse or a keyboard, etc., by using a mouse as an example, the face image is activated by capturing the cursor of the mouse on the display screen, so that the user can move the mouse by moving the mouse.
  • the cursor to display the cut surface image that needs to be understood on the organ model's cut surface position, to help you better understand the current cut image. Therefore, referring to FIG. 3, in an embodiment, the ultrasonic image display method may further include steps S71-S77.
  • Step S71 Acquire the position of the current cursor.
  • Step S73 determining a current slice image corresponding to the position of the current cursor, for activating the current slice image.
  • a desired slice by means of a button.
  • Step S75 Obtain a current slice position of the current slice image relative to the organ model data according to the foregoing correspondence relationship.
  • Step S77 displaying a plan view image mark at a corresponding position on the aforementioned organ map at the position of the current cut surface.
  • the user can also change the cut surface position of the cut image by rotating and translating the displayed cut image, so that the cut image is also changed according to the actual shape, and the cut surface position on the organ model is required at this time.
  • the change is also realized, that is, the plane image mark corresponding to the face image on the organ map is also changed, so that the user can know the actual position of the face image in the organ. Therefore, in an embodiment, the ultrasonic image display method may further include: receiving an instruction for the user to change the position of the cut image, and when the position of the cut image changes, the planar image corresponding to the cut image is marked on the organ map. The location is also updated.
  • the following steps may be further included: [0086] obtaining an ultrasound image according to the foregoing three-dimensional volume data, where the ultrasound image includes a two-dimensional ultrasound image or a three-dimensional ultrasound image And then adjusting the display orientation of the aforementioned organ map according to the received instruction based on the received user's adjustment of the aforementioned ultrasound image. For example, when the user observes the three-dimensional ultrasound image displayed on the interface, If the orientation of the three-dimensional ultrasound image is adjusted, the organ map can also change the display orientation as the user adjusts the three-dimensional ultrasound image.
  • the orientation of the aforementioned ultrasonic image can be adjusted according to the instruction.
  • the system automatically associates it with the three-dimensional ultrasound image, and the fetus is imaged by three-dimensional image rendering and image segmentation processing algorithms. The face is gradually rotated to the orientation facing the user, thereby realizing the linkage of the ultrasound image and the organ map azimuth adjustment, thereby facilitating image adjustment and browsing.
  • the present invention also provides an ultrasonic image display apparatus including a probe 110, a transmitting/receiving control circuit 120, a data processor 130, and a display 140.
  • the probe 110 includes at least one array element for transmitting ultrasonic waves according to an excitation electric signal output from the transmission/reception control circuit 120, or converting the received ultrasonic waves into electrical signals.
  • each element can be used to transmit ultrasound to the target tissue, as well as to receive ultrasound echoes that are returned by the tissue.
  • the array and the received sequence can be used to control which array elements are used to transmit ultrasonic waves, which array elements are used to receive ultrasonic waves, or to control the array element gaps for transmitting ultrasonic waves or receiving ultrasonic echoes.
  • the array elements participating in the ultrasonic transmission may be excited by the electric signal to transmit the ultrasonic waves simultaneously; or the array elements participating in the ultrasonic beam emission may also be excited by a plurality of electrical signals having a certain inter-turn interval, so that the continuous emission has a certain inter-turn interval. Ultrasound.
  • the transmit/receive control circuit 120 is for controlling the probe 110 to transmit an ultrasonic beam to the target tissue, and on the other hand for controlling the probe 110 to receive the ultrasonic echo of the ultrasonic beam reflected by the tissue.
  • the transmit/receive control circuit 120 is configured to generate a transmit sequence and a receive sequence, the transmit sequence is configured to control part or all of the plurality of array elements to transmit ultrasonic waves to the target tissue, and the transmit sequence parameters include the number of array elements for transmission.
  • ultrasonic emission parameters (such as amplitude, frequency, number of waves, emission interval, emission angle, wave pattern, etc.).
  • the receiving sequence is used to control some or all of the plurality of array elements to receive the echoes of the ultrasonic tissue, and the receiving sequence parameters include the number of array elements for receiving and the receiving parameters of the echo (eg, receiving angle, depth, etc.).
  • the ultrasonic parameters in the transmitted sequence and the echo parameters in the received sequence are also different for different purposes of ultrasonic echo or depending on the image generated by the ultrasonic echo.
  • the transmit/receive control circuit 120 is configured to control the probe 110 to scan the target tissue to obtain three-dimensional volume data.
  • the data processor 130 is configured to generate one or more aspect images of the foregoing three-dimensional volume data; import organ model data corresponding to the target tissue, and generate an organ map according to the organ model data; and the foregoing three-dimensional volume data Matching with the organ model data to obtain a correspondence relationship, and obtaining, according to the foregoing correspondence relationship, a cut surface position of at least one of the one or more cut surface images relative to the organ model data, and located at the cut surface position on the organ map At the corresponding position, a planar image marker is generated.
  • the data processor 130 introduces the organ model data corresponding to the target organization, and there are many ways, for example, the first method, the data processor 130 automatically recognizes the organ type corresponding to the target tissue according to the three-dimensional volume data, according to the automatic identification.
  • the organ type is imported into the organ model data of the organ type; for example, in the second mode, the data processor 130 imports the organ type data of the organ type according to the organ type input by the user, wherein the display 140 provides a selection or input interface for the user to select or input. Organ type.
  • the display 140 is configured to display one or more aspect images generated by the data processor, display the aforementioned organ map, and display the aforementioned planar image mark at a corresponding position on the aforementioned organ map at the aforementioned slice position.
  • the displayed organ map is a three dimensional view or a two dimensional plan view.
  • the planar image indicia comprises planar regions and/or line segments, wherein the planar regions are surrounded by line segments and/or curved segments.
  • the aforementioned organ map and planar image markers can be distinguished by setting the transparency and/or color.
  • a plurality of planar image marks ⁇ when a plurality of planar image marks ⁇ are included, for example, it is required to display a cut surface position ⁇ of a plurality of cut image on the organ model, different plane image marks can be distinguished by setting transparency and/or color.
  • the facet image may be determined by activating the facet image, and thus, in an embodiment, the data processor 130 is further configured to acquire an instruction to activate the facet image. And obtaining, according to the correspondence relationship, a current slice position of the activated slice image relative to the organ model data, and correspondingly, the display 140 is configured to display the plane image at the corresponding position of the current slice position on the organ map. mark.
  • the data processor 130 acquires an instruction for activating the cut image, which may be issued by moving a mouse or pressing a button.
  • the mouse may be determined by capturing a cursor of the mouse on the display screen.
  • the data processor 130 is further configured to acquire a current cursor position, determine a current slice image corresponding to the position of the current cursor, and obtain the current slice image relative to the organ model data according to the foregoing correspondence.
  • the current slice position correspondingly, is used to display a planar image indicia at a corresponding location on the aforementioned organ map at the aforementioned current slice position.
  • the ultrasonic image display apparatus further includes an input unit (not shown in the drawing) for receiving an instruction of the user to change the position of the cut image, when the position of the cut image changes,
  • the data processor 130 updates the position of the planar image associated with the slice image on the aforementioned organ map, and displays it through the display 140 described above.
  • the method may further include the following steps: the data processor obtains an ultrasound image according to the foregoing three-dimensional volume data, where the ultrasound image includes a two-dimensional ultrasound image or three-dimensional The ultrasound image is then adjusted based on the received command by the user to adjust the aforementioned ultrasound image, according to which the display orientation of the aforementioned organ map is adjusted. For example, when the user observes the three-dimensional ultrasound image displayed on the interface, if the orientation of the three-dimensional ultrasound image is adjusted, the organ map can also change the display orientation as the user adjusts the three-dimensional ultrasound image.
  • the orientation of the aforementioned ultrasonic image is adjusted according to the instruction.
  • the system automatically associates it with the three-dimensional ultrasound image, and the fetus is imaged by three-dimensional image rendering and image segmentation processing algorithms. The face is gradually rotated to the display orientation facing the user, thereby realizing the linkage function of the ultrasound image and the organ map azimuth adjustment.
  • the present invention can simultaneously display three sectional images, and the target tissue can be described as a fetal heart, please refer to In Fig. 5, the screen interface displays three orthogonal slice images, wherein the slice position of the slice image 31 in the upper left corner is displayed in the organ map 32 in the lower right corner, that is, the slice position marked by the plane image mark 33. It can be seen that the position of the cut surface in the organ map 32 by the planar image mark 33 allows the user (e.g., a doctor) to easily know the cut position of the cut image 31 in the real organ.
  • the method of an embodiment of the present invention can be utilized, that is, by using a cursor or a button to activate the slice image, for example, when the cursor moves to the slice image in the upper right corner. Then, in the organ map 32, the corresponding planar image mark associated with the cut image of the upper right corner is displayed, so that the user can easily understand the cut surface position of the upper right corner of the cut image in the real organ.
  • the user may also change the cut surface position of the cut image by rotating and translating the displayed cut image, so that the cut image is also changed according to the actual shape, and the time is required to be on the organ model.
  • the position of the cut surface has also changed.
  • the cut surface image 43 is a four-chamber view, and the corresponding planar image associated with the organ map is labeled 41.
  • the cut image 43 becomes a cut image 44, that is, left.
  • the chamber exits the cut surface.
  • the corresponding planar image mark associated with the cut image in the organ map also changes, that is, from the planar image mark 41 to the planar image mark 42, and the cut surface position changes.
  • FIG. 5 and 6 are both three-dimensional views of the organ map, and in other embodiments, the displayed organ map may also be a two-dimensional plan view.
  • Figure 7 (a) is a cerebellar section image
  • Figure 7 (b) is a brain image of the brain, a two-dimensional plan
  • Figure 7 (b) is a diagonal line across the brain.
  • the image of the cerebellum section on the left is a planar image on the organ map, indicating that the cerebellar section is perpendicular to the organ map on the right.
  • FIGS. 5 to 7 both show the effect of displaying a planar image mark on the organ map, and in other embodiments, a plurality of planar image marks can also be displayed on the organ map.
  • a planar image mark on the organ map
  • four cut images are shown, which are cerebellar section, thalamic section, median sagittal plane, and lateral ventricle section.
  • Four planar image markers are shown in the organ map in the lower right corner, indicating four The facet image of the cut image in the real organ.
  • Those skilled in the art may understand that all or part of the functions of the various methods in the foregoing embodiments may be implemented by hardware or by a computer program.
  • the program is implemented by a computer program, and the program may be stored in a computer readable storage medium.
  • the storage medium may include: a read only memory, a random access memory, a magnetic disk, an optical disk, a hard disk, etc., and the program is executed by a computer.
  • the program is stored in the memory of the device, and when the program in the memory is executed by the processor, all or part of the above functions can be realized.
  • the program may also be stored in a storage medium such as a server, another computer, a magnetic disk, an optical disk, a flash disk or a mobile hard disk, and may be saved by downloading or copying.
  • the memory of the local device is updated, or the system of the local device is updated.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)

Abstract

一种超声图像显示方法、设备及存储介质。该超声图像显示方法将超声探头(110)扫描目标组织获得的三维体数据与导入的与目标组织对应的器官模型数据进行匹配,获得对应关系;根据对应关系获得三维体数据中一个或多个切面图像中的至少一个切面图像相对于器官模型数据的切面位置;再在器官图上位于多个切面位置的对应位置处显示平面图像标记,从而通过在一个器官图上显示平面图像标记来示意显示的三维体数据的切面图像在真实器官中的切面位置,方便医生了解三维体数据的切面图像在实际器官中的切面位置。

Description

一种超声图像显示方法、 设备及存储介质
技术领域
[0001] 本发明涉及一种超声图像显示方法及设备。
背景技术
[0002] 超声仪器一般用于医生观察人体的内部组织结构, 医生将超声探头放在人体部 位对应的皮肤表面, 可以得到该部位的超声图像。 超声由于其安全、 方便、 无 损、 廉价等特点, 已经成为医生诊断的主要辅助手段之一。
[0003] 近年来, 三维超声在临床上得到了广泛的应用, 究其原因是三维超声能够将带 检测组织或器官一次扫描完全, 然后医生可通过旋转、 平移等操作后处理把临 床所需要的切面调节出来, 大大减少了医生扫査吋间, 也方便了数据保存, 后 期发现问题吋便于追溯。
[0004] 然而, 三维空间比较抽象, 现有的超声设备都缺乏比较清晰的方位指示, 使得 很多医生很难将三维空间位置和实际的器官对应起来, 一定程度上限制了三维 超声在临床上的使用。
技术问题
[0005] 本发明主要提供一种超声图像显示方法及设备, 能够通过在器官图上显示平面 图像标记来示意切面图像在真实器官中的切面位置, 方便医生将切面图像与实 际的器官联系起来, 形象地获取切面图像在真实器官中的切面位置, 这有助于 医生诊断切面图像。
问题的解决方案
技术解决方案
[0006] 根据第一方面, 一种实施例中提供一种超声图像显示方法, 包括:
[0007] 控制探头扫描目标组织获得三维体数据;
[0008] 导入与所述目标组织对应的器官模型数据;
[0009] 将所述三维体数据与器官模型数据进行匹配, 获得对应关系;
[0010] 显示所述三维体数据中的一个或多个切面图像; [0011] 根据所述对应关系, 获得所述一个或多个切面图像中的至少一个切面图像相对 于器官模型数据的切面位置;
[0012] 显示所述器官模型数据获得器官图; 以及
[0013] 在所述器官图上位于所述切面位置的对应位置处, 显示平面图像标记。
[0014] 在一实施例中, 所述平面图像标记包括平面区域和 /或线段, 其中所述平面区 域由线段和 /或曲线段围成。
[0015] 在一实施例中, 所述器官图为三维立体图或二维平面图。
[0016] 在一实施例中, 所述超声图像显示方法还包括:
[0017] 激活切面图像;
[0018] 根据所述对应关系, 获得被激活的切面图像相对于器官模型数据的当前切面位 置;
[0019] 在所述器官图上位于所述当前切面位置的对应位置处, 显示平面图像标记。
[0020] 在一实施例中, 在所述器官图上通过设置透明度和 /或颜色以区分所述器官图 和平面图像标记。
[0021] 在一实施例中, 当包括多个平面图像标记吋, 通过设置透明度和 /或颜色以区 分不同的平面图像标记。
[0022] 在一实施例中, 所述超声图像显示方法, 还包括: 接收用户对所述切面图像进 行位置改变的指令, 当切面图像的位置改变吋, 与所述切面图像关联对应的平 面图像标记在所述器官图上的位置也随之更新。
[0023] 在一实施例中, 所述导入与所述目标组织对应的器官模型数据, 包括:
[0024] 获取所述目标组织所对应的器官类型, 其至少包括以下方式之一:
[0025] 提供选择或输入界面, 供用户选择或输入器官类型; 和,
[0026] 根据三维体数据自动识别目标组织所对应的器官类型;
[0027] 根据获取的器官类型导入该器官类型的器官模型数据。
[0028] 在一实施例中, 所述方法还包括:
[0029] 根据所述三维体数据获得超声图像, 所述超声图像包括二维超声图像或三维超 声图像;
[0030] 接收用户调节所述超声图像或所述器官图的指令, 根据所述指令调整所述器官 图或所述超声图像的显示方位。
[0031] 根据第二方面, 一种实施例中提供一种超声图像显示设备, 包括:
[0032] 探头;
[0033] 发射 /接收控制电路, 用于控制探头扫描目标组织获得三维体数据;
[0034] 数据处理器, 用于生成所述三维体数据中的一个或多个切面图像; 导入与所述 目标组织对应的器官模型数据, 并根据所述器官模型数据, 生成器官图; 将所 述三维体数据与器官模型数据进行匹配, 获得对应关系, 根据所述对应关系, 获得所述一个或多个切面图像中的至少一个切面图像相对于器官模型数据的切 面位置, 并在所述器官图上位于所述切面位置的对应位置处, 生成平面图像标 记;
[0035] 显示器, 用于显示数据处理器生成的一个或多个切面图像, 显示所述器官图以 及在所述器官图上位于所述切面位置的对应位置处, 显示所述平面图像标记。
[0036] 在一实施例中, 所述平面图像标记包括平面区域和 /或线段, 其中所述平面区 域由线段和 /或曲线段围成。
[0037] 在一实施例中, 所述器官图为三维立体图或二维平面图。
[0038] 在一实施例中, 所述数据处理器还用于获取指令以激活切面图像, 根据所述对 应关系, 获得所述当前切面图像相对于器官模型数据的当前切面位置;
[0039] 所述显示器还用于在所述器官图上位于所述当前切面位置的对应位置处, 显示 平面图像标记。
[0040] 在一实施例中, 所述数据处理器还用于通过设置透明度和 /或颜色以区分所述 器官图和平面图像标记。
[0041] 在一实施例中, 当包括多个平面图像标记吋, 所述数据处理器还用于通过设置 透明度和 /或颜色以区分不同的平面图像标记。
[0042] 在一实施例中, 所述超声图像显示设备还包括输入单元, 用于接收用户对所述 切面图像进行位置改变的指令, 当切面图像的位置改变吋, 所述数据处理器将 与该切面图像关联对应的平面图像标记在所述器官图上的位置也随之更新, 并 通过所述显示器进行显示。
[0043] 在一实施例中, 所述数据处理器还用于根据三维体数据自动识别目标组织所对 应的器官类型, 根据自动识别出的器官类型导入该器官类型的器官模型数据。
[0044] 在一实施例中, 所述数据处理器根据所述三维体数据获得超声图像, 接收用户 调节所述超声图像或所述器官图的指令, 根据所述指令调整所述器官图或所述 超声图像的显示方位, 其中, 所述超声图像包括二维超声图像或三维超声图像
[0045] 在一实施例中, 所述显示器还用于提供选择或输入界面, 供用户选择或输入器 官类型, 所述数据处理器根据用户输入的器官类型导入该器官类型的器官模型 数据。
[0046] 根据第三方面, 一种实施例中提供一种存储介质, 存储有程序, 所述程序能够 被处理器执行以实现上述任一实施例公幵的超声图像显示方法。
发明的有益效果
有益效果
[0047] 依据上述实施例的超声图像显示方法、 设备及存储介质, 将所述三维体数据与 器官模型数据进行匹配, 获得对应关系; 根据所述对应关系, 获得所述一个或 多个切面图像中的至少一个切面图像相对于器官模型数据的切面位置; 再在器 官图上位于所述切面位置的对应位置处, 显示平面图像标记, 从而将显示的三 维体数据的切面图像在真实器官中的切面位置, 通过在一个器官图上显示平面 图像标记来示意, 方便医生了解三维体数据的切面图像在实际器官中的切面位 置。
对附图的简要说明
附图说明
[0048] 图 1为本发明一种实施例的超声图像显示方法的流程图;
[0049] 图 2为本发明一种实施例的超声图像显示方法, 导入与所述目标组织对应的器 官模型数据的流程图;
[0050] 图 3为本发明另一种实施例的超声图像显示方法的一部分流程图;
[0051] 图 4为本发明一种实施例的超声图像显示设备的结构示意图;
[0052] 图 5为本发明一种实施例中的效果示意图;
[0053] 图 6为本发明一种实施例中对切面图像进行位置移动后的平面标记图像的变化 示意图;
[0054] 图 7为本发明一种实施例中当器官图为二维平面图吋的效果示意图, 其中图 7 ( a) 为一个切面图像, 图 7 (b) 为器官图及器官图上的平面图像标记;
[0055] 图 8为本发明一种实施例中器官图同吋显示多个平面图像标记的效果示意图。
实施该发明的最佳实施例
本发明的最佳实施方式
[0056] 在此处键入本发明的最佳实施方式描述段落。
本发明的实施方式
[0057] 具体实施方式
[0058] 下面通过具体实施方式结合附图对本发明作进一步详细说明。 其中不同实施方 式中类似元件采用了相关联的类似的元件标号。 在以下的实施方式中, 很多细 节描述是为了使得本申请能被更好的理解。 然而, 本领域技术人员可以毫不费 力的认识到, 其中部分特征在不同情况下是可以省略的, 或者可以由其他元件 、 材料、 方法所替代。 在某些情况下, 本申请相关的一些操作并没有在说明书 中显示或者描述, 这是为了避免本申请的核心部分被过多的描述所淹没, 而对 于本领域技术人员而言, 详细描述这些相关操作并不是必要的, 他们根据说明 书中的描述以及本领域的一般技术知识即可完整了解相关操作。
[0059] 另外, 说明书中所描述的特点、 操作或者特征可以以任意适当的方式结合形成 各种实施方式。 同吋, 方法描述中的各步骤或者动作也可以按照本领域技术人 员所能显而易见的方式进行顺序调换或调整。 因此, 说明书和附图中的各种顺 序只是为了清楚描述某一个实施例, 并不意味着是必须的顺序, 除非另有说明 其中某个顺序是必须遵循的。
[0060] 本文中为部件所编序号本身, 例如"第一"、 "第二 "等, 仅用于区分所描述的对 象, 不具有任何顺序或技术含义。 而本申请所说 "连接"、 "联接", 如无特别说明 , 均包括直接和间接连接 (联接) 。
[0061] 超声成像中, 可以获取三维体数据, 然后显示出其切面图像。 切面图像是指在 三维体数据中某一个切面所在的平面的图像。 与二维超声图像类似, 三维体数 据的切面图像显示的是一个截面图像, 因而缺乏空间信息, 再加上超声操作比 较复杂, 使得医生很难将三维体数据的切面图像和实际的器官对应起来。 本发 明通过将三维体数据与器官模型数据进行匹配, 进一步来获取显示的三维体数 据的切面图像相对于器官模型数据的切面位置, 最终将显示的三维体数据的切 面图像在真实器官中的切面位置, 通过在一个器官图上显示平面图像标记来示 意, 方便医生了解三维体数据的切面图像在实际器官中的切面位置。
[0062]
[0063] 实施例一
[0064] 请参照图 1, 本发明一实施例中提供一种超声图像显示方法, 包括步骤 S10~S70
[0065] 步骤 S10: 控制探头扫描目标组织获得三维体数据。 本文中提到的超声探头可 以是一维探头, 也可以是面阵探头。 三维体数据可以是通过面阵探头获得的体 数据, 也可以是通过其他类型的探头获得多帧二维超声图像后进行三维重建获 得的三维体数据, 还可以是 STIC (吋空关联成像, Spatiotemporal Image
Correlation) 技术采集获得的数据或四维超声数据中其中一卷或多卷三维体数据
[0066] 步骤 S20: 导入与前述目标组织对应的器官模型数据。 请参照图 2, 在一实施例 中, 步骤 S20包括步骤 S21和步骤 S23。
[0067] 步骤 S21 : 获取前述目标组织所对应的器官类型。 常用的器官类型可以是胎心 、 胎儿颅脑、 成人心脏、 肝脏、 盆底和子宫内膜等。 器官类型的确定可以通过 手动的方法进行确定, 例如提供界面, 供用户选择器官的类型; 也可以根据所 获取的三维体数据来自动识别目标组织的器官类型, 例如可采用一些机器学习 的方法来对三维体数据进行分类, 具体地, 先收集大量的目标数据 (称为正样 本) 和非目标数据 (称为负样本) , 然后通过设计机器学习算法来学习出能够 区分正负样本的特征, 利用这些特征来判断输入的三维体数据是属于哪一类器 官, 常用的机器学习方法有支持向量机、 神经网络、 卷积神经网络 (CNN) 、 递归神经网络 (RNN) 等。 因此, 在一实施例中, 步骤 S21获取前述目标组织所 对应的器官类型, 至少包括以下方式之一: [0068] ( 1) 提供选择或输入界面, 供用户选择或输入器官类型。
[0069] (2) 根据三维体数据自动识别目标组织所对应的器官类型。
[0070] 步骤 S23: 根据获取的器官类型导入该器官类型的器官模型数据。
[0071] 步骤 S30: 将前述三维体数据与器官模型数据进行匹配, 获得对应关系。
[0072] 在步骤 S20中导入器官模型数据后, 下一步就可以将三维体数据与该器官模型 数据进行匹配。 匹配的方式有许多, 例如, 在导入的器官模型数据中, 可以获 取该器官模型数据中一些关键的解剖结构的位置, 由于将切面图像在器官模型 上对应的空间位置显示出来, 是用于帮助医生了解三维体数据的切面图像在实 际器官中的切面位置, 因此在器官模型上显示该切面位置并不需要特别精确, 为了减少匹配的计算量, 不妨假设三体数据和器官模型数据是线性变换关系, 该线性变换关系可以为刚体变换或非刚体变换等。 在获取器官模型数据中一些 关键的解剖结构在三维体数据中的对应位置, 就可以通过最小二乘估计、 数据 拟合、 Ransac等方法计算出两者之间的变换关系。 不妨假设三体数据和器官模型 数据是刚体变换, 则可以通过矩阵来表示两者之间的变换关系, 如果器官模型 数据是一个三维模型的数据, 那么至少在空间中确定 3个点的位置就可以建立两 者之间的变换关系, 如果器官模型数据是一个二维模型的数据, 那么至少确定 2 个点的位置就可以建立两者之间的变换关系。
[0073] 可以看到, 通过匹配来建立三维体数据与器官模型数据的变换关系, 或者说是 对应关系, 关键是需要获取三维体数据中一些特定解剖结构的空间位置, 这可 以根据三维体数据实际对应的器官来选择该器官中一些易于定位和识别的解剖 结构, 例如, 胎儿颅脑的三维体数据中, 颅骨光环、 矢状面、 小脑和透明隔腔 等解剖结构的特征都比较明显, 比较容易识别, 知道这些解剖结构的空间位置 后, 即可建立三维体数据和颅脑器官模型数据的匹配关系、 对应关系。 又如, 胎心三维体数据中, 主动脉、 四腔心和胃泡等解剖结构的特征比较明显, 比较 容易识别, 知道主动脉、 四腔心和胃泡的空间位置后, 即可建立胎心三维体数 据和胎心模型数据的匹配关系、 对应关系。
[0074] 而具体的识别和定位解剖结构的方法很多。 比如方式一, 可以根据解剖结构的 特征设计对应的算法, 例如, 胎心容积图像数据中的胃泡结构, 通常表现为低 回声或无回声的椭球状目标, 可通过图像分割方法将胃泡分割出来。 具体地, 可以首先进行对三维体数据进行二值化分割, 进行一些必要的形态学操作后得 到很多候选区域, 然后对每个候选区域根据形状等特征判断该区域是胃泡的概 率, 选择概率最高的一个区域为胃泡区域。 比如方式二, 还可采用模板匹配的 方法在三维体数据中检测出一些关键解剖结构, 例如, 颅脑中透明隔腔, 形状 类似月牙状, 可事先收集一些透明隔腔的数据建立模板, 在检测吋遍历体数据 中所有可能的区域, 和模板进行相似度匹配, 选择相似度最高的区域为目标区 域。 比如方式三, 还可采用机器学习的方法在三维体数据中检测出一些关键解 剖结构, 例如, 颅脑中的小脑, 可事先收集一定数量的小脑图像, 称为正样本 , 以及收集一定数量的非小脑图像, 称为负样本, 然后设计机器学习算法自动 学习出能够区分正样本和负样本的特征来, 利用这些特征在检测吋遍历三维体 数据中所有可能的区域, 计算该区域被判断为正样本的概率, 选择概率最大的 区域为目标区域, 常用的机器学习算法可以有 Adaboost算法、 支持向量机 (SV M) 、 神经网络算法、 深度学习算法等等。
[0075] 步骤 S40: 显示前述三维体数据中的一个或多个切面图像。 例如, 可以显示一 个切面图像, 也可以同吋在一个显示屏幕上显示多个不同的切面图像。
[0076] 步骤 S50: 根据三维体数据与器官模型数据之间的匹配对应关系, 获得前述一 个或多个切面图像中的至少一个切面图像相对于器官模型数据的切面位置。
[0077] 步骤 S60: 显示前述器官模型数据获得器官图。 在一实施例中, 前述器官图为 三维立体图或二维平面图。
[0078] 步骤 S70: 在前述器官图上位于前述切面位置的对应位置处, 显示平面图像标 记。 在一实施例中, 平面图像标记可以包括平面区域和 /或线段, 其中平面区域 由线段和 /或曲线段围成。 在一实施例中, 为了更好地区分器官图及器官图上的 平面图像标记, 可以通过设置透明度和 /或颜色以区分前述器官图和平面图像标 记。 类似地, 在一实施例中, 当包括多个平面图像标记吋, 例如需要显示多个 切面图像在器官模型上的切面位置吋, 则可以通过设置透明度和 /或颜色以区分 不同的平面图像标记。
[0079] 在确定要显示哪个切面图像在器官模型上的切面位置吋, 可以通过激活切面图 像来确定。 因此, 在一实施例中, 超声图像显示方法还包括: 激活切面图像, 根据三维体数据与器官模型数据之间的匹配对应关系, 获得被激活的切面图像 相对于器官模型数据的当前切面位置, 在上述器官图上位于所述当前切面位置 的对应位置处, 显示平面图像标记。 在激活切面图像来, 可以是根据鼠标或键 盘等发出的指令来激活被选中的切面图像, 不妨以鼠标为例, 通过捕获鼠标在 显示屏幕上的光标来激活切面图像, 这样用户可以通过移动鼠标的光标, 来将 需要了解的切面图像在器官模型上的切面位置显示出来, 帮助自己更好地理解 当前的切面图像。 因此, 请参照图 3, 在一实施例中, 超声图像显示方法还可以 包括步骤 S71~S77。
[0080] 步骤 S71 : 获取当前光标的位置。
[0081] 步骤 S73: 确定前述当前光标的位置所对应的当前切面图像, 用于激活当前切 面图像。 当然在本发明的其他实施例中, 还可以通过按键的方式来激活某个需 要的切面。
[0082] 步骤 S75: 根据前述对应关系, 获得前述当前切面图像相对于器官模型数据的 当前切面位置。
[0083] 步骤 S77: 在前述器官图上位于前述当前切面位置的对应位置处, 显示平面图 像标记。
[0084] 另外, 用户还可以对显示的切面图像通过旋转和平移等方式来改变该切面图像 的切面位置, 使得切面图像也跟着实吋改变, 这吋候就要求其在器官模型上的 切面位置也实吋改变, 即在器官图上与该切面图像关联对应的平面图像标记也 实吋变化, 使得用户可以实吋知道切面图像在器官中的实吋位置。 因此, 在一 实施例中, 超声图像显示方法还可以包括: 接收用户对切面图像进行位置改变 的指令, 当切面图像的位置改变吋, 与该切面图像关联对应的平面图像标记在 前述器官图上的位置也随之更新。
[0085] 当然, 更进一步地, 在本发明的其中一个实施例中, 还可以包括以下步骤: [0086] 根据前述三维体数据获得超声图像, 这里的超声图像包括二维超声图像或三维 超声图像; 然后基于接收到的用户调节前述超声图像的指令, 根据该指令调整 前述器官图的显示方位。 例如, 当用户观察显示在界面上的三维超声图像吋, 若对三维超声图像的方位进行调整吋, 器官图也可随着用户对三维超声图像的 调整而改变显示方位。 反之, 当根据接收到的用户调节前述器官图的方位指令 吋, 根据该指令可以调整前述超声图像的方位。 例如, 在检测胎儿在母体羊水 中的情况吋, 当用户调整表征胎儿的器官图使其面部朝向用户吋, 则***会自 动关联到三维超声图像中, 通过三维图像渲染和图像分割处理算法将胎儿的脸 部逐步旋转至面向用户的方位, 从而实现超声图像和器官图方位调节的联动功 育 , 从而方便图像调节和浏览。
[0087]
[0088] 实施例二:
[0089] 请参照图 4, 本发明还提供一种超声图像显示设备, 其包括探头 110、 发射 /接 收控制电路 120、 数据处理器 130和显示器 140。
[0090] 探头 110包括至少一个阵元, 阵元用于根据发射 /接收控制电路 120输出的激励 电信号发射超声波, 或将接收的超声波变换为电信号。 因此每个阵元可用于向 目标组织发射超声波, 也可用于接收经组织返回的超声波回波。 在进行超声检 测吋, 可通过发射序列和接收序列控制哪些阵元用于发射超声波, 哪些阵元用 于接收超声波, 或者控制阵元分吋隙用于发射超声波或接收超声回波。 参与超 声波发射的阵元可以同吋被电信号激励, 从而同吋发射超声波; 或者参与超声 波束发射的阵元也可以被具有一定吋间间隔的若干电信号激励, 从而持续发射 具有一定吋间间隔的超声波。
[0091] 发射 /接收控制电路 120—方面用于控制探头 110向目标组织发射超声波束, 另 一方面用于控制探头 110接收超声波束经组织反射的超声回波。 具体实施例中, 发射 /接收控制电路 120用于产生发射序列和接收序列, 发射序列用于控制多个阵 元中的部分或者全部向目标组织发射超声波, 发射序列参数包括发射用的阵元 数和超声波发射参数 (例如幅度、 频率、 发波次数、 发射间隔、 发射角度、 波 型等) 。 接收序列用于控制多个阵元中的部分或者全部接收超声波经组织后的 回波, 接收序列参数包括接收用的阵元数以及回波的接收参数 (例如接收角度 、 深度等) 。 对超声回波的用途不同或根据超声回波生成的图像不同, 发射序 列中的超声波参数和接收序列中的回波参数也有所不同。 本发明一实施例中, 发射 /接收控制电路 120用于控制探头 110扫描目标组织获得三维体数据。
[0092] 数据处理器 130用于生成前述三维体数据中的一个或多个切面图像; 导入与前 述目标组织对应的器官模型数据, 并根据前述器官模型数据, 生成器官图; 将 前述三维体数据与器官模型数据进行匹配, 获得对应关系, 根据前述对应关系 , 获得前述一个或多个切面图像中的至少一个切面图像相对于器官模型数据的 切面位置, 并在前述器官图上位于前述切面位置的对应位置处, 生成平面图像 标记。
[0093] 数据处理器 130在导入与前述目标组织对应的器官模型数据吋, 有许多处方式 , 例如方式一, 数据处理器 130根据三维体数据自动识别目标组织所对应的器官 类型, 根据自动识别出的器官类型导入该器官类型的器官模型数据; 例如方式 二, 数据处理器 130根据用户输入的器官类型导入该器官类型的器官模型数据, 其中显示器 140提供选择或输入界面, 供用户选择或输入器官类型。
[0094] 显示器 140用于显示数据处理器生成的一个或多个切面图像, 显示前述器官图 以及在前述器官图上位于前述切面位置的对应位置处, 显示前述平面图像标记 。 在一实施例中, 显示的器官图为三维立体图或二维平面图。 在一实施例中, 平面图像标记包括平面区域和 /或线段, 其中前述平面区域由线段和 /或曲线段围 成。 在一实施例中, 为了更好地区分器官图及器官图上的平面图像标记, 可以 通过设置透明度和 /或颜色以区分前述器官图和平面图像标记。 类似地, 在一实 施例中, 当包括多个平面图像标记吋, 例如需要显示多个切面图像在器官模型 上的切面位置吋, 则可以通过设置透明度和 /或颜色以区分不同的平面图像标记
[0095] 在确定要显示哪个切面图像在器官模型上的切面位置吋, 可以通过激活切面图 像来确定, 因此, 在一实施例中, 数据处理器 130还用于用于获取指令以激活切 面图像, 并根据所述对应关系, 获得被激活的切面图像相对于器官模型数据的 当前切面位置, 相应地, 显示器 140则用于在上述器官图上位于上述当前切面位 置的对应位置处, 显示平面图像标记。 例如, 数据处理器 130获取用于激活切面 图像的指令, 可以是通过移动鼠标或按下按键来发出的, 不妨以鼠标为例, 数 据处理器 130可以通过捕获鼠标在显示屏幕上的光标来确定激活哪些切面图像, 这样用户可以通过移动鼠标的光标, 来将需要了解的切面图像在器官模型上的 切面位置显示出来, 帮助自己更好地理解当前的切面图像。 因此, 在一实施例 中, 数据处理器 130还用于获取当前光标的位置, 确定前述当前光标的位置所对 应的当前切面图像, 根据前述对应关系, 获得前述当前切面图像相对于器官模 型数据的当前切面位置, 相应地, 显示器 140用于在前述器官图上位于前述当前 切面位置的对应位置处, 显示平面图像标记。
[0096] 另外, 用户还可以对显示的切面图像通过旋转和平移等方式来改变该切面图像 的切面位置, 使得切面图像也跟着实吋改变, 这吋候就要求其在器官模型上的 切面位置也实吋改变, 即在器官图上与该切面图像关联对应的平面图像标记也 实吋变化, 使得用户可以实吋知道切面图像在器官中的实吋位置。 因此, 在一 实施例中, 超声图像显示设备还包括一输入单元 (附图中未画出) , 该输入单 元用于接收用户对切面图像进行位置改变的指令, 当切面图像的位置改变吋, 数据处理器 130将与该切面图像关联对应的平面图像标记在前述器官图上的位置 也随之更新, 并通过前述显示器 140进行显示。
[0097] 当然, 更进一步地, 在本发明的其中一个实施例中, 还可以包括以下步骤: 所 述数据处理器根据前述三维体数据获得超声图像, 这里的超声图像包括二维超 声图像或三维超声图像; 然后基于接收到的用户调节前述超声图像的指令, 根 据该指令调整前述器官图的显示方位。 例如, 当用户观察显示在界面上的三维 超声图像吋, 若对三维超声图像的方位进行调整吋, 器官图也可随着用户对三 维超声图像的调整而改变显示方位。 反之, 当数据处理器根据接收到的用户调 节前述器官图的方位指令吋, 根据该指令调整前述超声图像的方位。 例如, 在 检测胎儿在母体羊水中的情况吋, 当用户调整表征胎儿的器官图使其面部朝向 用户吋, 则***会自动关联到三维超声图像中, 通过三维图像渲染和图像分割 处理算法将胎儿的脸部逐步旋转至面向用户的显示方位, 从而实现超声图像和 器官图方位调节的联动功能。
[0098]
[0099] 为更好地理解本发明, 下面不妨举几个例子和效果图来说明。
[0100] 本发明可以同吋显示三个切面图像, 不妨以目标组织为胎心进行说明, 请参照 图 5, 屏幕界面显示了三个正交的切面图像, 其中左上角的切面图像 31的切面位 置, 被显示在右下角的器官图 32中, 即平面图像标记 33所标记出的切面位置。 可以看到, 通过平面图像标记 33在器官图 32中的示意出的切面位置, 可以让用 户 (例如医生) 很容易就知道切面图像 31在真实器官中的切面位置。 如果需要 知道右上角或左下角的切面图像的切面位置, 可以利用本发明中一实施例的方 法, 即通过用光标或按键的方式来激活切面图像, 例如当光标移动到右上角的 切面图像吋, 那么在器官图 32中就会显示出右上角的切面图像所关联对应的平 面图像标记, 这样用户就可以很容易地了解到右上角的切面图像在真实器官中 的切面位置。
[0101] 一实施例中, 用户还可以对显示的切面图像通过旋转和平移等方式来改变该切 面图像的切面位置, 使得切面图像也跟着实吋改变, 这吋候就要求其在器官模 型上的切面位置也实吋改变。 请参照图 6, 切面图像 43为一四腔心切面, 在器官 图中所关联对应的平面图像标记为 41, 当用户通过平衡或旋转操作 45后, 切面 图像 43变成切面图像 44, 即左室流出道切面, 相应地, 切面图像在器官图中所 关联对应的平面图像标记也变化了, 即由平面图像标记 41变成平面图像标记 42 , 切面位置发生了变化。
[0102] 图 5和图 6都是以器官图为三维立体图进行说明, 在其他实施例中, 显示的器官 图还可以是二维平面图。 例如, 请参见图 7, 图 7 (a) 为一个小脑切面图像, 图 7 (b) 为颅脑的器官图, 为一个二维平面图, 图 7 (b) 中横贯颅脑的斜线即为左 边的小脑切面图像在器官图上的平面图像标记, 表示该小脑切面与右边的器官 图是垂直关系。
[0103] 图 5〜图 7都是显示在器官图上显示一个平面图像标记的效果, 在其他实施例中 , 还可以在器官图上同吋显示多个平面图像标记。 例如, 如图 8所示, 显示了四 个切面图像, 分别为小脑切面、 丘脑切面、 正中矢状面、 侧脑室切面, 在右下 角的器官图中显示了 4个平面图像标记, 示意了四个切面图像在真实器官中的切 面位置。
[0104] 本领域技术人员可以理解, 上述实施方式中各种方法的全部或部分功能可以通 过硬件的方式实现, 也可以通过计算机程序的方式实现。 当上述实施方式中全 部或部分功能通过计算机程序的方式实现吋, 该程序可以存储于一计算机可读 存储介质中, 存储介质可以包括: 只读存储器、 随机存储器、 磁盘、 光盘、 硬 盘等, 通过计算机执行该程序以实现上述功能。 例如, 将程序存储在设备的存 储器中, 当通过处理器执行存储器中程序, 即可实现上述全部或部分功能。 另 外, 当上述实施方式中全部或部分功能通过计算机程序的方式实现吋, 该程序 也可以存储在服务器、 另一计算机、 磁盘、 光盘、 闪存盘或移动硬盘等存储介 质中, 通过下载或复制保存到本地设备的存储器中, 或对本地设备的***进行 版本更新, 当通过处理器执行存储器中的程序吋, 即可实现上述实施方式中全 部或部分功能。
以上应用了具体个例对本发明进行阐述, 只是用于帮助理解本发明, 并不用以 限制本发明。 对于本领域的一般技术人员, 依据本发明的思想, 可以对上述具 体实施方式进行变化。

Claims

权利要求书
[权利要求 1] 一种超声图像显示方法,其特征在于, 包括:
控制探头扫描目标组织获得三维体数据;
导入与所述目标组织对应的器官模型数据;
将所述三维体数据与器官模型数据进行匹配, 获得对应关系; 显示所述三维体数据中的一个或多个切面图像; 根据所述对应关系, 获得所述一个或多个切面图像中的至少一个切面 图像相对于器官模型数据的切面位置;
显示所述器官模型数据获得器官图; 以及
在所述器官图上位于所述切面位置的对应位置处, 显示平面图像标记
[权利要求 2] 如权利要求 1所述的超声图像显示方法, 其特征在于, 所述平面图像 标记包括平面区域和 /或线段, 其中所述平面区域由线段和 /或曲线段 围成。
[权利要求 3] 如权利要求 1所述的超声图像显示方法, 其特征在于, 所述器官图为 三维立体图或二维平面图。
[权利要求 4] 如权利要求 1所述的超声图像显示方法, 其特征在于, 还包括:
激活切面图像;
根据所述对应关系, 获得被激活的切面图像相对于器官模型数据的当 前切面位置;
在所述器官图上位于所述当前切面位置的对应位置处, 显示平面图像 标记。
[权利要求 5] 如权利要求 1至 4中任一项所述的超声图像显示方法, 其特征在于, 在 所述器官图上通过设置透明度和 /或颜色以区分所述器官图和平面图 像标记。
[权利要求 6] 如权利要求 1至 4中任一项所述的超声图像显示方法, 其特征在于, 当 包括多个平面图像标记吋, 通过设置透明度和 /或颜色以区分不同的 平面图像标记。 如权利要求 1所述的超声图像显示方法, 其特征在于, 还包括: 接收 用户对所述切面图像进行位置改变的指令, 当切面图像的位置改变吋 , 与所述切面图像关联对应的平面图像标记在所述器官图上的位置也 随之更新。
如权利要求 1所述的超声图像显示方法, 其特征在于, 所述导入与所 述目标组织对应的器官模型数据, 包括:
获取所述目标组织所对应的器官类型, 其至少包括以下方式之一: 提供选择或输入界面, 供用户选择或输入器官类型; 和, 根据三维体数据自动识别目标组织所对应的器官类型;
根据获取的器官类型导入该器官类型的器官模型数据。
如权利要求 1所述的超声图像显示方法, 其特征在于, 所述方法还包 括:
根据所述三维体数据获得超声图像, 所述超声图像包括二维超声图像 或三维超声图像;
接收用户调节所述超声图像或所述器官图的指令, 根据所述指令调整 所述器官图或所述超声图像的显示方位。
一种超声图像显示设备, 其特征在于, 包括:
探头;
发射 /接收控制电路, 用于控制探头扫描目标组织获得三维体数据; 数据处理器, 用于生成所述三维体数据中的一个或多个切面图像; 导 入与所述目标组织对应的器官模型数据, 并根据所述器官模型数据, 生成器官图; 将所述三维体数据与器官模型数据进行匹配, 获得对应 关系, 根据所述对应关系, 获得所述一个或多个切面图像中的至少一 个切面图像相对于器官模型数据的切面位置, 并在所述器官图上位于 所述切面位置的对应位置处, 生成平面图像标记;
显示器, 用于显示数据处理器生成的一个或多个切面图像, 显示所 述器官图以及在所述器官图上位于所述切面位置的对应位置处, 显示 所述平面图像标记。 [权利要求 11] 如权利要求 10所述的超声图像显示设备, 其特征在于, 所述平面图像 标记包括平面区域和 /或线段, 其中所述平面区域由线段和 /或曲线段 围成。
[权利要求 12] 如权利要求 10所述的超声图像显示设备, 其特征在于, 所述器官图为 三维立体图或二维平面图。
[权利要求 13] 如权利要求 10所述的超声图像显示设备, 其特征在于:
所述数据处理器还用于获取指令以激活切面图像, 并根据所述对应关 系, 获得被激活的切面图像相对于器官模型数据的当前切面位置; 所述显示器还用于在所述器官图上位于所述当前切面位置的对应位置 处, 显示平面图像标记。
[权利要求 14] 如权利要求 10至 13中任一项所述的超声图像显示设备, 其特征在于, 所述数据处理器还用于通过设置透明度和 /或颜色以区分所述器官图 和平面图像标记。
[权利要求 15] 如权利要求 10至 13中任一项所述的超声图像显示设备, 当包括多个平 面图像标记吋, 所述数据处理器还用于通过设置透明度和 /或颜色以 区分不同的平面图像标记。
[权利要求 16] 如权利要求 10所述的超声图像显示设备, 其特征在于, 还包括输入单 元, 用于接收用户对所述切面图像进行位置改变的指令, 当切面图像 的位置改变吋, 所述数据处理器将与该切面图像关联对应的平面图像 标记在所述器官图上的位置也随之更新, 并通过所述显示器进行显示
[权利要求 17] 如权利要求 10所述的超声图像显示方法, 其特征在于, 所述数据处理 器还用于根据三维体数据自动识别目标组织所对应的器官类型, 根据 自动识别出的器官类型导入该器官类型的器官模型数据。
[权利要求 18] 如权利要求 10所述的超声图像显示方法, 其特征在于, 所述显示器还 用于提供选择或输入界面, 供用户选择或输入器官类型, 所述数据处 理器根据用户输入的器官类型导入该器官类型的器官模型数据。
[权利要求 19] 如权利要求 10所述的超声图像显示方法, 其特征在于, 所述数据处理 器根据所述三维体数据获得超声图像, 接收用户调节所述超声图像或 所述器官图的指令, 根据所述指令调整所述器官图或所述超声图像的 显示方位, 其中, 所述超声图像包括二维超声图像或三维超声图像。
[权利要求 20] —种存储介质, 其特征在于, 存储有程序, 所述程序能够被处理器执 行以实现如权利要求 1至 9中任一项所述的超声图像显示方法。
PCT/CN2017/082485 2017-04-28 2017-04-28 一种超声图像显示方法、设备及存储介质 WO2018195946A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201780079229.0A CN110087550B (zh) 2017-04-28 2017-04-28 一种超声图像显示方法、设备及存储介质
PCT/CN2017/082485 WO2018195946A1 (zh) 2017-04-28 2017-04-28 一种超声图像显示方法、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2017/082485 WO2018195946A1 (zh) 2017-04-28 2017-04-28 一种超声图像显示方法、设备及存储介质

Publications (1)

Publication Number Publication Date
WO2018195946A1 true WO2018195946A1 (zh) 2018-11-01

Family

ID=63919343

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2017/082485 WO2018195946A1 (zh) 2017-04-28 2017-04-28 一种超声图像显示方法、设备及存储介质

Country Status (2)

Country Link
CN (1) CN110087550B (zh)
WO (1) WO2018195946A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110652317A (zh) * 2019-09-24 2020-01-07 深圳度影医疗科技有限公司 一种产前胎儿超声容积图像中标准切面的自动定位方法
CN110960262A (zh) * 2019-12-31 2020-04-07 上海杏脉信息科技有限公司 超声扫查***、方法及介质
CN111248941A (zh) * 2018-11-30 2020-06-09 深圳迈瑞生物医疗电子股份有限公司 超声图像的显示方法、***及设备
CN111768379A (zh) * 2020-06-29 2020-10-13 深圳度影医疗科技有限公司 一种子宫三维超声图像的标准切面检测方法
WO2021099171A1 (en) * 2019-11-22 2021-05-27 Koninklijke Philips N.V. Systems and methods for imaging screening
US20230181163A1 (en) * 2021-12-09 2023-06-15 GE Precision Healthcare LLC System and Method for Automatic Association and Display of Video Loop Subject Matter for Enhanced Identification

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112568933B (zh) * 2019-09-29 2022-11-22 深圳迈瑞生物医疗电子股份有限公司 超声成像方法、设备和存储介质
CN110584714A (zh) * 2019-10-23 2019-12-20 无锡祥生医疗科技股份有限公司 超声融合成像方法、超声装置及存储介质
CN114209354A (zh) * 2021-12-20 2022-03-22 深圳开立生物医疗科技股份有限公司 一种超声图像的显示方法、装置、设备及可读存储介质
CN116503913A (zh) * 2023-06-25 2023-07-28 浙江华诺康科技有限公司 医学图像识别方法、装置、***和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050101855A1 (en) * 2003-09-08 2005-05-12 Vanderbilt University Apparatus and methods of brain shift compensation and applications of the same
CN103295455A (zh) * 2013-06-19 2013-09-11 北京理工大学 基于ct影像模拟与定位的超声培训***
CN104757994A (zh) * 2014-01-08 2015-07-08 三星麦迪森株式会社 超声诊断设备和操作该超声诊断设备的方法
CN106256326A (zh) * 2015-06-19 2016-12-28 通用电气公司 计算机断层扫描切片图像的生成***及方法
CN106572827A (zh) * 2014-07-02 2017-04-19 柯惠有限合伙公司 智能显示器

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10261673A1 (de) * 2002-12-31 2004-07-15 Riener, Robert, Dr.-Ing. Interaktive Lehr- und Lernvorrichtung
DE102009006147A1 (de) * 2008-12-23 2010-06-24 Siemens Aktiengesellschaft Modellgenerator für kardiologische Erkrankungen
CN201516047U (zh) * 2009-06-05 2010-06-30 中国人民解放军第三军医大学第一附属医院 一种虚拟肝脏超声成像装置
CN102525662B (zh) * 2012-02-28 2013-09-04 中国科学院深圳先进技术研究院 组织器官三维可视化手术导航***
JP5785214B2 (ja) * 2013-05-08 2015-09-24 富士フイルム株式会社 型、手術支援セット、手術支援装置、手術支援方法および手術支援プログラム
CN109954196B (zh) * 2013-08-15 2021-11-09 直观外科手术操作公司 用于导管定位和***的图形用户界面
US10231704B2 (en) * 2013-12-20 2019-03-19 Raghu Raghavan Method for acquiring ultrasonic data
US10105107B2 (en) * 2015-01-08 2018-10-23 St. Jude Medical International Holding S.À R.L. Medical system having combined and synergized data output from multiple independent inputs
CN105632310B (zh) * 2016-01-25 2019-02-19 新乡医学院 一种人体解剖教学***
CN105761304B (zh) * 2016-02-02 2018-07-20 飞依诺科技(苏州)有限公司 三维脏器模型构造方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050101855A1 (en) * 2003-09-08 2005-05-12 Vanderbilt University Apparatus and methods of brain shift compensation and applications of the same
CN103295455A (zh) * 2013-06-19 2013-09-11 北京理工大学 基于ct影像模拟与定位的超声培训***
CN104757994A (zh) * 2014-01-08 2015-07-08 三星麦迪森株式会社 超声诊断设备和操作该超声诊断设备的方法
CN106572827A (zh) * 2014-07-02 2017-04-19 柯惠有限合伙公司 智能显示器
CN106256326A (zh) * 2015-06-19 2016-12-28 通用电气公司 计算机断层扫描切片图像的生成***及方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111248941A (zh) * 2018-11-30 2020-06-09 深圳迈瑞生物医疗电子股份有限公司 超声图像的显示方法、***及设备
CN110652317A (zh) * 2019-09-24 2020-01-07 深圳度影医疗科技有限公司 一种产前胎儿超声容积图像中标准切面的自动定位方法
CN110652317B (zh) * 2019-09-24 2020-12-29 深圳度影医疗科技有限公司 一种产前胎儿超声容积图像中标准切面的自动定位方法
WO2021099171A1 (en) * 2019-11-22 2021-05-27 Koninklijke Philips N.V. Systems and methods for imaging screening
CN110960262A (zh) * 2019-12-31 2020-04-07 上海杏脉信息科技有限公司 超声扫查***、方法及介质
CN110960262B (zh) * 2019-12-31 2022-06-24 上海杏脉信息科技有限公司 超声扫查***、方法及介质
CN111768379A (zh) * 2020-06-29 2020-10-13 深圳度影医疗科技有限公司 一种子宫三维超声图像的标准切面检测方法
US20230181163A1 (en) * 2021-12-09 2023-06-15 GE Precision Healthcare LLC System and Method for Automatic Association and Display of Video Loop Subject Matter for Enhanced Identification

Also Published As

Publication number Publication date
CN110087550B (zh) 2022-06-17
CN110087550A (zh) 2019-08-02

Similar Documents

Publication Publication Date Title
CN110087550B (zh) 一种超声图像显示方法、设备及存储介质
US10251627B2 (en) Elastography measurement system and method
US20110201935A1 (en) 3-d ultrasound imaging
JP6430498B2 (ja) 超音波剪断波エラストグラフィ測定のマッピングのためのシステムおよび方法
JP6097452B2 (ja) 超音波撮像システム及び超音波撮像方法
JP6018411B2 (ja) 画像ガイド下手技のための超音波撮像システム
CN106137249A (zh) 在窄视场情况下进行配准用于多模态医学成像融合
WO2018205274A1 (zh) 一种超声设备及其三维超声图像的显示变换方法、***
US11931201B2 (en) Device and method for obtaining anatomical measurements from an ultrasound image
JP7267928B2 (ja) ボリュームレンダリングされる超音波画像
CN115811961A (zh) 三维显示方法和超声成像***
CN107106128A (zh) 用于分割解剖目标的超声成像装置和方法
JP7427002B2 (ja) フレームのインデックス付け及び画像レビューのためのシステム及び方法
JP2012502682A (ja) 体積データ処理を用いる3次元超音波撮像
EP1952359A1 (en) System and method for generating for display two-dimensional echocardiography views from a three-dimensional image
CN109069110A (zh) 具有简化的3d成像控制的超声成像***
WO2018195874A1 (zh) 一种胎心超声检测方法及超声成像***
WO2022099705A1 (zh) 早孕期胎儿的超声成像方法和超声成像***
JP6501796B2 (ja) 超音波画像のモデル・ベースのセグメンテーションのための取得方位依存特徴
JP2013141515A (ja) 医用画像装置及び医用画像構成方法
US20210383564A1 (en) Ultrasound image acquisition method, system and computer storage medium
JP7261870B2 (ja) 超音波画像内のツールを追跡するためのシステム及び方法
CN112672696A (zh) 用于跟踪超声图像中的工具的***和方法
EP2807977B1 (en) Ultrasound diagnosis method and aparatus using three-dimensional volume data
WO2022134049A1 (zh) 胎儿颅骨的超声成像方法和超声成像***

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17907025

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17907025

Country of ref document: EP

Kind code of ref document: A1

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 12/05/2020)

122 Ep: pct application non-entry in european phase

Ref document number: 17907025

Country of ref document: EP

Kind code of ref document: A1