CN117351018B - 一种基于机器视觉的子宫肌瘤检测辅助*** - Google Patents

一种基于机器视觉的子宫肌瘤检测辅助*** Download PDF

Info

Publication number
CN117351018B
CN117351018B CN202311650457.2A CN202311650457A CN117351018B CN 117351018 B CN117351018 B CN 117351018B CN 202311650457 A CN202311650457 A CN 202311650457A CN 117351018 B CN117351018 B CN 117351018B
Authority
CN
China
Prior art keywords
data
module
model
ultrasonic image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311650457.2A
Other languages
English (en)
Other versions
CN117351018A (zh
Inventor
王德婧
王智亮
徐征
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Anji Bema Health Technology Co ltd
Affiliated Hospital of Zunyi Medical University
Original Assignee
Beijing Anji Bema Health Technology Co ltd
Affiliated Hospital of Zunyi Medical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Anji Bema Health Technology Co ltd, Affiliated Hospital of Zunyi Medical University filed Critical Beijing Anji Bema Health Technology Co ltd
Priority to CN202311650457.2A priority Critical patent/CN117351018B/zh
Publication of CN117351018A publication Critical patent/CN117351018A/zh
Application granted granted Critical
Publication of CN117351018B publication Critical patent/CN117351018B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

本发明公开了一种基于机器视觉的子宫肌瘤检测辅助***,包括数据采集模块、数据预处理模块、数据增强模块、子宫肌瘤检测模型构建模块和辅助报告生成模块。本发明涉及妇科医疗技术领域,具体为一种基于机器视觉的子宫肌瘤检测辅助***,本方案采用数据增强方法,通过旋转、缩放、水平翻转和垂直翻转操作改变子宫肌瘤图像,模拟不同形状的子宫肌瘤,增加了数据多样性,改善了数据不平衡问题,有助于训练模型适应不同病例;采用深度卷积神经网络,可以自动从图像数据中提取具有代表性的特征,学习不同形状的子宫肌瘤的特征表示,提高了模型的检测效率和泛化能力。

Description

一种基于机器视觉的子宫肌瘤检测辅助***
技术领域
本发明涉及妇科医疗技术领域,具体为一种基于机器视觉的子宫肌瘤检测辅助***。
背景技术
子宫肌瘤检测辅助***可以自动进行图像分析,挖掘子宫肌瘤图像数据中的潜在特征和规律,有助于子宫肌瘤的早期筛查,辅助医生为患者提供更好的治疗方案,从而减少后期治疗成本。但是现有的子宫肌瘤检测辅助***中,存在不同患者的子宫肌瘤形态差异较大,但现实中正常图像数量远高于子宫肌瘤图像数量,导致数据不平衡的技术问题;存在缺乏一种准确识别不同形状的子宫肌瘤的检测方法,从而影响了子宫肌瘤检测辅助***的实用性的技术问题。
发明内容
为解决上述问题,本发明提供了一种基于机器视觉的子宫肌瘤检测辅助***,针对存在不同患者的子宫肌瘤形态差异较大,但现实中正常图像数量远高于子宫肌瘤图像数量,导致数据不平衡的技术问题,本方案采用数据增强方法,通过旋转、缩放、水平翻转和垂直翻转操作改变子宫肌瘤图像,模拟不同形状的子宫肌瘤,增加了数据多样性,改善了数据不平衡问题,有助于训练模型适应不同病例;针对存在缺乏一种准确识别不同形状的子宫肌瘤的检测方法,从而影响了子宫肌瘤检测辅助***的实用性的技术问题,本方案采用深度卷积神经网络,可以自动从图像数据中提取具有代表性的特征,学习不同形状的子宫肌瘤的特征表示,提高了模型的检测效率和泛化能力。
本发明提供的一种基于机器视觉的子宫肌瘤检测辅助***,包括数据采集模块、数据预处理模块、数据增强模块、子宫肌瘤检测模型构建模块和辅助报告生成模块;
所述数据采集模块,具体为获取子宫超声图像数据和子宫肌瘤标签,并将所述子宫超声图像数据发送至数据预处理模块,将所述子宫肌瘤标签发送至子宫肌瘤检测模型构建模块;
所述数据预处理模块,具体为对子宫超声图像数据进行预处理,得到标准超声图像数据,并将所述标准超声图像数据发送至数据增强模块;
所述数据增强模块,具体为通过旋转、缩放、水平翻转和垂直翻转操作,对标准超声图像数据进行数据增强,得到增强超声图像数据,并将所述增强超声图像数据发送至子宫肌瘤检测模型构建模块;
所述子宫肌瘤检测模型构建模块,具体为采用深度卷积神经网络进行模型构建,设计深度卷积神经网络结构,通过K次模型训练进行前向传播和反向传播来优化模型,得到子宫肌瘤检测模型,并将所述子宫肌瘤检测模型发送至辅助报告生成模块;
所述辅助报告生成模块,具体为采用子宫肌瘤检测模型进行预测,得到预测数据并生成辅助报告。
进一步地,在数据采集模块中,通过超声探头获取子宫超声图像数据,通过标签标注得到子宫肌瘤标签,所述子宫肌瘤标签包括正常和异常。
进一步地,在数据预处理模块中,经过图像去噪、对比度调整和强度归一化对子宫超声图像数据进行预处理,得到标准超声图像数据。
进一步地,在数据增强模块中,设有旋转单元、缩放单元、水平翻转单元、垂直翻转单元和数据合并单元,具体包括以下内容:
旋转单元,将每个标准超声图像进行随机角度的旋转,旋转的计算公式为:
式中,a是标准超声图像横坐标,b是标准超声图像纵坐标,mge1(a,b)是标准超声图像旋转后坐标(a,b)处的像素值,mge()是像素值函数,cos()是余弦函数,sin()是正弦函数,β是随机角度,所述随机角度的取值在-20度~20度之间;
缩放单元,将每个标准超声图像进行随机缩放操作,随机缩放的计算公式为:
式中,mge2(a,b)是标准超声图像缩放后坐标(a,b)处的像素值,rd是随机比例因子,所述随机比例因子的取值在0.8~1.2之间;
水平翻转单元,将每个标准超声图像以50%的概率进行水平翻转,水平翻转的计算公式为:
式中,mge3(a,b)是标准超声图像水平翻转后坐标(a,b)处的像素值,wd是标准超声图像宽度;
垂直翻转单元,将每个标准超声图像以50%的概率进行垂直翻转,垂直翻转的计算公式为:
式中,mge4(a,b)是标准超声图像垂直翻转后坐标(a,b)处的像素值,hg是标准超声图像高度;
数据合并单元,通过对标准超声图像数据进行旋转、缩放、水平翻转和垂直翻转操作,得到新超声图像数据,将新超声图像数据与标准超声图像数据合并,得到增强超声图像数据。
进一步地,在子宫肌瘤检测模型构建模块中,设有模型结构设计单元、前向传播设计单元、反向传播单元和模型训练单元,具体包括以下内容:
模型结构设计单元,设计深度卷积神经网络结构,所述深度卷积神经网络结构包括一个输入层、三个特征提取层、两个全连接层和一个输出层,所述特征提取层由一个卷积层和一个最大池化层构成;
前向传播设计单元,依据深度卷积神经网络结构,设计模型的前向传播过程,包括以下内容:
输入层接收增强超声图像数据,并将增强超声图像作为模型的输入图像;
卷积层操作,用于对输入图像进行特征提取,计算公式为:
式中,x是卷积特征图横坐标,y是卷积特征图纵坐标,clr(x,y)是卷积特征图坐标(x,y)处的特征值,i是输入图像横坐标索引,j是输入图像纵坐标索引,Ig(i,j)是输入图像坐标(i,j)处的像素值,α是卷积核权重,u是卷积层偏置项;
池化层操作,用于对卷积特征图进行下采样,计算公式为:
式中,x1是池化特征图横坐标,y1是池化特征图纵坐标,plr(x1,y1)是池化特征图坐标(x1,y1)处的特征值,maxplr()是最大池化操作;
全连接层操作,用于对特征进行学习和分类预测,计算公式为:
式中,alr是全连接层输出,ReLu()是非线性激活函数,所述非线性激活函数采用线性整流单元,μ是全连接层权重,c是全连接层输入,u1是全连接层偏置项;
输出层采用softmax激活函数进行子宫肌瘤标签预测,并输出预测结果;
反向传播单元,通过反向传播算法,计算损失函数对模型参数的梯度,进而更新模型参数,最小化损失函数;
模型训练单元,采用深度卷积神经网络,进行K次模型训练,通过前向传播和反向传播进行模型调优,得到子宫肌瘤检测模型。
进一步地,在辅助报告生成模块中,采用子宫肌瘤检测模型进行预测,得到预测数据并生成辅助报告。
采用上述方案本发明取得的有益效果如下:
(1)针对存在不同患者的子宫肌瘤形态差异较大,但现实中正常图像数量远高于子宫肌瘤图像数量,导致数据不平衡的技术问题,本方案采用数据增强方法,通过旋转、缩放、水平翻转和垂直翻转操作改变子宫肌瘤图像,模拟不同形状的子宫肌瘤,增加了数据多样性,改善了数据不平衡问题,有助于训练模型适应不同病例。
(2)针对存在缺乏一种准确识别不同形状的子宫肌瘤的检测方法,从而影响了子宫肌瘤检测辅助***的实用性的技术问题,本方案采用深度卷积神经网络,可以自动从图像数据中提取具有代表性的特征,学习不同形状的子宫肌瘤的特征表示,提高了模型的检测效率和泛化能力。
附图说明
图1为本发明提供的一种基于机器视觉的子宫肌瘤检测辅助***的结构框图;
图2为数据增强模块的流程示意图;
图3为子宫肌瘤检测模型构建模块的流程示意图。
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例;基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,需要理解的是,术语“上”、“下”、“前”、“后”、“左”、“右”、“顶”、“底”、“内”、“外”等指示方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
实施例一,参阅图1,本发明提供的一种基于机器视觉的子宫肌瘤检测辅助***,包括数据采集模块、数据预处理模块、数据增强模块、子宫肌瘤检测模型构建模块和辅助报告生成模块;
所述数据采集模块,具体为获取子宫超声图像数据和子宫肌瘤标签,并将所述子宫超声图像数据发送至数据预处理模块,将所述子宫肌瘤标签发送至子宫肌瘤检测模型构建模块;
所述数据预处理模块,具体为对子宫超声图像数据进行预处理,得到标准超声图像数据,并将所述标准超声图像数据发送至数据增强模块;
所述数据增强模块,具体为通过旋转、缩放、水平翻转和垂直翻转操作,对标准超声图像数据进行数据增强,得到增强超声图像数据,并将所述增强超声图像数据发送至子宫肌瘤检测模型构建模块;
所述子宫肌瘤检测模型构建模块,具体为采用深度卷积神经网络进行模型构建,设计深度卷积神经网络结构,通过K次模型训练进行前向传播和反向传播来优化模型,得到子宫肌瘤检测模型,并将所述子宫肌瘤检测模型发送至辅助报告生成模块;
所述辅助报告生成模块,具体为采用子宫肌瘤检测模型进行预测,得到预测数据并生成辅助报告。
实施例二,参阅图1,该实施例基于上述实施例,在数据采集模块中,通过采样频率范围为2~7MHz的腹部超声探头获取子宫超声图像数据,通过标签标注得到子宫肌瘤标签,所述子宫肌瘤标签包括正常和异常。
实施例三,参阅图1,该实施例基于上述实施例,在数据预处理模块中,经过图像去噪、对比度调整和强度归一化对子宫超声图像数据进行预处理,得到标准超声图像数据。
实施例四,参阅图1和图2,该实施例基于上述实施例,在数据增强模块中,设有旋转单元、缩放单元、水平翻转单元、垂直翻转单元和数据合并单元,具体包括以下内容:
旋转单元,将每个标准超声图像进行随机角度的旋转,旋转的计算公式为:
式中,a是标准超声图像横坐标,b是标准超声图像纵坐标,mge1(a,b)是标准超声图像旋转后坐标(a,b)处的像素值,mge()是像素值函数,cos()是余弦函数,sin()是正弦函数,β是随机角度,所述随机角度的取值在-20度~20度之间;
缩放单元,将每个标准超声图像进行随机缩放操作,随机缩放的计算公式为:
式中,mge2(a,b)是标准超声图像缩放后坐标(a,b)处的像素值,rd是随机比例因子,所述随机比例因子的取值在0.8~1.2之间;
水平翻转单元,将每个标准超声图像以50%的概率进行水平翻转,水平翻转的计算公式为:
式中,mge3(a,b)是标准超声图像水平翻转后坐标(a,b)处的像素值,wd是标准超声图像宽度;
垂直翻转单元,将每个标准超声图像以50%的概率进行垂直翻转,垂直翻转的计算公式为:
式中,mge4(a,b)是标准超声图像垂直翻转后坐标(a,b)处的像素值,hg是标准超声图像高度;
数据合并单元,通过对标准超声图像数据进行旋转、缩放、水平翻转和垂直翻转操作,得到新超声图像数据,将新超声图像数据与标准超声图像数据合并,得到增强超声图像数据;
通过执行上述操作,针对存在不同患者的子宫肌瘤形态差异较大,但现实中正常图像数量远高于子宫肌瘤图像数量,导致数据不平衡的技术问题,本方案采用数据增强方法,通过旋转、缩放、水平翻转和垂直翻转操作改变子宫肌瘤图像,模拟不同形状的子宫肌瘤,增加了数据多样性,改善了数据不平衡问题,有助于训练模型适应不同病例。
实施例五,参阅图1和图3,该实施例基于上述实施例,在子宫肌瘤检测模型构建模块中,设有模型结构设计单元、前向传播设计单元、反向传播单元和模型训练单元,具体包括以下内容:
模型结构设计单元,设计深度卷积神经网络结构,所述深度卷积神经网络结构包括一个输入层、三个特征提取层、两个全连接层和一个输出层,所述特征提取层由一个卷积层和一个最大池化层构成;
前向传播设计单元,依据深度卷积神经网络结构,设计模型的前向传播过程,包括以下内容:
输入层接收增强超声图像数据,并将增强超声图像作为模型的输入图像;
卷积层操作,用于对输入图像进行特征提取,计算公式为:
式中,x是卷积特征图横坐标,y是卷积特征图纵坐标,clr(x,y)是卷积特征图坐标(x,y)处的特征值,i是输入图像横坐标索引,j是输入图像纵坐标索引,Ig(i,j)是输入图像坐标(i,j)处的像素值,α是卷积核权重,u是卷积层偏置项;
池化层操作,用于对卷积特征图进行下采样,计算公式为:
式中,x1是池化特征图横坐标,y1是池化特征图纵坐标,plr(x1,y1)是池化特征图坐标(x1,y1)处的特征值,maxplr()是最大池化操作;
全连接层操作,用于对特征进行学习和分类预测,计算公式为:
式中,alr是全连接层输出,ReLu()是非线性激活函数,所述非线性激活函数采用线性整流单元,μ是全连接层权重,c是全连接层输入,u1是全连接层偏置项;
输出层采用softmax激活函数进行子宫肌瘤标签预测,并输出预测结果;
反向传播单元,通过反向传播算法,计算损失函数对模型参数的梯度,进而更新模型参数,最小化损失函数;
模型训练单元,采用深度卷积神经网络,进行K次模型训练,通过前向传播和反向传播进行模型调优,得到子宫肌瘤检测模型;
通过执行上述操作,针对存在缺乏一种准确识别不同形状的子宫肌瘤的检测方法,从而影响了子宫肌瘤检测辅助***的实用性的技术问题,本方案采用深度卷积神经网络,可以自动从图像数据中提取具有代表性的特征,学习不同形状的子宫肌瘤的特征表示,提高了模型的检测效率和泛化能力。
实施例六,参阅图1,该实施例基于上述实施例,在辅助报告生成模块中,采用子宫肌瘤检测模型进行预测,得到预测数据并生成辅助报告。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
以上对本发明及其实施方式进行了描述,这种描述没有限制性,附图中所示的也只是本发明的实施方式之一,实际的结构并不局限于此。总而言之如果本领域的普通技术人员受其启示,在不脱离本发明创造宗旨的情况下,不经创造性的设计出与该技术方案相似的结构方式及实施例,均应属于本发明的保护范围。

Claims (6)

1.一种基于机器视觉的子宫肌瘤检测辅助***,其特征在于:包括数据采集模块、数据预处理模块、数据增强模块、子宫肌瘤检测模型构建模块和辅助报告生成模块;
所述数据采集模块,具体为获取子宫超声图像数据和子宫肌瘤标签,并将所述子宫超声图像数据发送至数据预处理模块,将所述子宫肌瘤标签发送至子宫肌瘤检测模型构建模块;
所述数据预处理模块,具体为对子宫超声图像数据进行预处理,得到标准超声图像数据,并将所述标准超声图像数据发送至数据增强模块;
所述数据增强模块,具体为通过旋转、缩放、水平翻转和垂直翻转操作,对标准超声图像数据进行数据增强,得到增强超声图像数据,并将所述增强超声图像数据发送至子宫肌瘤检测模型构建模块;
所述子宫肌瘤检测模型构建模块,具体为采用深度卷积神经网络进行模型构建,设计深度卷积神经网络结构,通过K次模型训练进行前向传播和反向传播来优化模型,得到子宫肌瘤检测模型,并将所述子宫肌瘤检测模型发送至辅助报告生成模块;
所述辅助报告生成模块,具体为采用子宫肌瘤检测模型进行预测,得到预测数据并生成辅助报告;
在数据增强模块中,设有旋转单元、缩放单元、水平翻转单元、垂直翻转单元和图像处理单元,具体包括以下内容:
旋转单元,将每个标准超声图像进行随机角度的旋转,旋转的计算公式为:
式中,a是标准超声图像横坐标,b是标准超声图像纵坐标,mge1(a,b)是标准超声图像旋转后坐标(a,b)处的像素值,mge()是像素值函数,cos()是余弦函数,sin()是正弦函数,β是随机角度,所述随机角度的取值在-20度~20度之间;
缩放单元,将每个标准超声图像进行随机缩放操作,随机缩放的计算公式为:
式中,mge2(a,b)是标准超声图像缩放后坐标(a,b)处的像素值,rd是随机比例因子,所述随机比例因子的取值在0.8~1.2之间;
水平翻转单元,将每个标准超声图像以50%的概率进行水平翻转,水平翻转的计算公式为:
式中,mge3(a,b)是标准超声图像水平翻转后坐标(a,b)处的像素值,wd是标准超声图像宽度;
垂直翻转单元,将每个标准超声图像以50%的概率进行垂直翻转,垂直翻转的计算公式为:
式中,mge4(a,b)是标准超声图像垂直翻转后坐标(a,b)处的像素值,hg是标准超声图像高度;
数据合并单元,通过对标准超声图像数据进行旋转、缩放、水平翻转和垂直翻转操作,得到新超声图像数据,将新超声图像数据与标准超声图像数据合并,得到增强超声图像数据;
在子宫肌瘤检测模型构建模块中,设有模型结构设计单元、前向传播设计单元、反向传播单元和模型训练单元;
所述模型结构设计单元,设计深度卷积神经网络结构,所述深度卷积神经网络结构包括一个输入层、三个特征提取层、两个全连接层和一个输出层,所述特征提取层由一个卷积层和一个最大池化层构成。
2.根据权利要求1所述的一种基于机器视觉的子宫肌瘤检测辅助***,其特征在于:所述前向传播设计单元,依据深度卷积神经网络结构,设计模型的前向传播过程;
所述反向传播单元,通过反向传播算法,计算损失函数对模型参数的梯度,进而更新模型参数,最小化损失函数;
所述模型训练单元,采用深度卷积神经网络,进行K次模型训练,通过前向传播和反向传播进行模型调优,得到子宫肌瘤检测模型。
3.根据权利要求2所述的一种基于机器视觉的子宫肌瘤检测辅助***,其特征在于:所述前向传播设计单元,依据深度卷积神经网络结构,设计模型的前向传播过程,包括以下内容:
输入层接收增强超声图像数据,并将增强超声图像作为模型的输入图像;
卷积层操作,用于对输入图像进行特征提取,计算公式为:
式中,x是卷积特征图横坐标,y是卷积特征图纵坐标,clr(x,y)是卷积特征图坐标(x,y)处的特征值,i是输入图像横坐标索引,j是输入图像纵坐标索引,Ig(i,j)是输入图像坐标(i,j)处的像素值,α是卷积核权重,u是卷积层偏置项;
池化层操作,用于对卷积特征图进行下采样,计算公式为:
式中,x1是池化特征图横坐标,y1是池化特征图纵坐标,plr(x1,y1)是池化特征图坐标(x1,y1)处的特征值,maxplr()是最大池化操作;
全连接层操作,用于对特征进行学习和分类预测,计算公式为:
式中,alr是全连接层输出,ReLu()是非线性激活函数,所述非线性激活函数采用线性整流单元,μ是全连接层权重,c是全连接层输入,u1是全连接层偏置项;
输出层采用softmax激活函数进行子宫肌瘤标签预测,并输出预测结果。
4.根据权利要求3所述的一种基于机器视觉的子宫肌瘤检测辅助***,其特征在于:在数据采集模块中,通过超声探头获取子宫超声图像数据,通过标签标注得到子宫肌瘤标签,所述子宫肌瘤标签包括正常和异常。
5.根据权利要求4所述的一种基于机器视觉的子宫肌瘤检测辅助***,其特征在于:在数据预处理模块中,经过图像去噪、对比度调整和强度归一化对子宫超声图像数据进行预处理,得到标准超声图像数据。
6.根据权利要求5所述的一种基于机器视觉的子宫肌瘤检测辅助***,其特征在于:在辅助报告生成模块中,采用子宫肌瘤检测模型进行预测,得到预测数据并生成辅助报告。
CN202311650457.2A 2023-12-05 2023-12-05 一种基于机器视觉的子宫肌瘤检测辅助*** Active CN117351018B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311650457.2A CN117351018B (zh) 2023-12-05 2023-12-05 一种基于机器视觉的子宫肌瘤检测辅助***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311650457.2A CN117351018B (zh) 2023-12-05 2023-12-05 一种基于机器视觉的子宫肌瘤检测辅助***

Publications (2)

Publication Number Publication Date
CN117351018A CN117351018A (zh) 2024-01-05
CN117351018B true CN117351018B (zh) 2024-03-12

Family

ID=89367078

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311650457.2A Active CN117351018B (zh) 2023-12-05 2023-12-05 一种基于机器视觉的子宫肌瘤检测辅助***

Country Status (1)

Country Link
CN (1) CN117351018B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110084794A (zh) * 2019-04-22 2019-08-02 华南理工大学 一种基于注意力卷积神经网络的皮肤癌图片识别方法
CN113627483A (zh) * 2021-07-09 2021-11-09 武汉大学 基于自监督纹理对比学习的宫颈oct图像分类方法及设备
CN114399485A (zh) * 2022-01-11 2022-04-26 南方医科大学顺德医院(佛山市顺德区第一人民医院) 基于残差网络结构的子宫肌瘤目标图像获取方法
CN115394432A (zh) * 2022-08-22 2022-11-25 广西医科大学附属武鸣医院(广西医科大学武鸣临床医学院、南宁市武鸣区人民医院) 基于***超声的辅助检查诊断***、电子设备和存储介质
CN116721289A (zh) * 2023-06-05 2023-09-08 武汉大学 基于自监督聚类对比学习的宫颈oct图像分类方法及***

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3096688A1 (en) * 2014-01-24 2016-11-30 Koninklijke Philips N.V. System and method for three-dimensional quantitative evaluation of uterine fibroids

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110084794A (zh) * 2019-04-22 2019-08-02 华南理工大学 一种基于注意力卷积神经网络的皮肤癌图片识别方法
CN113627483A (zh) * 2021-07-09 2021-11-09 武汉大学 基于自监督纹理对比学习的宫颈oct图像分类方法及设备
CN114399485A (zh) * 2022-01-11 2022-04-26 南方医科大学顺德医院(佛山市顺德区第一人民医院) 基于残差网络结构的子宫肌瘤目标图像获取方法
CN115394432A (zh) * 2022-08-22 2022-11-25 广西医科大学附属武鸣医院(广西医科大学武鸣临床医学院、南宁市武鸣区人民医院) 基于***超声的辅助检查诊断***、电子设备和存储介质
CN116721289A (zh) * 2023-06-05 2023-09-08 武汉大学 基于自监督聚类对比学习的宫颈oct图像分类方法及***

Also Published As

Publication number Publication date
CN117351018A (zh) 2024-01-05

Similar Documents

Publication Publication Date Title
CN114972329B (zh) 基于图像处理的表面缺陷检测仪的图像增强方法及***
CN111178250B (zh) 物体识别定位方法、装置及终端设备
CN109100741A (zh) 一种基于3d激光雷达及图像数据的目标检测方法
CN108052942B (zh) 一种飞机飞行姿态的视觉图像识别方法
CN109740665A (zh) 基于专家知识约束的遮挡图像船只目标检测方法及***
CN108961235A (zh) 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法
CN112132166B (zh) 一种数字细胞病理图像智能分析方法、***及装置
CN111144486B (zh) 基于卷积神经网络的心脏核磁共振图像关键点检测方法
Igbinosa Comparison of edge detection technique in image processing techniques
CN105976389A (zh) 一种手机底板连接器缺陷检测方法
CN104778679A (zh) 一种基于高分一号卫星数据的控制点图元快速匹配方法
CN112084871B (zh) 一种基于弱监督学习的高分遥感目标边界提取方法
CN111126116A (zh) 无人船河道垃圾识别方法及***
CN109461163A (zh) 一种用于磁共振标准水模的边缘检测提取算法
CN109829423A (zh) 一种结冰湖泊红外成像检测方法
CN109461132A (zh) 基于特征点几何拓扑关系的sar图像自动配准方法
CN117953314B (zh) 一种多维特征优选海洋底质分类方法及***
CN111046877A (zh) 一种毫米波图像可疑物品检测方法和***
CN111597930A (zh) 一种基于遥感云平台的海岸线提取方法
CN114494371A (zh) 基于多尺度相位一致性的光学图像和sar图像配准方法
CN113705564B (zh) 一种指针式仪表识别读数方法
CN117351018B (zh) 一种基于机器视觉的子宫肌瘤检测辅助***
CN113012127A (zh) 基于胸部医学影像的心胸比测量方法
CN111428627B (zh) 一种山地地貌遥感提取方法及***
CN117634556A (zh) 一种基于水面数据的语义分割神经网络的训练方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant