CN112330688A - 基于人工智能的图像处理方法、装置和计算机设备 - Google Patents
基于人工智能的图像处理方法、装置和计算机设备 Download PDFInfo
- Publication number
- CN112330688A CN112330688A CN202011202281.0A CN202011202281A CN112330688A CN 112330688 A CN112330688 A CN 112330688A CN 202011202281 A CN202011202281 A CN 202011202281A CN 112330688 A CN112330688 A CN 112330688A
- Authority
- CN
- China
- Prior art keywords
- image
- target element
- region
- processed
- element region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 61
- 238000003672 processing method Methods 0.000 title claims abstract description 23
- 238000001514 detection method Methods 0.000 claims abstract description 161
- 238000000034 method Methods 0.000 claims abstract description 45
- 238000003860 storage Methods 0.000 claims abstract description 16
- 230000011218 segmentation Effects 0.000 claims description 157
- 238000013507 mapping Methods 0.000 claims description 59
- 238000012545 processing Methods 0.000 claims description 58
- 238000001914 filtration Methods 0.000 claims description 39
- 238000004891 communication Methods 0.000 claims description 32
- 238000004458 analytical method Methods 0.000 claims description 23
- 238000012549 training Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 15
- 230000000877 morphologic effect Effects 0.000 claims description 11
- 230000004927 fusion Effects 0.000 claims description 6
- 239000003086 colorant Substances 0.000 claims description 5
- 206010028980 Neoplasm Diseases 0.000 description 68
- 210000004027 cell Anatomy 0.000 description 40
- 201000011510 cancer Diseases 0.000 description 39
- 102000008096 B7-H1 Antigen Human genes 0.000 description 20
- 108010074708 B7-H1 Antigen Proteins 0.000 description 20
- 210000002865 immune cell Anatomy 0.000 description 20
- 238000005516 engineering process Methods 0.000 description 15
- 238000010186 staining Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 8
- 238000010191 image analysis Methods 0.000 description 7
- 241000894007 species Species 0.000 description 6
- 241000282414 Homo sapiens Species 0.000 description 5
- 241001465754 Metazoa Species 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000009826 distribution Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 238000011282 treatment Methods 0.000 description 4
- 206010006187 Breast cancer Diseases 0.000 description 3
- 208000026310 Breast neoplasm Diseases 0.000 description 3
- 241000282472 Canis lupus familiaris Species 0.000 description 3
- 208000003721 Triple Negative Breast Neoplasms Diseases 0.000 description 3
- 230000010339 dilation Effects 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 230000001575 pathological effect Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 208000022679 triple-negative breast carcinoma Diseases 0.000 description 3
- 210000001744 T-lymphocyte Anatomy 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000004043 dyeing Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 210000000265 leukocyte Anatomy 0.000 description 2
- 239000003446 ligand Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 102000005962 receptors Human genes 0.000 description 2
- 108020003175 receptors Proteins 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000001225 therapeutic effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 210000004881 tumor cell Anatomy 0.000 description 2
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 206010061309 Neoplasm progression Diseases 0.000 description 1
- 229930012538 Paclitaxel Natural products 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000011230 binding agent Substances 0.000 description 1
- 239000000090 biomarker Substances 0.000 description 1
- 210000000481 breast Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000034994 death Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000012151 immunohistochemical method Methods 0.000 description 1
- 238000011337 individualized treatment Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002601 intratumoral effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000001394 metastastic effect Effects 0.000 description 1
- 206010061289 metastatic neoplasm Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000017074 necrotic cell death Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 229960001592 paclitaxel Drugs 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000007170 pathology Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000010837 poor prognosis Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000004393 prognosis Methods 0.000 description 1
- 102000004169 proteins and genes Human genes 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 210000001082 somatic cell Anatomy 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- RCINICONZNJXQF-MZXODVADSA-N taxol Chemical compound O([C@@H]1[C@@]2(C[C@@H](C(C)=C(C2(C)C)[C@H](C([C@]2(C)[C@@H](O)C[C@H]3OC[C@]3([C@H]21)OC(C)=O)=O)OC(=O)C)OC(=O)[C@H](O)[C@@H](NC(=O)C=1C=CC=CC=1)C=1C=CC=CC=1)O)C(=O)C1=CC=CC=C1 RCINICONZNJXQF-MZXODVADSA-N 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000005751 tumor progression Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/155—Segmentation; Edge detection involving morphological operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种基于人工智能的图像处理方法、装置、计算机设备和存储介质。所述方法包括:获取待处理图像;对待处理图像进行元素区域检测,以确定待处理图像中的元素区域;采用基于人工智能的目标元素区域检测方式,检测出待处理图像中的目标元素区域;对所检测出的目标元素区域寻找包络,生成目标元素包络区域;融合元素区域和目标元素包络区域,获得目标元素区域轮廓。采用本方法能够对图像进行准确地区域检测划分。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种基于人工智能的图像处理方法、装置、计算机设备和存储介质。
背景技术
计算机视觉(Computer Vision,CV)是使用计算机及相关设备对生物视觉的一种模拟,它的主要任务就是通过对采集的图片或视频进行处理以获得相应场景的三维信息,就像人类和许多其他类生物每天所做的那样。其中,物体识别和检测作为计算机视觉中非常基础且重要的一个研究方向。物体识别和检测,即给定一张输入图片,自动找出图片中的常见物体,并将其所属类别及位置输出出来,具体如人脸检测、车辆检测、组织检测等,在制造业、检验、文档分析、医疗诊断和军事等领域中得到了广泛的应用。
目前的物体识别和检测处理方法中,往往只是对单个对象进行识别检测,而对图像中包括目标对象区域轮廓无法进行有效的识别和划分,导致图像区域划分的准确度较低。
发明内容
基于此,有必要针对上述技术问题,提供一种能够对图像进行准确地区域检测划分的基于人工智能的图像处理方法、装置、计算机设备和存储介质。
一种基于人工智能的图像处理方法,所述方法包括:
获取待处理图像;
对待处理图像进行元素区域检测,以确定待处理图像中的元素区域;
采用基于人工智能的目标元素区域检测方式,检测出待处理图像中的目标元素区域;
对所检测出的目标元素区域寻找包络,生成目标元素包络区域;
融合元素区域和目标元素包络区域,获得目标元素区域轮廓。
一种基于人工智能的图像处理装置,所述装置包括:
图像获取模块,用于获取待处理图像;
元素区域检测模块,用于对待处理图像进行元素区域检测,以确定待处理图像中的元素区域;
目标元素区域检测模块,用于采用基于人工智能的目标元素区域检测方式,检测出待处理图像中的目标元素区域;
包络生成模块,用于对所检测出的目标元素区域寻找包络,生成目标元素包络区域;
区域融合模块,用于融合元素区域和目标元素包络区域,获得目标元素区域轮廓。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取待处理图像;
对待处理图像进行元素区域检测,以确定待处理图像中的元素区域;
采用基于人工智能的目标元素区域检测方式,检测出待处理图像中的目标元素区域;
对所检测出的目标元素区域寻找包络,生成目标元素包络区域;
融合元素区域和目标元素包络区域,获得目标元素区域轮廓。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取待处理图像;
对待处理图像进行元素区域检测,以确定待处理图像中的元素区域;
采用基于人工智能的目标元素区域检测方式,检测出待处理图像中的目标元素区域;
对所检测出的目标元素区域寻找包络,生成目标元素包络区域;
融合元素区域和目标元素包络区域,获得目标元素区域轮廓。
上述基于人工智能的图像处理方法、装置、计算机设备和存储介质,通过基于人工智能的目标元素区域检测方式检测出待处理图像中的目标元素区域,并对标元素区域寻找包络得到目标元素包络区域,再融合通过元素区域检测确定的元素区域和目标元素包络区域,得到目标元素区域轮廓。通过对基于人工智能的目标元素区域检测方式检测出目标元素区域寻找包络,可以有效利用人工智能的目标元素区域检测方式的检测结果,得到准确的目标元素包络区域,同时通过融合待处理图像中的元素区域和目标元素包络区域,可以利用元素区域检测的结果对目标元素包络区域进行校正,提高了检测划分的目标元素区域轮廓的准确度。
附图说明
图1为一个实施例中基于人工智能的图像处理方法的应用环境图;
图2为一个实施例中基于人工智能的图像处理方法的流程示意图;
图3为一个实施例中元素区域检测的流程示意图;
图4为一个实施例中HE染色图像中肿瘤的示意图;
图5为传统IC占比值分析方法的流程示意图;
图6为一个实施例中HE染色WSI图像和PD-L1染色WSI图像的对比图;
图7为另一个实施例中HE染色WSI图像和PD-L1染色WSI图像的对比图;
图8为又一个实施例中HE染色WSI图像和PD-L1染色WSI图像的对比图;
图9为另一个实施例中基于人工智能的图像处理方法的流程示意图;
图10为一个实施例中色彩分割处理的结果示意图;
图11为图10所示实施例中二值化分割处理的结果示意图;
图12为一个实施例中的染色图像;
图13为图12所示实施例中检测出切片组织区域的结果示意图;
图14为一个实施例中的网络模型结构;
图15为一个实施例中模型输出的癌细胞区域概率图;
图16为图15实施例中判定得到的癌细胞区域结果示意图;
图17为图16实施例中的连通域检测结果示意图;
图18为图17实施例中去除黑洞后的去除结果示意图;
图19为图18实施例中形态学扩张后的结果示意图;
图20为图16和图18所示实施例中融合的结果示意图;
图21为图20实施例中叠加染色图像的结果示意图;
图22为一个实施例中基于人工智能的图像处理装置的结构框图;
图23为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。其中,计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能***。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR(Optical CharacterRecognition,光学字符识别)、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
本申请实施例提供的方案涉及人工智能的计算机视觉技术,具体通过如下实施例进行说明。
本申请提供的基于人工智能的图像处理方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104进行通信。终端102采集得到待处理图像,如风景图像、场面图像、切片图像等,终端102将待处理图像发送至服务器104进行目标元素区域轮廓的检测划分处理。服务器104接收到待处理图像后,通过基于人工智能的目标元素区域检测方式检测出待处理图像中的目标元素区域,并对标元素区域寻找包络得到目标元素包络区域,再融合通过元素区域检测确定的元素区域和目标元素包络区域,得到目标元素区域轮廓。其中,终端102可以但不限于是具备拍摄功能各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,还可以为各种摄像设备或扫描设备等能够采集图像的设备,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图2所示,提供了一种基于人工智能的图像处理方法,以该方法应用于图1中的服务器为例进行说明,包括以下步骤:
步骤202,获取待处理图像。
其中,待处理图像是需要进行区域检测划分的图像,待处理图像可以为在各种场景中拍摄或扫描的图像,如野外场景拍摄的风景图像、人群聚集场景拍摄的场面图像、医学场景中扫描的切片图像等各种类型的图像。待处理图像中包括拍摄或扫描抓取到的元素,如风景图像中拍摄到的树木、场景图像中拍摄的人等,且元素有不同的类别,如不同物种的树木、不同性别的人等,目前的图像识别中大多只是对图像中的元素进行判断,无法准确对不同类别元素的区域,而无法得到目标元素区域轮廓在图像中的分布,不利于后续基于待处理图像进行图像分析,如分析图像的树木中各种杨树的形状、场面图像中各男性的形体等。
具体地,待处理图像可以由拍摄设备拍摄得到,或由扫描设备扫描获得,并通过网络发送至服务器,由服务器对接收到的待处理图像进行目标元素区域轮廓的识别划分处理,从而确定待处理图像中目标元素区域轮廓的分布,便于后续的图像分析。在具体实现时,目标元素可以根据实际需要进行设置,如待处理图像中包括的元素为树木时,目标元素可以为设定的树木物种;又如待处理图像中包括的元素为细胞时,目标元素可以为特定类型的细胞,如白细胞、体细胞、癌细胞等。
步骤204,对待处理图像进行元素区域检测,以确定待处理图像中的元素区域。
其中,元素待处理图像中拍摄或扫描抓取到的对象,而需要检测的目标元素的区域轮廓是元素中的某种类型,如树木为元素,则目标元素可以为树木的不同器官(如树叶,树干等)或不同物种类型的树木等;又如元素为狗,目标元素可以为狗的不同部位。元素区域指元素在待处理图像中分布的范围,如各种物种的树木在待处理图像中的分布范围。在具体应用时,元素根据图像处理的实际场景进行确定,如元素还可以为切片图像中的细胞,则元素区域为切片图像中的细胞区域,即切片组织区域。元素区域检测用于检测出待处理图像中的元素区域,具体可以通过各种对象检测算法,如R-CNN(Regions withConvolutional Neural Networks features,基于卷积神经网络特征的区域)算法、YOLO(You Only Look Once,只看一次)算法、SSD(Single Shot Detector,单镜头探测器)算法等对待处理图像进行元素区域检测,以确定待处理图像中的元素区域。此外,还可以利用先验知识,如利用待处理图像中元素和非元素的色彩特征先验知识,利用待处理图像中各像素点的色彩特征检测出待处理图像中的元素区域。
具体地,服务器获得待处理图像后,根据待处理图像中元素的类型特性确定对应的元素区域检测方式,通过该元素区域检测方式对待处理图像进行元素区域检测,以确定待处理图像中的元素区域。
步骤206,采用基于人工智能的目标元素区域检测方式,检测出待处理图像中的目标元素区域。
其中,目标元素可以元素中的子类别元素,即目标元素属于元素中需要针对检测出的元素。目标元素区域为目标元素在待处理图像的分布范围。目标元素区域检测方式基于人工智能实现,如可以为基于机器学习模型实现目标元素区域检测。例如,可以通过FCN(Fully Convolutional Networks,全卷积网络)模型、SegNet(A Deep ConvolutionalEncoder-Decoder Architecture for Image Segmentation,一种用于图像分割的深度卷积编码-解码架构)模型、Linknet(Relational Embedding for Scene Graph,场景图的关系嵌入)模型等各种图像分割算法模型对目标元素区域进行检测,得到待处理图像中的目标元素区域。
具体地,在对待处理图像进行目标元素区域检时,基于人工智能的目标元素区域检测方式,如采用预训练的检测模型对待处理图像进行目标元素区域检测方式,检测出待处理图像中的目标元素区域。
步骤208,对所检测出的目标元素区域寻找包络,生成目标元素包络区域。
目标元素包络区域为基于目标元素区域寻找包络而获得的初步的目标元素区域轮廓。具体地,在基于人工智能的目标元素区域检测方式检测出待处理图像中的目标元素区域后,服务器对该目标元素区域寻找包络,具体可以通过连通各目标元素区域,寻找到能够包括各目标元素区域的包络线,根据包络线包围的区域生成目标元素包络区域,通过对目标元素区域寻找包络,可以减小图像处理过程中误差的影响,得到准确的目标元素包络区域。
在具体实现时,服务器可以将目标元素区域进行连通,获得连通区域,再由服务器将连通区域的范围内的非目标元素区域去除,从而确保连通区域范围内均为准确的目标元素识别结果,最后由服务器对去除了非目标元素区域的连通区域进行平滑处理,如通过形态学扩张进行平滑处理,获得具有平滑边缘的目标元素包络区域,同时通过形态学扩张对较小的区域进行去噪处理,提高了目标元素包络区域识别划分的准确性。
步骤210,融合元素区域和目标元素包络区域,获得目标元素区域轮廓。
得到元素区域和目标元素包络区域后,将二者融合,得到目标元素区域轮廓,其整体展现了目标元素在待处理图像中的分布范围。具体地,服务器可以求取元素区域和目标元素包络区域之间的交集,将元素区域和目标元素包络区域的交集确定为最终的目标元素区域轮廓。目标元素区域轮廓综合了待处理图像进行元素区域检测的检测结果和待处理图像基于人工智能的目标元素区域检测结果,能够有效减小单一检测方式中的误差影响,目标元素区域轮廓检测划分的准确度高。
上述基于人工智能的图像处理方法中,通过基于人工智能的目标元素区域检测方式检测出待处理图像中的目标元素区域,并对标元素区域寻找包络得到目标元素包络区域,再融合通过元素区域检测确定的元素区域和目标元素包络区域,得到目标元素区域轮廓。通过对基于人工智能的目标元素区域检测方式检测出目标元素区域寻找包络,可以有效利用人工智能的目标元素区域检测方式的检测结果,得到准确的目标元素包络区域,同时通过融合待处理图像中的元素区域和目标元素包络区域,可以利用元素区域检测的结果对目标元素包络区域进行校正,提高了检测划分的目标元素区域轮廓的准确度。
在一个实施例中,如图3所示,元素区域检测的处理过程,即对待处理图像进行元素区域检测,以确定待处理图像中的元素区域包括:
步骤302,确定待处理图像中各像素点对应的通道差值特征。
本实施例中,利用元素色彩特征的先验知识对待处理图像进行元素区域检测,从而确定待处理图像中的元素区域。具体地,待处理图像中的元素和非元素具有明显不同的颜色差异,如雪地场景的待处理图像中雪和非雪有明显颜色差异时,可以根据待处理图像中各像素点的颜色特征实现元素区域检测;又如生理切片的染色图像中,染色元素和非染色元素具有明显颜色差异,可以根据染色图像中各像素点的颜色特征实现染色元素区域的检测。
其中,通道差值特征用于描述待处理图像中各像素点的颜色特征,具体可根据像素点的各颜色通道对应通道值之间的差值得到。例如,待处理图像为RGB彩色图像时,待处理图像中每个像素点分别对应于R、G和B三个色彩通道,则通道差值特征可以根据R、G和B三个色彩通道的通道值之间的差值得到,如可以根据R、G和B三个色彩通道的通道值中最大差值得到。在具体应用时,可以遍历待处理图像中各像素点对应于各色彩通道的通道值,并根据各通道值确定对应像素点的通道差值特征。
步骤304,基于各像素点对应的通道差值特征将待处理图像进行色彩分割,获得色彩分割图像。
其中,色彩分割图像根据各像素点对应的通道差值特征对待处理图像进行色彩分割处理得到,如可以根据各像素点对应的通道差值特征对待处理图像的各像素点的像素值进行更新,实现利用各像素点对应的通道差值特征对待处理图像进行色彩分割,得到色彩分割图像。色彩分割图像反映了待处理图像的色彩特征,例如,若通道差值特征为各色彩通道的通道值中最大差值,色彩分割时直接将通道差值特征替换对应的像素点的像素值时,那么得到的色彩分割图像反映了待处理图像的各像素点偏向灰度或偏向彩色,如果偏向于灰度,则各色彩通道的通道值中最大差值较小,通道差值特征的数值较小,那么色彩分割图像中对应的像素点偏向于黑色,反之则色彩分割图像中对应的像素点偏向于白色,从而根据色彩分割图像可以直观确定待处理图像中的彩色区域和非彩色区域,若待处理图像是对元素进行染色得到的染色图像,那么待处理图像中的彩色区域即为元素区域,从而利用先验知识实现对元素区域的有效检测。
具体地,获得待处理图像中各像素点对应的通道差值特征后,基于各通道差值特征对待处理图像进行色彩分割,如基于各通道差值特征对待处理图像中对应的像素点的像素值进行更新,以实现利用通道差值特征对待处理图像进行色彩分割,得到色彩分割图像。
步骤306,对色彩分割图像进行二值化分割,获得待处理图像中的元素区域。
其中,二值化分割为通过二值化处理将色彩分割图像进一步进行分割,从而确定待处理图像中的元素区域。具体地,可以通过预设的二值化分割阈值遍历色彩分割图像中的像素点进行二值化处理,将色彩分割图像中的各像素点的像素值进行二值映射,如可以映射为白色或黑色,从而可以根据二值化分割结果直观确定待处理图像中的元素区域。二值化分割阈值可以根据实际需要进行灵活设置,如可以设置为确定的像素值,也可以根据色彩分割图像中各像素点的像素值进行设定,以更准确地对色彩分割图像进行二值化分割。
具体地,在得到色彩分割图像后,服务器对色彩分割图像进行二值化分割,如服务器可以获取预设的二值化分割阈值,或根据待处理图像中各像素点对应的通道差值特征设置二值化分割阈值,并通过该二值化分割阈值对色彩分割图像进行二值化分割,从而根据二值化分割结果得到待处理图像中的元素区域。
在具体应用时,可以预先对待处理图像进行感兴趣区域划分,如以大小为100*100像素的感兴趣区域划分待处理图像,获得待处理图像对应的各感兴趣区域,并分别对各感兴趣区域进行元素区域检测,得到各感兴趣区域内的元素区域,最后通过拼接各感兴趣区域内的元素区域,得到待处理图像中的元素区域。通过感兴趣区域对待处理图像进行划分后进行元素区域检测,可以减少单次元素区域检测处理的数据量,而且可以对各感兴趣区域进行并行处理,能够有效提高元素区域检测的处理效率。
本实施例中,利用元素色彩特征的先验知识对待处理图像进行色彩分割,并结合二值化分割进一步对色彩分割图像进行映射分割,可以在有效利用先验知识进行准确元素区域检测的同时,通过二值化分割增加元素区域和非元素区域的对比程度,进一步提高了元素区域检测的准确性,从而准确确定待处理图像中的元素区域。
在一个实施例中,确定待处理图像中各像素点对应的通道差值特征,包括:确定待处理图像中各像素点对应的像素值;根据像素值得到相应像素点的各色彩通道值;确定各色彩通道值之间的最大通道差值,并根据最大通道差值得到通道差值特征。
本实施例中,根据待处理图像中每个像素点对应于各色彩通道的通道值之间的最大通道差值得到通道差值特征,并基于该最大通道差值对待处理图像中各像素点进行像素值映射,以实现对待处理图像的色彩分割,得到色彩分割图像。其中,待处理图像中各像素点的色彩通道值对应于像素点在每个色彩通道的数值,色彩通道值的取值与待处理图像所处的色彩空间相关。例如,待处理图像为RGB图像,则待处理图像的色彩空间包括R、G和B,对应包括3个色彩通道值,如对于某一像素点的像素值为(123,15,255),则该像素点的色彩通道值分别为123、15和255。最大通道差值指像素点对应的各色彩通道值之间差值的最大值,具体可以将各色彩通道值进行两两求差,根据计算得到的差值寻找最大值得到。最大通道差值反映了像素点在各色彩通道的差异程度,最大通道差值越大,则像素点对应于各色彩通道的差异越大,像素点的色彩越丰富,该像素点偏向于彩色;若最大通道差值越小,则像素点对应于各色彩通道的差异越小,像素点的色彩不丰富,该像素点偏向于灰度。
具体地,在确定待处理图像中各像素点对应的通道差值特征时,服务器确定待处理图像中各像素点对应的像素值,具体可以由服务器遍历待处理图像中各像素点,读取各像素点的像素值。得到各像素点对应的像素值后,服务器对各像素点对应的像素值进行解析,确定各像素点的各色彩通道值。一般地,像素点的像素值由各色彩通道的色彩通道值按照一定顺序组合得到,基于像素值和色彩通道图像的组合规则,可以根据像素值确定对应于各色彩通道的色彩通道值。服务器将各色彩通道值两两进行求差,根据求差结果确定该像素点的最大通道差值。此外,服务器也可以分别从各色彩通道值中确定最大值和最小值,根据该最大值和最小值的差值的绝对值直接确定该像素点的最大通道差值。服务器根据获得的最大通道差值得到通道差值特征,如可以直接将最大通道差值作为对应像素点的通道差值特征。
进一步地,基于各像素点对应的通道差值特征将待处理图像进行色彩分割,获得色彩分割图像,包括:按照各像素点对应的最大通道差值对待处理图像进行像素值映射,获得色彩分割图像。
其中,像素值映射指基于最大通道差值对待处理图像中各像素点的像素值进行映射处理,以根据最大通道差值对待处理图像进行色彩分割,如可以根据最大通道差值确定对应的通道差值像素,并根据通道差值像素更新待处理图像中相应像素点的像素值,从而实现对待处理图像的色彩分割,在遍历待处理图像中的所有像素点后,得到色彩分割图像。
具体地,服务器确定待处理图像中各像素点对应的最大通道差值后,按照各像素点对应的最大通道差值对待处理图像中相应像素点的像素值进行像素值映射,以基于最大通道差值更新对应像素点的像素值,实现对待处理图像的色彩分割。例如,服务器可以根据最大通道差值生成通道差值像素,如待处理图像中某一像素点的最大通道差值为200,则可以生成RGB通道差值像素(200,200,200),并将该通道差值像素映射为该像素点的像素值,以通过最大通道差值对像素点的像素值进行映射,实现对待处理图像的色彩分割,得到色彩分割图像。
本实施例中,根据待处理图像中每个像素点对应于各色彩通道的通道值之间的最大通道差值得到通道差值特征,并基于该最大通道差值对待处理图像中各像素点进行像素值映射,可以有效利用各像素点的色彩特征对待处理图像进行准确的色彩分割,确保色彩分割图像的准确度。
在一个实施例中,对色彩分割图像进行二值化分割,获得待处理图像中的元素区域,包括:对色彩分割图像进行去噪处理,得到去噪图像;获取二值化分割阈值;基于二值化分割阈值和去噪图像中各像素点对应的像素值,对去噪图像进行二值化分割,得到待处理图像中的元素区域。
其中,对色彩分割图像进行去噪,如对色彩分割图像进行模糊去噪,以去除色彩分割图像中的噪声,进一步提高色彩分割图像的可信度。二值化分割阈值可以根据实际需要预先设置,如可以预设为确定的像素值,也可以根据色彩分割图像中各像素点的像素值进行预先设定。二值化分割为通过二值化处理将色彩分割图像进一步进行分割,具体可以根据二值化分割阈值和去噪图像中各像素点对应的像素值之间的大小关系将各像素点进行二值化分割,从而根据二值化分割得到待处理图像中的元素区域。
具体地,在对色彩分割图像进行二值化分割时,服务器对色彩分割图像进行去噪处理,如服务器可以对色彩分割图像进行高斯模糊去噪,通过高斯模糊去噪可以让一个像素点的强度与周围的点相关,减小突变的影响,得到去除干扰的去噪图像。服务器获取二值化分割阈值,具体可以查询预先设定的二值化分割阈值,也可以根据色彩分割图像或去噪图像中各像素点的像素值确定二值化分割阈值。例如,可以根据待处理图像中各像素点对应的最大通道差值确定二值化分割阈值。此外,若待处理图像被划分为各感兴趣区域分别进行元素区域检测时,二值化分割阈值则可以根据各感兴趣区域分别进行设置,如根据各感兴趣区域中各像素点对应的最大通道差值确定二值化分割阈值,从而对各感兴趣区域的二值化分割阈值进行灵活设置,提高二值化分割阈值对各感兴趣区域的适配,提高二值化分割的有效性,确保元素区域的划分准确度。得到二值化分割阈值后,服务器基于二值化分割阈值和去噪图像中各像素点对应的像素值对去噪图像进行二值化分割,如服务器可以根据二值化分割阈值和去噪图像中各像素点对应的像素值的大小关系,将去噪图像中各像素点对应的像素值进行二值化映射,实现对去噪图像的二值化分割,得到待处理图像中的元素区域。
本实施例中,对色彩分割图像进行去噪处理去除色彩分割图像中的噪声后,基于二值化分割阈值对去噪图像进行二值化分割,以通过二值化分割阈值将去噪图像进行分割,准确划分出待处理图像中的元素区域和非元素区域。
在一个实施例中,基于二值化分割阈值和去噪图像中各像素点对应的像素值,对去噪图像进行二值化分割,得到待处理图像中的元素区域,包括:确定去噪图像中各像素点对应的像素值;基于二值化分割阈值分别对去噪图像中各像素点对应的像素值进行像素二值化映射,获得去噪图像中各像素点对应的像素映射结果;根据去噪图像中各像素点对应的像素映射结果获得待处理图像中的元素区域。
本实施例中,通过二值化分割阈值对去噪图像中各像素点对应的像素值进行像素二值化映射,并根据各像素点对应的像素映射结果获得所述待处理图像中的元素区域。具体地,在对去噪图像进行二值化分割时,服务器确定去噪图像中各像素点对应的像素值,如可以遍历去噪图像中各像素点,确定各像素点对应的像素值。服务器遍历去噪图像中各像素点,基于二值化分割阈值对去噪图像中各像素点对应的像素值进行像素二值化映射,具体根据将二值化分割阈值与各像素点对应的像素值分别进行数值比较,将像素值大于二值化分割阈值的像素点,以及像素值不大于二值化分割阈值的像素点分别映射为不同像素值,如分别映射为黑色或白色的像素值,从而直观地将待处理图像中的元素像素点和非元素像素点进行划分,根据各元素像素点即可确定待处理图像中的元素区域。其中,元素像素点指待处理图像中属于元素的像素点,非元素像素点为不属于元素的像素点,即元素区域的各像素点均为元素像素点,而非元素区域中的像素点均为非元素像素点。在基于二值化分割阈值分别对去噪图像中各像素点对应的像素值进行像素二值化映射,获得去噪图像中各像素点对应的像素映射结果后,服务器根据各像素点对应的像素映射结果得到待处理图像中的元素区域。例如,在将去噪图像中各像素点对应的像素值二值化映射后,可以将像素映射结果中映射为元素像素值的像素点确定为元素像素点,而将映射为非元素像素值的像素点确定为非元素像素点。例如,在元素像素值为白色,非元素像素值为黑色时,将去噪图像中像素映射结果为白色的像素点确定为元素像素点,将像素映射结果为黑色的像素点确定为非元素像素点,根据像素映射结果为白色的区域中的所有元素像素点可以确定待处理图像中的元素区域,从而实现对元素区域的准确分割。
在一个实施例中,采用基于人工智能的目标元素区域检测方式,检测出待处理图像中的目标元素区域,包括:查询采用标注目标元素区域的训练图像数据预训练的目标元素区域检测模型;通过目标元素区域检测模型对待处理图像进行目标元素区域检测,得到目标元素区域概率图;对目标元素区域概率图进行目标元素区域判定,根据判定结果得到待处理图像中的目标元素区域。
其中,目标元素区域检测模型通过标注目标元素区域的训练图像数据预训练得到,目标元素区域检测模型可以对输入的图像进行目标元素区域检测,输出目标元素区域概率图。目标元素区域概率图表征了待处理图像中各像素点为目标元素的概率,通过对目标元素区域概率图中的概率进行判定,可以确定待处理图像中的目标元素区域。
具体地,在对待处理图像进行目标元素区域检测时,服务器查询预训练的目标元素区域检测模型,目标元素区域检测模型通过标注目标元素区域的训练图像数据训练得到,相比于标注目标元素区域轮廓,标注目标元素区域的训练图像数据训练可以直接基于特征明显的目标元素进行标注,标注更准确,能够确保训练图像数据的训练效果。服务器通过查询得到的目标元素区域检测模型对待处理图像进行目标元素区域检测,具体可以将待处理图像输入目标元素区域检测模型中进行目标元素区域检测,由目标元素区域检测模型输出检测结果,检测结果包括目标元素区域概率图。服务器对目标元素区域检测模型输出的目标元素区域概率图进行判定,以确定目标元素区域概率图中各像素点是否为目标元素,从而根据判定结果确定待处理图像中的目标元素区域。
本实施例中,通过标注目标元素区域的训练图像数据预训练得到的目标元素区域检测模型对待处理图像进行目标元素区域检测,并对目标元素区域检测模型输出的目标元素区域概率图进行判定,确定待处理图像中的目标元素区域,通过预训练的目标元素区域检测模型进行目标元素区域检测,可以实现对目标元素区域的有效检测,从待处理图像中识别出准确的目标元素区域。
在一个实施例中,通过目标元素区域检测模型对待处理图像进行目标元素区域检测,得到目标元素区域概率图,包括:获取待处理图像经过区域划分处理获得的各感兴趣区域;分别将各感兴趣区域输入目标元素区域检测模型进行目标元素区域检测,得到目标元素区域检测模型输出的各感兴趣区域分别对应的感兴趣区域概率图;将各感兴趣区域概率图进行拼接,得到待处理图像对应的目标元素区域概率图。
本实施例中,在将待处理图像划分成各感兴趣区域后,由目标元素区域检测模型分别对各感兴趣区域进行目标元素区域检测,并将各感兴趣区域对应的检测结果拼接,得到待处理图像对应的目标元素区域检测结果。其中,感兴趣区域通过对待处理图像进行区域划分得到,如可以按照预设的尺寸对待处理图像进行区域划分,从而将待处理图像划分为若干个感兴趣区域,降低了单次处理的数据量,提高数据的处理效率。在具体实现时,感兴趣区域的尺寸可以根据实际需要进行设置,可以直接设置固定的尺寸大小,如设置为1000*1000像素。
具体地,在通过目标元素区域检测模型对待处理图像进行目标元素区域检测时,服务器获取待处理图像经过区域划分处理获得的各感兴趣区域。其中,感兴趣区域的区域划分可以在对待处理图像进行元素区域检测时实现,则在对待处理图像进行目标元素区域检测时,直接获取元素区域检测时区域划分得到的各感兴趣区域。服务器将各感兴趣区域输入目标元素区域检测模型中进行目标元素区域检测,获得由目标元素区域检测模型输出的各感兴趣区域概率图。感兴趣区域概率图记录了对应感兴趣区域中的像素点检测为目标元素区域的概率。服务器将各感兴趣区域分别对应的感兴趣区域概率图进行拼接,得到待处理图像对应的目标元素区域概率图,从而实现对待处理图像的目标元素区域检测。
本实施例中,通过目标元素区域检测模型分别对待处理图像经过区域划分处理获得的各感兴趣区域进行目标元素区域检测,并将各感兴趣区域对应的检测结果拼接,得到待处理图像对应的目标元素区域检测结果,可以减少单次目标元素区域检测处理的数据量,而且可以对各感兴趣区域进行并行处理,能够有效提高目标元素区域检测的处理效率。
在一个实施例中,对目标元素区域概率图进行目标元素区域判定,根据判定结果得到待处理图像中的目标元素区域,包括:获取概率阈值;基于概率阈值和目标元素区域概率图中各像素点对应的概率值,对目标元素区域概率图进行概率二值化映射,获得目标元素区域概率图中各像素点的概率映射结果;根据目标元素区域概率图中各像素点的概率映射结果得到待处理图像中的目标元素区域。
其中,概率阈值根据实际需要预先设置,如可以设置为0.5,概率阈值用于对目标元素区域概率图进行目标元素区域判定,根据目标元素区域判定确定待处理图像中的目标元素区域。具体地,在得到目标元素区域检测模型输出的目标元素区域概率图后,服务器获取预设的概率阈值,概率阈值用于对目标元素区域概率图中各像素点的概率值进行二值化映射。服务器基于概率阈值和目标元素区域概率图中各像素点对应的概率值,对目标元素区域概率图进行概率二值化映射,具体可以由服务器分别比较目标元素区域概率图中各像素点对应的概率值和概率阈值的大小,根据比较结果将各像素点进行概率二值化映射,获得目标元素区域概率图中各像素点的概率映射结果。例如,概率阈值为0.5,若目标元素区域概率图中像素点A的概率值为0.8,像素点B的概率值为0.2,则将像素点A的像素值映射为白色像素值,将像素点A的像素值映射为黑色像素值,从而实现对像素点A和像素点B的二值化映射,在遍历所有像素点后,实现对目标元素区域概率图的二值化映射。得到目标元素区域概率图中各像素点的概率映射结果后,服务器基于各概率映射结果得到所述待处理图像中的目标元素区域,如服务器可以根据各概率映射结果中映射为目标元素像素值的像素点确定为目标元素像素点,并根据所有目标元素像素点确定待处理图像中的目标元素区域。
本实施例中,通过预设的概率阈值对目标元素区域概率图进行概率二值化映射,以根据目标元素区域概率图中各像素点的概率映射结果确定待处理图像中的目标元素区域,通过对二值化映射可以直观对待处理图像中的目标元素区域和非目标元素区域进行准确划分,确保了目标元素区域划分的准确度。
在一个实施例中,对所检测出的目标元素区域寻找包络,生成目标元素包络区域,包括:对待处理图像中的目标元素区域进行区域连通,生成目标元素连通区域;去除处于目标元素连通区域内的非目标元素区域,得到更新后的目标元素连通区域;对更新后的目标元素连通区域进行形态学扩张,获得目标元素包络区域。
本实施例中,将所检测出的目标元素区域进行区域连通后,去除连通区域内的非目标元素,从而对连通区域的范围内部进行非目标元素过滤,再通过形态学扩张对连通区域的边缘进行平滑处理,同时实现对连通区域边较小区域的去噪,从而实现了对所检测出的目标元素区域寻找包络,得到了识别划分准确性高的目标元素包络区域。
具体地,在检测出待处理图像中的目标元素区域后,服务器对待处理图像中的目标元素区域进行区域连通,具体可以通过预设尺寸的滤波器遍历待处理图像中的目标元素区域和非目标区域,以通过滤波器将待处理图像中的目标元素区域进行区域连通,生成目标元素连通区域。服务器再对生成的目标元素连通区域范围内非目标元素进行滤除,从而确保目标元素连通区域内部均为目标元素。具体地,服务器去除处于目标元素连通区域内的非目标元素区域,如服务器可以直接将处于目标元素连通区域内的非目标元素区域更新为目标元素区域,得到更新后的目标元素连通区域。更新后的目标元素连通区域的内部均为目标元素区域。进一步地,服务器对更新后的目标元素连通区域的边缘进行平滑处理,具体通过对更新后的目标元素连通区域进行形态学扩张,得到目标元素包络区域。通过对更新后的目标元素连通区域进行形态学扩张,可以对更新后的目标元素连通区域的边缘进行平滑处理,同时针对更新后的目标元素连通区域边缘较小区域进行有效去噪,进一步提高了目标元素包络区域的识别划分准确度。
在一个实施例中,对待处理图像中的目标元素区域进行区域连通,生成目标元素连通区域,包括:将待处理图像中的目标元素区域和非目标区域进行滤波划分,得到各滤波区域;基于各滤波区域中像素点的像素值进行区域类型分析,获得分析结果;将分析结果为连通区域类型的滤波区域进行连通,生成目标元素连通区域。
本实施例中,在将待处理图像中的目标元素区域和非目标区域划分为各滤波区域后,分别对各滤波区域进行区域类型分析,基于分析结果确定滤波区域是否为连通区域类型,并将连通区域类型的滤波区域进行连通,生成目标元素连通区域。
具体地,在连通待处理图像中的目标元素区域时,服务器对待处理图像中的目标元素区域和非目标区域进行滤波划分,得到各滤波区域。其中,滤波划分的大小可以根据滤波器的大小确定,如滤波器的大小为10*10像素时,则根据滤波器将待处理图像中的目标元素区域和非目标区域划分得到若各个10*10像素大小的滤波区域。确定各滤波区域后,服务器对各滤波区域中像素点的像素值进行区域类型分析,具体可以由服务器对遍历各滤波区域,针对每个中滤波区域的各像素点,若检测到存在目标元素像素点,即滤波区域中存在目标元素像素点,则确定该滤波区域的类型为连通区域类型,即可以将该滤波区域认定为目标元素区域的区域,即可以将该滤波区域进行连通。得到各滤波器的分析结果后,服务器将各滤波区域中对应分析结果为连通区域类型的滤波区域进行连通,得到目标元素连通区域。在具体实现时,在连通各连通区域类型的滤波区域时,服务器将各连通区域类型的滤波区域中的像素点的像素值均映射为目标元素像素值,再将映射处理后的各连通区域类型的滤波区域进行连通,从而生成目标元素连通区域。
在具体应用中,可以直接通过设定的滤波器遍历待处理图像,对于滤波器处理各滤波区域的范围中,若存在目标元素像素点,如可以根据滤波器处理的范围中各像素点的像素值进行判断,若存在目标元素像素点对应的像素值,则认为存在目标元素像素点,将该滤波区域确定为连通区域类型,并将该连通区域内的各像素点的像素值映射为目标元素像素点对应的像素值。例如,若目标元素像素点对应的像素值为白色像素值,若滤波器在滤波区域中检测到白色像素点时,则将该滤波区域的所有像素点均映射为白色像素点,即确定该滤波区域为需要进行连通处理的区域。在滤波器遍历待处理图像处理完成后,连通各连通区域类型的滤波区域,生成目标元素连通区域。
在一个实施例中,基于人工智能的图像处理方法还包括:将目标元素区域轮廓叠加至待处理图像中,并通过预定的标识方式在待处理图像中标识出目标元素区域轮廓。
其中,标识方式可以根据实际需要预先灵活设置,如可以为高亮颜色的轮廓线条、符号等。具体地,在从待处理图像中划分检测到目标元素区域轮廓后,服务器将该目标元素区域轮廓叠加至待处理图像中,并通过预定的标识方式在待处理图像中标识出目标元素区域轮廓,从而在待处理图像中直观的标识出目标元素区域轮廓,便于后续基于目标元素区域轮廓和待处理图像进行图像分析。
本申请还提供一种应用场景,该应用场景应用上述的基于人工智能的图像处理方法。具体地,该基于人工智能的图像处理方法在该应用场景的应用如下:
待处理图像为风景图像、场面图像等,其中元素为风景中风景物体对象,如树木、雪、砂石等,或者元素为场景图像中的人物或动物;目标元素为不同物种的数目或数目的不同部位,或者为不同的人物或动物,如男性、女性、儿童或老人等,目标元素也可以为场面图像中的狗、猫等不同物种的动物,此外,目标元素也可以为人物或动物的不同部位,如人物的毛发、脸部等各种部位,又如为动物的躯干、四肢或头部等:目标元素根据需要检测的区域轮廓确定。
在一个具体应用中,服务器获取拍摄得到的风景图像,对风景图像进行元素区域检测,确定风景图像中的树木区域。另一方面,采用基于人工智能的目标元素区域检测方式,检测出风景图像中的树叶区域,并对所检测出的树叶区域寻找包络,生成树叶包络区域,融合树木区域和树叶包络区域,得到树叶区域轮廓,该树叶区域轮廓直观展示了风景图像中树叶区域轮廓的分布,便于后续图像分析。
本申请还另外提供一种应用场景,该应用场景应用上述的基于人工智能的图像处理方法。具体地,该基于人工智能的图像处理方法在该应用场景的应用如下:
本应用场景中,待处理图像为WSI(Whole Slide Image,全视野数字病理切片)染色图像,元素为切片中的细胞,目标元素为不同类型的细胞,如可以为白细胞、T细胞或癌细胞等。
在一具体的应用中,WSI染色图像为基于乳腺病理PD-L1(programmed celldeath-Ligand 1,程序性死亡因子配体1,为PD-1的配体)方法的切片图像。在乳腺癌治疗中,用PD-L1方法可以获得免疫细胞数量(PD-L1的表达),基于该免疫细胞数量进一步评估抵御癌症的能力,即通过估计染色的免疫细胞(IC,immune cell)在肿瘤区域占比数值,用于选择癌症治疗的用药方法。然而,对免疫细胞数量估计目前只有定性方法,没有定量方法,导致对于IC比例值估计不准确。
目前,免疫组织化学法评估基于PD-1(programmed death 1,程序性死亡分子受体1,它是免疫细胞T细胞表面的一种受体蛋白)/PD-L1的免疫疗效已成为研究的重点和热点。PD-L1表达变化与肿瘤进展和不良预后有关,PD-L1被认为是预测预后的有效生物标志物。乳腺癌是女性最常见的恶性肿瘤,精准医学则为乳腺癌更加精细化、个体化的治疗提供了契机。当前已提出结合紫杉醇蛋白结合剂用于治疗无法切除的局部晚期TNBC(Triple-Negative Breast Cancer,三阴性乳腺癌)或转移性TNBC的诊疗方法。如图4所示,包括5种HE染色图像中肿瘤的表现情况。在图A中,为HE染色图像放大10倍后局部观测图像,可以看出,切片组织染色后可以划分成肿瘤周围间质和肿瘤区域中的肿瘤内间质。图B-E为不同切片组织染色的结果,通过该HE染色图像可以确定肿瘤的分布情况,以便后续进行诊疗分析。罗氏公司提出了基于SP142染色剂判读IC值的指导方法,具体先观察HE染色(hematoxylin-eosin staining,苏木精-伊红染色法)WSI图像,获取HE染色图像中的肿瘤区域,再将观察结果对应到PD-L1的染色图像中,进一步结合估计HE染色图像和PD-L1染色图像确定IC占比值(IC score)。
如图5所示,传统的IC占比值分析过程中,先观察HE染色WSI图像,确定肿瘤区域,再将HE染色WSI图像的观察结果对应到PD-L1染色WSI图像中,结合二者估计IC占比值进行图像分析。具体地,在观察HE染色WSI图像时,需要确定HE染色WSI图像中是否存在肿瘤和坏死,同时为确保充分性,需要检测到至少50个活的肿瘤细胞及间质,此外还可以估计肿瘤区域的面积。由此可知,传统的IC占比值估计的处理方法中,需要2种不同的WSI染色图像,即需要做2个玻片,一个用HE染色剂染色,一个用PD-L1染色剂染色,明显增加了图像分析的工作量。而且,两种染色剂获得的图像难以保持完全一致的,因为制作2个不同染色的玻片,需要从蜡块上切下2片不同的癌症组织,从获取的WSI图像上会有误差,以及位置的平移、旋转等,影响IC占比值的估计。如图6-8所示,为不同实施例中HE染色WSI图像和PD-L1染色WSI图像的对比,可以看出,图6中HE染色WSI图像和PD-L1染色WSI图像有一定程度的旋转,图7中HE染色WSI图像和PD-L1染色WSI图像产生了翻转,图8中HE染色WSI图像和PD-L1染色WSI图像有一定程度的旋转和平移。所以,从HE染色WSI图像上获取的肿瘤组织区域,并在PD-L1染色WSI图像上找到相同的区域,将肿瘤区域对应到PD-L1染色WSI图像进行IC占比值估计时,难以进行有效的对应,导致IC占比值估计的准确度大打折扣,导致图像分析的准确度较低。
基于此,本申请提供基于人工智能的图像处理方法应用于该场景中,可以有效准确对目标元素区域的轮廓进行划分检测,便于后续IC占比值的图像分析处理。具体地,如图9所示,服务器获取染色图像,染色图像为通过PD-L1染色剂对WSI图像进行染色处理后得到的图像,服务器对染色图像分别进行组织细胞检测和癌细胞区域检测,得到切片组织区域和癌细胞区域,服务器将切片组织区域和癌细胞区域进行融合后确定肿瘤区域轮廓,并将肿瘤区域轮廓叠加到染色图像中,以便后续可以直接根据叠加结果进行IC占比值估计,而不需要对比两份染色图像进行分析,可以有效确保IC占比值估计的准确度。
进一步地,对于切片组织区域检测,可以利用先验知识进行有效检测,即非组织区域更偏向灰度,组织区域存在明显染色,因此判断一个像素点更接近灰色或者更接近彩色,就可以判断该像素点是属于背景区域还是属于染色的组织细胞。而考虑到WSI图像的尺寸较大,可以先将染色图像进行区域划分,得到各ROI(Region of Interest,感兴趣区域),通过逐个遍历处理每个ROI,实现组织区域检测。具体在每个ROI里,利用像素点色彩差值计算局部阈值,实现基于当前ROI的背景区域和组织区域的分割,从而从染色图像中分割出切片组织区域。对于每个ROI,切片组织区域检测如下式(1),
Diffroi(x,y)=Abs{Max[ROI(x,y,i)]|i=1,2,3-Min[ROI(x,y,i)]|i=1,2,3} (1)
其中,Diffroi(x,y)指在ROI内的(x,y)点的不同的三个色彩通道(i=1,2,3)中,像素值的最大值和最小值的差值。其中,Max[ROI(x,y,i)]|i=1,2,3用于确定(x,y)点的三个色彩通道的最大值,Min[ROI(x,y,i)]|i=1,2,3用于确定(x,y)点的三个色彩通道的最小值,Abs{ }用于确定最大值和最小值的差值的绝对值。本实施例中,图像的色彩通道(i=1,2,3)是R,G和B三个通道,此外也可以是其他色彩空间的通道,如HSV(Hue-Saturation-Value,色调-饱和度-明度)色彩空间。一般地,如果某个像素点是彩色像素,则Abs{ }的值较大;如果是灰度像素,则Abs{ }的值相对较小。如图10所示,为一个实施例中,对左侧的染色图像ROI(x,y)进行色彩分割后得到右侧的色彩分割图像Diffroi(x,y),在色彩分割图像中,灰色像素区域为切片组织区域。
得到色彩分割图像后,进一步对色彩分割图像进行二值化分割,从而确定待处理图像中的元素区域。具体处理如下式(2),
Maskroi(x,y)=Binary{GaussianBlur[Diffroi(x,y)]}|Thresh=Diff(x,y)/10 (2)
其中,先对色彩分割图像Diffroi(x,y)进行模糊去噪,具体使用高斯模糊去噪GaussianBlur[ ],然后,针对每个像素点进行二值化Binary{}计算,具体二值化分割阈值Thresh=Diff(x,y)/10进行二值化分割,得到二值化分割结果Maskroi(x,y),根据二值化分割结果可以确定染色图像中的切片组织。如图11所示,为图10所示实施例中对色彩分割图像进行二值化分割处理后得到的二值化分割结果,其中白色区域即为切片组织区域。
如图12-13所示,在一个实施例中,图12为染色图像,图13为针对图12的染色图像进行切片组织检测后确定的切片组织区域(白色区域)。
另一方面,对于癌细胞区域检测处理,通过预训练的Linknet网络模型(Chaurasia2017)对染色图像进行癌细胞区域检测。如图14,Linknet网络模型结构中,conv表示卷积,full-conv表示转置卷积。/2表示因子为2的下采样,使用带步长的卷积来实现。*2表示因子为2的上采样。在卷积层之间使用BN(Batch Normalization,是批标准化)和ReLU(Rectified Linear Unit,线性整流函数)。左半部分是Encoder Block(编码器),右半部分是Decoder Block(解码器)。Encoder Block开始处有一个initial block(初始块),其余部分由残差块组成。训练网络模型使用900标注图像(832*832像素,0.848微米/像素)。在具体应用时,若具有针对肿瘤细胞区域的标注数据,可以直接训练模型进行肿瘤区域检测,但实际工程中,足够的标注非常难获得,且肿瘤区域实际上包含了较为复杂的各种病理组织,即使进行标注,也比较难训练深度学***时可以结束训练,得到训练完成的模型。
使用训练完成的Linknet网络模型对染色图像的ROT逐个进行预测,然后拼接,获得预测癌细胞区域概率图,其值是0~1。基于癌细胞区域概率图,使用概率阈值0.5进行二值化映射,获得二值化的癌细胞区域结果。如图15所示,为一个实施例中基于Linknet网络模型对染色图像进行癌细胞区域预测得到的癌细胞区域概率图;如图16所示,为使用概率阈值0.5对癌细胞区域概率图进行二值化映射处理后得到的癌细胞区域结果。其中,白色区域为癌细胞区域。
进一步地,在得到切片组织区域和癌细胞区域的后处理中,考虑到连接癌细胞区域之间的间质,寻找整个癌细胞区域的包络,即确定肿瘤区域。在寻找癌细胞区域的包络时,通过计算连通区域实现,具体使用10*10像素的滤波器,逐个遍历检测出癌细胞区域的图像,在10*10像素范围内,只要有像素大于0的像素存在(白色像素点),则整个10*10像素的ROI视为连通区域。其中,10*10像素的滤波器对应使用在约50微米/像素的缩放后的图像上。进一步地,使用4*4的圆形kernel(核)实现形态学扩张,获取平滑的边缘,同时针对较小的区域进行去噪,进一步提高了癌症区域整体轮廓的准确度。
如图17所示,为针对图16所示的癌细胞区域进行区域连通后得到的连通域检测结果;图18为针对图17中的连通域检测结果去除黑洞后的去除结果;图19为针对图18的去除结果进行形态学扩张后得到的癌症区域的整体轮廓结果。
在得到癌症区域的整体轮廓结果后,将切片组织区域和癌症区域的整体轮廓结果进行融合,具体可以通过计算二者的交集,得到肿瘤区域。肿瘤区域指的是癌细胞区域,以及癌细胞区域之间的部分间质。切片组织区域检测能获取全部组织的区域,这些区域包括了肿瘤区域和非肿瘤区域,利用癌细胞区域检测,可以判定非肿瘤区域,融合这两个结果可以得到肿瘤区域的检测结果。如图20,为融合图18中的癌细胞区域和图16中切片组织区域得到的癌细胞区域轮廓,即肿瘤区域的结果。进一步地,将肿瘤区域叠加到最初的染色图像中,以将检测出的肿瘤区域直接在染色图像中进行标记。如图21所示,为将图20中的肿瘤区域叠加到染色图像后进行标记的展示效果,可以看出,肿瘤区域边缘比较贴合,同时非肿瘤区域的染色区域也得到较好的去除。
应该理解的是,虽然图2-3的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-3中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图22所示,提供了一种基于人工智能的图像处理装置2200,该装置可以采用软件模块或硬件模块,或者是二者的结合成为计算机设备的一部分,该装置具体包括:图像获取模块2202、元素区域检测模块2204、目标元素区域检测模块2206、包络生成模块2208和区域融合模块2210,其中:
图像获取模块2202,用于获取待处理图像;
元素区域检测模块2204,用于对待处理图像进行元素区域检测,以确定待处理图像中的元素区域;
目标元素区域检测模块2206,用于采用基于人工智能的目标元素区域检测方式,检测出待处理图像中的目标元素区域;
包络生成模块2208,用于对所检测出的目标元素区域寻找包络,生成目标元素包络区域;
区域融合模块2210,用于融合元素区域和目标元素包络区域,获得目标元素区域轮廓。
本实施例中,由目标元素区域检测模块通过基于人工智能的目标元素区域检测方式检测出待处理图像中的目标元素区域,并由包络生成模块对标元素区域寻找包络得到目标元素包络区域,再由区域融合模块融合由元素区域检测模块通过元素区域检测确定的元素区域和目标元素包络区域,得到目标元素区域轮廓。通过对基于人工智能的目标元素区域检测方式检测出目标元素区域寻找包络,可以有效利用人工智能的目标元素区域检测方式的检测结果,得到准确的目标元素包络区域,同时通过融合待处理图像中的元素区域和目标元素包络区域,可以利用元素区域检测的结果对目标元素包络区域进行校正,提高了检测划分的目标元素区域轮廓的准确度。
在一个实施例中,元素区域检测模块2204包括通道差值特征确定模块、色彩分割模块和二值化分割模块;其中:通道差值特征确定模块,用于确定待处理图像中各像素点对应的通道差值特征;色彩分割模块,用于基于各像素点对应的通道差值特征将待处理图像进行色彩分割,获得色彩分割图像;二值化分割模块,用于对色彩分割图像进行二值化分割,获得待处理图像中的元素区域。
在一个实施例中,通道差值特征确定模块包括像素值确定模块、通道值确定模块和最大通道差确定模块;其中:像素值确定模块,用于确定待处理图像中各像素点对应的像素值;通道值确定模块,用于根据像素值得到相应像素点的各色彩通道值;最大通道差确定模块,用于确定各色彩通道值之间的最大通道差值,并根据最大通道差值得到通道差值特征;色彩分割模块,还用于按照各像素点对应的最大通道差值对待处理图像进行像素值映射,获得色彩分割图像。
在一个实施例中,二值化分割模块包括去噪模块、分割阈值获取模块和分割处理模块;其中:去噪模块,用于对色彩分割图像进行去噪处理,得到去噪图像;分割阈值获取模块,用于获取二值化分割阈值;分割处理模块,用于基于二值化分割阈值和去噪图像中各像素点对应的像素值,对去噪图像进行二值化分割,得到待处理图像中的元素区域。
在一个实施例中,分割处理模块包括像素值分析模块、二值化映射模块和映射结果分析模块;其中:像素值分析模块,用于确定去噪图像中各像素点对应的像素值;二值化映射模块,用于基于二值化分割阈值分别对去噪图像中各像素点对应的像素值进行像素二值化映射,获得去噪图像中各像素点对应的像素映射结果;映射结果分析模块,用于根据去噪图像中各像素点对应的像素映射结果获得待处理图像中的元素区域。
在一个实施例中,目标元素区域检测模块2206包括模型查询模块、模型处理模块和模型结果处理模块;其中:模型查询模块,用于查询采用标注目标元素区域的训练图像数据预训练的目标元素区域检测模型;模型处理模块,用于通过目标元素区域检测模型对待处理图像进行目标元素区域检测,得到目标元素区域概率图;模型结果处理模块,用于对目标元素区域概率图进行目标元素区域判定,根据判定结果得到待处理图像中的目标元素区域。
在一个实施例中,模型处理模块包括感兴趣区域模块、概率图获得模块和概率图拼接模块;其中:感兴趣区域模块,用于获取待处理图像经过区域划分处理获得的各感兴趣区域;概率图获得模块,用于分别将各感兴趣区域输入目标元素区域检测模型进行目标元素区域检测,得到目标元素区域检测模型输出的各感兴趣区域分别对应的感兴趣区域概率图;概率图拼接模块,用于将各感兴趣区域概率图进行拼接,得到待处理图像对应的目标元素区域概率图。
在一个实施例中,模型结果处理模块包括概率阈值获取模块、概率阈值映射模块和目标元素区域模块;其中:概率阈值获取模块,用于获取概率阈值;概率阈值映射模块,用于基于概率阈值和目标元素区域概率图中各像素点对应的概率值,对目标元素区域概率图进行概率二值化映射,获得目标元素区域概率图中各像素点的概率映射结果;目标元素区域模块,用于根据目标元素区域概率图中各像素点的概率映射结果得到待处理图像中的目标元素区域。
在一个实施例中,包络生成模块2208包括区域连通模块、区域填充模块和区域扩张模块;其中:区域连通模块,用于对待处理图像中的目标元素区域进行区域连通,生成目标元素连通区域;区域填充模块,用于去除处于目标元素连通区域内的非目标元素区域,得到更新后的目标元素连通区域;区域扩张模块,用于对更新后的目标元素连通区域进行形态学扩张,获得目标元素包络区域。
在一个实施例中,区域连通模块包括滤波区域获得模块、区域类型分析模块和连通处理模块;其中:滤波区域获得模块,用于将待处理图像中的目标元素区域和非目标区域进行滤波划分,得到各滤波区域;区域类型分析模块,用于基于各滤波区域中像素点的像素值进行区域类型分析,获得分析结果;连通处理模块,用于将分析结果为连通区域类型的滤波区域进行连通,生成目标元素连通区域。
在一个实施例中,还包括叠加处理模块,用于将目标元素区域轮廓叠加至待处理图像中,并通过预定的标识方式在待处理图像中标识出目标元素区域轮廓。
关于基于人工智能的图像处理装置的具体限定可以参见上文中对于基于人工智能的图像处理方法的限定,在此不再赘述。上述基于人工智能的图像处理装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图23所示。该计算机设备包括通过***总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***、计算机程序和数据库。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的数据库用于存储数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于人工智能的图像处理方法。
本领域技术人员可以理解,图23中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述各方法实施例中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (15)
1.一种基于人工智能的图像处理方法,其特征在于,所述方法包括:
获取待处理图像;
对所述待处理图像进行元素区域检测,以确定所述待处理图像中的元素区域;
采用基于人工智能的目标元素区域检测方式,检测出所述待处理图像中的目标元素区域;
对所检测出的所述目标元素区域寻找包络,生成目标元素包络区域;
融合所述元素区域和所述目标元素包络区域,获得目标元素区域轮廓。
2.根据权利要求1所述的方法,所述对所述待处理图像进行元素区域检测,以确定所述待处理图像中的元素区域,包括:
确定所述待处理图像中各像素点对应的通道差值特征;
基于所述各像素点对应的通道差值特征将所述待处理图像进行色彩分割,获得色彩分割图像;
对所述色彩分割图像进行二值化分割,获得所述待处理图像中的元素区域。
3.根据权利要求2所述的方法,所述确定所述待处理图像中各像素点对应的通道差值特征,包括:
确定所述待处理图像中各像素点对应的像素值;
根据所述像素值得到相应像素点的各色彩通道值;
确定所述各色彩通道值之间的最大通道差值,并根据所述最大通道差值得到通道差值特征;
所述基于所述各像素点对应的通道差值特征将所述待处理图像进行色彩分割,获得色彩分割图像,包括:
按照所述各像素点对应的最大通道差值对所述待处理图像进行像素值映射,获得色彩分割图像。
4.根据权利要求2所述的方法,所述对所述色彩分割图像进行二值化分割,获得所述待处理图像中的元素区域,包括:
对所述色彩分割图像进行去噪处理,得到去噪图像;
获取二值化分割阈值;
基于所述二值化分割阈值和所述去噪图像中各像素点对应的像素值,对所述去噪图像进行二值化分割,得到所述待处理图像中的元素区域。
5.根据权利要求4所述的方法,所述基于所述二值化分割阈值和所述去噪图像中各像素点对应的像素值,对所述去噪图像进行二值化分割,得到所述待处理图像中的元素区域,包括:
确定所述去噪图像中各像素点对应的像素值;
基于所述二值化分割阈值分别对所述去噪图像中各像素点对应的像素值进行像素二值化映射,获得所述去噪图像中各像素点对应的像素映射结果;
根据所述去噪图像中各像素点对应的像素映射结果获得所述待处理图像中的元素区域。
6.根据权利要求1所述的方法,所述采用基于人工智能的目标元素区域检测方式,检测出所述待处理图像中的目标元素区域,包括:
查询采用标注目标元素区域的训练图像数据预训练的目标元素区域检测模型;
通过所述目标元素区域检测模型对所述待处理图像进行目标元素区域检测,得到目标元素区域概率图;
对所述目标元素区域概率图进行目标元素区域判定,根据判定结果得到所述待处理图像中的目标元素区域。
7.根据权利要求6所述的方法,所述通过所述目标元素区域检测模型对所述待处理图像进行目标元素区域检测,得到目标元素区域概率图,包括:
获取所述待处理图像经过区域划分处理获得的各感兴趣区域;
分别将所述各感兴趣区域输入所述目标元素区域检测模型进行目标元素区域检测,得到所述目标元素区域检测模型输出的所述各感兴趣区域分别对应的感兴趣区域概率图;
将各所述感兴趣区域概率图进行拼接,得到所述待处理图像对应的目标元素区域概率图。
8.根据权利要求6所述的方法,所述对所述目标元素区域概率图进行目标元素区域判定,根据判定结果得到所述待处理图像中的目标元素区域,包括:
获取概率阈值;
基于所述概率阈值和所述目标元素区域概率图中各像素点对应的概率值,对所述目标元素区域概率图进行概率二值化映射,获得所述目标元素区域概率图中各像素点的概率映射结果;
根据所述目标元素区域概率图中各像素点的概率映射结果得到所述待处理图像中的目标元素区域。
9.根据权利要求1至8任意一项所述的方法,所述对所检测出的所述目标元素区域寻找包络,生成目标元素包络区域,包括:
对所述待处理图像中的目标元素区域进行区域连通,生成目标元素连通区域;
去除处于所述目标元素连通区域内的非目标元素区域,得到更新后的目标元素连通区域;
对更新后的目标元素连通区域进行形态学扩张,获得目标元素包络区域。
10.根据权利要求9所述的方法,所述对所述待处理图像中的目标元素区域进行区域连通,生成目标元素连通区域,包括:
将所述待处理图像中的目标元素区域和非目标区域进行滤波划分,得到各滤波区域;
基于各所述滤波区域中像素点的像素值进行区域类型分析,获得分析结果;
将分析结果为连通区域类型的滤波区域进行连通,生成目标元素连通区域。
11.根据权利要求1至10任意一项所述的方法,所述方法还包括:
将所述目标元素区域轮廓叠加至所述待处理图像中,并通过预定的标识方式在所述待处理图像中标识出所述目标元素区域轮廓。
12.一种基于人工智能的图像处理装置,所述装置包括:
图像获取模块,用于获取待处理图像;
元素区域检测模块,用于对所述待处理图像进行元素区域检测,以确定所述待处理图像中的元素区域;
目标元素区域检测模块,用于采用基于人工智能的目标元素区域检测方式,检测出所述待处理图像中的目标元素区域;
包络生成模块,用于对所检测出的所述目标元素区域寻找包络,生成目标元素包络区域;
区域融合模块,用于融合所述元素区域和所述目标元素包络区域,获得目标元素区域轮廓。
13.根据权利要求12所述的装置,所述元素区域检测模块包括:
通道差值特征确定模块,用于确定所述待处理图像中各像素点对应的通道差值特征;
色彩分割模块,用于基于所述各像素点对应的通道差值特征将所述待处理图像进行色彩分割,获得色彩分割图像;
二值化分割模块,用于对所述色彩分割图像进行二值化分割,获得所述待处理图像中的元素区域。
14.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至11中任一项所述的方法的步骤。
15.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至11中任一项所述的方法的步骤。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011202281.0A CN112330688A (zh) | 2020-11-02 | 2020-11-02 | 基于人工智能的图像处理方法、装置和计算机设备 |
EP21884964.4A EP4198889A4 (en) | 2020-11-02 | 2021-10-18 | IMAGE PROCESSING METHOD AND APPARATUS BASED ON ARTIFICIAL INTELLIGENCE, AND COMPUTER DEVICE AND STORAGE MEDIUM |
JP2023513664A JP7412636B2 (ja) | 2020-11-02 | 2021-10-18 | 人工知能に基づく画像処理方法、装置、コンピュータ装置及びコンピュータプログラム |
PCT/CN2021/124384 WO2022089236A1 (zh) | 2020-11-02 | 2021-10-18 | 基于人工智能的图像处理方法、装置、计算机设备和存储介质 |
US17/960,804 US20230023585A1 (en) | 2020-11-02 | 2022-10-05 | Artificial intelligence-based image processing method and apparatus, computer device and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011202281.0A CN112330688A (zh) | 2020-11-02 | 2020-11-02 | 基于人工智能的图像处理方法、装置和计算机设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112330688A true CN112330688A (zh) | 2021-02-05 |
Family
ID=74324041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011202281.0A Pending CN112330688A (zh) | 2020-11-02 | 2020-11-02 | 基于人工智能的图像处理方法、装置和计算机设备 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230023585A1 (zh) |
EP (1) | EP4198889A4 (zh) |
JP (1) | JP7412636B2 (zh) |
CN (1) | CN112330688A (zh) |
WO (1) | WO2022089236A1 (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112950700A (zh) * | 2021-02-25 | 2021-06-11 | 安徽农业大学 | 基于深度学习和图像处理的植物叶片气孔导度测量方法 |
CN113724276A (zh) * | 2021-08-04 | 2021-11-30 | 香港中文大学(深圳) | 一种息肉图像的分割方法和装置 |
CN113744126A (zh) * | 2021-08-06 | 2021-12-03 | Oppo广东移动通信有限公司 | 图像处理方法及装置、计算机可读介质和电子设备 |
WO2022089236A1 (zh) * | 2020-11-02 | 2022-05-05 | 腾讯科技(深圳)有限公司 | 基于人工智能的图像处理方法、装置、计算机设备和存储介质 |
CN115690130A (zh) * | 2022-12-30 | 2023-02-03 | 杭州咏柳科技有限公司 | 一种图像处理方法和装置 |
CN116630325A (zh) * | 2023-07-25 | 2023-08-22 | 苏州赫芯科技有限公司 | 基于电路板的uv胶检测方法、设备和存储介质 |
CN117153277A (zh) * | 2023-07-11 | 2023-12-01 | 湖北星火(应城)化工有限公司 | 一种甲基磺酰氯生产过程中的反应状态识别方法 |
CN117197006A (zh) * | 2023-09-27 | 2023-12-08 | 上海世禹精密设备股份有限公司 | 区域过滤方法、装置、电子设备及计算机可读存储介质 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109934812B (zh) * | 2019-03-08 | 2022-12-09 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、服务器及存储介质 |
CN115170974B (zh) * | 2022-09-08 | 2022-12-20 | 深圳市勘察研究院有限公司 | 基于ai智能检测溶洞连通性的方法及装置 |
CN115797494B (zh) * | 2023-02-06 | 2023-05-23 | 武汉精臣智慧标识科技有限公司 | 图片二值化处理方法、装置、电子设备及存储介质 |
CN116152248B (zh) * | 2023-04-20 | 2023-06-30 | 中科慧远视觉技术(北京)有限公司 | 外观缺陷的检测方法及装置、存储介质、计算机设备 |
CN116503804B (zh) * | 2023-04-28 | 2023-11-10 | 东莞理工学院 | 基于图像处理的粗集料形态特征获取方法和*** |
CN116342592B (zh) * | 2023-05-25 | 2023-07-25 | 山东沐泽中药饮片有限公司 | 用于蟾酥加工的蟾蜍腺体浆液烘干监测方法 |
CN116664550B (zh) * | 2023-07-10 | 2024-04-12 | 广州医科大学附属第一医院(广州呼吸中心) | 肺癌组织免疫组化pd-l1病理切片的智能识别方法及装置 |
CN117173185B (zh) * | 2023-11-03 | 2024-01-19 | 东北大学 | 轧制板材的区域检测方法及装置、存储介质、计算机设备 |
CN117333586A (zh) * | 2023-11-30 | 2024-01-02 | 浙江口碑网络技术有限公司 | 一种图像处理方法及装置、存储介质和电子设备 |
CN117422716B (zh) * | 2023-12-19 | 2024-03-08 | 沂水友邦养殖服务有限公司 | 基于人工智能的肉鸡养殖生态预警方法及*** |
CN117474902B (zh) * | 2023-12-25 | 2024-03-12 | 山东明佳科技有限公司 | 一种桶面料包的缺包检测方法、***、设备和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012181743A (ja) * | 2011-03-02 | 2012-09-20 | Ricoh Co Ltd | 画像処理装置及び画像処理方法 |
CN110544258A (zh) * | 2019-08-30 | 2019-12-06 | 北京海益同展信息科技有限公司 | 图像分割的方法、装置、电子设备和存储介质 |
CN111582004A (zh) * | 2019-02-15 | 2020-08-25 | 阿里巴巴集团控股有限公司 | 一种地面图像中的目标区域分割方法及装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1188148A2 (en) * | 2000-01-27 | 2002-03-20 | Koninklijke Philips Electronics N.V. | Method and system for extracting spine geometrical data |
ES2711196T3 (es) * | 2010-07-30 | 2019-04-30 | Fund D Anna Sommer Champalimaud E Dr Carlos Montez Champalimaud | Sistemas y procedimientos para la segmentación y el procesamiento de imágenes de tejidos y extracción de características de estos para tratar, diagnosticar o predecir afecciones médicas |
US9779504B1 (en) * | 2011-12-14 | 2017-10-03 | Atti International Services Company, Inc. | Method and system for identifying anomalies in medical images especially those including one of a pair of symmetric body parts |
JP7309703B2 (ja) * | 2018-06-07 | 2023-07-18 | 富士フイルム株式会社 | 画像診断支援装置、画像診断支援方法、及び画像診断支援プログラム |
CN108898610B (zh) * | 2018-07-20 | 2020-11-20 | 电子科技大学 | 一种基于mask-RCNN的物体轮廓提取方法 |
CN110909756A (zh) * | 2018-09-18 | 2020-03-24 | 苏宁 | 用于医学图像识别的卷积神经网络模型训练方法和装置 |
CN110059685B (zh) * | 2019-04-26 | 2022-10-21 | 腾讯科技(深圳)有限公司 | 文字区域检测方法、装置及存储介质 |
CN110118775B (zh) * | 2019-05-10 | 2021-11-19 | 重庆交通大学 | 厂拌水泥稳定碎石骨料组成快速检测方法 |
CN111047572B (zh) * | 2019-12-10 | 2023-04-07 | 南京安科医疗科技有限公司 | 一种基于Mask RCNN的医学图像中脊柱自动定位方法 |
CN112330688A (zh) * | 2020-11-02 | 2021-02-05 | 腾讯科技(深圳)有限公司 | 基于人工智能的图像处理方法、装置和计算机设备 |
-
2020
- 2020-11-02 CN CN202011202281.0A patent/CN112330688A/zh active Pending
-
2021
- 2021-10-18 JP JP2023513664A patent/JP7412636B2/ja active Active
- 2021-10-18 WO PCT/CN2021/124384 patent/WO2022089236A1/zh unknown
- 2021-10-18 EP EP21884964.4A patent/EP4198889A4/en active Pending
-
2022
- 2022-10-05 US US17/960,804 patent/US20230023585A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012181743A (ja) * | 2011-03-02 | 2012-09-20 | Ricoh Co Ltd | 画像処理装置及び画像処理方法 |
CN111582004A (zh) * | 2019-02-15 | 2020-08-25 | 阿里巴巴集团控股有限公司 | 一种地面图像中的目标区域分割方法及装置 |
CN110544258A (zh) * | 2019-08-30 | 2019-12-06 | 北京海益同展信息科技有限公司 | 图像分割的方法、装置、电子设备和存储介质 |
Non-Patent Citations (3)
Title |
---|
GÓMEZ-MORENO H, ET AL: "《Goal Evaluation of Segmentation Algorithms for Traffic Sign Recognition》", IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS, 12 July 2010 (2010-07-12), pages 917 - 930 * |
孙志海: "《视频运动目标检测及减法聚类定位技术研究》", 《中国博士学位论文全文数据库信息科技辑》, no. 4, 15 April 2011 (2011-04-15), pages 1 - 110 * |
王文豪;周泓;严云洋;: "一种基于连通区域的轮廓提取方法", 计算机工程与科学, no. 06, 15 June 2011 (2011-06-15) * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022089236A1 (zh) * | 2020-11-02 | 2022-05-05 | 腾讯科技(深圳)有限公司 | 基于人工智能的图像处理方法、装置、计算机设备和存储介质 |
CN112950700A (zh) * | 2021-02-25 | 2021-06-11 | 安徽农业大学 | 基于深度学习和图像处理的植物叶片气孔导度测量方法 |
CN113724276A (zh) * | 2021-08-04 | 2021-11-30 | 香港中文大学(深圳) | 一种息肉图像的分割方法和装置 |
CN113724276B (zh) * | 2021-08-04 | 2024-05-28 | 香港中文大学(深圳) | 一种息肉图像的分割方法和装置 |
CN113744126A (zh) * | 2021-08-06 | 2021-12-03 | Oppo广东移动通信有限公司 | 图像处理方法及装置、计算机可读介质和电子设备 |
CN115690130A (zh) * | 2022-12-30 | 2023-02-03 | 杭州咏柳科技有限公司 | 一种图像处理方法和装置 |
CN117153277A (zh) * | 2023-07-11 | 2023-12-01 | 湖北星火(应城)化工有限公司 | 一种甲基磺酰氯生产过程中的反应状态识别方法 |
CN116630325A (zh) * | 2023-07-25 | 2023-08-22 | 苏州赫芯科技有限公司 | 基于电路板的uv胶检测方法、设备和存储介质 |
CN116630325B (zh) * | 2023-07-25 | 2023-10-13 | 苏州赫芯科技有限公司 | 基于电路板的uv胶检测方法、设备和存储介质 |
CN117197006A (zh) * | 2023-09-27 | 2023-12-08 | 上海世禹精密设备股份有限公司 | 区域过滤方法、装置、电子设备及计算机可读存储介质 |
CN117197006B (zh) * | 2023-09-27 | 2024-05-10 | 上海世禹精密设备股份有限公司 | 区域过滤方法、装置、电子设备及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2022089236A1 (zh) | 2022-05-05 |
EP4198889A1 (en) | 2023-06-21 |
EP4198889A4 (en) | 2024-02-07 |
JP2023544967A (ja) | 2023-10-26 |
JP7412636B2 (ja) | 2024-01-12 |
US20230023585A1 (en) | 2023-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112330688A (zh) | 基于人工智能的图像处理方法、装置和计算机设备 | |
Laibacher et al. | M2u-net: Effective and efficient retinal vessel segmentation for real-world applications | |
Khameneh et al. | Automated segmentation of cell membranes to evaluate HER2 status in whole slide images using a modified deep learning network | |
Oskal et al. | A U-net based approach to epidermal tissue segmentation in whole slide histopathological images | |
Laibacher et al. | M2U-Net: Effective and efficient retinal vessel segmentation for resource-constrained environments | |
CN112419295A (zh) | 医学图像处理方法、装置、计算机设备和存储介质 | |
CN110023989B (zh) | 一种素描图像的生成方法及装置 | |
CN112633297B (zh) | 目标对象的识别方法、装置、存储介质以及电子装置 | |
US20150186755A1 (en) | Systems and Methods for Object Identification | |
Obara et al. | Bacterial cell identification in differential interference contrast microscopy images | |
EP4046061A1 (en) | Weakly supervised multi-task learning for cell detection and segmentation | |
CN111353385B (zh) | 一种基于掩膜对齐与注意力机制的行人再识别方法和装置 | |
Held et al. | Comparison of parameter‐adapted segmentation methods for fluorescence micrographs | |
Sharma et al. | A comparative study of cell nuclei attributed relational graphs for knowledge description and categorization in histopathological gastric cancer whole slide images | |
Kulshreshtha et al. | Brain image segmentation using variation in structural elements of morphological operators | |
CN117315210B (zh) | 一种基于立体成像的图像虚化方法及相关装置 | |
Fan et al. | Two-stage salient region detection by exploiting multiple priors | |
CN116258725B (zh) | 基于特征影像的医学图像处理方法、装置以及存储介质 | |
CN110363762B (zh) | 细胞检测方法、装置、智能显微镜***和可读存储介质 | |
Pollack et al. | Axon tracing and centerline detection using topologically-aware 3d u-nets | |
Khan et al. | Segmentation of single and overlapping leaves by extracting appropriate contours | |
Wang et al. | Water hazard detection using conditional generative adversarial network with mixture reflection attention units | |
Khadangi et al. | Automated framework to reconstruct 3D model of cardiac Z-disk: an image processing approach | |
Chokshi et al. | Image Segmentation: Classification and Implementation Techniques | |
Zhang et al. | A seeding-searching-ensemble method for gland segmentation in H&E-stained images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40038713 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |