CN117132646B - 基于深度学习的***相自动对焦*** - Google Patents

基于深度学习的***相自动对焦*** Download PDF

Info

Publication number
CN117132646B
CN117132646B CN202311399491.7A CN202311399491A CN117132646B CN 117132646 B CN117132646 B CN 117132646B CN 202311399491 A CN202311399491 A CN 202311399491A CN 117132646 B CN117132646 B CN 117132646B
Authority
CN
China
Prior art keywords
image
power mirror
focusing
split
phase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311399491.7A
Other languages
English (en)
Other versions
CN117132646A (zh
Inventor
张金超
卢沁阳
邹磊
穆阳
蔡昱峰
刘丽珏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan Zixing Wisdom Medical Technology Co ltd
Original Assignee
Hunan Zixing Wisdom Medical Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan Zixing Wisdom Medical Technology Co ltd filed Critical Hunan Zixing Wisdom Medical Technology Co ltd
Priority to CN202311399491.7A priority Critical patent/CN117132646B/zh
Publication of CN117132646A publication Critical patent/CN117132646A/zh
Application granted granted Critical
Publication of CN117132646B publication Critical patent/CN117132646B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Microscoopes, Condenser (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

本发明提供一种基于深度学习的***相自动对焦***,主要应用于低倍镜染色体***相扫描对焦拍摄,包括:图像采集模块,用于采集低倍镜和高倍镜下的显微图像;图像处理计算模块,用于将采集来的显微图像,输入到训练好的深度学习模型预测出最佳对焦参数;机械移动模块,用于将样品移动到预测的最佳对焦参数位置;图像存储模块,用于拍摄保存最清晰对焦图像;即对焦完成后进行图像采集与存储的流程;用户模块,用于提供图像浏览和相关操作界面。本发明推动了显微图像的自动化获得,使显微镜的应用更加便利高效,效果更佳,具有重要的技术进步意义。

Description

基于深度学习的***相自动对焦***
技术领域
本发明涉及医学人工智能技术领域,尤其涉及一种基于深度学习的***相自动对焦***。
背景技术
在生物医学研究中,光学显微镜是一种非常重要的观察和分析细胞及组织的工具。为了获得清晰的显微图像,需要精确调节光学***的焦平面与样本平面重合,这需要有经验的操作者通过反复调节完成。而对一些细胞内结构,如染色体在***期的图像,传统的自动对焦***效果并不理想。
随着深度学习技术的发展,诸如卷积神经网络等能够对复杂图像进行特征提取和分析的算法得到大力提升。这为利用深度学习来进行复杂图像的对焦点预测以及自动对焦提供了可能。与规则方法相比,深度学习可以自主学习样本的特征,对复杂细胞和组织结构的图像也能给出较优的对焦点预测。
另一方面,显微镜***的辅助设备,如精确电机驱动的XY移动台、Z轴定位装置等硬件性能也得到改进。这为根据预测结果自动控制光学路径的硬件基础。因此,深度学习与显微镜自动化***的发展为使用人工智能实现自动对焦提供了技术基础。
现有的自动对焦***存在依赖规则难以适应复杂样本、定位困难、对焦速度慢等问题。因此开发一种新的基于深度学习的自动对焦显微镜***,实现无人参与下快速精确对焦显微成像,将大大增强显微技术的易用性和效率,具有重要的研究意义和应用前景。
目前,自动对焦技术主要有以下两类:
(1)基于图像处理的方法:计算整幅图像的清晰度,搜索最佳对焦点。代表性技术有Sobel边缘检测法、灰度idency法等。
(2)基于结构光的方法:使用额外的激光***,根据其在样本上的反射来确定距离。典型技术如激光雷达等。
上述现有技术存在以下问题:
(1)依赖规则和经验,难以适应样本的复杂性;
(2)计算量大,对焦速度较慢(传统方法是在一个预定的Z轴范围内等间距拍摄多张图片,比如在50-70μm区间内拍摄25);
(3)定位和搜索范围设定不当时容易漏判(比如在50-70μm区间内不存在最佳对焦面);
(4)需要额外的光学装置,***复杂等。
现有自动对焦技术效果和效率有限,无法满足对复杂生物样本高效、精确对焦的需求。这需要一种新的对焦方法来克服上述问题,以提高显微图像的获得。
发明内容
本发明的目的在于提供一种基于深度学***面。
本申请提供了一种基于深度学习的***相自动对焦***,包括:
图像采集模块,用于采集低倍镜和高倍镜下的显微图像;
具体来说,显示从放置样本开始,调整镜头,进行Z轴扫描,获取不同位置图像等图像采集流程;
图像处理计算模块,用于将采集来的显微图像,输入到训练好的深度学习模型预测出最佳对焦参数;
具体来说,展示获取图像后进入深度学习网络,网络输出对焦参数,进行参数解析的图像处理流程;
机械移动模块,用于将样品移动到预测的最佳对焦参数位置;
具体来说,根据图像处理结果,精确移动对焦平面到视野中心,调节Z轴到预测焦距,实现对焦闭环的控制流程;
图像存储模块,用于拍摄保存最清晰对焦图像;即对焦完成后进行图像采集与存储的流程;
用户模块,用于提供图像浏览和相关操作界面;
所述的***相自动对焦***的实施过程如下:首先,低倍镜拍摄全景图输入到深度学***面z和x、y坐标;根据预测的对焦平面z和x、y坐标,机械***移动镜头到预测的最佳对焦位置,拍摄保存最清晰对焦图像。
进一步地,所述的图像采集模块包括显微镜本体模块和数字相机,所述显微镜本体模块采用光学显微镜,可切换不同倍数物镜,进行样品成像;所述数字相机用于拍摄低倍镜和高倍镜下的显微图像。
进一步地,所述的深度学习检测模型采用低倍镜检测模型,所述低倍镜检测模型用于检测在低倍镜图中***相的位置;
所述的深度学***面和高倍镜中***相位置。
进一步地,所述***相自动对焦***的具体实施步骤如下:
切换到低倍镜,拍摄全景图,输入到低倍镜检测模型找到***相位置;
机械***移动镜头组对准***相,切换到高倍镜;可以避免传统方法依赖低倍镜定位,容易出现移动过程中***相漂移、偏离视野,无法进行对焦,图像不清晰等的问题,本发明直接在高倍镜下识别定位,避免了移动误差,确保图像清晰;
Z轴移动到预设初位置Z0,拍摄第一张高倍镜图像;
Z轴向下移动一定距离到Z1,拍摄第二张高倍镜图像;
将两图像及其Z移动距离输入高倍镜回归模型,预测最佳对焦平面z和x、y坐标;本发明通过两张对焦图以及两张图之间的对焦距离,得到最佳的对焦参数,从而节省对焦时间和提高对焦精度,不会因为设置的范围问题导致丢失最佳对焦平面;
机械***移动样品到预测的最佳对焦位置;
拍摄保存最清晰对焦图像;
用户可以浏览获得的高分辨率对焦图像。
进一步地,所述的低倍镜检测模型的训练步骤为:
(1)收集多种类型样品的低倍镜图像;
(2)由专业人员标注图像中的***相位置和质量;
(3)标注数据输入低倍镜检测模型进行训练,使其能够定位不同样本的***相;
(4)得到训练好的模型,可用于自动定位最佳的***相。
进一步地,所述的高倍镜回归模型训练步骤为:
(1)收集同一视野不同对焦平面高倍镜图像及其 Z 轴距离;
(2)标注最佳对焦面距离和对应的***相中心坐标;
(3)不同对焦面图像及距离作为输入,最佳距离和坐标作为标签进行回归模型训练;
(4)得到训练好的模型,可预测高倍镜下最佳对焦参数。
进一步地,所述的机械移动模块采用精密的电动驱动器,实现镜头和样品的X、Y、Z方向移动。
进一步地,所述的图像存储模块对采集图像进行数字化存储。
本发明的有益效果:
1、实现了无人参与下的全自动对焦和成像操作,大幅简化了显微镜的使用难度;
2、基于深度学习的对焦参数预测更加准确和智能,适应不同样本;
3、直接在高倍镜下进行预测,避免了低倍到高倍的定位偏移,使得***相能在成像视野中心位置;
4、可以直接预测最佳对焦面位置,避免经验设置的范围限制;
5、计算速度快,对焦时间大大缩短,效率显著提升;减少了大量不必要的多次拍照,降低了图像存储和处理需求,
6、允许连续优化和改进算法模型,对焦效果持续进步;
7、扩大了自动对焦技术的应用范围,可广泛应用于生物医学等领域;
8、显著改进了显微镜对焦与成像的效率和效果,提升了研究工作的产出;
9、为各类显微观察和分析提供了强大的技术支持,促进相关领域技术进步;
综上,该发明推动了显微图像的自动化获得,使显微镜的应用更加便利高效,效果更佳,具有重要的技术进步意义。
附图说明
为了能更进一步了解本发明的特征以及技术内容,请参阅以下有关本发明的详细说明与附图,然而附图仅提供参考与说明用,并非用来对本发明加以限制。
图1为本发明的***模块结构图;
图2为发明的操作流程图;
图3为发明的***相自动对焦流程图;
图4为本发明实施例输入的第一张高倍镜图像;
图5为本发明实施例输入的第二张高倍镜图像;
图6为本发明实施例输出的高分辨率对焦图像。
具体实施方式
为更进一步阐述本发明所采取的技术手段及其效果,以下结合本发明的优选实施例及其附图进行详细描述。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本申请的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个特征。在本申请的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本申请中,“示例性”一词用来表示“用作例子、例证或说明”。本申请中被描述为“示例性”的任何实施例不一定被解释为比其他实施例更优选或更具优势。为了使本领域任何技术人员能够实现和使用本申请,给出了以下描述。在以下描述中,为了解释的目的而列出了细节。应当明白的是,本领域普通技术人员可以认识到,在不使用这些特定细节的情况下也可以实现本申请。在其他实例中,不会对公知的结构和过程进行详细阐述,以避免不必要的细节使本申请的描述变得晦涩。因此,本申请并非旨在限于所示的实施例,而是与符合本申请所公开的原理和特征的最广范围相一致。
实施例
请参阅图1-6,本发明提供一种基于深度学习的***相自动对焦***,包括:
图像采集模块,用于采集低倍镜和高倍镜下的显微图像;
图像处理计算模块,用于将采集来的显微图像,输入到训练好的深度学习模型预测出最佳对焦参数;
机械移动模块,用于将样品移动到预测的最佳对焦参数位置;
图像存储模块,用于拍摄保存最清晰对焦图像;即对焦完成后进行图像采集与存储的流程;
用户模块,用于提供图像浏览和相关操作界面。
具体实施步骤如下:
S1、切换到低倍镜,拍摄全景图,输入到低倍镜检测模型找到***相位置;
S2、机械***移动镜头组对准***相,切换到高倍镜;
S3、Z轴移动到预设初位置Z0,拍摄第一张高倍镜图像;
S4、Z轴向下移动一定距离到Z1,拍摄第二张高倍镜图像;
S5、将两图像及其Z移动距离输入高倍镜回归模型,预测最佳对焦平面z和x、y坐标;
S6、机械***移动镜头到预测的最佳对焦位置;
S7、拍摄保存最清晰对焦图像;
S8、用户可以浏览获得的高分辨率对焦图像。
其中,低倍镜检测模型训练步骤如下:
(1)收集多种类型样品(外周血、羊水等)的低倍镜图像;
(2)由专业人员标注图像中的***相位置和质量;
(3)标注数据输入检测模型进行训练,使其能够定位不同样本的***相;
(4)得到训练好的模型,可用于自动定位最佳的***相。
高倍镜回归模型训练如下:
(1)收集同一视野不同对焦平面高倍镜图像及其 Z 轴距离;
(2)标注最佳对焦面距离和对应的***相中心坐标;
(3)不同对焦面图像及距离作为输入,最佳距离和坐标作为标签进行回归模型训练;
(4)得到训练好的模型,可预测高倍镜下最佳对焦参数。
以上所述的本发明实施方式并不构成对本发明保护范围的限定。

Claims (5)

1.一种基于深度学习的***相自动对焦***,其特征在于,包括:
图像采集模块,用于采集低倍镜和高倍镜下的显微图像;
图像处理计算模块,用于将采集来的显微图像,输入到训练好的深度学习模型预测出最佳对焦参数;
机械移动模块,用于将样品移动到预测的最佳对焦参数位置;
图像存储模块,用于拍摄保存最清晰对焦图像;
用户模块,用于提供图像浏览和相关操作界面;
所述的***相自动对焦***的实施过程如下:首先,低倍镜拍摄全景图输入到深度学***面z和***相偏离位置x、y坐标;根据预测的对焦平面z和***相偏离位置x、y坐标,机械***移动镜头到预测的最佳对焦位置,拍摄保存最清晰对焦图像;
所述的深度学习检测模型采用低倍镜检测模型,所述低倍镜检测模型用于检测在低倍镜图中***相的位置;
所述的低倍镜检测模型的训练步骤为:
(1)收集多种类型样品的低倍镜图像;
(2)由专业人员标注图像中的***相位置和质量;
(3)标注数据输入低倍镜检测模型进行训练,使其能够定位不同样本的***相;
(4)得到训练好的模型,可用于自动定位最佳的***相;
所述的深度学***面和高倍镜中***相位置;
所述的高倍镜回归模型训练步骤为:
(1)收集同一视野不同对焦平面高倍镜图像及其 Z 轴距离;
(2)标注最佳对焦面距离和对应的***相中心坐标;
(3)不同对焦面图像及距离作为输入,最佳距离和坐标作为标签进行回归模型训练;
(4)得到训练好的模型,可预测高倍镜下最佳对焦参数。
2.如权利要求1所述的一种基于深度学习的***相自动对焦***,其特征在于,所述的图像采集模块包括显微镜本体模块和数字相机,所述显微镜本体模块采用光学显微镜,可切换不同倍数物镜,进行样品成像;所述数字相机用于拍摄低倍镜和高倍镜下的显微图像。
3.如权利要求1所述的一种基于深度学习的***相自动对焦***,其特征在于,所述***相自动对焦***的具体实施步骤如下:
切换到低倍镜,拍摄全景图,输入到低倍镜检测模型找到***相位置;
机械***移动镜头组对准***相,切换到高倍镜;
Z轴移动到预设初位置Z0,拍摄第一张高倍镜图像;
Z轴向下移动一定距离到Z1,拍摄第二张高倍镜图像;
将两图像及其Z移动距离输入高倍镜回归模型,预测最佳对焦平面z和***相偏离位置x、y坐标;
机械***移动样品到预测的最佳对焦位置;
拍摄保存最清晰对焦图像;
用户可以浏览获得的高分辨率对焦图像。
4.如权利要求1所述的一种基于深度学习的***相自动对焦***,其特征在于,所述的机械移动模块采用精密的电动驱动器,实现镜头和样品的X、Y、Z方向移动。
5.如权利要求1所述的一种基于深度学习的***相自动对焦***,其特征在于,所述的图像存储模块对采集图像进行数字化存储。
CN202311399491.7A 2023-10-26 2023-10-26 基于深度学习的***相自动对焦*** Active CN117132646B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311399491.7A CN117132646B (zh) 2023-10-26 2023-10-26 基于深度学习的***相自动对焦***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311399491.7A CN117132646B (zh) 2023-10-26 2023-10-26 基于深度学习的***相自动对焦***

Publications (2)

Publication Number Publication Date
CN117132646A CN117132646A (zh) 2023-11-28
CN117132646B true CN117132646B (zh) 2024-01-05

Family

ID=88854973

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311399491.7A Active CN117132646B (zh) 2023-10-26 2023-10-26 基于深度学习的***相自动对焦***

Country Status (1)

Country Link
CN (1) CN117132646B (zh)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0854557A (ja) * 1994-08-09 1996-02-27 Nikon Corp カメラのオートフォーカス装置
WO2002063367A1 (en) * 2001-02-02 2002-08-15 Cellomics, Inc. Method for estimating the best initial focus position
CN108111768A (zh) * 2018-01-31 2018-06-01 广东欧珀移动通信有限公司 控制对焦的方法、装置、电子设备及计算机可读存储介质
CN110531484A (zh) * 2019-07-24 2019-12-03 中国地质大学(武汉) 一种对焦过程模型可设定的显微镜自动对焦方法
CN111007661A (zh) * 2019-12-02 2020-04-14 湖南国科智瞳科技有限公司 一种基于深度学习的显微图像自动聚焦方法及装置
CN112037185A (zh) * 2020-08-21 2020-12-04 湖南自兴智慧医疗科技有限公司 染色体***相图像筛选方法、装置及终端设备
WO2020259474A1 (zh) * 2019-06-28 2020-12-30 Oppo广东移动通信有限公司 追焦方法、装置、终端设备、计算机可读存储介质
CN112333379A (zh) * 2020-09-17 2021-02-05 北京迈格威科技有限公司 图像对焦方法、装置及图像采集设备
WO2021136050A1 (zh) * 2019-12-31 2021-07-08 华为技术有限公司 一种图像拍摄方法及相关装置
CN115496761A (zh) * 2022-11-17 2022-12-20 湖南自兴智慧医疗科技有限公司 基于ae的低倍镜***相筛图方法、***及存储介质
CN116149041A (zh) * 2023-02-20 2023-05-23 华中科技大学无锡研究院 一种基于深度学习的裂像自动对焦方法
CN116309192A (zh) * 2023-05-22 2023-06-23 深圳赛陆医疗科技有限公司 基因测序图像对焦矫正方法及装置、设备、存储介质
CN116612092A (zh) * 2023-05-25 2023-08-18 浙江农林大学 一种基于改进的MobileViT网络的显微镜图像清晰度评价方法
CN116931247A (zh) * 2023-06-16 2023-10-24 宁波永新光学股份有限公司 一种面向多区域切片扫描的快速对焦方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2775349B1 (en) * 2007-03-08 2021-08-11 Cellavision AB A method for determining an in-focus position and a vision inspection system
US10672136B2 (en) * 2018-08-31 2020-06-02 Snap Inc. Active image depth prediction
DE102018219867B4 (de) * 2018-11-20 2020-10-29 Leica Microsystems Cms Gmbh Lernender Autofokus
US11449709B2 (en) * 2019-08-08 2022-09-20 Nvidia Corporation Domain restriction of neural networks through synthetic data pre-training
WO2021188839A1 (en) * 2020-03-20 2021-09-23 The Regents Of The University Of California Single-shot autofocusing of microscopy images using deep learning
JP2021168048A (ja) * 2020-04-10 2021-10-21 キヤノン株式会社 画像処理方法、画像処理装置、画像処理システム、およびプログラム
JP2023537892A (ja) * 2020-08-07 2023-09-06 ナノトロニクス イメージング インコーポレイテッド 自動焦点合わせ顕微鏡システムのための深層学習モデル
EP4055556B1 (en) * 2020-11-13 2023-05-03 Google LLC Defocus blur removal and depth estimation using dual-pixel image data
US11935258B2 (en) * 2021-03-08 2024-03-19 Toyota Research Institute, Inc. Range detection using machine learning combined with camera focus
JP2022175419A (ja) * 2021-05-13 2022-11-25 キヤノン株式会社 画像処理方法、画像処理装置、プログラム、学習済みモデルの製造方法、および画像処理システム

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0854557A (ja) * 1994-08-09 1996-02-27 Nikon Corp カメラのオートフォーカス装置
WO2002063367A1 (en) * 2001-02-02 2002-08-15 Cellomics, Inc. Method for estimating the best initial focus position
CN108111768A (zh) * 2018-01-31 2018-06-01 广东欧珀移动通信有限公司 控制对焦的方法、装置、电子设备及计算机可读存储介质
WO2020259474A1 (zh) * 2019-06-28 2020-12-30 Oppo广东移动通信有限公司 追焦方法、装置、终端设备、计算机可读存储介质
CN110531484A (zh) * 2019-07-24 2019-12-03 中国地质大学(武汉) 一种对焦过程模型可设定的显微镜自动对焦方法
CN111007661A (zh) * 2019-12-02 2020-04-14 湖南国科智瞳科技有限公司 一种基于深度学习的显微图像自动聚焦方法及装置
WO2021136050A1 (zh) * 2019-12-31 2021-07-08 华为技术有限公司 一种图像拍摄方法及相关装置
CN112037185A (zh) * 2020-08-21 2020-12-04 湖南自兴智慧医疗科技有限公司 染色体***相图像筛选方法、装置及终端设备
CN112333379A (zh) * 2020-09-17 2021-02-05 北京迈格威科技有限公司 图像对焦方法、装置及图像采集设备
CN115496761A (zh) * 2022-11-17 2022-12-20 湖南自兴智慧医疗科技有限公司 基于ae的低倍镜***相筛图方法、***及存储介质
CN116149041A (zh) * 2023-02-20 2023-05-23 华中科技大学无锡研究院 一种基于深度学习的裂像自动对焦方法
CN116309192A (zh) * 2023-05-22 2023-06-23 深圳赛陆医疗科技有限公司 基因测序图像对焦矫正方法及装置、设备、存储介质
CN116612092A (zh) * 2023-05-25 2023-08-18 浙江农林大学 一种基于改进的MobileViT网络的显微镜图像清晰度评价方法
CN116931247A (zh) * 2023-06-16 2023-10-24 宁波永新光学股份有限公司 一种面向多区域切片扫描的快速对焦方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"Learning to Autofocus";Charles Herrmann 等;《arxiv.org》;第1-23页第1-6节 *
Automated focus distance estimation for digital microscopy using deep convolutional neural networks;Tathagato Rai Dastidar 等;《IEEE》;第1-8页 *
基于对焦清晰度的双分辨相机变焦算法研究;金哲彦;徐之海;冯华君;李奇;;红外与激光工程(第05期);第125-133页 *
金哲彦 ; 徐之海 ; 冯华君 ; 李奇 ; .基于对焦清晰度的双分辨相机变焦算法研究.红外与激光工程.2020,(第05期),第125-133页. *

Also Published As

Publication number Publication date
CN117132646A (zh) 2023-11-28

Similar Documents

Publication Publication Date Title
AU2024202198B2 (en) Real-time autofocus focusing algorithm
CN109085695B (zh) 一种用于平面样本快速对焦拍照的方法
US11813759B2 (en) Intelligent micromanipulation system based on machine vision
WO2021057422A1 (zh) 显微镜***、智能医疗设备、自动对焦方法和存储介质
CN109272575B (zh) 一种提高数字切片扫描仪建模速度的方法
US10812701B2 (en) High-speed tag lens assisted 3D metrology and extended depth-of-field imaging
CN105785561B (zh) 一种数字显微镜及其聚焦方法
CN112507969A (zh) 显微图像细胞自动定位方法
CN113777769B (zh) 一种显微仪器自动调焦方法、装置、智能终端及存储介质
JP3631304B2 (ja) 顕微鏡の自動焦点整合装置
CN117132646B (zh) 基于深度学习的***相自动对焦***
EP3223054A1 (en) Microscope system and specimen observation method
CN117170081A (zh) 一种基于图像清晰度识别的自动对焦方法
CN111505816A (zh) 高通量电子显微镜成像方法及***
CN117233921A (zh) 一种用于荧光成像设备的自动对焦方法
CN208477200U (zh) 一种可自动对焦的变焦显微扫描***
CN205920270U (zh) 用于高速显微扫描的动态对焦装置
CN114815211A (zh) 一种基于图像处理的显微镜自动对焦方法及***
CN112887604A (zh) 一种干细胞图像采集方法、装置、***及介质
CN104935798A (zh) 一种精密数控实验动物图像采集装置
CN111272659A (zh) 一种全自动结核杆菌显微扫描分析仪
CN218630340U (zh) 用于便携式显微扫描仪的载物平台
CN216013798U (zh) 一种多片式显微扫描仪
CN218824959U (zh) 显微镜玻片自动扫描拍照***
CN209656982U (zh) 一种用于显微视觉***的自动对焦装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant