CN114170314A - 一种基于智能3d视觉处理3d眼镜工艺轨迹执行方法 - Google Patents

一种基于智能3d视觉处理3d眼镜工艺轨迹执行方法 Download PDF

Info

Publication number
CN114170314A
CN114170314A CN202111512132.9A CN202111512132A CN114170314A CN 114170314 A CN114170314 A CN 114170314A CN 202111512132 A CN202111512132 A CN 202111512132A CN 114170314 A CN114170314 A CN 114170314A
Authority
CN
China
Prior art keywords
glasses
processing
intelligent
execution
track
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111512132.9A
Other languages
English (en)
Other versions
CN114170314B (zh
Inventor
姚绪松
陈方
卢绍粦
席豪圣
代勇
刘聪
蓝猷凤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qunbin Intelligent Manufacturing Technology Suzhou Co ltd
Original Assignee
Shenzhen Qb Precision Industrial Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Qb Precision Industrial Co ltd filed Critical Shenzhen Qb Precision Industrial Co ltd
Priority to CN202111512132.9A priority Critical patent/CN114170314B/zh
Publication of CN114170314A publication Critical patent/CN114170314A/zh
Application granted granted Critical
Publication of CN114170314B publication Critical patent/CN114170314B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/19Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by positioning or contouring control systems, e.g. to control position from one programmed point to another or to control movement along a programmed continuous path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

本申请提供了一种基于智能3D视觉处理3D眼镜工艺轨迹执行方法,包括如下步骤:计算执行设备与相机的空间位置关系;扫描3D眼镜并生成相应的标准模型;划分所述标准模型成多个区域,并在每个区域内抓取特征点,其中,每个区域的范围为1mm至5mm;连接每个区域内的特征点以形成3D眼镜的工艺处理轨迹;控制执行设备按所述工艺处理轨迹运行。上述提供的基于智能3D视觉处理3D眼镜工艺轨迹执行方法通过在扫描3D眼镜并生成相应的标准模型后,通过将标准模型划分为多个区域,以使3D眼镜在该区域内为平面,从而使示教路径能适用于该区域内,从而提高产品的良率。

Description

一种基于智能3D视觉处理3D眼镜工艺轨迹执行方法
【技术领域】
本申请涉及3D视觉技术领域,尤其涉及一种基于智能3D视觉处理3D眼镜工艺轨迹执行方法。
【背景技术】
3D眼镜采用了当今最先进的“时分法”,通过3D眼镜与显示器同步的信号来实现。当显示器输出左眼图像时,左眼镜片为透光状态,而右眼为不透光状态,而在显示器输出右眼图像时,右眼镜片透光而左眼不透光,这样两只眼镜就看到了不同的游戏画面。3D眼镜在生产及制造过程中,为了得到标准型号并不存在偏差的眼镜,现有的方式常常通过使用整体纠偏的方式进行,即通过大视野的3D相机对产品进行一次性的图像采集,确认产品的整体空间位置后将第一幅图作为模板,并使用模板示教出可实现工艺的执行轨迹。然后通过3D相机对产品进行第二次的图像采集,并将第二幅图与第一幅图进行比对并计算出两幅图的三维空间位置偏差,将三维偏差关系作用在模板工艺示教轨迹中来纠正模板的工艺轨迹。而现有的3D眼镜大多数通过塑料等非金属材料制成,在制作完成后会导致整体或局部变形,而示教路径是一种刚性路径,无法应用于存在较多曲面或存在局部形变的产品中,从而会导致工艺制成产品良率低的问题。
【发明内容】
有鉴于此,有必要提供一种能保证产品良率的基于智能3D视觉处理3D眼镜工艺轨迹执行方法,以解决上述问题。
本申请的实施例提供一种基于智能3D视觉处理3D眼镜工艺轨迹执行方法,包括如下步骤:
计算执行设备与相机的空间位置关系;
扫描3D眼镜并生成相应的标准模型;
划分所述标准模型成多个区域,并在每个区域内抓取特征点,其中,每个区域的范围为1mm至5mm;
连接每个区域内的特征点以形成3D眼镜的工艺处理轨迹;
控制执行设备按所述工艺处理轨迹运行。
在本申请的至少一个实施例中,步骤“划分所述标准模型成多个区域,并在每个区域内抓取特征点,其中,每个区域的范围为1mm至5mm”包括步骤:
选取3D眼镜的特征,并在所述特征上划分区域。
在本申请的至少一个实施例中,所述特征为曲面或平面。
在本申请的至少一个实施例中,步骤“划分所述标准模型成多个区域,并在每个区域内抓取特征点,其中,每个区域的范围为1mm至5mm”包括步骤:
在划分的每个区域内生成三维空间测量盒;
依据3D眼镜的几何特征,使用三维空间侧量盒计算出相应的特征点。
在本申请的至少一个实施例中,3D眼镜的几何特征为三轴向特征、法向量、状态量及速度量中的一个或几个的结合。
在本申请的至少一个实施例中,步骤“连接每个区域内的特征点以形成3D眼镜的工艺处理轨迹”之后还包括步骤:
替换所述工艺处理轨迹所在坐标系至所述执行设备所在的坐标系内。
在本申请的至少一个实施例中,步骤“替换所述工艺处理轨迹所在坐标系至所述执行设备所在的坐标系内”之后还包括步骤:
将工艺处理轨迹替换至所述执行设备内的坐标上传至执行设备内。
在本申请的至少一个实施例中,步骤“计算执行设备与相机的空间位置关系”包括步骤:
将执行设备上的标定块安装于机器人上;
移动机器人至相机正下方以采集图像信息;
依据图像信息计算出相机与执行设备的空间位置关系。
在本申请的至少一个实施例中,步骤“移动机器人至相机正下方以采集图像信息”包括步骤:
多次移动机器人至3D相机下不同的位置;
分别采集多个不同位置下机器人的图像信息。
在本申请的至少一个实施例中,机器人移动的次数为4至9次。
上述提供的基于智能3D视觉处理3D眼镜工艺轨迹执行方法通过在扫描3D眼镜并生成相应的标准模型后,通过将标准模型划分为多个区域,以使3D眼镜在该区域内为平面,从而使示教路径能适用于该区域内,从而提高产品的良率。
【附图说明】
图1为本申请一实施例中基于智能3D视觉处理3D眼镜工艺轨迹执行方法的流程框图。
【具体实施方式】
下面将结合本申请实施例中的附图,对本申请实施例进行描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。
需要说明的是,当一个组件被认为是“连接”另一个组件,它可以是直接连接到另一个组件或者可能同时存在居中组件。当一个组件被认为是“设于”另一个组件,它可以是直接设置在另一个组件上或者可能同时存在居中组件。本文所使用的术语“顶”、“底”、“上”、“下”、“左”、“右”、“前”、“后”、以及类似的表述只是为了说明的目的。
本申请的实施例提供一种基于智能3D视觉处理3D眼镜工艺轨迹执行方法,包括如下步骤:
计算执行设备与相机的空间位置关系;
扫描3D眼镜并生成相应的标准模型;
划分所述标准模型成多个区域,并在每个区域内抓取特征点,其中,每个区域的范围为1mm至5mm;
连接每个区域内的特征点以形成3D眼镜的工艺处理轨迹;
控制执行设备按所述工艺处理轨迹运行。
上述提供的基于智能3D视觉处理3D眼镜工艺轨迹执行方法通过在扫描3D眼镜并生成相应的标准模型后,通过将标准模型划分为多个区域,以使3D眼镜在该区域内为平面,从而使示教路径能适用于该区域内,从而提高产品的良率。
下面结合附图,对本申请的一些实施例作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
请参阅图1,一种基于智能3D视觉处理3D眼镜工艺轨迹执行方法,包括如下步骤:
S10:计算执行设备与相机的空间位置关系。
S20:扫描3D眼镜并生成相应的标准模型。
S30:划分所述标准模型成多个区域,并在每个区域内抓取特征点,其中,每个区域的范围为1mm至5mm。
S40:连接每个区域内的特征点以形成3D眼镜的工艺处理轨迹。
S50:控制执行设备按所述工艺处理轨迹运行。
需要说明的是,在3D眼镜的生产制造中,需要先制定3D眼镜的工艺执行轨迹,并操作相应的执行设备顺着上述工艺执行轨迹进行加工。在现有的工艺轨迹的制定过程中,常常都是通过示教的方式来完成,而示教属于刚性路径,从而在产品局部变形时,无法适用于变形的曲面位置处,从而导致由示教的方式做出的带有曲面的产品的外部形状存在缺陷,从而增加了产品的不良率。上述方案通过在生成的标准模型上划分多个区域,并将区域控制在一定范围内,以使产品在划分的区域内形成接近于平面结构,以在该区域能进行正常的示教操作,并减少产品由于不适应示教而导致产品的不良。
在一实施例中,3D眼镜包括但不限于AR及VR眼镜,凡具有3D视角的眼镜均可。
在一实施例中,上述区域的范围为3mm,但显然并不限于此,如在另一实施例中,区域的范围还可为1mm、2mm、4mm及5mm等。
步骤S10包括步骤:
S11:将执行设备上的标定块安装于机器人上。
S12:移动机器人至相机正下方以采集图像信息。
S13:依据图像信息计算出相机与执行设备的空间位置关系。
需要说明的是,上述标定块设置于执行设备上,在检测执行设备与3D相机之间的空间位置关系时,通过将执行设备上的标定块安装在机器人上,并将机器人移动至相机正下方以采集图像信息。此时,执行设备也记录一组位置信息,并与上述图像信息结合,使用相应的算法即可算出执行设备与相机的空间位置关系。并根据上述空间位置关系控制机器人向特定的方位运行,以实现3D眼镜的制作。
进一步地,步骤S12包括步骤:
S121:多次移动机器人至3D相机下不同的位置。
S122:分别采集多个不同位置下机器人的图像信息,
需要说明的是,为了保证采集标定块图像信息的准确性,通过多次移动机器人至3D相机不同的位置,以获取多个不同位置下机器人上标定块的位置,并相互结合而判断标定块的具***置,其精度更高,减小了图像信息采集的误差。
进一步地,机器人移动的次数为4至9次。在一实施例中,机器人移动的次数为4次,但显然并不限于此,如在另一实施例中,机器人移动的次数为9次。
优选的,步骤S20中,通过将3D眼镜进行区域划分,并使用高精度的相机采集不同区域的高精度的多个图像,并将多个图像进行拼接,从而提高生成标准模型的精度及清晰度,具体说明如下:
在3D视觉校准过程中,需要使用3D相机对待校准的设备进行扫描拍照。当拍照的数量小于或等于四副时,常规的拼接过程不会产生超过项目需求的误差,从而正常的完成图像的拼接。而本申请中的3D眼镜存在多处曲面,当控制扫描拍照的数量在四副以下时,会造成扫描拍照的图像不清晰的问题,而当扫描拍照的数量在四副以上时,采用常规的拼接方法则会产生超过项目需求的误差,从而影响3D视觉校准的精度。对此,上述方案通过创建一标准模型,并将该标准模型划分为不同的扫描区域,以通过多次单独的对不同的扫描区域进行高精度的扫描拍照,并使用特征点的方式实现多个图像的拼接,即保证了图像采集的精度,又防止多个图像在拼接时产生超过项目需求的误差的问题。
标注模型包括底座(图未示)和固定于底座上的多个定位柱(图未示)。其中,底座用于承载多个定位柱,多个定位柱依据3D眼镜的具体形状固定于底座上的相应位置,以使固定于底座上的多个定位柱围设形成与3D眼镜形状一致的模型,从而校准对该3D眼镜执行的设备。
在一实施例中,多个定位柱通过胶水粘接于底座上,且其中,部分定位柱垂直于底座,另一部分定位柱与底座成角度设置。可以理解的是,多个定位柱与底座的固定方式不限于此,如在另一实施例中,底座上开设有多个安装孔,多个定位柱插设并固定于多个安装孔内。
在一实施例中,底座大致为矩形体的块状结构,但显然并不限于此,如在另一实施例中,底座还可为椭圆体的结构等。
需要说明的是,为了得到与3D眼镜形状一致的模型,需要选取3D眼镜各部位的外部轮廓及各部位的高度及尺寸信息,以通过将多个不同长度的定位柱固定于底座上的不同位置,以使多个定位柱远离底座的端面共同围设成与3D眼镜形状一致的模型。
需要说明的是,为了确保多个定位柱形成的模型的准确性,需要对成形的模型进行检测,以防止模型出现偏差而导致在校准执行设备时,出现执行设备校准误差的问题。优选的,通过选取定位柱的中心孔作为特征点,以便于在定位柱上开设上述孔位,也能更好的通过中心孔检测到多个定位柱的位置。进一步地,上述方案在部分定位柱上开设中心孔,并在另一部分定位柱的中心线位置上设置“十”字标,以对多个定位柱进行定位标记。更进一步地,在模型精度检测时,通过将标准模型放置于指定的校测仪器内,并通过计算机算法抓取上述的中心孔及“十”字标以获取该定位柱的具体设置位置,从而更好的判断标准模型的精度,以在校准执行设备时,更好的保证执行设备校准的精度。
可以理解的是,特征点的设置方式不限于此,如在另一实施例中,还可在多个定位柱上设置如“-”或其他形状的标示以配合相应的算法程序获取多个定位柱的位置。
需要说明的是,通过设置于底座上的多个定位柱进行划分区域,从而可以减少在底座上标记的繁琐操作,从而便于区域的划分。并且通过划分定位柱的方式,使得划分区域后,各个区域存在明显的定位柱分布差异,从而使得区域划分更为明显,减少因为区域不明显导致的检测精度差的问题。
进一步地,通过将标准模型划分为多个不同的区域,并通过3D相机扫描各个不同区域以形成相应的模型,使得形成的模型的显示范围相对较小,以在3D相机具有相同的焦距状态下能最大化的增加模型的清晰度。
更进一步地,扫描区域内包括至少三组定位柱,以使形成的不同图像存在较多重叠部分,从而在后续的图像拼接过程中,在将特征重合较多的重叠部分拼接时,能最大化的保证各图像拼接的质量。
需要说明的是,使用的3D相机存在一定的扫描范围,为了保证在视野范围内存在至少三个定位柱以便于两个图像的拼接,又尽可能的减少扫描拍照的次数,优选的,可以通过减小定位柱的直径以使三个定位柱同时落入3D相机的扫描范围内。
需要说明的是,在3D相机的扫描拍照过程中,3D相机第一次拍照获得的影像为A(图未示),在第二次拍照时,将影像A的部分区域作为重叠区域并扫描至第二次的影像中,以使第二次扫描的影像与第一次扫描的影像存在一些重叠的区域,以便于后续的拼接。
两个图像信息通过将其相同的重叠部分进行对照并使两个图像信息相同的部分组合在一起,从而使从不同角度扫描的图像上的不同部位能完全对照起来,从而在多附图像的组合下,实现校准图像的拼接,且通过上述方法拼接的校准图像与3D眼镜在外形及尺寸上一致。
为了便于构建更准确的工艺轨迹,步骤S30包括步骤:
S31:选取3D眼镜的特征,并在所述特征上划分区域。
需要说明的是,上述特征即为3D眼镜的外形轮廓,在一实施例中,上述特征为曲面,但显然并不限于此,如在另一实施例中,上述特征还可为平面。
步骤S30包括步骤:
S32:在划分的每个区域内生成三维空间测量盒。
S33:依据3D眼镜的几何特征,使用三维空间侧量盒计算出相应的特征点。
需要说明的是,通过在划分的每个区域内生成三维空间检测盒,以通过三维空间测量盒测量在该区域内的特定点,在每个区域均生产特征点后,通过将所有特征点连接起来即可得到产品的工艺轨迹。
优选的,3D眼镜的几何特征为三轴向特征、法向量、状态量及速度量中的一个或几个的结合。
进一步地,步骤40之后还包括步骤:
S41:替换所述工艺处理轨迹所在坐标系至所述执行设备所在的坐标系内。
需要说明的是,通过将工艺处理轨道所在坐标系替换至执行设备所在坐标系内,以使执行设备能精准的检测到具体的工艺位置,从而便于产品的加工,并增加了产品的加工精度。
更进一步地,步骤S41之后还包括步骤:
S411:将工艺处理轨迹替换至所述执行设备内的坐标上传至执行设备内。
需要说明的是,通过将工艺处理轨迹替换至执行设备内的坐标上传至执行设备内,以保存上述数据以防止数据的遗漏,并在下次操作时,使执行设备重复上次数据即可完成产品的加工,避免了重新设置而带来的繁琐操作,简化了工艺步骤,增加了加工效率。
进一步地,在将工艺处理轨迹上传至执行设备内后,使执行设备依据上述工艺轨迹运行执行设备,从而控制执行设备按上述轨迹生产相应的产品。
上述提供的基于智能3D视觉处理3D眼镜工艺轨迹执行方法通过在扫描3D眼镜并生成相应的标准模型后,通过将标准模型划分为多个区域,以使3D眼镜在该区域内为平面,从而使示教路径能适用于该区域内,从而提高产品的良率。
以上所述的仅是本申请的实施方式,在此应当指出,对于本领域的普通技术人员来说,在不脱离本申请创造构思的前提下,还可以做出改进,但这些均属于本申请的保护范围。

Claims (10)

1.一种基于智能3D视觉处理3D眼镜工艺轨迹执行方法,其特征在于,包括如下步骤:
计算执行设备与相机的空间位置关系;
扫描3D眼镜并生成相应的标准模型;
划分所述标准模型成多个区域,并在每个区域内抓取特征点,其中,每个区域的范围为1mm至5mm;
连接每个区域内的特征点以形成3D眼镜的工艺处理轨迹;
控制执行设备按所述工艺处理轨迹运行。
2.根据权利要求1所述的基于智能3D视觉处理3D眼镜工艺轨迹执行方法,其特征在于,步骤“划分所述标准模型成多个区域,并在每个区域内抓取特征点,其中,每个区域的范围为1mm至5mm”包括步骤:
选取3D眼镜的特征,并在所述特征上划分区域。
3.根据权利要求2所述的基于智能3D视觉处理3D眼镜工艺轨迹执行方法,其特征在于,所述特征为曲面或平面。
4.根据权利要求1所述的基于智能3D视觉处理3D眼镜工艺轨迹执行方法,其特征在于,步骤“划分所述标准模型成多个区域,并在每个区域内抓取特征点,其中,每个区域的范围为1mm至5mm”包括步骤:
在划分的每个区域内生成三维空间测量盒;
依据3D眼镜的几何特征,使用三维空间侧量盒计算出相应的特征点。
5.根据权利要求4所述的基于智能3D视觉处理3D眼镜工艺轨迹执行方法,其特征在于,3D眼镜的几何特征为三轴向特征、法向量、状态量及速度量中的一个或几个的结合。
6.根据权利要求4所述的基于智能3D视觉处理3D眼镜工艺轨迹执行方法,其特征在于,步骤“连接每个区域内的特征点以形成3D眼镜的工艺处理轨迹”之后还包括步骤:
替换所述工艺处理轨迹所在坐标系至所述执行设备所在的坐标系内。
7.根据权利要求6所述的基于智能3D视觉处理3D眼镜工艺轨迹执行方法,其特征在于,步骤“替换所述工艺处理轨迹所在坐标系至所述执行设备所在的坐标系内”之后还包括步骤:
将工艺处理轨迹替换至所述执行设备内的坐标上传至执行设备内。
8.根据权利要求1所述的基于智能3D视觉处理3D眼镜工艺轨迹执行方法,其特征在于,步骤“计算执行设备与相机的空间位置关系”包括步骤:
将执行设备上的标定块安装于机器人上;
移动机器人至相机正下方以采集图像信息;
依据图像信息计算出相机与执行设备的空间位置关系。
9.根据权利要求8所述的基于智能3D视觉处理3D眼镜工艺轨迹执行方法,其特征在于,步骤“移动机器人至相机正下方以采集图像信息”包括步骤:
多次移动机器人至3D相机下不同的位置;
分别采集多个不同位置下机器人的图像信息。
10.根据权利要求9所述的基于智能3D视觉处理3D眼镜工艺轨迹执行方法,其特征在于,机器人移动的次数为4至9次。
CN202111512132.9A 2021-12-07 2021-12-07 一种基于智能3d视觉处理3d眼镜工艺轨迹执行方法 Active CN114170314B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111512132.9A CN114170314B (zh) 2021-12-07 2021-12-07 一种基于智能3d视觉处理3d眼镜工艺轨迹执行方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111512132.9A CN114170314B (zh) 2021-12-07 2021-12-07 一种基于智能3d视觉处理3d眼镜工艺轨迹执行方法

Publications (2)

Publication Number Publication Date
CN114170314A true CN114170314A (zh) 2022-03-11
CN114170314B CN114170314B (zh) 2023-05-26

Family

ID=80485665

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111512132.9A Active CN114170314B (zh) 2021-12-07 2021-12-07 一种基于智能3d视觉处理3d眼镜工艺轨迹执行方法

Country Status (1)

Country Link
CN (1) CN114170314B (zh)

Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4338672A (en) * 1978-04-20 1982-07-06 Unimation, Inc. Off-line teach assist apparatus and on-line control apparatus
US20030035100A1 (en) * 2001-08-02 2003-02-20 Jerry Dimsdale Automated lens calibration
CN104281098A (zh) * 2014-10-27 2015-01-14 南京航空航天大学 一种复杂曲面动态加工特征建模方法
CN104408408A (zh) * 2014-11-10 2015-03-11 杭州保迪自动化设备有限公司 基于曲线三维重建的机器人喷涂轨迹提取方法及提取装置
CN104634276A (zh) * 2015-02-12 2015-05-20 北京唯创视界科技有限公司 三维测量***、拍摄设备和方法、深度计算方法和设备
CN105118088A (zh) * 2015-08-06 2015-12-02 曲阜裕隆生物科技有限公司 一种基于病理切片扫描装置的3d成像及融合的方法
CN105354880A (zh) * 2015-10-15 2016-02-24 东南大学 一种基于线激光扫描的喷砂机器人自动路径生成方法
US20160140713A1 (en) * 2013-07-02 2016-05-19 Guy Martin System and method for imaging device modelling and calibration
CN106354098A (zh) * 2016-11-04 2017-01-25 大连理工大学 一种nurbs组合曲面上刀具加工轨迹生成方法
CN107767414A (zh) * 2017-10-24 2018-03-06 林嘉恒 混合精度的扫描方法及***
CN108527319A (zh) * 2018-03-28 2018-09-14 广州瑞松北斗汽车装备有限公司 基于视觉***的机器人示教方法及***
CN109454642A (zh) * 2018-12-27 2019-03-12 南京埃克里得视觉技术有限公司 基于三维视觉的机器人涂胶轨迹自动生产方法
CN109822550A (zh) * 2019-02-21 2019-05-31 华中科技大学 一种复杂曲面机器人高效高精度示教方法
CN210452170U (zh) * 2019-06-18 2020-05-05 蓝点触控(北京)科技有限公司 一种基于六维力传感器的机器人柔性智能打磨***
CN111462253A (zh) * 2020-04-23 2020-07-28 深圳群宾精密工业有限公司 适用于激光3d视觉的三维标定板、***及标定方法
CN111496786A (zh) * 2020-04-15 2020-08-07 武汉海默机器人有限公司 一种基于点云模型规划机械臂作业加工轨迹方法
CN111823734A (zh) * 2020-09-10 2020-10-27 季华实验室 定位校准组件、装置、打印机及喷印点坐标定位校准方法
CN112435350A (zh) * 2020-11-19 2021-03-02 深圳群宾精密工业有限公司 一种加工轨迹形变补偿方法及***
CN112486098A (zh) * 2020-11-20 2021-03-12 张均 一种计算机辅助加工***及辅助加工方法
CN112489195A (zh) * 2020-11-26 2021-03-12 新拓三维技术(深圳)有限公司 一种弯管机的快速调机方法及***
CN112497192A (zh) * 2020-11-25 2021-03-16 广州捷士电子科技有限公司 一种采用自动校准方式提高示教编程精度的方法
CN113103226A (zh) * 2021-03-08 2021-07-13 同济大学 一种面向陶瓷素坯加工制造的视觉引导机器人***

Patent Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4338672A (en) * 1978-04-20 1982-07-06 Unimation, Inc. Off-line teach assist apparatus and on-line control apparatus
US20030035100A1 (en) * 2001-08-02 2003-02-20 Jerry Dimsdale Automated lens calibration
US20160140713A1 (en) * 2013-07-02 2016-05-19 Guy Martin System and method for imaging device modelling and calibration
CN104281098A (zh) * 2014-10-27 2015-01-14 南京航空航天大学 一种复杂曲面动态加工特征建模方法
CN104408408A (zh) * 2014-11-10 2015-03-11 杭州保迪自动化设备有限公司 基于曲线三维重建的机器人喷涂轨迹提取方法及提取装置
CN104634276A (zh) * 2015-02-12 2015-05-20 北京唯创视界科技有限公司 三维测量***、拍摄设备和方法、深度计算方法和设备
CN105118088A (zh) * 2015-08-06 2015-12-02 曲阜裕隆生物科技有限公司 一种基于病理切片扫描装置的3d成像及融合的方法
CN105354880A (zh) * 2015-10-15 2016-02-24 东南大学 一种基于线激光扫描的喷砂机器人自动路径生成方法
CN106354098A (zh) * 2016-11-04 2017-01-25 大连理工大学 一种nurbs组合曲面上刀具加工轨迹生成方法
CN107767414A (zh) * 2017-10-24 2018-03-06 林嘉恒 混合精度的扫描方法及***
CN108527319A (zh) * 2018-03-28 2018-09-14 广州瑞松北斗汽车装备有限公司 基于视觉***的机器人示教方法及***
CN109454642A (zh) * 2018-12-27 2019-03-12 南京埃克里得视觉技术有限公司 基于三维视觉的机器人涂胶轨迹自动生产方法
CN109822550A (zh) * 2019-02-21 2019-05-31 华中科技大学 一种复杂曲面机器人高效高精度示教方法
CN210452170U (zh) * 2019-06-18 2020-05-05 蓝点触控(北京)科技有限公司 一种基于六维力传感器的机器人柔性智能打磨***
CN111496786A (zh) * 2020-04-15 2020-08-07 武汉海默机器人有限公司 一种基于点云模型规划机械臂作业加工轨迹方法
CN111462253A (zh) * 2020-04-23 2020-07-28 深圳群宾精密工业有限公司 适用于激光3d视觉的三维标定板、***及标定方法
CN111823734A (zh) * 2020-09-10 2020-10-27 季华实验室 定位校准组件、装置、打印机及喷印点坐标定位校准方法
CN112435350A (zh) * 2020-11-19 2021-03-02 深圳群宾精密工业有限公司 一种加工轨迹形变补偿方法及***
CN112486098A (zh) * 2020-11-20 2021-03-12 张均 一种计算机辅助加工***及辅助加工方法
CN112497192A (zh) * 2020-11-25 2021-03-16 广州捷士电子科技有限公司 一种采用自动校准方式提高示教编程精度的方法
CN112489195A (zh) * 2020-11-26 2021-03-12 新拓三维技术(深圳)有限公司 一种弯管机的快速调机方法及***
CN113103226A (zh) * 2021-03-08 2021-07-13 同济大学 一种面向陶瓷素坯加工制造的视觉引导机器人***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
赵伟: "航空发动机叶片三维重建与评估技术研究" *

Also Published As

Publication number Publication date
CN114170314B (zh) 2023-05-26

Similar Documents

Publication Publication Date Title
EP1378790B1 (en) Method and device for correcting lens aberrations in a stereo camera system with zoom
CN110555889B (zh) 一种基于CALTag和点云信息的深度相机手眼标定方法
CN102376089B (zh) 一种标靶校正方法及***
CN105716582B (zh) 摄像机视场角的测量方法、装置以及摄像机视场角测量仪
US8564655B2 (en) Three-dimensional measurement method and three-dimensional measurement apparatus
CN109859272B (zh) 一种自动对焦双目摄像头标定方法及装置
JP4418841B2 (ja) 作業装置及びその校正方法
US7630539B2 (en) Image processing apparatus
CN110749290B (zh) 基于三维投影的特征信息快速定位方法
JP2008014940A (ja) 平面状被撮像物のカメラ計測のためのカメラキャリブレーション方法、および応用計測装置
JP2004127239A (ja) 較正物体を用いて複数のカメラを較正するための方法およびシステム
US20210291376A1 (en) System and method for three-dimensional calibration of a vision system
CN111707187B (zh) 一种大型零件的测量方法及***
CN113198692B (zh) 一种适用于批量产品的高精度点胶方法及装置
CN114331924B (zh) 大工件多相机视觉测量方法
CN112082480A (zh) 芯片的空间取向的测量方法、***、电子装置和存储介质
CN110519586B (zh) 一种光学设备标校装置和方法
CN110044266B (zh) 基于散斑投影的摄影测量***
CN112415010A (zh) 一种成像检测方法及***
CN115187612A (zh) 一种基于机器视觉的平面面积测量方法、装置及***
CN112254638B (zh) 一种可俯仰调节的智能视觉3d信息采集设备
CN115289997B (zh) 一种双目相机三维轮廓扫描仪及其使用方法
CN114170314A (zh) 一种基于智能3d视觉处理3d眼镜工艺轨迹执行方法
CN113888651B (zh) 一种动静态视觉检测***
CN112468801B (zh) 广角摄像模组的光心测试方法及其测试***和测试标板

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20230509

Address after: Building A3, 3E Digital Smart Building, No. 526, Fangqiao Road, Caohu Street, Suzhou City, Jiangsu Province, 215000

Applicant after: Qunbin Intelligent Manufacturing Technology (Suzhou) Co.,Ltd.

Address before: 518000 room 314, 3 / F, 39 Queshan new village, Gaofeng community, Dalang street, Longhua District, Shenzhen City, Guangdong Province

Applicant before: SHENZHEN QB PRECISION INDUSTRIAL CO.,LTD.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant