CN114310957A - 用于医疗检测的机器人***及检测方法 - Google Patents
用于医疗检测的机器人***及检测方法 Download PDFInfo
- Publication number
- CN114310957A CN114310957A CN202210005213.8A CN202210005213A CN114310957A CN 114310957 A CN114310957 A CN 114310957A CN 202210005213 A CN202210005213 A CN 202210005213A CN 114310957 A CN114310957 A CN 114310957A
- Authority
- CN
- China
- Prior art keywords
- mechanical
- module
- mechanical arm
- arm
- joint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 47
- 238000000034 method Methods 0.000 claims abstract description 40
- 230000008569 process Effects 0.000 claims abstract description 12
- 230000009471 action Effects 0.000 claims abstract description 10
- 238000013135 deep learning Methods 0.000 claims abstract description 9
- 210000002414 leg Anatomy 0.000 claims description 84
- 238000012360 testing method Methods 0.000 claims description 71
- 230000033001 locomotion Effects 0.000 claims description 55
- 229920000742 Cotton Polymers 0.000 claims description 36
- 210000001145 finger joint Anatomy 0.000 claims description 35
- 238000005070 sampling Methods 0.000 claims description 20
- 210000002310 elbow joint Anatomy 0.000 claims description 16
- 210000000323 shoulder joint Anatomy 0.000 claims description 15
- 210000003857 wrist joint Anatomy 0.000 claims description 15
- 210000000629 knee joint Anatomy 0.000 claims description 13
- 210000001503 joint Anatomy 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 11
- 238000013461 design Methods 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 claims description 8
- 238000012795 verification Methods 0.000 claims description 8
- 230000000007 visual effect Effects 0.000 claims description 8
- 230000007246 mechanism Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 230000011218 segmentation Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 4
- 241001481710 Cerambycidae Species 0.000 claims description 3
- 230000001133 acceleration Effects 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 230000004888 barrier function Effects 0.000 claims description 3
- 230000002902 bimodal effect Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000000926 separation method Methods 0.000 claims description 3
- 125000004122 cyclic group Chemical group 0.000 claims description 2
- 238000003064 k means clustering Methods 0.000 claims description 2
- 238000010339 medical test Methods 0.000 claims 2
- 238000012549 training Methods 0.000 abstract description 4
- 230000002265 prevention Effects 0.000 abstract description 2
- 150000007523 nucleic acids Chemical class 0.000 description 14
- 102000039446 nucleic acids Human genes 0.000 description 14
- 108020004707 nucleic acids Proteins 0.000 description 14
- 210000004394 hip joint Anatomy 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000002558 medical inspection Methods 0.000 description 3
- 241000700605 Viruses Species 0.000 description 2
- 238000005452 bending Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 210000003811 finger Anatomy 0.000 description 2
- 210000002478 hand joint Anatomy 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000241 respiratory effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003638 chemical reducing agent Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 244000052769 pathogen Species 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 210000000115 thoracic cavity Anatomy 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
本发明提供了一种用于医疗检测的机器人***及检测方法,包括机器人本体、视觉模块、作业模块、高度调整模块、定位模块以及智能控制器,并分别与所述视觉模块、作业模块以及高度调整模块连接;所述智能控制器获取视觉模块传递的信息,并处理生成控制信号,所述作业模块和高度调整模块二者分别在控制信号的作用下进行作业。通过防人体设计的机器人本体,利用单目摄像头进行人脸识别智能认定身份,进行深度学习网络训练,确定目标位置在图像的位置,之后再利用深度相机获取目标位置的坐标,转化成目的抓取点的世界坐标;机械左臂、机械右臂、机械左腿以及机械右腿联合作业可以适用不同身高的人员检测,有助于提高机器人的适用性。
Description
技术领域
本发明涉及医疗卫生领域,具体地,涉及一种用于医疗检测的机器人***及检测方法。
背景技术
机器人是一种能够半自主或全自主工作的智能机器,目前,机器人已经在许多领域具有较为成熟的应用。其中,机器人在医疗检测领域具有一定的应用前景。
目前,针对呼吸道病原体的检测,尤其是核酸检测,主要是查找患者的呼吸道标本,检测其中是否存在外来入侵的病毒的核酸,来确定是否被病毒感染。人工进行采样检测不仅检测效率差,且存在医务人员在进行检测时被感染的风险,因此采用机器人进行检测具有重要的意义。
现有公开号为CN113628625A的中国专利,公开了一种基于智能机器人的免感染式核酸检测装置,包括承载底座,所述承载底座顶端面通过两根支撑柱固定安装有承载顶座,承载顶座外周面与转动块中心部位所开的圆孔之间通过轴承转动相连接;所述转动块整体呈十边形块结构,转动块十处侧端面中五处侧端面均固定安装有一组核酸检测辅助机构,五组核酸检测辅助机构与转动块十处侧端面呈间隔状分布;所述核酸检测辅助机构包括有:罩体,罩体整体呈梯形台结构,罩体前端面开设有贯通其底端面的凹槽,罩体后端面固定安装在转动块侧端面上,罩体底端面与转动块底端面处于同一水平面。
发明人认为现有技术中的智能机器人不能独立完成对待检测人员的采样以及检测,存在待改进之处。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种用于医疗检测的机器人***及方法。
根据本发明提供的一种用于医疗检测的机器人***,包括机器人本体:仿人身架体结构;视觉模块:设置在所述机器人本体上,用于捕捉环境的视野图像和目标的姿态图像,并进行人脸识别和目标定位;作业模块:设置在所述机器人本体上,用于试管和/或棉签的夹持、采样以及收集;高度调整模块:设置在所述机器人本体上,用于调整所述作业模块的高度;定位模块:设置在所述机器人本体上,用于定位机器人采样和收集的工作位置;智能控制器:设置在所述机器人本体上,并分别与所述视觉模块、作业模块以及高度调整模块连接;所述智能控制器获取视觉模块传递的信息,并处理生成控制信号,所述作业模块和高度调整模块二者分别在控制信号的作用下进行作业。
优选地,所述视觉模块设置在机器人本体的眼部位置,所述视觉模块包括:深度摄像机:用于捕捉环境视野的彩色图像和含有深度信息的三维立体图像;单目摄像机:用于人脸身份认证的获取人脸信息;所述深度摄像机和单目摄像机二者分别与智能控制器连接。
优选地,所述作业模块包括机械左臂和机械右臂,所述机械左臂和机械右臂二者均包括依次连接的肩关节、肘关节、腕关节、手掌关节以及手指关节;所述机械左臂上的每个手指关节处均设置有压力传感器片;所述机械右臂上的食指和中指手指关节处均设置压力传感器片。
优选地,所述机械左臂和机械右臂二者的肩关节具有三个旋转自由度、肘关节具有一个旋转自由度、腕关节具有三个旋转自由度、手掌关节具有三个旋转自由度、手指关节具有六个旋转自由度;所述机械左臂和机械右臂二者的肩关节、肘关节以及腕关节均分别设置有舵机和编码器;所述机械左臂和机械右臂二者的手掌关节和手指关节均分别设置有驱动电机和编码器;任一所述舵机、编码器以及驱动电机均与智能控制器连接。
优选地,还包括误差补偿彩色方块:所述误差补偿彩色方块在机械左臂和机械右臂二者的手背位置分别设置有一组或多组,且所述误差补偿彩色方块利用伪目标点法来补偿机械左臂或机械右臂以及机械左臂末端或机械右臂末端的位置误差;语音提示模块:位于所述机器人本体的耳部位置,且与所述智能控制器连接;移动模块:设置在所述机器人本体的底部,包括全向轮和用于驱动全向轮运动的驱动装置,且所述驱动装置与智能控制器连接;存放装置:用于存放试管和/或棉签;收集装置:用于收集采样后的试管。
优选地,所述高度调整模块包括机械左腿和机械右腿,所述机械左腿和机械右腿二者均包括依次连接的胯关节和膝关节;所述机械左腿和机械右腿二者的胯关节均具有一个旋转自由度,且所述机械左腿和机械右腿二者的胯关节处均设置有舵机和编码器;所述机械左腿和机械右腿二者的膝关节均具有一个旋转自由度,且所述机械左腿和机械右腿二者的膝关节处均设置有驱动电机和编码器;任一所述舵机、编码器以及驱动电机均与智能控制器连接。
优选地,所述智能控制器包括如下任一个或任多个模块:三维成像算法模块:根据视觉模块传递的信息,获取目标物的视差图,并将视差图优化后采用点云计算生成三维成像,实现实时对目标物在整个视野空间位置的定位以及测量相机到目标物中心点的距离;物体识别算法模块:对图像进行通过K-Means聚类分割,再将图片由RGB颜色空间转化为HSV颜色空间,通过双峰法对HS分量图图片进行阈值分割;深度学习网络物体跟踪算法模块:利用滤波器和颜色直方图缩小图像识别的区域,提升YoLov4-Tiny网络识别的速度和准确率;运动学规划算法:采用天牛须搜索机制的循环神经网络设计基于深度学习的冗余机械臂避碰运动规划方法;无碰撞路径规划算法模块:采用基于概率性的蚁群算法进行路径规划,将机械臂的运动分解成X、Y、Z三个轴方向的直线运动,并设置各方向运动的上限阈值和下限阈值,并根据机械臂末端手势和路径上障碍物图像提取姿态特征,求出机械臂运动时的关节转角并传递至智能控制器的控制单元;基于可见光定位的机械臂末端标记点位置误差测定算法模块:在机械臂的末端设置标记点,根据RGB值做颜色通道分离和二值化处理获取标记点在图像的位置,并转化为三维位置,计算其与无碰撞路径规划的标记点位置的距离并传递至智能控制器的控制单元,智能控制器的控制单元通过控制机械臂和机械臂末端运动来调整机械臂和机械臂末端位置;误差补偿算法模块:运动规划算法通过引入机械臂末端位置误差及速度误差的反馈,设计伪逆类型的运动规划方案:θ(t)表示机械臂关节角度;表示机械臂关节速度;表示机械臂关节加速度;t表示时间;J+(θ(t))表示机械臂的雅可比矩阵J(θ(t))的伪逆﹐表示J(θ(t))的时间导数;e(t)表示运动规划过程中的机械臂末端位置误差且定义为e(t)=r(t)-f(θ(t));f(·)表示非线性映射函数,r(t)表示机械臂期望轨迹;ε(t)表示运动规划过程中的机械臂速度误差;a>0和β>0分别表示位置误差和速度误差的反馈增益。通过高阶差分离散化结果为:
根据本发明提供的一种用于医疗检测的机器人***的检测方法,采用权利要求1-7任一项所述的用于医疗检测的机器人***,检测方法包括如下步骤:S1、启动机器人并将所述机器人本体移动到工作位置;S2、将机器人初始化,使所述机器人本体上的各关节复位;S3、对待测人员进行身份验证;S4、通过所述工作模块分别夹持试管和棉签;S5、对待测人员进行采样;S6、收集试管,结束。
优选地,针对步骤S3,进行身份验证包括如下步骤:S3.1、通过语音提示模块对待测人员进行语音提示;S3.2、待测人员的脸对准机器人本体眼睛后,所述视觉模块检测人脸目标;S3.3、对检测到的人脸信息进行识别;S3.4、识别结束后,通过语音提示模块提示待测人员身份验证完毕。
优选地,针对步骤S4,所述工作模块夹持试管包括如下步骤:S4.1、所述深度摄像机启动;S4.2、所述深度摄像机采集试管存放装置图像;S4.3、对所述试管存放装置图像进行分割;S4.4、提取试管轮廓;S4.5、对提取试管轮廓的图像进行检测;S4.6、定位试管位置点;S4.7、运动学规划:根据防碰包围体的位置和距离,建立机器人运动学模型,求解其正逆运动学解并进行规划;S4.8、无碰撞路径规划:根据规划好的运动学模型及路径,结合机器人的机械左臂、机械左腿和机械右腿运动功能及范围,规划机械左臂、机械左腿和机械右腿的动作和无碰撞路径;S4.9、标记点位置误差测定:测定标记点的真实位置,并计算与规划位置的误差;S4.10、伪逆类型误差补偿:通过对机械臂末端的位置误差进行补偿,使机械臂运动到规划位置;S4.11、抓取试管,完成夹持作业。
与现有技术相比,本发明具有如下的有益效果:
1、本发明通过防人体设计的机器人本体,利用单目摄像头进行人脸识别智能认定身份,进行深度学习网络训练,确定目标位置在图像的位置,之后再利用深度相机获取目标位置的坐标,转化成目的抓取点的世界坐标;机械左臂、机械右臂、机械左腿以及机械右腿联合作业可以适用不同身高的人员检测,有助于提高机器人的适用性;
2、本发明通过设置在机械左臂和机械右臂手背位置的误差补偿彩色方块,能够利用伪目标点法来补偿机械臂末端的位置误差,有助于提高机械左臂和机械右臂的移动精度,进而有助于保证机器人本体作业的稳定性;
3、本发明通过机器人本体按照科学的采样检测方法对检测者进行采用,并利用运动学规划算法、无碰撞路径规划算法规划无碰撞路径,有助于提高采样检测效率,且减少人工参与。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明主要体现机器人本体整体结构的正面示意图;
图2为本发明主要体现机器人本体整体结构的侧面示意图;
图3为本发明主要体现机械左臂上的左手结构示意图;
图4为本发明主要体现机械右臂上的右手结构示意图;
图5为本发明主要体现智能控制器中三维成像算法流程图;
图6为本发明主要体现智能控制器中物体识别算法流程图;
图7为本发明主要体现智能控制器中网络物体跟踪算法流程图
图8为本发明主要体现智能控制器中基于可见光定位的机械臂末端标记点位置误差测定算法流程图;
图9为本发明主要体现智能控制器中误差补偿算法流程图;
图10为本发明主要体现智能控制器中无碰撞路径规划算法流程图;
图11为本发明主要体现核酸检测总体运行步骤流程图;
图12为本发明主要体现试管夹持运行步骤流程图;
图13为本发明主要体现棉签夹持运行步骤流程图;
图14为本发明主要体现核酸检测采样步骤流程图;
图15为本发明主要体现试管收集运行步骤流程图。
图中所示:
视觉模块1 机械左臂8
机械右臂2 智能控制器9
机器人本体3 电源10
机械右腿4 全向轮11
存放装置5 语音提示模块12
收集装置6 误差补偿彩色方块13
机械左腿7 压力传感器片14
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
实施例1
如图1和图2所示,根据本发明提供的一种用于医疗检测的机器人***,包括机器人本体3、视觉模块1、作业模块、高度调整模块、定位模块以及智能控制器9。机器人本体3为仿人身架体结构,视觉模块1安装在机器人本体3的眼部位置,作业模块包括机械左臂8和机械右臂2,且机械左臂8和机械右臂2的自由端均安装有误差补偿彩色方块13。高度调整模块包括机械左腿7和机械右腿4。定位模块安装在机器人本体3上,并能够用于定位机器人采样和收集的工作位置。智能控制器9安装在机器人本体3的胸腔内,且智能控制器9分别与视觉模块1、作业模块以及高度调整模块连接。
如图1、图2、图3以及图4所示,还包括:电源10,电源10安装在机器人本体3的腿部位置,为机器人本体3上的各个用电器提供电能。语音提示模块12,位于机器人本体3的耳部位置,与智能控制器9连接,语音提示模块12能够获取智能控制器9的实时信息,并适时进行语音播报。压力传感器片14,安装在机械左臂8和机械右臂2的末端指关节上。全向轮11,安装在机器人本体3的脚底。用于存放试管和棉签的存放装置5,以及用于收集采样后的试管的收集装置6。
如图1和图2所示,医疗检测机器人能够利用视觉模块1捕捉进行检测人员所处环境的视野图像和目标(试管、棉签、人脸)的姿态图像并进行人脸的身份认证和目标(试管、棉签、人脸)的定位。并能够通过语音提示模块12在检测过程中对检测者进行温馨提示来进行人机交流。机械左腿7和机械右腿4通过弯曲或伸直来调整机器人本体3肩部的高度来辅助机械左臂8和机械右臂2运动。机械右臂2和机械左臂8用于试管和棉签的夹持、检测的采样和收集。机械右臂2和机械左臂8末端位置的误差补偿彩色方块13用于补偿机械臂运动时的位置误差。存放装置5用于对未采集试管和棉签的存放,收集装置6用于收集采样后的试管并对其进行依次排序保存。
机器人本体3上的智能控制器9分别与视觉模块1、语音提示模块12、机械左臂8、机械右臂2、机械左腿7以及机械右腿4电路连接组成控制***,通过电源10为整个***供电,其中,智能控制器9分别与视觉装置、压力传感器片14和语音模块进行数据传输连接。智能控制器9分别与全向轮11、机械左臂8和机械右臂2上的各个仿人身关节进行控制电路连接。
机器人本体3底部沿前后位置分别各配置有一组全向轮11,每组全向轮11均配置有独立的伺服电机和减速器组成的驱动装置,全向轮11通过驱动装置由智能控制器9进行控制,实现了机器人本体3的移动。
视觉模块1用于捕捉环境的视野图像和目标的姿态图像,并进行人脸识别和目标定位,视觉模块1包括深度摄像机和单目摄像机,且深度摄像机和单目摄像机二者分别与智能控制器9连接。单目摄像机用于人脸身份认证。深度摄像机用于捕捉目标所处环境视野的彩色图像,并对捕捉的环境视野的深度图像进行处理。
进一步地,深度摄像机的图像处理包括如下步骤:获取深度图像中包含图像的目标区域,对目标区域对应的彩色图像进行预处理并利用预先训练好的工件分类器进行目标检测,若检测到目标区域的像素坐标,则获取目标区域处的深度信息,将目标区域的像素坐标进行坐标转换,得到目标区域的世界坐标并发布到智能控制器9模块。
机械左臂8和机械右臂2二者均包括依次连接的肩关节、肘关节、腕关节、手掌关节以及手指关节,机械左臂8上的每个手指关节处均安装有压力传感器片14,机械右臂2上至少有一个手指关节上没有安装压力传感器片14。机械左臂8的左手具有三个手指关节,每个手指关节上均安装有压力传感器片14。机械右臂2的右节有三个手指关节,分别为中指关节、食指关节以及拇指关节,其中中指关节和食指关节处均安装有压力传感器片14。
进一步地,机械左臂8和机械右臂2二者的肩关节具有三个旋转自由度、肘关节具有一个旋转自由度、腕关节具有三个旋转自由度、手掌关节具有三个旋转自由度、手指关节具有六个旋转自由度,具体地,机械左臂8和机械右臂2二者的肩关节、肘关节以及腕关节均分别安装有舵机和编码器,机械左臂8和机械右臂2二者的手掌关节和手指关节均分别安装有驱动电机和编码器。且任一舵机、编码器以及驱动电机均与智能控制器9连接,通过智能控制器9利用编码器控制电机和舵机实现机械左臂8或机械右臂2开合夹持和松弛作业。
误差补偿彩色方块13安装在机械左臂8和机械右臂2的手背位置,由于机械左臂8和机械右臂2在运动时受到其自身变形的影响,机械左臂8和机械右臂2的自由末端的位置误差会呈现非线性和波动性且随着角度的变化而变化,在此种情况下机械臂的正逆运动学求解是无法正常进行的,可以利用伪目标点法来补偿机械臂末端的位置误差。
如图1和图2所示,机械左腿7和机械右腿4二者均包括依次连接的胯关节和膝关节。机械左腿7和机械右腿4二者的胯关节均具有一个旋转自由度,且机械左腿7和机械右腿4二者的胯关节处均设置有舵机和编码器。机械左腿7和机械右腿4二者的膝关节均具有一个旋转自由度,且机械左腿7和机械右腿4二者的膝关节处均设置有驱动电机和编码器。任一舵机、编码器以及驱动电机均与智能控制器9连接,通过智能控制器9利用编码器控制电机和舵机能够实现关节弯曲和旋转作业。
机器人本体3进行检测作业时,通过单目相机进行人脸身份认证确定身份,通过机械左臂8、机械右臂2、机械左腿7以及机械右腿4的联合工作,一边夹持试管另一边实施棉棒采样。之后再利用深度摄像机进行人脸图像分割、轮廓提取、嘴唇定位。利用智能控制器9规划机械左臂8、机械右臂2、机械左腿7以及机械右腿4的运动学和无碰撞路径,使该机器人能够自动精准完成对检测者的采样作业,同时配置全向轮11行走,智能化地控制机器人移动配合,使机器人完成对试管和棉签的抓取工作以及对采集后的试管进行收集工作。
如图5、图6、图7、图8、图9以及图10所示,智能控制器9包括如下任一个或多个模块,从而用于配合机器人本体3上的各个模块实现检测作业:三维成像算法模块、物体识别算法模块、网络物体跟踪算法模块、运动学规划算法、无碰撞路径规划算法模块、基于可见光定位的机械臂末端标记点位置误差测定算法模块以及误差补偿算法模块。
具体地,三维成像算法模块能够根据视觉模块1传递的左眼和右眼相机视角下的图像信息,根据图像之间像素的匹配关系,通过三角测量原理计算出像素之间的偏移来获取目标物的三维信息和视差图;通过SGBM算法和相机参数获取左眼相机和右眼相机的视差图,将视差图优化后通过像素转化为点云图,经过点云聚类获得完成三维成像;实现目标物空间位置的定位以及测量相机到目标物的距离。
物体识别算法模块,先通过K-Means聚类分割方法对图像进行分割,再将图片由受阳光变化影响大的RGB颜色空间转化为HSV颜色空间,通过双峰法对HS分量灰度图图片进行阈值分割。
网络物体跟踪算法模块,利用滤波器和颜色直方图缩小图像识别的区域,提升YoLov4-Tiny网络识别的速度和准确率。
运动学规划算法,基于深度学习的冗余机械臂避碰运动规划方法,该方法的核心算法是基于天牛须搜索机制的循环神经网络算法,这属于位置级而非速度级的运动规划,即规划过程中不要求末端执行器的初始位置处于参考轨迹上,可避免雅可比矩阵的计算、提高计算效率。
无碰撞路径规划算法模块,采用基于概率性的蚁群算法进行路径规划,将机械臂的运动分解成X、Y、Z三个轴方向的直线运动,从而降低机械臂末端的搜索空间的复杂程度,并设置各方向运动的上限阈值和下限阈值。并根据机械臂末端手势和路径上障碍物图像提取姿态特征,求出机械臂运动时的关节转角并传递至智能控制器9的控制单元。具体地,将基于视觉的机械臂末端手势识别与远程控制机械臂相结合,通过深度摄像机采集机械臂末端手势和路径上障碍物图像并提取姿态特征,求出机械臂运动时的关节转角,并将信号发送至智能控制器9的控制单元,转换为机械臂舵机和电机的运动控制命令,实现机械臂末端视觉手势对机器人的无碰撞路径运动。
基于可见光定位的机械臂末端标记点位置误差测定算法模块,将安装在机械臂手背位置的误差补偿彩色方块13设置为标记点,且机械左臂8和机械右臂2上的手背位置分别安装有三个误差补偿彩色方块13。根据RGB值做颜色通道分离和二值化处理获取标记点在图像的位置,并转化为三维位置,计算其与规划的标记点位置的距离并传递至控制器的控制单元,控制器的控制单元通过控制机械臂运动来调整距离。
误差补偿算法模块,运动规划算法通过引入机械臂末端位置误差及速度误差的反馈,设计伪逆类型的运动规划方案:θ(t)表示机械臂关节角度;表示机械臂关节速度;表示机械臂关节加速度;t表示时间;J+(θ(t))表示机械臂的雅可比矩阵J(θ(t))的伪逆﹐表示J(θ(t))的时间导数;e(t)表示运动规划过程中的机械臂末端位置误差且定义为e(t)=r(t)-f(θ(t));f(·)表示非线性映射函数,r(t)表示机械臂期望轨迹;ε(t)表示运动规划过程中的机械臂速度误差;a>0和β>0分别表示位置误差和速度误差的反馈增益。通过高阶差分离散化结果为:
发明人认为,本申请中的机器人本体3采用仿人体设计,具有较高的智能化,可以轻松实现身份认证、自主行走、试管和棉签夹持、核酸检测采样以及试管收集工作,并且核酸检测过程严格按照科学规范。机器人***可以实现连续作业,利用单目摄像头进行人脸识别智能认定身份,进行深度学习网络训练,确定目标位置在图像的位置,之后再利用深度相机获取目标位置的坐标,转化成目的抓取点的世界坐标。机械左臂8、机械右臂2、机械左腿7以及机械右腿4联合作业可以适用不同身高的人员检测;语音提示来帮助检测人员配合机器人工作;全向轮11可移动位置,完成试管和棉签的获取以及试管收集工作,可以适应多种复杂环境。
实施例2
如图1所示,基于实施例1,根据本发明提供的一种用于医疗检测的机器人***的检测方法,以核酸检测为例,包括如下步骤:
S1、启动机器人并将机器人本体3移动到工作位置。具体地包括:
S1.1、通过控制按钮启动设备,使整个设备上的智能控制***通电启动,机器人本体3、语音提示模块12、机械左臂8、视觉模块1﹑智能控制器9、机械右臂2、机械左腿7、机械右腿的所有电器元件均处于工作待机状态。
S1.2、通过机器人上的智能控制模块,移动全向轮11将设备整体移动到工作位置。
S2、将机器人初始化,使机器人本体3上的各关节复位。具体地包括:
S2.1、机器人初始化:通过机器人本体3上的智能控制器9,启动智能检测模式,整个设备上的所有电器元件根据***设定参数执行并完成初始化,设定视觉模块1、语音提示模块12、压力传感器片14参数,并且图像采集卡和数据采集卡清零,使全向轮11、机械左臂8上的左肩关节、左肘关节、左腕关节、左手关节和左手手指关节以及机械右臂2上的右肩关节、右肘关节、右腕关节、右手关节和右手手指关节根据***设定复位到初始工作设定状态。
S2.2、机械臂复位:判断机械左臂8和机械右臂2是否复位,若未复位,则夹持机械左臂8和检测机械右臂2继续执行初始化命令,若已复位,则执行下一步操作。
S2.3、机械腿复位:判断机械左腿7和机械右腿4是否复位,若未复位,则机械左右腿继续执行初始化命令,若已复位,则执行下一步操作。
S2.4、机械臂手指关节复位:判断机械左臂8的手指关节和检测机械右臂2的手指关节置是否复位,若未复位,则机械左臂8和机械右臂2的手指关节初始化,若已复位,则执行下一步操作。
S3、对待测人员进行身份验证。包括如下步骤:
S3.1、通过语音提示模块12对待测人员进行语音提示:请正对我的眼睛,谢谢。
S3.2、待测人员的脸对准机器人本体3眼睛后,视觉模块1检测人脸目标。通过单目摄像机开始检测设定距离范围内的人脸目标,根据***设定判断找到含全部人脸目标的图像,若未满足,则继续执行检测,若已满足,则执行下一步操作。
S3.3、对检测到的人脸信息进行识别。打开单目摄像头拍照与智能控制器9通信并进行人脸识别,验证身份。
S3.4、识别结束后,通过语音提示模块12提示待测人员身份验证完毕;验证完毕,请稍等。
S4、通过工作模块分别夹持试管和棉签,包括如下步骤:
S4.1、深度摄像机启动;控制全向轮11移动机器人本体3到试管和棉签存放装置5的位置,并启动深度摄像机。
S4.2、所述深度摄像机采集试管存放装置5图像;通过深度摄像机对满足试管存放装置5图像进行采集,将采集到的试管存放装置5图像数据实时传送给智能控制器9。
S4.3、对所述试管存放装置5图像进行分割;通过深度摄像机上的深度视觉***分割试管存放装置5图像。
S4.4、提取试管轮廓;通过深度摄像机上的深度视觉***提取试管轮廓。
S4.5、试管图像进行检测;通过深度摄像机上的深度视觉***检测试管图像。
S4.6、定位试管位置点;通过深度摄像机上的深度视觉***定位试管位置点。
S4.7、运动学规划:根据防碰包围体的位置和距离,建立机器人运动学模型,求解其正逆运动学解并进行规划。
S4.8、无碰撞路径规划:根据规划好的运动学模型及路径,结合机器人的机械左臂8、机械左腿7和机械右腿4运动功能及范围,规划机械左臂8、机械左腿7和机械右腿4的动作和无碰撞路径。
S4.9、标记点位置误差测定:测定标记点的真实位置,并计算与规划位置的误差。
S4.10机械臂运动:根据规划好的机械左臂8、机械左腿7和机械右腿4的运动路径,通过控制器控制操作机械右臂2上的左肩关节、左肘关节、左腕关节、左掌关节和左手指关节和机械左右臂的胯关节和膝关节联动作业。
S4.11:伪逆类型误差补偿:判断误差是否小于误差阈值,实际误差大于误差阈值则通过对机械臂末端的位置误差进行补偿计算,求得补偿位置,返回S4.8(运动学规划);若实际误差小于误差阈值则进行下一步。
S4.12、抓取试管:通过智能控制器9控制左手手指关节对试管进行抓取夹持,并通过左手五个手指关节上的压力传感器片14对试管夹持力进行检测,当夹持力达到设定值后停止闭合动作,完成夹持作业。
S4.13、棉签存放装置5图像采集:通过深度摄像机对满足抓取要求的棉签图像进行采集,将采集到的棉签存放装置5图像数据实时传送给智能控制器9。
S4.14、棉签图像分割:通过深度摄像机的深度视觉***分割棉签图像。
S4.15、棉签轮廓提取:通过深度摄像机的深度视觉***提取棉签轮廓。
S4.16、棉签目标检测:通过深度摄像机的深度视觉***检测提取棉签轮廓后的棉签图像。
S4.17、棉签抓取点定位:通过深度摄像机的深度视觉***定位棉签位置点。
S4.18、运动学规划:根据防碰包围体的位置和距离,通过机器人本体3上的智能控制器9快速建立机器人运动学模型,求解其正逆运动学解并进行规划。
S4.19、无碰撞路径规划:根据规划好的运动学模型及路径,结合机器人本体3的机械左臂8、机械左腿7和机械右腿4运动功能及范围,规划机械右臂2、机械左腿7和机械右腿4的动作和无碰撞路径。
S4.20机械臂运动:根据规划好的机械右臂2、机械左腿7和机械右腿4运动路径,通过智能控制器9控制操作机械右臂2上的右肩关节、右肘关节、右腕关节、右掌关节和右手手指关节和机械左右臂的胯关节和膝关节联动作业,。
S4.21:伪逆类型误差补偿:判断误差是否小于误差阈值,实际误差大于误差阈值则通过对机械臂末端的位置误差进行补偿计算,求得补偿位置,返回S4.19(运动学规划);若实际误差小于误差阈值则进行下一步。
S4.22、棉签抓取作业:通过智能控制器9控制右手手指关节对棉签进行抓取夹持,并通过右手中指关节、食指关节和中指关节上的压力传感器片14对棉签夹持力进行检测,当夹持力达到设定值后停止闭合动作,完成夹持作业。
S5、对待测人员进行采样,包括如下步骤:
S5.1、机器人本体3位置移动:通过智能控制器9控制全向轮11移动机器人本体3到工作位置。
S5.2、语音提示模块12进行语音提示:请保持不动,现在进行检测,谢谢。
S5.3、语音提示模块12进行语音提示:请张开嘴巴,谢谢。
S5.4、人脸图像采集:通过深度摄像机对满足抓取要求的人脸图像进行采集,并将采集到的人脸图像数据实时传送给智能控制器9。
S5.5、人脸图像分割:通过深度摄像机的深度视觉***分割人脸图像。
S5.6、人脸轮廓提取:通过深度摄像机的深度视觉***提取人脸轮廓。
S5.7、目标检测:通过深度摄像机的深度视觉***检测提取嘴唇轮廓后的图像。
S5.8、语音提示模块12进行语音提示:请保持不动,现在进行采样,谢谢。
S5.9、嘴唇抓取点定位:通过深度摄像机的深度视觉***定位嘴唇位置点。
S5.10、运动学规划:根据防碰包围体的位置和距离,通过机器人本体3上的智能控制***快速建立机器人运动学模型,求解其正逆运动学解并进行规划。
S5.11、无碰撞路径规划:根据规划好的运动学模型及路径,结合机器人本体3的机械左臂8和机械右臂2的运动功能及范围,规划机械左臂8和机械右臂2的动作和无碰撞路径。
S5.12机械臂运动:根据规划好的机械右臂2、机械左腿7和机械右腿4的运动路径,通过智能控制器9控制操作机械右臂2上的右肩关节、右肘关节和机械左右臂的胯关节和膝关节联动作业。
S5.13:伪逆类型误差补偿:判断误差是否小于误差阈值,实际误差大于误差阈值则通过对机械臂末端的位置误差进行补偿计算,求得补偿位置,返回S5.10;若实际误差小于误差阈值则进行下一步。
S5.14、棉签采样作业:棉签已经运动至检测者嘴唇前上方3-5cm位置处。通过智能控制器9控制右腕关节、右掌关节和右手手指关节来用棉签对检测者进行取样。
S5.14、棉签收集作业:根据规划好的检测机械右臂2的运动路径将棉签移动到试管上方,然后通过智能控制器9控制操作末端夹持装置的夹持结构打开,使棉签落入试管中,完成收集作业。
S5.15、语音提示模块12进行语音提示:检测完成,谢谢合作。
S6、收集试管,包括如下步骤:
S6.1、机器人本体3位置移动:控制全向轮11移动机器人本体3到试管收集位置。
S6.2、试管收集装置6图像采集。
S6.3、试管收集装置6图像分割:通过深度摄像机的深度视觉***分割试管收集装置6图像。
S6.4、试管收集装置6图像轮廓提取:通过深度摄像机的深度视觉***提取用于试管收集装置6的轮廓。
S6.5、图像目标检测:通过深度摄像机的深度视觉***检测空余位置图像。
S6.6、目标抓取点定位:通过深度摄像机的深度视觉***定位试管收集装置6位置点。
S6.7、运动学规划:根据防碰包围体的位置和距离,通过机器人智能控制器9快速建立机器人运动学模型,求解其正逆运动学解并进行规划。
S6.8、无碰撞路径规划:根据规划好的运动学模型及路径,结合机器人本体3上的的机械左臂8和机械右臂2的运动功能及范围,规划机械左臂8和机械右臂2的动作和无碰撞路径。
S4.9机械臂运动:根据规划好的机械右臂2、机械左腿7和机械右腿4运动路径,通过智能控制器9控制操作机械右臂2上的右肩关节、右肘关节和机械左腿7和机械右腿4的胯关节和膝关节联动作业。
S4.10:伪逆类型误差补偿:判断误差是否小于误差阈值,实际误差大于误差阈值则通过对机械臂末端的位置误差进行补偿计算,求得补偿位置,返回S6.8(运动学规划);若实际误差小于误差阈值则进行下一步。
S6.11、抓取试管:试管运动至试管收集装置6空余位置上方。然后通过智能控制器9控制右腕关节、右掌关节和右手手指关节来释放试管,完成试管的收集作业。
S6.12、单次核酸检测任务完成,将机器人本体3移动到初始位置。
工作原理
机器人本体3采用仿人体设计,可以轻松实现身份认证、自主行走、试管和棉签夹持、核酸检测采样以及试管收集工作,并且核酸检测过程严格按照科学规范。机器人***可以实现连续作业,利用单目摄像头进行人脸识别智能认定身份,进行深度学习网络训练,确定目标位置在图像的位置,之后再利用深度相机获取目标位置的坐标,转化成目的抓取点的世界坐标。机械左臂8、机械右臂2、机械左腿7以及机械右腿4联合作业可以适用不同身高的人员检测;语音提示来帮助检测人员配合机器人工作;全向轮11可移动位置,完成试管和棉签的获取以及试管收集工作,可以适应多种复杂环境。。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的***及其各个装置、模块、单元以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的***及其各个装置、模块、单元以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同功能。所以,本发明提供的***及其各项装置、模块、单元可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置、模块、单元也可以视为硬件部件内的结构;也可以将用于实现各种功能的装置、模块、单元视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
在本申请的描述中,需要理解的是,术语“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。
Claims (10)
1.一种用于医疗检测的机器人***,其特征在于,包括:
机器人本体(3):仿人身架体结构;
视觉模块(1):设置在所述机器人本体(3)上,用于捕捉环境的视野图像和目标的姿态图像,并进行人脸识别和目标定位;
作业模块:设置在所述机器人本体(3)上,用于试管和/或棉签的夹持、采样以及收集;
高度调整模块:设置在所述机器人本体(3)上,用于调整所述作业模块的高度;
定位模块:设置在所述机器人本体(3)上,用于定位机器人采样和收集的工作位置;
智能控制器(9):设置在所述机器人本体(3)上,并分别与所述视觉模块(1)、作业模块以及高度调整模块连接;
所述智能控制器(9)获取视觉模块(1)传递的信息,并处理生成控制信号,所述作业模块和高度调整模块二者分别在控制信号的作用下进行作业。
2.如权利要求1所述的用于医疗检测的机器人***,其特征在于,所述视觉模块(1)设置在机器人本体(3)的眼部位置,所述视觉模块(1)包括:
深度摄像机:用于捕捉环境视野的彩色图像和含有深度信息的三维立体图像;
单目摄像机:用于人脸身份认证的获取人脸信息;
所述深度摄像机和单目摄像机二者分别与智能控制器(9)连接。
3.如权利要求1所述的用于医疗检测的机器人***及方法,其特征在于,所述作业模块包括机械左臂(8)和机械右臂(2),所述机械左臂(8)和机械右臂(2)二者均包括依次连接的肩关节、肘关节、腕关节、手掌关节以及手指关节;
所述机械左臂(8)上的每个手指关节处均设置有压力传感器片(14);
所述机械右臂(2)上的食指和中指手指关节处均设置压力传感器片(14)。
4.如权利要求3所述的用于医疗检测的机器人***及方法,其特征在于,所述机械左臂(8)和机械右臂(2)二者的肩关节具有三个旋转自由度、肘关节具有一个旋转自由度、腕关节具有三个旋转自由度、手掌关节具有三个旋转自由度、手指关节具有六个旋转自由度;
所述机械左臂(8)和机械右臂(2)二者的肩关节、肘关节以及腕关节均分别设置有舵机和编码器;
所述机械左臂(8)和机械右臂(2)二者的手掌关节和手指关节均分别设置有驱动电机和编码器;
任一所述舵机、编码器以及驱动电机均与智能控制器(9)连接。
5.如权利要求3所述的用于医疗检测的机器人***,其特征在于,还包括误差补偿彩色方块(13):所述误差补偿彩色方块(13)在机械左臂(8)和机械右臂(2)二者的手背位置分别设置有一组或多组,且所述误差补偿彩色方块(13)利用伪目标点法来补偿机械左臂(8)或机械右臂(2)以及机械左臂(8)末端或机械右臂(2)末端的位置误差;
语音提示模块(12):位于所述机器人本体(3)的耳部位置,且与所述智能控制器(9)连接;
移动模块:设置在所述机器人本体(3)的底部,包括全向轮(11)和用于驱动全向轮(11)运动的驱动装置,且所述驱动装置与智能控制器(9)连接;
存放装置(5):用于存放试管和/或棉签;
收集装置(6):用于收集采样后的试管。
6.如权利要求1所述的用于医疗检测的机器人***,其特征在于,所述高度调整模块包括机械左腿(7)和机械右腿(4),所述机械左腿(7)和机械右腿(4)二者均包括依次连接的胯关节和膝关节;
所述机械左腿(7)和机械右腿(4)二者的胯关节均具有一个旋转自由度,且所述机械左腿(7)和机械右腿(4)二者的胯关节处均设置有舵机和编码器;
所述机械左腿(7)和机械右腿(4)二者的膝关节均具有一个旋转自由度,且所述机械左腿(7)和机械右腿(4)二者的膝关节处均设置有驱动电机和编码器;
任一所述舵机、编码器以及驱动电机均与智能控制器(9)连接。
7.如权利要求1所述的用于医疗检测的机器人***,其特征在于,所述智能控制器(9)包括如下任一个或任多个模块:
三维成像算法模块:根据视觉模块(1)传递的信息,获取目标物的视差图,并将视差图优化后采用点云计算生成三维成像,实现实时对目标物在整个视野空间位置的定位以及测量相机到目标物中心点的距离;
物体识别算法模块:对图像进行通过K-Means聚类分割,再将图片由RGB颜色空间转化为HSV颜色空间,通过双峰法对HS分量图图片进行阈值分割;
深度学习网络物体跟踪算法模块:利用滤波器和颜色直方图缩小图像识别的区域,提升YoLov4-Tiny网络识别的速度和准确率;
运动学规划算法:采用天牛须搜索机制的循环神经网络设计基于深度学习的冗余机械臂避碰运动规划方法;
无碰撞路径规划算法模块:采用基于概率性的蚁群算法进行路径规划,将机械臂的运动分解成X、Y、Z三个轴方向的直线运动,并设置各方向运动的上限阈值和下限阈值,并根据机械臂末端手势和路径上障碍物图像提取姿态特征,求出机械臂运动时的关节转角并传递至智能控制器(9)的控制单元;
基于可见光定位的机械臂末端标记点位置误差测定算法模块:在机械臂的末端设置标记点,根据RGB值做颜色通道分离和二值化处理获取标记点在图像的位置,并转化为三维位置,计算其与无碰撞路径规划的标记点位置的距离并传递至智能控制器的控制单元,智能控制器的控制单元通过控制机械臂和机械臂末端运动来调整机械臂和机械臂末端位置;
误差补偿算法模块:运动规划算法通过引入机械臂末端位置误差及速度误差的反馈,设计伪逆类型的运动规划方案:θ(t)表示机械臂关节角度;表示机械臂关节速度;表示机械臂关节加速度;t表示时间;J+(θ(t))表示机械臂的雅可比矩阵J(θ(t))的伪逆﹐表示J(θ(t))的时间导数;e(t)表示运动规划过程中的机械臂末端位置误差且定义为e(t)=r(t)-f(θ(t));f(·)表示非线性映射函数,r(t)表示机械臂期望轨迹;ε(t)表示运动规划过程中的机械臂速度误差;a>0和β>0分别表示位置误差和速度误差的反馈增益。通过高阶差分离散化结果为:
8.如权利要求1所述的用于医疗检测的机器人***的检测方法,其特征在于,采用权利要求1-7任一项所述的用于医疗检测的机器人***,检测方法包括如下步骤:
S1、启动机器人并将所述机器人本体(3)移动到工作位置;
S2、将机器人初始化,使所述机器人本体(3)上的各关节复位;
S3、对待测人员进行身份验证;
S4、通过所述工作模块分别夹持试管和棉签;
S5、对待测人员进行采样;
S6、收集试管,结束。
9.如权利要求8所述的用于医疗检测的机器人***的检测方法,其特征在于,针对步骤S3,进行身份验证包括如下步骤:
S3.1、通过语音提示模块(12)对待测人员进行语音提示;
S3.2、待测人员的脸对准机器人本体(3)眼睛后,所述视觉模块(1)检测人脸目标;
S3.3、对检测到的人脸信息进行识别;
S3.4、识别结束后,通过语音提示模块(12)提示待测人员身份验证完毕。
10.如权利要求8所述的用于医疗检测的机器人***的检测方法,其特征在于,针对步骤S4,所述工作模块夹持试管包括如下步骤:
S4.1、所述深度摄像机启动;
S4.2、所述深度摄像机采集试管存放装置(5)图像;
S4.3、对所述试管存放装置(5)图像进行分割;
S4.4、提取试管轮廓;
S4.5、对提取试管轮廓的图像进行检测;
S4.6、定位试管位置点;
S4.7、运动学规划:根据防碰包围体的位置和距离,建立机器人运动学模型,求解其正逆运动学解并进行规划;
S4.8、无碰撞路径规划:根据规划好的运动学模型及路径,结合机器人的机械左臂(8)、机械左腿(7)和机械右腿(4)运动功能及范围,规划机械左臂(8)、机械左腿(7)和机械右腿(4)的动作和无碰撞路径;
S4.9、标记点位置误差测定:测定标记点的真实位置,并计算与规划位置的误差;
S4.10、伪逆类型误差补偿:通过对机械臂末端的位置误差进行补偿,使机械臂运动到规划位置;
S4.11、抓取试管,完成夹持作业。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210005213.8A CN114310957A (zh) | 2022-01-04 | 2022-01-04 | 用于医疗检测的机器人***及检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210005213.8A CN114310957A (zh) | 2022-01-04 | 2022-01-04 | 用于医疗检测的机器人***及检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114310957A true CN114310957A (zh) | 2022-04-12 |
Family
ID=81025325
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210005213.8A Pending CN114310957A (zh) | 2022-01-04 | 2022-01-04 | 用于医疗检测的机器人***及检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114310957A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116079720A (zh) * | 2022-12-23 | 2023-05-09 | 深圳优地科技有限公司 | 机器人控制方法、机器人和存储介质 |
CN117243642A (zh) * | 2023-11-16 | 2023-12-19 | 山东皇圣堂药业有限公司 | 一种基于机器视觉的智能咽拭子采样设备控制*** |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102323817A (zh) * | 2011-06-07 | 2012-01-18 | 上海大学 | 一种服务机器人控制平台***及其多模式智能交互与智能行为的实现方法 |
CN102950365A (zh) * | 2011-08-30 | 2013-03-06 | 昆山工研院工业机器人研究所有限公司 | 一种激光视觉传感头与焊***眼关系的补偿方法 |
US20170282359A1 (en) * | 2016-03-29 | 2017-10-05 | Honda Motor Co., Ltd. | Robot and control method thereof |
US20190040451A1 (en) * | 2016-01-08 | 2019-02-07 | Advanced Theranostics Inc. | Fully integrated hand-held device to detect specific nucleic acid sequences |
CN110014427A (zh) * | 2019-03-26 | 2019-07-16 | 华侨大学 | 一种基于伪逆的冗余度机械臂高精度运动规划方法 |
CN110774287A (zh) * | 2019-06-12 | 2020-02-11 | 酷至家(广州)智能科技发展有限公司 | 一种青少年家教机器人 |
CN111916195A (zh) * | 2020-08-05 | 2020-11-10 | 谈斯聪 | 一种医疗用机器人装置,***及方法 |
CN111906784A (zh) * | 2020-07-23 | 2020-11-10 | 湖南爱米家智能科技有限公司 | 一种基于机器视觉引导的咽拭子双臂采样机器人及采样方法 |
CN112545574A (zh) * | 2021-01-05 | 2021-03-26 | 杭州医学院 | 一种智能咽拭子采集机器人 |
CN112757323A (zh) * | 2021-01-26 | 2021-05-07 | 溥熵微创医疗科技(辽宁)有限公司 | 一种移动式咽拭子取样机器人 |
CN213339694U (zh) * | 2020-09-24 | 2021-06-01 | 湖南工程学院 | 一种辅助诊疗机器人 |
CN113208657A (zh) * | 2020-12-14 | 2021-08-06 | 汪汉柏 | 一种咽后壁体液自动采样装置及其采样方法 |
-
2022
- 2022-01-04 CN CN202210005213.8A patent/CN114310957A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102323817A (zh) * | 2011-06-07 | 2012-01-18 | 上海大学 | 一种服务机器人控制平台***及其多模式智能交互与智能行为的实现方法 |
CN102950365A (zh) * | 2011-08-30 | 2013-03-06 | 昆山工研院工业机器人研究所有限公司 | 一种激光视觉传感头与焊***眼关系的补偿方法 |
US20190040451A1 (en) * | 2016-01-08 | 2019-02-07 | Advanced Theranostics Inc. | Fully integrated hand-held device to detect specific nucleic acid sequences |
US20170282359A1 (en) * | 2016-03-29 | 2017-10-05 | Honda Motor Co., Ltd. | Robot and control method thereof |
CN110014427A (zh) * | 2019-03-26 | 2019-07-16 | 华侨大学 | 一种基于伪逆的冗余度机械臂高精度运动规划方法 |
CN110774287A (zh) * | 2019-06-12 | 2020-02-11 | 酷至家(广州)智能科技发展有限公司 | 一种青少年家教机器人 |
CN111906784A (zh) * | 2020-07-23 | 2020-11-10 | 湖南爱米家智能科技有限公司 | 一种基于机器视觉引导的咽拭子双臂采样机器人及采样方法 |
CN111916195A (zh) * | 2020-08-05 | 2020-11-10 | 谈斯聪 | 一种医疗用机器人装置,***及方法 |
CN213339694U (zh) * | 2020-09-24 | 2021-06-01 | 湖南工程学院 | 一种辅助诊疗机器人 |
CN113208657A (zh) * | 2020-12-14 | 2021-08-06 | 汪汉柏 | 一种咽后壁体液自动采样装置及其采样方法 |
CN112545574A (zh) * | 2021-01-05 | 2021-03-26 | 杭州医学院 | 一种智能咽拭子采集机器人 |
CN112757323A (zh) * | 2021-01-26 | 2021-05-07 | 溥熵微创医疗科技(辽宁)有限公司 | 一种移动式咽拭子取样机器人 |
Non-Patent Citations (3)
Title |
---|
张彭豪, 刚柔耦合串联机械臂末端位置误差分析与补偿研究, 15 February 2021 (2021-02-15), pages 140 - 912 * |
梁玮等: "智能机器人技术:安保、巡逻、处置类警用机器人研究实践", 31 January 2021, 湖南科学技术出版社, pages: 160 * |
谭月胜等, 刚柔耦合串联机械臂末端位置误差分析与补偿, 14 April 2021 (2021-04-14), pages 416 - 426 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116079720A (zh) * | 2022-12-23 | 2023-05-09 | 深圳优地科技有限公司 | 机器人控制方法、机器人和存储介质 |
CN117243642A (zh) * | 2023-11-16 | 2023-12-19 | 山东皇圣堂药业有限公司 | 一种基于机器视觉的智能咽拭子采样设备控制*** |
CN117243642B (zh) * | 2023-11-16 | 2024-01-26 | 山东皇圣堂药业有限公司 | 一种基于机器视觉的智能咽拭子采样设备控制*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110605714B (zh) | 一种基于人眼凝视点的手眼协调抓取方法 | |
Ling et al. | Dual-arm cooperation and implementing for robotic harvesting tomato using binocular vision | |
CN111055281B (zh) | 一种基于ros的自主移动抓取***与方法 | |
Aleotti et al. | Comfortable robot to human object hand-over | |
CN105729468B (zh) | 一种基于多深度摄像机增强的机器人工作台 | |
CN109202912B (zh) | 一种基于单目深度传感器和机械臂配准目标轮廓点云的方法 | |
EP3549725B1 (en) | Upper limb motion assisting device and upper limb motion assisting system | |
CN111906784A (zh) | 一种基于机器视觉引导的咽拭子双臂采样机器人及采样方法 | |
CN114310957A (zh) | 用于医疗检测的机器人***及检测方法 | |
US20230042756A1 (en) | Autonomous mobile grabbing method for mechanical arm based on visual-haptic fusion under complex illumination condition | |
US20110071675A1 (en) | Visual perception system and method for a humanoid robot | |
CN108499054B (zh) | 一种基于slam的车载机械臂捡球***及其捡球方法 | |
CN108972494A (zh) | 一种仿人机械手抓取控制***及其数据处理方法 | |
CN113696186A (zh) | 复杂光照条件下基于视触融合的机械臂自主移动抓取方法 | |
CN113100835B (zh) | 人体生理样本采集*** | |
CN112518748B (zh) | 面向运动物品的视觉机械臂自动抓取方法与*** | |
CN110666791A (zh) | 一种基于深度学习的rgbd机器人看护***及方法 | |
CN113100834B (zh) | 人体生理样本采集方法、装置、电子设备和存储介质 | |
CN108839035A (zh) | 一种取借阅图书的方法 | |
CN109636856B (zh) | 基于hog特征融合算子的物体六维度位姿信息联合测量方法 | |
Han et al. | Grasping control method of manipulator based on binocular vision combining target detection and trajectory planning | |
CN201355241Y (zh) | 基于视觉的空间目标位姿测量装置 | |
CN115586748B (zh) | 一种移动式智能柔性运动控制***及其方法 | |
CN115922725A (zh) | 一种咽拭子采样机器人定位*** | |
Jin et al. | Human-robot interaction for assisted object grasping by a wearable robotic object manipulation aid for the blind |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |