CN111582399A - 一种面向杀菌机器人的多传感器信息融合方法 - Google Patents

一种面向杀菌机器人的多传感器信息融合方法 Download PDF

Info

Publication number
CN111582399A
CN111582399A CN202010410470.0A CN202010410470A CN111582399A CN 111582399 A CN111582399 A CN 111582399A CN 202010410470 A CN202010410470 A CN 202010410470A CN 111582399 A CN111582399 A CN 111582399A
Authority
CN
China
Prior art keywords
layer
sensor
neural network
sterilization robot
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010410470.0A
Other languages
English (en)
Other versions
CN111582399B (zh
Inventor
赵安妮
韩贵东
马志刚
王旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin Province Senxiang Science And Technology Co ltd
Original Assignee
Jilin Province Senxiang Science And Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin Province Senxiang Science And Technology Co ltd filed Critical Jilin Province Senxiang Science And Technology Co ltd
Priority to CN202010410470.0A priority Critical patent/CN111582399B/zh
Publication of CN111582399A publication Critical patent/CN111582399A/zh
Application granted granted Critical
Publication of CN111582399B publication Critical patent/CN111582399B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manipulator (AREA)

Abstract

本发明涉及一种面向杀菌机器人的多传感器信息融合方法,为了解决医疗领域的杀菌机器人多传感器信息融合时,不确实性较高,不能精准地确定杀菌机器人在不同场景中的操作参数,自主性较差等问题。本发明包括以下步骤:生成目标分类训练数据集、通过处理融合多源信号的混合深度神经网络获取特征信息、建立基于投票证据理论的决策融合模型、训练获得杀菌机器人操作参数模型;本发明利用深度神经网络结合改进的证据理论方法,将杀菌机器人的视觉信号和传感器信号通过深度学习结合改进证据理论方法有机融合在一起,消除多传感器信息之间可能存在的冗余和矛盾,加以互补,降低其不确实性,进而更加精准的输出杀菌机器人的操作参数。

Description

一种面向杀菌机器人的多传感器信息融合方法
技术领域
本发明涉及一种信息融合方法,特别涉及一种面向杀菌机器人的混合深度神经网络多传感器信息融合方法。
背景技术
杀菌机器人是以机器人为载体,应用于医疗杀菌场景中,跟据设定的路线自动、高效、精准的对室内进行杀菌消毒。杀菌机器人可以利用脉冲氙灯高压电离极化发光原理,通过高强紫外波段光线,高效、快速的对物体表面和空气中的各类微生物灭活,达到消毒杀菌目的。
目前传染病隔离屋、病房、手术室等高危交叉感染区需要定期杀菌消毒,但这部分工作主要由人工完成,传统的室内杀菌消毒工作存在耗费劳动力、有死角、二次污染、浓度不能控制、成本高等缺陷,利用杀菌医疗机器人能够更加快速高效的杀菌,很大程度上分担了医护人员的繁重工作,其具有不怕感染的特点,能够工作在各种高危场景,而且不占用医疗资源。
杀菌机器人要针对病房、诊室、手术室等不同的场景,以及气体、温度、湿度等多种环境因素做出不同的判断。传感器***是机器人的感觉器官,几乎所有机器人当中都有传感器,让机器人把自身所需信息输入***,由传感器控制其感知***。多传感器信息融合技术作为一项智能化信息处理技术,所发挥的作用不言而喻。目前,多传感器数据融合的常用方法大致可分为两大类:随机和人工智能方法。信息融合的不同层次对应不同的算法,包括加权平均融合、卡尔曼滤波法、Bayes估计、统计决策理论、概率论方法、模糊逻辑推理、人工神经网络、D-S证据理论等。数据融合的过程为:每个传感器各自独立处理生成目标数据,每个传感器都有自己独立的感知,当所有传感器完成目标数据生成后,再由主处理器进行数据融合。
上述传统融合方法,在处理医疗领域的杀菌机器人多传感器信息融合时,多传感器信息之间存在冗余和矛盾,不确实性较高,不能精准的确定杀菌机器人在不同场景中的操作参数,自主性较差,还需要过多的人工干预和控制,效果尚有待提升。
发明内容
本发明为解决上述技术问题,利用深度神经网络结合改进的证据理论方法,进一步改进多传感器信息融合技术,提高多传感器信息融合技术在杀菌机器人上的应用效果,运用多传感器信息融合技术在解决杀菌机器人探测、跟踪和目标识别等问题方面,增强***生存能力,提高整个***的可靠性和健壮性,增强数据的可信度,提高精度,扩展***的时间、空间覆盖率,增加***的实时性和信息利用率等。本发明提供一种面向杀菌机器人的多传感器信息融合方法,包括以下步骤:
步骤一、生成目标分类训练数据集:
(1)数据采集:将杀菌机器人放到不同的场景中,通过机器人的摄像头获取当前的视觉图像,通过杀菌机器人的传感器获取相应的数据值;所述的场景包括手术室、病房、诊室或其他医疗场所或需杀菌处理的场所;杀菌机器人的传感器包括湿度传感器、温度传感器、气体传感器等。
(2)A/D转换:将传感器获取模拟值转换为可被使用的数字信号,完成A/D转换的过程;
(3)人工标注数据集:为了进行神经网络的训练,数据采集后,针对不同场景手动标注标签,用来表示在当前场景下杀菌机器人的操作参数;
(4)均衡样本:在进行训练之前,让不同标签的样例数目尽可能达到1:1的比例;
步骤二、通过处理融合多源信号的混合深度神经网络获取特征信息:
利用深度神经网络获取1x10特征向量表示图像的特征信息,方法如下:
图像的矩阵信号输入后,首先通过一个步长为2、卷积核大小为7*7的卷积层,其中卷积层计算过程由如下公式表示:
Figure BDA0002492966300000031
其中Z(l,p)表示第l个卷积层的第p个特征映射输出,X(l-1)为第l-1层的输入特征映射,W(l,p)和b(l,p)为第l层的卷积核及其偏置;
在经过一次卷积后,还要通过一个步长为2的max pooling层进行池化操作,在maxpooling层后,采用8个卷积核为3x3的卷积层进一步提取特征,其通道数分别为64、64、128、128、256、256,步长分别为1、1、2、1、2、1,其中,步长为2的卷积层用来替代池化层来对图形的尺寸进行压缩;为了防止深度神经网络训练时梯度消失等问题的发生,同时为了对之前层的特征重复利用,每隔两个卷积层加一个跳过连接,跳过连接的起始位置表示上一层的输出x,结束位置表示下一层的输入y,采用计算方式:
y=F(x)+Wx
其中F(x)表示同过两层卷积的输出,W表示卷积核大小为1x1的卷积操作,用来调整矩阵x的通道维度以及宽和高,确保与F(x)的尺寸相同;最后将F(x)与Wx逐像素点相加得到下一层的输入y;在通过8个卷积层之后,通过一个global pooling层将特征降维成尺寸为1x512的一维向量;最后通过一个全连接层得到一个1x10的向量,用来表示矩阵信号的特征信息;
利用BP神经网络将不同传感器的每一个信号转化为1x2的特征向量,表示传感器信号的特征信息,方法如下
湿度传感器、温度传感器以及气体传感器分别对应相应BP神经网络,每个BP神经网络由三部分组成:输入层、隐藏层、输出层,隐藏层由数个平等的结点组成,BP神经网络执行流程如下:
(1)网络初始化:设定连接权值向量与阈值向量的初始值,满足均值为0方差为1的正态分布;并通过人工基于经验来设定隐节点数、步长及动量项因子等超参数值,节点数通常在1000以内,步长一般设定为0.1,动量因子一般在0到1之间;
(2)提供输入样本数据;
(3)计算隐层单元的输出值:采用s型函数计算;
(4)计算输出单元的输出值:采用s型函数计算;
所述的s型函数的公式如下:
Figure BDA0002492966300000041
将非线性特性引入到BP神经网络中,将每一个信号转化为1x2的特征向量,表示传感器信号的特征信息。
步骤三、建立基于投票证据理论的决策融合模型:
以2路投票证据理论融合为基础,若多路则采用多次2路融合;所述的2路投票证据理论融合过程如下:
m(A)是A证据的可信度,p(A)是A证据的投票可信度,m(B)是B证据的可信度,p(B)是B证据的投票可信度,则A、B的融合结果为:
Figure BDA0002492966300000042
Figure BDA0002492966300000043
其中K表示归一化因子,反映了证据冲突程度;C表示A、B的融合证据,m(C)表示融合证据C的可信度。
将步骤二获得的矩阵信号的特征向量和变量信号的特征向量输入投票证据理论的决策融合模型获得最终输出;
步骤四、训练获得杀菌机器人操作参数模型:
通过杀菌机器人的摄像头获取视觉信号作为矩阵信号输入,各种传感器信号作为变量信号输入,人工标注杀菌机器人操作参数,进行端到端训练,获得最终模型。
本发明的有益效果:
本发明利用深度神经网络结合改进的证据理论方法,提出了面向杀菌医疗机器人的混合深度神经网络多传感器信息融合方法,可以把分布在杀菌机器人不同位置的多个同类或不同类传感器所提供的局部数据资源加以综合,将杀菌机器人的视觉信号和传感器信号,通过深度学习结合改进证据理论方法有机融合在一起,采用计算机技术对其进行分析,消除多传感器信息之间可能存在的冗余和矛盾,加以互补,降低其不确实性,进而更加精准的输出杀菌机器人的操作参数;
本发明的深度神经网络能依据视频信号有效分辨机器人所处场景,利用深度学习方法进行场景识别有以下优势:首先,CNN可以从输入图像中自动提取包含更多语义和结构信息的特征,且经过网络结构中的非线性变换后变得更具有判别力;其次,深度层次结构能更好解释场景中的空间分布;
本发明的投票证据理论方法通过投票集成了先验知识,能达到更好的决策融合效果,用投票的方法是从概率统计学角度出发解决两个相矛盾证据合成问题,具有很好的数学性质和工程应用,能提高整个***的正确率;
本发明整体上能实现端到端,在标注数据充足的环境下,不需要人工干预,也能学到满意效果,机器人可以在复杂的室内环境中自主确定操作参数,降低人工成本、减少对消毒操作人员的危害。
附图说明
图1为本发明混合深度神经网络多传感器信息融合方法示意图。
具体实施方式
本发明提供的一种面向杀菌机器人的多传感器信息融合方法,包括以下步骤:
步骤一、生成目标分类训练数据集:
(1)数据采集:利用多源传感器在目标环境中获取原始的待测信息。将杀菌机器人放到不同的场景中,通过机器人的摄像头获取当前的视觉图像,通过杀菌机器人的湿度、温度、气体传感器获取相应的数据值;所述的场景包括手术室、病房、诊室或其他医疗场所或需杀菌处理的场所;
(2)A/D转换:由于传感器采集到的原始信息往往是温度等非电信号,在进行数据处理之前,将传感器获取的数据值转换为可被使用的数字信号(摄像头获取的视觉图像不用进行转换),完成A/D转换的过程;
(3)人工标注数据集:为了进行神经网络的训练,数据采集后,针对不同场景手动标注标签,用来表示在当前场景下杀菌机器人的操作参数,操作参数包括工作电压、工作时间、光照频率、机器人角度和机器人行进路线参数,针对不同场景,机器人的操作参数也不同;
(4)均衡样本:在进行训练之前,让不同标签的样例数目尽可能达到1:1的比例;
步骤二、通过处理融合多源信号的混合深度神经网络获取特征信息:
混合深度神经网络能够同步处理矩阵信号和单变量信号。
利用深度神经网络获取图像的特征信息的方法如下:
深度神经网络是一种拥有多层感知器、局部连接和权值共享的网络结构,有较强的容错、学习和并行处理能力,从而降低了网络模型的复杂性和网络连接权值的个数。
矩阵信号输入后,首先通过一个步长为2、卷积核大小为7*7的卷积层,其中卷积层计算过程由如下公式表示:
Figure BDA0002492966300000071
其中Z(l,p)表示第l个卷积层的第p个特征映射输出,X(l--1)为第l-1层的输入特征映射,W(l,p)和b(l,p)为第l层的卷积核及其偏置;
在经过一次卷积后,还要通过一个步长为2的max pooling层进行池化操作,利用池化层可以达到降维、实现非线性、扩大感知野实现不变性(平移不变性,旋转不变性,尺度不变性)的目的。在max pooling层后,采用8个卷积核为3x3的卷积层进一步提取特征,其通道数分别为64、64、128、128、256、256,步长分别为1、1、2、1、2、1,其中,步长为2的卷积层用来替代池化层来对图形的尺寸进行压缩,在提取特征的同时还能降维并减少计算量。为了防止深度神经网络训练时梯度消失等问题的发生,同时为了对之前层的特征重复利用,每隔两个卷积层加一个跳过连接,如图1中的弧线所示,其中有3个跳过连接。每条弧线的起始位置表示上一层的输出x,结束位置表示下一层的输入y,采用计算方式:
y=F(x)+Wx
其中F(x)表示同过两层卷积的输出,W表示卷积核大小为1x1的卷积操作,用来调整矩阵x的通道维度以及宽和高,确保与F(x)的尺寸相同(如果x与F(x)尺寸相同,则不需要卷积操作);最后将F(x)与Wx逐像素点相加得到下一层的输入y;在通过8个卷积层之后,通过一个global pooling层将特征降维成尺寸为1x512的一维向量;最后通过一个全连接层得到一个1x10的向量,用来表示矩阵信号的特征信息;
利用BP神经网络获取传感器的特征信息的方法如下:
如图所示,湿度传感器、温度传感器以及气体传感器分别对应相应的BP神经网络,每个BP神经网络由三部分组成:输入层、隐藏层、输出层,隐藏层由数个平等的结点组成,BP神经网络执行流程如下:
(1)网络初始化:设定连接权值向量与阈值向量的初始值,满足均值为0方差为1的正态分布;并通过人工基于经验来设定隐节点数、步长及动量项因子等超参数值,节点数通常在1000以内,步长一般设定为0.1,动量因子一般在0到1之间;
(2)提供输入样本数据;
(3)计算隐层单元的输出值:采用s型函数计算;
(4)计算输出单元的输出值:采用s型函数计算;
其中,s型函数的公式如下:
Figure BDA0002492966300000081
将非线性特性引入到BP神经网络中,将每一个信号转化为1x2的特征向量,表示传感器信号的特征信息;
例如,将杀菌机器人放到病房中,机器人通过摄像头获取到当前场景的视觉图像(矩阵信号),通过湿度、温度、气体传感器获取到非电信号并通过A/D转换变成三种单变量信号;将矩阵信号通过深度神经网络转化为1x10的向量,将三个单变量信号分别通过三个BP神经网络转换为三个1x2的向量。这四个向量就表示杀菌机器人在当前场景中捕获到的特征信息。
步骤三、建立基于投票证据理论的决策融合模型:
为了有效融合待识别***的多源证据信息,提高模式识别的准确性,提出了一种基于投票证据理论的决策融合模型。该方法基于不同来源证据对最终的判别结果具有不同可靠性这一事实,将各证据对结果判别的正确率转换成投票系数,保证各证据在模式识别过程中存在的不确定性经过投票融合后能够最大限度削弱,从而从理论上降低了模式识别的不确定性。
以2路投票证据理论融合为基础,若多路则采用多次2路融合;所述的2路投票证据理论融合过程如下:
m(A)是A证据的可信度,p(A)是A证据的投票可信度,m(B)是B证据的可信度,p(B)是B证据的投票可信度,p(A)p(B)由领域专家根据该传感器类型对最终输出结果的相关性人为设定。
则A、B的融合结果为:
Figure BDA0002492966300000091
Figure BDA0002492966300000092
其中K表示归一化因子,反映了证据冲突程度;C表示A、B的融合证据,m(C)表示融合证据C的可信度。
将步骤二获得的矩阵信号的特征向量和变量信号的特征向量输入投票证据理论的决策融合模型获得最终输出,输出杀菌机器人该场景下的操作参数;
例如:输出结果类型是光照频率,领域专家将温度投票可信度设为0.7,湿度投票可信度设为0.2。温湿度传感器输入接BP网络,前向传播获得结果,再执行步骤三,获得投票证据理论融合结果并输出光照频率参数。
步骤四、训练获得杀菌机器人操作参数模型:
通过杀菌机器人的摄像头获取视觉信号作为矩阵信号输入,各种传感器信号作为变量信号输入,人工标注杀菌机器人操作参数,进行端到端训练,获得模型。杀菌机器人可以根据训练后的模型,在不同环境自动获取操作参数进而自主运行。

Claims (4)

1.一种面向杀菌机器人的多传感器信息融合方法,其特征在于,包括以下步骤:
步骤一、生成目标分类训练数据集:
(1)数据采集:将杀菌机器人放到不同的场景中,通过机器人的摄像头获取当前的视觉图像,通过杀菌机器人的传感器获取相应的传感器数据值;
(2)A/D转换:将传感器获取的数据值转换为可被使用的数字信号;
(3)人工标注数据集:数据采集后,针对不同场景手动标注标签,用来表示在当前场景下杀菌机器人的操作参数;
(4)均衡样本:在进行训练之前,让不同标签的样例数目尽可能达到1:1的比例;
步骤二、通过处理融合多源信号的混合深度神经网络获取特征信息:
利用深度神经网络获取1x10特征向量表示图像的特征信息:
利用BP神经网络将不同传感器的每一个信号转化为1x2的特征向量,表示传感器信号的特征信息;
步骤三、建立基于投票证据理论的决策融合模型:
将步骤二获得的矩阵信号的特征向量和变量信号的特征向量输入投票证据理论的决策融合模型获得最终输出,输出杀菌机器人的操作参数;
步骤四、训练获得杀菌机器人操作参数模型:
通过杀菌机器人的摄像头获取视觉信号作为矩阵信号输入,各种传感器信号作为变量信号输入,人工标注杀菌机器人操作参数,进行端到端训练,获得最终模型。
2.根据权利要求1所述的一种面向杀菌机器人的多传感器信息融合方法,其特征在于:步骤一中,所述的场景包括手术室、病房、诊室或其他医疗场所或需杀菌处理的场所;杀菌机器人的传感器包括湿度传感器、温度传感器、气体传感器;杀菌机器人的操作参数包括工作电压、工作时间、光照频率、机器人角度、机器人行进路线参数。
3.根据权利要求1所述的一种面向杀菌机器人的多传感器信息融合方法,其特征在于:步骤二中,利用深度神经网络获取图像的特征信息的方法如下:
图像的矩阵信号输入后,首先通过一个步长为2、卷积核大小为7*7的卷积层,其中卷积层计算过程由如下公式表示:
Figure FDA0002492966290000021
其中Z(l,p)表示第l个卷积层的第p个特征映射输出,X(l-1)为第l-1层的输入特征映射,W(l,p,d)和b(l,p)为第l层的卷积核及其偏置;
在经过一次卷积后,还要通过一个步长为2的max pooling层进行池化操作,在maxpooling层后,采用8个卷积核为3x3的卷积层进一步提取特征,其通道数分别为64、64、128、128、256、256,步长分别为1、1、2、1、2、1,其中,步长为2的卷积层用来替代池化层来对图形的尺寸进行压缩;为了防止深度神经网络训练时梯度消失等问题的发生,同时为了对之前层的特征重复利用,每隔两个卷积层加一个跳过连接,跳过连接的起始位置表示上一层的输出x,结束位置表示下一层的输入y,采用计算方式:
y=F(x)+Wx
其中F(x)表示同过两层卷积的输出,W表示卷积核大小为1x1的卷积操作,用来调整矩阵x的通道维度以及宽和高,确保与F(x)的尺寸相同;最后将F(x)与Wx逐像素点相加得到下一层的输入y;在通过8个卷积层之后,通过一个global pooling层将特征降维成尺寸为1x512的一维向量;最后通过一个全连接层得到一个1x10的向量,用来表示矩阵信号的特征信息;
利用BP神经网络获取传感器的特征信息的方法如下;
各传感器分别对应相应BP神经网络,每个BP神经网络由三部分组成:输入层、隐藏层、输出层,隐藏层由数个平等的结点组成,BP神经网络执行流程如下:
(1)网络初始化;设定连接权值向量与阈值向量的初始值、隐节点数、步长及动量项因子
(2)提供输入样本数据;
(3)计算隐层单元的输出值;采用s型函数
(4)计算输出单元的输出值;采用s型函数
所述的s型函数的公式如下:
Figure FDA0002492966290000031
将非线性特性引入到BP神经网络中,将每一个信号转化为1x2的特征向量,表示其特征信息。
4.根据权利要求1所述的一种面向杀菌机器人的多传感器信息融合方法,其特征在于:步骤三、建立基于投票证据理论的决策融合模型:以2路投票证据理论融合为基础,若多路则采用多次2路融合;所述的2路投票证据理论融合过程如下:m(A)是A证据的可信度,p(A)是A证据的投票可信度,m(B)是B证据的可信度,p(B)是B证据的投票可信度,则A、B的融合结果为:
Figure FDA0002492966290000032
Figure FDA0002492966290000033
其中K表示归一化因子,反映证据冲突程度;C表示A、B的融合证据,m(C)表示融合证据C的可信度。
CN202010410470.0A 2020-05-15 2020-05-15 一种面向杀菌机器人的多传感器信息融合方法 Active CN111582399B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010410470.0A CN111582399B (zh) 2020-05-15 2020-05-15 一种面向杀菌机器人的多传感器信息融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010410470.0A CN111582399B (zh) 2020-05-15 2020-05-15 一种面向杀菌机器人的多传感器信息融合方法

Publications (2)

Publication Number Publication Date
CN111582399A true CN111582399A (zh) 2020-08-25
CN111582399B CN111582399B (zh) 2023-07-18

Family

ID=72110922

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010410470.0A Active CN111582399B (zh) 2020-05-15 2020-05-15 一种面向杀菌机器人的多传感器信息融合方法

Country Status (1)

Country Link
CN (1) CN111582399B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113082268A (zh) * 2021-03-12 2021-07-09 浙江创力电子股份有限公司 一种基于4g的联网手持消毒机
CN113283516A (zh) * 2021-06-01 2021-08-20 西北工业大学 一种基于强化学习和d-s证据理论的多传感器数据融合方法
CN117574314A (zh) * 2023-11-28 2024-02-20 东风柳州汽车有限公司 传感器的信息融合方法、装置、设备及存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107135281A (zh) * 2017-03-13 2017-09-05 国家计算机网络与信息安全管理中心 一种基于多数据源融合的ip地域类特征提取方法
CN107145878A (zh) * 2017-06-01 2017-09-08 重庆邮电大学 基于深度学习的老人异常行为检测方法
CN110008843A (zh) * 2019-03-11 2019-07-12 武汉环宇智行科技有限公司 基于点云和影像数据的车辆目标联合认知方法和***
CN110045672A (zh) * 2018-01-15 2019-07-23 中冶长天国际工程有限责任公司 一种皮带机的故障诊断方法及装置
CN110569779A (zh) * 2019-08-28 2019-12-13 西北工业大学 基于行人局部和整体属性联合学习的行人属性识别方法
CN110866887A (zh) * 2019-11-04 2020-03-06 深圳市唯特视科技有限公司 一种基于多传感器的目标态势融合感知方法和***
CN111000684A (zh) * 2019-09-27 2020-04-14 张兴利 一种基于多传感器融合的纸尿裤外置监测***及监测方法
CN111209434A (zh) * 2020-01-09 2020-05-29 国网江苏省电力有限公司徐州供电分公司 一种基于多源异构数据融合的变电站设备巡检***及方法
CN111311945A (zh) * 2020-02-20 2020-06-19 南京航空航天大学 一种融合视觉和传感器信息的驾驶决策***及方法
CN112947147A (zh) * 2021-01-27 2021-06-11 上海大学 一种基于多传感器及云平台算法的消防机器人

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107135281A (zh) * 2017-03-13 2017-09-05 国家计算机网络与信息安全管理中心 一种基于多数据源融合的ip地域类特征提取方法
CN107145878A (zh) * 2017-06-01 2017-09-08 重庆邮电大学 基于深度学习的老人异常行为检测方法
CN110045672A (zh) * 2018-01-15 2019-07-23 中冶长天国际工程有限责任公司 一种皮带机的故障诊断方法及装置
CN110008843A (zh) * 2019-03-11 2019-07-12 武汉环宇智行科技有限公司 基于点云和影像数据的车辆目标联合认知方法和***
CN110569779A (zh) * 2019-08-28 2019-12-13 西北工业大学 基于行人局部和整体属性联合学习的行人属性识别方法
CN111000684A (zh) * 2019-09-27 2020-04-14 张兴利 一种基于多传感器融合的纸尿裤外置监测***及监测方法
CN110866887A (zh) * 2019-11-04 2020-03-06 深圳市唯特视科技有限公司 一种基于多传感器的目标态势融合感知方法和***
CN111209434A (zh) * 2020-01-09 2020-05-29 国网江苏省电力有限公司徐州供电分公司 一种基于多源异构数据融合的变电站设备巡检***及方法
CN111311945A (zh) * 2020-02-20 2020-06-19 南京航空航天大学 一种融合视觉和传感器信息的驾驶决策***及方法
CN112947147A (zh) * 2021-01-27 2021-06-11 上海大学 一种基于多传感器及云平台算法的消防机器人

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
刘宝升;陈利飞;刘艳;刘庭;陈健;: "基于证据理论的输电线路带电状态非接触检测方法", 武汉大学学报(工学版), no. 01 *
张池平等: "一种基于神经网络和证据理论的信息融合算法", 《计算机工程与应用》, no. 01, pages 1 - 2 *
张立智等: "CNN和D-S证据理论相结合的齿轮箱复合故障诊断研究", 《机械科学与技术》, no. 010 *
李彬;马国胜;李剑;: "D-S证据理论在公路车辆识别方面的应用", 中国仪器仪表, no. 04 *
赵小川等: "机器人多传感器信息融合研究综述", 《传感器与微***》, no. 08 *
高源: "多传感器信息融合及其应用研究", 《产业创新研究》, no. 08, pages 168 - 173 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113082268A (zh) * 2021-03-12 2021-07-09 浙江创力电子股份有限公司 一种基于4g的联网手持消毒机
CN113283516A (zh) * 2021-06-01 2021-08-20 西北工业大学 一种基于强化学习和d-s证据理论的多传感器数据融合方法
CN113283516B (zh) * 2021-06-01 2023-02-28 西北工业大学 一种基于强化学习和d-s证据理论的多传感器数据融合方法
CN117574314A (zh) * 2023-11-28 2024-02-20 东风柳州汽车有限公司 传感器的信息融合方法、装置、设备及存储介质
CN117574314B (zh) * 2023-11-28 2024-06-18 东风柳州汽车有限公司 传感器的信息融合方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN111582399B (zh) 2023-07-18

Similar Documents

Publication Publication Date Title
CN107492121B (zh) 一种单目深度视频的二维人体骨骼点定位方法
CN111582399B (zh) 一种面向杀菌机器人的多传感器信息融合方法
CN106951923B (zh) 一种基于多视角信息融合的机器人三维形状识别方法
CN112395945A (zh) 基于骨骼关节点的图卷积行为识别方法及装置
CN111291809B (zh) 一种处理装置、方法及存储介质
CN111461063B (zh) 一种基于图卷积和胶囊神经网络的行为识别方法
CN114613013A (zh) 一种基于骨骼节点的端到端人类行为识别方法与模型
CN111881802B (zh) 基于双分支时空图卷积网络的交警手势识别方法
Jin et al. Target recognition of industrial robots using machine vision in 5G environment
Lin et al. Posting techniques in indoor environments based on deep learning for intelligent building lighting system
CN117373116A (zh) 基于图神经网络的轻量级特征保留的人体动作检测方法
CN116246338B (zh) 一种基于图卷积和Transformer复合神经网络的行为识别方法
Owoyemi et al. Learning human motion intention with 3D convolutional neural network
Carusone et al. The" feature cmac": a neural-network-based vision system for robotic control
Shahbaz et al. Convolutional neural network based foreground segmentation for video surveillance systems
CN113255514B (zh) 基于局部场景感知图卷积网络的行为识别方法
Huang et al. A multiclass boosting approach for integrating weak classifiers in parking space detection
Wang et al. Occupancy detection based on spiking neural networks for green building automation systems
Postnikov et al. Conditioned human trajectory prediction using iterative attention blocks
CN112613405B (zh) 任意视角动作识别方法
Ferreira et al. Learning visual dynamics models of rigid objects using relational inductive biases
CN113111721B (zh) 基于多无人机视角图像数据驱动的人体行为智能识别方法
Heikkonen et al. Self-organizing maps for visually guided collision-free navigation
CN111627064B (zh) 一种行人交互友好型的单目避障方法
Garov et al. Application and some fundamental study of GNN in forecasting

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant