CN108406848A - 一种基于场景分析的智能机器人及其运动控制方法 - Google Patents
一种基于场景分析的智能机器人及其运动控制方法 Download PDFInfo
- Publication number
- CN108406848A CN108406848A CN201810210328.4A CN201810210328A CN108406848A CN 108406848 A CN108406848 A CN 108406848A CN 201810210328 A CN201810210328 A CN 201810210328A CN 108406848 A CN108406848 A CN 108406848A
- Authority
- CN
- China
- Prior art keywords
- module
- information
- detection
- scene
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种基于场景分析的智能机器人及其运动控制方法。借助视觉、听觉、触觉模块,获取当前场景中的信息,如:人体信息,物体信息,用户语音信息等。各模块数据统一汇总到场景分析模块,由场景分析模块进行信息优先级排列,以及多种场景信息的融合。场景信息模块经过分析之后,完成对当前环境的建模,以及对应运动指令的生成,然后传送至运动输出模块,将命令发送至各个执行单元,进行相应运动的执行。本发明通过多传感器的融合完成对场景的识别,而非单一的视觉或语音识别。场景识别中对人的识别,对物体的识别,以及对环境的识别统一合成场景信息,增强了识别的适应性。增强了机器人的自主性与交互性。
Description
技术领域
本发明涉及机器人技术领域,尤其涉及一种基于场景分析的智能机器人及其运动控制方法。
背景技术
机器人作为没有一个自主意识的工具,只能用来解决一些标准化程度很高的工作,越单一动作的工作机器人替代的可能性就越高,其最初的应用也就是在汽车制造。经过几十年的发展,机器人技术不断完善,智能化程度也越来越高,其应用也从制造业拓展到了消费市场。
消费级机器人,主流的有两种形式:一种以运动性能为主,用手机或控制器进行控制;另一种以智能***为主,但多数只是搭载在普通的小车,或固定的结构上。目前市面上还不存在即能智能地与人交互,又具备良好的自主运动性能的消费级机器人。
发明内容
有鉴于现有技术的上述缺陷,本发明所要解决的技术问题是提供一种基于场景分析的智能机器人及其运动控制方法,分别能自主工作、人工操作及人机互动,智能化程度高,可以根据周围环境的不同做出相应的反应。
为实现上述目的,本发明提供了一种基于场景分析的智能机器人,包括机器人视觉模块、听觉模块、触觉模块、场景分析模块、运动输出模块,所述视觉模块、听觉模块、触觉模块均与场景分析模块连接,所述场景分析模块输出端与运动输出模块连接,其中:视觉模块包括依次连接的图像读取子模块、图像处理子模块、目标物检测子模块;听觉模块包括依次连接的环境噪音处理子模块、特征信号检测子模块、听觉信息汇总子模块;触觉模块包括依次连接的触觉传感子模块、触觉信息汇总模块;场景分析模块包含依次连接的传感器信息融合子模块、优先级筛选子模块、动作生成子模块。
进一步地,所述视觉模块的目标物检测子模块包括人体检测模块、物体检测模块、障碍物检测模块以及与人体检测模块、物体检测模块、障碍物检测模块连接的视觉信息汇总模块。
进一步地,所述触觉模块的触觉传感子模块包括压力传感器和触摸传感器,压力传感器布置在机器人末端执行器,触摸传感器布置在机器人基体表面。
进一步地,所述运动输出模块包括电机以及检测电机位置的位置传感器。
一种基于场景分析的智能机器人运动控制方法,其特征在于:
视觉模块获得画面信息,包括:检测与人相关的信息、检测除人体之外其他物体的信息、检测机器人前方是否存在障碍;
听觉模块获得听觉信息,包括:将检测的环境的声音信号滤波预处理、检测声音分类,并对不同分类的声音提取语义信息;
触觉模块获得触觉信息,包括:机器人抓取物体的信息,以及是否被触摸的信息;
场景分析模块综合视觉模块、听觉模块、触觉模块信息,进行融合、优先级排列,通过深度神经网络模型生成场景语义信息,根据场景语义信息,生成机器人相应动作;
运动输出模块,将机器人动作分布到各个电机的运动。
进一步地,所述视觉模块获得画面信息,具体包括:
摄像头以30fps的速率捕获图像,并不断更新缓存区的图像数据,之后各个模块以多线程的形式,同时调用缓存区中同一帧图像;
人体检测模块主要检测与人相关的信息;首先检测画面中是否有人,如果无人,则直接返回结果;如果有人,则检测人体的姿势,以及手势信息;同时检测是否有人脸,如果有人脸则检测包括但不限于人脸的表情、人脸是否认识、人脸性别、人脸年龄的信息;之后,将所有人体检测模块的信息传送到视觉信息汇总模块;
物体检测模块主要检测除人体之外其他物体的信息,***预先存储常见物体的特征并且已标记,物体检测模块在采集到的图像上进行搜索,寻找是否存在已标记的物体,如果检测到有标记的物体,将检测到的物体标号以及在画面中的位置信息传送到视觉信息汇总模块;
障碍检测模块主要检测机器人前方是否存在障碍,此模块根据图像连续性信息,检测图像中是否有疑似障碍物,并返回其在图像中的位置以及大小信息至视觉信息汇总模块;
视觉信息汇总模块接收到人体检测模块、物体检测模块、障碍物检测模块输入的信息,按照一定格式,将信息排序之后,传送到场景分析模块进行分析。
进一步地,所述听觉模块获得听觉信息,具体步骤包括:
麦克风捕捉到环境的声音信号之后,首先经过环境噪音处理子模块滤波预处理操作,过滤掉环境噪声;
通过特征信号检测子模块检测人声以及其他已存储的声音;
对于已存储的特定声音,***内已经存储了对应的语义信息,该信息直接发送到听觉信息汇总子模块;对于人声,根据特征信号检测子模块的特征模型提取出人声包含的关键字,将该文本信息发送到听觉信息汇总子模块;
听觉信息汇总子模块将所有声音信息汇总,按照固定的格式发送至场景分析模块进行分析。
进一步地,所述触觉模块获得触觉信息,具体包括:
压力传感器布置在机器人末端执行器,通过电压信息判断手爪是否抓取物体以及物体的重量;
触摸传感器布置在机器人基体表面,通过判断各个部位的电压脉冲变化,得出机器人是否被触摸,以及触摸位置信息。
进一步地,所述场景分析模块综合视觉模块、听觉模块、触觉模块信息,进行融合、优先级排列,通过深度神经网络模型生成场景语义信息,根据场景语义信息,生成机器人相应动作,具体为:
视觉模块、听觉模块、触觉模块在处理数据前,在待处理数据上标记时间戳,场景分析模块在得到信息后,首先通过时间戳校验数据,并将所有数据按最新的时间同步;
时间同步后,将视觉模块、听觉模块、触觉模块检测处理后存在相关性的信息进行融合;
对融合后的信息进行优先级排列,按照优先级从高到低为人、动物、障碍物、其他物体的优先级顺序筛选融合信息;
根据优先级顺序对融合信息筛选后,通过预先训练好的深度神经网络模型,生成当前场景语义信息,再按照一定的规则转换为机器人执行动作的指令,发送给动作生成子模块。
本发明的有益效果是:
1、通过多传感器的融合完成对场景的识别,而非单一的视觉或语音识别。
2、在获得场景信息之后,机器人能够做出肢体动作上的反应,而非单一的语音或屏幕反应。
3、场景识别中对人的识别,对物体的识别,以及对环境的识别统一合成场景信息,增强了识别的适应性。
4、增强了机器人的自主性与交互性。
以下将结合附图对本发明的构思、具体结构及产生的技术效果作进一步说明,以充分地了解本发明的目的、特征和效果。
附图说明
图1是本发明的整体结构框图。
图2是本发明的视觉模块工作流程图。
图3是本发明的听觉模块工作流程图。
图4是本发明的触觉模块工作流程图。
图5是本发明的场景分析模块工作流程图。
图6是本发明的运动输出模块工作流程图。
具体实施方式
如图1所示,一种基于场景分析的智能机器人,包括机器人视觉模块、听觉模块、触觉模块、场景分析模块、运动输出模块,所述视觉模块、听觉模块、触觉模块均与场景分析模块连接,所述场景分析模块输出端与运动输出模块连接,其中:视觉模块包括依次连接的图像读取子模块、图像处理子模块、目标物检测子模块;听觉模块包括依次连接的环境噪音处理子模块、特征信号检测子模块、听觉信息汇总子模块;触觉模块包括依次连接的触觉传感子模块、触觉信息汇总模块;场景分析模块包含依次连接的传感器信息融合子模块、优先级筛选子模块、动作生成子模块。
本实施例中,所述视觉模块的目标物检测子模块包括人体检测模块、物体检测模块、障碍物检测模块以及与人体检测模块、物体检测模块、障碍物检测模块连接的视觉信息汇总模块。
本实施例中,所述触觉模块的触觉传感子模块包括压力传感器和触摸传感器,压力传感器布置在机器人末端执行器,触摸传感器布置在机器人基体表面。
本实施例中,所述运动输出模块包括电机以及检测电机位置的位置传感器。
如图2-6所示,一种基于场景分析的智能机器人运动控制方法:
视觉模块获得画面信息,包括:检测与人相关的信息、检测除人体之外其他物体的信息、检测机器人前方是否存在障碍;
听觉模块获得听觉信息,包括:将检测的环境的声音信号滤波预处理、检测声音分类,并对不同分类的声音提取语义信息;
触觉模块获得触觉信息,包括:机器人抓取物体的信息,以及是否被触摸的信息;
场景分析模块综合视觉模块、听觉模块、触觉模块信息,进行融合、优先级排列,通过深度神经网络模型生成场景语义信息,根据场景语义信息,生成机器人相应动作;
运动输出模块,将机器人动作分布到各个电机的运动。
本实施例中,所述视觉模块获得画面信息,具体包括:
摄像头以30fps的速率捕获图像,并不断更新缓存区的图像数据,之后各个模块以多线程的形式,同时调用缓存区中同一帧图像;
人体检测模块主要检测与人相关的信息;首先检测画面中是否有人,如果无人,则直接返回结果;如果有人,则检测人体的姿势,以及手势信息;同时检测是否有人脸,如果有人脸则检测包括但不限于人脸的表情、人脸是否认识、人脸性别、人脸年龄的信息;之后,将所有人体检测模块的信息传送到视觉信息汇总模块;
物体检测模块主要检测除人体之外其他物体的信息,***预先存储常见物体的特征并且已标记,物体检测模块在采集到的图像上进行搜索,寻找是否存在已标记的物体,如果检测到有标记的物体,将检测到的物体标号以及在画面中的位置信息传送到视觉信息汇总模块;
障碍检测模块主要检测机器人前方是否存在障碍,此模块根据图像连续性信息,检测图像中是否有疑似障碍物,并返回其在图像中的位置以及大小信息至视觉信息汇总模块;
视觉信息汇总模块接收到人体检测模块、物体检测模块、障碍物检测模块输入的信息,按照一定格式,将信息排序之后,传送到场景分析模块进行分析。
本实施例中,所述听觉模块获得听觉信息,具体步骤包括:
麦克风捕捉到环境的声音信号之后,首先经过环境噪音处理子模块滤波预处理操作,过滤掉环境噪声;
通过特征信号检测子模块检测人声以及其他已存储的声音;
对于已存储的特定声音,***内已经存储了对应的语义信息,该信息直接发送到听觉信息汇总子模块;对于人声,根据特征信号检测子模块的特征模型提取出人声包含的关键字,将该文本信息发送到听觉信息汇总子模块;
听觉信息汇总子模块将所有声音信息汇总,按照固定的格式发送至场景分析模块进行分析。
本实施例中,所述触觉模块获得触觉信息,具体包括:
压力传感器布置在机器人末端执行器,通过电压信息判断手爪是否抓取物体以及物体的重量;
触摸传感器布置在机器人基体表面,通过判断各个部位的电压脉冲变化,得出机器人是否被触摸,以及触摸位置信息。
本实施例中,所述场景分析模块综合视觉模块、听觉模块、触觉模块信息,进行融合、优先级排列,通过深度神经网络模型生成场景语义信息,根据场景语义信息,生成机器人相应动作,具体为:
视觉模块、听觉模块、触觉模块在处理数据前,在待处理数据上标记时间戳,场景分析模块在得到信息后,首先通过时间戳校验数据,并将所有数据按最新的时间同步;
时间同步后,将视觉模块、听觉模块、触觉模块检测处理后存在相关性的信息进行融合;
对融合后的信息进行优先级排列,按照优先级从高到低为人、动物、障碍物、其他物体的优先级顺序筛选融合信息;
根据优先级顺序对融合信息筛选后,通过预先训练好的深度神经网络模型,生成当前场景语义信息,再按照一定的规则转换为机器人执行动作的指令,发送给动作生成子模块。
以下具体说明本发明原理:
如图2所示,视觉模块获得的信息包括:画面中是否有人,画面中是否有机器人已经记忆的物体。如有人,是否有人脸。如有人脸,人脸是否已经认识,是否具有情绪。人以及目标物体相对于机器人的姿态。
视觉处理主要是指从摄像头捕捉到图像到获取图像中语义信息的过程。首先,摄像头以30fps的速率捕获图像,并不断更新缓存区的图像数据。之后,各个模块以多线程的形式,同时调用缓存区中同一帧图像。
人体检测模块主要检测与人相关的信息。首先检测画面中是否有人,如果无人,则直接返回结果。如果有人,则检测人体的姿势,以及手势信息。同时检测是否有人脸,如果有人脸则检测人脸的表情,人脸是否认识,人脸性别,人脸年龄等信息。之后,将所有人体检测模块的信息传送到视觉信息汇总模块。
物体检测模块主要检测除人体之外其他物体的信息。***预先以及存储了常见物体的特征,在物体检测模块,通过在图像上进行搜索,寻找是否存在已标记的物体,如宠物,花盆,桌子,垃圾桶等。之后,将检测到的物体标号,以及在画面中的位置信息传送到视觉信息汇总模块。
障碍检测模块主要检测机器人前方是否存在障碍。此模块根据图像连续性信息,检测图像中是否有疑似障碍物,并返回其在图像中的位置以及大小信息至视觉信息汇总模块。
视觉信息汇总模块接收到各个模块输入的信息,按照一定格式,将信息排序之后,传送到场景分析模块进行分析。
如图3所示,听觉模块获得的信息包括:环境中是否有机器人已经记忆的声音信号,是否具有人声信号,声音信号是否含有语义信息。听觉处理主要指从麦克风收集到声音数据到获取到声音中语义和文本信息的过程。
麦克风捕捉到环境的声音信号之后,首先经过滤波等预处理操作,过滤掉环境噪声,之后,通过特定频率检测人声以及其他已存储的声音(如猫叫,狗叫等)。对于已存储的特定声音,***内已经存储了对应的语义信息,该信息直接发送到听觉信息汇总模块。对于人声,根据特征模型提取出人声包含的关键字,将该文本信息发送到听觉信息汇总模块。之后听觉信息汇总模块将所有信息汇总,按照固定的格式发送至场景分析模块进行分析。
如图4所示,触觉模块获得的信息包括:机器人是否被触摸,被触摸的次数以及时间。触觉处理是指从压力传感器和触摸传感器获取的数据的得出与机器人直接接触的物体信息。
压力传感器布置在机器人末端执行器,即机器人手部。用于通过电压信息判断手爪是否抓取物体,物体的重量等。
触摸传感器布置在机器人基体表面,通过判断各个部位的电压脉冲变化,得出机器人是否被触摸,以及触摸位置信息。
触觉信息汇总模块将抓取信息和触摸信息汇总,按照固定的格式发送至场景分析模块进行分析。
如图5所示,场景分析模块的作用在于综合各模块信息,进行优先级排列与融合;通过人工智能算法判断目前所处场景;根据场景序号,生成相应动作。
场景分析主要是指对视觉、听觉、触觉得到的信息进行汇总,融合,筛选,并最终得出对当前场景最佳的语义描述的过程。
每个模块处理数据的速度不同,因此同时传入场景分析模块的视觉,听觉,触觉信息不同步。为了解决这个问题,每个模块在处理数据前,都会在待处理数据上标记时间戳。场景分析模块在得到信息后,首先通过时间戳校验数据,并将所有数据按最新的时间同步。
由于各个模块中的信息会存在相关性,所以要对信息进行融合。如画面中检测到有开心的表情,同时听到有笑声,这两条信息将同时融合为开心的情绪。
同时,各个模块获得的信息非常多,无法进行实时处理,所以要对信息进行优先级排列。各模块信息进行综合后,可以分为人,动物,障碍物,其他物体四类,之后按照人>动物>障碍物>其他物体的优先级选择信息。
根据优先级对信息筛选后,通过预先训练好的深度神经网络模型,生成按照主语+谓语(+宾语)的一条信息。如人摸机器人,人笑,障碍物出现等。之后将当前场景语义信息,按照一定的规则转换为机器人需要执行的指令,发送给执行模块。
如图6所示,运动输出主要是将其他模块生成的机器人动作指令传递到运动控制器,运动控制器生成电机所需的电参数传递给执行电机,电机带动执行机构完成相应机器人动作。
为了让机器人精确运动,各个电机都带有位置检测传感器,采集机器人的实时姿态信息。由于机器人不同部位存关联性,为了保证机器人动作和预期一致,运动控制器还要输出各执行电机工作的先后时间。
综上,本发明具有以下优势:
1、通过多传感器的融合完成对场景的识别,而非单一的视觉或语音识别。
2、在获得场景信息之后,机器人能够做出肢体动作上的反应,而非单一的语音或屏幕反应。
3、场景识别中对人的识别,对物体的识别,以及对环境的识别统一合成场景信息,增强了识别的适应性。
4、增强了机器人的自主性与交互性。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思做出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (9)
1.一种基于场景分析的智能机器人,其特征在于,包括机器人视觉模块、听觉模块、触觉模块、场景分析模块、运动输出模块,所述视觉模块、听觉模块、触觉模块均与场景分析模块连接,所述场景分析模块输出端与运动输出模块连接,其中:视觉模块包括依次连接的图像读取子模块、图像处理子模块、目标物检测子模块;听觉模块包括依次连接的环境噪音处理子模块、特征信号检测子模块、听觉信息汇总子模块;触觉模块包括依次连接的触觉传感子模块、触觉信息汇总模块;场景分析模块包含依次连接的传感器信息融合子模块、优先级筛选子模块、动作生成子模块。
2.如权利要求1所述的一种基于场景分析的智能机器人,其特征在于:所述视觉模块的目标物检测子模块包括人体检测模块、物体检测模块、障碍物检测模块以及与人体检测模块、物体检测模块、障碍物检测模块连接的视觉信息汇总模块。
3.如权利要求1所述的一种基于场景分析的智能机器人,其特征在于:所述触觉模块的触觉传感子模块包括压力传感器和触摸传感器,压力传感器布置在机器人末端执行器,触摸传感器布置在机器人基体表面。
4.如权利要求1所述的一种基于场景分析的智能机器人,其特征在于:所述运动输出模块包括电机以及检测电机位置的位置传感器。
5.一种基于场景分析的智能机器人运动控制方法,其特征在于:
视觉模块获得画面信息,包括:检测与人相关的信息、检测除人体之外其他物体的信息、检测机器人前方是否存在障碍;
听觉模块获得听觉信息,包括:将检测的环境的声音信号滤波预处理、检测声音分类,并对不同分类的声音提取语义信息;
触觉模块获得触觉信息,包括:机器人抓取物体的信息,以及是否被触摸的信息;
场景分析模块综合视觉模块、听觉模块、触觉模块信息,进行融合、优先级排列,通过深度神经网络模型生成场景语义信息,根据场景语义信息,生成机器人相应动作;
运动输出模块,将机器人动作分布到各个电机的运动。
6.如权利要求5所述的一种基于场景分析的智能机器人运动控制方法,其特征在于,所述视觉模块获得画面信息,具体包括:
摄像头以30fps的速率捕获图像,并不断更新缓存区的图像数据,之后各个模块以多线程的形式,同时调用缓存区中同一帧图像;
人体检测模块主要检测与人相关的信息;首先检测画面中是否有人,如果无人,则直接返回结果;如果有人,则检测人体的姿势,以及手势信息;同时检测是否有人脸,如果有人脸则检测包括但不限于人脸的表情、人脸是否认识、人脸性别、人脸年龄的信息;之后,将所有人体检测模块的信息传送到视觉信息汇总模块;
物体检测模块主要检测除人体之外其他物体的信息,***预先存储常见物体的特征并且已标记,物体检测模块在采集到的图像上进行搜索,寻找是否存在已标记的物体,如果检测到有标记的物体,将检测到的物体标号以及在画面中的位置信息传送到视觉信息汇总模块;
障碍检测模块主要检测机器人前方是否存在障碍,此模块根据图像连续性信息,检测图像中是否有疑似障碍物,并返回其在图像中的位置以及大小信息至视觉信息汇总模块;
视觉信息汇总模块接收到人体检测模块、物体检测模块、障碍物检测模块输入的信息,按照一定格式,将信息排序之后,传送到场景分析模块进行分析。
7.如权利要求5所述的一种基于场景分析的智能机器人运动控制方法,其特征在于,所述听觉模块获得听觉信息,具体步骤包括:
麦克风捕捉到环境的声音信号之后,首先经过环境噪音处理子模块滤波预处理操作,过滤掉环境噪声;
通过特征信号检测子模块检测人声以及其他已存储的声音;
对于已存储的特定声音,***内已经存储了对应的语义信息,该信息直接发送到听觉信息汇总子模块;对于人声,根据特征信号检测子模块的特征模型提取出人声包含的关键字,将该文本信息发送到听觉信息汇总子模块;
听觉信息汇总子模块将所有声音信息汇总,按照固定的格式发送至场景分析模块进行分析。
8.如权利要求5所述的一种基于场景分析的智能机器人运动控制方法,其特征在于,所述触觉模块获得触觉信息,具体包括:
压力传感器布置在机器人末端执行器,通过电压信息判断手爪是否抓取物体以及物体的重量;
触摸传感器布置在机器人基体表面,通过判断各个部位的电压脉冲变化,得出机器人是否被触摸,以及触摸位置信息。
9.如权利要求5所述的一种基于场景分析的智能机器人运动控制方法,其特征在于,所述场景分析模块综合视觉模块、听觉模块、触觉模块信息,进行融合、优先级排列,通过深度神经网络模型生成场景语义信息,根据场景语义信息,生成机器人相应动作,具体为:
视觉模块、听觉模块、触觉模块在处理数据前,在待处理数据上标记时间戳,场景分析模块在得到信息后,首先通过时间戳校验数据,并将所有数据按最新的时间同步;
时间同步后,将视觉模块、听觉模块、触觉模块检测处理后存在相关性的信息进行融合;
对融合后的信息进行优先级排列,按照优先级从高到低为人、动物、障碍物、其他物体的优先级顺序筛选融合信息;
根据优先级顺序对融合信息筛选后,通过预先训练好的深度神经网络模型,生成当前场景语义信息,再按照一定的规则转换为机器人执行动作的指令,发送给动作生成子模块。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810210328.4A CN108406848A (zh) | 2018-03-14 | 2018-03-14 | 一种基于场景分析的智能机器人及其运动控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810210328.4A CN108406848A (zh) | 2018-03-14 | 2018-03-14 | 一种基于场景分析的智能机器人及其运动控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108406848A true CN108406848A (zh) | 2018-08-17 |
Family
ID=63131508
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810210328.4A Pending CN108406848A (zh) | 2018-03-14 | 2018-03-14 | 一种基于场景分析的智能机器人及其运动控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108406848A (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109605403A (zh) * | 2019-01-25 | 2019-04-12 | 北京番茄时代科技有限公司 | 机器人及其操作***、控制装置、控制方法及存储介质 |
CN109741747A (zh) * | 2019-02-19 | 2019-05-10 | 珠海格力电器股份有限公司 | 语音场景识别方法和装置、语音控制方法和设备、空调 |
CN110861853A (zh) * | 2019-11-29 | 2020-03-06 | 三峡大学 | 视觉与触觉相结合的智能垃圾分类方法 |
CN111098307A (zh) * | 2019-12-31 | 2020-05-05 | 航天信息股份有限公司 | 一种智能巡逻机器人 |
CN111357011A (zh) * | 2019-01-31 | 2020-06-30 | 深圳市大疆创新科技有限公司 | 环境感知方法、装置以及控制方法、装置和车辆 |
CN111604899A (zh) * | 2020-05-15 | 2020-09-01 | 深圳国信泰富科技有限公司 | 一种高智能机器人的数据传输*** |
CN111618856A (zh) * | 2020-05-27 | 2020-09-04 | 山东交通学院 | 基于视觉兴奋点的机器人控制方法、***及机器人 |
CN111723598A (zh) * | 2019-03-18 | 2020-09-29 | 北京邦天信息技术有限公司 | 机器视觉***及其实现方法 |
CN112578909A (zh) * | 2020-12-15 | 2021-03-30 | 北京百度网讯科技有限公司 | 设备交互的方法及装置 |
CN112825014A (zh) * | 2019-11-21 | 2021-05-21 | 王炼 | 人工智能大脑 |
CN113082268A (zh) * | 2021-03-12 | 2021-07-09 | 浙江创力电子股份有限公司 | 一种基于4g的联网手持消毒机 |
CN113867163A (zh) * | 2021-10-09 | 2021-12-31 | 深圳康佳电子科技有限公司 | 一种智能家居场景切换方法、装置、智能终端及存储介质 |
WO2022111443A1 (zh) * | 2020-11-26 | 2022-06-02 | 苏州中科先进技术研究院有限公司 | 一种智能助盲***、方法、计算机设备及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060126918A1 (en) * | 2004-12-14 | 2006-06-15 | Honda Motor Co., Ltd. | Target object detection apparatus and robot provided with the same |
CN105118518A (zh) * | 2015-07-15 | 2015-12-02 | 百度在线网络技术(北京)有限公司 | 一种声音的语义分析方法及装置 |
CN105598972A (zh) * | 2016-02-04 | 2016-05-25 | 北京光年无限科技有限公司 | 一种机器人***及交互方法 |
CN105700438A (zh) * | 2016-03-18 | 2016-06-22 | 北京光年无限科技有限公司 | 一种多关节小型机器人电控*** |
CN105912725A (zh) * | 2016-05-12 | 2016-08-31 | 上海劲牛信息技术有限公司 | 一种通过自然语言交互调用海量智慧应用的*** |
CN106529375A (zh) * | 2015-09-11 | 2017-03-22 | 上海乐今通信技术有限公司 | 移动终端及其图像中物体特征的识别方法 |
CN106570491A (zh) * | 2016-11-11 | 2017-04-19 | 华南智能机器人创新研究院 | 一种机器人智能互动的方法及智能机器人 |
CN106821694A (zh) * | 2017-01-18 | 2017-06-13 | 西南大学 | 一种基于智能手机的移动导盲*** |
CN106997236A (zh) * | 2016-01-25 | 2017-08-01 | 亮风台(上海)信息科技有限公司 | 基于多模态输入进行交互的方法和设备 |
-
2018
- 2018-03-14 CN CN201810210328.4A patent/CN108406848A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060126918A1 (en) * | 2004-12-14 | 2006-06-15 | Honda Motor Co., Ltd. | Target object detection apparatus and robot provided with the same |
CN105118518A (zh) * | 2015-07-15 | 2015-12-02 | 百度在线网络技术(北京)有限公司 | 一种声音的语义分析方法及装置 |
CN106529375A (zh) * | 2015-09-11 | 2017-03-22 | 上海乐今通信技术有限公司 | 移动终端及其图像中物体特征的识别方法 |
CN106997236A (zh) * | 2016-01-25 | 2017-08-01 | 亮风台(上海)信息科技有限公司 | 基于多模态输入进行交互的方法和设备 |
CN105598972A (zh) * | 2016-02-04 | 2016-05-25 | 北京光年无限科技有限公司 | 一种机器人***及交互方法 |
CN105700438A (zh) * | 2016-03-18 | 2016-06-22 | 北京光年无限科技有限公司 | 一种多关节小型机器人电控*** |
CN105912725A (zh) * | 2016-05-12 | 2016-08-31 | 上海劲牛信息技术有限公司 | 一种通过自然语言交互调用海量智慧应用的*** |
CN106570491A (zh) * | 2016-11-11 | 2017-04-19 | 华南智能机器人创新研究院 | 一种机器人智能互动的方法及智能机器人 |
CN106821694A (zh) * | 2017-01-18 | 2017-06-13 | 西南大学 | 一种基于智能手机的移动导盲*** |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109605403A (zh) * | 2019-01-25 | 2019-04-12 | 北京番茄时代科技有限公司 | 机器人及其操作***、控制装置、控制方法及存储介质 |
CN109605403B (zh) * | 2019-01-25 | 2020-12-11 | 北京妙趣伙伴科技有限公司 | 机器人及其操作***、控制装置、控制方法及存储介质 |
CN111357011A (zh) * | 2019-01-31 | 2020-06-30 | 深圳市大疆创新科技有限公司 | 环境感知方法、装置以及控制方法、装置和车辆 |
CN111357011B (zh) * | 2019-01-31 | 2024-04-30 | 深圳市大疆创新科技有限公司 | 环境感知方法、装置以及控制方法、装置和车辆 |
CN109741747A (zh) * | 2019-02-19 | 2019-05-10 | 珠海格力电器股份有限公司 | 语音场景识别方法和装置、语音控制方法和设备、空调 |
CN111723598A (zh) * | 2019-03-18 | 2020-09-29 | 北京邦天信息技术有限公司 | 机器视觉***及其实现方法 |
CN112825014A (zh) * | 2019-11-21 | 2021-05-21 | 王炼 | 人工智能大脑 |
CN110861853A (zh) * | 2019-11-29 | 2020-03-06 | 三峡大学 | 视觉与触觉相结合的智能垃圾分类方法 |
CN111098307A (zh) * | 2019-12-31 | 2020-05-05 | 航天信息股份有限公司 | 一种智能巡逻机器人 |
CN111604899A (zh) * | 2020-05-15 | 2020-09-01 | 深圳国信泰富科技有限公司 | 一种高智能机器人的数据传输*** |
CN111618856B (zh) * | 2020-05-27 | 2021-11-05 | 山东交通学院 | 基于视觉兴奋点的机器人控制方法、***及机器人 |
CN111618856A (zh) * | 2020-05-27 | 2020-09-04 | 山东交通学院 | 基于视觉兴奋点的机器人控制方法、***及机器人 |
WO2022111443A1 (zh) * | 2020-11-26 | 2022-06-02 | 苏州中科先进技术研究院有限公司 | 一种智能助盲***、方法、计算机设备及存储介质 |
CN112578909A (zh) * | 2020-12-15 | 2021-03-30 | 北京百度网讯科技有限公司 | 设备交互的方法及装置 |
CN112578909B (zh) * | 2020-12-15 | 2024-05-31 | 北京百度网讯科技有限公司 | 设备交互的方法及装置 |
CN113082268A (zh) * | 2021-03-12 | 2021-07-09 | 浙江创力电子股份有限公司 | 一种基于4g的联网手持消毒机 |
CN113867163A (zh) * | 2021-10-09 | 2021-12-31 | 深圳康佳电子科技有限公司 | 一种智能家居场景切换方法、装置、智能终端及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108406848A (zh) | 一种基于场景分析的智能机器人及其运动控制方法 | |
EP2877909B1 (en) | Multimodal interaction with near-to-eye display | |
CN103824481B (zh) | 一种检测用户背诵的方法及装置 | |
CN104933827B (zh) | 一种基于旋转摄像头的报警方法及终端 | |
CN104956292A (zh) | 多个感知感测输入的交互 | |
CN101825947A (zh) | 智能控制移动终端的方法、装置及移动终端 | |
US11825278B2 (en) | Device and method for auto audio and video focusing | |
CN111898407B (zh) | 一种基于人脸动作识别的人机交互操作*** | |
Tsai et al. | Spatial temporal variation graph convolutional networks (STV-GCN) for skeleton-based emotional action recognition | |
Wachs et al. | Real-time hand gesture telerobotic system using fuzzy c-means clustering | |
CN114821753B (zh) | 一种基于视觉图像信息的眼动交互*** | |
CN105867595A (zh) | 联合语音信息与手势信息的人机交互方式以及实施装置 | |
CN114255508A (zh) | 一种基于OpenPose的学生体态检测分析及效率评估方法 | |
Joslin et al. | Dynamic gesture recognition | |
US20180203515A1 (en) | Monitoring | |
Kheratkar et al. | Gesture controlled home automation using CNN | |
US10917721B1 (en) | Device and method of performing automatic audio focusing on multiple objects | |
Sisodia et al. | Image pixel intensity and artificial neural network based method for pattern recognition | |
Dhamanskar et al. | Human computer interaction using hand gestures and voice | |
Srisuphab et al. | Artificial neural networks for gesture classification with inertial motion sensing armbands | |
Sawaragi et al. | Self-reflective segmentation of human bodily motions using recurrent neural networks | |
CN113894779A (zh) | 一种应用于机器人交互的多模态数据处理方法 | |
CN113807280A (zh) | 一种基于Kinect的虚拟船舶机舱***与方法 | |
Chanhan et al. | Gestures based wireless robotic control using image processing | |
CN112308041A (zh) | 一种基于视觉的无人平台手势控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180817 |