CN114603557B - 机器人投影方法及机器人 - Google Patents

机器人投影方法及机器人 Download PDF

Info

Publication number
CN114603557B
CN114603557B CN202210225542.3A CN202210225542A CN114603557B CN 114603557 B CN114603557 B CN 114603557B CN 202210225542 A CN202210225542 A CN 202210225542A CN 114603557 B CN114603557 B CN 114603557B
Authority
CN
China
Prior art keywords
projection
space
robot
stereoscopic
people
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210225542.3A
Other languages
English (en)
Other versions
CN114603557A (zh
Inventor
王嘉晋
张飞刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Pengxing Intelligent Research Co Ltd
Original Assignee
Shenzhen Pengxing Intelligent Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Pengxing Intelligent Research Co Ltd filed Critical Shenzhen Pengxing Intelligent Research Co Ltd
Priority to CN202210225542.3A priority Critical patent/CN114603557B/zh
Publication of CN114603557A publication Critical patent/CN114603557A/zh
Application granted granted Critical
Publication of CN114603557B publication Critical patent/CN114603557B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/08Projecting images onto non-planar surfaces, e.g. geodetic screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Manipulator (AREA)

Abstract

本申请公开了一种机器人投影方法及机器人,涉及机器人技术领域。本申请一实施例的投影方法包括:对周围环境进行建图识别,以识别若干个立体空间,并标记各个立体空间在地图中的坐标。计算各个立体空间的面积,并根据立体空间的面积标定各个立体空间的容量。获取投影指令,并判断投影指令是否包括观影人数信息。若投影指令包括观影人数信息,则根据观影人数信息及各个立体空间的容量确定投影空间。若投影指令不包括观影人数信息,则将机器人当前所在的立体空间确定为投影空间。根据立体空间在地图中的坐标导航至投影空间。对投影空间进行环境识别,以确定投影区域。根据投影区域调整投影参数,以确定投影姿态。根据投影姿态完成投影操作。

Description

机器人投影方法及机器人
技术领域
本申请涉及机器人技术领域,具体涉及一种机器人投影方法及机器人。
背景技术
越来越多的智能可移动机器人开始具备投影交互功能。在机器人移动过程中,如何快速准确地寻找到合适的投影平面,并投影出清晰稳定的画面,成为影响机器人投影交互功能的重要问题。
发明内容
鉴于此,本申请提供一种机器人投影方法及机器人,以改善机器人的投影交互功能。
本申请第一方面提供一种机器人投影方法,投影方法包括:对周围环境进行建图识别,以识别若干个立体空间,并标记各个立体空间在地图中的坐标。计算各个立体空间的面积,并根据立体空间的面积标定各个立体空间的容量,容量是指立体空间可容纳观影的人数。获取投影指令,并判断投影指令是否包括观影人数信息。若投影指令包括观影人数信息,则根据观影人数信息及各个立体空间的容量确定投影空间。若投影指令不包括观影人数信息,则将机器人当前所在的立体空间确定为投影空间。根据立体空间在地图中的坐标导航至投影空间。对投影空间进行环境识别,以确定投影区域。根据投影区域调整投影参数,以确定投影姿态。根据投影姿态完成投影操作。
本申请第二方面提供一种机器人,机器人包括处理器和存储器,存储器用于存储计算机程序或代码,当计算机程序或代码被处理器执行时,实现本申请实施例的投影方法。
本申请实施例通过对周围环境进行建图识别,再对投影空间进行环境识别,并通过调整投影参数确定投影姿态,可快速准确地寻找到合适的投影平面,保证投影平面的质量,从而保证投影效果。
附图说明
图1是本申请一实施方式的投影方法的流程图。
图2是本申请另一实施方式的投影方法的流程图。
图3是本申请另一实施方式的投影方法的流程图。
图4是本申请另一实施方式的投影方法的流程图。
图5是本申请另一实施方式的投影方法的流程图。
图6是本申请另一实施方式的投影方法的流程图。
图7是本申请另一实施方式的投影方法的流程图。
图8是本申请一实施方式的应用场景示意图。
图9是本申请一实施方式的机器人的结构示意图。
图10是本申请一实施方式的多足机器人的结构示意图。
图11是本申请一实施方式的多足机器人的外观示意图。
主要元件符号说明
机器人 100
处理器 110
存储器 120
墙面 200
多足机器人 300
机械单元 301
通讯单元 302
传感单元 303
接口单元 304
存储单元 305
显示单元 306
输入单元 307
控制模块 308
电源 309
驱动板 3011
电动机 3012
机械结构 3013
机身主体 3014
腿部 3015
足部 3016
头部结构 3017
尾巴结构 3018
载物结构 3019
鞍座结构 3020
摄像头结构 3021
显示面板 3061
触控面板 3071
输入设备 3072
触摸检测装置 3073
触摸控制器 3074
具体实施方式
需要说明的是,本申请实施例中“至少一个”是指一个或者多个,“多个”是指两个或多于两个。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B可以表示:单独存在A,同时存在A和B,单独存在B的情况,其中A,B可以是单数或者复数。本申请的说明书和权利要求书及附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不是用于描述特定的顺序或先后次序。
另外需要说明的是,本申请实施例中公开的方法或流程图所示出的方法,包括用于实现方法的一个或多个步骤,在不脱离权利要求的范围的情况下,多个步骤的执行顺序可以彼此互换,其中某些步骤也可以被删除。
下面对本申请实施例中的部分用语进行解释说明,以便于本领域技术人员理解。
1,立体空间,包括例如写字楼里的各个办公室/会议室、教学楼里的各个教室、公寓或住宅里的各个房间(例如客厅、书房、厨房等)等各种形式的三维空间。
2,投影空间,是指从立体空间中筛选出的,且用于机器人投影的三维空间。
3,投影平面,是指在投影空间中确定的,且用于机器人投影的平面,包括例如投影空间中的墙面、地板或天花板等。
4,投影区域,是指投影平面上用作投影银幕的一片区域。
5,投影姿态,是指机器人进行投影的姿势,可通过传感器来检测机器人的状态,以调整和控制机器人的姿势。上述传感器可以包括位置、姿态、压力及加速度传感器等。
6,3D摄像头,通过3D摄像头获取的数据,能检测到2D图像中每个点到3D摄像头的距离,将每个点对应的距离加上每个点在2D图像中的坐标,就能获取2D图像中每个点的三维空间坐标。3D摄像头可用于人脸识别、手势识别、人体骨架识别、三维测量、环境感知、三维地图重建等。在本文中,机器人配置有摄像头,摄像头包括3D摄像头。
下面结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。
图1是本申请一实施方式提供的投影方法的流程图。
可参阅图1,投影方法应用于机器人,机器人配置有摄像头和投影仪。投影方法可以包括以下步骤:
S101,对周围环境进行建图识别,以识别若干个立体空间。
在一些实施例中,机器人可以通过激光雷达或摄像头(例如3D摄像头)感测周围环境,并利用同步定位与地图构建(Simultaneous Localization and Mapping,SLAM)技术对周围环境进行建图识别。机器人在未知环境中从一个未知位置开始移动,在移动过程中根据位置和地图进行自身定位,同时在自身定位的基础上建造增量式地图,实现机器人的自主定位和导航。
举例而言,当机器人处于住宅内时,机器人对住宅内的环境进行建图识别,可识别出住宅内的各个立体空间,例如客厅、卧室、书房等。
S102,标记各个立体空间在地图中的坐标。
在本实施例中,机器人在建图识别的过程中,可在地图上标记各个立体空间的坐标。
S103,计算各个立体空间的面积,并根据立体空间的面积标定各个立体空间的容量。
其中,容量是指立体空间可容纳观影的人数。
在本实施例中,机器人可以根据建图识别的结果计算各个立体空间的面积,再根据各个立体空间的面积设定立体空间的面积与可容纳观影的人数之间的对应关系。示例的,在一些实施例中,立体空间的面积与可容纳观影的人数满足以下公式:
N≤S<(N+1)m2
其中,S为立体空间的面积,N为立体空间可容纳观影的人数,N为正整数。例如,当立体空间的面积S满足8≤S<9m2时,说明该立体空间可容纳观影的人数为8人。又如,当立体空间的面积S满足12≤S<13m2时,说明该立体空间可容纳观影的人数为12人。再如,当立体空间的面积S满足20≤S<21m2时,说明该立体空间可容纳观影的人数为20人。
S104,获取投影指令。
其中,投影指令用于通知机器人开启投影模式,以寻找投影空间。
在一些实施例中,机器人可以通过识别用户的语音/文字输入、触控操作或手势动作来获取投影指令,也可以接收来自于终端应用程序的投影指令。
S105,确定投影指令是否包括观影人数信息。
其中,步骤S105中,若投影指令包括观影人数信息,执行步骤S106。若否,则执行步骤S107。
S106,根据观影人数信息及各个立体空间的容量确定投影空间。
可以理解,在步骤S105中,当确定投影指令包含观影人数信息时,步骤S106将从投影指令中获取观影人数信息,并根据获取的观影人数信息及各个立体空间的容量确定投影空间。
举例而言,当机器人接收到语音/文字输入的投影指令中包括观影人数信息,例如投影指令为“帮我找一个8人的投影空间”,则可以通过关键词或语义分析从投影指令中提取观影人数信息,即“8人”。
如果机器人的触控模块设置有触发投影指令的控件,当用户通过触控操作触发控件时,控件提示用户继续输入观影人数信息,当用户输入观影人数信息后,机器人可以直接获取或提取观影人数信息。
机器人的摄像头可以通过识别用户的手势动作来获取观影人数信息,例如用户通过手势动作比划“投影”和“10”,机器人可以通过模糊识别算法从用户的手势动作中识别到投影指令为“寻找10人的投影空间”,然后通过关键词或语义分析从投影指令中提取观影人数信息,即“10人”。
如果终端上安装有用于控制机器人的应用程序,用户可以在应用程序中输入投影指令“寻找20人的投影空间”。当机器人接收到来自于应用程序的投影指令,可以通过关键词或语义分析从投影指令中提取观影人数信息,即“20人”。
可以理解,在执行完步骤S106后,执行步骤S108。
S107,将机器人当前所在的立体空间确定为投影空间。
举例而言,当机器人接收到语音/文字输入的投影指令为“小马,请投影”,由于从投影指令中未查询到观影人数信息,则可确定投影指令不包括观影人数信息。如此,可直接将机器人当前所在的立体空间确定为投影空间。
S108,根据立体空间在地图中的坐标导航至投影空间。
在本实施例中,当机器人确定将一个立体空间用作投影空间后,可以根据该立体空间的坐标导航至该立体空间(即投影空间)的位置。
S109,对投影空间进行环境识别,以确定投影区域。
在本实施例中,当机器人确定投影空间未被占用时,可以使用摄像头对投影空间进行环境识别,以寻找并确定合适的投影区域。
S110,根据投影区域调整投影参数,以确定投影姿态。
其中,投影参数至少包括投影高度、投影距离及投影角度。
在一些实施例中,当机器人确定投影区域后,可以根据标识物体对应的特征调整投影参数。例如,当标识物体为沙发时,机器人可以模拟观众处于沙发正面的中间位置,以观众的观影距离为参考来调整投影距离,以观众的观影高度为参考调整投影高度,直到寻找到适合观众观影的投影姿态。
S111,获取环境参数。
其中,环境参数可以包括亮度和噪声。机器人可以通过光线传感器来测试当前环境的光线强度,以获取亮度值。机器人可以通过打开麦克风来测试当前环境的噪音,以获取噪声值。
S112,确定环境参数是否小于预设阈值。若环境参数小于预设阈值,则执行步骤S117。若否,则返回执行步骤S114。
其中,预设阈值根据投影仪的属性确定。例如,亮度阈值是投影仪支持的最大光线强度,噪声阈值是投影仪支持的最大噪音。
当环境参数小于预设阈值时,说明机器人支持在当前的环境下进行投影操作。
S113,根据投影姿态完成投影操作。
其中,投影操作可以包括打开投影仪,并开始投影内容。
S114,响应于用户的操作指令,调整投影姿态、投影亮度及音量中的至少一种。
在一些实施例中,当机器人完成投影操作后,用户可以触发操作指令。机器人可以通过识别用户的语音/文字输入、触控操作或手势动作来获取操作指令,也可以接收来自于终端应用程序的操作指令。
举例而言,用户可以用手指点击机器人的头部,以调低投影亮度。例如,用户每点击一次机器人的头部,投影亮度降低10%。用户可以用手掌按压机器人的头部,以调高投影亮度。例如,用户每按压一次机器人的头部,投影亮度提高10%。用户可以用手指点击机器人的尾部,以调低音量。例如,用户每点击一次机器人的尾部,音量降低10%。用户可以用手掌按压机器人的尾部,以调高音量。例如,用户每按压一次机器人的尾部,音量提高10%。用户可以用手指在机器人的头部进行左/右滑动,以控制机器人往左/右移动,从而调整机器人的位置。
用户可以通过语音触发操作指令,例如用户可以通过语音“帮我重新找个地方投影”来控制机器人重新寻找投影平面。用户可以通过语音“调低亮度”或“调高亮度”来控制机器人调整投影亮度。用户可以通过语音“调高音量”或“调低音量”来控制机器人调整音量。
请一并参阅图1和图2,在执行完步骤S106之后,投影方法还可以包括以下步骤:
S201,确定投影空间是否被占用。
在步骤S201中,若投影空间已被占用,则执行步骤S202。若否,则依次执行图1中的步骤S108至S114。
在一些实施例中,当机器人到达投影空间的位置后,可以通过摄像头来查看或确定投影空间内部是否有人。当投影空间内部有人时,机器人确定投影空间已被占用。否则,机器人确定投影空间未被占用。
在另一些实施例中,如果投影空间是会议室,机器人可以通过访问会议室预定***来查询或确定投影空间是否被占用。
S202,确定是否存在符合人数条件的其他立体空间。
其中,在步骤S202中,若确定存在符合人数条件的其他立体空间,则执行步骤S203。若否,则执行步骤S204。
S203,根据其他立体空间的位置到机器人当前所在位置的距离确定投影空间,并根据其他立体空间在地图中的坐标导航至投影空间。
举例而言,机器人可以查询其他各个立体空间到机器人当前所在位置的距离,将到机器人当前位置最近的一个立体空间确定为投影空间。
在其他实施例中,机器人也可以根据其他立体空间的历史记录确定投影空间。例如,机器人可以查询其曾经使用其他立体空间的次数,将使用次数最多的一个立体空间确定为投影空间,并在本次使用完该立体空间后再次更新历史记录。
可以理解,步骤S203的具体实施方式与步骤S108大致相同,此处不再赘述。
可以理解,在执行完步骤S203之后,依次执行图1中的步骤S109至S114。
S204,停止投影工作并将结果反馈给用户。
举例而言,当机器人确定不存在符合人数条件的其他立体空间时,停止投影工作,并通过语音提示用户“没有找到合适8人的其他投影空间”。
请一并参阅图1和图3,图3为图1中步骤S106的子流程示意图。如图3所示,步骤S106可以包括如下子步骤:
S301,响应于投影指令,查询符合人数条件的若干个立体空间。
其中,人数条件是指立体空间可容纳的人数大于或等于观影人数。
举例而言,当立体空间可容纳观影的人数为8人,从投影指令中获取的观影人数为5人,则立体空间符合人数条件。当立体空间可容纳观影的人数为8人,从投影指令中获取的观影人数为10人,则立体空间不符合人数条件。
S302,根据查询结果确定投影空间。
在一些实施例中,当机器人未查询到符合人数条件的立体空间时,可以发出提示消息,以通知用户当前没有符合人数条件的立体空间。例如,机器人可以通过语音提示用户“没有找到合适8人的投影空间”。
可以理解,在图2中的步骤S201中,当机器人确定投影空间已被占用时,可以根据步骤S302的查询结果判断是否存在符合人数条件的其他立体空间。
请一并参阅图3和图4,图4为图3中步骤S302的子流程示意图。如图4所示,当查询到所有符合人数条件的立体空间时,步骤S302可以包括如下子步骤:
S401,获取所有符合人数条件的立体空间在地图中的坐标和机器人当前所在的位置坐标。
在本实施例中,机器人在建图识别的过程中,可周期或实时更新当前所在的位置坐标。
S402,根据各个符合人数条件的立体空间的坐标和机器人当前所在的位置坐标,确定各个符合人数条件的立体空间至机器人当前所在位置的距离。
在本实施例中,机器人利用平面几何方法根据地图上的两点(即立体空间和机器人)坐标计算得到两点之间的距离。
S403,根据距离或所有符合人数条件的立体空间的历史记录确定投影空间。
在一些实施例中,机器人根据立体空间至机器人当前所在位置的距离确定投影空间。例如,机器人可以选择距离机器人当前所在位置最近的一个立体空间作为投影空间。
在另一些实施例中,机器人根据立体空间的历史记录确定投影空间。例如,机器人可以选择历史记录中的一个立体空间作为本次的投影空间。其中,历史记录是指立体空间曾经用作投影空间的历史记录。历史记录可存储于机器人的内部存储器中,也可以存储于可供机器人调用的外部存储器中。
请一并参阅图1和图5,图5为图1中步骤S109的子流程示意图。如图5所示,步骤S109可以包括如下子步骤:
S501,对投影空间进行环境识别,以确定投影方向。
在本实施例中,机器人对投影空间进行环境识别,可识别出可供投影的平面、投影方向及投影方向上的障碍物体。其中,障碍物体是指位于机器人与可供投影的平面之间的物体,例如桌椅、沙发等。
举例而言,机器人识别出可供投影的一片墙面,机器人到该墙面的方向也就是投影方向,机器人还可以识别出在投影方向上的沙发或座椅。
S502,确定投影方向上是否存在大于预设尺寸的投影平面。
在步骤S502中,若确定投影方向上存在大于预设尺寸的投影平面,则执行步骤S503。若否,则执行步骤S504。
其中,预设尺寸是根据投影仪的属性确定。例如,机器人在投影方向上判断是否存在大于120*70平方厘米(cm2)的投影平面。
S503,在投影平面上确定投影区域。
其中,投影区域的尺寸大小为预设尺寸的倍数。例如,当预设尺寸的长为a厘米(cm),宽为b厘米,则投影区域的长为n*a厘米,投影区域的宽为n*b厘米,n≥1。
在本实施例中,当机器人确定投影方向上存在大于预设尺寸的投影平面时,在投影平面上划分出一片不小于预设尺寸的区域,用作投影区域。
S504,调整机器人的旋转角度以调整投影方向。
在本实施例中,当机器人确定投影方向上不存在大于预设尺寸的投影平面时,可以控制本体旋转,以带动投影仪朝向其他方向。或者,机器人的本体不动,控制投影仪旋转,以朝向其他方向。
在一些实施例中,机器人可以通过调整旋转角度寻找到投影空间中所有满足尺寸要求的投影平面。其中,满足尺寸要求是指投影方向上存在大于预设尺寸的投影平面。
可以理解,调整旋转角度可以包括在水平方向和/或竖直方向上依顺时针或逆时针进行旋转。
举例而言,如果机器人的当前视角没有满足尺寸要求的投影平面,则机器人可以顺时针旋转90度,再次识别当前环境,直到寻找到满足尺寸要求的投影平面或者旋转到360度为止。如果机器人旋转360度后,仍然没有寻找到满足尺寸要求的投影平面,则可以通过语音提示用户“没有合适的投影区域”。其中,旋转360度可以是在水平方向和竖直方向上均旋转360度。可以先在水平方向上旋转360度,再在竖直方向上旋转360度。也可以先在竖直方向上旋转360度,再在水平方向上旋转360度。
在获取所有满足尺寸要求的投影平面后,机器人可以随机选择其中一个投影平面,或者提示用户选择其中一个投影平面。例如,机器人可以通过语音提示用户“请选择投影平面”。
请一并参阅图5和图6,图6为图5中步骤S501的子流程示意图。如图6所示,步骤S501可以包括如下子步骤:
S601,当识别到投影空间存在预设的标识物体,获取标识物体对应的特征。
在一些实施例中,机器人通过查询历史记录,对曾经使用过的投影空间中出现的障碍物体进行统计,对出现次数超过预设阈值的障碍物体进行标记,以获取标识物体。换句话说,标识物体是经常出现在投影空间中的障碍物体。
机器人可以记录标识物体和其对应的特征。例如,沙发或座椅的特征包括坐垫和靠背,靠背朝向坐垫的一侧为沙发或座椅的正面。
S602,根据标识物体对应的特征确定投影方向。
举例而言,如果标识物体是沙发,当可供投影的平面是多片墙面时,机器人可以将沙发正面朝向一片墙面的方向作为投影方向。
请一并参阅图1和图7,图7为图1中步骤S112的子流程示意图。如图7所示,当机器人确定投影姿态后,步骤S112可以包括如下子步骤:
S701,确定亮度是否小于预设的亮度阈值。若确定亮度小于预设的亮度阈值,则执行步骤S702。若否,则返回执行图1中的步骤S110。
S702,确定噪声是否小于预设的噪声阈值。若确定噪声小于预设的噪声阈值,则执行图1中的步骤S113。若否,则返回执行图1中的步骤S110。
在其他实施例中,机器人也可以先判断噪声是否小于预设的噪声阈值,再判断亮度是否小于预设的亮度阈值。当确定亮度小于亮度阈值,且噪声小于噪声阈值,机器人根据投影姿态完成投影操作。否则,机器人重新调整投影参数,以调整投影姿态。
下面结合其中一个应用场景,对本申请实施例中的投影方法进行说明。
示例的,请参阅图8,图8为本申请实施例中投影方法应用至办公区域的场景示意图。其中,图8中箭头实线表示机器人100的移动轨迹,箭头虚线表示机器人100的投影线路。机器人100配置有摄像头(图未示)和投影仪(图未示)。
如图8所示,当机器人100处于一片办公区域时,办公区域中存在多个会议室(例如会议室1-4)。首先,机器人100通过摄像头对办公区域进行建图识别,以识别出多个会议室,并标记各个会议室在地图中的坐标。接着,机器人根据各个会议室的面积确定各个会议室可容纳观影的人数,例如会议室的面积满足8≤S<9平方米(m2),确定会议室可容纳观影的人数为8人。当机器人100接收到语音指令“帮我找一个8人的投影空间”后,根据语音指令中的人数信息寻找可容纳不少于8人观影的会议室。当机器人寻找到一个可容纳不少于8人观影的会议室(例如会议室2)后,根据会议室的坐标导航至会议室2。当机器人处于会议室2内,通过摄像头对会议室2的内部进行环境识别,寻找出合适的投影平面,例如会议室2内的墙面200,再在投影平面上确定投影区域。当机器人将墙面200上的一片区域作为投影区域后,调整投影仪的投影参数以确定投影姿态,并根据投影姿态完成投影操作。例如,机器人调整投影仪的投影高度、投影距离及投影角度,使投影仪正对墙面200投影,投影出清晰稳定的画面。
可以理解,本实施例提供的投影方法通过对周围环境进行建图识别,以识别出若干个立体空间并获取立体空间的坐标,再根据投影指令从若干个立体空间中确定投影空间,根据坐标导航至投影空间。然后,对投影空间进行环境识别,以确定可供投影的投影区域,并根据投影区域调整投影参数,以确定投影姿态。最后根据投影姿态完成投影操作。如此,可快速准确地寻找到合适的投影平面,保证投影平面的质量,从而保证投影效果。
图9是本申请一实施方式的机器人100的结构示意图。
可参阅图9,机器人100包括处理器110和存储器120,存储器120用于存储计算机程序或代码,处理器110可以调用存储于存储器120中的计算机程序或代码,执行:对周围环境进行建图识别,以识别若干个立体空间,并标记各个立体空间在地图中的坐标。计算各个立体空间的面积,并根据立体空间的面积标定各个立体空间的容量,容量是指立体空间可容纳观影的人数。获取投影指令,并判断投影指令是否包括观影人数信息。若投影指令包括观影人数信息,则根据观影人数信息及各个立体空间的容量确定投影空间。若投影指令不包括观影人数信息,则将机器人当前所在的立体空间确定为投影空间。根据立体空间在地图中的坐标导航至投影空间。对投影空间进行环境识别,以确定投影区域。根据投影区域调整投影参数,以确定投影姿态。根据投影姿态完成投影操作。
可以理解,机器人100能够实现上述方法实施例的所有方法步骤,在此不再对相同的方法步骤及有益效果进行赘述。
需要说明的是,本申请实施例示意的结构并不构成对机器人的具体限定。在本申请另一些实施例中,机器人可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。
示例的,请参阅图10,图10为本申请其中一个实施方式的多足机器人300的硬件结构示意图。在图10所示的实施方式中,多足机器人300包括机械单元301、通讯单元302、传感单元303、接口单元304、存储单元305、显示单元306、输入单元307、控制模块308及电源309。多足机器人300的各种部件可以以任何方式连接,包括有线或无线连接等。
可以理解,图10中示出的多足机器人300的具体结构并不构成对多足机器人300的限定,多足机器人300可以包括比图示更多或更少的部件,某些部件也并不属于多足机器人300的必须构成,完全可以根据需要在不改变申请的本质的范围内而省略,或者组合某些部件。
下面结合图10对多足机器人300的各个部件进行具体介绍:
机械单元301为多足机器人300的硬件。如图10所示,机械单元301可包括驱动板3011、电动机3012、机械结构3013。如图11所示,图11是多足机器人300的外观示意图。机械结构3013可包括机身主体3014、可伸展的腿部3015、足部3016,在其他实施方式中,机械结构3013还可包括可伸展的机械臂(图未示)、可转动的头部结构3017、可摇动的尾巴结构3018、载物结构3019、鞍座结构3020、摄像头结构3021等。需要说明的是,机械单元301的各个部件模块可以为一个也可以为多个,可根据具体情况设置,比如腿部3015可为4个,每个腿部3015可配置3个电动机3012,对应的电动机3012为12个。
通讯单元302可用于信号的接收和发送,还可以通过与网络和其他设备通信,比如,接收遥控器或其他多足机器人300发送的按照特定步态以特定速度值向特定方向移动的指令信息后,传输给控制模块308处理。通讯单元302包括如WiFi模块、4G模块、5G模块、蓝牙模块、红外模块等。
传感单元303用于获取多足机器人300周围环境的信息数据以及监控多足机器人300内部各部件的参数数据,并发送给控制模块308。传感单元303包括多种传感器,如获取周围环境信息的传感器:激光雷达(用于远程物体检测、距离确定和/或速度值确定)、毫米波雷达(用于短程物体检测、距离确定和/或速度值确定)、摄像头、红外摄像头、全球导航卫星***(GNSS,Global Navigation Satellite System)等。如监控多足机器人300内部各部件的传感器:惯性测量单元(IMU,Inertial Measurement Unit)(用于测量速度值、加速度值和角速度值的值),足底传感器(用于监测足底着力点位置、足底姿态、触地力大小和方向)、温度传感器(用于检测部件温度)。至于多足机器人300还可配置的载荷传感器、触摸传感器、电动机角度传感器、扭矩传感器等其他传感器,在此不再赘述。
接口单元304可以用于接收来自外部装置的输入(例如,数据信息、电力等)并且将接收到的输入传输到多足机器人300内的一个或多个部件,或者可以用于向外部装置输出(例如,数据信息、电力等)。接口单元304可包括电源端口、数据端口(如USB端口)、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口等。
存储单元305用于存储软件程序以及各种数据。存储单元305可主要包括程序存储区和数据存储区,其中,程序存储区可存储操作***程序、运动控制程序、应用程序(比如文本编辑器)等;数据存储区可存储多足机器人300在使用中所生成的数据(比如传感单元303获取的各种传感数据,日志文件数据)等。此外,存储单元305可以包括高速随机存取存储器,还可以包括非易失性存储器,例如磁盘存储器、闪存器、或其他易失性固态存储器。
显示单元306用于显示由用户输入的信息或提供给用户的信息。显示单元306可包括显示面板3061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板3061。
输入单元307可用于接收输入的数字或字符信息。具体地,输入单元307可包括触控面板3071以及其他输入设备3072。触控面板3071,也称为触摸屏,可收集用户的触摸操作(比如用户使用手掌、手指或适合的附件在触控面板3071上或在触控面板3071附近的操作),并根据预先设定的程序驱动相应的连接装置。触控面板3071可包括触摸检测装置3073和触摸控制器3074两个部分。其中,触摸检测装置3073检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器3074;触摸控制器3074从触摸检测装置3073上接收触摸信息,并将它转换成触点坐标,再送给控制模块308,并能接收控制模块308发来的命令并加以执行。除了触控面板3071,输入单元307还可以包括其他输入设备3072。具体地,其他输入设备3072可以包括但不限于遥控操作手柄等中的一种或多种,具体此处不做限定。
进一步的,触控面板3071可覆盖显示面板3061,当触控面板3071检测到在其上或附近的触摸操作后,传送给控制模块308以确定触摸事件的类型,随后控制模块308根据触摸事件的类型在显示面板3061上提供相应的视觉输出。虽然在图10中,触控面板3071与显示面板3061是作为两个独立的部件来分别实现输入和输出功能,但是在某些实施例中,可以将触控面板3071与显示面板3061集成而实现输入和输出功能,具体此处不做限定。
控制模块308是多足机器人300的控制中心,利用各种接口和线路连接整个多足机器人300的各个部件,通过运行或执行存储在存储单元305内的软件程序,以及调用存储在存储单元305内的数据,从而对多足机器人300进行整体控制。
电源309用于给各个部件供电,电源309可包括电池和电源控制板,电源控制板用于控制电池充电、放电、以及功耗管理等功能。在图10所示的实施方式中,电源309电连接控制模块308,在其它的实施方式中,电源309还可以分别与传感单元303(比如摄像头、雷达、音箱等)、电动机3012电性连接。需要说明的是,各个部件可以各自连接到不同的电源309,或者由相同的电源309供电。
在上述实施方式的基础上,具体地,在一些实施方式中,可以通过终端设备来与多足机器人300进行通信连接,在终端设备与多足机器人300进行通信时,可以通过终端设备来向多足机器人300发送指令信息,多足机器人300可通过通讯单元302来接收指令信息,并可在接收到指令信息的情况下,将指令信息传输至控制模块308,使得控制模块308可根据指令信息来处理得到目标速度值。终端设备包括但不限于:具备图像拍摄功能的手机、平板电脑、服务器、个人计算机、可穿戴智能设备、其它电器设备。
指令信息可以根据预设条件来确定。在一个实施方式中,多足机器人300可以包括传感单元303,传感单元303可根据多足机器人300所在的当前环境可生成指令信息。控制模块308可根据指令信息来判断多足机器人300的当前速度值是否满足对应的预设条件。若满足,则会保持多足机器人300的当前速度值和当前步态移动;若不满足,则会根据对应的预设条件来确定目标速度值和相应的目标步态,从而可控制多足机器人300以目标速度值和相应的目标步态移动。环境传感器可以包括温度传感器、气压传感器、视觉传感器、声音传感器。指令信息可以包括温度信息、气压信息、图像信息、声音信息。环境传感器与控制模块308之间的通信方式可以为有线通信,也可以为无线通信。无线通信的方式包括但不限于:无线网络、移动通信网络(3G、4G、5G等)、蓝牙、红外。
可以理解,多足机器人300能够实现上述方法实施例的所有方法步骤,在此不再对相同的方法步骤及有益效果进行赘述。
上面结合附图对本申请实施例作了详细说明,但是本申请不限于上述实施例,在所属技术领域普通技术人员所具备的知识范围内,还可以在不脱离本申请宗旨的前提下做出各种变化。

Claims (10)

1.一种机器人投影方法,其特征在于,所述方法包括:
对周围环境进行建图识别,以识别若干个立体空间,并标记各个所述立体空间在地图中的坐标;
计算各个所述立体空间的面积,并根据所述立体空间的面积标定各个所述立体空间的容量,所述容量是指所述立体空间可容纳观影的人数;
获取投影指令,并判断所述投影指令是否包括观影人数信息,若所述投影指令包括所述观影人数信息,则根据所述观影人数信息及各个所述立体空间的容量确定投影空间;若所述投影指令不包括所述观影人数信息,则将机器人当前所在的立体空间确定为所述投影空间;
根据所述立体空间在地图中的坐标导航至所述投影空间;
对所述投影空间进行环境识别,以确定投影区域;
根据所述投影区域调整投影参数,以确定投影姿态,所述投影参数包括投影高度、投影距离及投影角度;
根据所述投影姿态完成投影操作。
2.如权利要求1所述的机器人投影方法,其特征在于,所述根据所述观影人数信息及各个所述立体空间的容量确定投影空间,包括:
响应于所述投影指令,查询符合人数条件的若干个所述立体空间,所述人数条件是指所述立体空间可容纳的人数大于或等于所述观影人数;
根据查询结果确定所述投影空间。
3.如权利要求2所述的机器人投影方法,其特征在于,所述根据查询结果确定所述投影空间,包括:
当查询到所有符合所述人数条件的所述立体空间,获取所述所有符合所述人数条件的立体空间在地图中的坐标和所述机器人当前所在的位置坐标;
根据各个所述符合所述人数条件的立体空间的坐标和所述机器人当前所在的位置坐标,确定各个所述符合所述人数条件的立体空间至所述机器人当前所在位置的距离;
根据所述距离或所有符合所述人数条件的立体空间的历史记录确定所述投影空间。
4.如权利要求2所述的机器人投影方法,其特征在于,在所述根据所述观影人数信息及各个所述立体空间的容量确定投影空间之后,所述方法还包括:
确定所述投影空间是否被占用;
当所述投影空间未被占用,则根据所述立体空间在地图中的坐标导航至所述投影空间。
5.如权利要求4所述的机器人投影方法,其特征在于,在所述根据所述观影人数信息及各个所述立体空间的容量确定投影空间之后,所述方法还包括:
当所述投影空间已被占用,则判断是否存在符合所述人数条件的其他立体空间;
若存在符合所述人数条件的其他立体空间,则根据所述其他立体空间的位置到所述机器人当前所在位置的距离确定所述投影空间,并根据所述其他立体空间在地图中的坐标导航至所述投影空间;
若不存在符合所述人数条件的其他立体空间,则停止投影工作并将结果反馈给用户。
6.如权利要求1所述的机器人投影方法,其特征在于,所述对所述投影空间进行环境识别,以确定投影区域,包括:
对所述投影空间进行环境识别,以确定投影方向;
确定所述投影方向上是否存在大于预设尺寸的投影平面;
当所述投影方向上存在大于预设尺寸的投影平面,在所述投影平面上确定所述投影区域;
当所述投影方向上不存在大于预设尺寸的投影平面,调整机器人的旋转角度以调整投影方向。
7.如权利要求6所述的机器人投影方法,其特征在于,所述对所述投影空间进行环境识别,以确定投影方向,包括:
当识别到所述投影空间存在预设的标识物体,则获取所述标识物体对应的特征;
根据所述标识物体对应的特征确定所述投影方向。
8.如权利要求1所述的机器人投影方法,其特征在于,在所述根据所述投影区域调整投影参数,以确定投影姿态之后,所述方法还包括:
获取环境参数,所述环境参数包括亮度和噪声;
确定所述亮度是否小于预设的亮度阈值;
确定所述噪声是否小于预设的噪声阈值;
当所述亮度小于所述亮度阈值,且所述噪声小于所述噪声阈值,根据所述投影姿态完成投影操作。
9.如权利要求1所述的机器人投影方法,其特征在于,在所述根据所述投影姿态完成投影操作之后,所述方法还包括:
响应于用户的操作指令,调整所述投影姿态、投影亮度及音量中的至少一种。
10.一种机器人,其特征在于,所述机器人包括处理器和存储器,
所述存储器用于存储计算机程序或代码,当所述计算机程序或代码被所述处理器执行时,实现如权利要求1至9任一项所述的机器人投影方法。
CN202210225542.3A 2022-03-09 2022-03-09 机器人投影方法及机器人 Active CN114603557B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210225542.3A CN114603557B (zh) 2022-03-09 2022-03-09 机器人投影方法及机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210225542.3A CN114603557B (zh) 2022-03-09 2022-03-09 机器人投影方法及机器人

Publications (2)

Publication Number Publication Date
CN114603557A CN114603557A (zh) 2022-06-10
CN114603557B true CN114603557B (zh) 2024-03-12

Family

ID=81861373

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210225542.3A Active CN114603557B (zh) 2022-03-09 2022-03-09 机器人投影方法及机器人

Country Status (1)

Country Link
CN (1) CN114603557B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116038731A (zh) * 2023-01-13 2023-05-02 美的集团(上海)有限公司 游戏投影方法、游戏投影装置、可读存储介质和机器人

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1413324A (en) * 1972-04-20 1975-11-12 Captain Int Ind Ltd Apparatus and methods for monitoring the availability status of guest rooms in hotels and the like
JP2002099045A (ja) * 2000-09-26 2002-04-05 Minolta Co Ltd 表示装置および方法
JP2008009136A (ja) * 2006-06-29 2008-01-17 Ricoh Co Ltd 画像投影装置
KR20090000637A (ko) * 2007-03-13 2009-01-08 주식회사 유진로봇 서비스 컨텐츠 제공 및 위치 안내기능이 구비된 이동형지능 로봇
CN104915903A (zh) * 2015-05-29 2015-09-16 深圳走天下科技有限公司 智能自动分房装置及方法
KR20180003269A (ko) * 2016-06-30 2018-01-09 엘지전자 주식회사 빔 프로젝터 및 그의 동작 방법
CN109996050A (zh) * 2017-12-29 2019-07-09 深圳市优必选科技有限公司 投影机器人的控制方法及控制装置
CN210955065U (zh) * 2019-11-18 2020-07-07 南京菲尔德物联网有限公司 一种酒店包厢智能推荐装置
CN111476839A (zh) * 2020-03-06 2020-07-31 珠海格力电器股份有限公司 投影区域的确定方法、装置、设备及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107211104A (zh) * 2015-02-03 2017-09-26 索尼公司 信息处理装置、信息处理方法和程序
WO2020256188A1 (ko) * 2019-06-20 2020-12-24 엘지전자 주식회사 영상의 투사 방법 및 이를 구현하는 로봇

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1413324A (en) * 1972-04-20 1975-11-12 Captain Int Ind Ltd Apparatus and methods for monitoring the availability status of guest rooms in hotels and the like
JP2002099045A (ja) * 2000-09-26 2002-04-05 Minolta Co Ltd 表示装置および方法
JP2008009136A (ja) * 2006-06-29 2008-01-17 Ricoh Co Ltd 画像投影装置
KR20090000637A (ko) * 2007-03-13 2009-01-08 주식회사 유진로봇 서비스 컨텐츠 제공 및 위치 안내기능이 구비된 이동형지능 로봇
CN104915903A (zh) * 2015-05-29 2015-09-16 深圳走天下科技有限公司 智能自动分房装置及方法
KR20180003269A (ko) * 2016-06-30 2018-01-09 엘지전자 주식회사 빔 프로젝터 및 그의 동작 방법
CN109996050A (zh) * 2017-12-29 2019-07-09 深圳市优必选科技有限公司 投影机器人的控制方法及控制装置
CN210955065U (zh) * 2019-11-18 2020-07-07 南京菲尔德物联网有限公司 一种酒店包厢智能推荐装置
CN111476839A (zh) * 2020-03-06 2020-07-31 珠海格力电器股份有限公司 投影区域的确定方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN114603557A (zh) 2022-06-10

Similar Documents

Publication Publication Date Title
US11126257B2 (en) System and method for detecting human gaze and gesture in unconstrained environments
KR102489806B1 (ko) 청소용 이동장치, 협업청소 시스템 및 그 제어방법
US9552056B1 (en) Gesture enabled telepresence robot and system
US10038893B2 (en) Context-based depth sensor control
US9014848B2 (en) Mobile robot system
KR20190088122A (ko) 이동형 홈 로봇 및 이동형 홈 로봇의 제어 방법
US20190351558A1 (en) Airport robot and operation method therefor
CN108234918B (zh) 具有隐私意识的室内无人机的勘探和通讯架构方法和***
KR20180038879A (ko) 공항용 로봇 및 그의 동작 방법
US9477302B2 (en) System and method for programing devices within world space volumes
JP6788845B2 (ja) 遠隔通信方法、遠隔通信システム及び自律移動装置
US11613354B2 (en) Method and device for controlling flight, control terminal, flight system and processor
CN114603557B (zh) 机器人投影方法及机器人
US10889001B2 (en) Service provision system
US11009887B2 (en) Systems and methods for remote visual inspection of a closed space
US10620717B2 (en) Position-determining input device
JP2021162607A (ja) 表示システム、情報処理装置及び表示システムの表示制御方法
US20230131217A1 (en) Methods of adjusting a position of images, video, and/or text on a display screen of a mobile robot
CN115731349A (zh) 户型图的展示方法、装置、电子设备及存储介质
CN117685968A (zh) 智能体导航的方法和智能体
US20150153715A1 (en) Rapidly programmable locations in space
CN115686233A (zh) 一种主动笔与显示设备的交互方法、装置及交互***
KR20200076158A (ko) 다른 전자 장치와 협업하는 전자 장치 및 방법
US20230321834A1 (en) Remote robot system and method of controlling remote robot system
CN114745509B (zh) 图像采集方法、设备、足式机器人及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant