CN116774691A - 管制区域管理***和方法、移动体管理***及非暂时性存储介质 - Google Patents
管制区域管理***和方法、移动体管理***及非暂时性存储介质 Download PDFInfo
- Publication number
- CN116774691A CN116774691A CN202310095367.5A CN202310095367A CN116774691A CN 116774691 A CN116774691 A CN 116774691A CN 202310095367 A CN202310095367 A CN 202310095367A CN 116774691 A CN116774691 A CN 116774691A
- Authority
- CN
- China
- Prior art keywords
- mobile body
- area
- robot
- information
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 16
- 230000001105 regulatory effect Effects 0.000 claims abstract description 146
- 230000006870 function Effects 0.000 claims description 12
- 230000001276 controlling effect Effects 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 5
- 238000007726 management method Methods 0.000 description 74
- 238000004891 communication Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 13
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000003068 static effect Effects 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000012015 optical character recognition Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 230000005019 pattern of movement Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/22—Command input arrangements
- G05D1/221—Remote-control arrangements
- G05D1/222—Remote-control arrangements operated by humans
- G05D1/224—Output arrangements on the remote controller, e.g. displays, haptics or speakers
- G05D1/2244—Optic
- G05D1/2245—Optic providing the operator with a purely computer-generated representation of the environment of the vehicle, e.g. virtual reality
- G05D1/2246—Optic providing the operator with a purely computer-generated representation of the environment of the vehicle, e.g. virtual reality displaying a map of the environment
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/22—Command input arrangements
- G05D1/229—Command input data, e.g. waypoints
- G05D1/2295—Command input data, e.g. waypoints defining restricted zones, e.g. no-flight zones or geofences
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/60—Intended control result
- G05D1/617—Safety or protection, e.g. defining protection zones around obstacles or avoiding hazards
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39091—Avoid collision with moving obstacles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39172—Vehicle, coordination between manipulator arm and its moving vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40298—Manipulator on vehicle, wheels, mobile
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D2109/00—Types of controlled vehicles
- G05D2109/10—Land vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
- Traffic Control Systems (AREA)
Abstract
本公开提供管制区域管理***和方法、移动体管理***及非暂时性存储介质。管制区域管理***包括一个以上的处理器。所述一个以上的处理器配置为:获取输入至环境地图的手绘输入图像;并且基于所述环境地图和所述手绘输入图像估计管制区域。所述管制区域为对移动体的进入进行管制的区域。所述一个以上的处理器配置为:当未使用操纵终端远程操纵所述移动体时,将指示所述管制区域的管制区域信息发送至所述移动体;而当使用所述操纵终端远程操纵所述移动体时,将所述管制区域信息发送至所述操纵终端。
Description
技术领域
本公开涉及管制区域管理***、移动体管理***、管制区域管理方法以及非暂时性存储介质。特别地,本公开涉及用于管理能够自主移动的移动体的管制区域的管制区域管理***、移动体管理***、管制区域管理方法以及非暂时性存储介质。
背景技术
已知存在如下的***:基于机器人感测的信息等更新能够自主移动的机器人不能进入的进入管制区域。麻烦的是,机器人根据包括位置变化的人和物体的复杂环境中的环境改变更新进入管制区域。因此,近年来,已经提出了如下的技术:服务器将地图信息更新为关于进入管制区域的信息,并且服务器偶尔向机器人提供地图信息(例如,参见日本未审查专利申请公开第2021-077053号(JP 2021-077053 A))。
发明内容
存在允许管理者在地图上为机器人直观地指定进入管制区域的需要。然而,上述JP 2021-077053 A并未公开允许管理者为机器人指定进入管制区域的方法。
本公开提供管制区域管理***、移动体管理***、管制区域管理方法以及非暂时性存储介质,其允许管理者通过直观的操作为能够自主移动的移动体指定进入管制区域。
本公开的第一方案提供一种包括一个以上的处理器的管制区域管理***。所述一个以上的处理器配置为:获取输入至环境地图的手绘输入图像;并且基于所述环境地图和所述手绘输入图像估计管制区域。所述管制区域为对移动体的进入进行管制的区域。所述一个以上的处理器配置为:当未使用操纵终端远程操纵所述移动体时,将指示所述管制区域的管制区域信息发送至所述移动体;并且当使用所述操纵终端远程操纵所述移动体时,将所述管制区域信息发送至所述操纵终端。这允许管理者通过直观的操作输入管制区域。另外,能够立即通知主体制定反映人的意图的管制区域的移动计划。这允许人的意图的实时介入。另外,能够省去再次实时准备环境地图的麻烦。
在根据本公开的第一方案的管制区域管理***中,所述一个以上的处理器可以配置为将所述管制区域信息发送至所述移动体。
在根据本公开的第一方案的管制区域管理***中,所述一个以上的处理器可以配置为:从所述手绘输入图像提取坐标信息和颜色信息;基于所述环境地图和所述坐标信息估计所述管制区域;基于所述颜色信息估计管制的类型;并且生成指示所述管制区域的信息以及指示所述管制的所述类型的信息作为所述管制区域信息。这使得管理者能够更详细地输入管制区域。
在根据本公开的第一方案的管制区域管理***中,所述一个以上的处理器可以配置为当连同所述手绘输入图像一起获取关于所述移动体的识别信息并且未使用所述操纵终端远程操纵所述移动体时,将所述管制区域信息发送至具有所述识别信息的所述移动体。所述一个以上的处理器可以配置为:当连同所述手绘输入图像一起获取关于所述移动体的所述识别信息并且远程操纵具有所述识别信息的所述移动体时,将所述管制区域信息发送至用于远程操纵具有所述识别信息的所述移动体的所述操纵终端。因此,能够使得管制区域随着移动体的类型或者移动体的不同而不同,来灵活地施加管制。
本公开的第二方案提供一种移动体管理***,其包括:根据本公开的第一方案的管制区域管理***;以及所述移动体。
在根据本公开的第二方案的移动体管理***中,所述移动体可以配置为:当所述移动体自主移动时,响应于接收到所述管制区域信息基于所述环境地图和所述管制区域信息生成所述移动体的自主移动的移动计划。这允许移动体在绕开管制区域的同时自主移动。
在根据本公开的第二方案的移动体管理***中,所述移动体可以包括可动部,所述可动部与所述移动体在行进方向上的移动不同地起作用。所述移动体可以配置为,当所述移动体自主移动时,基于所述管制区域信息和所述移动计划估计所述移动体的可动范围,并且基于所述可动范围生成所述移动体的所述可动部的操作计划。通过将管制区域信息反映整个移动体在自主移动期间的操作计划中,能够适当地辅助移动体的自主移动。
根据本公开的第二方案的移动体管理***还可以包括与所述移动体相关联的所述操纵终端。所述操纵终端可以配置为响应于接收到所述管制区域信息显示所述管制区域,并且当从操纵者接收到操纵指令时,将所述操纵指令发送至对应的所述移动体。这允许移动体被远程操纵,以便绕开管制区域。
在根据本公开的第二方案的移动体管理***中,所述移动体可以配置为:在当所述移动体根据从对应的所述操纵终端接收的所述操纵指令移动时做出所述移动体进入所述管制区域的预测的情况下,生成绕开所述管制区域的移动计划,或者停止移动。因此,能够减轻操纵者的负担,并且便利人和移动体的共存。
本公开的第三方案提供一种管制区域管理方法,包括:获取输入至环境地图的手绘输入图像;以及基于所述环境地图和所述手绘输入图像估计管制区域。所述管制区域为对移动体的进入进行管制的区域。所述管制区域管理方法包括:当未使用操纵终端远程操纵所述移动体时,将指示所述管制区域的管制区域信息发送至所述移动体;以及当使用所述操纵终端远程操纵所述移动体时,将所述管制区域信息发送至所述操纵终端。这允许管理者通过直观的操作输入管制区域。另外,能够立即通知主体制定反映人的意图的管制区域的移动计划。这允许人的意图的实时介入。另外,能够省去再次实时准备环境地图的麻烦。
本公开的第四方案提供一种非暂时性存储介质,其存储能够由一个以上的处理器执行并且使所述一个以上的处理器执行功能的指令。所述功能包括:获取输入至环境地图的手绘输入图像;以及基于所述环境地图和所述手绘输入图像估计管制区域。所述管制区域为对移动体的进入进行管制的区域。所述功能包括:当未使用操纵终端远程操纵所述移动体时,将指示所述管制区域的管制区域信息发送至所述移动体;以及当使用所述操纵终端远程操纵所述移动体时,将所述管制区域信息发送至所述操纵终端。这允许管理者通过直观的操作输入管制区域。另外,能够立即通知主体制定反映人的意图的管制区域的移动计划。这允许人的意图的实时介入。另外,能够省去再次实时准备环境地图的麻烦。
通过本公开,能够提供管制区域管理***、移动体管理***、管制区域管理方法以及非暂时性存储介质,其允许管理者通过直观的操作针对能够自主移动的移动体指定进入管制区域。
附图说明
将在下文中参照附图描述本发明的示例性实施例的特征、优点以及技术和工业方面的重要性,其中相同的附图标记表示相同的元件,并且其中:
图1为图示出根据第一实施例的移动体管理***的配置的框图;
图2为图示出根据第一实施例的机器人的外观的示例的立体图;
图3为图示出根据第一实施例的机器人的功能配置的框图;
图4为根据第一实施例的机器人周围的视图;
图5为根据第一实施例的机器人周围的视图;
图6为图示出根据第一实施例的管理终端的功能配置的框图;
图7图示出根据第一实施例的手绘输入图像的示例;
图8为图示出根据第一实施例的服务器的功能配置的框图;
图9为图示出由根据第一实施例的服务器执行的管制区域管理方法的流程的流程图;
图10为图示出根据第一实施例的操纵终端的功能配置的框图;
图11图示出根据第一实施例的操纵终端上的显示的示例;
图12为图示出由根据第一实施例的移动体管理***执行的处理的流程的顺序图;
图13为图示出由根据第一实施例的移动体管理***执行的处理的流程的顺序图;
图14图示出根据第二实施例的手绘输入图像的示例;
图15图示出根据第二实施例的手绘输入图像的示例;
图16图示出根据第三实施例的远程操纵的机器人的自主控制;以及
图17为图示出根据第三实施例的机器人移动时执行的移动方法的流程的流程图。
具体实施方式
实施例的议题
详细描述本实施例的一个议题。
机器人通过基于环境地图和关于其他进入管制区域的信息判定机器人是否能够通过机器人周围的区域,来制定移动计划。
环境地图由机器人保持,并且包括关于静态进入管制区域的信息。静态进入管制区域为存在静态障碍物(诸如墙壁、柱子和以静止方式布置的其他障碍物)的区域。机器人基于环境地图判定被判定为静态进入管制区域的区域是不能通过的,并且在绕开这样的区域的同时移动。环境地图是基于安装在机器人上的传感器感测的结果预先生成的。
其他进入管制区域包括动态进入管制区域和尚未反映在环境地图中的静态进入管制区域。动态进入管制区域为存在动态障碍物的区域。这样的进入管制区域由安装在机器人上的传感器检测。当检测到进入管制区域时,机器人判定这样的区域是不能通过的,并且在绕开这样的区域的同时移动。
然而,麻烦的是,每次改变布局或者放置新物体时需要再次准备环境地图。另外,环境地图可能偶尔没有针对环境改变而及时更新。
对于机器人使用传感器检测全部障碍物的能力存在限制。例如,使用传感器难以检测细线状物体、小台阶、小孔、水池、洒在地板上的液体等。昂贵的是,当***包括多个机器人时,需要在全部机器人上安装大量的传感器以检测全部障碍物。
即使是能够使用传感器检测到的障碍物,也只能由机载的传感器从障碍物附近检测到。例如,当路径被位于拐角前方的障碍物阻挡时,需要机器人靠近阻挡物以确认路径是不能通过的,随后重新制定移动计划,并且通过机器人已经通过一次的路径返回。因此,机器人需要时间来移动。
存在如下的一些位置:不存在障碍物,并且机器人能够物理地通过,但机器人的通过不适合人类便利。不适合机器人通过的位置的示例包括人类交通路线上的位置、人类工作的位置以及狭窄的路径。然而,还没有使机器人在绕开这样的位置的同时移动的手段。
如上所述,在人和物体的位置变化的复杂环境中更新进入管制区域牵涉多个问题。即,更新是麻烦的,或者可能有时没有针对环境改变及时做出更新,昂贵的传感器的使用造成成本上的显著代价,或者不能反映不适合人类便利的位置。
为了解决这样的问题中的至少一个,期望管理者应当手动更新未反映在环境地图中的进入管制区域。例如,当机器人基本上自主移动时,期望管理者应当手动更新造成瓶颈的进入管制区域。存在允许管理者在地图上直观地指定进入管制区域从而手动更新进入管制区域的需要。
以下实施例允许管理者直观地指定进入管制区域。
将在下文中参照附图详细描述本公开的实施例。在附图中,相同或者对应的元件被给予相同的附图标记,并且根据需要省略重复的描述以使描述清楚。
第一实施例
首先,将描述本公开的第一实施例。图1为图示出根据第一实施例的移动体管理***1的配置的框图。移动体管理***1为管理移动体的计算机***。
移动体管理***1包括配置为经由网络N能够彼此通信的一个以上的机器人10、管理终端20、服务器30以及操纵终端40。
网络N为有线网络或者无线网络。网络N可以为局域网(LAN)、广域网(WAN)、互联网以及其他线路中的至少一种或者其组合。
机器人10为能够自主移动的移动体的示例。机器人10保持环境地图和管制区域信息。环境地图为关于机器人10周围的环境的地图的信息。环境地图包括关于静态障碍物的位置的信息。管制区域信息为关于管制移动体的进入的管制区域的信息。管制区域信息中指示的管制区域未反映在环境地图中。管制区域信息中指示的管制区域可以包括静态管制区域和动态管制区域。在第一实施例中,管制区域信息指示关于管制区域的位置的信息。从服务器30接收管制区域信息。
自主移动的机器人10基于环境地图和管制区域信息生成移动计划,并且根据移动计划自主移动。
在第一实施例中,机器人10能够由操纵终端40的操纵者远程操纵。被远程操纵的机器人10根据从操纵终端40接收的操纵指令移动。
管理终端20为管理管制区域的终端装置。例如,管理终端20为平板终端。然而,管理终端20并不限于此,并且可以为智能手机或者个人计算机。管理终端20从作为管理终端20的用户的管理者接收环境地图的手绘输入图像的输入,并且将接收到的手绘输入图像发送至服务器30。手绘输入图像为关于由使用诸如触摸面板或者鼠标的输入设备进行输入的管理者在环境地图上绘制的图像的信息。
服务器30为作为管制区域管理***的示例的服务器计算机。服务器30响应于接收输入至环境地图的手绘输入图像来生成管制区域信息。服务器30将管制区域信息发送至一个以上的机器人10。除了机器人10以外,对于被远程操纵的机器人10,服务器30将管制区域信息发送至用于操纵机器人10的操纵终端40。
操纵终端40为发出用于远程操纵机器人10的操纵指令的终端装置。操纵终端40与被远程操纵的各个机器人10相关联。操纵者基于在操纵终端40上显示的环境地图和管制区域信息输入操纵指令。接收到输入的操纵指令的操纵终端40将操纵指令发送至机器人10。
以这种方式,机器人10基于环境地图和管制区域信息自主移动或者被远程操纵。
图2为图示出根据第一实施例的机器人10的外观的示例的立体图。在图2中,包括具有握持功能的末端执行器的机器人10的外观被图示为机器人10的示例。机器人10被大致划分为滑架部110和主体部120。滑架部110为有助于机器人10的移动的可动部。滑架部110包括支撑在圆柱形外壳中并且接触行进表面的两个驱动轮111和一个脚轮112。两个驱动轮111布置为使得其各自的旋转轴线的方向彼此一致。驱动轮111由马达(未图示)独立驱动而旋转。脚轮112为从动轮。脚轮112设置为使得从滑架部110沿竖直方向延伸的转动轴远离车轮的旋转轴地支撑车轮。脚轮112跟随滑架部110的移动方向。
滑架部110在上表面的周缘部包括激光扫描仪133。激光扫描仪133针对每个步距角扫描水平面内的一定范围,并且输出在各个方向上是否存在障碍物。当存在障碍物时,激光扫描仪133输出到障碍物的距离。
主体部120包括可动部,所述可动部与机器人10在行进方向上的移动不同地动作。具体地,主体部120主要包括安装在滑架部110的上表面上的本体部121,放置在本体部121的上表面上的头部122,支撑在本体部121的侧表面上的臂部123,安装在臂部123的远端部处的手部124,以及手部相机135。臂部123和手部124由马达(未图示)驱动。手部124握持将要被握持的物体。本体部121通过使用马达(未图示)的驱动力相对于滑架部110能够绕竖直轴线旋转。
头部122主要包括立体相机131和显示单元141。立体相机131包括具有相同视角的两个相机单元。两个相机单元彼此远离地布置。立体相机131输出由各个相机单元获得的图像信号。
例如,显示单元141为液晶面板,并且使用动画显示设定角色的面部,或者使用文本或者图标显示关于机器人10的信息。
头部122使用马达(未图示)的驱动力相对于本体部121能够绕竖直轴线旋转。因此,立体相机131能够在期望的方向上拍摄图像。显示单元141能够朝向期望的方向呈现显示内容。
图3为图示出根据第一实施例的机器人10的功能配置的框图。机器人10包括控制单元150、滑架驱动单元145、上身驱动单元146、显示单元141、立体相机131、激光扫描仪133、存储器180、手部相机135以及通信单元190。上身驱动单元146、显示单元141、立体相机131、激光扫描仪133和手部相机135可以省略。
控制单元150为诸如中央处理单元(CPU)的至少一个处理器。例如,控制单元150存储在设置于本体部121中的控制单元中。控制单元150通过执行从存储器180读取的控制程序来执行整个机器人10的控制和各种运算处理。
当通信单元190从服务器30接收管制区域信息R时,控制单元150将管制区域信息R存储在存储器180中。随后,控制单元150基于存储在存储器180中的环境地图M和管制区域信息R生成移动计划P。控制单元150可以将生成的移动计划P存储在存储器180中。当将稍后讨论的激光扫描仪133检测到障碍物时,控制单元150可以再次生成移动计划P,以便绕开障碍物。此时,控制单元150可以将障碍物的位置添加至管制区域信息R。
在自主移动模式下,控制单元150根据存储在存储器180中的最新移动计划P,通过向滑架驱动单元145发送驱动信号来执行用于使驱动轮旋转的控制。控制单元150通过从滑架驱动单元145接收编码器等的反馈信号来把握滑架部110的移动方向和移动速度。
滑架驱动单元145包括驱动轮111和用于对驱动轮111进行驱动的驱动电路和马达。
上身驱动单元146包括臂部123、手部124、本体部121、头部122以及用于驱动这些部件的驱动电路和马达。控制单元150通过向上身驱动单元146发送驱动信号来实现伸展操作、握持操作和姿态。控制单元150通过从上身驱动单元146接收编码器的反馈信号等,掌握臂部123和手部124的位置和移动速度,以及本体部121和头部122的方向和旋转速度。
显示单元141接收并且显示由控制单元150生成的图像信号。
立体相机131拍摄机器人10所在的周围环境的图像,并且根据来自控制单元150的要求将图像信号传送至控制单元150。控制单元150使用图像信号执行图像处理,或者根据预先确定的格式将图像信号转换为拍摄的图像。激光扫描仪133根据来自控制单元150的要求检测在移动方向上是否存在障碍物,并且将指示检测结果的检测信号传送至控制单元150。
例如,手部相机135为距离图像传感器。手部相机135用于识别将被握持的物体的距离、形状、方向等。手部相机135包括对从物体空间入射的光学图像执行光电转换的成像元件。成像元件在手部相机135中二维地布置。手部相机135将每个成像元件的到被拍摄对象的距离输出至控制单元150。具体地,手部相机135包括照射单元,所述照射单元通过图案光(pattern light)照射物体空间。手部相机135使用成像元件接收反射光,并且从图像中的图案的变形或大小输出到由成像元件拍摄的被拍摄对象的距离。控制单元150使用立体相机131掌握较广阔的周围环境中的场景,并且使用手部相机135掌握将要握持的物体附近的场景。
例如,存储器180为非易失性存储介质,并且可以为固态驱动器。除了用于控制机器人10的控制程序以外,存储器180还存储用于控制和运算的各种参数值、函数、查找表等。特别地,存储器180存储环境地图M、管制区域信息R以及移动计划P。
例如,通信单元190为用于与网络N进行通信的接口,并且可以为无线LAN单元。通信单元190接收从服务器30发送的管制区域信息R,并且将管制区域信息R传送至控制单元150。通信单元190可以根据由控制单元150的控制将由立体相机131拍摄的图像发送至服务器30。
图4和图5分别为根据第一实施例的机器人10周围的视图。图4和图5中的深色区域为存在障碍物的区域,并且为通常的管制区域。机器人10在房间角落附近的由障碍物包围的空间中行进。机器人10朝向房间中心(图4的右上)行进的最短路径包括穿过障碍物501与障碍物502之间的空间的移动路径600。因此,机器人10通常在移动计划中包括移动路径600,并且根据移动计划沿着移动路径600移动。
考虑障碍物501与障碍物502之间的空间变成管制区域的情况,诸如除了通常的管制区域以外,例如在障碍物501与障碍物502之间的空间中放置电缆的情况。在该情况下,如图5所示,机器人10从服务器30接收除了通常的管制区域以外还包括位于障碍物501与障碍物502之间的附加管制区域503的管制区域信息R。因此,机器人10基于新的管制区域信息R,再次制定移动计划,以便除了绕开通常的管制区域以外,还绕开附加管制区域503。再次制定的移动计划包括移动路径601,所述移动路径601允许绕开管制区域并且通过最短的路径到达目的地。
这使得机器人10能够基于最新的管制区域信息R移动。
图6为图示出根据第一实施例的管理终端20的功能配置的框图。管理终端20包括存储器200、通信单元210、输入单元220、显示单元230以及控制单元240。
例如,存储器200为非易失性存储介质,并且可以为固态驱动器。除了用于控制管理终端20的控制程序以外,存储器200还存储用于控制和运算的各种参数值、函数、查找表等。
通信单元210为用于与网络N通信的接口。通信单元210接收从服务器30发送的环境地图,并且将环境地图传送至控制单元240。通信单元210与控制单元240协作地将手绘输入图像与环境地图相关联地发送至服务器30。
输入单元220包括重叠设置在显示单元230上的触控面板、设置在显示单元230的周缘部的按钮等。输入单元220接收由管理者通过触摸触控面板输入的手绘输入图像来指定管制区域,并且将手绘输入图像传送至控制单元240。
例如,显示单元230可以为液晶面板。例如,显示单元230显示从服务器30发送的环境地图。显示单元230还在环境地图上重叠地显示输入的手绘输入图像。
控制单元240为诸如CPU的处理器,并且通过执行从存储器200读取的控制程序来执行整个管理终端20的控制和各种运算处理。
图7图示出根据第一实施例的手绘输入图像的示例。管理终端20的显示单元230显示以机器人10的当前位置为基准的预定范围内的环境地图。管理者在显示的环境地图上输入手绘的输入图像700。
输入手绘输入图像的方法包括通过使用用户的手指、手写笔等触摸触控面板上的相关部分来直接输入手绘输入图像。然而,输入手绘输入图像的方法并不限于此。例如,可以通过使用鼠标等选择预定图形并且指定图形的位置和大小来输入手绘输入图像。手绘输入图像可以作为二维线或者图形输入,或者可以作为三维对象输入。
图8为图示出根据第一实施例的服务器30的功能配置的框图。服务器30包括存储器310、通信单元320以及控制单元330。
例如,存储器310为非易失性存储介质,并且可以为固态驱动器。除了用于控制服务器30的控制程序以外,存储器310还存储用于控制和运算的各种参数值、函数、查找表等。特别地,存储器310存储环境地图M和转换信息T。
存储在存储器310中的环境地图M为与机器人10保持的环境地图M相同的地图信息。
转换信息T为用于将手绘输入图像转换为诸如管制区域的位置、形状、大小等的属性信息的信息。例如,转换信息T可以包括用于模板匹配的模板和各种参数。转换信息T还可以包括接收手绘输入图像的输入并且输出属性信息的训练好的模型。训练好的模型可以包括神经网络。
通信单元320为用于与网络N通信的接口。通信单元320接收与环境地图相关联并且从管理终端20发送的手绘输入图像,并且将手绘输入图像传送至控制单元330。另外,通信单元320与控制单元330协作地将管制区域信息R发送至机器人10。
控制单元330为诸如CPU的处理器,并且通过执行从存储器310读取的控制程序来执行整个服务器30的控制以及各种运算处理。参照图9描述具体的处理流程。
图9为图示出由根据第一实施例的服务器30执行的管制区域管理方法的流程的流程图。
首先,当服务器30的通信单元320从管理终端20接收与环境地图M相关联的手绘输入图像时(步骤S10),控制单元330基于环境地图M和手绘输入图像估计管制区域的位置和范围(步骤S11)。例如,控制单元330可以读取存储在存储器310中的转换信息T,并且使用转换信息T从手绘输入图像估计环境地图上的管制区域的基准点的位置以及管制区域的形状和大小。以示例的方式,基准点可以为重心。
接下来,控制单元330生成指示估计的管制区域的位置和范围的管制区域信息R(步骤S12)。
随后,控制单元330经由通信单元320将管制区域信息R发送至全部机器人10。对于远程操纵的机器人10,控制单元330还将管制区域信息R发送至远程操纵机器人的操纵终端。具体地,控制单元330针对每个机器人10重复执行步骤S13至S16指示的处理。
首先,在步骤S13中,控制单元330判定机器人10是否被远程操纵。当机器人10被远程操纵时(在步骤S13中为“是”),控制单元330将管制区域信息R发送至机器人10以及操纵机器人10的操纵终端40(步骤S14)。
另一方面,当机器人10未被远程操纵并且机器人10正在自主移动时(在步骤S13中为“否”并且在步骤S15中为“是”),控制单元330将管制区域信息R发送至机器人10(步骤S16)。此时,当存在对应于机器人10的操纵终端40时,控制单元330可以将管制区域信息R发送至操纵终端40或者不发送至操纵终端40。
当机器人10未被远程操纵并且未自主移动时,诸如当机器人10未起动时(在步骤S13中为“否”并且在步骤S15中为“否”),控制单元330可以将管制区域信息R发送至机器人10或者不发送至机器人10。
关于机器人10是否被远程操作、机器人10是否正在自主移动、机器人10是否未起动等的信息可以预先从各个机器人10发送至服务器30。
图10为图示出根据第一实施例的操纵终端40的功能配置的框图。操纵终端40包括存储器400、通信单元410、操纵单元420、显示单元430以及控制单元440。
例如,存储器400为非易失性存储介质,并且可以为固态驱动器。除了用于控制操纵终端40的控制程序以外,存储器400还存储用于控制和运算的各种参数值、函数、查找表等。
通信单元410为用于与网络N通信的接口。通信单元410与控制单元440协作地向机器人10发送作为输入命令的操作指令。通信单元410从服务器30接收指示对应的机器人10周围的环境的信息,并且将所述信息传送至控制单元440。指示对应的机器人10周围的环境的信息可以为环境地图M,或者可以为由对应的机器人10的立体相机131拍摄的周围场景的图像。通信单元410将从服务器30接收的管制区域信息R传送至控制单元440。
操纵单元420为从操纵者接收操纵指令的输入的输入装置。例如,输入操纵指令的方法可以为命令输入。
例如,显示单元430为液晶面板,并且显示各种信息。例如,显示单元430显示指示机器人10周围的环境的信息。
控制单元440为诸如CPU的处理器,并且通过执行从存储器400读取的控制程序来执行整个操纵终端40的控制以及各种运算处理。
图11图示出根据第一实施例的操纵终端40上的显示的示例。例如,操纵终端40的显示单元430显示由对应的机器人10的立体相机131拍摄的图像。在由控制单元440进行的控制下,显示单元430在拍摄的图像上的基于管制区域信息R确定的位置处,重叠显示指示管制区域的对象OB。这允许操纵者在机器人10的视野中,连同机器人10周围的环境一起,直观地掌握管制区域的位置和范围。因此,操纵者能够容易地为不久的将来制定适当的移动计划。
当环境地图M作为指示周围环境的信息被接收时,在由控制单元440进行的控制下,在环境地图M的以对应的机器人10为基准确定的预定区域上,显示单元430可以重叠显示指示管制区域的对象。这允许操纵者在宽视野中,连同机器人10周围的环境一起,客观地掌握管制区域的位置和范围。因此,操纵者能够容易地制定适当的总移动计划。
当手绘输入图像作为三维对象被输入时,操纵终端40可以显示三维地指示管制区域的对象OB。对于二维对象也是同样的。然而,操纵终端40可以根据指示对应的机器人10周围的环境的信息的显示模式,将对象OB的显示模式从三维转换为二维,或者从二维转换为三维。
图12和图13分别为图示出由根据第一实施例的移动体管理***1执行的处理的流程的顺序图。虽然为了方便起见在附图中机器人10的数量为一个,但这不是限制性的。
机器人10可以在机器人10正在移动的同时以预定时间间隔,将由立体相机131拍摄的周围场景的图像以及指示机器人10是否被远程操纵或者自主移动的信息发送至服务器30。接收到拍摄的图像的服务器30可以基于拍摄的图像掌握关于机器人10的位置的信息。用于掌握关于机器人10的位置的信息的手段并不限于此,并且机器人10可以使用来自全球定位***(GPS)的信息。当机器人10被远程操纵时,服务器30可以以预定时间间隔将机器人10拍摄的图像发送至操纵终端40,并且使显示单元430显示拍摄的图像。
图12图示出机器人10自主移动的情况的流程。
当存在从管理终端20获取环境地图的要求时(步骤S100),服务器30将存储在存储器310中的环境地图M发送至管理终端20(步骤S101)。
管理终端20将接收到的环境地图M显示在显示单元230上(步骤S102)。随后,管理终端20从管理者接收手绘输入图像的输入(步骤S103)。管理终端20将手绘输入图像与环境地图M相关联地发送至服务器30(步骤S104)。
服务器30基于手绘输入图像和环境地图M,使用转换信息T估计管制区域(步骤S105)。随后,服务器30生成管制区域信息R。随后,服务器30判定机器人10的操作状态(步骤S106)。即,服务器30判定机器人10是否被远程操纵或者自主移动。在图12中,机器人10自主移动,并且因此服务器30向机器人10发送管制区域信息R(步骤S107),而不向操纵终端40发送管制区域信息R。
接收到管制区域信息R的机器人10基于管制区域信息R和机器人10自身保持的环境地图M来改变移动计划(步骤S108)。随后,机器人10根据改变后的移动计划自主移动(步骤S109)。
图13图示出机器人10被远程操纵的情况的流程。
移动体管理***1执行与步骤S100至S105类似的处理。随后,服务器30判定机器人10的操作状态(步骤S120)。在图13中,机器人10被远程操纵,并且因此服务器30将管制区域信息R发送至机器人10和操纵终端40两者(步骤S121和S122)。服务器30可以将管制区域信息R只发送至操纵终端40,并且可以不将管制区域信息R发送至机器人10,因为机器人10被远程操纵。
接收到管制区域信息R的操纵终端40将指示管制区域的对象重叠显示在由机器人10拍摄的图像上(步骤S123)。操纵终端40从已经掌握管制区域的管理者接收操纵指令的输入(步骤S124),并且将操纵指令发送至机器人10(步骤S125)。
接收到操纵指令的机器人10根据操纵指令移动(步骤S126)。
通过第一实施例,以这种方式,管理者能够通过直观的操作,即,通过手绘来指定管制区域。管理者指定的管制区域可以为已经改变或者增加静态障碍物的区域,或者可以为按照人的意图不期望机器人10进入的区域。服务器30能够立即通知制定如此指定的管制区域的移动计划的对象。这允许机器人10的移动范围实时反映人的意图。这也省去了每次布局部分改变或者放置新对象时再次实时准备环境地图的麻烦。
管理者可以将不容易被传感器检测到的障碍物指定为管制区域。因此,不需要在机器人10上额外安装专门的传感器。因此,能够抑制引入机器人10的成本。特别地,随着机器人10的数量增加,成本降低效果变得更加显着。
对于复杂的通道(诸如由于位于拐角前方的障碍物而导致的具有死胡同的通道),通过管理者预先指定大的管制区域能够缩短机器人10的移动时间。
以这种方式,移动体管理***1能够促进人和机器人10的共存。
第一实施例能够修改如下。
例如,虽然服务器30一次将管制区域信息R分配至全部机器人10,但是服务器30可以将管制区域信息R发送至一些已经指定的机器人10。在这种情况下,管理终端20从管理者连同手绘输入图像一起接收要经受管制的机器人10的识别信息的输入。机器人10的识别信息可以为用于识别机器人10的使用目的或者类型的信息。或者,机器人10的识别信息可以为机器人10的型号,或者可以为机器人10的序列号。当连同手绘输入图像一起获取机器人10的识别信息时,服务器30将管制区域信息R发送至具有识别信息的机器人10。当相关的机器人10被远程操纵时,服务器30也将管制区域信息R发送至远程操纵机器人10的操纵终端40。此时,服务器30可以不将管制区域信息R发送至其他机器人10和远程操纵其他机器人10的操纵终端40。
以这种方式,能够通过在机器人10的类型之间或者在机器人10之间使管制区域不同来灵活地施加管制。
例如,虽然管制区域信息R影响滑架部110的移动计划,但是可能额外影响主体部120的操作计划。操作计划确定部位的未来的操作方向和操作量,并且当部位可伸缩时确定部位的未来的伸缩方向和伸缩量。举例来说,机器人10可以生成臂部123的操作计划,以便绕开管制区域。具体地,机器人10基于管制区域信息R和移动计划估计机器人10的可动范围,并且基于估计的可动范围生成机器人10的臂部123的操作计划。
以这种方式,通过将管制区域信息R反映在整个机器人10的操作计划中,能够适当地辅助机器人10的自主移动。
第二实施例
接下来,将描述本公开的第二实施例。在第二实施例中,管理者不但能够指定管制区域的位置和范围,而且能够通过手绘输入图像指定与管制区域相关联的附加信息。
例如,管理者可以能够通过使用手指或者触控笔输入手写字符来指定管制的类型。举例来说,管制的类型可以为高度管制、宽度管制、速度限制或者禁止进入。在这种情况下,管制区域信息R包括指示管制区域的位置和范围的信息以及指示管制的类型的信息。
图14图示出根据第二实施例的手绘输入图像的示例。显示单元230显示手绘输入图像700、710。手绘输入图像700指示当在平面中观看时的管制区域的位置和范围。手绘输入图像710指示代表管制的类型的字符。在本示例中,手绘输入图像710指示字符“安静(SILENCE)”,其可以指示管制的类型为速度限制。
接收到这样的手绘输入图像的服务器30从手绘输入图像提取指示图形的图像区域(手绘输入图像700)和指示字符的图像区域(手绘输入图像710)。接下来,服务器30基于环境地图M和指示图形的图像区域估计管制区域的位置和范围。服务器30还使用诸如光学字符识别(OCR)的已知技术从指示字符的图像区域估计管制的类型。随后,服务器30生成指示管制区域的信息以及指示管制的类型的信息作为管制区域信息R。
管理者可以通过指定手绘输入图像的颜色来指定管制的类型。在这种情况下,已经根据颜色预先确定管制的类型。例如,绿色可以指示速度限制,而蓝色可以指示高度限制。
接收到包括有色图形的手绘输入图像的服务器30从手绘输入图像提取坐标信息和颜色信息。随后,服务器30基于环境地图M和坐标信息估计管制区域的位置和范围。服务器30还基于颜色信息估计管制的类型。服务器30生成指示管制区域的信息以及指示管制的类型的信息作为管制区域信息R。
管理者可以使用与指示当在平面中观看时的管制区域的位置和范围的图形不同的图形来表达管制的类型。
图15图示出根据第二实施例的手绘输入图像的示例。
例如,当障碍物存在于距地板预定高度以上的位置时或者当天花板较低时,管制的类型指示高度限制。此时,例如,管理者在环境地图M上输入两种图形,即,指示当在平面中观看时的障碍物的位置和范围的图形(手绘输入图像700),以及指示障碍物存在于预定高度以上的位置的图形(手绘输入图像720)。如手绘输入图像740所指示的,管理者可以使用与手绘输入图像720相关联的手写字符输入障碍物所在高度的具体值。
接收到这样的手绘输入图像的服务器30从手绘输入图像提取指示图形的图像区域(手绘输入图像700、720),以及指示字符的图像区域(手绘输入图像740)。
服务器30从指示图形的图像区域中,提取指示当在平面中观看时的障碍物的位置和范围(也称为“第一图形”)的图像区域,以及对指示障碍物存在于预定高度以上的位置的图形(也称为“第二图形”)进行指示的图像区域。随后,服务器30基于第一图形估计当在平面中观看时的管制区域的位置和范围,并且基于第二图形识别管制区域存在于预定高度以上的位置。对于指示字符的图像区域,服务器30使用以上讨论的OCR等来识别具体高度。
通过第二实施例,以这种方式,管理者能够更详细地直观地指定管制区域。
当接收到包括指示管制的类型的信息的管制区域信息R时,自主移动的机器人10可以如下地生成移动计划。
首先,机器人10基于环境地图M、管制区域的位置和范围以及管制的类型生成移动路径。随后,机器人10基于管制的类型估计管制区域中的移动的模式。
举例来说,当管制的类型为禁止进入时,机器人10生成移动路径以便绕开管制区域。举例来说,当管制的种类为速度限制时,生成包括管制区域的移动路径。然而,机器人10将管制区域中的速度设定在限制速度范围内。举例来说,当管制的类型为宽度限制或者高度限制时,考虑机器人10的尺寸来判定机器人10是否能够进入管制区域。机器人10可以在机器人10能够进入管制区域时生成包括管制区域的移动路径,并且可以在机器人10不能进入管制区域时生成移动路径以便绕开管制区域。当机器人10不能进入管制区域,但是机器人10能够通过诸如竖直或者横向收缩的臂123的可伸缩的可动部进入管制区域时,机器人10生成包括管制区域的移动路径,并且生成可动部的操作计划,以便在机器人10通过管制区域时使可动部收缩。
第三实施例
接下来,将描述本公开的第三实施例。在第三实施例中,当预测如果机器人10根据操纵指令移动进入管制区域时,被远程操纵的机器人10违背来自操纵终端40的操纵指令自主地控制自身以便绕开管制区域。
图16图示出根据第三实施例的被远程操纵的机器人10的自主控制。移动路径620指示根据操纵指令的机器人10的移动路径。被指定为管制区域的水池504存在于移动路径620上。因此,如果机器人10继续遵循操作指令,则预测机器人10将被困在水池504中。因此,机器人10自主地将移动路径改变为移动路径621,所述移动路径621使机器人10在绕开水池504的同时沿操纵指令指示的方向行进。
图17为图示出根据第三实施例的机器人10移动时执行的移动方法的流程的流程图。首先,机器人10从服务器30接收管制区域信息R(步骤S20)。当机器人10自主移动而不是被远程操纵时(在步骤S21中为“否”),基于环境地图M和管制区域信息R生成移动计划(步骤S22)。随后,机器人10基于移动计划自主移动(步骤S23)。
另一方面,当机器人10被远程操纵时(在步骤S21中为“是”),接收来自操纵终端40的操纵指令(步骤S24)。接下来,机器人10基于操纵指令预测移动路径(步骤S25)。机器人10判定预测的移动路径是否通过管制区域(步骤S26)。当预测的移动路径未通过管制区域时(在步骤S26中为“否”),机器人10基于操纵指令移动(步骤S27)。另一方面,当预测的移动路径通过管制区域时(在步骤S26中为“是”),机器人10判定是否能够绕开管制区域(步骤S28)。具体地,机器人10判定是否能够生成在沿操纵指令指示的方向行进的同时绕开管制区域的移动计划。如果能够绕开管制区域(在步骤S28中为“是”),则机器人10在基于新生成的移动计划绕开管制区域的同时沿操纵指令指示的方向移动(步骤S29)。另一方面,当不能绕开管制区域时(在步骤S28中为“否”),机器人10的移动被强制停止(步骤S30)。
通过第三实施例,以这种方式,机器人10在被远程操纵的同时在紧急情况下自主控制自身。因此,移动体管理***1能够减轻操纵者的负担,并且促进人和机器人10的共存。
应用示例
接下来,将描述根据第一实施例至第四实施例的移动体管理***1的应用示例。
作业现场的机器人的管理
移动体管理***1能够被用于管理作业现场的机器人。例如,当期望在天花板上或者在高处工作时,管理者将作业场所下方的区域指定为在地面上移动的机器人10的管制区域。在地面上移动的机器人10难以检测高处的作业场所。然而,通过移动体管理***1,管理者能够指定限制区域,并且因此防止机器人10进入危险位置。
商业设施的机器人的管理
移动体管理***1能够用于管理商业设施的机器人。例如,当准备特别活动现场时,管理者能够使用管理终端20容易地通知机器人10活动现场的墙壁和物体的布置。这允许机器人10掌握现场的行进线路。
仓库中用于搬运的机器人的管理
移动体管理***1能够用于管理仓库中用于搬运的机器人。例如,当将物体暂时放置在通道的地板上从而暂时缩小通道时,管理者使用管理终端20指定管制区域以便堵塞通道。此时,管理者可以将管制的类型指定为禁止进入或者禁止通过。这允许机器人10移动以便绕开变窄的通道。
户外机器人的管理
移动体管理***1能够用于管理户外机器人。例如,当在户外场所存在水池时,管理员使用管理终端20设定管制区域以便包围水池。这允许机器人10移动以便绕开水池,防止因浸入水中而导致的故障。
本公开并不限于以上实施例,并且在不脱离本公开的主旨和范围的情况下能够适当地修改。在以上讨论的实施例中,虽然每次更新管制区域时服务器30将管制区域信息R发送至机器人10和操纵终端40,但是服务器30可以只发送更新的信息。
虽然操纵终端40经由网络N向机器人10发送操纵指令,但是操纵终端40可以通过近场无线通信等直接向机器人10发送操纵指令,或者可以经由服务器30向机器人10发送操纵指令。
虽然管制区域信息R由服务器30生成,但是管制区域信息R可以由管理终端20生成。在这种情况下,管理终端20可以不经由服务器30而将管制区域信息R发送至机器人10。
当确定在管制区域中实施管制的期间时,管理终端20可以连同手绘输入图像一起接收有效期限的输入,并且将关于有效期限的信息连同手绘输入图像一起发送至服务器30。在这种情况下,服务器30可以针对每个管制区域管理有效期限。随后,当管制区域的有效期限届满时,服务器30可以更新管制区域信息R以便删除相关的管制区域。服务器30可以根据管制区域信息R的更新向机器人10和操纵终端40展开更新后的管制区域信息R。
尽管提及机器人10作为移动体的示例,但这不是限制性的,并且移动体可以为车辆、无人飞行器(无人机)等。移动体可以基本上通过远程操作移动。在这种情况下,可以省略自主移动功能。
Claims (11)
1.一种管制区域管理***,其特征在于包括一个以上的处理器,所述一个以上的处理器配置为:
获取输入至环境地图的手绘输入图像;
基于所述环境地图和所述手绘输入图像估计管制区域,所述管制区域为对移动体的进入进行管制的区域;
当未使用操纵终端远程操纵所述移动体时,将指示所述管制区域的管制区域信息发送至所述移动体;并且
当使用所述操纵终端远程操纵所述移动体时,将所述管制区域信息发送至所述操纵终端。
2.根据权利要求1所述的管制区域管理***,其特征在于,所述一个以上的处理器配置为将所述管制区域信息发送至所述移动体。
3.根据权利要求1或2所述的管制区域管理***,其特征在于,所述一个以上的处理器配置为:
从所述手绘输入图像提取坐标信息和颜色信息;
基于所述环境地图和所述坐标信息估计所述管制区域;
基于所述颜色信息估计管制的类型;并且
生成指示所述管制区域的信息以及指示所述管制的所述类型的信息作为所述管制区域信息。
4.根据权利要求1至3中的任一项所述的管制区域管理***,其特征在于,所述一个以上的处理器配置为:
当连同所述手绘输入图像一起获取关于所述移动体的识别信息并且未使用所述操纵终端远程操纵所述移动体时,将所述管制区域信息连同所述识别信息一起发送至所述移动体;并且
当连同所述手绘输入图像一起获取关于所述移动体的所述识别信息并且远程操纵具有所述识别信息的所述移动体时,将所述管制区域信息发送至用于远程操纵具有所述识别信息的所述移动体的所述操纵终端。
5.一种移动体管理***,其特征在于包括:
根据权利要求1至4中的任一项所述的管制区域管理***;以及
所述移动体。
6.根据权利要求5所述的移动体管理***,其特征在于,所述移动体配置为,当所述移动体自主移动时,响应于接收到所述管制区域信息基于所述环境地图和所述管制区域信息生成所述移动体的自主移动的移动计划。
7.根据权利要求6所述的移动体管理***,其特征在于:
所述移动体包括可动部,所述可动部与所述移动体在行进方向上的移动不同地起作用;并且
所述移动体配置为,当所述移动体自主移动时,
基于所述管制区域信息和所述移动计划估计所述移动体的可动范围,并且
基于所述可动范围生成所述移动体的所述可动部的操作计划。
8.根据权利要求5至7中的任一项所述的移动体管理***,其特征在于,还包括与所述移动体相关联的所述操纵终端,并且所述操纵终端配置为
响应于接收到所述管制区域信息显示所述管制区域,并且
当从操纵者接收到操纵指令时,将所述操纵指令发送至对应的所述移动体。
9.根据权利要求8所述的移动体管理***,其特征在于,所述移动体配置为,在当所述移动体根据从对应的所述操纵终端接收的所述操纵指令移动时做出所述移动体进入所述管制区域的预测的情况下,生成绕开所述管制区域的移动计划,或者停止移动。
10.一种管制区域管理方法,其特征在于包括:
获取输入至环境地图的手绘输入图像;
基于所述环境地图和所述手绘输入图像估计管制区域,所述管制区域为对移动体的进入进行管制的区域;
当未使用操纵终端远程操纵所述移动体时,将指示所述管制区域的管制区域信息发送至所述移动体;以及
当使用所述操纵终端远程操纵所述移动体时,将所述管制区域信息发送至所述操纵终端。
11.一种非暂时性存储介质,其存储能够由一个以上的处理器执行并且使所述一个以上的处理器执行功能的指令,所述功能的特征在于包括:
获取输入至环境地图的手绘输入图像;
基于所述环境地图和所述手绘输入图像估计管制区域,所述管制区域为对移动体的进入进行管制的区域;
当未使用操纵终端远程操纵所述移动体时,将指示所述管制区域的管制区域信息发送至所述移动体;以及
当使用所述操纵终端远程操纵所述移动体时,将所述管制区域信息发送至所述操纵终端。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022-041970 | 2022-03-17 | ||
JP2022041970A JP2023136380A (ja) | 2022-03-17 | 2022-03-17 | 規制領域管理システム、移動体管理システム、規制領域管理方法、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116774691A true CN116774691A (zh) | 2023-09-19 |
Family
ID=87849379
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310095367.5A Pending CN116774691A (zh) | 2022-03-17 | 2023-02-10 | 管制区域管理***和方法、移动体管理***及非暂时性存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230294288A1 (zh) |
JP (1) | JP2023136380A (zh) |
CN (1) | CN116774691A (zh) |
DE (1) | DE102023101415A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117824663A (zh) * | 2024-03-05 | 2024-04-05 | 南京思伽智能科技有限公司 | 一种基于手绘场景图理解的机器人导航方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7393185B2 (ja) | 2019-11-08 | 2023-12-06 | 東日本旅客鉄道株式会社 | 自律移動装置への地図情報提供システムおよび自律移動装置 |
-
2022
- 2022-03-17 JP JP2022041970A patent/JP2023136380A/ja active Pending
-
2023
- 2023-01-20 DE DE102023101415.3A patent/DE102023101415A1/de active Pending
- 2023-01-30 US US18/103,058 patent/US20230294288A1/en active Pending
- 2023-02-10 CN CN202310095367.5A patent/CN116774691A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117824663A (zh) * | 2024-03-05 | 2024-04-05 | 南京思伽智能科技有限公司 | 一种基于手绘场景图理解的机器人导航方法 |
CN117824663B (zh) * | 2024-03-05 | 2024-05-10 | 南京思伽智能科技有限公司 | 一种基于手绘场景图理解的机器人导航方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2023136380A (ja) | 2023-09-29 |
DE102023101415A1 (de) | 2023-09-21 |
US20230294288A1 (en) | 2023-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11468983B2 (en) | Time-dependent navigation of telepresence robots | |
US20220199253A1 (en) | Interfacing With a Mobile Telepresence Robot | |
US9789612B2 (en) | Remotely operating a mobile robot | |
US8271132B2 (en) | System and method for seamless task-directed autonomy for robots | |
Chatterjee et al. | Vision based autonomous robot navigation: algorithms and implementations | |
JP2011170844A (ja) | 無人移動体の制御方法 | |
CN116774691A (zh) | 管制区域管理***和方法、移动体管理***及非暂时性存储介质 | |
JP2018147158A (ja) | 無人移動体の制御方法 | |
CN112930503A (zh) | 用于自驱动车辆的手动方向控制装置 | |
JP7484758B2 (ja) | ロボット制御システム | |
JP6949417B1 (ja) | 車両操縦システムと車両操縦方法 | |
Yang et al. | Research into the application of AI robots in community home leisure interaction | |
EP4024155B1 (en) | Method, system and computer program product of control of unmanned aerial vehicles | |
US20230333550A1 (en) | Remote operation system, remote operation method, and storage medium | |
KR102555709B1 (ko) | 문자 행렬 지도 기반의 타일 격자무늬 추적 자율주행 로봇의 제어방법 | |
KR102448513B1 (ko) | 무인 차량의 기동 통제를 자동화하는 장치 및 방법 | |
Gillan | 41 Eye, Robot: Visual Perception and Human-Robot Interaction | |
Lu et al. | An Autonomous Vehicle Platform for Parcel Delivery | |
CN116149313A (zh) | 视触觉融合的空中机器人遥操作***及跟随辅助控制方法 | |
JP2024088932A (ja) | 情報処理装置、制御方法及びプログラム | |
Rituparna et al. | Intelligent contextual assistance for visuals in remote campaign operation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |