CN111232884B - 自主体***及其控制方法 - Google Patents

自主体***及其控制方法 Download PDF

Info

Publication number
CN111232884B
CN111232884B CN201910949154.8A CN201910949154A CN111232884B CN 111232884 B CN111232884 B CN 111232884B CN 201910949154 A CN201910949154 A CN 201910949154A CN 111232884 B CN111232884 B CN 111232884B
Authority
CN
China
Prior art keywords
autonomous
situation
unit
autonomous body
grasped
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910949154.8A
Other languages
English (en)
Other versions
CN111232884A (zh
Inventor
守屋俊夫
渡边高志
木村宣隆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of CN111232884A publication Critical patent/CN111232884A/zh
Application granted granted Critical
Publication of CN111232884B publication Critical patent/CN111232884B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • G05D1/0297Fleet control by controlling means in a control room
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F9/00Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
    • B66F9/06Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
    • B66F9/075Constructional features or details
    • B66F9/07581Remote controls
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Transportation (AREA)
  • Structural Engineering (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Game Theory and Decision Science (AREA)
  • Civil Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geology (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

在包含多个自主体的自主体***及其控制方法中,决定对于整体以及各自主体优选的各自主体的动作。在具有多个自主体的自主体***中,多个自主体中的各个自主体具有掌握状况的状况掌握部、基于掌握到的状况决定动作的动作决定部、以及执行所决定的动作的动作执行部,所述自主体***具有的所述多个自主体包含一个以上的第1自主体、以及两个以上的第2自主体,第1自主体的状况掌握部掌握的状况包含第2自主体的状况,第2自主体的状况掌握部掌握的状况包含由第1自主体的动作执行部执行的动作的结果,第2自主体的动作决定部基于由第1自主体的动作执行部执行的动作的结果,来决定动作。

Description

自主体***及其控制方法
技术领域
本发明涉及包含多个自主体的自主体***。
背景技术
作为控制包含多个机器人的***的技术,例如有日本特开2006-000954号公报(专利文献1)或者日本特开2015-208811号公报(专利文献2)中公开的技术。
在专利文献1中,关于多台机器人协同动作,作为整体实现某特定的目的多机器人***,记载有“多机器人***由在舞台上活动的多个机器人、监视舞台上的机器人的动作的监视***、以及进行多机器人的运用的综合控制器构成。综合控制器基于机器人的状态、被监视的位置以及方向,经由无线LAN实时进行针对机器人的动作指示、针对机器人的位置以及方向的修正指示、在产生(或预测)异常时向机器人的动作指示。”
在专利文献2中,关于具有多台机器人的机器人***的动作程序的优化,记载有“模拟装置具备:通过模拟来执行包含驱动轴的指令速度、指令加速度和动作等待指令的动作程序的模拟部;将动作程序的行号与行号中的指令速度及指令加速度建立关联并以时间序列存储的存储部;基于由模拟部执行的模拟结果,按每个在存储部中存储的行号来计算动作程序的执行时间的执行时间计算部;以及基于由执行时间计算部计算出的执行时间,计算与动作等待指令对应的动作等待时间的等待时间计算部。”
现有技术文献
专利文献
专利文献1:日本特开2006-000954号公报
专利文献2:日本特开2015-208811号公报
发明内容
在上述的专利文献1记载的机器人***中,各机器人为了接受来自控制器的指示,需要持有适合与控制器进行通信的接口。此外,控制器为了控制各机器人,根据需要,有必要进行信息的综合、保证无矛盾性以及同步等。此外,在发生机器人的规格的变更或者具有新的规格的机器人的追加等的情况下,有时需要与之相匹配地进行控制器侧的信息的变更或者接口的变更等。
此外,在上述的专利文献2记载的模拟装置中,为了进行机器人***的动作程序的模拟,需要预先掌握各机器人的规格,在规格被变更,或追加了不同规格的机器人的情况下,有时需要与之相匹配地更新模拟装置的信息。
用于解决课题的手段
为了解决上述课题的至少一个,本申请中公开的发明的代表性的一例为具有多个自主体的自主体***,其特征在于,所述多个自主体中的各个自主体具有掌握状况的状况掌握部、基于掌握到的状况决定动作的动作决定部、以及执行所决定的动作的动作执行部,所述自主体***具有的所述多个自主体包含一个以上的第1自主体、以及两个以上的第2自主体,所述第1自主体的所述状况掌握部掌握的状况包含所述第2自主体的状况,所述第2自主体的所述状况掌握部掌握的状况包含由所述第1自主体的动作执行部执行的动作的结果,所述第2自主体的所述动作决定部基于由所述第1自主体的动作执行部执行的动作的结果,来决定动作。
发明效果
根据本发明的一方式,下层的各自主体(第2自主体)无需明确持有针对上层的自主体(第1自主体)的接口。因此,与自主体的机种以及制造者等无关地,下层的自主体与上层的自主体的连接变得容易。此外,由于无需预先将与各自主体有关的信息综合、或保证其无矛盾性以及同步等,动作的可靠性提高。并且,即使在下层的自主体的规格发生变化,或追加了持有新的规格的下层的自主体的情况下,由于上层的自主体能够不进行特别的作业地适应,因此自主体***能够持续更新。
上述以外的课题、构成以及效果通过以下的实施例的说明而清楚。
附图说明
图1是表示本发明的实施例1的自主体***的整体构成的说明图。
图2是表示本发明的实施例1的自主体***中的管制***的构成的框图。
图3是表示本发明的实施例1的自主体***中的飞翼车的构成的框图。
图4是表示本发明的实施例1的自主体***中的叉车的构成的框图。
图5是表示本发明的实施例1的自主体***中的管制***执行的处理的流程图。
图6是表示本发明的实施例1的自主体***中的飞翼车执行的处理的流程图。
图7是表示本发明的实施例1的自主体***中的叉车执行的处理的流程图。
图8是表示本发明的实施例2的自主体***的整体构成的说明图。
图9是表示本发明的实施例3的自主体***的整体构成的说明图。
图10是表示本发明的实施例4的自主体***的整体构成的说明图。
图11是表示本发明的实施例5的自主体***的整体构成的说明图。
附图标记说明:
100、800、900、1000、1100 自主体***
101 管制***
102 飞翼车
103 叉车
104 托盘
105 相机
106 信号机
801 升降器综合管理***
802 臂机器人
803 升降器
901 停车场内管制***
902 自动驾驶车
903 汽车
904 停车场
906 停车区域
908 引导显示板
1001 施工现场管制***
1002 挖掘机
1003 翻斗车
1004 人员
1101 螺纹紧固监视***
1102 第1手形机器人
1103 第2手形机器人
1104 第1工件
1105 第2工件
1106 螺钉。
具体实施方式
【实施例1】
图1是表示本发明的实施例1的自主体***100的整体构成的说明图。
实施例1的自主体***100是物流仓库中由自主叉车从飞翼车自动卸下托盘的***。该自主体***100包含一个以上的飞翼车102、一个以上的叉车103、以及管制***101作为自主体。
这里,自主体是自身掌握状况、判断、进行动作的物体的通称。例如,基于传感器信息等自主驾驶的飞翼车102及叉车103,以及基于传感器信息等进行自主性的判断并输出其结果的管制***101为自主体。在实施例1中,主要对这样的自主体进行说明。其中,即使是由人员驾驶的飞翼车102以及叉车103,也能够作为人员自身掌握状况、并根据判断出的结果动作的自主体来对待。进而,例如有在仓库内存在进行物品的搬运、分类等的作业的人员时,该人员本身也能够作为基于自已的视觉以及听觉等的感知的结果掌握状况、并使用该人员的智能进行判断,从而自主性地行动的自主体对待。
仓库包括进货区域110、库存区域111以及出货区域112。若飞翼车102到达进货区域110,则叉车103卸下积载有物品的托盘104并向库存区域111搬运。向库存区域111搬运的物品既可以以积载于托盘104的状态被保管,也可以从托盘104卸下并保管于货架。保管物品的货架既可以固定于库存区域111,也可以能够通过自动搬运车(省略图示)等移动。
叉车103根据出货订单将所需的托盘104从库存区域111搬出至出货区域112,并向到达出货区域112的飞翼车102装载。托盘104的装载结束的飞翼车102从出货区域112离开,向下一配送目的地搬运物品。
另外,在图1中为了使说明简单而进行了省略,但实际的仓库通常包括暂置从飞翼车102卸下的托盘104(或者准备向飞翼车102装载的托盘)的区域,进行载置于托盘104的物品的拆卸的区域,根据出货订单进行物品的拣选、分类、检点等的区域,以及将出货的物品向托盘积载的区域等。
管制***101是掌握仓库内的各飞翼车102以及各叉车103的状况,并输出用于管制该飞翼车102以及各叉车103的信息的上层的(或者第1种)自主体。其为取得与自主体***整体有关的信息并进行用于使整体优化的处理的***,也可以将其称为整体智慧。与此相对,各飞翼车102以及各叉车103是根据需要、利用从管制***101输出的信息,并且自主性地决定自身的动作的下层的(或者第2种)自主体。其为分别取得各自的周围的信息来自主性地动作的个体,也可以将其称为个体智慧。
在图1的例中,在仓库内设置能够与管制***101进行通信的一个以上的相机105以及能够与管制***101进行通信的一个以上的信号机106。各相机105对仓库内进行拍摄,并向管制***101发送拍摄到的图像的数据。各信号机106例如设置于进货区域110或者出货区域,按照从管制***101发送来的信息输出某些信号。并且,管制***101也可以与各叉车103进行通信。
管制***101只要能够与相机105、信号机106以及叉车103等进行通信,则可以设置于仓库内或者仓库外(包含远程)中的任一处。
图2是表示本发明的实施例1的自主体***100中的管制***101的构成的框图。
管制***101是具有处理器201、通信接口(I/F)202以及存储装置203的计算机。
处理器201按照在存储装置203中储存的程序执行各种处理。通信接口202与网络210连接,经由网络210与相机105、信号机106以及叉车103等(在飞翼车102具有与管制***101进行通信的功能的情况下,也包括飞翼车102)进行通信。
存储装置203例如可以是DRAM(Dynamic Random Access Memory:动态随机存取存储器)等的主存储装置、与硬盘驱动器或者闪存等的辅助存储装置的组合。存储装置203保持状况掌握部204、动作决定部205、动作执行部206以及任务信息208。
状况掌握部204、动作决定部205以及动作执行部206是通过处理器201执行的程序。在以下的说明中,上述的各部执行的处理实际上通过处理器201按照在存储装置203中保持的程序、并根据需要控制通信接口202、相机105以及信号机106等来执行。
例如,也可以将相机105的拍摄功能、与处理器201按照状况掌握部204的程序并根据相机105拍摄到的图像来掌握状况的功能的整体,作为状况掌握部204的功能来对待。换言之,也可以将相机105看作状况掌握部204的一部分。同样,也可以将信号机106看作动作执行部206的一部分。后述上述各部的处理。
任务信息208是与管制***101应执行的任务有关的信息。例如,在实施例1的管制***101对仓库内的飞翼车102以及叉车103进行管制的情况下,任务信息208可以包含出货订单,出货订单包括应从该仓库出货的物品的种类、数量以及出货目的地等。
相机105是对仓库内进行拍摄的光学相机。为了掌握仓库的状况,如有需要也可以设置拍摄仓库外的相机105。相机105对仓库内进行拍摄,并经由网络210向管制***101发送该图像数据。状况掌握部204基于图像数据,掌握仓库的状况(例如仓库内的各区域中的托盘104的配置、各飞翼车102以及各叉车103的位置以及状态等)。
另外,相机105是取得用于管制***101掌握仓库的状况的信息的传感器的一例。作为传感器,也可以代替相机105(或者除了相机105之外)使用雷达或者LIDAR(LaserImaging Detectionand Ranging:激光成像探测与测距)。此外,管制***101为了掌握各飞翼车102以及各叉车103的位置例如也可以使用信标。在该情况下,信标信号的接收机设置于仓库内的各处并与网络210连接。也可以在仓库设置多个相机105,或也可以设置多个种类的传感器。
信号机106例如可以与交通信号相同,输出允许行进的绿色、指示停止的黄色或者红色的颜色信号。信号机106例如设置于进货区域110以及出货区域112,用于对飞翼车102提示允许行进或者停止等的信息。信号机106也可以按照经由网络210从管制***101发送来的信号,输出某一个颜色信号。或者,信号机106也可以代替颜色信号而是通过包含图形、符号或者字符等的信号来显示行进、停止等的信息。进而,信号机106也可以显示对飞翼车102的飞翼的开闭进行指示的信息。或者,也可以代替信号机106(或者除此之外)使用输出包含上述那样的信息的声音信号的装置。
网络210只要是管制***101能够与飞翼车102、叉车103、相机105以及信号机106进行通信的网络,则可以是任意的种类。例如,在管制***101处于远程的情况下网络210也可以包含广域网,或也可以为了与移动的叉车103等进行通信而包含无线网络。
图3是表示本发明的实施例1的自主体***100中的飞翼车102的构成的框图。
飞翼车102是搬运积载有物品的托盘104的车辆。这里,例示出使得叉车103易于进行托盘的装卸的飞翼车(即货箱部分的侧板与天花板升起型的卡车车辆),也可以使用其以外的类型的车辆。
飞翼车102具有处理器301、通信接口302、传感器部303、驱动部304以及存储装置305。
处理器301按照在存储装置305中储存的程序执行各种处理。通信接口302与网络210连接,与管制***101进行通信。但是,飞翼车102也可以不具有与管制***101进行通信的功能,在该情况下飞翼车102也可以不具有通信接口302。
传感器部303取得用于掌握飞翼车102的周围的状况的信息。传感器部303例如既可以包含光学相机、雷达或者LIDAR等,也可以包含麦克风那样的声音传感器。飞翼车102可以具有多个传感器部303,也可以具有多个种类的传感器部303。
驱动部304具有飞翼车102的行驶以及飞翼的开闭等的功能。驱动部304例如包含内燃机或者电动机那样的原动机,向车轮或者飞翼传递原动机产生的动力的传递装置,以及用于使飞翼车102向所希望的方向行驶的转向装置等。
存储装置305例如可以是DRAM等的主存储装置、与硬盘驱动器或者闪存等的辅助存储装置的组合。存储装置305保持状况掌握部306、动作决定部307、动作执行部308以及任务信息310。
状况掌握部306、动作决定部307以及动作执行部308是通过处理器301执行的程序。在以下的说明中,上述的各部执行的处理实际上通过处理器301按照在存储装置305中保持的程序、并根据需要控制通信接口302、传感器部303以及驱动部304等来执行。
例如,也可以将传感器部303的传感检测功能,以及处理器301基于传感器部303传感检测到的信息、按照状况掌握部306的程序掌握状况的功能的整体,作为状况掌握部306的功能来对待。换言之,也可以将传感器部303看作状况掌握部306的一部分。在通信接口302接收到的信息被用于状况掌握时,通信接口302也可以看作状况掌握部306的一部分。同样,也可以将驱动部304看作动作执行部308的一部分。
另外,本实施例的飞翼车102具有无人驾驶而进行自动驾驶的自动驾驶功能,或者辅助驾驶员的驾驶的辅助驾驶功能。上述的状况掌握部306、动作决定部307以及动作执行部308的至少一部分也可以作为自动驾驶功能或者辅助驾驶功能的至少一部分来安装。
此外,虽然在图3中进行了省略,但存储装置305也可以进一步保持由自动驾驶功能或者辅助驾驶功能参照的地图数据等。
任务信息310是与飞翼车102应执行的任务有关的信息。例如,任务信息310也可以包含飞翼车102接下来应去往的仓库或者出货目的地的信息等。
图4是表示本发明的实施例1的自主体***100中的叉车103的构成的框图。
叉车103是进行托盘104从飞翼车102的卸货,在进货区域110、库存区域111以及出货区域112之间的托盘104的搬运,以及托盘104向飞翼车102的装载等的车辆。
叉车103具有处理器401、通信接口402、传感器部403、驱动部404以及存储装置405。
处理器401按照在存储装置405中储存的程序执行各种处理。通信接口402与网络210连接,与管制***101进行通信。
传感器部403取得用于掌握叉车103的周围的状况的信息。传感器部403例如可以包含光学相机、雷达或者LIDAR等,或也可以包含麦克风那样的声音传感器。叉车103既可以具有多个传感器部403,也可以具有多个种类的传感器部403。具体而言,传感器部403也可以包含用于检测周围的物体以便叉车103行驶的传感器,以及用于计测叉部的爪与托盘104的位置关系的传感器等。
驱动部404具有叉车103的行驶以及由叉部进行的托盘104的上升下降的功能。驱动部404例如包含内燃机或者电动机那样的原动机,向车轮或者叉部传递原动机产生的动力的传递装置,以及用于使叉车103向所希望的方向行驶的转向装置等。
存储装置405例如可以是DRAM等的主存储装置、与硬盘驱动器或者闪存等的辅助存储装置的组合。存储装置405保持状况掌握部406、动作决定部407、动作执行部408以及任务信息410。
状况掌握部406、动作决定部407以及动作执行部408是通过处理器401执行的程序。在以下的说明中,上述的各部执行的处理实际上通过处理器401按照在存储装置405中保持的程序,根据需要控制通信接口402、传感器部403以及驱动部404等来执行。
例如,也可以将传感器部403的传感检测功能、以及处理器401基于传感器部403传感检测到的信息按照状况掌握部406的程序掌握状况的功能的整体,作为状况掌握部406的功能来处理。换言之,也可以将传感器部403看作状况掌握部406的一部分。在通信接口402接收到的信息被用于状况掌握时,通信接口402也可以看作状况掌握部406的一部分。同样,也可以将驱动部404看作动作执行部408的一部分。后述上述各部的处理。
另外,本实施例的叉车103具有无人驾驶而进行自动驾驶的自动驾驶功能,或者辅助驾驶员的驾驶的辅助驾驶功能。上述的状况掌握部406、动作决定部407以及动作执行部408的至少一部分也可以作为自动驾驶功能或者辅助驾驶功能的至少一部分来安装。
此外,虽然在图4中进行了省略,但存储装置405也可以进一步保持由自动驾驶功能或者辅助驾驶功能参照的仓库内的地图数据等。
任务信息410是与叉车103应执行的任务有关的信息。例如,任务信息410也可以包含表示叉车103应搬运的托盘104以及其搬运目的地的信息等。
图5是表示本发明的实施例1的自主体***100中的管制***101执行的处理的流程图。
首先,管制***101的状况掌握部204掌握仓库的状况(步骤501)。例如,状况掌握部204也可以进行从各相机105发送来的图像数据的图像辨识等,来掌握仓库内的各区域中的托盘104的配置、各飞翼车102的位置以及状态(例如是否是行驶中,在停车的情况下在何处停车,是否打开飞翼等),各叉车103的位置以及状态(例如是否是行驶中,是否积载有托盘104等)。
接下来,管制***101的动作决定部205决定管制***101的动作(步骤502)。具体而言,动作决定部205若被输入由状况掌握部204掌握的状况,则基于该状况决定管制***101的动作。这里,管制***101的动作是指例如向各信号机106的信号的发送以及向各叉车103的指示的发送等。例如,动作决定部205也可以基于状况掌握部204掌握的状况,掌握或者预测飞翼车102到达进货区域或者出货区域,以及飞翼的开闭等,并基于此决定叉车103去取托盘104(或者去进行装载)的定时。或者,掌握从飞翼车102的卸货或者向飞翼车102的物品的装载结束、叉车103从货箱离开的状况,来决定飞翼车102关闭飞翼并发车的定时。
具体而言,例如,动作决定部205也可以保持将由状况掌握部204掌握的状况作为输入且将应执行的动作作为输出的函数,并使用该函数来执行步骤502。该函数可以是任意的函数,例如也可以通过神经网络安装。
接下来,管制***101的动作执行部206执行所决定的动作(步骤503)。例如,在步骤502中决定了各信号机106应显示的信号(例如表示飞翼车102的行进或者停止,飞翼的开闭等的信号)时,动作执行部206经由通信接口202以及网络210,向各信号机106发送使其显示所决定的信号的指示。此外,在步骤502中决定了应向各叉车103发送的信息(例如各叉车103的前往目的地,应搬运的托盘的识别信息等)时,动作执行部206经由通信接口202以及网络210,向各叉车103发送所决定的信息。
之后,处理返回步骤501,反复执行上述的步骤501至503的处理。
另外,动作决定部205也可以在某一定时(例如,判定为积蓄了能够用于学习的足够量的数据的时刻),进行用于使动作的决定优化的学习处理。例如,动作决定部205也可以保持对管制***101设定的KPI(Key Performance Indicator:关键绩效指标),以该值提高(即成为表示较高的评价的值)的方式变更函数的参数。
这里,对动作决定部205执行的学习处理的一例进行说明。对管制***101设定的KPI(即评价管制***101的绩效的参数)例如是仓库整体的吞吐量或者总销售额等。动作决定部205例如也可以基于执行了在步骤502中决定的动作后的KPI,以提高KPI(例如吞吐量或者总销售额等提高)的方式,变更在步骤502中使用的函数的参数。通过使用上述这样学习后的函数,从而在步骤502中决定使得KPI提高那样的动作。
图6是表示本发明的实施例1的自主体***100中的飞翼车102执行的处理的流程图。
首先,飞翼车102的状况掌握部306掌握该飞翼车102的周围的状况(步骤601)。例如,状况掌握部306也可以基于由传感器部303取得的信息,进行该飞翼车102的周围的物体的识别、该飞翼车102进行卸货或者装载的进货区域110或者出货区域112的状况以及能够从该飞翼车102视认的信号机106的显示内容的识别等。
接下来,飞翼车102的动作决定部307决定飞翼车102的动作(步骤602)。具体而言,动作决定部307若被输入由状况掌握部306掌握的状况,则基于此决定飞翼车102的动作。这里,飞翼车102的动作是指例如向进货区域110或者出货区域112的停车以及从这些区域的脱离所需的行驶、停止及转向,以及飞翼的开闭等。
具体而言,例如,动作决定部307也可以保持将由状况掌握部306掌握的状况作为输入且将应执行的动作作为输出的函数,并使用该函数执行步骤602。该函数可以是任意的函数,例如也可以通过神经网络安装。
接下来,飞翼车102的动作执行部308执行所决定的动作(步骤603)。例如,在步骤602中决定了飞翼车102的行驶、停止、转向或者飞翼的开闭时,动作执行部308向驱动部304发送执行所决定的动作的指示。
之后,处理返回步骤601,反复执行上述的步骤601至603的处理。
另外,动作决定部307也可以在某一定时,进行用于使动作的决定优化的学习处理。例如,动作决定部307也可以保持对飞翼车102设定的KPI,以该值提高(即成为表示较高的评价的值)的方式变更函数的参数。
这里,对动作决定部307执行的学习处理的一例进行说明。对飞翼车102设定的KPI(即评价飞翼车102的绩效的参数)例如被设定为飞翼车102在仓库中的滞留时间越短则评价越高。动作决定部307例如也可以基于在执行了在步骤602中决定的动作后计算出的KPI,以提高KPI(例如滞留时间变短)的方式变更在步骤602中使用的函数的参数。
更详细而言,例如动作决定部307将基于传感器部303取得的信息由状况掌握部306掌握的周围的状况输入至函数,并基于其输出决定动作。此时,在掌握的周围的状况中,除了飞翼车102的周围的物体的辨识结果等之外,还包含向该飞翼车102输出的信号机106的信号的显示内容的辨识结果。信号机106的显示内容是管制***101的动作结果,指示管制***101判断为为了提高管制***101的KPI而该飞翼车102应进行的动作。
但是,通过直接执行上述这样的来自管制***101的指示,该飞翼车102的KPI不一定提高。这是由例如使用的传感器的种类以及设置位置等的不同、因而管制***101能够取得的仓库的状况与飞翼车102能够取得的周围的状况未必一致,以及管制***101未掌握飞翼车102的KPI所致。对飞翼车102设定的KPI,通常与对管制***101设定的KPI不同。此外,也存在对多个飞翼车102的各自设定不同的KPI的情况。
因此,动作决定部307例如也可以通过以对飞翼车102设定的KPI提高的方式,变更分别对周围的状况中的对管制***101的动作结果进行辨识的结果以及除此以外的状况赋予的权重,由此来变更在步骤602中使用的参数。通过使用上述这样学习后的函数,从而在步骤602中决定使得KPI提高那样的动作。
图7是表示本发明的实施例1的自主体***100中的叉车103执行的处理的流程图。
首先,叉车103的状况掌握部406掌握该叉车103的周围的状况(步骤701)。例如,状况掌握部406也可以基于由传感器部403取得的信息,以及通信接口402从管制***101接收到的信息,进行该叉车103的周围的物体的识别、飞翼车的货箱的状况、货箱的托盘的状况、进货区域以及出货区域的状况、以及管制***101的动作结果的识别等。
接下来,叉车103的动作决定部407决定叉车103的动作(步骤702)。具体而言,动作决定部407若被输入由状况掌握部406掌握的状况,则基于此决定叉车103的动作。这里,叉车103的动作是指例如至托盘的位置处的移动、叉部的爪向托盘的***以及抬起、至托盘的搬运目的地的移动、以及在搬运目的地放置托盘的动作等。
具体而言,例如,动作决定部407保持将由状况掌握部406掌握的状况作为输入且将应执行的动作作为输出的函数,并使用该函数执行步骤702。该函数可以是任意的函数,例如也可以通过神经网络安装。
接下来,叉车103的动作执行部408执行所决定的动作(步骤703)。例如,在步骤702中决定了叉车103的行驶、停止、转向或者叉部的上升下降时,动作执行部408向驱动部404发送执行所决定的动作的指示。
之后,处理返回步骤701,反复执行上述的步骤701至703的处理。
另外,动作决定部407也可以在某一定时,进行用于使动作的决定优化的学习处理。例如,动作决定部407也可以保持对叉车103设定的KPI,以该值提高(即成为表示较高的评价的值)的方式变更函数的参数。
这里,对动作决定部407执行的学习处理的一例进行说明。对叉车103设定的KPI(即评价叉车103的绩效的参数)例如设定为叉车103越高效地进行作业,或者越可靠地进行作业,则评价越高。作业的效率例如可以通过每单位时间的作业量(搬运的物品的量或者移动距离等)来计测。此外,作业的可靠性例如可以通过每单位时间的紧急停止次数等来计测。
动作决定部407例如也可以基于在执行了在步骤702中决定的动作后计算出的KPI,以提高KPI(例如作业的效率提高)的方式变更在步骤702中使用的函数的参数。
更详细而言,例如动作决定部407将基于传感器部403取得的信息以及经由通信接口402接收到的信息由状况掌握部406掌握的周围的状况输入至函数,并基于其输出决定动作。此时,在掌握的周围的状况中,除了叉车103的周围的物体的辨识结果等之外,还包含从管制***101向该叉车103发送的信息。从管制***发送的信息是管制***101的动作结果,例如指示管制***101判断为为了提高管制***101的KPI而该叉车103应进行的动作。
然而,通过直接执行上述这样的来自管制***101的指示,该叉车103的KPI不一定提高。这是由于例如使用的传感器的种类以及设置位置等的不同、因而管制***101能够取得的仓库的状况与叉车103能够取得的周围的状况未必一致,以及管制***101未掌握叉车103的KPI所致。对叉车103设定的KPI,通常与对管制***101设定的KPI不同。此外,也存在对多个叉车103的各自设定不同的KPI的情况。
因此,动作决定部307例如也可以通过以对叉车103设定的KPI提高的方式,变更分别对周围的状况中的对管制***101的动作结果进行辨识的结果、以及除此以外的状况赋予的权重,由此来变更在步骤702中使用的参数。通过使用上述这样学习后的函数,从而在步骤702中决定使得KPI提高那样的动作。
通过管制***101、飞翼车102以及叉车103分别以图5至图7示出的方法学习函数,从而即使各自不掌握彼此的KPI,也能够以各自的KPI提高的方式决定各自的动作。
例如,管制***101基于从相机105拍摄到的图像中掌握的仓库的状况,向各飞翼车102以及各叉车103提供信息,以使KPI(例如仓库的吞吐量)提高。例如,管制***101也可以在掌握飞翼车102到达进货区域110后,向各叉车103发送指示为了卸货而前往进货区域110的信息。
接收到该信息的叉车103基于该信息、经由自身的传感器部403掌握到的周围的状况、以及任务信息410,以对自身设定的KPI(例如作业效率)提高的方式决定自身的动作。其结果,叉车103既可以按照接收到的信息中包含的指示向进货区域110移动,也可以不遵从指示而是进行其他的动作。
例如,叉车103在已经搬运其他的托盘104过程中的情况下,也可以不按照指示而是继续该托盘104的搬运。此外,在叉车103的当前地距离进货区域110较远的情况下,判断为为了提高对自身设定的KPI,遵从指示并不适当,也可以不遵从指示而是进行其他的动作。
或者,存在在例如仓库内使用多个车种的叉车103,能够搬运的托盘104的条件(例如重量等)根据车种而不同的情况。在这样的情况下,在设为叉车103取得了与已到达的飞翼车102中积载的物品有关的信息时,在积载了该叉车103不能搬运的托盘的飞翼车102到达的情况下,叉车103即使接受到来自管制***101的指示,也能够决定不从该飞翼车102卸货。
或者,例如在管制***101在仓库内的图像中检测到特定的区域中的叉车103拥堵的情况下,为了消除该拥堵使KPI提高,也可以对拥堵中参与的叉车103发送移动的指示以使其从该区域离开。接受到该指示的叉车103既可以按照指示移动,也可以判断为遵从指示会导致叉车103的KPI恶化而决定不遵从指示。
这样,从管制***101向叉车103的指示并非是一定使其遵从的指示,而是宽松地影响叉车103的动作的决定。
飞翼车102也同样,既可以决定按照经由信号机106接受的来自管制***101的指示进行动作,也可以为了提高对自身设定的KPI而决定进行与该指示相反的动作。
这样,若管制***101决定并执行自身的动作(即决定并发送针对各个下层的自主体的指示的内容),则存在某自主体进行遵照其指示的动作,其他的某自主体进行与其指示相反的动作的情况。其结果,仓库内的状态发生变化。管制***101掌握变化后的仓库内的状况,并计算KPI的值。管制***101也可以根据先掌握的状况、基于该状况决定的动作、以及基于执行该动作后的状况计算出的KPI的值,学习用于根据掌握到的状况决定动作的函数的参数,以提高KPI的值。
例如,最初的管制***101也可以在飞翼车102到达进货区域110时,对全部的叉车103指示向进货区域110移动。然而,可认为学习的结果是,管制***101变得容易对非搬运托盘104中的叉车103、进货区域110的附近的叉车103、或者与在已到达的飞翼车102中积载的托盘的条件一致的叉车103发送移动的指示。
这样,管制***101即使未预先掌握下层的各自主体的特性等(包含KPI),也能够宽松地影响各自主体,并通过学习其结果,能够发出下层的各自主体对照自身设定的KPI容易接受的指示。由此,能够以有助于管制***101的(即自主体***100整体的)KPI的提高,并且也有助于各自主体的KPI的提高的方式决定各自主体的动作。
另外,为了进行这样的学习,管制***101也可以以某种程度的比例发送故意使自身设定的KPI的值恶化的指示,或者预料到各自主体难以接受的指示。
另一方面,对于下层的自主体而言,例如叉车103按照从传感器部403取得的周围的状况、以及通信接口402接收到的来自管制***101的指示,有时进行遵照指示的动作,有时进行与指示相反的动作,以提高自身的KPI。叉车103在进行了所决定的动作后,基于反映了该动作的状况,计算自身设定的KPI的值。叉车103也可以根据先掌握到的状况、基于该状况决定的动作、以及基于执行了该动作后的状况计算出的KPI的值,学习用于根据掌握到的状况决定动作的函数的参数,以提高KPI的值。
这里,函数的参数也可以包括分别对经由传感器部403掌握到的状况、以及来自管制***101的指示赋予的权重。此外,为了进行这样的学习,叉车103也可以决定故意使自身设定的KPI的值恶化那样的动作。
对于飞翼车102也与上述的叉车103相同。
通过如上述那样上层以及下层的自主体分别进行学习,即使各自主体未掌握其他的自主体的特性等(也就是说,即使从上层的自主体观察的下层的自主体是黑箱),也能够以各自主体的KPI提高、且作为整体的KPI也提高的方式决定各自主体的行动。由此,无需使整体的信息综合、或保证整体的无矛盾性以及同步,实现了可靠的动作。此外,即使追加了未知的下层的自主体,或已存在的下层的自主体的特性发生变化,由于上层的自主体也能够与之相适应,因此自主体***能够持续进化。
此外,若利用上述的信号机106那样的信息传递机构,则下层的自主体无需明确持有针对上层的自主体的接口。由此,例如最初未设想的种类的(例如制造商与其他的自主体不同的)自主体也能够容易地进行连接。
在上述的例子中,对飞翼车102的指示经由信号机106传递,对叉车103的指示经由通信接口402传递。在该例中,飞翼车102也可以不持有通信接口302。由此,能够不预先决定详细的通信过程等地从管制***101向叉车103传递信息。
然而,这样的信息传递方法为一例。例如对飞翼车102的信息传递也可以经由通信接口302进行。或者,也可以在仓库内的各个位置设置与信号机106相同的信号机,并经由上述信号机进行对叉车103的信息传递。
此外,在上述的例中,飞翼车102以及叉车103均具有自动驾驶功能或者辅助驾驶功能,但其中的至少一部分也可以不具有自动驾驶功能以及辅助驾驶功能。例如,某一飞翼车102也可以不具有处理器301、通信接口302、传感器部303以及存储装置305。在该情况下,该飞翼车102的驾驶员(即人员)操作驱动部304来控制飞翼车102的行驶以及飞翼的开闭。此外,通信接口302以及传感器部303由驾驶员的感官(例如眼睛以及耳朵等)代替。此外,状况掌握部306、动作决定部307以及动作执行部308的功能由驾驶员的智能代替。
在该情况下,驾驶员也能够通过参照信号机106接受来自管制***101的指示。此外,在该情况下,对飞翼车102设定的KPI例如也可以是驾驶员欲尽快完成业务,或者欲可靠地执行业务等。
叉车103也同样,可以由人员驾驶。在该情况下,既可以经由信号机传递来自管制***101的指示,也可以是经由通信接口402接收到的指示显示于叉车103的显示部(省略图示),驾驶员观看并接受指示。
此外,实施例1的自主体***包含多个飞翼车102以及多个叉车103作为下层的自主体,但实际上也可以仅包含任一方,还可以包含其他的自主体。例如,在仓库内设置拣选物品的机器人时,该机器人也可以作为第2种类的自主体追加。或者,在使用用于将库存区域111中保管物品的货架搬运至拣选区域等的自动搬运车时,上述这样的自动搬运车也可以作为第2种类的自主体追加。在该情况下,第2种类的自主体也与飞翼车102以及叉车103同样被设定某一KPI,并执行与上述相同的处理。
此外,多个飞翼车102例如既可以包含制造商不同的多种车辆,也可以分别设定不同的KPI。对于多个叉车103也同样。
根据以上的实施例1,管制***101按照经由相机105等掌握到的仓库的状况,向下层的自主体(例如飞翼车102以及叉车103)提供判断为为了提高管制***101的KPI而有效的信息。由此,例如,能够与该飞翼车102以及其周围的实际的状况相符地准确地知晓使叉车103接近飞翼车102的货箱的定时。因此,叉车103的等待时间等减少,卸货以及装载的作业时间被缩短。此外,能够与飞翼车102卸货以及物品的装载的实际的状况相符地准确地知晓发车的定时。因此,飞翼车102的停车时间被缩短。
在不存在管制***101那样的上层的自主体,而由下层的自主体直接交换信息的自主体***中,由于以下的理由而难以获得上述那样的效果。即,在不存在上层的自主体的***中,各飞翼车102以及各叉车103分别基于通过自车的传感器取得的信息,决定用于使分别设定的KPI提高的动作。然而,由于从各自的传感器仅能够获得有限范围内的信息,因此在所取得的信息与实际的仓库的状况之间产生差异,其结果有时不能提高KPI。
另一方面,根据本实施例,由于管制***101能够掌握仓库整体的(即自主体***整体的)状况并基于此通知有助于使整体的KPI提高的各自主体的动作,因此能够使整体的KPI提高。
此外,为了在飞翼车102与叉车103之间直接交换信息,需要预先决定彼此的通信方式。然而,实际上,例如叉车103由仓库的所有者管理,而飞翼车102则由运输公司管理等,存在管理者不同的情况,现实中难以预先决定通信方式。然而,根据本实施例,通过使用例如信号机106等的信息传递方式,即使未预先决定通信方式也能够提供必要的信息。
【实施例2】
接下来,对本发明的实施例2进行说明。除了以下说明的不同点,实施例2的自主体***的各部与图1~图7中示出的实施例1的附加了相同的附图标记的各部具有相同的功能,故省略其说明。
图8是表示本发明的实施例2的自主体***800的整体构成的说明图。
实施例2的自主体***800是进行将在货架804中储存的物品805取出并向分类用的箱806中装填的拣选作业的机器人***。该自主体***800包含臂/升降器综合管理***801、臂机器人802以及升降器803作为自主体。
臂机器人802例如是垂直多关节机器人,将在货架804中储存的物品805取出,并将该物品805装入箱806。为此,臂机器人802掌握在货架804中积载的物品805的状况作为周围的状况。为了掌握该状况,使用设置于臂机器人802的传感器(例如相机等)。臂机器人802的动作的决定通过臂机器人802的智能(例如后述的臂机器人802的动作决定部307)来进行。
臂机器人802的构成除了以下的不同点之外,与图3示出的实施例1的飞翼车102或者图4示出的实施例1的叉车103的构成相同。这里,参照图3对臂机器人802的构成进行说明。
臂机器人802的通信接口302经由网络210与臂/升降器综合管理***801进行通信。臂机器人802的传感器部303例如是安装于臂机器人802的相机。臂机器人802的状况掌握部306基于该相机拍摄货架804的方向而得的图像,掌握在货架804中积载的物品805的状况。并且,臂机器人802的状况掌握部306掌握从臂/升降器综合管理***801传递来的消息(例如,后述的表示升降器803抬起至所希望的高度的信息)。
此外,臂机器人802的驱动部304包含对臂机器人802的臂807的关节808以及臂807的前端的手部809进行驱动的马达(省略图示)等。
任务信息310例如包含对臂机器人802应取出的物品进行识别的信息等。动作决定部307例如基于经由通信接口302取得的来自臂/升降器综合管理***801的信息、根据传感器部303进行传感检测的结果掌握的状态、以及任务信息310,决定用于取出所希望的物品805的各关节808以及手部809的动作。并且,动作执行部308经由驱动部304执行所决定的动作。
此外,动作决定部307也可以在某一定时,进行用于使动作的决定优化的学习处理。这些处理的流程与图6示出的飞翼车102的处理的流程相同。另外,对臂机器人802设定的KPI例如为作业的效率。
升降器803具有使臂机器人802移动至规定的范围内的任意的高度的功能。因此,升降器803掌握货架804的状况作为周围的状况。为了掌握该状况,使用设置于升降器803的传感器(例如相机等)。升降器803的动作的决定通过升降器803的智能(例如后述的升降器803的动作决定部407)来进行。
升降器803的构成除了以下的不同点之外,与图3示出的实施例1的飞翼车102或者图4示出的实施例1的叉车103的构成相同。这里,参照图4对升降器803的构成进行说明。
升降器803的通信接口402经由网络210与臂/升降器综合管理***801进行通信。升降器803的传感器部403例如是安装于升降器803的相机。状况掌握部406基于该相机拍摄货架804的方向而得的图像,掌握货架804的状况。并且,升降器803的状况掌握部406掌握从臂/升降器综合管理***801传递来的消息(例如,后述的表示应将臂机器人802抬起的高度的信息)。此外,升降器803的驱动部404包含沿上下方向驱动升降器803的马达(省略图示)等。
任务信息410例如也可以包含表示储存有臂机器人802应取出的物品的货架的位置的信息等。动作决定部407例如基于经由通信接口402取得的来自臂/升降器综合管理***801的信息、根据传感器部403进行传感检测的结果掌握的状态、以及任务信息410,决定为了臂机器人802取出所希望的物品805而适当的升降器803的高度。并且,动作执行部408经由驱动部304,执行所决定的动作(例如将臂机器人802抬起至所决定的高度)。
此外,动作决定部407也可以在某一个定时,进行用于使动作的决定优化的学习处理。这些的处理的流程与图7示出的叉车103的处理的流程相同。另外,对升降器803设定的KPI例如是上下方向的移动次数的少量化(即,上下方向的移动次数越少则评价越高)。
臂/升降器综合管理***801是与臂机器人802以及升降器803进行通信并管理该臂机器人802以及升降器803的计算机。臂/升降器综合管理***801的构成除了以下的不同点之外,与图2示出的实施例1的管制***101的构成相同。这里,参照图2对臂/升降器综合管理***801的构成进行说明。
臂/升降器综合管理***801的通信接口202经由网络210与臂机器人802以及升降器803进行通信。并且,网络210与一个以上的相机105连接。但是,相机105也可以不经由网络210地与臂/升降器综合管理***801连接。各相机105既可以拍摄自主体***800的整体,也可以拍摄自主体***800的规定的部分,还可以拍摄自主体***800的周围(例如货架804以及物品805)。该相机105是用于掌握自主体***800的状况的传感器的一例,也可以使用其他种类的传感器。
状况掌握部204基于相机105拍摄到的图像,掌握自主体***800的状况。这里掌握的状况例如是货架804的状况、在货架804中储存的物品805的状况、臂机器人802的状况以及升降器803的状况。
任务信息208例如也可以包含对臂机器人802应取出的物品进行识别的信息以及表示储存有该物品的货架的位置的信息等。动作决定部205基于从通过相机105拍摄到的图像中掌握的状况、以及任务信息208,掌握作为目标的物品805在货架804的哪一位置。然后,动作决定部205决定适当的升降器803的高度(即应将臂机器人802抬起的高度)以使臂机器人802取出作为目标的物品805。动作执行部206经由通信接口202向升降器803传递所决定的高度。接着,动作执行部206向臂机器人802传递升降器803已将臂机器人802抬起至所决定的高度。
臂机器人802进行抓住作为目标的物品805的动作。其结果,在未能抓住作为目标的物品805的情况下,状况掌握部204根据来自相机105的信息掌握该情况。动作决定部205基于掌握到的信息,判定为升降器803的高度不适当,并决定更适当的升降器803的高度,动作执行部206向升降器803传递该高度。
此外,动作决定部205也可以在某一定时,进行用于使动作的决定优化的学习处理。这些处理的流程与图5示出的管制***101的处理的流程相同。另外,对臂/升降器综合管理***801设定的KPI例如是作为自主体***800整体的作业的效率。
另外,本实施例的自主体***800也可以是更大的自主体***的一部分。例如,实施例2的自主体***800也可以作为在实施例1的自主体***100的仓库中,进行从货架拣选物品的机器人而组入。在该情况下,实施例2的臂/升降器综合管理***801相对于臂机器人802以及升降器803作为上层的自主体动作,相对于管制***101作为下层的自主体动作。
此外,在上述的例中,将臂机器人802作为一个下层的自主体对待,但实际上臂机器人802也可以是由上层的自主体与下层的自主体构成的自主体***。例如,下层的自主体也可以具有掌握各个关节808的状况的传感器部、基于从该传感器部得到的信息决定动作的动作决定部、以及按照所决定的动作驱动关节的驱动部等。另一方面,上层的自主体也可以具有掌握臂机器人802整体以及其周围的状况的传感器部、基于从该传感器部得到的信息决定动作的动作决定部、以及向各关节808传递所决定的动作的动作执行部等。
这样,本发明适用的自主体***也可以具有三个以上的层级。在该情况下,也如同上述的实施例1以及实施例2说明的那样,各个自主体基于以提高对各自设定的KPI的方式进行学习后的结果,分别根据所取得的信息决定各自的动作,从而能够进行使各个自主体的KPI提高且作为自主体***整体的KPI也提高那样的动作。此外,能够将这样的自主体***作为无需上层与下层的自主体的接口的详细的规定、无需信息的预先综合等、即使下层的自主体的构成发生变化上层的自主体也能够适应的灵活的***来构建。
根据以上的实施例2,臂/升降器综合管理***801按照经由相机105等掌握到的仓库的状况,向下层的自主体(例如臂机器人802以及升降器803)提供判断为为了提高臂/升降器综合管理***801的KPI而有效的信息。由此,例如,升降器803能够知晓升降器803应将臂机器人802抬起至何种高度这样在升降器803自身中无法判断的信息。此外,臂机器人802能够预先知晓作为目标的物品805被放置在大致哪一位置。因此,在被升降器803抬起时容易发现作为目标的物品805。换言之,能够缩短至发现作为目标的物品805为止的时间,此外,能够可靠地发现。
在不存在臂/升降器综合管理***801那样的上层的自主体,而是由下层的自主体直接交换信息的自主体***中,由于以下的理由,难以获得上述那样的效果。即,在不存在上层的自主体的***中,在升降器803尚未抬起臂机器人802的状态下,不能经由传感器部403知晓货架804的上层的状态。同样,尚未被抬起的臂机器人802不能经由传感器部303掌握货架中的物品。
另一方面,根据本实施例,臂/升降器综合管理***801能够掌握自主体***800整体以及其周围的状况并基于此通知有助于提高整体的KPI的各自主体的动作,因此能够提高整体的KPI。
【实施例3】
接下来,对本发明的实施例3进行说明。除了以下说明的不同点之外,实施例3的自主体***的各部具有与图1~图7示出的实施例1的赋予了相同的附图标记的各部相同的功能,故省略其说明。
图9是表示本发明的实施例3的自主体***900的整体构成的说明图。
实施例3的自主体***900是包含自动驾驶车902、由人员驾驶的汽车903以及管制其利用的停车场904的停车场内管制***901作为自主体的停车场***。
停车场内管制***901在较大的停车场904内,监视车辆(例如包含一个以上的自动驾驶车902以及由一个以上的人员驾驶的汽车903)在何处以何种速度行驶、或如何占用停车场内的路上(即,停车区域906以外的用于车辆移动的区域)等的情况。并且,停车场内管制***901监视停车区域906的哪一车位空置。然后,停车场内管制***901掌握上述的监视结果,对自动驾驶车902以及人员驾驶的汽车903进行宽松的控制。
在停车场904中例如设置一个以上的引导显示板908。这是将来自停车场内管制***901的信息向自动驾驶车902以及由人员驾驶的汽车903传递的方式的一例。
自动驾驶车902的构成除了以下的不同点之外,与图3示出的实施例1的飞翼车102的构成相同。这里,参照图3对自动驾驶车902的构成进行说明。
自动驾驶车902的通信接口302经由网络210与停车场内管制***901进行通信。自动驾驶车902的传感器部303例如是安装于自动驾驶车902且对自动驾驶车902的周围进行拍摄的相机或者距离传感器等。这里说明相机的例子。自动驾驶车902的状况掌握部306基于相机拍摄到的图像,掌握停车场904内的自车的周围的状况。
并且,自动驾驶车902的状况掌握部306掌握从停车场内管制***901传递来的信息(例如,停车场904内的状况、移动目的地的车位以及向该处的路径的信息等)。状况掌握部306既可以根据由传感器部303的相机等取得的信息(例如引导显示板908的显示内容的辨识结果)掌握该信息,也可以根据经由通信接口302取得的信息掌握该信息。
此外,自动驾驶车902的驱动部304例如包含内燃机或者电动机那样的原动机、向车轮传递原动机产生的动力的传递装置、以及用于使自动驾驶车902向所希望的方向行驶的转向装置等。
任务信息310例如包含探索能够停车的车位并使本车向该处移动等的信息。动作决定部307例如基于经由通信接口302或者传感器部303取得的来自停车场内管制***901的信息、根据传感器部303进行传感检测的结果掌握到的状态、以及任务信息310,决定行进、停止以及转向量等的动作。并且,动作执行部308经由驱动部304,执行所决定的动作。
此外,动作决定部307也可以在某一定时进行用于使动作的决定优化的学习处理。这些处理的流程与图6示出的飞翼车102的处理的流程相同。另外,对自动驾驶车902设定的KPI例如是欲使燃料(或者电力)的消耗量最小、或者欲指示对本车进行停车的车位以及至该处的路径等的指标。
另外,自动驾驶车902既可以具有无需人员操作就能够行驶的完全自动驾驶功能,也可以具有辅助人的驾驶的一部分的辅助驾驶功能。此外,与实施例1的飞翼车102的情况相同,上述的状况掌握部306、动作决定部307以及动作执行部308的功能的至少一部分也可以作为自动驾驶功能或者辅助驾驶功能的至少一部分来安装。
由人员驾驶的汽车903的构成除了以下的不同点之外,与自动驾驶车902的构成相同。即,由人员驾驶的汽车903也可以不具有处理器301、通信接口302、传感器部303以及存储装置305。自动驾驶车902中的与状况掌握部306、动作决定部307以及动作执行部308相当的功能,在由人员驾驶的汽车903中由驾驶员的智能置换。任务信息310由驾驶员记忆。此外,传感器部303由驾驶员的感官(例如眼睛以及耳朵等)置换。
另外,对由人驾驶的汽车903设定的KPI既可以与对自动驾驶车902设定的KPI相同,也可以与之相反地例如是不希望指示对自车进行停车的车位以及到该处的路径等,希望停车至距离人的出口较近处,或者希望在阴凉处停车等。
停车场内管制***901是监视停车场904内,对自动驾驶车902以及由人员驾驶的汽车903进行宽松的控制的计算机。停车场内管制***901的构成除了以下的不同点之外,与图2示出的实施例1的管制***101的构成相同。这里,参照图2对停车场内管制***901的构成进行说明。
分别拍摄停车场904的至少一部分区域的一个以上的相机105与网络210连接。各相机105既可以是分别安装于适当的场所的固定相机,也可以是如带相机无人机那样的移动的相机。该相机105是用于掌握自主体***900的状况的传感器的一例,也可以使用其他种类的传感器。
并且,引导显示板908与网络210连接。其为停车场内管制***901用于控制各车辆的信息传递方式的一例。作为这样的信息传递方式的其他例,可以举出在停车场904内的各个位置设置的与实施例1相同的信号机等。
状况掌握部204基于相机105拍摄到的图像,掌握自主体***900的状况。这里掌握的状况例如是各车辆在何处以何种速度行驶、如何占用停车场内的路上等的状况。
任务信息208例如可以是将进入停车场904的车辆向停车场904内的空车位引导、以及将从某一车位驶出的车辆向停车场904的出口引导等的信息。动作决定部205基于从由相机105拍摄的图像中掌握的停车场904的状况(例如停车场904内的各车辆的状况)、以及任务信息208,以在停车场904内不产生交通阻塞的方式以及各车辆能够尽快向当前位置的附近停车的方式,决定各车辆的控制,且动作执行部206执行该控制。控制例如通过向引导显示板908的信息的显示来进行。在车辆能够经由与网络210连接的通信接口302接收信息的情况下,动作执行部206也可以经由通信接口202以及网络210传递控制信息。
另外,在图9中仅示出一个引导显示板908,但实际上也可以在停车场904设置多个引导显示板908。在该情况下,各个引导显示板908既可以全部显示相同的内容(例如停车场904内的全部的空车位),也可以分别显示不同的内容。例如,各引导显示板908也可以仅显示欲将在其附近行驶的车辆引导所至的空车位。此外,各引导显示板908也可以显示例如车辆的行进方向等除了空车位以外的信息。各个引导显示板908在何种状况下进行何种显示基于后述的学习的结果来决定。
动作决定部205也可以在某一定时,进行用于使动作的决定优化的学习处理。具体而言,动作决定部205也可以从过去的实践等中学习若对车辆提供何种信息则产生何种车辆的动向。此外,动作决定部205也可以通过模拟来探索进行适当的控制的信息的提供方法(例如向引导显示板908的显示方法)。此时,对停车场内管制***901设定的KPI例如也可以是停车场904的利用效率,或者利用停车场904的人的满意度等。并且,动作执行部206通过最佳的方法向车辆提供最佳的信息。这些处理的流程与图5示出的管制***101的处理的流程相同。
根据以上的实施例3,以自动驾驶车902的例如欲使燃料消耗最少这一KPI提高的方式,使停车位置以及到该处的移动路径优化。此外,以由人员驾驶的汽车903的例如希望尽快停车、希望在距离人的出口较近的场所停车、或者希望在阴凉处停车等的各个KPI提高的方式,使停车位置以及到该处的移动路径优化。这样的效果在不具有停车场内管制***901的自主体***中,即使各自动驾驶车902以及由人员驾驶的各汽车903彼此直接交换信息,也难以获得。
【实施例4】
接下来,对本发明的实施例4进行说明。除了以下说明的不同点之外,实施例4的自主体***的各部与图1~图7示出的实施例1的赋予了相同的附图标记的各部具有相同的功能,故省略其说明。
图10是表示本发明的实施例4的自主体***1000的整体构成的说明图。
实施例4的自主体***1000是包含挖掘机1002、翻斗车1003、人员1004以及对其进行管制的施工现场管制***1001作为自主体的建筑设备***。
施工现场管制***1001监视施工现场中的自主体(例如挖掘机1002、翻斗车1003以及人员1004)的干扰以及干扰可能性,对各自主体进行适当的控制(信息的提示)。此外,施工现场管制***1001监视施工现场的与自主体以外有关的状况(例如挖掘的孔的状况或者施工所使用的物资的状况等),对各自主体进行适当的控制(信息的提示)。
另外,在图10中为了使说明简单,作为在自主体***1000中包含的自主体示出了一个挖掘机1002、一个翻斗车1003以及一个人员1004,但其为一例,自主体***1000也可以包含多个挖掘机1002、多个翻斗车1003以及多个人员1004,或也可以不包含其中的至少某一个,例如还可以包含一个以上的推土机等其他的建筑设备。
此外,一个以上的挖掘机1002以及一个以上的翻斗车1003的至少任一个也可以是不依赖人的操作(或者辅助人的操作)自主性地动作的建筑设备(以下,记载为自主建筑设备),另外任一个也可以是由人员驾驶的通常的建筑设备(以下,也记载为通常建筑设备)。
自主建筑设备的构成例如也可以与图3示出的飞翼车102或者图4示出的叉车103的构成相同。这里参照图3。自主建筑设备的状况掌握部306例如经由相机等的该自主建筑设备的传感器部303,掌握施工现场的该自主建筑设备的周围的状况作为周围的状况。
在上述这样掌握到的周围的状况中,包含从施工现场管制***1001提供的信息。该信息例如也可以包含:在该自主建筑设备的附近是否存在其他的自主体、以及其他的自主体是否正在接近等的信息。动作决定部307基于掌握到的状况以及任务信息310(例如与接下来应该进行的挖掘或者运输等的动作有关的信息),决定例如挖掘或者运输等的动作,且动作执行部308经由驱动部304执行所决定的动作。
通常建筑设备的构成例如也可以与图3示出的飞翼车102或者图4示出的叉车103的构成相同。这里参照图3。但是,通常建筑设备也可以不具有处理器301、通信接口302、传感器部303以及存储装置305。通常建筑设备的驾驶员的感官(例如眼睛以及耳朵等)相当于自主建筑设备的传感器部303。通常建筑设备的驾驶员的智能相当于自主建筑设备的状况掌握部306、动作决定部307以及动作执行部308。此外,相当于任务信息310的信息(例如与接下来应进行的挖掘或者运输等的动作有关的信息)可以由驾驶员记忆。
通常建筑设备的驾驶员经由自身的感官,掌握施工现场的该通常建筑设备的周围的状况作为周围的状况。在上述这样掌握到的周围的状况中,包含从施工现场管制***1001提供的信息(例如,与上述相同的与其他的自主体的接近有关的信息)。
驾驶员基于与掌握到的状况以及任务信息310相当的信息,决定例如挖掘或者运输等的动作,并经由驱动部304执行所决定的动作。
对自主建筑设备以及通常建筑设备设定的KPI例如可以是希望高效地进行作业,或者希望可靠地进行作业等的指标。也可以按每个建筑设备设定不同的KPI。
人员1004使用眼睛以及耳朵等的感官掌握周围的状况,来决定动作(例如继续当前进行的作业、避开周围的物体(例如接近而来的其他的自主体)、或者对周围进行再确认等),并进行所决定的动作。在人员1004掌握的周围的状况中,包含从施工现场管制***1001提供的信息(例如,与上述相同的信息)。
人员1004的KPI在该人员1004为施工现场中的进行施工作业的作业者的情况下,例如可以是希望高效地进行作业、希望可靠地进行作业、或者不希望疲劳等的指标。此外,在该人员1004为作业者以外的人员(例如视察施工现场的人或者向作业者配送物品(例如盒饭)的人)的情况下,例如也可以是希望高效且可靠地实现各自的目的等的指标。
施工现场管制***1001的构成与图2示出的实施例1的管制***101的构成相同。施工现场管制***1001的状况掌握部204例如经由一个以上的相机105,掌握施工现场的整体的状况(例如,挖掘机1002、翻斗车1003以及人员1004等的各自主体的状况,以及施工现场内的孔以及物资的状况等)作为周围的状况。这里,各相机105既可以是分别安装于适当的场所的固定相机,也可以是如带相机的无人机那样移动的相机。该相机105是用于掌握自主体***1000的状况的传感器的一例,也可以使用其他种类的传感器。
施工现场管制***1001的任务信息208例如可以是与施工现场中应执行的作业(例如挖掘以及运输等)有关的信息。施工现场管制***1001的动作决定部205基于从由相机105拍摄的图像中掌握到的施工现场的状况、以及任务信息208,以各自主体的协同作业被高效且可靠地进行的方式决定各自的控制内容。这里,各自主体的协同作业例如是指将挖掘机1002挖掘的土放入翻斗车1003、人员1004将通过挖掘产生的孔成型等。
并且,动作执行部206进行所决定的控制。控制通过向各自主体的信息提示进行。例如,既可以在施工现场内设置与实施例1相同的信号机106,也可以通过声音向各自主体提供需要的信息。
动作决定部205也可以在某一定时,进行用于使动作的决定优化的学习处理。具体而言,动作决定部205也可以根据实践等学习若向各自主体提供何种信息,则分别进行何种动作,作为整体成为何种举动。此外,动作决定部205也可以通过模拟来探索进行适当的控制的信息的提供方法。此时,对施工现场管制***1001设定的KPI例如也可以是施工现场的作业效率。并且,动作执行部206通过最佳的方法向各自主体提供最佳的信息。这些处理的流程与图5示出的管制***101的处理的流程相同。
根据以上的实施例4,自主建筑设备的动作配合其他的自主体以及现场的状况,在效率的观点上为最佳。同样,通常建筑设备的动作配合其他的自主体以及现场的状况,在效率的观点上为最佳。作业者或作业者以外的人的动作配合其他的自主体以及现场的状况,在效率以及疲劳度的观点上为最佳。
这样的效果在不具有施工现场管制***1001的自主体***中,即使各自主体彼此直接交换信息,也难以获得。这是由于例如以下的理由。即,在各个自主体掌握的状况与实际的状况之间存在产生差异的可能性。此外,需要预先决定彼此的通信方式,但通常各个自主体的提供者、运营者不同,故在现实中难以实现。
【实施例5】
接下来,对本发明的实施例5进行说明。除了以下说明的不同点之外,实施例5的自主体***的各部与图1~图7示出的实施例1的赋予了相同的附图标记的各部具有相同的功能,故省略其说明。
图11是表示本发明的实施例5的自主体***1100的整体构成的说明图。
实施例5的自主体***1100是将两个工件(加工对象的部件)组合并通过螺钉将其紧固的螺纹紧固机器人***。该自主体***1100包含螺纹紧固监视***1101、第1手形机器人1102以及第2手形机器人1103作为自主体。
第1手形机器人1102将第1工件1104放置于作业台1107上,接着将第2工件1105载置于第1工件1104上并使其保持原样静止。
第2手形机器人1103向第1工件1104以及第2工件1105的螺孔1108***螺钉1106,安装于第2手形机器人1103的臂的前端的螺纹紧固器具1109将螺钉1106紧固。
螺纹紧固监视***1101监视载置第2工件1105的位置的偏离,以及螺纹紧固的失败等,对第1手形机器人1102以及第2手形机器人1103进行适当的控制(信息的提示)。
第1手形机器人1102以及第2手形机器人1103的构成也可以与例如图3示出的飞翼车102或者图4示出的叉车103的构成相同。此外,关于在以下的说明中省略的部分,也可以适用与实施例2的臂机器人802有关的说明。这里关于第1手形机器人1102的构成参照图3,关于第2手形机器人1103的构成参照图4。
第1手形机器人1102的状况掌握部306经由例如安装于第1手形机器人1102的相机等的第1手形机器人1102的传感器部303,掌握第1工件1104的状态、第2工件1105的状态以及作业台1107的状态作为周围的状况。
此外,在状况掌握部306掌握的状况中,包含从螺纹紧固监视***1101提供的信息。该信息例如包含各工件的固定位置的偏离、以及螺纹紧固作业的完成或者失败的信息等。动作决定部307基于掌握到的状况以及任务信息310(例如与接下来应进行的螺纹紧固作业有关的信息),决定例如各工件从保管场所的取出以及向作业台1107上的规定位置的固定等的动作,动作执行部308经由驱动部304执行所决定的动作。
另外,对第1手形机器人1102设定的KPI例如是希望高效地进行作业等的指标。
第2手形机器人1103的状况掌握部406经由例如安装于第2手形机器人1103的相机等的第2手形机器人1103的传感器部403,掌握螺孔1108、螺钉1106以及螺纹紧固器具1109的状况作为周围的状况。
此外,在状况掌握部406掌握的状况中,包含从螺纹紧固监视***1101提供的信息。该信息例如包含各工件是否为能够开始螺纹紧固作业的状态、以及螺纹紧固作业的完成或者失败的信息等。动作决定部407基于掌握到的状况以及任务信息410(例如与接下来应进行的螺纹紧固作业有关的信息),决定例如螺钉1106向螺孔1108的***以及由螺纹紧固器具1109进行的螺纹紧固等的动作,动作执行部408经由驱动部404执行所决定的动作。
另外,对第2手形机器人1103设定的KPI例如是希望高效地进行作业、以及希望使螺纹紧固成功等的指标。
螺纹紧固监视***1101的构成与图2示出的实施例1的管制***101的构成相同。螺纹紧固监视***1101的状况掌握部204例如经由一个以上的相机105,掌握例如第1工件1104以及第2工件1105的状态(例如彼此的螺孔是否重叠)、以及第1手形机器人1102以及第2手形机器人1103的状况,作为周围的状况。这里,相机105例如是设置于能够拍摄各工件以及手形机器人的适当的场所的一个以上的相机。该相机105是用于掌握自主体***1100的状况的传感器的一例,也可以使用其他种类的传感器。
螺纹紧固监视***1101的任务信息208例如是与接下来应执行的螺纹紧固作业有关的信息。螺纹紧固监视***1101的动作决定部205基于从由相机105拍摄的图像中掌握到的状况、以及任务信息208,决定第1手形机器人1102以及第2手形机器人1103的控制内容。
例如,动作决定部205也可以掌握两个工件的状况(例如是否在彼此的螺孔重叠的状态下放置等),并根据状况决定向第1手形机器人1102通知第2工件1105的位置的修正指示。此外,动作决定部205例如也可以在通过两个工件的螺孔重叠而成为能够执行螺纹紧固作业的状态的情况下,决定向第2手形机器人1103通知该情况。并且,动作决定部205也可以掌握螺纹紧固成功或失败的情况,在失败时,决定向第2手形机器人1103通知重试。
然后,动作执行部206进行所决定的控制。控制通过向各自主体的信息提示(例如经由网络210的信息的发送)来进行。
动作决定部205也可以在某一定时,进行用于使动作的决定优化的学习处理。具体而言,动作决定部205也可以根据实践等学习若向各手形机器人提供何种信息、则螺纹紧固作业的结果(成功或者失败)如何,此外作业所需的时间的长度如何等的情况。此时,对螺纹紧固监视***1101设定的KPI例如也可以是希望高效地进行作业、以及希望使螺纹紧固成功等的指标。这些处理的流程与图5示出的管制***101的处理的流程相同。
根据以上的实施例5,第1手形机器人1102的动作在螺纹紧固的成功的观点上适当。此外,第2手形机器人1103的动作变得高效(例如等待时间较少,以及失败的可能性较少)。
这样的效果在不具有螺纹紧固监视***1101的自主体***中,即使各手形机器人彼此直接交换信息,也难以获得。这是由于例如以下的理由。即,在各个手形机器人掌握到的状况与实际的状况之间存在产生差异的可能性。此外,存在各个手形机器人不能观测状况的可能性。
另外,本发明不限于上述的实施例,包含各种变形例。例如,上述的实施例是为了更好地理解本发明而详细进行了说明的实施例,并非限于一定具备说明的全部构成。此外,能够将某实施例的构成的一部分置换为其他的实施例的构成,此外,能够对某实施例的构成追加其他实施例的构成。此外,对于各实施例的构成的一部分,能够进行其他构成的追加、删除、置换。
此外,上述的各构成、功能、处理部、处理方式等也可以通过将其一部分或者全部例如由集成电路进行设计等而由硬件来实现。此外,上述的各构成、功能等也可以通过处理器编译并执行实现各个功能的程序而由软件实现。实现各功能的程序、表格、文件等的信息能够储存于非易失性半导体存储器、硬盘驱动器、SSD(固态驱动器:Solid State Drive)等的存储设备,或者IC卡、SD卡、DVD等的计算机能够读取的非易失性数据存储介质中。
此外,关于控制线以及信息线,示出了认为说明上有必要的部分,未必一定示出产品上全部的控制线以及信息线。实际上可以认为几乎全部的构成彼此连接。

Claims (8)

1.一种自主体***,具有多个自主体,其特征在于,
所述多个自主体中的各个自主体具有掌握状况的状况掌握部、基于掌握到的状况决定动作的动作决定部、以及执行所决定的动作的动作执行部,
所述自主体***具有的所述多个自主体包含一个以上的第1自主体、以及两个以上的第2自主体,所述第2自主体是基于传感器信息进行自主驾驶的物体,
所述第1自主体的所述状况掌握部掌握的状况包含所述第2自主体的状况,
所述第2自主体的所述状况掌握部掌握的状况包含由所述第1自主体的动作执行部执行的动作的结果,其中,由所述第1自主体的动作执行部执行的动作的结果指示所述第1自主体判断为为了提高对所述第1自主体设定的评价参数而所述第2自主体应进行的动作,
所述第1自主体的所述动作决定部基于所述第1自主体的所述状况掌握部掌握的状况,以对所述第1自主体设定的评价参数成为表示高评价的值的方式,决定所述第1自主体的动作,
所述第2自主体的所述动作决定部基于所述第2自主体的所述状况掌握部掌握的状况,以对所述第2自主体设定的评价参数成为表示高评价的值的方式,决定所述第2自主体的动作,
所述第1自主体是管制***,对所述第2自主体设定的评价参数与对所述第1自主体设定的评价参数不同。
2.如权利要求1所述的自主体***,其特征在于,
所述第1自主体的所述动作决定部保持基于所述第1自主体的所述状况掌握部掌握的状况来决定动作的函数,并以对所述第1自主体设定的评价参数成为表示高评价的值的方式,变更所述函数的参数。
3.如权利要求1所述的自主体***,其特征在于,
所述第2自主体的所述状况掌握部掌握的状况包含由所述第1自主体的动作执行部执行的动作的结果、以及除此以外的状况,
所述第2自主体的所述动作决定部保持基于由所述第1自主体的动作执行部执行的动作的结果以及除此以外的状况来决定动作的函数,并以对所述第2自主体设定的评价参数成为表示高评价的值的方式,变更所述函数的参数。
4.如权利要求3所述的自主体***,其特征在于,
所述函数的参数包含分别对由所述第1自主体的动作执行部执行的动作的结果以及除此以外的状况赋予的权重。
5.一种控制方法,为具有多个自主体的自主体***的控制方法,其特征在于,
所述控制方法包括:所述多个自主体中的各个自主体掌握状况的状况掌握步骤、基于掌握到的状况决定动作的动作决定步骤、以及执行所决定的动作的动作执行步骤,
所述自主体***具有的所述多个自主体包含一个以上的第1自主体、以及两个以上的第2自主体,所述第2自主体是基于传感器信息进行自主驾驶的物体,
所述第1自主体在所述状况掌握步骤中掌握的状况包含所述第2自主体的状况,
所述第2自主体在所述状况掌握步骤中掌握的状况包含所述第1自主体的动作执行步骤中执行的动作的结果,其中,所述第1自主体的动作执行步骤中执行的动作的结果指示所述第1自主体判断为为了提高对所述第1自主体设定的评价参数而所述第2自主体应进行的动作,
所述第1自主体在所述动作决定步骤中,基于在所述第1自主体的所述状况掌握步骤中掌握的状况,以对所述第1自主体设定的评价参数成为表示高评价的值的方式,决定所述第1自主体的动作,
所述第2自主体在所述动作决定步骤中,基于在所述第2自主体的所述状况掌握步骤中掌握的状况,以对所述第2自主体设定的评价参数成为表示高评价的值的方式,决定所述第2自主体的动作,
所述第1自主体是管制***,对所述第2自主体设定的评价参数与对所述第1自主体设定的评价参数不同。
6.如权利要求5所述的控制方法,其特征在于,
所述第1自主体保持基于在所述第1自主体的所述状况掌握步骤中掌握的状况来决定动作的函数,在所述动作决定步骤中,以对所述第1自主体设定的评价参数成为表示高评价的值的方式,变更所述函数的参数。
7.如权利要求5所述的控制方法,其特征在于,
所述第2自主体在所述状况掌握步骤中掌握的状况包含:在所述第1自主体的所述动作执行步骤中执行的动作的结果、以及除此以外的状况,
所述第2自主体保持基于在所述第1自主体的动作执行步骤中执行的动作的结果以及除此以外的状况来决定动作的函数,在所述动作决定步骤中,以对所述第2自主体设定的评价参数成为表示高评价的值的方式,变更所述函数的参数。
8.如权利要求7所述的控制方法,其特征在于,
所述函数的参数包含分别对在所述第1自主体的动作执行步骤中执行的动作的结果以及除此以外的状况赋予的权重。
CN201910949154.8A 2018-11-29 2019-10-08 自主体***及其控制方法 Active CN111232884B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018223859A JP2020087206A (ja) 2018-11-29 2018-11-29 自律体システム及びその制御方法
JP2018-223859 2018-11-29

Publications (2)

Publication Number Publication Date
CN111232884A CN111232884A (zh) 2020-06-05
CN111232884B true CN111232884B (zh) 2022-01-04

Family

ID=70680997

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910949154.8A Active CN111232884B (zh) 2018-11-29 2019-10-08 自主体***及其控制方法

Country Status (4)

Country Link
US (1) US11340611B2 (zh)
JP (1) JP2020087206A (zh)
CN (1) CN111232884B (zh)
DE (1) DE102019217568B4 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102387778B1 (ko) * 2020-06-08 2022-04-15 롯데정보통신 주식회사 매장 픽업 서비스를 제공하기 위한 로봇 시스템 및 그 방법
US20220324113A1 (en) * 2021-04-12 2022-10-13 Sanctuary Cognitive Systems Corporation Systems, devices, and methods for developing robot autonomy
KR20220168619A (ko) * 2021-06-16 2022-12-26 현대모비스 주식회사 팰릿 존재 유무 감지를 이용한 트럭하차장치 및 방법
CN114419150A (zh) * 2021-12-21 2022-04-29 未来机器人(深圳)有限公司 叉车取货方法、装置、计算机设备、存储介质
WO2023192313A1 (en) * 2022-03-28 2023-10-05 Seegrid Corporation Continuous and discrete estimation of payload engagement/disengagement sensing
WO2023188702A1 (ja) * 2022-03-28 2023-10-05 日本電気株式会社 制御装置、制御方法、および記録媒体
JP2024033224A (ja) * 2022-08-30 2024-03-13 日立Astemo株式会社 管制装置、状態管理方法、および状態管理プログラム
DE102022211255A1 (de) 2022-10-24 2024-04-25 Siemens Healthineers Ag Steuerung von Robotern mit zentralisierter Positionserfassung

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103761588A (zh) * 2014-02-18 2014-04-30 张家港美核电子科技有限公司 基于多目标建模优化的危化品运输调度方法
CN103927639A (zh) * 2014-02-10 2014-07-16 武汉科技大学 一种基于实时信息的钢铁产品物流***及其调度方法
CN103955818A (zh) * 2014-05-27 2014-07-30 山东大学 多层穿梭车自动仓储***的任务调度方法
CN108202327A (zh) * 2016-12-16 2018-06-26 发那科株式会社 机器学习装置、机器人***以及机器学习方法
CN108657705A (zh) * 2017-03-31 2018-10-16 深圳市凯通物流有限公司 智能化物流仓库及货物存储方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6383385A (ja) * 1986-09-29 1988-04-14 沖電気工業株式会社 無人搬送車による自動扉の開閉制御方法
JP4671628B2 (ja) 2004-06-16 2011-04-20 ソニー株式会社 ロボット装置の制御システム及び制御方法
US7123169B2 (en) * 2004-11-16 2006-10-17 Northrop Grumman Corporation Method and apparatus for collaborative aggregate situation awareness
US7894932B2 (en) 2005-07-19 2011-02-22 Kiva Systems, Inc. Method and system for replenishing inventory items
US8947531B2 (en) * 2006-06-19 2015-02-03 Oshkosh Corporation Vehicle diagnostics based on information communicated between vehicles
US8676466B2 (en) * 2009-04-06 2014-03-18 GM Global Technology Operations LLC Fail-safe speed profiles for cooperative autonomous vehicles
US9155961B2 (en) 2009-05-28 2015-10-13 Anki, Inc. Mobile agents for manipulating, moving, and/or reorienting components
JP2011108044A (ja) 2009-11-18 2011-06-02 Fanuc Ltd N個のロボットを同時に制御するロボット制御装置
CA2907452A1 (en) * 2013-03-15 2014-09-18 Peloton Technology Inc. Vehicle platooning systems and methods
DE202014011117U1 (de) 2013-05-31 2018-02-27 Anki, Inc. Mobile Agenten zum Manipulieren, Bewegen und/oder Neuausrichten von Komponenten
JP5877867B2 (ja) 2014-04-25 2016-03-08 ファナック株式会社 複数台のロボットのシミュレーション装置
SG10201406357QA (en) * 2014-10-03 2016-05-30 Infinium Robotics Pte Ltd System for performing tasks in an operating region and method of controlling autonomous agents for performing tasks in the operating region
DE102015216272A1 (de) 2015-08-26 2017-03-02 Airbus Operations Gmbh Modularer Roboter-Bausatz, Schwarm modularisierter Roboter und Verfahren zum Erledigen von Aufgaben durch einen Schwarm modularisierter Roboter
US10239529B2 (en) * 2016-03-01 2019-03-26 Ford Global Technologies, Llc Autonomous vehicle operation based on interactive model predictive control
WO2017222437A1 (en) * 2016-06-23 2017-12-28 Telefonaktiebolaget Lm Ericsson (Publ) Methods identifying vehicles and related systems, controllers, and vehicles
EP3418843B1 (en) * 2017-06-23 2021-03-17 Volkswagen Aktiengesellschaft Concept of coordinating an emergency braking of a platoon of communicatively coupled vehicles
KR101984922B1 (ko) * 2017-09-13 2019-05-31 엘지전자 주식회사 차량의 군집 주행 방법 및 차량
KR102005269B1 (ko) 2017-11-20 2019-07-31 한국에너지기술연구원 자율형 커뮤니티 에너지 관리 시스템 및 방법
DE102017221104A1 (de) * 2017-11-24 2019-05-29 Robert Bosch Gmbh Verfahren zum Koordinieren von Abständen innerhalb eines Fahrzeugverbands
KR102417905B1 (ko) * 2017-12-11 2022-07-07 현대자동차주식회사 선두 차량의 군집 주행 제어 장치 및 방법
KR102417904B1 (ko) * 2017-12-11 2022-07-07 현대자동차주식회사 군집 주행 제어 시스템, 장치 및 방법
DE102017223717B4 (de) 2017-12-22 2019-07-18 Robert Bosch Gmbh Verfahren zum Betreiben eines Roboters in einem Multiagentensystem, Roboter und Multiagentensystem

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103927639A (zh) * 2014-02-10 2014-07-16 武汉科技大学 一种基于实时信息的钢铁产品物流***及其调度方法
CN103761588A (zh) * 2014-02-18 2014-04-30 张家港美核电子科技有限公司 基于多目标建模优化的危化品运输调度方法
CN103955818A (zh) * 2014-05-27 2014-07-30 山东大学 多层穿梭车自动仓储***的任务调度方法
CN108202327A (zh) * 2016-12-16 2018-06-26 发那科株式会社 机器学习装置、机器人***以及机器学习方法
CN108657705A (zh) * 2017-03-31 2018-10-16 深圳市凯通物流有限公司 智能化物流仓库及货物存储方法

Also Published As

Publication number Publication date
DE102019217568A1 (de) 2020-06-04
US11340611B2 (en) 2022-05-24
DE102019217568B4 (de) 2021-01-14
US20200174473A1 (en) 2020-06-04
CN111232884A (zh) 2020-06-05
JP2020087206A (ja) 2020-06-04

Similar Documents

Publication Publication Date Title
CN111232884B (zh) 自主体***及其控制方法
US10466692B2 (en) Automated guided vehicle system
KR101691329B1 (ko) 무인배송시스템 및 무인배송방법
US11447245B2 (en) Drone-based goods transportation
US9146559B2 (en) System and method for gathering video data related to operation of an autonomous industrial vehicle
US20190137991A1 (en) Method and system to retrofit industrial lift trucks for automated material handling in supply chain and logistics operations
CA2845229C (en) System and method for gathering video data related to operation of an autonomous industrial vehicle
CN108773433A (zh) 一种基于agv小车的对接定位校准方法及agv小车
JP2022522284A (ja) 安全定格マルチセル作業空間マッピングおよび監視
WO2020107468A1 (zh) 一种无人设备的控制方法及无人车
KR102315225B1 (ko) 파렛트 자동인식 무인운반차 및 파렛트 자동인식 도킹시스템
EP2835234A1 (en) Robot system and robot control device
KR102433595B1 (ko) 철도차량 스마트 유지보수용 자율주행 기반 무인 운송 장치
CN113544614A (zh) 移动体控制方法、移动体控制***以及程序
KR102409528B1 (ko) 무인 팔레트트럭 자율주행시스템
US20230211508A1 (en) Loading and unloading by an autonomous mobile robot
JP6711555B1 (ja) 搬送システム、領域決定装置、および、領域決定方法
US20180128001A1 (en) Method for operating a loading facility and loading facility
CN115630895A (zh) 货物管理方法及装置、搬运设备及计算机可读存储介质
JP7446889B2 (ja) 搬送制御システム及びプログラム
KR20210077811A (ko) 스마트 파킹 무인운반차
US20240249221A1 (en) Method for constructing a goods logistics facility, computer-readable storage medium, and goods logistics facility
KR102669256B1 (ko) 태스크를 할당하는 서버 및 할당된 태스크에 따라 배송을 수행하는 로봇을 포함하는 피킹 시스템
WO2024047724A1 (ja) フォークリフト、および自動倉庫システム
Dreyer Controlled as if by Magic

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant