CN110087450A - 工作***以及工作方法 - Google Patents
工作***以及工作方法 Download PDFInfo
- Publication number
- CN110087450A CN110087450A CN201780079117.5A CN201780079117A CN110087450A CN 110087450 A CN110087450 A CN 110087450A CN 201780079117 A CN201780079117 A CN 201780079117A CN 110087450 A CN110087450 A CN 110087450A
- Authority
- CN
- China
- Prior art keywords
- over again
- work
- user
- working equipment
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 10
- 238000001514 detection method Methods 0.000 claims abstract description 18
- 238000012360 testing method Methods 0.000 claims description 26
- 244000025254 Cannabis sativa Species 0.000 claims description 20
- 238000005520 cutting process Methods 0.000 claims description 15
- 238000003860 storage Methods 0.000 description 14
- 230000001815 facial effect Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 12
- 239000004020 conductor Substances 0.000 description 11
- 238000001931 thermography Methods 0.000 description 8
- 230000036651 mood Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000002407 reforming Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 210000003811 finger Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007921 spray Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0016—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01D—HARVESTING; MOWING
- A01D34/00—Mowers; Mowing apparatus of harvesters
- A01D34/006—Control or measuring arrangements
- A01D34/008—Control or measuring arrangements for automated or remotely controlled operation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0038—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/005—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with signals other than visual, e.g. acoustic, haptic
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0219—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01D—HARVESTING; MOWING
- A01D2101/00—Lawn-mowers
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Environmental Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Harvester Elements (AREA)
- Guiding Agricultural Machines (AREA)
Abstract
工作***(100)具备:工作用致动器(26),设置在工作设备(1)中;相机(21)以及麦克风(22),检测根据工作满意度而变化的用户的样态;返工判断部(11),在由工作设备(1)进行了给定的工作之后,基于检测的用户的样态判断是否需要返工;以及致动器控制部(15),若由返工判断部(11)判断为需要返工,则控制工作用致动器(26),使得进行返工。
Description
技术领域
本发明涉及一种具有能够自动进行工作的工作设备的工作***以及工作方法。
背景技术
作为这种工作设备,以往,已知一种在通过区域导线划分的工作区域中自主行驶并进行割草工作的工作设备(例如参照专利文献1)。该专利文献1记载的工作设备具有检测由流过区域导线的电流产生的磁场强度的磁传感器,通过基于磁传感器的检测值确定自己的位置,从而遍及整个工作区域一边自主行驶一边进行工作,使得没有草的切割残余。
在先技术文献
专利文献
专利文献1:日本特开2016-148937号公报
发明内容
发明要解决的课题
然而,存在用户对工作设备进行了工作之后的状态不满意的情况。在该情况下,需要使工作设备进行返工,但是对于指示返工的方法,上述专利文献1没有任何记载。
用于解决课题的技术方案
本发明的一个方式为具有自动进行工作的工作设备的工作***,具备:工作用致动器,设置在工作设备中;用户样态检测部,检测根据工作满意度而变化的用户的样态;返工判断部,在由工作设备进行了给定的工作之后,基于由用户样态检测部检测的用户的样态判断是否需要返工;以及致动器控制部,若由返工判断部判断为需要返工,则控制工作用致动器,使得进行返工。
本发明的另一个方式为使用自动进行工作的工作设备进行工作的工作方法,包括:检测根据工作满意度而变化的用户的样态,基于检测的用户的样态,判断是否需要由工作设备进行了给定的工作之后的返工,若判断为需要返工,则控制设置在工作设备中的工作用致动器,使得进行返工。
发明效果
根据本发明,能够根据需要容易地向工作设备指示工作设备进行了工作之后的返工。
附图说明
图1是示出本发明的实施方式所涉及的工作***的概要结构的图。
图2A是示出图1的工作***的概要结构的框图。
图2B是示出图2A的ECU的功能性结构的框图。
图3是示出通过构成图1的工作***的工作设备进行工作的工作区域的一个例子的俯视图。
图4是示出由图2A的CPU执行的处理的一个例子的流程图。
图5是示出本发明的实施方式所涉及的工作***的动作的一个例子的图。
图6是示出图1的变形例的图。
具体实施方式
以下,参照图1~图6对本发明的实施方式所涉及的工作***进行说明。本发明的工作***能够应用于各种工作设备,以下,特别是对应用于能够一边自主行驶一边进行割草工作的割草机的例子进行说明。
图1是示出本发明的实施方式所涉及的工作***100的概要结构的图,特别是示出构成工作***100的工作设备(割草机)1的概要结构的侧视图。如图1所示,工作设备1具备车体2和左右一对前轮3以及后轮4,并具有用户自身能够用手拿住并搬运的重量以及尺寸。若举出一个例子,则工作设备1的全长约为500mm,整个宽度约为300mm,高度约为300mm。
由旋转轴5a支承的割草用的圆盘形状的叶片5从车体2的底面朝向地面(草地)GR突出设置,工作设备1通过叶片5的旋转能够在地面GR上一边行驶一边进行割草工作。在车体2的前端部,设有用于对搭载在车体2中的电池(图2A)进行充电的充电端子6。
图2A是示出工作设备1(工作***100)的概略结构的框图。如图2A所示,工作设备1具有ECU(电子控制单元)10、分别与ECU10连接的相机21、麦克风22、热成像仪(thermography)23、传感器组24、扬声器25、工作用致动器26、行驶用致动器27、通信单元28、电池29以及充电单元30,这些全部设置在车体2中。ECU10具有CPU(处理器)10A、ROM、RAM等存储器10B以及其他的***电路等。
相机21、麦克风22以及热成像仪23构成分别获取用户的生物体信息的生物体信息获取部20。即,相机21拍摄包括用户的面部的上半身,并检测用户的面部的表情、行动。麦克风22获取用户讲话的声音。由麦克风22获取的声音由ECU10的声音识别部(未图示)进行声音识别。热成像仪23检测用户的面部的表面温度。生物体信息检测部20(21~23)用于检测用户的举动(言行)、表情等用户的样态。
传感器组24包括在车宽度方向上分开配置的一对磁传感器24a,并通过磁传感器24a检测磁场强度。此外,虽然省略了图示,但是传感器组24还包括:检测绕工作设备1的高度方向的轴线产生的角速度的Yaw传感器;检测作用于工作设备1的加速度的G传感器;检测工作设备1的方位的方位传感器;检测有无工作设备1和障碍物的接触的接触传感器;检测左右的后轮4的车轮速度的车轮速度传感器;检测工作设备1的位置的GPS传感器;以及检测电池29的剩余电压的电压传感器等。扬声器25对用户输出声音,通过设置麦克风22和扬声器25,工作设备1能够与用户进行交互。
工作用致动器26由与旋转轴5a连结的电动马达构成,且通过工作用致动器26的驱动来旋转驱动叶片5。行驶用致动器27配置在左右的后轮4的左右内侧,由独立驱动左右的后轮4的一对电动马达构成。通过使左右的后轮4的旋转产生速度差,工作设备1能够在任意的方向上回转。
通信单元28包括收发天线和处理经由收发天线收发的信号的信号处理电路,且工作设备1能够经由通信单元28与外部设备(例如在相同的场地内配置的中继装置、服务器、用户携带的便携式终端等)无线地进行通信。电池29作为用于向工作设备1的各电气部件供给电力的电力源使用。充电单元30与充电端子6和电池29连接,并经由充电端子6将由充电站(图3)供给的电力存储到电池29中。
按如上所述构成的工作设备1在预定的工作区域内自主行驶并进行工作。图3是示出工作区域AR的一个例子的俯视图。工作区域AR通过预先铺设在庭院中(例如埋设在距地面给定深度)的区域导线7划分,通过区域导线7规定工作设备1的行驶范围。通过电流流过区域导线7,在工作区域AR中产生磁场。工作区域AR的磁场强度通过磁传感器24a检测。
磁场强度根据与区域导线7的距离而变化。ECU10(CPU10A)基于来自磁传感器24a的信号,判断工作设备1是否到达区域导线7。而且,若判断为到达区域导线7,则将控制信号输出到行驶用致动器27,如图3的箭头所示,使工作设备1朝向工作区域AR的内侧回转。这样,ECU10根据来自磁传感器24a的信号将控制信号输出到行驶用致动器27,由此,工作设备1在工作区域AR内自主行驶。此时,ECU10还将控制信号输出到工作用致动器26,由此,工作设备1一边在工作区域AR内行驶一边自动进行割草工作。
用于对电池29充电的充电站8配置在区域导线7上。工作时,若由传感器组24(例如电压传感器)检测到电池29的电压不足,则ECU10将控制信号输出到行驶用致动器27,例如使工作设备1沿着区域导线7返回到充电站8从而对电池29充电。若电池29的充电完成,则ECU10将控制信号输出到行驶用致动器27并使工作设备1离开充电站8,之后,驱动工作用致动器26以重新开始工作。
此外,虽然以上设为了铺设区域导线7来设定工作区域AR,并且工作设备1(ECU10)通过来自磁传感器24a的信号识别工作区域AR并且进行工作,但是工作区域的设定以及识别的方法不限于上述方法。例如,也可以设为ECU10经由通信单元28接收信标信号等,通过使用该接收信号识别工作区域,从而在工作区域进行工作。也可以设为预先将工作区域的地图存储在ECU10的存储器10B中,通过GPS传感器等检测自身位置,并且在工作区域进行工作。即,也可以设为使用除了区域导线7之外的工作区域设定部来设定工作区域,并且使用除了磁传感器之外的位置检测器来识别工作区域并进行工作。
然而,在工作区域AR中的工作设备1的工作完成的情况下,若存在草的切割残余或草的高度不均匀,则用户可能不满意工作结果。在该情况下,需要使工作设备1进行返工,但是为了减轻用户的负担,优选构成为省去指示基于繁琐的设定操作的返工的麻烦,使工作设备1根据用户的工作满意度自动执行返工。考虑到这一点,在本实施方式中,按如下所述构成工作设备1。
图2B是示出ECU10的功能性结构的框图。如图2B所示,ECU10具有返工判断部11、工作内容决定部14以及致动器控制部15。返工判断部11具有模式存储部12和满意度推定部13。其中,满意度推定部13、工作内容决定部14以及致动器控制部15是由CPU10A承担的功能,模式存储部12是由存储器10B承担的功能。
模式存储部12预先存储与表情、行动、声音以及面部温度的各模式对应的数据,即与表情模式、行动模式、声音模式以及面部温度模式对应的数据,所述表情、行动、声音以及面部温度与用户的工作满意度具有相关关系。
在表情模式中,包括预料为在工作满意度高时产生的表情模式(例如高兴的表情)和预料在工作满意度低时产生的表情模式(例如愤怒的表情)。与这些表情模式对应的图像数据存储在模式存储部12中。此外,高兴、愤怒的表情通过嘴角、眼神而赋予特征。
在行动模式中,包括预料为在工作满意度高时产生的行动模式(例如,点头或者抬起拇指等行动)和预料为在工作满意度低时产生的行动模式(例如摇头或摆手、或者用户用手触摸草等行动)。将与这些行动模式对应的图像数据存储在模式存储部12中。
在声音模式中,包括预料为在工作满意度高时产生的声音模式(例如“OK”等声音)和预料为在工作满意度低时产生的声音模式(例如“重做”等声音)。将与这些声音模式对应的声音数据存储在模式存储部12中。
在面部温度模式中,包括预料为在工作满意度高时产生的面部温度模式(例如平均或者最大的面部温度为给定温度以下的面部温度分布)和预料为在工作满意度低时产生的面部温度模式(例如平均或者最大的面部温度为给定温度以上的面部温度分布)。将与这些面部温度模式对应的温度数据存储在模式存储部12中。
对以上的各模式预先赋予与工作满意度对应的点。即,对工作满意度高的模式赋予+1的点,对工作满意度低的模式赋予-1的点。此外,也可以设为工作满意度越大,使正的点越大,工作满意度越低,使负的点越小(绝对值大)。这样,模式存储部12将表示与工作满意度相应的用户的样态的多个模式(称为工作满意度对应模式)与点一起进行存储。
模式存储部12还存储与返工的内容对应的多个模式(称为工作内容对应模式)。具体地,存储与表示应该返工的区域的行动模式,例如用指尖表示东西南北、前后左右等特定的方向的行动、表示整个工作区域的行动对应的图像数据。进而,存储与表示应该返工的区域的声音模式,例如表示东西南北、前后左右等特定的方向的声音、表示“全部重做”等整个工作区域的声音对应的声音数据。还存储与表示对用户的自动跟踪行驶指令的行动模式(例如招手动作)对应的图像数据、与表示自动跟踪行驶指令的声音模式(例如“跟我来”等声音)对应的声音数据。
满意度推定部13基于来自生物体信息检测部20的信号,推定关于割草工作暂时完成之后的工作结果的用户的工作满意度。更具体地,比较由生物体信息检测部20检测的用户的表情、行动、声音、面部温度和模式存储部12中存储的用户的表情、行动、声音、面部温度的模式(工作满意度对应模式),确定用户的样态与哪个工作满意度对应模式相符。而且,通过所确定的工作满意度对应模式所具有的点,对工作满意度进行数值化。当用户的样态与多个工作满意度对应模式相符时,对各工作满意度对应模式所具有的点进行相加,来计算工作满意度。
工作满意度对应于用户的情绪。因此,满意度推定部13也可以通过推定用户的情绪来推定工作满意度。例如,也可以设为使用Plutchik的情绪环,将乘坐者情绪分类为八个基本情绪(期待、高兴、接受、不安、惊讶、悲伤、厌恶、愤怒)和基于这些情绪中相邻的两个情绪的组合的应用情绪,基于来自相机21、麦克风22的信号,判断用户的情绪与情绪环的哪个模式相符,由此推定工作满意度。
返工判断部11根据由满意度推定部13推定的工作满意度判断是否需要返工。例如,当推定的工作满意度为给定值(例如-1)以下时,判断为需要返工。
工作内容决定部14基于从生物体信息检测部20输入的信号,决定返工的内容。更具体地,比较由生物体信息检测部20检测的用户的行动、声音和模式存储部12中存储的用户的行动、声音的模式(工作内容对应模式),确定用户的样态与哪个工作内容对应模式相符。而且,将确定的工作内容对应模式决定为工作设备1的工作内容。
致动器控制部15将控制信号输出到工作用致动器26和行驶用致动器27,并控制工作设备1的动作,使得一边在工作区域AR内自主行驶一边进行割草工作。进而,在工作暂时完成之后,控制工作设备1的行驶动作,使得工作设备1移动到由生物体信息检测部20能够检测到用户的样态的位置。之后,若由返工判断部11判断为需要返工,则将控制信号输出到工作用致动器26和行驶用致动器27,使得工作设备1进行由工作内容决定部14决定的工作。此外,若由返工判断部11判断为不需要返工,则控制工作设备1的动作,使得执行例如返回到充电站8并开始充电等给定的工作完成动作。
图4是示出根据预先存储的程序由CPU10A执行的处理的一个例子的流程图。例如在工作设备1自主行驶并完成给定的工作之后,开始该流程图所示的处理。
首先,在步骤S1中,由生物体信息检测部20检测用户的样态,即用户的表情、行动、声音、面部温度,并读取其检测信号。接下来,在步骤S2中,通过满意度推定部13中的处理,基于步骤S1的检测信号推定用户的工作满意度。接下来,在步骤S3中,通过返工判断部11中的处理,判断是否需要返工,即推定的工作满意度是否为给定值以下。
若步骤S3中为肯定,则进入步骤S4,通过工作内容决定部14中的处理,基于步骤S1的检测信号决定返工的内容。接下来,在步骤S5中,通过致动器控制部15中的处理,将控制信号输出到工作用致动器26和行驶用致动器27,使得进行与步骤S4中决定的工作内容相应的返工。若返工完成,则返回到步骤S1,反复同样的处理。
若在步骤S3中判断为不需要返工,则进入步骤S6。在步骤S6中,通过致动器控制部15中的处理,执行使工作设备1返回到充电站8等给定的工作完成动作,结束一系列的处理。
更具体地说明本实施方式所涉及的工作***100的动作。图5是示出工作***100的动作的一个例子的俯视图。若工作区域AR内的割草工作完成,则如图5的A部所示,工作设备1靠近用户200并通过相机21、麦克风22等生物体信息检测部20检测用户200的样态(步骤S1)。此外,也可以设为从用户200靠近工作设备1。
若由于存在草的切割残余或者草的高度不均匀等,用户200的工作满意度变为给定值以下,则工作设备1判断为需要返工,并基于用户200的言行(行动、声音)决定工作内容(步骤S3→步骤S4)。而且,工作设备1根据工作内容执行返工(步骤S5)。例如在用户200用手指表示给定的工作区域AR1或者用声音指示给定的工作区域AR1的情况下,工作设备1如图5的箭头AW1所示一边自主行驶一边移动到该工作区域AR1(图5的B部),在工作区域AR1内进行返工。
另一方面,在用户200指示工作设备1进行自动跟踪行驶的情况下,工作没备1跟踪图5的虚线箭头AW2所示的用户200的行动,并如图5的箭头AW3所示,移动到给定的工作区域AR2(图5的C部)。之后,若用户200指示该工作区域AR2中的工作,则工作设备1在工作区域AR2内进行返工。此外,在用户200用行动或者声音指示为在整个工作区域AR内返工的情况下,工作设备1在整个工作区域AR内返工。
工作设备1在返工完成后再次检测用户的样态,并推定工作满意度(步骤S5→步骤S1→步骤S2)。如果工作满意度为给定值以下,则再次执行返工。若工作满意度高于给定值,则进行工作完成动作,完成工作(步骤S3→步骤S6)。
根据本实施方式,能够起到以下的作用效果。
(1)具有自动进行工作的工作设备1的工作***100具备:工作用致动器26,设置在工作设备1中;生物体信息检测部20(相机21、麦克风22以及热成像仪23),检测根据工作满意度而变化的用户的样态;返工判断部11,在由工作设备1进行了给定的工作(一边自主行驶一边进行的割草工作)之后,基于由生物体信息检测部20检测的用户的样态判断是否需要返工;以及致动器控制部15,若由返工判断部11判断为需要返工,则控制工作用致动器26,使得进行返工(图2A、图2B)。
这样,在本实施方式所涉及的工作***100中,基于暂时进行了割草工作之后的由生物体信息检测部20检测的用户的样态,工作设备1本身判断是否需要返工,并根据其判断结果自动进行返工。由此,用户无需另外进行用于指示工作设备1进行返工的繁琐的操作,能够根据需要使工作设备1容易地执行返工。
(2)返工判断部11具有基于由生物体信息检测部20检测的用户的样态来推定用户的工作满意度的满意度推定部13(图2B),在由满意度推定部13推定的工作满意度为给定值以下时,判断为需要返工。这样,由于构成为根据用户的工作满意度进行返工,因此在用户对工作结果不满意的情况下,能够使工作设备1自动进行返工,其结果,能够提高用户的工作满意度。
(3)工作***100还具备基于由生物体信息检测部20检测的用户的样态来决定工作内容的工作内容决定部14(图2B)。若由返工判断部11判断为需要返工,则致动器控制部15控制工作用致动器26,使得进行与由工作内容决定部14决定的工作内容相应的返工。通过该结构,例如能够仅在工作区域AR当中的特定的工作区域AR1、AR2中进行返工,能够高效地进行返工。
(4)在工作设备1中设置相机21、麦克风22以及热成像仪23作为生物体信息检测部20(图2A)。由此,能够识别用户的表情、行动、声音以及面部温度。因此,能够良好地推定用户的工作满意度,能够确切地判断是否需要返工。
(5)工作***100还具备设置在工作设备1中的行驶用致动器27(图2A)。若由返工判断部11判断为需要返工,则致动器控制部15控制工作用致动器26和行驶用致动器27,使得工作设备1一边行驶一边进行返工。这样,通过将工作设备1构成为能够移动,从而能够使工作设备1在整个工作区域自动工作。
(6)将构成工作***100的工作设备1构成为一边在工作区域AR内自主行驶一边进行割草工作的割草机(图1)。在这种工作设备1中,可能产生草的切割残余等,需要返工的概率变高。因此,应用本实施方式所涉及的工作***100的有用性较高。
(7)作为使用自动进行工作的工作设备1来进行工作的工作方法,设为检测根据工作满意度而变化的用户的样态(步骤S1),基于检测的用户的样态,判断是否需要由工作设备1进行执行了给定的工作之后的返工(步骤S3),若判断为需要返工,则控制设置在工作设备1中的工作用致动器26,使得进行返工(步骤S5)。由此,能够根据需要使工作设备1容易地执行返工。
上述实施方式能够变形为各种方式。以下,对变形例进行说明。图6是示出作为图1的变形例的工作***100A的图。在图6中,工作设备1和服务器101构成为能够经由通信单元互相无线通信。根据这种结构,工作设备1的ECU10能够根据需要从服务器101获取数据。因此,能够将ECU10的一部分(例如模式存储部12)设置在服务器101中。
此外,在上述实施方式中,设为了通过作为拍摄装置的相机21、作为声音收集装置的麦克风22以及作为温度成像测量装置的热成像仪23检测根据工作满意度而变化的用户的样态,但是用户样态检测部的结构不限于此。例如,也可以设为不是拍摄装置、声音收集装置以及温度成像测量装置的全部,而是通过这些装置当中的至少一个检测用户的样态,即用户的表情、言行等。也可以将用户样态检测部设置在工作设备之外(例如建造物的墙壁等)。
在上述实施方式中,设为了满意度推定部13基于由生物体信息检测部20检测的用户的样态对用户的工作满意度进行数值化并进行推定,但是也可以设为仅对是否获得了工作满意度进行推定,满意度推定部的结构不限于上述结构。在上述实施方式中,设为了工作内容决定部14基于由生物体信息检测部20检测的用户的样态来决定工作内容,例如也可以设为根据满意度推定部推定的工作满意度来决定工作内容,工作内容决定部的结构不限于上述结构。
在上述实施方式中,设为了在由工作设备1进行了割草工作之后,返工判断部11基于由相机21、麦克风22等检测的用户的样态来判断是否需要返工,但是返工判断部的结构不限于此。例如,也可以设为通过来自扬声器25的声音输出向用户提出“需要返工吗?”等问题,声音识别对此的用户的应答并判断是否需要返工。也可以设为在用户与某人进行会话的情况下,根据其会话内容判断是否需要返工。可以在工作设备中设置日照传感器、温度湿度传感器、雨量传感器等检测气候的传感器,且考虑来自这些传感器的信息来判断是否需要返工。
在作为工作装置的叶片5损坏的情况下等,虽然返工判断部11判断是否需要返工且工作设备1进行了返工,但有用户的工作满意度没有被改善的情况。在该情况下,可以设为判断为工作设备1本身存在一些问题,工作设备1经由通信单元28与经销商联络,并委托维护。即,可以设为返工判断部不仅判断是否需要返工,还判断是否需要委托维护等。也可以设为与工作满意度无关地,通过是否检测到用户的给定的样态来判断是否需要返工,因此,还能够省略满意度推定部。在进行返工时,也可以固定始终在整个工作区域AR内进行返工等的返工内容,因此,还能够省略工作内容决定部。
在上述实施方式中,设为了若由返工判断部11判断为需要返工,则致动器控制部15控制工作用致动器26和行驶用致动器27,使得进行返工,但是只要构成为至少控制工作用致动器使得进行返工即可,致动器控制部的结构不限于上述结构。
在上述实施方式中,使用移动式的割草机作为工作设备1,但是能够使用除了割草机之外的移动式的工作设备(例如在室内使用的工作设备)或者固定式的工作设备(例如喷水机)作为工作设备。因此,设置在工作设备中的行驶用致动器以及工作用致动器的结构不限于上述结构。
即,以上的说明仅是一个例子,且只要不损害本发明的特征,本发明不限于上述实施方式以及变形例。还能够任意组合上述实施方式和变形例的一个或者多个。
附图标记说明
1工作设备、11返工判断部、13满意度推定部、14工作内容决定部、15致动器控制部、20生物体信息检测部、21相机、22麦克风、23热成像仪、26工作用致动器、27行驶用致动器、100、100A工作***。
Claims (7)
1.一种工作***,具有自动进行工作的工作设备,其特征在于,
具备:
工作用致动器,设置在所述工作设备中;
用户样态检测部,检测根据工作满意度而变化的用户的样态;
返工判断部,在由所述工作设备进行了给定的工作之后,基于由所述用户样态检测部检测的用户的样态判断是否需要返工;以及
致动器控制部,若由所述返工判断部判断为需要返工,则控制所述工作用致动器,使得进行返工。
2.根据权利要求1所述的工作***,其特征在于,
所述返工判断部具有基于由所述用户样态检测部检测的用户的样态来推定用户的工作满意度的满意度推定部,在由所述满意度推定部推定的工作满意度为给定值以下时,判断为需要返工。
3.根据权利要求1或2所述的工作***,其特征在于,
还具备基于由所述用户样态检测部检测的用户的样态来决定工作内容的工作内容决定部,
若由所述返工判断部判断为需要返工,则所述致动器控制部控制所述工作用致动器,使得进行与由所述工作内容决定部决定的工作内容相应的返工。
4.根据权利要求1至3中的任一项所述的工作***,其特征在于,
所述用户样态检测部具有设置在所述工作设备中的拍摄装置、声音收集装置以及温度成像测量装置中的至少一个。
5.根据权利要求1至4中的任一项所述的工作***,其特征在于,
还具备设置在所述工作设备中的行驶用致动器,
若由所述返工判断部判断为需要返工,则所述致动器控制部控制所述工作用致动器和所述行驶用致动器,使得所述工作设备一边行驶一边进行返工。
6.根据权利要求5所述的工作***,其特征在于,
所述工作设备是一边在工作区域内自主行驶一边进行割草工作的割草机。
7.一种工作方法,使用自动进行工作的工作设备进行工作,其特征在于,
检测根据工作满意度而变化的用户的样态,
基于检测的用户的样态,判断是否需要由所述工作设备进行了给定的工作之后的返工,
若判断为需要返工,则控制设置在所述工作设备中的工作用致动器,使得进行返工。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016-253720 | 2016-12-27 | ||
JP2016253720A JP6681326B2 (ja) | 2016-12-27 | 2016-12-27 | 作業システムおよび作業方法 |
PCT/JP2017/044775 WO2018123599A1 (ja) | 2016-12-27 | 2017-12-13 | 作業システムおよび作業方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110087450A true CN110087450A (zh) | 2019-08-02 |
Family
ID=62707279
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780079117.5A Pending CN110087450A (zh) | 2016-12-27 | 2017-12-13 | 工作***以及工作方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11209814B2 (zh) |
EP (1) | EP3549422B1 (zh) |
JP (1) | JP6681326B2 (zh) |
CN (1) | CN110087450A (zh) |
WO (1) | WO2018123599A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230109631A1 (en) * | 2020-03-27 | 2023-04-06 | Honda Motor Co., Ltd. | Operation management device, operation management program and operation management method |
JP7288417B2 (ja) | 2020-03-31 | 2023-06-07 | 本田技研工業株式会社 | 自律作業システム、自律作業設定方法、およびプログラム |
JP2022155099A (ja) | 2021-03-30 | 2022-10-13 | 本田技研工業株式会社 | 作業機システム |
EP4165973A1 (en) * | 2021-10-12 | 2023-04-19 | Iseki & Co., Ltd. | Work management system for work vehicle |
WO2023181188A1 (ja) * | 2022-03-23 | 2023-09-28 | 本田技研工業株式会社 | 自律芝刈り機 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1372505A (zh) * | 2000-04-03 | 2002-10-02 | 索尼公司 | 机器人控制装置和方法 |
US6629242B2 (en) * | 1997-04-11 | 2003-09-30 | Yamaha Hatsudoki Kabushiki Kaisha | Environment adaptive control of pseudo-emotion generating machine by repeatedly updating and adjusting at least either of emotion generation and behavior decision algorithms |
JP2003310026A (ja) * | 2002-04-22 | 2003-11-05 | Fuji Heavy Ind Ltd | 草刈り作業車 |
JP2006048472A (ja) * | 2004-08-06 | 2006-02-16 | Sharp Corp | 自走式移動車 |
US20130041526A1 (en) * | 2011-08-11 | 2013-02-14 | Chien Ouyang | Robotic Lawn Mower with Network Sensors |
CN103891464A (zh) * | 2012-12-28 | 2014-07-02 | 苏州宝时得电动工具有限公司 | 自动割草*** |
US20150212520A1 (en) * | 2012-09-24 | 2015-07-30 | RobArt GmbH | Robot And Method For Autonomous Inspection Or Processing Of Floor Areas |
US20150296707A1 (en) * | 2012-11-29 | 2015-10-22 | Toshio Fukuda | Autonomous travel work system |
JP2016095661A (ja) * | 2014-11-13 | 2016-05-26 | ヤンマー株式会社 | 無人作業システム |
US20160151917A1 (en) * | 2013-03-15 | 2016-06-02 | JIBO, Inc. | Multi-segment social robot |
CN106092091A (zh) * | 2016-08-10 | 2016-11-09 | 京东方科技集团股份有限公司 | 电子机器设备 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61282897A (ja) * | 1985-06-07 | 1986-12-13 | 井関農機株式会社 | 音声制御装置における音声命令の確認装置 |
US7663333B2 (en) * | 2001-06-12 | 2010-02-16 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US8706297B2 (en) * | 2009-06-18 | 2014-04-22 | Michael Todd Letsky | Method for establishing a desired area of confinement for an autonomous robot and autonomous robot implementing a control system for executing the same |
AU2010348406B2 (en) * | 2010-03-17 | 2014-10-23 | Husqvarna Ab | Method and system for guiding a robotic garden tool to a predetermined position |
IT1401368B1 (it) * | 2010-07-28 | 2013-07-18 | Active Srl | Metodo e sistema per il controllo di un dispositivo robotizzato semovente |
EP2622425B1 (en) * | 2010-10-01 | 2018-06-20 | Husqvarna AB | Method and system for guiding a robotic garden tool |
DE102011082416A1 (de) * | 2011-09-09 | 2013-03-14 | Robert Bosch Gmbh | Autonomes Arbeitsgerät |
US8869115B2 (en) * | 2011-11-23 | 2014-10-21 | General Electric Company | Systems and methods for emotive software usability |
US9241440B2 (en) * | 2013-03-01 | 2016-01-26 | Cnh Industrial Canada Ltd. | Control system for a disc cutterbar using stubble cut quality feedback |
EP2884364B1 (en) * | 2013-12-12 | 2018-09-26 | Hexagon Technology Center GmbH | Autonomous gardening vehicle with camera |
US9516806B2 (en) * | 2014-10-10 | 2016-12-13 | Irobot Corporation | Robotic lawn mowing boundary determination |
US9510505B2 (en) * | 2014-10-10 | 2016-12-06 | Irobot Corporation | Autonomous robot localization |
US9538702B2 (en) * | 2014-12-22 | 2017-01-10 | Irobot Corporation | Robotic mowing of separated lawn areas |
JP6193898B2 (ja) | 2015-02-10 | 2017-09-06 | 本田技研工業株式会社 | 自律走行作業車の制御装置 |
US10034421B2 (en) * | 2015-07-24 | 2018-07-31 | Irobot Corporation | Controlling robotic lawnmowers |
JP6067157B2 (ja) * | 2016-02-09 | 2017-01-25 | 小橋工業株式会社 | リモコンホルダ |
-
2016
- 2016-12-27 JP JP2016253720A patent/JP6681326B2/ja not_active Expired - Fee Related
-
2017
- 2017-12-13 CN CN201780079117.5A patent/CN110087450A/zh active Pending
- 2017-12-13 US US16/473,301 patent/US11209814B2/en active Active
- 2017-12-13 EP EP17886472.4A patent/EP3549422B1/en active Active
- 2017-12-13 WO PCT/JP2017/044775 patent/WO2018123599A1/ja unknown
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6629242B2 (en) * | 1997-04-11 | 2003-09-30 | Yamaha Hatsudoki Kabushiki Kaisha | Environment adaptive control of pseudo-emotion generating machine by repeatedly updating and adjusting at least either of emotion generation and behavior decision algorithms |
CN1372505A (zh) * | 2000-04-03 | 2002-10-02 | 索尼公司 | 机器人控制装置和方法 |
JP2003310026A (ja) * | 2002-04-22 | 2003-11-05 | Fuji Heavy Ind Ltd | 草刈り作業車 |
JP2006048472A (ja) * | 2004-08-06 | 2006-02-16 | Sharp Corp | 自走式移動車 |
US20130041526A1 (en) * | 2011-08-11 | 2013-02-14 | Chien Ouyang | Robotic Lawn Mower with Network Sensors |
US20150212520A1 (en) * | 2012-09-24 | 2015-07-30 | RobArt GmbH | Robot And Method For Autonomous Inspection Or Processing Of Floor Areas |
US20150296707A1 (en) * | 2012-11-29 | 2015-10-22 | Toshio Fukuda | Autonomous travel work system |
CN103891464A (zh) * | 2012-12-28 | 2014-07-02 | 苏州宝时得电动工具有限公司 | 自动割草*** |
US20160151917A1 (en) * | 2013-03-15 | 2016-06-02 | JIBO, Inc. | Multi-segment social robot |
JP2016095661A (ja) * | 2014-11-13 | 2016-05-26 | ヤンマー株式会社 | 無人作業システム |
CN106092091A (zh) * | 2016-08-10 | 2016-11-09 | 京东方科技集团股份有限公司 | 电子机器设备 |
Also Published As
Publication number | Publication date |
---|---|
US11209814B2 (en) | 2021-12-28 |
JP2018106527A (ja) | 2018-07-05 |
US20200150647A1 (en) | 2020-05-14 |
EP3549422A1 (en) | 2019-10-09 |
WO2018123599A1 (ja) | 2018-07-05 |
EP3549422B1 (en) | 2021-07-21 |
JP6681326B2 (ja) | 2020-04-15 |
EP3549422A4 (en) | 2020-01-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110087450A (zh) | 工作***以及工作方法 | |
CN110087451A (zh) | 情绪改善装置以及情绪改善方法 | |
US11745730B2 (en) | Automatic parking control method and apparatus | |
CN111183428B (zh) | 识别自动驾驶车辆的分配的乘客 | |
US20170374277A1 (en) | Image pickup apparatus, image pickup method, and recording medium for imaging plural subjects or a single subject | |
CN110091866B (zh) | 泊车路径获取方法及装置 | |
CN206623754U (zh) | 车道线检测装置 | |
WO2018046015A1 (zh) | 车辆报警方法、装置及终端 | |
JP2009025974A (ja) | 経路計画装置及び方法、コスト評価装置、並びに移動体 | |
KR102500634B1 (ko) | 안내 로봇 및 그의 동작 방법 | |
EP3680754B1 (en) | Orientation of an electronic device toward a user using utterance localization and image processing | |
WO2019188391A1 (ja) | 制御装置、制御方法、並びにプログラム | |
JP2018063476A (ja) | 運転支援装置、運転支援方法及び運転支援用コンピュータプログラム | |
EP3659889A1 (en) | Predetermined calibration table-based vehicle throttle/brake assist system for level 2 autonomous vehicle | |
US11180145B2 (en) | Predetermined calibration table-based vehicle control system for operating an autonomous driving vehicle | |
US20210263521A1 (en) | Autonomous work machine, method of controlling the same, and storage medium | |
US20180329424A1 (en) | Portable mobile robot and operation thereof | |
CN109383519A (zh) | 信息处理方法、信息处理***和程序 | |
CN105406556A (zh) | 一种辅助设备充电***及方法 | |
US20230315117A1 (en) | Mobile body control device, mobile body control method, and non-transitory computer-readable storage medium | |
JP2017159884A (ja) | 運転制御装置、運転制御方法及び運転制御プログラム | |
CN108180908A (zh) | 机器人导航方法和机器人 | |
CN115223115A (zh) | 信息处理装置及其控制方法、移动体的控制装置和控制方法以及记录介质 | |
JP2008012636A (ja) | 人物識別システム | |
JP2008012635A (ja) | 人物識別システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190802 |