CN113778114A - 控制***、控制方法以及存储介质 - Google Patents

控制***、控制方法以及存储介质 Download PDF

Info

Publication number
CN113778114A
CN113778114A CN202111004351.6A CN202111004351A CN113778114A CN 113778114 A CN113778114 A CN 113778114A CN 202111004351 A CN202111004351 A CN 202111004351A CN 113778114 A CN113778114 A CN 113778114A
Authority
CN
China
Prior art keywords
user
moving object
emotion
environment
control system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111004351.6A
Other languages
English (en)
Inventor
盐野崎敦
池田聪
田原哲雄
宫岛靖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN113778114A publication Critical patent/CN113778114A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/89Arrangement or mounting of control or safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/656Interaction with payloads or external entities
    • G05D1/689Pointing payloads towards fixed or moving targets
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • B64U2201/104UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] using satellite radio beacon positioning systems, e.g. GPS
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Combustion & Propulsion (AREA)
  • General Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)
  • Navigation (AREA)
  • Manipulator (AREA)
  • Air Conditioning Control Device (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

[问题]为了提供一种控制***、控制方法和存储介质,通过所述控制***、控制方法和存储介质,可以根据用户的情绪利用移动物体改变用户的周围环境。[解决方案]提供了一种控制***,包括:估计单元,估计用户的情绪;以及移动物体控制单元,根据所估计的情绪控制移动物体来改变用户的周围环境同时跟踪所述用户。

Description

控制***、控制方法以及存储介质
本发明申请为申请日为2015年8月4日并于2017年4月28日进入中国国家阶段的发明名称为“控制***、控制方法以及存储介质”的第201580059112.7号发明专利申请的分案申请。
技术领域
本公开内容涉及控制***、控制方法和存储介质。
背景技术
近来,已经提出了用于自动地控制机器人以将用户的生活改善为舒适生活的技术。
例如,下面的专利文献1公开了一种机器人,其根据人的表情来估计人的情绪状态,并向不与该人一起生活的家庭成员传递信息。下面的专利文献2公开了一种用于根据捕获的图像和生物信息来估计用户的情绪并且根据情绪估计结果改变机器人的行为或改变主题的技术。下面的专利文献3公开了一种通信机器人,其根据用户对机器人的触摸的强度等来判断用户的性情,并且根据触摸持续时间来确定情绪。
另外,下面的专利文献4和5提出了根据太阳的位置通过电动机调节太阳伞的角度的装置。
文献列表
专利文献
专利文献1:JP 2013-246517A
专利文献2:JP 2012-59107A
专利文献3:JP 2008-278981A
专利文献4:WO 2013-020562
专利文献5:US 2006-0124122
发明内容
技术问题
然而,上述专利文献没有考虑用于跟踪移动用户并改变用户的周围环境的技术。在专利文献4和5中描述的技术基于假设人保持在相同地点的情况来控制诸如沙滩阳伞的固定设备并且不能改变移动的人的周围环境。
例如,如果在用户外出时突然开始下雨,则用户具有要避雨的感觉(或者由于下雨而变湿的不舒服的感觉)。可以通过根据用户的感觉来控制移动对象以局部改变用户的周围环境,使得用户不会被雨淋湿,从而改善用户的生活。
因此,本公开内容提出了一种控制***、控制方法和存储介质,通过该控制***、控制方法和存储介质,移动对象可以根据用户的情绪改变用户的周围环境。
问题的解决方案
根据本公开内容,提供了一种控制***,其包括:估计单元,其估计用户的情绪;以及移动对象控制器,其根据所估计的情绪控制移动对象来改变用户的周围环境同时跟踪所述用户。
根据本公开内容,提供了一种控制方法,包括:估计用户的情绪;以及根据所估计的情绪控制移动对象来改变用户的周围环境同时跟踪所述用户。
根据本公开内容,提供了一种其中存储有程序的存储介质,所述程序在由计算机执行时使计算机用作:估计单元,其估计用户的情绪;以及移动对象控制器,其根据所估计的情绪控制移动对象来改变用户的周围环境同时跟踪所述用户。
发明的有益效果
根据上述本公开内容,移动对象可以根据用户的情绪来改变用户的周围环境。
注意,上述效果不一定是限制性的。使用或代替上述效果,可以实现本说明书中描述的效果或者可以根据本说明书获得的其他效果中的任一效果。
附图说明
[图1]图1是根据本公开内容的实施方式的环境调节***的概况的说明图。
[图2]图2是跟踪用户的移动对象的示例的图示。
[图3]图3是示出根据本实施方式的移动对象的配置的示例的框图。
[图4]图4是示出根据本实施方式的环境调节服务器的配置的示例的框图。
[图5]图5是根据本实施方式的环境热图的示例的说明图。
[图6]图6是根据本实施方式的情绪热图和综合热图的示例的说明图。
[图7]图7是示出根据本实施方式的情绪服务器的配置的示例的框图。
[图8]图8是示出根据本实施方式的环境调节***的环境调节操作处理的流程图。
[图9]图9是通过本实施方式的移动对象遮挡雨和阳光的概况的说明图。
[图10]图10是通过本实施方式的移动对象的遮挡范围的扩展的说明图。
[图11]图11是通过本实施方式的多个移动对象的遮挡范围的扩展的说明图。
[图12]图12是示出根据本实施方式的遮挡雨的环境改变的操作处理的流程图。
[图13]图13是在遮挡雨期间移动对象相对于目标用户的相对位置的计算的说明图。
[图14]图14是示出根据本实施方式的遮挡阳光的环境改变的操作处理的流程图。
[图15]图15是在遮挡阳光期间移动对象相对于目标用户的相对位置的计算的说明图。
[图16]图16是示出根据本实施方式的基于情绪值改变遮挡范围的处理的流程图。
[图17]图17是通过本实施方式的移动对象进行的照明控制的说明图。
[图18]图18是示出通过本实施方式的移动对象进行的照明控制处理的流程图。
[图19]图19是在照明期间移动对象的照明方向(角度)和位置的计算的说明图。
[图20]图20是根据本实施方式的通过空气幕进行环境改变的说明图。
[图21]图21是示出根据本实施方式的通过空气幕进行环境改变的操作处理的流程图。
[图22]图22是根据本实施方式的通过阻挡烟雾进行环境改变的说明图。
[图23]图23是示出根据本实施方式的通过阻挡烟雾进行环境改变的操作处理的流程图。
[图24]图24是根据本实施方式的通过音乐播放进行环境改变的说明图。
[图25]图25是示出根据本实施方式的通过音乐播放进行环境改变的操作处理的流程图。
具体实施方式
在下文中,将参照附图详细描述本公开内容的一个或更多个优选实施方式。在本说明书和附图中,具有基本相同的功能和结构的结构元件用相同的附图标记表示,并且省略对这些结构元件的重复描述。
另外,将按照以下顺序给出描述。
1.根据本公开内容的实施方式的环境调节***的概况
2.基本配置和操作
2-1.移动对象的配置
2-2.环境调节服务器的配置
2-3.情绪服务器的配置
2-4.环境调节操作
3.环境改变的示例
3-1.遮挡雨和阳光
3-2.照明
3-3.风、水等的输出
3-4.音乐播放
4.结论
<<1.根据本公开内容的实施方式的环境调节***的概况>>
首先,将参照图1描述根据本公开内容的实施方式的环境调节***1的概况。如图1所示,根据本实施方式的环境调节***1包括跟踪用户以改变用户的周围环境的移动对象6和控制移动对象6的环境调节服务器7。环境调节服务器7经由接入点等与移动对象6进行通信,并执行对移动对象6的移动控制等。移动对象6可以是多个移动对象6a至6c,并且可以利用安装在户外的基站等作为基础点来移动,如图1所示。
另外,环境调节服务器7经由网络3连接至情绪服务器2和热图服务器75,并且获取移动对象6的移动控制所需的信息。环境调节服务器7可以通过使移动对象6跟踪用户并且根据用户的情绪局部地改变周围环境来为用户提供愉快的环境。
移动对象6可以是如图1所示的小型无人机并且可以如图2所示在跟踪移动用户的同时飞行。此外,移动对象6不限于图1所示的飞行对象并且可以是例如如图2所示在跟踪用户的同时在地面上移动的机器人类型的移动对象6',或者在水中的移动对象(未示出)。图1和图2所示的移动对象6和6'的形式是示例,并且本实施方式不限于此。
此外,如图2所示,用户可以佩戴用于获取诸如脉搏和温度的生物信息的带型通信终端(下文称为智能带)8。智能带8将获取的生物信息发送到移动对象6。从用户获取的生物信息可以用作用于估计用户的情绪的信息。
已经描述了根据本公开内容的环境调节***1的概况。接下来,将参照图3至图8描述包括在环境调节***1中的装置的具体配置和基本操作。
<<2.基本配置和操作>>
<2-1.移动对象的配置>
图3是示出根据本实施方式的移动对象6的配置的示例的框图。如图3所示,移动对象6包括通信单元61、目标对象传感器62、移动对象控制器63和环境传感器64。图3所示的配置是示例并且移动对象6还可以包括例如变换控制器65和输出单元66。
通信单元61向环境调节服务器7发送数据/从环境调节服务器7接收数据。例如,通信单元61将通过目标对象传感器62和环境传感器64获取的传感器信息发送到环境调节服务器7,并且接收来自环境调节服务器7的包括移动控制和变换控制的指令的控制信息。
目标对象传感器62是获取关于跟踪目标对象的信息的感测单元。这里,跟踪目标对象对应于例如户外移动的用户。具体地,目标对象传感器62通过例如摄像装置62a、红外摄像装置62b、无线电信号接收器62c或麦克风阵列62d来获取关于用户的信息。
摄像装置62a是利用可见光的一般拍摄装置,并且拍摄跟踪目标对象以获取拍摄的图像。另外,红外摄像装置62b是利用非可见光的拍摄装置的示例,并且拍摄跟踪目标对象以获取红外图像。无线电信号接收器62c接收例如从用户佩戴的智能带8发送的用户的生物信息。此外,无线电信号接收器62c还检测用于指定用户的位置的信标等。麦克风阵列62d获取诸如用户的脚步声的环境声音。
上述目标对象传感器62的具体示例是示例,并且目标对象传感器62还可以包括超声波传感器、距离测量传感器等。
移动对象控制器63具有控制移动对象6的移动的功能。具体地,移动对象控制器63包括动力驱动单元63a和姿态控制器63b,如图3所示。动力驱动单元63a由例如螺旋桨、车轮或者行走腿实现,并且根据移动对象控制器63的控制来操作以跟踪目标用户。另外,姿态控制器63b通过陀螺仪传感器等感测移动对象6的姿态,并控制动力驱动单元63a调节移动对象6的倾斜度和高度。根据本公开内容的移动对象控制器63可以通过控制移动对象6的飞行路径和高度来局部改变用户的周围环境,以使得移动对象6变成例如为用户遮挡雨或阳光的遮挡物。
环境传感器64是获取关于周围环境的信息的感测单元。具体地,环境传感器64通过例如纬度经度定位单元64a或高度传感器64b获取环境信息。环境传感器64的具体示例不限于图3所示的示例并且环境传感器64还可以根据需要包括温度传感器、湿度传感器等。
变换控制器65执行变换移动对象6的形状的控制,以扩展在遮挡雨或阳光时的遮挡范围。下面将参照图10和图11描述通过移动对象6扩展遮挡范围。
输出单元66提供用于改变用户的周围环境的各种输出。例如,输出单元66由照明单元(灯)、风(空气)输出单元、水输出单元、激光输出单元等实现。另外,输出单元66根据环境调节服务器7的控制执行输出控制。
前述移动对象6配备有包括中央处理单元(CPU)、只读存储器(ROM)、随机存取存储器(RAM)和非易失性存储器的微型计算机,以控制移动对象6的每个部件。
<2-2.环境调节服务器的配置>
图4是示出根据本实施方式的环境调节服务器7的配置的示例的框图。如图4所示,环境调节服务器7包括通信单元71、控制器70和用户数据库(DB)72。
通信单元71向外部设备发送数据/从外部设备接收数据。具体地,例如,通信单元71从移动对象6接收目标对象信息和环境信息,并且向移动对象6发送用于控制移动对象6的移动的控制信息。此外,通信单元71经由网络3从情绪服务器2和热图服务器75获取预定数据。
控制器70控制环境调节服务器7的每个部件。具体地,控制器70控制移动对象6跟踪目标用户,以根据用户的情绪改变目标用户的周围环境。另外,控制器70由包括CPU、ROM、RAM和非易失性存储器的微型计算机实现。
这里,控制器70用作用户设置和管理单元70a、目标对象检测单元70b、情绪估计单元70c、环境信息获取单元70d、热图生成/获取单元70e、情绪值计算单元70f和移动对象控制器70g,如图4所示。
用户设置和管理单元70a管理使用本***的用户的信息的注册、改变和删除。例如,用户的信息包括用户的姓名、识别号、面部图像、年龄、性别、爱好、品味、家庭地址、工作地点、行为模式等。用户的爱好和品味可以由用户输入或者可以通过分析用户的生活日志、上传到社交媒体的内容、邮件和消息工具的文本内容、与朋友和家人的对话、购买历史、日程表等来自动地设置。此外,可以通过生活日志(具体地,过去的行为历史)、购买历史等来自动设置用户的行为模式。用户设置和管理单元70a将用户的信息存储在用户DB 72中并管理该信息。
目标对象检测单元70b基于从移动对象6发送的目标对象传感器信息来检测位于移动对象6附近的人、由该人携带的对象等。具体地,目标对象检测单元70b可以例如通过分析从移动对象6发送的捕获图像并将捕获的图像与注册在用户DB 72中的用户的面部图像进行比较来检测目标用户。否则,目标对象检测单元70b可以基于由移动对象6从诸如由用户佩戴的智能带8的无线电通信装置接收的用户识别信息来检测目标用户。当检测到目标用户时,目标对象检测单元70b将检测结果输出到情绪估计单元70c。目标对象检测单元70b的上述目标用户检测方法是示例,根据本实施方式的目标用户检测方法不限于此。
情绪估计单元70c估计由目标对象检测单元70b检测到的目标用户的情绪。具体地,情绪估计单元70c基于例如生物信息(脉搏、温度、出汗量、脑电波等)估计目标用户的情绪。生物信息由图2所示的智能带8获取,从智能带8发送到移动对象6,并从移动对象6发送到环境调节服务器7。
此外,情绪估计单元70c可以基于目标用户的特质(性别、年龄、身高、体重、个性、职业等)、爱好和品味以及周围环境来估计目标用户的情绪。例如,在年轻女性的情况下,估计到在白天想要避免暴露于直接阳光的情绪(担心晒伤)和在夜间害怕黑暗道路(夜间道路、没有路人的道路等)的情绪。此外,在上班人员通勤或工作的情况下,估计到由于他或她携带的重要文件而不希望在雨中弄湿的情绪。可以从用户DB 72获取目标用户的这样的特质、爱好和品味的信息。情绪估计单元70c将估计结果输出到热图生成/获取单元70e。
环境信息获取单元70d通过通信单元71从移动对象6获取关于周围环境的信息。具体地,环境信息获取单元70d获取由移动对象6的环境传感器64感测的数据(纬度、经度、高度等)作为环境信息。此外,环境信息获取单元70d可以根据移动对象6的位置(纬度和经度信息),从预定服务器获取周围地理信息、建筑物信息等作为环境信息。环境信息获取单元70d向热图生成/获取单元70e输出所获取的环境信息。
热图生成/获取单元70e基于情绪估计单元70c的估计结果和从环境信息获取单元70d输出的环境信息,来生成地理地映射情绪的情绪热图。更具体地,热图生成/获取单元70e基于多个用户的情绪的估计结果来生成表示在某些位置是否存在许多具有某些情绪的用户的情绪热图。另外,除了情绪估计单元70c的估计结果之外,热图生成/获取单元70e还可以基于通过分析写在社交媒体上的内容和邮件的内容而获得的结果来收集与地点相关联的情绪。具体地,由于在雨中淋湿而引起的不愉快的感觉、由于湿的文件导致的挫折感、在购物回来时由于双手拿满东西而不能打开自己的伞的沮丧感、由于与晴朗天气相比在雨天不得不采取更长的路径而引起的不舒适感等与位置相关联并且被映射到位置。
另外,热图生成/获取单元70e基于从环境信息获取单元70d输出的环境信息(纬度、经度、高度、地理信息、建筑物信息等)生成围绕目标用户的当前位置的环境热图。更具体地,热图生成/获取单元70e生成指示在雨中容易变湿的位置的环境热图“雨”,指示与建筑物的阴影对应的位置的环境热图“阴影”等。例如,因为根据地理地形(地理信息)和诸如拱廊、地下购物中心和屋檐的人造建筑识别在雨中容易变湿的位置和不容易变湿的位置,所以可以通过对地理特征和建筑物的模拟来确定在雨中容易变湿的位置,或者可以基于由移动对象6实际测量的降雨量等来确定在雨中容易变湿的位置。此外,可以手动输入关于在雨中容易变湿的位置的信息。否则,热图生成/获取单元70e可以通过收集用户主动将移动对象6呼叫至他或她所位于的位置用于遮挡雨的记录或者经由诸如附接至用户身体的水滴传感器的各种传感器收集在雨中实际变湿的位置的记录,来确定在雨中容易变湿的位置。
以这种方式生成的热图可以存储在网络上的热图服务器75中或存储在环境调节服务器7的存储单元(未示出)中。此外,可以周期性地更新热图。
另外,热图生成/获取单元70e可以生成情绪热图和环境热图的综合热图。
这里,参照图5和图6描述由热图生成/获取单元70e生成的各种热图。热图生成/获取单元70e将预定的环境度(例如,易于被雨淋湿的区域)映射到如图5的左部分所示的目标区域的地图40以生成如图5的右部分所示的环境热图41。当环境热图41是“雨”时,较暗颜色的位置在雨中较容易变湿。
另外,热图生成/获取单元70e将预定的情绪度(例如,由于在雨中变湿而引起的不愉快情绪)映射到图5的左部分所示的目标区域的地图40以生成如图6的左部分中所示的情绪热图42。当情绪热图42是“不愉快”时,较暗颜色的位置表示用户由于他或她在雨中变湿而较不悦或沮丧的位置。
此外,热图生成/获取单元70e综合环境热图41与情绪热图42以生成如图6的右部分所示的综合热图43。在这种情况下,可以通过向热图中的一个施加特定权重来将环境热图或情绪热图视为重要。
以这种方式生成的综合热图以综合方式成为用于确定“保护用户免受雨淋的值高的区域”的信息。
热图生成/获取单元70e将所生成的综合热图输出到移动对象控制器70g。
如上所述,期望以固定的间隔更新环境热图和情绪热图,因为例如在构建新建筑物的情况下,在雨中容易变湿的位置和对应于建筑物的阴影的位置改变。另外,还期望以固定的间隔更新情绪热图,因为考虑每天增加新的情绪,并且情绪可以根据季节、日期和时间而变化,例如,在夏天在雨中变湿可能不会造成不愉快的感觉,冬天的冷雨会引起非常不愉快的感觉。
此外,热图更新频率可以根据热图类型而具有不同的周期。例如,在紫外线强度热图的情况下,某一位置是否暴露于太阳根据每天的时间和季节而变化。因此,期望以短的间隔更新紫外线强度图。另外,由于紫外线强度也取决于天气(阴天、晴天等),因此考虑生成用于阴天和晴天的单独的紫外线强度热图。
此外,热图生成/获取单元70e可以利用重复的季节要素和从天气预报获得的信息来预测和生成未来环境热图。此外,热图生成/获取单元70e可以基于地下通道或拱廊构建计划来预测和生成未来环境热图。另外,可以基于实际测量值实时地更新通过预测生成的环境热图,或者可以通过稍后反馈来提高预测的准确度。
此外,关于情绪热图,例如,如果可以从过去的情绪热图数据中提取诸如在工作日办公区域中有很多人并且在假日有较少的人的周期性,则可以预测将存在较少的在雨中变得沮丧的人,甚至因为没有拥挤而可以愉快地通过被雨遮挡的狭窄区域而不会被弄湿(或者不会暴露于紫外线)等。
情绪值计算单元70f计算对于由目标对象检测单元70b检测到的目标用户的所有物和伴随目标用户的人的情绪值(即,相对情绪值)。具体地,情绪值计算单元70f从情绪服务器2获取与目标用户的对象ID相关的交互评估,并且基于交互评估来计算目标用户的相对情绪值。这里,交互评估是对目标用户相对于另一个人或对象执行的交互(即,行为)的估计,并且可以在计算目标用户相对于其他人或对象的感觉(在说明书中称为情绪值)时使用。
例如,在情绪服务器2中存储频繁地维护他或她拥有的手表的目标用户的交互的估计以及在为其特别设计的情况下保存手表的交互的估计,并且情绪值计算单元70f获取对目标用户的这种交互评估并计算情绪值。虽然估计值计算方法没有特别限制,但是例如可以通过交互类型来对与目标用户的特定对象(相关对象)的交互进行分类,并且可以根据交互类型利用加权函数来对关于特定对象的所有交互的估计进行平均。可以从用户DB 72获取目标用户的对象ID。
移动对象控制器70h基于从热图生成/获取单元70e输出的综合热图确定目标用户在其中移动的路线上需要改变环境的区域,并且控制移动对象6以改变用户的周围环境。基于综合热图的值是否高于预定阈值来执行需要改变环境的区域的确定。以这种方式,例如当目标用户经过用户在雨中容易变湿的位置时,通过使移动对象6跟踪目标用户来局部改变目标用户的周围环境,以通过利用通过使情绪热图和环境热图综合而获得的综合热图来遮挡雨,从而使得目标用户能够处于愉快的状态。
虽然利用通过使在本实施方式中反映多个用户的情绪估计结果的情绪热图与基于诸如地理特征的环境信息生成的环境热图综合而获得的综合热图,通过移动对象6执行环境调节,以使得目标用户在移动期间不处于不愉快状态,但是本实施方式不限于此。例如,当用户的情绪变得不愉快时,移动对象控制器70g可以根据情绪估计单元70c的估计结果控制移动对象6来局部改变周围环境,以使用户具有愉快的感觉。
此外,当通过移动对象6改变目标用户的周围环境时,移动对象控制器70h可以根据由情绪值计算单元70f获得的关于目标用户的所有物或与目标用户一起的人的情绪值(估计度),执行通过移动对象6扩展遮挡范围或者优先于目标用户遮挡目标用户的所有物或与目标用户一起的人的控制。
已经详细描述了根据本实施方式的环境调节服务器7的配置。接下来,将参照图7描述根据本实施方式的情绪服务器2的配置。
<2-3.情绪服务器的配置>
图7是示出根据本实施方式的情绪服务器2的配置的示例的框图。如图7所示,情绪服务器2包括通信单元21、控制器20、对象DB 22和情绪信息DB 24。
通信单元21通过网络3连接至环境调节服务器7,并且返回与由环境调节服务器7指定的目标用户的对象ID相关联的交互评估。另外,通信单元21从附接至/安装在每个对象(人或对象)上的感测装置(未示出)接收交互信息。
控制器20控制情绪服务器2的每个部件。此外,控制器20由包括CPU、ROM、RAM和非易失性存储器的微型计算机实现。此外,根据本实施方式的控制器20用作交互存储控制器20a、估计单元20b、对象管理单元20c和相关对象搜索单元20d。
交互存储控制器20a控制从附接至/安装在对象上的感测装置接收的交互信息存储在情绪信息DB 24中。感测装置包括湿度传感器、温度传感器、振动传感器、红外传感器、摄像装置、触觉传感器、陀螺仪传感器等,并且感测一个对象与另一对象的交互。
估计单元20b估计存储在情绪信息DB 24中的交互。虽然交互评估方法没有特别限制,但是例如当交互对于对象更加期望时,估计单元20b将施加到对象的交互评估为较高,并且具体地为其分配在-1到1的范围内的分数。估计结果与交互相关联并存储在情绪信息DB 24中。
对象管理单元20c执行诸如对关于存储在对象DB 22中的对象的信息进行注册、改变和删除的管理。
相关对象搜索单元20d在对象DB 22和情绪信息DB 24中搜索关于请求对象ID产生了交互的对象作为相关对象。
对象DB 22是存储每个对象的对象ID的存储单元。另外,对象DB 22除了对象ID之外还存储关于对象的各种类型的信息,例如产品名称、产品类型、制造商ID、型号以及制造日期和时间。
情绪信息DB 24是存储对象之间的交互以及交互的估计的存储单元。
已经描述了根据本实施方式的情绪服务器2的具体配置。
<2-4.环境调节操作>
接下来,将参照图8描述包括上述装置的环境调节***中的环境调节操作。图8是示出根据本实施方式的环境调节***的环境调节操作处理的流程图。该流程图示出了当用户从某个地方移动到目的地时从施加环境改变的开始到终止的流程。环境调节服务器7根据用户的目的地、移动路线和时间获取用户的移动路线的天气等,将天气与用户的情绪进行比较,并控制移动对象6以改变用户的周围环境使得用户可以在较愉快的状态下移动。
具体地,首先,在步骤S103中,环境调节服务器7获取关于目标用户的当前位置和目的地以及目的地到达时间信息的环境信息。
随后,在步骤S106中,环境调节服务器7的情绪估计单元70c获取用户的特质、爱好、品味、生物信息等。
接下来,在步骤S109中,情绪估计单元70c估计用户的情绪。这里,情绪估计单元70c可以基于用户的特质、爱好、品味、生物信息等来估计从当前位置到目的地的路线上的当前环境中用户的情绪。例如,当用户是30几岁的女性时,从过去的行为历史、对话、写作等中提取用户通常携带遮阳伞的事实,并且从购买历史中提取购买了防晒霜和遮阳伞的事实,估计该女性有担心紫外线、直接阳光和晒伤的感觉(不愉快的情绪)。另一方面,当提取到用户通常享受晒太阳的品味时,估计用户具有享受紫外线、直接阳光和晒太阳的感觉(愉快的情绪)。另外,情绪估计单元70c可以基于用户的生物信息(体温、脉搏、心跳、出汗量、脑电波等)来估计用户关于当前周围环境的情绪(愉快/不愉快的感觉)。
随后,环境调节服务器7的控制器70基于步骤S112中的估计结果确定是否需要改变环境。具体地,例如,当用户具有担心紫外线、直接阳光和晒伤的感觉(不愉快的情绪)时,控制器70确定如果当前位置和目的地的天气晴朗并且暴露于直接阳光则需要改变环境。另一方面,当用户具有享受晒太阳的感觉(愉快的情绪)时,控制器70确定如果当前位置和目的地的天气晴朗并且暴露于直接阳光则不需要改变环境。以这种方式,用户对于特定环境是否具有愉快的情绪或不愉快的情绪取决于用户的特质、爱好、品味等,并且控制器70可以根据用户的特质、爱好、品味、生物信息等来确定是否需要改变环境。
接着,在需要改变环境的情况下(在S112中为“是”),在步骤S115中热图生成/获取单元70e根据必要的环境改变获取并生成环境热图。例如,在需要遮挡紫外线和直接阳光的环境改变时,热图生成/获取单元70e从热图服务器75获取表示在包括从当前位置到目的地的移动路线的区域中容易暴露于直射阳光的地方的环境热图。另外,热图生成/获取单元70e可以在所获取的环境热图中反映关于当前位置和目的地的当前环境信息,以更新环境热图。此外,当不能获取相应的环境热图时,热图生成/获取单元70e可以基于关于当前位置和目的地等的当前环境信息来生成相应的环境热图。
随后,在步骤S118中,热图生成/获取单元70e根据必要的环境改变来获取并生成情绪热图。例如,热图生成/获取单元70e从热图服务器75获取表示担心紫外线和直接阳光的多个用户的情绪,在包括从当前位置到目的地的移动路线的区域中由于暴露于直接阳光下的不愉快情绪等的情绪热图。另外,热图生成/获取单元70e可以在获取的情绪热图中反映目标用户的当前情绪,以更新情绪热图。此外,当不能获取相应的情绪热图时,热图生成/获取单元70e可以基于目标用户的当前情绪等生成相应的情绪热图。
此后,在步骤S121中,热图生成/获取单元70e使所获取的环境热图与情绪热图综合以生成综合热图。例如,通过使由于暴露于直接阳光而产生的令人不愉快的情绪的位置与容易暴露于直接阳光的位置综合来高度识别其中需要保护目标用户免受直接阳光的区域。热图生成/获取单元70e将所生成的综合热图输出到移动对象控制器70g。
随后,在步骤S124中,移动对象控制器70g参照综合热图确定在用户的移动路线上是否存在高于阈值的热图区域。
此后,当存在高于阈值的热图区域时(在S124中为“是”),在步骤S127中,移动对象控制器70g控制移动对象6以改变目标用户的周围环境。具体地,移动对象控制器70g使移动对象6跟踪目标用户以在遮挡雨或阳光的位置飞行、吹冷暖风、打开灯或播放音乐从而改变目标用户的周围环境。将在后面详细描述环境改变。
然后,在步骤S130中,环境调节服务器7确定用户是否已到达目的地。例如,当用户已经到达目的地时,环境调节操作结束,因此移动对象控制器70g控制移动对象6返回预定基站。
当用户还没有到达目的地时(在S130中为“否”),在步骤S133中,环境调节服务器7通过目标对象检测单元70b和环境信息获取单元70d获取用户的当前位置信息和当前位置的环境信息。
然后,在步骤S136中,热图生成/获取单元70e基于获取的环境信息来更新环境热图,并且将环境热图与情绪热图综合以更新综合热图。更新的综合热图被输出到移动对象控制器70g,并且重复步骤S124至步骤S136,直到用户到达目的地。
已经详细描述了根据本实施方式的环境调节***的操作处理。接下来,将通过多个具体示例来描述根据本实施方式的环境改变的具体示例。
<<3.环境改变的示例>>
<3-1.遮挡雨和阳光>
首先,将参照图9至图16描述其中由移动对象6遮挡雨和阳光的环境改变的情况。
图9是由本实施方式的移动对象6遮挡雨和阳光的概况的说明图。如图9所示,当移动对象6是飞行对象时,移动对象可以在保持在用户上方的同时飞行并跟踪移动用户以用作雨伞(移动对象6-1)或遮阳伞(移动对象6-2),使得用户不暴露于雨或直接阳光,从而局部改变用户的周围环境。
这里,移动对象6可以包括用于如上所述地扩展遮挡范围的变换控制器65,并且通过变换控制扩展遮挡雨或阳光的遮挡范围以向与目标用户一起的朋友、婴儿车或大行李等施加环境改变。例如,如图10所示,可以通过改变具有从移动对象6的中心以圆形延伸的板构件651的移动对象6的尺寸来扩展移动对象6的遮挡范围。否则,可以如图11所示连接多个移动对象6a和6b以遮挡较广的范围。具体地,为了扩展主移动对象6a的遮挡范围,在主移动对象6a附近的另一移动对象6b被调用,并且设置在移动对象6a中的板653在它们彼此靠近(例如,设置在移动对象6b的接点中的磁体打开(ON)等)时连接至移动对象6b。然后,如图11所示,通过控制两个移动对象彼此飞离预定距离,可以通过板653来扩展遮挡范围。从移动对象6b可以以与主移动对象6a的飞行模式相同的飞行模式飞行。
这种遮挡范围可以由目标用户手动设置,或者通过面部识别进行跟踪,从捕获的图像中提取衣服或所有物的特征或者提取附加到所有物上的特定标记等由环境调节服务器7的移动对象控制器70g来自动设置。
(遮挡雨的操作处理)
接下来,将参照图12描述当由移动对象6-1执行用于遮挡雨的环境改变时的操作处理。图12是示出根据本实施方式的用于遮挡雨的环境改变的操作处理的流程图。
如图12所示,首先,在步骤203中,环境调节服务器7的移动对象控制器70g设置目标用户的初始位置。如参照图8所描述的,移动对象控制器70g确定在从目标用户的当前位置到目的地的移动路线上需要改变环境的区域,并控制移动对象6-1。在这种情况下,当目标用户通过需要改变环境的区域时,移动对象控制器70g将相应的目标区域设置为目标用户的初始位置,并使具有靠近作为起点的目标区域的基站的移动对象6-1开始飞行。本实施方式基于如下情况:其中,具有安装在户外等作为起点的基站的每个移动对象6-1飞行,并且当目标用户移动到下一个区域时,飞行的具有安装在作为起点的下一区域中的基站的移动对象6-1'跟踪目标用户。然而,本实施方式不限于此,并且例如,可以控制目标用户拥有的移动对象6-1,以在目标用户移动期间连续地跟踪目标用户。
接下来,在步骤S206中,由移动对象6-1检测目标用户。具体地,例如,基于由包括在移动对象6的目标对象传感器62中的摄像装置62a捕获的捕获图像,由环境调节服务器7的目标对象检测单元70b执行图像分析,以识别目标用户的面部图像来检测目标用户。此外,可以通过经由红外摄像装置62b检测附接到目标用户的标记(例如,红外反射器或红外LED)等来提高目标用户检测精度。
随后,当检测到目标用户时(在S209中为“是”),移动对象控制器70g在步骤S212中基于设置在移动对象6-1中的降雨/风向传感器(环境传感器64的示例)的检测值,获取降落在目标用户上的雨的方向和数量(图13所示的雨的降雨单位矢量Rv(x,y,z))。
此后,移动对象控制器70g通过将移动对象6-1移动到目标用户和雨之间的空间来控制移动对象6-1以执行挡雨。这里,如下获得移动对象6-1相对于目标用户移动的相对位置。
图13是在挡雨期间移动对象6-1相对于目标用户的相对位置的计算的说明图。如图13所示,利用降雨的方向Rv(x,y,z),目标用户的位置T(x,y,z)以及通过从移动对象6-1的高度中减去目标用户的高度而获得的高度dh,根据下面的式1获得移动对象6-1的位置O(x,y,z)。Rv_z表示Rv的z分量。
(式1)
O=(T-Rv·dh/Rv_z)
移动对象控制器70g控制移动对象6-1移动到获得的位置O(x,y,z)。另外,当需要遮挡宽范围时,例如当存在多个用户时,移动对象控制器70g通过连接多个移动对象6-1或变换移动对象6-1来控制要扩展的遮挡范围。
此后,在步骤S218中,移动对象控制器70g基于目标用户的先前位置和当前位置来计算目标用户的移动矢量。此外,移动对象6-1在保持相对于目标用户的相对位置O(x,y,z)的同时飞行并跟踪目标用户,并且在通过摄像装置62a跟踪目标用户或通过无线电信号接收器62c接收从目标用户拥有的通信终端(智能设备、智能手机等)发送的无线电波(蓝牙(注册商标)或Wi-Fi(注册商标))的同时将目标用户保持在视线内。
随后,在步骤S221中,移动对象控制器70g确定目标用户是否已到达目的地,并且在目标用户已经到达目的地时终止由移动对象6-1进行的跟踪飞行和环境调节控制。
另一方面,当未检测到目标用户时(在S209中为“否”),如果没有经过固定的时间(在S224中为“否”),则在步骤S227中移动对象控制器70g基于最终检测到的目标用户的位置、此时计算的移动矢量以及当前经过的时间来估计向目的地移动的目标用户的当前位置。
然后,在步骤S230中,移动对象控制器70g控制移动对象6-1向估计的目标用户的当前位置移动。
在经过了固定时间而没有检测到目标用户的情况下(在S224中为“是”),移动对象控制器70g再次设置目标用户的初始位置(S203)。
(遮挡阳光的操作处理)
接下来,将参照图14描述当通过移动对象6-2执行遮挡阳光的环境改变时的操作处理。图14是示出根据本实施方式的用于遮挡阳光的环境改变的操作处理的流程图。简化对与图12所示的用于遮挡雨的操作处理相同的处理的描述。
如图14所示,首先,在步骤S303中,环境调节服务器7的移动对象控制器70g设置目标用户的初始位置。
然后,在步骤S306中,由移动对象6-2检测目标用户。
随后,当检测到目标用户时(在S309中为“是”),在步骤S312中,移动对象控制器70g基于设置在移动对象6-2中的照度传感器、太阳方位获取单元和日历/时钟单元(环境传感器64的示例)的检测值来获取相对于目标用户的太阳的位置和阳光的方向(图15所示的阳光单位矢量Sv(x,y,z))。对应于环境传感器64的示例的太阳方位获取单元可以根据通过纬度经度定位单元64a和高度传感器64b获取的当前位置信息(纬度、经度和高度)以及由日历/时钟单元检测的当前日期和时间信息来获取太阳的位置和方向。
接下来,在步骤S315中,移动对象控制器70g通过将移动对象6-2移动到目标用户和太阳之间的空间来控制移动对象6-2以执行遮挡阳光。这里,如下获得移动对象6-2相对于目标用户移动的相对位置。
图15是在遮挡阳光期间移动对象6-2相对于目标用户的相对位置的计算的说明图。如图15所示,利用阳光的方向Rv(x,y,z)、目标用户的位置T(x,y,z)以及通过从移动对象6-2的高度中减去目标用户的高度而获得的高度dh,根据下面的式2获取移动对象6-2的位置O(x,y,z)。Sv_z表示Sv的z分量。
(式2)
O=(T-Sv·dh/Sv_z)
移动对象控制器70g将移动对象6-2控制到以这种方式获取的位置O(x,y,z)。
此后,在步骤S318中,移动对象控制器70g基于目标用户的先前位置和当前位置来计算目标用户的移动矢量。此外,移动对象6-2在保持相对于目标用户的相对位置O(x,y,z)的同时飞行并跟踪目标用户,并且在通过摄像装置62a跟踪目标用户或接收从目标用户拥有的通信终端(智能设备、智能手机等)发送的无线电波(蓝牙(注册商标)或Wi-Fi(注册商标))的同时将目标用户保持在视线内。
随后,在步骤S321中,移动对象控制器70g确定目标用户是否已到达目的地,并且当目标用户已经到达目的地时终止由移动对象6-2进行的跟踪飞行和环境调节控制。
另一方面,当未检测到目标用户时(在S309中为“否”),如果没有经过固定的时间(在S324中为“否”),则在步骤S327中移动对象控制器70g基于最终检测到的目标用户的位置、此时计算的移动矢量以及当前经过的时间来估计向目的地移动的目标用户的当前位置。
然后,在步骤S330中,移动对象控制器70g控制移动对象6-2向估计的目标用户的当前位置移动。
在经过了固定时间而没有检测到目标用户的情况下(在S324中为“是”),移动对象控制器70g再次设置目标用户的初始位置(S303)。
(基于情绪值改变遮挡范围)
在本实施方式中,可以基于目标用户的情绪值来改变遮挡范围。因此,可以通过优先地遮挡对目标用户的日常生活重要的对象,遮挡对目标用户重要的人等来提供取决于目标用户的感觉的环境改变。这将参照图16进行详细描述。
图16是示出根据本实施方式的基于情绪值改变遮挡范围的处理的流程图。如图16所示,首先,在步骤S410中,环境调节服务器7的情绪值计算单元70f获取目标用户的对象ID。
接下来,在步骤S412中,由目标对象检测单元70b检测与目标用户一起移动的对象(例如,婴儿车或行李)或与目标用户一起移动的人。
随后,在步骤S415中,情绪值计算单元70f获取检测到的对象或人的对象ID。该对象ID(也称为相关对象ID)可以预先登记在用户DB 72中,或者可以通过相关对象搜索单元20d(参照图7)基于由移动对象6的摄像装置62a获取的捕获图像的分析结果询问情绪服务器2在对象DB22中搜索。
然后,情绪值计算单元70f指定目标用户的对象ID和与目标用户一起移动的对象或人的对象ID,并且从情绪服务器2获取对象用户与对象或人之间的交互评估。交互评估是目标用户对于该人的诸如对话或邮件等行为或目标用户对对象的诸如保存、维护、佩戴或欣赏等行为的估计值(例如,在-1.0至1.0的范围内的数值)。
随后,在步骤S421中,情绪值计算单元70f计算目标用户针对对象/人的情绪值。虽然情绪值计算式没有特别限制,但是例如可以通过交互类型来对目标用户与特定对象(相关对象)的交互进行分类,并且可以根据交互类型利用加权函数来对特定对象的交互评估进行平均(参考下式)。
(式3)
Ave(ωintA·(Ave(EintA·TW(t))),ωintB·(Ave(EintB·TW(t))),ωintC·(Ave(EintC·TW(t))),…)
这里,
ωintA:交互A的权重
EintA:交互A的估计值
TW(t):针对估计值的经过的时间的加权函数
上述式3对应于其中基于人之间的交互评估计算情绪值并且利用针对估计值的经过的时间的加权函数TW(t)的情况。t指定交互时间(或估计时间),并且根据从执行交互起经过的时间执行加权。这是因为在人之间的关系的情况下,最近的交互被认为比过去的交互更重要。
接下来,在步骤S424中,移动对象控制器70g基于由情绪值计算单元70f计算的情绪值来确定是否需要改变遮挡范围。具体地,当目标用户相对于对象/人的相对情绪值高于阈值时,移动对象控制器70g确定对象/人与目标用户一起被遮挡或者优先于目标用户被遮挡。
当需要改变遮挡范围时(在S424中为“是”),在步骤S427中,移动对象控制器70g指示移动对象6改变遮挡范围。
根据本实施方式,如上所述,当目标用户在携带昂贵古董的情况下行走时,例如,古董可以被移动对象6遮挡,以使得古董不暴露于太阳或雨。当目标用户与孩子或朋友一起时,他们可以共享遮挡范围。
<3-2.照明>
接下来,将描述通过本实施方式的移动对象6进行的其他环境调节控制。图17是通过本实施方式的移动对象6-3进行的照明控制的说明图。如图17所示,当估计具有在晚上害怕在黑暗的道路上行走的情绪时,可以通过由移动对象6-3执行照明目标用户周围的道路的环境调节控制来使目标用户舒适。这将参照图18进行详细描述。
图18是示出通过本实施方式的移动对象6-3进行的照明控制处理的流程图。如图18所示,首先,在步骤S503中,环境调节服务器7的移动对象控制器70g使移动对象6-3飞到目标用户的设置初始位置,以通过目标对象检测单元70b基于移动对象6-3的红外摄像装置62b(用于夜间道路)的捕获图像等检测目标用户。
随后,在步骤S506中,移动对象控制器70g设置移动对象6-3的飞行高度。飞行高度可以预先设置。
接下来,在步骤S509中,移动对象控制器70g计算目标用户的移动方向(单位矢量Fv)。
此后,在步骤S512中,移动对象控制器70g基于通过移动对象6-3的麦克风阵列62d获取的音频数据,确定目标用户的脚步音量是否大于阈值。
此外,在步骤S515中,移动对象控制器70g基于由移动对象6-3的红外摄像装置62b等获取的捕获图像来确定目标用户的移动速度变化是否超过阈值。
当脚步声大于阈值(在S512中为“是”)或者移动速度变化超过阈值(在S515中为“是”)时,在步骤S518中,移动对象控制器70g确定目标用户的恐惧程度是否超过阈值。当一个人在夜间单独在道路上行走时,感到恐惧的行人增加他或她的行走速度或者他或她的脚步声变大。因此,这样的信息变成对周围环境的恐惧程度的晴雨表。此外,可以根据用户的生物信息比如心率的变化来计算恐惧程度。可以通过用户佩戴的智能带8来获取用户的心率。否则,可以根据综合热图(例如,指示恐惧感的情绪热图和指示有少量交通和危险容易发生的地点的环境热图的综合)来指定根据集合智能或个人特质特别地使用户恐惧的区域以计算恐惧程度。
当恐惧程度超过阈值时(在S518中为“是”),在步骤S521中,移动对象控制器70g执行通过照明单元(输出单元66的示例)增加照明强度的调节或者扩展照明范围。否则,移动对象控制器70g控制扬声器(输出单元66的示例)发出警报。
随后,在根据恐惧程度进行调节之后,或者当脚步声的音量或速度变化不超过阈值时,在步骤S524中,移动对象控制器70g控制照明单元(输出单元66的示例)照亮目标用户的移动方向的前方。这里,例如,如下获得根据移动对象6-3的照明方向和照明位置。
图19是在照明期间移动对象6-3的照明方向(角度)和位置的计算的说明图。如图19所示,当移动对象6-3的位置O(x,y,z)、目标用户的位置T(x,y,z)、移动方向单位矢量Fv(x,y,z)以及目标用户与照明位置之间的距离td被预设为指定值时,则根据下面的式4获得照明位置P。
(式4)
P=T+Fv·td
因此,根据下面的式5获得根据照明单元的照明角度单位矢量Lv。
(式5)
Lv=(P-O)/|P-O|
此外,移动对象控制器70g使得移动对象6-3在跟踪目标用户的同时飞行,保持照明单元相对于目标用户的照明角度Lv,并且在通过红外摄像装置62a跟踪目标用户或者接收从目标用户拥有的通信终端(智能设备、智能手机等)发送的无线电波(蓝牙(注册商标)或Wi-Fi(注册商标))的同时将目标用户保持在视线内。
<3-3.风、水等的输出>
此外,根据本实施方式的移动对象6可以通过从输出单元66发出暖风、冷风、空气、驱蚊剂、水等以在热/冷天提供愉快的环境,阻挡香烟烟雾或花粉或阻止昆虫如蚊子而使目标用户具有愉快的感觉。可以通过情绪估计单元70c基于目标用户的特质、爱好、品味、生物信息等来估计目标用户是否具有由于热、冷、香烟烟雾、昆虫等引起的不愉快的感觉。另外,在本实施方式中,通过作为环境传感器64的示例的湿度传感器、温度传感器、空气质量传感器、花粉传感器、气味传感器等来执行对周围环境的感测。
下面将参照图20至图23详细描述通过风、水等改变目标用户的周围环境的实施方式。
(空气幕)
图20是根据本实施方式的通过空气幕进行环境改变的示意图。如图20所示,飞行并跟踪目标用户的移动对象6-4可以在目标用户由于在热的天气出汗而具有不愉快的感觉时通过由风输出单元(输出单元66的示例)输出冷风而使环境变为愉快的环境。此外,当目标用户由于他或她具有被蚊子叮咬的倾向并且在他或她附近有昆虫而具有不愉快的感觉时,移动对象6-4可以通过喷洒驱蚊化学物质而使环境改变为愉快的环境。
图21是示出根据本实施方式的利用空气幕进行环境改变的操作处理的流程图。如图21所示,首先,在步骤S603中,环境调节服务器7的移动对象控制器70g使移动对象6-4飞到目标用户的设置初始位置,以通过目标对象检测单元70b基于移动对象6-4等的摄像装置62a捕获的图像检测目标用户。
然后,在步骤S606中,移动对象控制器70g设置移动对象6-4的飞行高度。飞行高度可以预先设置。
随后,在步骤S609中,移动对象控制器70g计算目标用户的移动方向。
此后,在步骤S612中,移动对象控制器70g控制移动对象6-4输出(吹)冷/暖风或在目标用户周围喷洒驱蚊化学品。基于目标用户的情绪、周围湿度、温度等调节空气流速和温度。
此外,在步骤S615中,移动对象控制器70g控制移动对象6-3飞行并跟踪目标用户。
(阻挡香烟烟雾)
接下来,将参照图22和图23描述通过移动对象6-5阻挡香烟烟雾的环境改变。尽管可以通过上述空气幕来实现香烟烟雾阻挡,但是移动对象6-5可以排放水以熄灭靠近其的香烟50,如图22所示。排水控制可以仅对根据规定等在道路上禁止吸烟的区域进行。
图23是示出根据本实施方式的通过阻挡烟雾进行环境改变的操作处理的流程图。如图23所示,首先,在步骤S623中,环境调节服务器7的移动对象控制器70g使移动对象6-5飞到目标用户的设置初始位置,以通过目标对象检测单元70b基于移动对象6-5等的摄像装置62a捕获的图像来检测目标用户。
然后,在步骤S626中,移动对象控制器70g根据移动对象6-5的红外摄像装置62b等捕获的图像通过围绕移动对象6-5进行360°红外线搜索来搜索香烟的光。否则,移动对象控制器70g可以利用设置在移动对象6-5中的风向传感器测量风向,并且用红外线集中搜索朝向目标用户流动的烟的迎风方向。
接着,在步骤S629中,由目标对象检测单元70b检测要熄灭的香烟。
然后,当检测到要熄灭的香烟时(在S629中为“是”),在步骤S632中,移动对象控制器70g指示移动对象6-5从排水单元(输出单元66的示例)排水以使香烟熄灭。
此外,在步骤S635中,移动对象控制器70g控制移动对象6-5飞行并跟踪目标用户。
<3-4.音乐播放>
此外,根据本实施方式的移动对象6可以通过经由扬声器(输出单元66的示例)播放音乐来提供愉快的环境。例如,当情绪估计单元70c估计目标用户由于周围噪声而具有沮丧感或不愉快感时,可以通过移动对象6根据目标用户的特质、爱好和品味来播放目标用户喜好的音乐而使目标用户具有愉快的感觉。
具体地,飞行且跟踪目标用户的移动对象6-6在目标用户上方播放音乐,如图24所示。因此,目标用户在不佩戴头戴耳机扬声器或耳机扬声器的情况下收听音乐,并且因此可以同时听到周围环境声音并且在行走或慢跑时获得增加的安全性的效果。此外,甚至在合法禁止使用头戴耳机扬声器或耳机扬声器的骑自行车期间,也可以欣赏音乐。此外,还可以通过利用具有扬声器阵列的该技术或波束形成技术仅使位于移动对象6-6下方的目标用户听到音乐。
图25是示出根据本实施方式的通过音乐播放进行的环境改变的操作处理的流程图。如图25所示,首先,在步骤S643中,环境调节服务器7的移动对象控制器70g使移动对象6-6飞到目标用户的设置初始位置,以通过目标对象检测单元70b基于移动对象6-6等的摄像装置62a捕获的图像检测目标用户。
然后,在步骤S646中,移动对象控制器70g设置移动对象6-6的飞行高度。飞行高度可以预先设置。
随后,在步骤S649中,移动对象控制器70g计算目标用户的移动方向。
此后,在步骤S652中,移动对象控制器70g指示移动对象6-6通过扬声器(输出单元66的示例)播放音乐。可以基于目标用户的爱好、品味和过去的音乐播放历史来选择播放的音乐。
此外,在步骤S655中,移动对象控制器70g控制移动对象6-6飞行并跟踪目标用户。
<<4.结论>>
如上所述,在根据本公开内容的实施方式的环境调节***1中,通过使移动对象6跟踪移动的目标用户,可以根据目标用户的情绪局部地改变周围环境。
以上已经参照附图描述了本公开内容的优选实施方式,而本公开内容不限于上述示例。本领域技术人员可以在所附权利要求的范围内找到各种改变和修改,并且应当理解的是,它们将自然地落入本公开内容的技术范围内。
例如,可以编写用于使包括在上述移动对象6和环境调节服务器7中的诸如CPU、ROM和RAM的硬件展示移动对象6和环境调节服务器7的功能的计算机程序。此外,可以提供其中存储有计算机程序的计算机可读存储介质。
另外,在上述实施方式中,由环境调节服务器7控制移动对象6的移动,但根据本实施方式的环境调节***不限于此,并且可以通过移动对象6的控制器(CPU)执行移动控制。例如,移动对象6可以具有包括在如图4所示的环境调节服务器7中的至少一些功能部件(目标对象检测单元70b、环境信息获取单元70d、情绪估计单元70c、热图生成/获取单元70e、情绪值计算单元70f和移动对象控制器70g)。
另外,可以组合移动对象6-1至6-6中的至少两个移动对象6的功能。例如,在雨天黑夜的道路的情况下,提供了遮挡雨和照亮夜间道路的两种环境改变。在这种情况下,移动对象控制器70g可以根据综合热图预测飞行时间和使用每个功能的时间,并选择需要的功能、电池容量和机身。
此外,除了避免头上方降落物体(例如,遮挡雨)、遮挡光(例如,遮挡阳光)、光的照射、语音输出、吹风、水的喷出和化学品的喷洒,本实施方式的环境调节***的环境改变可以通过图像的投影、隔音、气体的吸收、液体的吸收、发热、机器人手臂的控制等来实现。
此外,尽管在根据本实施方式的环境调节***1中通过环境调节服务器7的情绪值计算单元70f计算情绪值,但是本公开内容不限于此,并且可以通过情绪服务器2计算情绪值。
此外,本说明书中描述的效果仅仅是说明性或示例性的效果,而不是限制性的。也就是说,利用或代替上述效果,根据本公开内容的技术可以实现根据本说明书的描述本领域技术人员清楚的其他效果。
另外,本技术还可以被配置为如下。
(1)一种控制***,包括:
估计单元,其估计用户的情绪;以及
移动对象控制器,其根据所估计的情绪控制移动对象来改变所述用户的周围环境。
(2)根据(1)所述的控制***,其中,所述估计单元基于所述用户的生物信息来估计所述用户的情绪。
(3)根据(1)或(2)所述的控制***,其中,所述估计单元基于所述用户的特质、爱好和品味来估计所述用户的情绪。
(4)根据(3)所述的控制***,其中,所述估计单元参照所述用户的周围环境来估计所述用户的情绪。
(5)根据(1)至(4)中的任意一项所述的控制***,还包括情绪值计算单元,其基于对特定对象的交互评估来计算所述用户针对所述特定对象的情绪值。
(6)根据(5)所述的控制***,其中,所述移动对象控制器执行控制以根据针对所述特定对象的所述情绪值来调节变化范围。
(7)根据(1)至(6)中的任意一项所述的控制***,还包括生成单元,其基于由所述估计单元估计的多个用户的情绪来生成情绪热图,
其中,所述移动对象控制器根据所述情绪热图控制所述移动对象来改变所述用户的周围环境。
(8)根据(7)所述的控制***,
其中,所述生成单元基于关于所述用户的周围环境的信息来生成环境热图,并且,
所述移动对象控制器根据所述情绪热图和所述环境热图控制所述移动对象来改变所述用户的周围环境。
(9)根据(8)所述的控制***,其中,所述生成单元预测并生成未来情绪热图或环境热图。
(10)根据(1)至(9)中的任意一项所述的控制***,其中,当所述估计单元估计所述用户具有不愉快的情绪时,所述移动对象控制器控制所述移动对象以改变所述用户的周围环境,以使得所述用户具有愉快的情绪。
(11)根据(10)所述的控制***,其中,当所述估计单元估计所述用户针对特定环境的情绪是不愉快的时,所述移动对象控制器控制所述移动对象以改变所述用户周围的所述特定环境,以使得所述用户具有愉快的情绪。
(12)根据(11)所述的控制***,其中,所述移动对象控制器基于根据所估计的所述用户相对于所述特定环境的情绪的情绪热图和环境热图,来确定在到目的地的移动路线上的要改变环境的区域,并且控制负责所述区域的移动对象来改变所述用户的周围环境。
(13)根据(1)至(12)中的任意一项所述的控制***,其中,所述移动对象是飞行对象、地面移动对象或水中移动对象。
(14)一种控制方法,包括:
估计用户的情绪;以及
根据所估计的情绪控制移动对象来改变所述用户的周围环境。
(15)一种存储有程序的存储介质,所述程序使计算机用作:
估计单元,其估计用户的情绪;以及
移动对象控制器,其根据所估计的情绪控制移动对象来改变所述用户的周围环境。
附图标记列表
1 环境调节***
2 情绪服务器
20 控制器
20a 交互存储控制器
20b 估计单元
20c 对象管理单元
20d 相关对象搜索单元
21 通信单元
22 对象数据库
24 情绪信息数据库
3 网络
6 移动对象
61 通信单元
62 目标对象传感器
63 移动对象控制器
64 环境传感器
65 变换控制器
66 输出单元
7 环境调节服务器
70 控制器
70a 用户设置和管理单元
70b 目标对象检测单元
70c 情绪估计单元
70d 环境信息获取单元
70e 热图生成/获取单元
70f 情绪值计算单元
70g 移动对象控制器
71 通信单元
72 用户数据库

Claims (20)

1.一种控制***,包括:
估计单元,其估计用户的情绪;以及
移动对象控制器,其根据所估计的情绪控制移动对象来改变所述用户的周围环境同时跟踪所述用户。
2.根据权利要求1所述的控制***,其中,所述估计单元基于如下中的至少一个来估计所述用户的情绪:所述用户的生物信息;所述用户的特质、爱好和品味。
3.根据权利要求2所述的控制***,其中,所述估计单元参照所述用户的周围环境来估计所述用户的情绪。
4.根据权利要求1所述的控制***,还包括情绪值计算单元,其基于对特定对象的交互评估来计算所述用户针对所述特定对象的情绪值。
5.根据权利要求4所述的控制***,其中,所述移动对象控制器执行控制以根据针对所述特定对象的所述情绪值来调节变化范围。
6.根据权利要求4所述的控制***,其中,所述情绪值计算单元被配置为按照交互类型对所述用户与所述特定对象的交互进行分类,并且根据所述交互类型利用加权函数针对对所述特定对象的交互评估进行平均来计算所述用户针对所述特定对象的情绪值。
7.根据权利要求1所述的控制***,还包括生成单元,其基于由所述估计单元估计的多个用户的情绪来生成情绪热图,
其中,所述移动对象控制器根据所述情绪热图控制所述移动对象来改变所述用户的周围环境。
8.根据权利要求7所述的控制***,
其中,所述生成单元基于关于所述用户的周围环境的信息来生成环境热图,并且,
所述移动对象控制器根据所述情绪热图和所述环境热图控制所述移动对象来改变所述用户的周围环境。
9.根据权利要求8所述的控制***,其中,所述生成单元预测并生成未来情绪热图或环境热图。
10.根据权利要求1所述的控制***,其中,所述移动对象控制器还被配置为确定在从所述用户的当前位置到目的地的移动路线上需要改变环境的区域,并且在所述用户通过每一个环境需要改变的区域时,控制所述区域附近的移动对象跟踪所述用户。
11.根据权利要求1所述的控制***,其中,所述移动对象控制器还被配置为控制所述移动对象在所述用户的移动期间连续地跟踪所述用户。
12.根据权利要求1所述的控制***,其中,所述移动对象控制器被配置为通过保持所述移动对象相对于所述用户的相对位置来跟踪所述用户。
13.根据权利要求1所述的控制***,其中,所述移动对象控制器还被配置为在所述用户到达目的地后,控制所述移动对象返回预定基站。
14.根据权利要求1所述的控制***,其中,所述移动对象控制器被配置为同时控制多个移动对象跟踪所述用户。
15.根据权利要求1所述的控制***,其中,当所述估计单元估计所述用户具有不愉快的情绪时,所述移动对象控制器控制所述移动对象以改变所述用户的周围环境,以使得所述用户具有愉快的情绪。
16.根据权利要求15所述的控制***,其中,当所述估计单元估计所述用户针对特定环境的情绪是不愉快的时,所述移动对象控制器控制所述移动对象以改变所述用户周围的所述特定环境,以使得所述用户具有愉快的情绪。
17.根据权利要求16所述的控制***,其中,所述移动对象控制器基于根据所估计的所述用户相对于所述特定环境的情绪的情绪热图和环境热图,来确定在到目的地的移动路线上的要改变环境的区域,并且控制负责所述区域的移动对象来改变所述用户的周围环境。
18.根据权利要求1所述的控制***,其中,所述移动对象是飞行对象、地面移动对象或水中移动对象。
19.一种控制方法,包括:
估计用户的情绪;以及
根据所估计的情绪控制移动对象来改变所述用户的周围环境同时跟踪所述用户。
20.一种存储有程序的存储介质,所述程序在由计算机执行时使所述计算机用作:
估计单元,其估计用户的情绪;以及
移动对象控制器,其根据所估计的情绪控制移动对象来改变所述用户的周围环境同时跟踪所述用户。
CN202111004351.6A 2014-11-07 2015-08-04 控制***、控制方法以及存储介质 Pending CN113778114A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014227005 2014-11-07
JP2014-227005 2014-11-07
CN201580059112.7A CN107111314B (zh) 2014-11-07 2015-08-04 控制***、控制方法以及存储介质

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201580059112.7A Division CN107111314B (zh) 2014-11-07 2015-08-04 控制***、控制方法以及存储介质

Publications (1)

Publication Number Publication Date
CN113778114A true CN113778114A (zh) 2021-12-10

Family

ID=55908848

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201580059112.7A Active CN107111314B (zh) 2014-11-07 2015-08-04 控制***、控制方法以及存储介质
CN202111004351.6A Pending CN113778114A (zh) 2014-11-07 2015-08-04 控制***、控制方法以及存储介质

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201580059112.7A Active CN107111314B (zh) 2014-11-07 2015-08-04 控制***、控制方法以及存储介质

Country Status (4)

Country Link
US (3) US10788235B2 (zh)
JP (1) JP6583283B2 (zh)
CN (2) CN107111314B (zh)
WO (1) WO2016072116A1 (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10788235B2 (en) * 2014-11-07 2020-09-29 Sony Corporation Control system, control method, and storage medium
US10220517B2 (en) * 2016-10-31 2019-03-05 International Business Machines Corporation System, method and computer program product for controlling a mission-oriented robot based on a user's emotional state
JP2018077599A (ja) * 2016-11-08 2018-05-17 富士ゼロックス株式会社 情報処理装置
CN106843458B (zh) * 2016-12-12 2021-05-25 北京光年无限科技有限公司 一种用于智能机器人的人机交互方法及装置
KR20220141927A (ko) 2017-04-27 2022-10-20 스냅 인코포레이티드 지도-기반 소셜 미디어 플랫폼들에 대한 위치 프라이버시 관리
JP6906197B2 (ja) * 2017-09-29 2021-07-21 パナソニックIpマネジメント株式会社 情報処理方法、情報処理装置及び情報処理プログラム
JP7003593B2 (ja) * 2017-11-16 2022-02-04 トヨタ自動車株式会社 スポット空調装置
JP6896594B2 (ja) * 2017-11-27 2021-06-30 Kddi株式会社 楽曲選択装置、楽曲選択方法及びプログラム
JP7160092B2 (ja) * 2018-05-01 2022-10-25 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び自律行動ロボット制御システム
JP7225642B2 (ja) * 2018-09-27 2023-02-21 富士通株式会社 コミュニケーションロボット、制御方法及び制御プログラム
JP7115258B2 (ja) * 2018-11-29 2022-08-09 トヨタ自動車株式会社 情報処理システム、情報処理方法、及びプログラム
CN111290001A (zh) * 2018-12-06 2020-06-16 杭州海康威视数字技术股份有限公司 一种基于gps坐标的目标统筹方法、装置及设备
CN112830124B (zh) * 2019-11-25 2022-10-18 魏宏帆 废弃物容纳装置以及智能管理***
JP2021094890A (ja) * 2019-12-13 2021-06-24 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 飛行体、及び制御方法
JP7138618B2 (ja) * 2019-12-24 2022-09-16 楽天グループ株式会社 運搬システム、制御装置、及び、方法
CN113819614B (zh) * 2021-09-13 2023-07-18 青岛海尔空调器有限总公司 用于控制空调的方法、装置及空调

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259129A (ja) * 1998-03-09 1999-09-24 Yamaha Motor Co Ltd 自律移動体の制御方法
US20080221730A1 (en) * 2007-03-07 2008-09-11 Kotaro Sakata Behavior control apparatus, method, and program
WO2013055025A1 (ko) * 2011-10-12 2013-04-18 한국과학기술연구원 지능 로봇, 지능 로봇과 사용자의 상호작용을 위한 시스템 및 지능 로봇과 사용자의 상호작용을 위한 방법
KR20130074123A (ko) * 2011-12-26 2013-07-04 세명대학교 산학협력단 이동통신단말을 이용한 조명 제어 방법
CN103916540A (zh) * 2014-03-31 2014-07-09 惠州Tcl移动通信有限公司 一种信息反馈的方法及移动终端

Family Cites Families (178)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10289006A (ja) 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
US6269763B1 (en) * 1998-02-20 2001-08-07 Richard Lawrence Ken Woodland Autonomous marine vehicle
US6230111B1 (en) * 1998-08-06 2001-05-08 Yamaha Hatsudoki Kabushiki Kaisha Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object
JP2000064933A (ja) * 1998-08-19 2000-03-03 Yamaha Motor Co Ltd 2サイクル筒内噴射エンジンの始動方法
US6347261B1 (en) * 1999-08-04 2002-02-12 Yamaha Hatsudoki Kabushiki Kaisha User-machine interface system for enhanced interaction
US7106887B2 (en) * 2000-04-13 2006-09-12 Fuji Photo Film Co., Ltd. Image processing method using conditions corresponding to an identified person
US6616613B1 (en) * 2000-04-27 2003-09-09 Vitalsines International, Inc. Physiological signal monitoring system
AU784931B2 (en) * 2000-05-17 2006-08-03 Jason Mark Hinds Seating apparatus
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
JP2004066367A (ja) 2002-08-05 2004-03-04 Mitsubishi Heavy Ind Ltd 行動パターン生成装置、行動パターン生成方法、及び行動パターン生成プログラム
JP4204839B2 (ja) * 2002-10-04 2009-01-07 株式会社エイ・ジー・アイ 発想モデル装置、自発感情モデル装置、発想のシミュレーション方法、自発感情のシミュレーション方法、およびプログラム
GB2409734B (en) * 2002-11-11 2007-01-03 Alfred Schurmann Determination and control of activities of an emotional system
JP3953024B2 (ja) * 2003-11-20 2007-08-01 ソニー株式会社 感情算出装置及び感情算出方法、並びに携帯型通信装置
US20050124234A1 (en) * 2003-12-05 2005-06-09 Robin Sells Remote marine craft system and methods of using same
JP4595436B2 (ja) * 2004-03-25 2010-12-08 日本電気株式会社 ロボット、その制御方法及び制御用プログラム
US7631653B2 (en) * 2004-11-18 2009-12-15 Young Mechatronics Solutions, LLC Apparatus for automated movement of an umbrella
EP2281667B1 (en) * 2005-09-30 2013-04-17 iRobot Corporation Companion robot for personal interaction
KR100850352B1 (ko) * 2006-09-26 2008-08-04 한국전자통신연구원 상태 정보를 이용하여 감성을 표현하기 위한 지능형 로봇의감성 표현 장치 및 그 방법
JP5007404B2 (ja) 2007-05-09 2012-08-22 株式会社国際電気通信基礎技術研究所 性格判別装置、性格判別方法、コミュニケーションロボットおよび電子機器
JP2009061547A (ja) * 2007-09-06 2009-03-26 Olympus Corp ロボット制御システム、ロボット、プログラム及び情報記憶媒体
US9864835B2 (en) * 2007-10-15 2018-01-09 23Andme, Inc. Genetic comparisons between grandparents and grandchildren
JP2009108727A (ja) * 2007-10-29 2009-05-21 Toyota Motor Corp 車両およびその制御方法
US9326099B2 (en) * 2008-02-11 2016-04-26 Popular Metrics, Inc. System and method for determining audience characteristics of a music concert based on mobile phone tracking and mobile data transmissions
JP5152570B2 (ja) * 2008-03-06 2013-02-27 株式会社デンソー 自動車用ユーザーもてなしシステム
CN101504546B (zh) * 2008-12-12 2010-04-21 北京科技大学 一种儿童机器人的***跟踪装置
US10424231B2 (en) * 2015-05-26 2019-09-24 Mores, Inc. Self charging lightweight drone apparatus
KR101678018B1 (ko) * 2010-01-22 2016-11-22 삼성전자주식회사 감성 모델 장치 및 감성 모델 장치의 행동 결정 방법
US8918209B2 (en) * 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US10289898B2 (en) * 2010-06-07 2019-05-14 Affectiva, Inc. Video recommendation via affect
US9503786B2 (en) * 2010-06-07 2016-11-22 Affectiva, Inc. Video recommendation using affect
US20140081090A1 (en) * 2010-06-07 2014-03-20 Affectiva, Inc. Provision of atypical brain activity alerts
JP2012059107A (ja) 2010-09-10 2012-03-22 Nec Corp 感情推定装置、感情推定方法およびプログラム
US8996429B1 (en) * 2011-05-06 2015-03-31 Google Inc. Methods and systems for robot personality development
US20120311032A1 (en) * 2011-06-02 2012-12-06 Microsoft Corporation Emotion-based user identification for online experiences
KR101830767B1 (ko) * 2011-07-14 2018-02-22 삼성전자주식회사 사용자의 감정 인식 장치 및 방법
WO2013020562A1 (en) 2011-08-09 2013-02-14 Farouk Mohamed Ashraf Automated sun tracking umbrella
US10176725B2 (en) * 2011-08-29 2019-01-08 Worcester Polytechnic Institute System and method of pervasive developmental disorder interventions
US20130151432A1 (en) * 2011-11-28 2013-06-13 Gividual Solutions, Inc. System, computer-storage medium and methods for allocation of donations between parties
KR101970962B1 (ko) * 2012-03-19 2019-04-22 삼성전자주식회사 아기 감시 방법 및 장치
US20130275320A1 (en) * 2012-04-16 2013-10-17 Google Inc. Identifying Prospective Employee Candidates via Employee Connections
JP5987473B2 (ja) 2012-05-23 2016-09-07 富士通株式会社 非言語情報収集装置および非言語情報収集プログラム
US20150350614A1 (en) * 2012-08-31 2015-12-03 Brain Corporation Apparatus and methods for tracking using aerial video
US10555498B2 (en) * 2012-09-19 2020-02-11 Botsitter, Llc Method and system for remote monitoring, care and maintenance of animals
US8972313B2 (en) * 2012-10-01 2015-03-03 Korea Institute Of Industrial Technology Apparatus and method for learning emotion of robot
US9443207B2 (en) * 2012-10-22 2016-09-13 The Boeing Company Water area management system
US20140150806A1 (en) * 2012-12-02 2014-06-05 John Hu Robotic First Responder System and Method
US9075415B2 (en) * 2013-03-11 2015-07-07 Airphrame, Inc. Unmanned aerial vehicle and methods for controlling same
US11883606B2 (en) * 2013-03-15 2024-01-30 Sleep Solutions Inc. Stress reduction and sleep promotion system
US20150314454A1 (en) * 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
US8840131B1 (en) * 2013-03-15 2014-09-23 Planet Rider LLC Three-wheeled vehicle
WO2014157359A1 (ja) * 2013-03-28 2014-10-02 本田技研工業株式会社 マップ生成システム、マップ生成装置、マップ生成方法およびプログラム
JP6217747B2 (ja) * 2013-04-16 2017-10-25 ソニー株式会社 情報処理装置及び情報処理方法
CN103593650B (zh) * 2013-10-28 2017-01-25 浙江大学 一种基于表情识别***生成艺术图像的方法
US9158304B2 (en) * 2013-11-10 2015-10-13 Google Inc. Methods and systems for alerting and aiding an emergency situation
US9643722B1 (en) * 2014-02-28 2017-05-09 Lucas J. Myslinski Drone device security system
US9535421B1 (en) * 2014-02-28 2017-01-03 Savioke, Inc. Mobile delivery robot with interior cargo space
WO2015143273A2 (en) * 2014-03-21 2015-09-24 Rensselaer Polytechnic Institute Mobile human-friendly assistive robot
ES2703338T3 (es) * 2014-04-17 2019-03-08 Softbank Robotics Europe Ejecución de aplicaciones de software en un robot
US10579252B2 (en) * 2014-04-28 2020-03-03 Ford Global Technologies, Llc Automotive touchscreen with simulated texture for the visually impaired
KR20150126196A (ko) * 2014-05-02 2015-11-11 삼성전자주식회사 사용자 감성 활동 기반 데이터 처리 장치 및 방법
EP3786742A1 (en) * 2014-05-30 2021-03-03 SZ DJI Technology Co., Ltd. Systems and methods for uav docking
US20170251169A1 (en) * 2014-06-03 2017-08-31 Gopro, Inc. Apparatus and methods for context based video data compression
US9798322B2 (en) * 2014-06-19 2017-10-24 Skydio, Inc. Virtual camera interface and other user interaction paradigms for a flying digital assistant
US9348336B2 (en) * 2014-09-12 2016-05-24 Toyota Jidosha Kabushiki Kaisha Robot assistance for detecting, managing, and mitigating risk
US10819959B2 (en) * 2014-11-05 2020-10-27 Jason Christopher Palazzolo Firearm environmental recording apparatus and system
US10788235B2 (en) * 2014-11-07 2020-09-29 Sony Corporation Control system, control method, and storage medium
CN114461062A (zh) * 2014-11-07 2022-05-10 索尼公司 信息处理***、控制方法和计算机可读存储介质
CN104482627A (zh) * 2014-11-28 2015-04-01 成都纽赛思科技有限公司 一种基于声波调控的空调智能控温***
KR102247518B1 (ko) * 2014-12-23 2021-05-03 삼성전자주식회사 웨어러블 장치, 관리 서버, 이들을 포함하는 제어 시스템 및 그의 제어 방법
WO2016126297A2 (en) * 2014-12-24 2016-08-11 Irobot Corporation Mobile security robot
CN107209019B (zh) * 2015-01-30 2021-01-15 索尼公司 信息处理***和控制方法
JP6690556B2 (ja) * 2015-02-13 2020-04-28 ソニー株式会社 情報処理システム、情報処理装置、制御方法、記憶媒体、およびプログラム
US9471059B1 (en) * 2015-02-17 2016-10-18 Amazon Technologies, Inc. Unmanned aerial vehicle assistant
US10907844B2 (en) * 2015-05-04 2021-02-02 Johnson Controls Technology Company Multi-function home control system with control system hub and remote sensors
CN107949502A (zh) * 2015-05-29 2018-04-20 多布里勒有限公司 夹持装置和防护篷
EP3101889A3 (en) * 2015-06-02 2017-03-08 LG Electronics Inc. Mobile terminal and controlling method thereof
JP6505514B2 (ja) * 2015-06-10 2019-04-24 パナソニック株式会社 空気調和機、センサシステムおよびその温冷感推定方法
CN105041371A (zh) * 2015-06-10 2015-11-11 东北大学 一种全地形智能移动救援机器人
US10799122B2 (en) * 2015-06-14 2020-10-13 Facense Ltd. Utilizing correlations between PPG signals and iPPG signals to improve detection of physiological responses
US20210259557A1 (en) * 2015-06-14 2021-08-26 Facense Ltd. Doorway system that utilizes wearable-based health state verifications
US11103139B2 (en) * 2015-06-14 2021-08-31 Facense Ltd. Detecting fever from video images and a baseline
US11107009B2 (en) * 2015-06-15 2021-08-31 International Business Machines Corporation Managing user transportation needs without user intervention
US10984498B2 (en) * 2015-06-15 2021-04-20 International Business Machines Corporation Managing transportation deployment using customer activity
US10408631B2 (en) * 2015-07-24 2019-09-10 International Business Machines Corporation Journey planning
JP6090382B2 (ja) * 2015-07-31 2017-03-08 ダイキン工業株式会社 空調制御システム
US9513629B1 (en) * 2015-10-30 2016-12-06 Sony Mobile Communications, Inc. Methods and devices for heart rate controlled drones
US10535195B2 (en) * 2016-01-06 2020-01-14 SonicSensory, Inc. Virtual reality system with drone integration
US10228695B2 (en) * 2016-01-20 2019-03-12 Alarm.Com Incorporated Drone control device
US9594372B1 (en) * 2016-01-21 2017-03-14 X Development Llc Methods and systems for providing feedback based on information received from an aerial vehicle
WO2017134803A1 (ja) * 2016-02-04 2017-08-10 三菱電機株式会社 空気調和機
US10265859B2 (en) * 2016-02-09 2019-04-23 Cobalt Robotics Inc. Mobile robot with removable fabric panels
US10168700B2 (en) * 2016-02-11 2019-01-01 International Business Machines Corporation Control of an aerial drone using recognized gestures
US10597155B2 (en) * 2016-02-24 2020-03-24 Razmik Karabed Shadow casting drone
JP6073000B1 (ja) * 2016-02-24 2017-02-01 三菱電機株式会社 制御装置及び制御プログラム
GB2564821A (en) * 2016-05-20 2019-01-23 Groove X Inc Autonomous action robot and computer program
US9875648B2 (en) * 2016-06-13 2018-01-23 Gamma 2 Robotics Methods and systems for reducing false alarms in a robotic device by sensor fusion
US11299270B2 (en) * 2016-06-24 2022-04-12 Matthew CULVER Systems and methods for unmanned aerial vehicles
CN109414623B (zh) * 2016-07-11 2021-03-19 Groove X 株式会社 行为自主型机器人
US11285969B2 (en) * 2016-07-19 2022-03-29 Ford Global Technologies, Llc Autonomous vehicle providing safety zone to persons in distress
DE112017003651T5 (de) * 2016-07-20 2019-04-04 Groove X, Inc. Autonom agierender Roboter, der Körperkontakt versteht
US9942707B2 (en) * 2016-07-25 2018-04-10 International Business Machines Corporation Cognitive geofencing
WO2018026732A1 (en) * 2016-08-01 2018-02-08 Larking, Inc. Antimicrobial disposable seat covers
DE112017004363T5 (de) * 2016-08-29 2019-06-19 Groove X, Inc. Autonom agierender roboter, der die richtung einer geräuschquelle erkennt
JP2018038553A (ja) * 2016-09-06 2018-03-15 パナソニックIpマネジメント株式会社 車載表示装置、車載表示装置の制御方法、及び、プログラム
US20180068573A1 (en) * 2016-09-07 2018-03-08 Cornell University Mindless technologies to subtly influence behavior
US10019002B2 (en) * 2016-10-13 2018-07-10 Navico Holding As Unmanned vehicle control and operation in a marine environment
US10614380B2 (en) * 2016-10-13 2020-04-07 Nutanix, Inc. Dynamically adjusting system metric thresholds based on user specified system performance feedback
CN106406312B (zh) * 2016-10-14 2017-12-26 平安科技(深圳)有限公司 导览机器人及其移动区域标定方法
US10289076B2 (en) * 2016-11-15 2019-05-14 Roborus Co., Ltd. Concierge robot system, concierge service method, and concierge robot
US10257669B2 (en) * 2016-12-01 2019-04-09 Kodiak Networks, Inc. PTX data analytic engine notifying group list of detected risk event
US20180190257A1 (en) * 2016-12-29 2018-07-05 Shadecraft, Inc. Intelligent Umbrellas and/or Robotic Shading Systems Including Noise Cancellation or Reduction
WO2018122830A1 (en) * 2016-12-31 2018-07-05 Ratti Jayant High endurance unmanned aerial vehicle
CA3049726A1 (en) * 2017-01-10 2018-07-19 Babak Rezvani Emergency drone guidance device
US10747997B2 (en) * 2017-01-17 2020-08-18 James P Janniello Intelligent protective drone
US10496107B2 (en) * 2017-01-17 2019-12-03 Valeo North America, Inc. Autonomous security drone system and method
US10491888B2 (en) * 2017-01-25 2019-11-26 Samsung Electronics Co., Ltd. Method and apparatus for determining stereoscopic multimedia information
US20180291579A1 (en) * 2017-02-04 2018-10-11 Shadecraft, Inc. Snow/Ice Melting Drone Device
CN114815863A (zh) * 2017-04-27 2022-07-29 深圳市大疆创新科技有限公司 无人机的控制方法、设备及障碍物的提示方法、设备
US20180336575A1 (en) * 2017-05-16 2018-11-22 International Business Machines Corporation Graphical representations of real-time social emotions
CN107415837B (zh) * 2017-06-15 2019-10-25 浙江吉利控股集团有限公司 车载无人机、自动撑伞***及自动撑伞控制方法
US20200174490A1 (en) * 2017-07-27 2020-06-04 Waymo Llc Neural networks for vehicle trajectory planning
JP2020529660A (ja) * 2017-07-28 2020-10-08 ニューロ・インコーポレーテッドNuro Incorporated 自律車両および半自律車両による食料および飲料配達システム
WO2019050034A1 (ja) * 2017-09-11 2019-03-14 Groove X株式会社 相手を見つめる自律行動型ロボット
US10427786B2 (en) * 2017-09-14 2019-10-01 At&T Intellectual Property I, L.P. Drone authentication system
US20190099877A1 (en) * 2017-09-29 2019-04-04 Airbus Operations Gmbh Exoskeleton System
US10921763B1 (en) * 2017-10-25 2021-02-16 Alarm.Com Incorporated Baby monitoring using a home monitoring system
KR102060715B1 (ko) * 2017-11-30 2019-12-30 엘지전자 주식회사 이동 로봇 및 그 제어방법
US10730181B1 (en) * 2017-12-27 2020-08-04 X Development Llc Enhancing robot learning
US11475291B2 (en) * 2017-12-27 2022-10-18 X Development Llc Sharing learned information among robots
US11017317B2 (en) * 2017-12-27 2021-05-25 X Development Llc Evaluating robot learning
FR3075681B1 (fr) * 2017-12-27 2020-08-28 Softbank Robotics Europe Securisation d'une articulation d'un robot
CN108132677B (zh) * 2017-12-28 2021-06-11 何佳林 一种遮阳无人机控制***和控制方法
US20190202061A1 (en) * 2017-12-29 2019-07-04 DMAI, Inc. System and method for detecting physical proximity between devices
US11015832B2 (en) * 2018-01-12 2021-05-25 Carrier Corporation Thermographic sensing of human thermal conditions to improve thermal comfort
US10558862B2 (en) * 2018-01-12 2020-02-11 Intel Corporation Emotion heat mapping
US11919531B2 (en) * 2018-01-31 2024-03-05 Direct Current Capital LLC Method for customizing motion characteristics of an autonomous vehicle for a user
TWI658377B (zh) * 2018-02-08 2019-05-01 佳綸生技股份有限公司 機器人輔助互動系統及其方法
CN112262024B (zh) * 2018-02-15 2024-05-03 暗物智能科技(广州)有限公司 用于增强数字体验的动态机器人配置的***和方法
US11331807B2 (en) * 2018-02-15 2022-05-17 DMAI, Inc. System and method for dynamic program configuration
US20190258523A1 (en) * 2018-02-21 2019-08-22 Anki, Inc. Character-Driven Computing During Unengaged Time
CN110309254A (zh) * 2018-03-01 2019-10-08 富泰华工业(深圳)有限公司 智能机器人与人机交互方法
CA3133200A1 (en) * 2018-03-20 2019-09-26 Michael Joseph Day Security system
KR101959366B1 (ko) * 2018-04-10 2019-03-21 주식회사 아르고스다인 무인기와 무선단말기 간의 상호 인식 방법
KR102574937B1 (ko) * 2018-05-18 2023-09-05 현대자동차주식회사 차량 및 그 제어 방법
CN108769224A (zh) * 2018-05-23 2018-11-06 厦门波耐模型设计有限责任公司 伺寝机器人物联网***
EP3803774A4 (en) * 2018-06-11 2022-03-09 Rapidsos, Inc. SYSTEMS AND USER INTERFACES FOR EMERGENCY DATA INTEGRATION
JP2021144260A (ja) * 2018-06-15 2021-09-24 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、および情報処理システム
JP7095431B2 (ja) * 2018-06-19 2022-07-05 トヨタ自動車株式会社 情報処理装置、情報処理方法、情報処理システム
KR102578194B1 (ko) * 2018-06-20 2023-09-13 현대자동차주식회사 자동차의 손상 검출 장치 및 방법
JP6977677B2 (ja) * 2018-06-28 2021-12-08 トヨタ自動車株式会社 情報処理装置、情報処理システム、情報処理方法、及び、情報処理プログラム
US20200004272A1 (en) * 2018-06-28 2020-01-02 Skyyfish, LLC System and method for intelligent aerial inspection
US11952088B2 (en) * 2018-07-16 2024-04-09 Telefonaktiebolaget Lm Ericsson (Publ) Method and device for rescue mission assistance
US10623696B1 (en) * 2018-08-06 2020-04-14 Paula Muller Communication system for use with protected persons
KR20200034039A (ko) * 2018-09-14 2020-03-31 엘지전자 주식회사 로봇 및 그 동작 방법
KR102242779B1 (ko) * 2018-09-14 2021-04-20 엘지전자 주식회사 로봇 및 그 동작 방법
JP7067414B2 (ja) * 2018-10-24 2022-05-16 トヨタ自動車株式会社 コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム
KR102204510B1 (ko) * 2018-10-26 2021-01-19 국방과학연구소 부상자 분류 방법 및 그 방법을 수행하는 구조 로봇
JP7201394B2 (ja) * 2018-10-30 2023-01-10 トヨタ自動車株式会社 情報提供装置、情報提供システム、情報提供方法、情報提供プログラム
JP7096138B2 (ja) * 2018-10-30 2022-07-05 トヨタ自動車株式会社 情報処理装置、情報処理方法、情報処理プログラム
US11741500B2 (en) * 2018-12-14 2023-08-29 Productive Application Solutions, Inc. Pedestrian thoroughfare portable media kiosk
US20220126864A1 (en) * 2019-03-29 2022-04-28 Intel Corporation Autonomous vehicle system
US20220288791A1 (en) * 2019-04-16 2022-09-15 Sony Group Corporation Information processing device, information processing method, and program
EP3731235A1 (en) * 2019-04-23 2020-10-28 Sony Corporation Device and method for monitoring activity performance
CN110164439A (zh) * 2019-05-29 2019-08-23 姚英泽 智能服务机器人
KR20190095188A (ko) * 2019-07-25 2019-08-14 엘지전자 주식회사 로봇 및 그 제어방법
KR102212638B1 (ko) * 2019-08-21 2021-02-04 건국대학교 글로컬산학협력단 음악 추천 시스템 및 방법
KR20190107288A (ko) * 2019-08-30 2019-09-19 엘지전자 주식회사 화자인식 기반 차량 제어 방법 및 지능형 차량
JP2021066304A (ja) * 2019-10-23 2021-04-30 トヨタ自動車株式会社 搬送ロボット
CN211867819U (zh) * 2019-11-28 2020-11-06 谢钊锋 一种具有净化空气功能的智能机器人
JP7359437B2 (ja) * 2019-12-11 2023-10-11 株式会社Agama-X 情報処理装置、プログラム、及び、方法
WO2021166317A1 (ja) * 2020-02-20 2021-08-26 Whill株式会社 電動モビリティおよび施設内におけるシステム
US20230138192A1 (en) * 2020-03-14 2023-05-04 Xiamen Brana Design Co., Ltd. Medical service robot device, and method and system thereof
CN111625003B (zh) * 2020-06-03 2021-06-04 上海布鲁可积木科技有限公司 移动机器人玩具及其使用方法
US11458995B2 (en) * 2020-07-28 2022-10-04 Motional Ad Llc Passenger health screening and monitoring
US11621068B2 (en) * 2020-09-11 2023-04-04 International Business Machines Corporation Robotic arm for patient protection
CN112644696A (zh) * 2020-12-30 2021-04-13 戴林军 一种折叠式农业无人机挂载装置
CN112809696B (zh) * 2020-12-31 2022-03-15 山东大学 面向高传染性隔离病区的全方位智能护理***及方法
US12017142B2 (en) * 2021-02-16 2024-06-25 Pritesh KANANI System and method for real-time calibration of virtual apparel using stateful neural network inferences and interactive body measurements

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259129A (ja) * 1998-03-09 1999-09-24 Yamaha Motor Co Ltd 自律移動体の制御方法
US20080221730A1 (en) * 2007-03-07 2008-09-11 Kotaro Sakata Behavior control apparatus, method, and program
WO2013055025A1 (ko) * 2011-10-12 2013-04-18 한국과학기술연구원 지능 로봇, 지능 로봇과 사용자의 상호작용을 위한 시스템 및 지능 로봇과 사용자의 상호작용을 위한 방법
KR20130074123A (ko) * 2011-12-26 2013-07-04 세명대학교 산학협력단 이동통신단말을 이용한 조명 제어 방법
CN103916540A (zh) * 2014-03-31 2014-07-09 惠州Tcl移动通信有限公司 一种信息反馈的方法及移动终端

Also Published As

Publication number Publication date
US20240191905A1 (en) 2024-06-13
US20200408437A1 (en) 2020-12-31
JPWO2016072116A1 (ja) 2017-08-31
CN107111314A (zh) 2017-08-29
US11940170B2 (en) 2024-03-26
CN107111314B (zh) 2021-10-08
US20170297201A1 (en) 2017-10-19
US10788235B2 (en) 2020-09-29
JP6583283B2 (ja) 2019-10-02
WO2016072116A1 (ja) 2016-05-12

Similar Documents

Publication Publication Date Title
CN107111314B (zh) 控制***、控制方法以及存储介质
JP6561996B2 (ja) 情報処理装置、制御方法、および記憶媒体
KR101831442B1 (ko) 지구 포지셔닝 시스템
US11656714B2 (en) Assistive device with a refreshable haptic feedback interface
CN101520690B (zh) 图像获取和显示设备以及图像获取和显示方法
JP2014202690A (ja) ナビゲーション装置及び記憶媒体
US20090115617A1 (en) Information provision system, information provision device, information provision method, terminal device, and display method
CN110996796B (zh) 信息处理设备、方法和程序
CN110945489A (zh) 信息处理***、信息处理装置、信息处理方法和记录介质
CN110073395A (zh) 利用推断洞察的可穿戴设备控制
CN113031460B (zh) 基于人居场景智能感知分析的智慧家庭***及其方法
JP6500139B1 (ja) 視覚支援装置
US20240004493A1 (en) Assistive device with a refreshable haptic feedback interface to provide non-visual assistance to a user
CN116600453B (zh) 一种分布式灯控***及其控制方法
US11270682B2 (en) Information processing device and information processing method for presentation of word-of-mouth information
JP2023115940A (ja) 香り決定システム、香り決定装置、香り決定方法及びプログラム
TWM536374U (zh) 雲朵外觀造型之天氣狀態顯示電子裝置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination