CN109551502A - 具有触摸灵敏度的机器人 - Google Patents

具有触摸灵敏度的机器人 Download PDF

Info

Publication number
CN109551502A
CN109551502A CN201811122602.9A CN201811122602A CN109551502A CN 109551502 A CN109551502 A CN 109551502A CN 201811122602 A CN201811122602 A CN 201811122602A CN 109551502 A CN109551502 A CN 109551502A
Authority
CN
China
Prior art keywords
deformable
sensor
robot
resolution
film
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811122602.9A
Other languages
English (en)
Other versions
CN109551502B (zh
Inventor
A·阿尔斯波
R·L·泰德雷克
K·桥本
E·C·索贝尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Research Institute Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Research Institute Inc filed Critical Toyota Research Institute Inc
Publication of CN109551502A publication Critical patent/CN109551502A/zh
Application granted granted Critical
Publication of CN109551502B publication Critical patent/CN109551502B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/084Tactile sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/16Measuring arrangements characterised by the use of optical techniques for measuring the deformation in a solid, e.g. optical strain gauge
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L1/00Measuring force or stress, in general
    • G01L1/04Measuring force or stress, in general by measuring elastic deformation of gauges, e.g. of springs
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L1/00Measuring force or stress, in general
    • G01L1/24Measuring force or stress, in general by measuring variations of optical properties of material when it is stressed, e.g. by photoelastic stress analysis using infrared, visible light, ultraviolet
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L5/00Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L5/00Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes
    • G01L5/0061Force sensors associated with industrial machines or actuators
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L5/00Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes
    • G01L5/0061Force sensors associated with industrial machines or actuators
    • G01L5/0076Force sensors associated with manufacturing machines
    • G01L5/009Force sensors associated with material gripping devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J18/00Arms
    • B25J18/06Arms flexible
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39319Force control, force as reference, active compliance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40201Detect contact, collision with human
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40253Soft arm robot, light, rubber, very compliant
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/30End effector
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)
  • Force Measurement Appropriate To Specific Purposes (AREA)
  • Toys (AREA)

Abstract

提供了具有变化的触摸灵敏度的机器人。机器人可以包括多个可变形传感器,所述多个可变形传感器具有不同水平的深度分辨率和空间分辨率,用于检测与物体相关的姿态和力。每个可变形传感器可以具有包括可变形膜的包封件,包封件被构造为填充有介质。每个可变形传感器还可包括光学传感器,光学传感器设置在包封件内并且具有被构造为朝向可变形膜的底表面的视场。机器人还可以包括第一部分和第二部分,第一部分和第二部分均包括所述多个可变形传感器中的至少一个可变形传感器。

Description

具有触摸灵敏度的机器人
相关申请的交叉引用
本申请要求2017年9月26日提交的美国临时申请62/563,595的权益,该临时申请通过引用整体并入本文。
技术领域
本文描述的实施例总体上涉及接触传感器,并且更具体地,涉及可变形的接触和几何形状/姿态传感器,其能够检测接触和物体的几何形状。实施例还涉及具有变化的触摸灵敏度的机器人,该机器人包括可变形的接触和几何形状传感器。可变形性可以指例如容易变形的可变形传感器。空间分辨率可以指例如可变形传感器具有多少像素。像素的数量可以从1(例如,简单地检测与目标物体的接触的传感器)到数千或数百万(例如,由具有数千个像素的飞行时间传感器提供的密集传感器)或任何合适的数量。可变形性可以指可变形膜在接触目标物体时变形的容易程度。可变形传感器可以具有高空间分辨率,具有密集的触觉感测传感器,触觉感测传感器被提供作为机器人的末端执行器,从而给予机器人像人的手指一样的良好触感。可变形传感器还可以具有深度分辨率,以测量朝向传感器和远离传感器的运动。
背景技术
接触传感器用于确定一个物体是否与另一物体物理接触。例如,机器人通常使用接触传感器来确定机器人的一部分是否与物体接触。然后,机器人的控制可以至少部分地基于来自一个或多个接触传感器的信号。
发明内容
在一个实施例中,具有触摸灵敏度的机器人可以包括多个可变形传感器,所述多个可变形传感器具有不同水平的深度分辨率和空间分辨率,用于检测与物体相关的姿态和力。每个可变形传感器可以具有包括可变形膜的包封件,所述包封件被构造为填充有介质。每个可变形传感器还可以包括光学传感器,所述光学传感器设置在包封件内并且具有构造为朝向可变形膜的底表面的视场。机器人还可以包括第一部分和第二部分,第一部分和第二部分均包括所述多个可变形传感器中的至少一个可变形传感器。
在另一实施例中,具有触摸灵敏度的机器人可以包括第一部分和第二部分,第一部分和第二部分均包括多个可变形传感器中的至少一个可变形传感器。所述多个可变形传感器可包括不同水平的深度分辨率和空间分辨率,用于检测与物体相关的姿态和力。所述多个可变形传感器中的每一个可变形传感器可以包括包封件,所述包封件包括可变形膜,并且所述包封件被构造为填充有介质。每个可变形传感器还可以包括内部传感器,所述内部传感器设置在包封件内并且具有构造为引导通过所述介质并朝向所述可变形膜的底表面的视场。机器人还可以包括处理器,所述处理器被构造为分析可变形膜中的由于与物体接触而引起的接触区域,以确定物体的姿态和施加在可变形膜和物体之间的力的大小。
根据以下详细描述并结合附图,将更全面地理解由本文描述的实施例所提供的这些和其它特征。
附图说明
附图中阐述的实施例本质上是说明性和示例性的,并不旨在限制由权利要求限定的主题。当结合以下附图阅读时,可以理解说明性实施例的以下详细描述,其中,相同的结构用相同的附图标记表示,并且其中:
图1示意性地示出了根据本文描述和示出的一个或多个实施例的示例性可变形传感器的正视图;
图2示意性地示出了根据本文描述和示出的一个或多个实施例的由图1描绘的示例性可变形传感器的顶部透视图;
图3示意性地描绘了根据本文描述和示出的一个或多个实施例的用于可变形传感器的示例飞行时间传感器;
图4是描绘了根据本文描述和示出的一个或多个实施例的可变形传感器在电子显示器上的输出的图;
图5示意性地示出了根据本文描述和示出的一个或多个实施例的联接到可变形传感器的可变形膜的滤光层;
图6示意性地示出了根据本文描述和示出的一个或多个实施例的可变形传感器的传感器视场内的滤光器;
图7示意性地示出了根据本文描述和示出的一个或多个实施例的可变形传感器的可变形膜的底表面上的图案;
图8示意性地示出了根据本文描述和示出的一个或多个实施例的两个示例性机器人,每个机器人具有可变形传感器并操纵物体;
图9示意性地示出了根据本文描述和示出的一个或多个实施例的具有多个可变形传感器的示例性机器人,所述可变形传感器具有变化的空间分辨率和深度分辨率;
图10示意性地示出了根据本文描述和示出的一个或多个实施例的具有多个内部传感器的复合内部传感器;
图11是描绘了根据本文描述和示出的一个或多个实施例的确定与可变形传感器接触的物体相关的姿态和力的示例性过程的流程图;
图12是示出了根据本文描述和示出的一个或多个实施例的在用于实施各种过程和***的一个或多个设备中使用的计算硬件的框图;和
图13是示出了根据本文描述和示出的一个或多个实施例的在用于实施各种过程和***的一个或多个机器人中使用的硬件的框图。
具体实施方式
作为人类,我们的触觉使我们能够在不看物体的情况下确定物体的形状。此外,我们的触觉提供了如何正确地抓持和保持物体的信息。我们的手指比身体的其他部位(如手臂)对触摸更敏感。这是因为我们用我们的手操纵物体。
机器人通常配备有末端执行器,末端执行器被构造为执行某些任务。例如,机器人手臂的末端执行器可以被构造为人手,或者被构造为双指抓持器。然而,机器人没有像人类那样具有不同程度的触摸灵敏度。末端执行器可以包括诸如压力传感器的传感器,但是该传感器提供关于与末端执行器接触的物体的有限信息。因此,机器人可能通过使用过大的力而损坏目标物体、或者因为机器人没有正确地抓持住物体而使物体掉落。
此外,在一些应用中,可能需要可变形/顺从的末端执行器。例如,在人-机交互中可能需要可变形的末端执行器。此外,当机器人操纵易碎物体时,可能需要可变形/顺从的末端执行器。
本公开的实施例涉及可变形/顺从的接触和/或几何形状传感器(下文中称为“可变形传感器”),其不仅检测与目标物体的接触、还检测目标物体的几何形状、姿态和接触力。特别地,本文描述的可变形传感器包括联接到壳体的可变形膜,壳体保持能够通过与物体接触来检测可变形膜的位移的传感器。本文描述的可变形传感器不仅检测施加到可变形膜的压力或力,还可以检测物体的几何形状和姿态。因此,本文描述的可变形传感器在操纵物体时为机器人(或其他装置)提供触觉。
现在参考图1和图2,示意性地示出了示例性可变形传感器100。图1是示例性可变形传感器100的正视图,图2是示例性可变形传感器100的顶部透视图。图1和图2描绘了不同的实施例。示例性可变形传感器100通常包括壳体110和联接到壳体110(例如通过壳体110的上部111)的可变形膜120。壳体110和可变形膜120限定包封件113,包封件113通过一个或多个通路112填充有介质,所述通路可以是阀门或任何其他合适的机构。通路112可用于填充或清空包封件。在一个示例中,介质是气体,例如空气。因此,可以将空气泵送到包封件113中至所需压力,使得可变形膜120形成如图1所示的圆顶形状,但是在其他实施例中可以使用任何合适的形状。在另一个示例中,介质是凝胶,例如硅酮或其他橡胶状物质。在一些实施例中,诸如固体硅酮的物质可以在组装可变形传感器100之前铸造成给定形状。在各种实施例中,介质可以是对内部传感器透明的任何东西(下面更详细地讨论),例如对一个飞行时间传感器的波长来说是透明的。在一些实施例中,介质可包括清晰/透明橡胶。在其他实施例中,介质可以是液体。在一些示例中,可变形膜120和包封件113内的介质可以由相同的材料制成,例如但不限于硅酮。在一些实施例中,可变形传感器100可以是可安装的。例如,包封件113可包括将要安装任何合适的物体(例如机器人)或材料的支架。可变形膜120可以是胶乳或任何其他合适的材料,例如合适的薄的无孔橡胶状材料。
可以通过改变可变形膜120的材料和/或包封件113内的压力来调整/修改可变形传感器100的可变形性。通过使用较软的材料(例如,软硅酮),可变形传感器100可以更容易地变形。类似地,降低包封件113内的压力还可以使可变形膜120更容易变形,这又可以提供更易变形的传感器100。
能够感测深度的内部传感器130可以设置在包封件113内,包封件可以通过内部传感器130的深度分辨率来测量。内部传感器130可以具有被引导通过介质并朝向可变形膜120的底表面的视场132。在一些实施例中,内部传感器130可以是光学传感器。如下面更详细地描述的,当可变形膜120与物体接触时,内部传感器130能够检测可变形膜120的偏转。在一个示例中,内部传感器130是能够测量深度的飞行时间传感器。飞行时间传感器发射光信号(例如,红外信号)并具有单独的检测器(即“像素”),检测器检测反射信号返回传感器所花费的时间。飞行时间传感器可以具有任何期望的空间分辨率。像素数越大,空间分辨率越高。可以改变布置在内部传感器130内的传感器的空间分辨率。在一些情况下,可能需要低空间分辨率(例如,检测单个点的位移的一个“像素”)。在其他情况下,敏感的飞行时间传感器可以用作提供密集触觉感测的高空间分辨率内部传感器130。因此,内部传感器130可以是模块化的,因为传感器可以根据应用而改变。在一些实施例中,机器人由于变化的空间分辨率和/或深度分辨率而具有变化的触摸灵敏度。
图3描绘了一个示例性飞行时间传感器。飞行时间传感器的非限制性示例是由德国Siegen的PMD技术股份公司销售的Pico Flexx。作为非限制性示例,其他类型的视觉内部传感器包括立体相机、激光范围传感器、结构化光学传感器/3d扫描仪、单个相机(诸如内部具有点或其他图案)、或任何其他合适类型的视觉检测器。例如,内部传感器130可以被构造为能够检测物体对可变形膜120造成的偏转的立体相机。
在一些实施例中,可以在单个可变形传感器100内使用任何合适数量和/或类型的内部传感器130。在一些示例中,并非可变形传感器100内的所有内部传感器130都需要是相同类型的。在各种实施例中,一个可变形传感器100可以利用具有高空间分辨率的单个内部传感器130,而另一个可变形传感器100可以使用均具有低空间分辨率的多个内部传感器130。在一些实施例中,由于内部传感器130的数量的增加,可变形传感器100的空间分辨率可以增加。在一些示例中,可变形传感器100内的内部传感器130的数量的减少可以由剩余内部传感器130中的至少一些的空间分辨率的相应增加来补偿。如下面更详细地讨论的,可以根据机器人的一部分中的可变形传感器100中的变形分辨率或深度分辨率来测量总变形分辨率。在一些实施例中,总变形分辨率可以基于机器人的一部分中的可变形传感器的数量和从该部分中的每个可变形传感器获得的变形分辨率。
再次参照图1,可以在包封件113中使用导管114,以通过导管(例如USB(通用串行总线)或任何其他合适类型的电源和/或信号/数据连接)将电力和/或数据/信号例如提供至内部传感器130。如本文所用,气密导管可以包括任何类型的通道,空气或任何其他流体(例如液体)不能通过该通道。在该示例中,气密导管可以提供通道,固体物体(例如电线/电缆)可以穿过该通道,在气密导管的每个端部处围绕这些电线/电缆形成气密密封。其他实施例利用无线内部传感器130来发送和/或接收数据和/或电力。在介质不是气体的各种实施例中(例如硅酮),包封件113和/或导管114可以不必是气密的。
在一些实施例中,内部传感器130可以包括一个或多个内部压力传感器(气压计、压力传感器等,或其任何组合),用于检测可变形膜120通过介质的一般变形。在一些实施例中,可变形传感器100和/或内部传感器130可以接收/发送各种数据,例如通过上面讨论的导管114、无线数据传输(Wi-Fi、蓝牙等)或任何其他合适的数据通信协议。例如,可变形传感器100内的压力可以由加压参数指定,并且可以与可变形传感器100的可变形性成反比。在一些实施例中,可以通过改变包封件113内的压力或者可变形膜120的材料来修改可变形传感器100的可变形性。在一些实施例中,接收更新的参数值可导致实时或延迟的更新(加压等)。
图4描绘了示例性物体215移动示例性可变形传感器100的可变形膜120的图像。在所示实施例中,显示装置140进行输出,用于在装置上显示,可变形传感器100的实时地作为物体215的输出接触可变形膜120和/或使可变形膜120变形。应当理解,显示装置140仅用于说明目的,并且可以在没有显示装置的情况下使用实施例。当物体215被压入可变形膜120中时,物体215将其形状赋予可变形膜120,使得可变形膜120符合物体215的形状。内部传感器130的空间分辨率可以使得内部传感器130检测移位的可变形膜120的几何形状和/或姿态。例如,当内部传感器130是飞行时间传感器时,从可变形膜的底表面(其被物体所偏转)反射出的光信号具有比由可变形膜120在偏转区域外部的区域处反射的光信号更短的飞行时间。因此,可以在显示装置140上输出并显示具有与物体215的形状匹配的几何形状和/或姿态的接触区域142(或者在本文可替换地使用的移位区域)。
因此,可变形传感器100不仅可以检测与物体215的接触的存在,而且还可以检测物体215的几何形状。以这种方式,配备有可变形传感器100的机器人可以基于与物体的接触来确定物体的几何形状。物体。另外,还可以基于由可变形传感器100感测的几何形状信息来确定物体215的几何形状和/或姿态。例如,诸如当确定物体215的姿态时,可以显示垂直于接触区域142中的表面的矢量144。矢量144可以由机器人或其他设备使用,以确定特定物体215可以例如朝向哪个方向。
现在参照图5,在一些实施例中,可选的滤光层123可以设置在可变形膜120的底表面121上。如下面更详细地描述并且在图7中所示的,可变形膜120的底表面121可以被图案化(例如,网格图案122、点图案、或任何其他合适类型的图案),作为非限制性示例,图案可以由立体相机检测以检测位移。滤光层123可以构造成帮助内部传感器130检测可变形膜120的变形。在一些实施例中,滤光层123减少由内部传感器130发射的一个或多个光信号的眩光或不适当的反射。在一些实施例中,滤光层123可以散射由内部传感器130发射的一个或多个光信号。滤光层123可以是固定到可变形膜120的底表面121的附加层,或者它可以是应用于可变形膜120的底表面121涂层和/或图案。
参考图6,在一些实施例中,内部传感器滤光器135可以设置在内部传感器130的视场132内。内部传感器滤光器135可以优化由内部传感器130发射的光信号,以在可变形膜120的底表面121上反射。与滤光层123类似,内部传感器滤光器135可以设置在内部传感器130的视场132内,并且可以减少由内部传感器130发射的任何光信号的眩光或不适当的反射。在一些实施例中,内部传感器滤光器135可以散射由内部传感器130发射的一个或多个光信号。在一些实施例中,可以使用内部传感器滤光器135和滤光层123两者。
现在参照图7,网格图案122可以应用于可变形膜120的底表面121,以帮助检测可变形膜120的变形。例如,网格图案122可以帮助检测当内部传感器130是立体相机时的变形。例如,可以利用网格图案122的不同程度的扭曲来辨别已经发生了多少变形。在该示例中,平行线之间的距离和/或测量网格图案122中的线的曲率可以用于确定网格中的每个点处的变形量。应当理解,实施例不限于网格图案,因为其他类型的图案也是可以的,例如点、形状等。底表面121上的图案可以是随机的,并且不必布置成如图7所示的网格图案122或阵列。
图8示意性地描绘了具有第一可变形传感器100a的示例性且非限制性的第一机器人200a和具有第二可变形传感器100b的示例性第二机器人200b。在该示出的示例中,第一机器人200a和第二机器人200b可以协作用于双臂操纵,其中第一可变形传感器100a和第二可变形传感器100b都接触物体215。如上所述,本文描述的可变形传感器100可以用作机器人的末端执行器来操纵物体。由于可变形膜120的柔性特性,可变形传感器100可以允许机器人处理易碎的物体215。此外,可变形传感器100对于机器人-人的接触来说是有用的,因为在一些实施例中,可变形膜120对于触摸来说可以是更柔软和/或更柔韧/可变形的,而不是刚性的(不可变形或几乎不可变形)。
除了几何形状和姿态估计之外,可变形传感器100可以用于确定机器人200a(或其他设备)施加在目标物体215上的力多大。虽然参考了第一机器人200a,但是在一些实施例中任何这样的参考可以利用第二机器人200b、任何其他合适的装置、和/或其任何组合。机器人200a可以使用该信息来更准确地抓持物体215。例如,可以对可变形膜120的位移进行建模。可变形膜120的位移模型可以用于确定向目标物体215施加多大的力。然后,可以使用由可变形膜120的位移测量的确定的力来控制机器人200a,以更准确地抓持物体215。作为示例,机器人200a(下面更详细地讨论)施加到易碎物体215的力的大小可以是重要的,使得机器人200a不会破坏易碎的物体215。在一些实施例中,可以为物体215指定软度值(或易碎值),其中,机器人200a可以被编程,以基于软度值(其可以在处理器处例如从数据库、服务器、用户输入等中接收)与所有物体215交互。在一些实施例中,可以提供用户界面以指定用于初始化和/或进行更新(例如在图4中所示的显示设备140、图12中所示的显示设备1204上等)的任何合适的值(图1的可变形传感器100内的压力、与物体215有关的软度值等)。在其他实施例中,机器人200a可以能够识别特定物体215(诸如通过视觉***中的物体识别等),由此可以修改软度值,这可以导致使用另一可变形传感器100,所述另一可变形传感器具有对于可变形膜120来说更合适的可变形性、总空间分辨率、深度分辨率、压力和/或材料。在一些实施例中,机器人200a中的处理器可以从内部传感器130接收表示接触区域142的数据。在各种实施例中,机器人200a中的处理器可以基于表示接触区域142的数据确定垂直于物体215的表面的矢量144,并利用矢量144来确定物体215朝向哪个方向。
在实施例中,可以在机器人200上的各个位置处提供多个可变形传感器。图9描绘了在不同位置处具有多个可变形传感器100、100'和100”的示例性机器人200。可变形传感器100可以用作机器人200的末端执行器,并且具有高的空间分辨率和/或深度分辨率。在一些实施例中,可变形传感器100的可变形性可以是可变形膜120的材料和可变形传感器100内的内部压力的某种组合的函数。在一些实施例中,可变形传感器100可以具有夹持件或其他合适的附接机构。例如,可变形传感器100可以可移除地附接到机器人200和/或如下机器人200:所述机器人可以具有向可变形传感器100提供附接和/或移除的特征部。在一些实施例中可以使用任何合适类型的夹持件、紧固件、或附接机构。
每个可变形传感器100根据其在机器人200上的位置可以具有期望的空间分辨率和/或期望的深度分辨率。在所示实施例中,可变形传感器100'设置在第一臂部分201和第二臂部分202上(术语“臂部分”和“部分”在全文中可互换使用)。臂部分可以具有一个或多个可变形传感器100,或者根本没有。可变形传感器100'可以成形为符合第一臂部分201和/或第二臂部分202的形状。可以注意到,本文描述的可变形传感器100可以根据应用呈现任何形状。可变形传感器100'可以非常柔的并因此是可变形的。这在人机交互中可以是有益的。以这种方式,机器人200可以接触人(例如,给予人“拥抱”)而由于可变形传感器100'的柔软性和/或由于控制与物体接触的力的能力而不会造成伤害。取决于应用,臂部分201、202中的一个或多个可变形传感器100'的空间分辨率可以高或低。在图9的示例中,机器人200的基部203附近的可变形传感器100”可以具有低空间分辨率,并且可以被构造为仅检测与目标物体的接触。可以基于机器人200的应用来设置机器人200的基部附近的可变形传感器100”的可变形性。传感器100的深度分辨率和/或空间分辨率可以沿机器人200的不同部分变化。例如。一个部分203可能不需要识别与特定可变形传感器100接触的物体的形状和/或姿态,因为简单地记录与物体的接触就可以提供足够的信息,而与另一部分(例如201)接触可以产生从接触得来的姿态和/或形状信息。如图9所示,可变形传感器100可以具有任何合适的尺寸,该尺寸即使在臂部分内也可以改变。尽管臂部分201、202、203被描绘为离散/非重叠的,但是在其他实施例中可以发生重叠。
如上文所讨论的,机器人200的一部分可以提供大于另一部分的总空间分辨率。在一些实施例中,第一机器人200a的一部分可以在与第二机器人200b的一部分同时配合的情况下与物体215交互,并且第一机器人200a的所述一部分的总空间分辨率可以等于第二机器人200b的所述一部分的空间分辨率。在一些实施例中,可以基于与所述部分相互作用的一个或多个物体215的软度值来确定和/或修改可变形性(例如在机器人200a的一部分中的可变形性)。在各种实施例中,基于两个部分被构造为与具有不同软度值的多个物体215交互,所述部分的总空间分辨率可以与另一部分的总空间分辨率不同。在一些实施例中,修改所述部分的总空间分辨率可以基于调整可变形膜120的数量、一个或多个可变形膜120内的内部传感器130的数量、和/或至少一个内部传感器130的空间分辨率来实现。在一些实施例中,各个部分可以串联工作。例如,如上文所讨论的,一个部分可以利用高空间分辨率来确定物体的姿态/形状和/或物体表面上的图案,而另一部分(在相同或不同的机器人上)可以仅检测接触的位置,其中,这些部分可以彼此通信或与从两个部分接收信息的另一部件通信。
现在参考图10,一个实施例描绘了复合内部传感器1000,该复合内部传感器可以在可变形传感器(未示出)内使用。描绘了多个内部传感器1002,其在该实施例中是飞行时间相机(如上文在图3中所讨论的)。其他实施例可以使用各种类型的内部传感器的任何组合。在该实施例中,电缆1004用于向内部传感器提供数据通信和/或电力,但是其他实施例可以使用不同数量的电缆和/或用于数据和/或电力的无线连接。在该实施例中描绘了支撑结构1006,但是其他实施例可以使用多个支撑结构或不使用支撑结构。在该实施例中,支撑结构是刚性的,但是在一些实施例中,一个或多个支撑结构可以是柔性的,以改变内部传感器1002的取向。在该实施例中,电缆1004可以连接到基部部分1008,用于数据通信和/或电源。
现在转到图11,流程图1100示出了用于确定与可变形传感器与之接触的物体相关的姿态和力的示例性过程。在框1102处,介质(气体、液体、硅酮等)可以被接收在具有壳体110的包封件113内,其中可变形膜120联接到壳体110的上部111。在框1104处,可以通过包封件113中的内部传感器130基于与物体215的接触来测量可变形膜120的变形,该内部传感器130具有引导通过介质并指向可变形膜120的底表面121的视场132。在框1106处,可以基于测量的可变形膜120的变形(例如接触区域142)来确定物体215的姿态。在框1108处,基于测量的可变形膜120的变形来确定可变形膜120和物体215之间的力的大小。框1106和1108可以同时进行,但不必须要同时进行。在框1110处,确定是否检测到进一步的变形和/或接触。如果是,则流程图可以返回到框1104。如果不是,则流程图可以结束。
转到图12,框图示出了可以实现本公开的实施例的计算设备1200的示例,诸如(作为非限制性示例)可变形传感器100、内部传感器130、机器人200、或本文描述的任何其他设备。本文描述的计算设备1200仅是合适的计算设备的一个示例,并不暗示对所呈现的任何实施例的范围的任何限制。关于计算设备1200所示出或描述的任何内容都不应被解释为需要或者针对任何元素或多个元素创建任何类型的依赖性。在各种实施例中,计算设备1200可以包括但不必局限于可变形传感器100、内部传感器130、机器人200。在一个实施例中,计算设备1200包括至少一个处理器1202和存储器(非易失性存储器1208和/或易失性存储器1210)。计算设备1200可以包括一个或多个显示器和/或输出设备1204,例如监视器、扬声器、耳机、投影仪、可穿戴显示器、全息显示器、和/或打印机。计算设备1200还可以包括一个或多个输入设备1206,作为示例,其可以包括任何类型的鼠标、键盘、磁盘/介质驱动器、记忆棒/拇指驱动器、存储卡、笔、触摸输入设备、生物识别扫描仪、语音/听觉输入设备、运动检测器、相机、标尺等。
计算设备1200可以包括非易失性存储器1208(ROM、闪存等)、易失性存储器1210(RAM等)、或其组合。网络接口1212可以经由线路、经由广域网、经由局域网、经由个人区域网络、经由蜂窝网络、经由卫星网络等促进在网络1214上的通信。合适的局域网可以包括有线以太网和/或无线技术,例如无线保真(Wi-Fi)。合适的个人区域网络可以包括无线技术,例如IrDA、蓝牙、无线USB、Z-Wave、ZigBee、和/或其他近场通信协议。合适的个人区域网络可以类似地包括有线计算机总线,例如USB和FireWire。合适的蜂窝网络包括但不限于诸如LTE、WiMAX、UMTS、CDMA和GSM的技术。网络接口1212可以通信地联接到能够经由网络1214发送和/或接收数据的任何设备。因此,网络接口1212的硬件可以包括用于发送和/或接收任何有线或无线通信的通信收发器。例如,网络接口硬件可以包括天线、调制解调器、LAN端口、Wi-Fi卡、WiMax卡、移动通信硬件、近场通信硬件、卫星通信硬件和/或用于与其他网络和/或设备通信的任何有线或无线硬件。
计算机可读存储介质1216可以包括多个计算机可读介质,每个计算机可读介质可以是计算机可读存储介质或计算机可读信号介质。计算机可读存储介质1216可以驻留在例如输入设备1206、非易失性存储器1208、易失性存储器1210、或其任何组合内。计算机可读存储介质可以包括有形介质,其能够存储与设备或***相关或由设备或***使用的指令。作为非限制性示例,计算机可读存储介质包括:RAM、ROM、高速缓存、光纤、EPROM/闪存、CD/DVD/BD-ROM、硬盘驱动器、固态存储、光学或磁存储装置、软盘、具有电线的电连接、或其任何组合。计算机可读存储介质还可以包括例如磁、光、半导体、或电子类型的***或设备。计算机可读存储介质和计算机可读信号介质是互斥的。例如,机器人200和/或服务器可以利用计算机可读存储介质来存储从机器人200上的一个或多个内部传感器130接收的数据。
计算机可读信号介质可以包括不是计算机可读存储介质的任何类型的计算机可读介质,并且可以包括例如采用诸如光学、电磁、或其组合的任何数量形式的传播信号。计算机可读信号介质可以包括传播的数据信号,该传播的数据包含例如载波内的计算机可读代码。计算机可读存储介质和计算机可读信号介质是互斥的。
计算设备1200(诸如可变形传感器100、内部传感器130、机器人200)可以包括一个或多个网络接口1212,以促进与一个或多个远程设备的通信,远程设备可以包括例如客户端和/或服务器设备。在各种实施例中,计算设备(例如机器人或可变形传感器)可以被构造为通过服务器或其他网络计算设备与网络进行通信,以从机器人200上的一个或多个可变形传感器100发送和接收数据。网络接口1212也可以被描述为通信模块,因为这些术语可以互换使用。
现在转到图13,示意性地描绘了机器人1300的一个非限制性实施例的示例性部件。机器人1300包括壳体1310、通信路径1328、处理器1330、存储模块1332、触觉显示器1334、惯性测量单元1336、输入装置1338、音频输出装置1340(例如,扬声器)、麦克风1342、相机1344、网络接口硬件1346、触觉反馈装置1348、位置传感器1350、灯1352、接近传感器1354、温度传感器1356、机动轮组件1358、电池1360、和充电端口1362。机器人1300的除了壳体1310之外的部件可以包含在壳体1310内或安装到壳体1310。机器人1300的各种部件及其相互作用将在下面详细描述。
仍然参考图13,通信路径1328可以由能够传输信号的任何介质(例如导线、导电迹线、光波导等)形成。此外,通信路径1328可以由能够发送信号的介质的组合形成。在一个实施例中,通信路径1328包括导电迹线、导线、连接器和总线的组合,其协作以允许将电数据信号传输到诸如处理器、存储器、传感器、输入设备、输出设备和通信设备的部件。因此,通信路径1328可以包括总线。另外,应注意,术语“信号”表示能够通过媒介行进的波形(例如,电的、光的、磁的、机械的或电磁的),例如DC、AC、正弦波、三角波、方波、振动、等。通信路径1328通信地联接机器人1300的各种部件。如本文所使用的,术语“通信地联接”意味着联接的部件能够与例如经由导电介质的电信号、经由空气的电磁信号、经由光波导的光信号等交换数据信号。
机器人1300的处理器1330可以是能够执行机器可读指令的任何设备。因此,处理器1330可以是控制器、集成电路、微芯片、计算机、或任何其他计算设备。处理器1330可以通过通信路径1328通信地联接到机器人1300的其他部件。在各种实施例中,这可以允许处理器1330从可以是机器人1300的一部分的一个或多个可变形传感器100接收数据。在其他实施例中,处理器1330可以直接从一个或多个内部传感器130接收数据,内部传感器130是机器人1300上的一个或多个可变形传感器100的一部分。因此,通信路径1328可以通信地将任意数量的处理器彼此联接,并且允许联接到通信路径1328的部件在分布式计算环境中操作。具体地,每个部件可以作为可以发送和/或接收数据的节点操作。虽然图13中描绘的实施例包括单个处理器1330,但是其他实施例可以包括一个以上的处理器。
仍然参考图13,机器人1300的存储器模块1332联接到通信路径1328并且通信地联接到处理器1330。存储器模块1332可以例如包含检测物体的形状的指令,所述物体已经使变形传感器100的可变形膜120变形。在该示例中,当由处理器1330执行时,存储在存储器模块1332中的这些指令可以允许基于观察到的可变形膜120的变形来确定物体的形状。存储器模块1332可以包括RAM、ROM、闪存、硬盘驱动器、或能够存储机器可读指令的任何非暂时性存储器设备,使得机器可读指令可以由处理器1330访问和执行。机器可读指令可以包括用任何代(例如,1GL、2GL、3GL、4GL、或5GL)的任何编程语言(例如,可以由处理器直接执行的语言、或汇编语言、面向物体编程(OOP)、脚本语言、微代码等,其可以被编译或组装成机器可读指令并存储在存储器模块1332中)编写的逻辑或算法。替代地,机器可读指令可以用硬件描述语言(HDL)编写,例如通过现场可编程门阵列(FPGA)构造或专用集成电路(ASIC)或它们的等同物实现的逻辑。因此,本文描述的功能可以以任何传统的计算机编程语言实施为预编程的硬件元件或硬件和软件部件的组合。虽然图13中描绘的实施例包括单个存储器模块1332,但是其他实施例可以包括一个以上的存储器模块。
触觉显示器1334(如果提供了的话)联接到通信路径1328并且通信地联接到处理器1330。触觉显示器1334可以是能够以可刷新的触觉消息的形式提供触觉输出的任何设备。触觉消息通过触摸向用户传达信息。例如,触觉消息可以是触觉书写***的形式,例如盲文。触觉消息也可以是任何形状的形式,例如在环境中检测到的物体的形状。触觉显示器1334可以向用户提供关于机器人1300的操作状态的信息。
可以使用任何已知的或尚未开发的触觉显示器。在一些实施例中,触觉显示器1334是包括表面的三维触觉显示器,其部分可以升高以传递信息。在一些实施例中,升高的部分可以机械地致动(例如,机械升高和降低的销)。触觉显示器1334也可以是流体致动的,或者它可以被构造为电振动触觉显示器。
惯性测量单元1336(如果提供了的话)联接到通信路径1328并且通信地联接到处理器1330。惯性测量单元1336可以包括一个或多个加速度计和一个或多个陀螺仪。惯性测量单元1336将感测到的机器人1300的物理运动转换为指示机器人1300的取向、旋转、速度、或加速度的信号。机器人1300的操作可以取决于机器人1300的取向(例如,机器人1300是否是水平的、倾斜的、等)。机器人1300的一些实施例可以不包括惯性测量单元1336,诸如包括加速度计但不包括陀螺仪的实施例、包括陀螺仪但不包括加速度计的实施例、或者既不包括加速度计也不包括陀螺仪的实施例。
仍然参考图13,一个或多个输入设备1338联接到通信路径1328并且通信地联接到处理器1330。输入设备1338可以是能够将用户接触转换成数据信号的任何设备,所述数据信号可以在通信路径1328(例如按钮、开关、旋钮、麦克风等)上传输。在各种实施例中,输入装置1338可以是如上所述的可变形传感器100和/或内部传感器130。在一些实施例中,输入设备1338包括电源按钮、音量按钮、激活按钮、滚动按钮等。可以提供一个或多个输入设备1338,使得用户可以与机器人1300交互,以例如导航菜单、做出选择、设置偏好、以及本文描述的其他功能。在一些实施例中,输入装置1338包括压力传感器、触敏区域、压力条等。应当理解,一些实施例可以不包括输入装置1338。如下面更详细描述的,机器人1300的实施例可以包括设置在壳体1310的任何表面上的多个输入装置。在一些实施例中,一个或多个输入设备1338被构造为用于解锁机器人的指纹传感器。例如,只有具有注册指纹的用户可以解锁并使用机器人1300。
扬声器1340(即,音频输出设备)联接到通信路径1328并且通信地联接到处理器1330。扬声器1340将来自机器人1300的处理器1330的音频消息数据转换成产生声音的机械振动。例如,扬声器1340可以向用户提供导航的菜单信息、设置信息、状态信息、关于来自一个或多个相机1344的图像数据检测到的环境的信息等。然而,应该理解的是,在其他实施例中,机器人1300可以不包括扬声器1340。
麦克风1342联接到通信路径1328并且通信地联接到处理器1330。麦克风1342可以是能够将与声音相关的机械振动转换成指示声音的电信号的任何设备。麦克风1342可以用作输入设备1338以执行诸如导航菜单、输入设置和参数、以及任何其他任务的任务。应该理解,一些实施例可以不包括麦克风1342。
仍然参考图13,相机1344联接到通信路径1328并且通信地联接到处理器1330。相机1344可以是具有能够检测紫外线波段、可见光波段、或红外波段中的辐射的感测装置阵列(例如,像素)的任何装置。相机1344可以具有任何分辨率。相机1344可以是全向相机或全景相机。在一些实施例中,一个或多个光学部件(例如镜子、鱼眼镜头、或任何其他类型的镜头)可以光学联接到相机1344。如下面更详细描述的,相机1344是可操作成升高到壳体1310上方以捕获图像数据的成像组件1322的部件。
网络接口硬件1346联接到通信路径1328并且通信地联接到处理器1330。网络接口硬件1346可以是能够经由网络1370发送和/或接收数据的任何设备。因此,网络接口硬件1346可以包括无线通信模块,无线通信模块被构造为用于发送和/或接收任何有线或无线通信的通信收发器。例如,网络接口硬件1346可以包括天线、调制解调器、LAN端口、Wi-Fi卡、WiMax卡、移动通信硬件、近场通信硬件、卫星通信硬件和/或用于与其他网络和/或设备通信的任何有线或无线硬件。在一个实施例中,网络接口硬件1346包括构造成根据蓝牙无线通信协议操作的硬件。在另一个实施例中,网络接口硬件1346可以包括蓝牙发送/接收模块,用于向便携式电子设备1380发送蓝牙通信/从便携式电子设备1380接收蓝牙通信。网络接口硬件1346还可以包括构造成询问和阅读RFID标签的射频识别(“RFID”)读取器。
在一些实施例中,机器人1300可以经由网络1370通信地联接到便携式电子设备1380。在一些实施例中,网络1370是利用蓝牙技术通信地联接机器人1300和便携式电子设备1380的个人区域网络。在其他实施例中,网络1370可以包括一个或多个计算机网络(例如,个人区域网络、局域网、或广域网)、蜂窝网络、卫星网络和/或全球定位***及其组合。因此,机器人1300可以经由电线、经由广域网、经由局域网、经由个人区域网络、经由蜂窝网络、经由卫星网络等通信地联接到网络1370。合适的局域网可以包括有线以太网和/或无线技术,例如无线保真(Wi-Fi)。合适的个人区域网络可以包括无线技术,例如IrDA、蓝牙、无线USB、Z-Wave、ZigBee、和/或其他近场通信协议。合适的个人区域网络可以类似地包括有线计算机总线,例如USB和FireWire。合适的蜂窝网络包括但不限于诸如LTE、WiMAX、UMTS、CDMA、和GSM的技术。
仍然参考图13,如上所述,网络1370可以用于将机器人1300与便携式电子设备1380通信地联接。便携式电子设备1380可以包括移动电话、智能电话、个人数字助理、相机、专用移动媒体播放器、移动个人计算机、膝上型计算机、和/或能够与机器人1300通信联接的任何其他便携式电子设备。便携式电子设备1380可包括一个或多个处理器和一个或多个存储器。所述一个或多个处理器可以执行逻辑以与机器人1300通信。便携式电子设备1380可以构造有用于与机器人1300通信的有线和/或无线通信功能。在一些实施例中,便携式电子设备1380可以执行本文描述的功能的一个或多个元件,例如在本文描述的功能分布在机器人1300和便携式电子设备1380之间的实施例中。
触觉反馈设备1348联接到通信路径1328并且通信地联接到处理器1330。触觉反馈设备1348可以是能够向用户提供触觉反馈的任何设备。触觉反馈设备1348可以包括振动设备(诸如在通过振动传递触觉反馈的实施例中)、吹气设备(诸如在通过一股空气传递触觉反馈的实施例中)、或压力产生装置(诸如在通过产生的压力传递触觉反馈的实施例中)。应当理解,一些实施例可以不包括触觉反馈设备1348。
位置传感器1350联接到通信路径1328并且通信地联接到处理器1330。位置传感器1350可以是能够生成指示位置的输出的任何设备。在一些实施例中,位置传感器1350包括全球定位***(GPS)传感器,但是实施例不限于此。一些实施例可以不包括位置传感器1350,诸如机器人1300不确定机器人1300的位置的实施例或者以其他方式(例如,基于从相机1344接收的信息、麦克风1342、网络接口硬件1346、接近传感器1354、惯性测量单元1336等)确定位置的实施例。位置传感器1350还可以被构造为能够通过从一个或多个无线信号天线接收的无线信号对机器人1300和用户的位置进行三角测量的无线信号传感器。
机动轮组件1358联接到通信路径1328并通信地联接到处理器1330。如下面更详细描述的,机动轮组件1358包括由一个或多个马达(未示出)驱动的机动轮(未示出)。处理器1330可以向机动轮组件1358提供一个或多个驱动信号以致动机动轮,使得机器人1300行进到期望位置,例如用户希望获取环境信息的位置(例如,在所需位置处或附近内的特定物体的位置)。
仍然参考图13,灯1352联接到通信路径1328并且通信地联接到处理器1330。灯1352可以是能够输出光的任何设备,例如但不限于发光二极管、白炽灯、荧光灯等。一些实施例包括当机器人1300通电时被照亮的电源指示灯。一些实施例包括当机器人1300处于活动状态或处理数据时被照亮的活动指示灯。一些实施例包括用于照亮机器人1300所在的环境的照明灯。一些实施例可以不包括灯1352。
接近传感器1354联接到通信路径1328并且通信地联接到处理器1330。接近传感器1354可以是能够输出指示机器人1300接近另一个物体的接近信号的任何设备。在一些实施例中,接近传感器1354可以包括激光扫描仪、电容位移传感器、多普勒效应传感器、涡流传感器、超声传感器、磁传感器、内部传感器、雷达传感器、激光雷达传感器(lidar sensor)、声纳传感器等。一些实施例可以不包括接近传感器1354,诸如其中机器人1300与物体的接近度由其他传感器(例如,相机1344、扬声器1340等)提供的输入确定的实施例或者不确定机器人1300与物体1315的接近度的实施例。
温度传感器1356联接到通信路径1328并且通信地联接到处理器1330。温度传感器1356可以是能够输出指示由温度传感器1356感测到的温度的温度信号的任何设备。在一些实施例中,温度传感器1356可以包括热电偶、电阻温度装置、红外传感器、双金属装置、状态变化传感器、温度计、硅二极管传感器等。机器人1300的一些实施例可以不包括温度传感器1356。
仍然参考图13,机器人1300由电池1360供电,电池1360电联接到机器人1300的各种电气部件。电池1360可以是能够存储电能以供机器人1300稍后使用的任何装置。在一些实施例中,电池1360是可充电电池,例如锂离子电池或镍镉电池。在电池1360是可充电电池的实施例中,机器人1300可以包括充电端口1362,其可以用于对电池1360充电。一些实施例可以不包括电池1360,例如其中机器人1300由电网、由太阳能、或由从环境中收集的能量供电的实施例。一些实施例可以不包括充电端口1362,例如其中该设备利用一次性电池供电的实施例。
现在应该理解,本公开的实施例涉及可变形传感器,其能够检测与物体的接触以及物体的几何形状和姿态。例如,可以在机器人上提供一个或多个可变形传感器。然后,由可变形传感器提供的信息可用于控制机器人与目标物体的相互作用。变形传感器的深度分辨率和空间分辨率可以根据机器人上的可变形传感器的位置而变化。
应该注意,本文中以特定方式“构造”或“编程”以体现特定属性或以特定方式起作用的本公开的部件的叙述是结构性叙述,与预期用途的叙述相反。更具体地,本文提及的其中部件被“构造”或“编程”的方式表示部件的现有物理条件,并且因此将被视为部件的结构特征的明确叙述。
除非另有说明,否则本文所示和所述的本公开的示例中的操作的实施或执行顺序不是至关重要的。也就是说,除非另有说明,否则操作可以以任何顺序执行,并且本公开的示例可以包括比本文公开的操作更多或更少的操作。例如,可以构思的是,在另一操作之前、同时、或之后执行或实施特定操作处于本公开的各方面的范围内。
应该注意,术语“基本上”和“约”和“近似”可用于表示固有的不确定度,所述不确定度可归因于任何定量比较、值、测量、或其他表示。这些术语在本文中也用于表示定量表示可以从所述参考值变化的程度,而不会导致所讨论主题的基本功能的变化。
虽然本文已说明和描述了特定实施例,但应理解,在不脱离所要求保护的主题的精神和范围的情况下,可以进行各种其他改变和修改。此外,尽管本文已经描述了所要求保护的主题的各个方面,但是这些方面不需要组合使用。因此,所附权利要求旨在覆盖在所要求保护的主题的范围内的所有这些改变和修改。

Claims (10)

1.一种具有触摸灵敏度的机器人,包括:
多个可变形传感器,所述可变形传感器具有不同水平的深度分辨率和空间分辨率,用于检测与物体相关的姿态和力,其中,每个可变形传感器包括:
具有可变形膜的包封件,所述包封件构造为填充有介质;和
光学传感器,所述光学传感器设置在包封件内并且具有构造成指向所述可变形膜的底表面的视场;以及
第一部分和第二部分,所述第一部分和第二部分均包括所述多个可变形传感器中的至少一个可变形传感器。
2.根据权利要求1所述的机器人,还包括处理器,所述处理器构造为分析所述可变形膜中的由于与所述物体接触而产生的接触区域,以确定所述物体的姿态和施加在所述可变形膜与所述物体之间的力的大小。
3.根据权利要求1所述的机器人,其中:
所述包封件还包括壳体,并且所述可变形膜连接到所述壳体的上部;
所述第一部分和所述第二部分不重叠;
所述可变形传感器中的至少一个至少包括夹持机构,以附接至机器人;
所述第一部分构造成提供超过所述第二部分的总空间分辨率;
所述可变形传感器中的至少一个包括多个内部传感器;或者
所述第一部分包括所述多个可变形传感器的第一子集。
4.根据权利要求3所述的机器人,其中:
所述第二部分包括所述多个可变形传感器的第二子集;或者所述可变形传感器中的至少两个尺寸不同。
5.根据权利要求1所述的机器人,其中:
所述第一部分构造成在与第二机器人的一部分同时配合的情况下与所述物体交互,其中,所述机器人的所述第一部分的总空间分辨率等于所述第二机器人的所述一部分的空间分辨率;或者
所述第一部分构造成基于以下方面来提供超过所述第二部分的总空间分辨率:
在所述第一部分中的可变形传感器的数量;和
从所述第一部分中的每个可变形传感器获得的空间分辨率。
6.根据权利要求1所述的机器人,其中,所述第一部分中的可变形传感器的深度分辨率或空间分辨率基于由所述处理器接收并且与所述第一部分与之交互的物体相关的软度值来构造,其中,所述第二部分中的可变形传感器的深度分辨率或空间分辨率通过将所述第一部分和第二部分构造成与具有不同软度值的多个物体交互而构造成与所述第一部分中的可变形传感器的相应深度分辨率或空间分辨率不同。
7.一种具有触摸灵敏度的机器人,包括:
第一部分和第二部分,所述第一部分和第二部分均包括多个可变形传感器中的至少一个可变形传感器,其中,所述多个可变形传感器包括不同水平的深度分辨率和空间分辨率,用于检测与物体相关的姿态和力,并且其中,所述多个可变形传感器中的每个可变形传感器包括:
具有可变形膜的包封件,所述包封件构造为填充有介质;和
内部传感器,所述内部传感器设置在包封件内并且具有构造成引导通过所述介质并指向所述可变形膜的底表面的视场;和
处理器,所述处理器被构造为分析所述可变形膜中的由于与所述物体接触而产生的接触区域,以确定所述物体的姿态和施加在所述可变形膜与所述物体之间的力的大小。
8.根据权利要求7所述的机器人,还包括第一部分和第二部分,所述第一部分和第二部分均包括所述多个可变形传感器中的至少一个可变形传感器。
9.根据权利要求8所述的机器人,其中:
所述第一部分中的可变形传感器的深度分辨率或空间分辨率基于由所述处理器接收并且与所述第一部分与之交互的物体有关的软度值来构造,并且第二部分中的可变形传感器的深度分辨率或空间分辨率基于将所述第一部分和第二部分构造为与具有不同软度值的多个物体交互而构造为与所述第一部分中的可变形传感器的相应深度分辨率或空间分辨率不同;或者
所述第一部分构造成基于以下方面中的至少一个来提供超过所述第二部分的总空间分辨率:
在所述第一部分中的可变形传感器的数量;和
从所述第一部分中的每个可变形传感器获得的空间分辨率。
10.根据权利要求7所述的机器人,其中,至少一个内部传感器包括飞行时间传感器。
CN201811122602.9A 2017-09-26 2018-09-26 具有触摸灵敏度的机器人 Active CN109551502B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762563595P 2017-09-26 2017-09-26
US62/563,595 2017-09-26
US15/913,603 US10549428B2 (en) 2017-09-26 2018-03-06 Robots with compliant contact and geometry sensors having varying touch sensitivity and methods for providing the same
US15/913,603 2018-03-06

Publications (2)

Publication Number Publication Date
CN109551502A true CN109551502A (zh) 2019-04-02
CN109551502B CN109551502B (zh) 2023-08-25

Family

ID=65806369

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201811124448.9A Pending CN109556654A (zh) 2017-09-26 2018-09-26 用于检测物体的力和姿态的可变形传感器和方法
CN201811122602.9A Active CN109551502B (zh) 2017-09-26 2018-09-26 具有触摸灵敏度的机器人

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201811124448.9A Pending CN109556654A (zh) 2017-09-26 2018-09-26 用于检测物体的力和姿态的可变形传感器和方法

Country Status (3)

Country Link
US (4) US10668627B2 (zh)
JP (2) JP7068122B2 (zh)
CN (2) CN109556654A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113146660A (zh) * 2021-04-08 2021-07-23 清华大学深圳国际研究生院 一种利用深度视觉进行触觉感知的机械爪
CN113223377A (zh) * 2021-04-25 2021-08-06 浙江理工大学 一种盲文阅读笔及盲文读取方法
CN113263513A (zh) * 2020-02-17 2021-08-17 丰田研究所股份有限公司 包括具有可变形传感器的手指的机器人臂组件
CN113263505A (zh) * 2020-02-17 2021-08-17 丰田研究所股份有限公司 使用具有可变形传感器的机器人来确定位置的***
CN113525549A (zh) * 2021-08-20 2021-10-22 深圳鹏行智能研究有限公司 机器人足部和具有其的机器人

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10668627B2 (en) 2017-09-26 2020-06-02 Toyota Research Institute, Inc. Deformable sensors and methods for detecting pose and force against an object
DE102018123546A1 (de) 2017-09-26 2019-03-28 Toyota Research Institute, Inc. Verformbare sensoren und verfahren zur erfassung der pose und kraft an einem objekt
IT201700121883A1 (it) * 2017-10-26 2019-04-26 Comau Spa "Dispositivo automatizzato con una struttura mobile, in particolare un robot"
WO2021010241A1 (ja) * 2019-07-18 2021-01-21 ソニー株式会社 形状可変装置、形状制御方法、及び触覚提示装置
CN110645899B (zh) * 2019-09-10 2021-07-27 中国船舶重工集团公司第七一五研究所 一种结构裂缝分布式光纤监测方法及装置
US11519806B2 (en) * 2019-12-02 2022-12-06 Johnson Controls Tyco IP Holdings LLP System and method for indicating air pressure within an enclosed space
US11408788B2 (en) * 2020-03-31 2022-08-09 Toyota Research Institute, Inc. Variable geometry and stiffness control for fluid filled sensor
US11185994B2 (en) 2020-03-31 2021-11-30 Toyota Research Institute, Inc. Deformable sensors having multiple time-of-flight emitters
US11536621B2 (en) 2020-03-31 2022-12-27 Toyota Research Institute, Inc. Methods and systems for calibrating deformable sensors using camera
US11819999B2 (en) 2021-01-27 2023-11-21 Toyota Research Institute, Inc. Input devices having a deformable membrane and methods of using the same
US11472039B1 (en) 2021-04-23 2022-10-18 Toyota Research Institute, Inc. Deformable sensor with rotatable sensing components for detecting deformation levels
US12000749B2 (en) 2021-06-10 2024-06-04 Toyota Research Institute, Inc. Flexible tactile sensors for measuring contact surface normal force using inductive coupling
CN113390360B (zh) * 2021-06-16 2022-10-28 内蒙古工业大学 一种槽式太阳能集热管形变检测方法及装置
US11920992B2 (en) * 2021-07-20 2024-03-05 Toyota Research Institute, Inc. Deformable sensors and methods using magnetic repulsion for modifying run-time membrane stiffness
US11686574B2 (en) * 2021-07-20 2023-06-27 Toyota Research Institute, Inc Deformable sensors and methods for modifying run-time membrane stiffness
US11740065B2 (en) * 2021-08-06 2023-08-29 Toyota Research Institute, Inc. Deformable sensors and methods for modifying run-time membrane stiffness using magnetic attraction
CN115060198B (zh) * 2022-08-17 2022-11-11 无锡维度机器视觉产业技术研究院有限公司 光亮表面工件的全方位立体视觉检测方法及应用

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61283842A (ja) * 1985-06-10 1986-12-13 Nippon Telegr & Teleph Corp <Ntt> 力覚センサ
US5459329A (en) * 1994-09-14 1995-10-17 Georgia Tech Research Corporation Video based 3D tactile reconstruction input device having a deformable membrane
GB0313808D0 (en) * 2003-06-14 2003-07-23 Binstead Ronald P Improvements in touch technology
TW200827114A (en) * 2006-12-19 2008-07-01 Ind Tech Res Inst Tactile sensing device and an robotic apparatus using thereof
JP2009145085A (ja) * 2007-12-11 2009-07-02 Univ Of Tsukuba 3次元触覚センサ及び3次元触覚センシング方法
JP2009198475A (ja) * 2008-02-21 2009-09-03 Univ Of Tsukuba 弾性体特性を利用した3次元触覚センサ及び3次元触覚センシング方法
WO2009155501A2 (en) * 2008-06-19 2009-12-23 Massachusetts Institute Of Technology Tactile sensor using elastomeric imaging
US20120240691A1 (en) * 2011-03-23 2012-09-27 University Of Southern California Elastomeric optical tactile sensor
JP2013061223A (ja) * 2011-09-13 2013-04-04 Nagoya Univ 6軸力計測装置、及び6軸力計測方法
CN103124946A (zh) * 2010-10-20 2013-05-29 泰克图斯科技公司 用户接口***及方法
JP2013130426A (ja) * 2011-12-20 2013-07-04 Canon Inc 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2013205131A (ja) * 2012-03-28 2013-10-07 Dainippon Screen Mfg Co Ltd 3次元軌道生成装置および方法、ならびにプログラム
KR101586665B1 (ko) * 2014-10-28 2016-01-19 한국기계연구원 접촉면 계측이 가능한 유체형 촉각센서
US20160107316A1 (en) * 2014-10-16 2016-04-21 Technische Universität München Tactile sensor
CN105900045A (zh) * 2013-09-27 2016-08-24 森赛尔股份有限公司 触摸传感器检测器***及方法
JP2017071018A (ja) * 2015-10-07 2017-04-13 セイコーエプソン株式会社 ロボットシステム、ロボット、及びロボット制御装置
JP2017096782A (ja) * 2015-11-25 2017-06-01 地方独立行政法人京都市産業技術研究所 触感検知システム及び触感検知体

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60115887A (ja) * 1983-11-29 1985-06-22 Nippon Telegr & Teleph Corp <Ntt> 触覚センサ
HU0100663D0 (en) 2001-02-09 2001-04-28 Pali Jenoe Apparatus for detecting local surface drift
JP4621827B2 (ja) 2004-03-09 2011-01-26 財団法人名古屋産業科学研究所 光学式触覚センサ、光学式触覚センサを利用したセンシング方法、センシングシステム、物体操作力制御方法、物体操作力制御装置、物体把持力制御装置及びロボットハンド
FR2870935A1 (fr) * 2004-05-25 2005-12-02 Insidix Sarl Dispositif de mesure de deformations de surface
IL166962A (en) * 2005-02-17 2012-06-28 Ait Advanced Medical Technologies Ltd Device and method for intra-ocular pressure measurment
US8231158B2 (en) 2006-11-03 2012-07-31 President And Fellows Of Harvard College Robust compliant adaptive grasper and method of manufacturing same
GB0624242D0 (en) 2006-12-05 2007-01-10 Oliver Crispin Robotics Ltd Improvements in and relating to robotic arms
US8112146B2 (en) 2008-07-24 2012-02-07 Massachusetts Institute Of Technology Three-dimensional imaging using a luminescent surface and a differentially attenuating medium
US8699141B2 (en) * 2009-03-13 2014-04-15 Knowles Electronics, Llc Lens assembly apparatus and method
JP5239987B2 (ja) 2009-03-24 2013-07-17 株式会社豊田自動織機 ロボットハンド用撮像装置内蔵フィンガ
JP5413773B2 (ja) 2009-06-24 2014-02-12 国立大学法人 東京大学 柔軟触覚センサ
US9652696B2 (en) 2010-07-09 2017-05-16 Temple University-Of The Commonwealth System Of Higher Education Apparatus and method for surface and subsurface tactile sensation imaging
JP5660531B2 (ja) 2010-08-12 2015-01-28 国立大学法人名古屋大学 形状計測装置、及び形状計測方法
JP5678669B2 (ja) 2011-01-06 2015-03-04 セイコーエプソン株式会社 超音波センサー、触覚センサー、および把持装置
WO2013016729A1 (en) 2011-07-28 2013-01-31 Massachusetts Institute Of Technology Optical tactile sensor
JP6039187B2 (ja) * 2012-02-03 2016-12-07 キヤノン株式会社 組立装置、把持ハンドおよび物品の組立方法
US9605952B2 (en) 2012-03-08 2017-03-28 Quality Manufacturing Inc. Touch sensitive robotic gripper
US9448066B2 (en) 2012-04-17 2016-09-20 Massachusetts Institute Of Technology Methods and apparatus for jammable HCI interfaces
CN105144678A (zh) 2012-10-17 2015-12-09 哥拉斯特有限公司 目标的三维指压迹和可视化
KR101396203B1 (ko) 2013-03-13 2014-05-19 한국생산기술연구원 에어 쿠션 동작 감지 장치 및 방법
JP6346741B2 (ja) 2013-11-22 2018-06-20 大和製罐株式会社 密封容器の検査装置および検査方法
CA2958921C (en) 2014-08-22 2023-02-07 President And Fellows Of Harvard College Sensors for soft robots and soft actuators
JP6790831B2 (ja) * 2014-12-26 2020-11-25 Agc株式会社 光学フィルタ及び撮像装置
US10201901B2 (en) * 2015-01-29 2019-02-12 Canon Kabushiki Kaisha Robot apparatus, method for controlling robot, program, and recording medium
US9802314B2 (en) 2015-10-01 2017-10-31 Disney Enterprises, Inc. Soft body robot for physical interaction with humans
FR3054680B1 (fr) * 2016-07-28 2019-07-19 Valeo Systemes D'essuyage Dispositif de protection d'un capteur optique et systeme d'assistance a la conduite comprenant un capteur optique
US10668627B2 (en) * 2017-09-26 2020-06-02 Toyota Research Institute, Inc. Deformable sensors and methods for detecting pose and force against an object
EP3671141B1 (de) * 2018-12-20 2022-08-03 Bizerba SE & Co. KG Wägezelle und wiegefuss
US11667039B2 (en) * 2019-01-31 2023-06-06 Toyota Research Institute, Inc. Systems and methods for estimating shape, contact forces, and pose of objects manipulated by robots having compliant contact and geometry sensors
US11408788B2 (en) * 2020-03-31 2022-08-09 Toyota Research Institute, Inc. Variable geometry and stiffness control for fluid filled sensor
US11185994B2 (en) * 2020-03-31 2021-11-30 Toyota Research Institute, Inc. Deformable sensors having multiple time-of-flight emitters
US11536621B2 (en) * 2020-03-31 2022-12-27 Toyota Research Institute, Inc. Methods and systems for calibrating deformable sensors using camera

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61283842A (ja) * 1985-06-10 1986-12-13 Nippon Telegr & Teleph Corp <Ntt> 力覚センサ
US5459329A (en) * 1994-09-14 1995-10-17 Georgia Tech Research Corporation Video based 3D tactile reconstruction input device having a deformable membrane
GB0313808D0 (en) * 2003-06-14 2003-07-23 Binstead Ronald P Improvements in touch technology
TW200827114A (en) * 2006-12-19 2008-07-01 Ind Tech Res Inst Tactile sensing device and an robotic apparatus using thereof
JP2009145085A (ja) * 2007-12-11 2009-07-02 Univ Of Tsukuba 3次元触覚センサ及び3次元触覚センシング方法
JP2009198475A (ja) * 2008-02-21 2009-09-03 Univ Of Tsukuba 弾性体特性を利用した3次元触覚センサ及び3次元触覚センシング方法
WO2009155501A2 (en) * 2008-06-19 2009-12-23 Massachusetts Institute Of Technology Tactile sensor using elastomeric imaging
US20090315989A1 (en) * 2008-06-19 2009-12-24 Adelson Edward H Tactile sensor using elastomeric imaging
CN103124946A (zh) * 2010-10-20 2013-05-29 泰克图斯科技公司 用户接口***及方法
US20120240691A1 (en) * 2011-03-23 2012-09-27 University Of Southern California Elastomeric optical tactile sensor
JP2013061223A (ja) * 2011-09-13 2013-04-04 Nagoya Univ 6軸力計測装置、及び6軸力計測方法
JP2013130426A (ja) * 2011-12-20 2013-07-04 Canon Inc 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2013205131A (ja) * 2012-03-28 2013-10-07 Dainippon Screen Mfg Co Ltd 3次元軌道生成装置および方法、ならびにプログラム
CN105900045A (zh) * 2013-09-27 2016-08-24 森赛尔股份有限公司 触摸传感器检测器***及方法
US20160107316A1 (en) * 2014-10-16 2016-04-21 Technische Universität München Tactile sensor
KR101586665B1 (ko) * 2014-10-28 2016-01-19 한국기계연구원 접촉면 계측이 가능한 유체형 촉각센서
JP2017071018A (ja) * 2015-10-07 2017-04-13 セイコーエプソン株式会社 ロボットシステム、ロボット、及びロボット制御装置
JP2017096782A (ja) * 2015-11-25 2017-06-01 地方独立行政法人京都市産業技術研究所 触感検知システム及び触感検知体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DIMITRIS HRISTU等: ""The performance of a deformable-membrance tactile sensor: basic results on geometrically-defined task"", 《PROCEEDINGS OF THE 2000 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS &AUTOMATION》 *
DIMITRIS HRISTU等: ""The performance of a deformable-membrance tactile sensor: basic results on geometrically-defined task"", 《PROCEEDINGS OF THE 2000 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS &AUTOMATION》, 30 April 2000 (2000-04-30), pages 508 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113263513A (zh) * 2020-02-17 2021-08-17 丰田研究所股份有限公司 包括具有可变形传感器的手指的机器人臂组件
CN113263505A (zh) * 2020-02-17 2021-08-17 丰田研究所股份有限公司 使用具有可变形传感器的机器人来确定位置的***
CN113263505B (zh) * 2020-02-17 2024-02-13 丰田研究所股份有限公司 使用具有可变形传感器的机器人来确定位置的***
CN113146660A (zh) * 2021-04-08 2021-07-23 清华大学深圳国际研究生院 一种利用深度视觉进行触觉感知的机械爪
CN113223377A (zh) * 2021-04-25 2021-08-06 浙江理工大学 一种盲文阅读笔及盲文读取方法
CN113525549A (zh) * 2021-08-20 2021-10-22 深圳鹏行智能研究有限公司 机器人足部和具有其的机器人

Also Published As

Publication number Publication date
JP2019059015A (ja) 2019-04-18
US11007652B2 (en) 2021-05-18
JP2019060871A (ja) 2019-04-18
US10668627B2 (en) 2020-06-02
CN109556654A (zh) 2019-04-02
US20190091871A1 (en) 2019-03-28
US20210245369A1 (en) 2021-08-12
CN109551502B (zh) 2023-08-25
US11465296B2 (en) 2022-10-11
US20200254624A1 (en) 2020-08-13
JP7210204B2 (ja) 2023-01-23
US20190091872A1 (en) 2019-03-28
US10549428B2 (en) 2020-02-04
JP7068122B2 (ja) 2022-05-16

Similar Documents

Publication Publication Date Title
CN109551502A (zh) 具有触摸灵敏度的机器人
Alspach et al. Soft-bubble: A highly compliant dense geometry tactile sensor for robot manipulation
US20230294299A1 (en) Systems and methods for estimating shape, contact forces, and pose of objects manipulated by robots having compliant contact and geometry sensors
CN105378801A (zh) 全息图快照网格
EP2932358A1 (en) Direct interaction system for mixed reality environments
CN105264460A (zh) 全息图对象反馈
US11209916B1 (en) Dominant hand usage for an augmented/virtual reality device
JP5561092B2 (ja) 入力装置、入力制御システム、情報処理方法及びプログラム
JP7429664B2 (ja) 可変形センサを有するフィンガを含むロボットアーム組立体
CN109669530A (zh) 用于触觉设备的振动触觉驱动器电路
US11740065B2 (en) Deformable sensors and methods for modifying run-time membrane stiffness using magnetic attraction
JP7260697B2 (ja) 物体に接触して姿勢及び力を検出するための変形可能なセンサ及び方法
US11408788B2 (en) Variable geometry and stiffness control for fluid filled sensor
Gonzalez et al. A 2-D infrared instrumentation for close-range finger position sensing
US11920992B2 (en) Deformable sensors and methods using magnetic repulsion for modifying run-time membrane stiffness
Yano et al. Haptic interface for perceiving remote object using a laser range finder
US11686574B2 (en) Deformable sensors and methods for modifying run-time membrane stiffness
Chabrier et al. Design and experimental evaluation of an infrared instrumentation for haptic interfaces
Thompson Integration of visual and haptic feedback for teleoperation
KR20240083002A (ko) 가상 환경에서의 비정형물체의 조작 데이터 수집 시스템, 방법, 및 컴퓨터 프로그램
Gagné Intuitive Teleoperation of an Intelligent Robotic System Using Low-Cost 6-DOF Motion Capture

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240612

Address after: Japan

Patentee after: Toyota Motor Corp.

Country or region after: Japan

Address before: California, USA

Patentee before: Toyota Research Institute, Inc.

Country or region before: U.S.A.