CN112087480A - 车辆维护 - Google Patents

车辆维护 Download PDF

Info

Publication number
CN112087480A
CN112087480A CN202010539675.9A CN202010539675A CN112087480A CN 112087480 A CN112087480 A CN 112087480A CN 202010539675 A CN202010539675 A CN 202010539675A CN 112087480 A CN112087480 A CN 112087480A
Authority
CN
China
Prior art keywords
sensor
robotic arm
vehicle
images
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010539675.9A
Other languages
English (en)
Inventor
阿什温·阿伦莫治
文卡特什·克里希南
拉肖恩·菲尼塞
库纳尔·辛格
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of CN112087480A publication Critical patent/CN112087480A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/005Manipulators for mechanical processing tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • B25J9/0087Dual arms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60SSERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
    • B60S5/00Servicing, maintaining, repairing, or refitting of vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/14Relay systems
    • H04B7/15Active relay systems
    • H04B7/185Space-based or airborne stations; Stations for satellite systems
    • H04B7/18502Airborne stations
    • H04B7/18506Communications with or from aircraft, i.e. aeronautical mobile service
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • H04L67/125Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks involving control of end-device applications over a network
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/25UAVs specially adapted for particular uses or applications for manufacturing or servicing
    • B64U2101/26UAVs specially adapted for particular uses or applications for manufacturing or servicing for manufacturing, inspections or repairs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • B64U2201/104UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] using satellite radio beacon positioning systems, e.g. GPS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Computing Systems (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Remote Sensing (AREA)
  • Computational Linguistics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Astronomy & Astrophysics (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本公开提供了“车辆维护”。一种计算机,包括处理器和存储器,所述存储器存储可由所述处理器执行以进行以下操作的指令:用机器人臂识别车辆的传感器;用无人机捕获所述传感器的多个图像;以及在将所述多个图像输入到图像辨识程序并获得所述传感器需要维护的输出后,致动所述机器人臂以对所述传感器执行维护。

Description

车辆维护
技术领域
本公开总体上涉及车辆传感器,并且更具体地,涉及车辆传感器维护。
背景技术
诸如客车的车辆通常包括用于收集关于周围环境的数据的传感器。传感器可放置在车辆的各种部分上或各种部分中,例如车辆车顶、车辆发动机罩、后车门等。传感器(例如,传感器透镜盖)在车辆的操作期间可能会变脏。此外,传感器在操作期间可能会变得不对准。在车辆操作期间,车辆周围的传感器数据和/或环境状况可能会改变,并且这种改变可能会影响传感器操作。
发明内容
一种计算机包括处理器和存储器,所述存储器存储可由所述处理器执行以进行以下操作的指令:用机器人臂识别车辆的传感器;用无人机捕获所述传感器的多个图像;以及在将所述多个图像输入到图像辨识程序并获得所述传感器需要维护的输出后,致动所述机器人臂以对所述传感器执行维护。
所述指令还可包括用于当所述图像辨识程序识别出所述传感器中的故障时致动所述机器人臂以更换所述传感器的指令。
所述指令还可包括用于用所述机器人臂和所述无人机执行所述传感器的校准的指令。
用于执行所述校准的所述指令还可包括用于用所述无人机将目标移动到所述传感器的视野中的指令、用于用所述传感器收集所述目标的图像数据的指令以及用于在确定所述图像数据指示所述传感器未对准后用所述机器人臂移动所述传感器的指令。
用于执行所述校准的所述指令还可包括用于用所述无人机将图案投影到在所述传感器的视野中的壁上的指令和用于在确定来自所述传感器的图像数据指示所述传感器未对准后用所述机器人臂移动所述传感器的指令。
所述指令还可包括用于移动所述机械臂以从所述车辆上的喷嘴清洁碎屑的指令。
所述指令还可包括用于将所述无人机移动到所述车辆的在所述机器人臂的移动范围之外的部分的指令。
所述指令还可包括用于用所述图像辨识程序识别所述传感器的类型的指令。
所述指令还可包括用于基于所述识别的传感器和所述多个图像来预测直到更换所述传感器为止的预期时间的指令。
所述指令还可包括用于用所述机器人臂移除所述传感器的指令和用所述无人机捕获所述被移除的传感器的所述多个图像的指令。
所述多个图像可为热图像,并且所述指令还可包括用于在识别出所述传感器的热膨胀或热收缩中的一个后确定所述传感器是否需要维护的指令。
所述指令还可包括用于将安装到所述机器人臂的压力计施加到所述车辆的传感器座的指令和用于当来自所述压力计的压力读数超过压力阈值时确定所述传感器座需要维护的指令。
一种方法包括:用机器人臂识别车辆的传感器;用无人机捕获所述传感器的多个图像;以及在将所述多个图像输入到图像辨识程序并获得所述传感器需要维护的输出后,致动所述机器人臂以对所述传感器执行维护。
所述方法还可包括当所述图像辨识程序识别出所述传感器中的故障时,致动所述机器人臂以更换所述传感器。
所述方法还可包括用所述机器人臂和所述无人机执行所述传感器的校准。
所述方法还可包括:用所述无人机将目标移动到所述传感器的视野中;用所述传感器收集所述目标的图像数据;以及在确定所述图像数据指示所述传感器未对准后,用所述机器人臂移动所述传感器。
所述方法还可包括:用所述无人机将图案投影到在所述传感器的视野中的壁上;以及在确定来自所述传感器的图像数据指示所述传感器未对准后,用所述机器人臂移动所述传感器。
所述方法还可包括移动所述机器人臂以从所述车辆上的喷嘴清洁碎屑。
所述方法还可包括将所述无人机移动到所述车辆的在所述机器人臂的移动范围之外的部分。
所述方法还可包括用所述图像辨识程序识别所述传感器的类型。
所述方法还可包括基于所述识别的传感器和所述多个图像来预测直到更换所述传感器为止的预期时间。
所述方法还可包括:用所述机器人臂移除所述传感器;以及用所述无人机捕获所述被移除的传感器的所述多个图像。
所述多个图像可为热图像,并且所述方法还可包括在识别出所述传感器的热膨胀或热收缩中的一个后,确定所述传感器是否需要维护。
所述方法还可包括:将安装到所述机器人臂的压力计施加到所述车辆的传感器座;以及当来自所述压力计的压力读数超过压力阈值时,确定所述传感器座需要维护。
一种***包括:无人机,所述无人机可从站部署;机器人臂,所述机器人臂安装到所述站;用于用所述机器人臂识别车辆的传感器的构件;用于用所述无人机捕获所述传感器的多个图像的构件;以及用于在将所述多个图像输入到图像辨识程序并获得所述传感器需要维护的输出后致动所述机器人臂以对所述传感器执行维护的构件。
所述***还可包括用于当所述图像辨识程序识别出所述传感器中的故障时致动所述机器人臂以更换所述传感器的构件。
所述***还可包括用于用所述机器人臂和所述无人机执行所述传感器的校准的构件。
所述***还可包括用于将所述无人机移动到所述车辆的在所述机器人臂的移动范围之外的部分的构件。
还公开了一种计算装置,所述计算装置被编程为执行上述方法步骤中的任一个。还公开了一种车辆,所述车辆包括所述计算装置。还公开了一种计算机程序产品,所述计算机程序产品包括计算机可读介质,所述计算机可读介质存储可由计算机处理器执行以执行上述方法步骤中的任一个的指令。
附图说明
图1是用于维护车辆的示例***的图。
图2是示例车辆和传感器座的分解图。
图3是示例站的透视图。
图4是用于维护车辆的示例过程的图。
图5是用于校准传感器的示例过程的图。
具体实施方式
包括无人机(“UAV”)和机器人臂的站支持自主车辆的针对在车辆的操作期间可能未对准或要求更换的传感器的维护。自主车辆可包括容纳多个传感器以供在车辆的自主操作期间使用的传感器座。UAV和机器人臂可到达传感器座以维护车辆的传感器。这些站可从传感器收集数据并将数据发送到服务器以跟踪车辆的维护和移动。UAV和机器人臂可维护和更换车辆的部件,例如喷嘴、空气滤清器等。
图1示出了用于向车辆101提供维护的示例***100。***100包括计算机105。通常包括在车辆101中的计算机105被编程为从一个或多个传感器110接收所收集的数据115。例如,车辆101数据115可包括车辆101的位置、关于车辆101周围的环境的数据、关于车辆外部的物体(诸如另一个车辆)的数据等。车辆101位置通常以常规形式提供,例如地理坐标,诸如经由使用全球定位***(GPS)的导航***获得的纬度和经度坐标。数据115的其他示例可包括车辆101的***和部件的测量结果,例如,车辆101的速度、车辆101的轨迹等。
计算机105通常被编程为用于在车辆101网络(例如,包括常规的车辆101通信总线)上进行通信。经由网络、总线和/或其他有线或无线机制(例如,车辆101中的有线或无线局域网),计算机105可向车辆101中的各种装置(例如,控制器、致动器、传感器等,包括传感器110)传输消息和/或从各种装置接收消息。可选地或另外地,在计算机105实际上包括多个装置的情况下,车辆网络可用于在本公开中表示为计算机105的装置之间的通信。另外,计算机105可被编程为与可包括各种有线和/或无线联网技术(如下文所描述)的网络125通信,所述有线和/或无线联网技术例如蜂窝、
Figure BDA0002536115030000061
低功耗(BLE)、有线和/或无线分组网络等。
数据存储106可为任何类型的,例如硬盘驱动器、固态驱动器、服务器或任何易失性或非易失性介质。数据存储106可存储从传感器110发送的所收集的数据115。
传感器110可包括多种装置。例如,车辆101中的各种控制器可作为传感器110操作以经由车辆101网络或总线提供数据115,例如与车辆速度、加速度、位置、子***和/或部件状态等有关的数据115。此外,其他传感器110可包括相机、运动检测器等,即,用于提供数据115以评估部件的位置、评估道路的坡度等的传感器110。传感器110还可包括但不限于短程雷达、远程雷达、激光雷达和/或超声换能器。
所收集的数据115可包括在车辆101中收集的多种数据。上文提供了所收集的数据115的示例,并且此外,数据115通常使用一个或多个传感器110来收集,并且可另外地包括在计算机105中和/或在服务器130处从该数据计算出的数据。一般来讲,所收集的数据115可包括可由传感器110采集和/或从此类数据计算出的任何数据。
车辆101可包括多个车辆部件120。在这种背景下,每个车辆部件120包括适于执行机械功能或操作(诸如移动车辆101、使车辆101减慢或停止、使车辆101转向等)的一个或多个硬件部件。部件120的非限制性示例包括推进部件(其包括例如内燃发动机和/或电动马达等)、变速器部件、转向部件(例如,其可包括方向盘、转向齿条等中的一个或多个)、制动部件(如下所述)、停车辅助部件、自适应巡航控制部件、自适应转向部件、可移动座椅等。
当计算机105部分地或完全地操作车辆101时,车辆101是“自主”车辆101。出于本公开的目的,术语“自主车辆”用于指代以全自主模式操作的车辆101。全自主模式被定义为其中车辆推进、制动和转向中的每一个都由计算机105控制的模式。半自主模式是其中车辆推进、制动和转向中的至少一个至少部分地由计算机105而非人类操作员控制的模式。在非自主模式(即,手动模式)下,车辆推进、制动和转向由人类操作员控制。
***100还可包括连接到服务器130和数据存储135的网络125。计算机105还可被编程为经由网络125与一个或多个远程站点(诸如服务器130)通信,这种远程站点可能包括数据存储135。网络125表示车辆计算机105可通过其与远程服务器130通信的一种或多种机制。因此,网络125可为各种有线或无线通信机制中的一种或多种,包括有线(例如,电缆和光纤)和/或无线(例如,蜂窝、无线、卫星、微波和射频)通信机制的任何期望的组合以及任何期望的网络拓扑(或当使用多种通信机制时的多个拓扑)。示例性通信网络包括提供数据通信服务的无线通信网络(例如,使用
Figure BDA0002536115030000071
低功耗(BLE)、IEEE 802.11、车辆对车辆(V2V)(诸如专用短程通信(DSRC)等))、局域网(LAN)和/或广域网(WAN),包括互联网。
***100包括无人机(UAV)140。UAV 140在车辆101周围盘旋和飞行以收集车辆101的图像数据115。也就是说,UAV 140可包括一个或多个传感器145,该一个或多个传感器收集车辆101的一个或多个传感器110和/或部件120的图像。如下面图3所示的UAV 140被示出为四轴飞行器,即,具有四个螺旋桨的直升机,但是UAV 140可为例如具有三至八个螺旋桨的直升机、固定翼无人机等。UAV 140可通过网络125与计算机105和/或服务器130通信。
***100包括机器人臂150。机器人臂150可为可从基部在三个维度上移动的设备,例如具有通过柔性接头(例如,万向接头)连结的多个刚性节段。刚性节段限定机器人臂150的移动范围,即,机器人臂150可在其中移动的三维空间。机器人臂150可在车辆101周围移动。机器人臂150可通过网络125与计算机105和/或服务器130和/或UAV 140通信。机器人臂150可包括一个或多个传感器155以收集车辆101的图像。
图2是示例车辆101的分解图。车辆101可包括传感器座200。传感器座200容纳多个传感器110,例如雷达、激光雷达、超声换能器等。传感器座200可容纳传感器110,计算机105致动这些传感器以在自主和/或半自主模式下操作车辆101。传感器座200可例如在被成形为接纳座200的腔或开口中安装到车辆车顶。在图2的示例中,传感器座200从车辆车顶拆下。通过将传感器座200放置在车辆车顶上,传感器座200的传感器110可从在车辆101周围的环境收集数据,而不会受车辆101的其他部件120阻碍。传感器座200可包括喷嘴205,该喷嘴可喷射清洁液以将碎屑从传感器110中的一个或多个移除。
图3是站300的透视图。站300是固定位置,在该位置,车辆101可接收针对一个或多个传感器110和/或部件120的维护。站300可为例如自助服务亭、维修服务点、燃料提供方等。站300包括UAV 140和机器人臂150。图3示出了一个示例UAV 140,并且站300可包括不同数量的UAV 140,例如两个、三个等。图3示出了两个示例机器人臂150,并且站300可具有不同数量的机器人臂150,例如一个、三个等。当车辆101接近站300时,UAV 140和机器人臂150收集传感器座200的图像数据115以确定是否应向一个或多个传感器110提供维护。也就是说,UAV 140和机器人臂150可包括传感器145、155,诸如收集安装到传感器座200的传感器110的图像的图像传感器。UAV 140和机器人臂150可收集车辆101的部件120的图像数据115。UAV 140可收集车辆101在机器人臂150的移动范围之外(即,超过机器人臂150可达到的移动范围)的图像。为了收集传感器110的图像,服务器130可指示机器人臂150从传感器座200移除传感器110中的一个并且可指示UAV 140来收集被移除的传感器110的图像。
服务器130可使用常规的图像辨识技术,例如,可将来自UAV 140和机器人臂150的图像115输入到机器学习程序,以确定一个或多个传感器110和/或部件120是否需要维护。机器学习程序可为例如神经网络(诸如深度神经网络或递归神经网络)、基于决策树的模型、多层非线性模型等。机器学习程序可通过输入指示可操作的传感器110和/或部件120的多个参考图像和指示有故障的传感器110和/或部件120的多个参考图像来进行训练。机器学习程序可通过调整常规的成本函数的系数以教导机器学习程序从参考图像辨识出可操作的传感器110和/或部件120和有故障的传感器110和/或部件120来进行训练。然后,在接收到图像的输入后,机器学习程序可提供与从图像产生的最小化成本函数相对应的输出。因此,通过用参考图像训练机器学习程序,服务器130可使用机器学习程序从UAV 140和机器人臂150接收图像数据115并识别图像数据115是否指示传感器110和/或部件120需要维护。可选地或另外地,机器学习程序可包括常规的深度神经网络、卷积神经网络等。
服务器130可用机器学习程序来识别传感器110的类型。传感器110的“类型”是传感器110的基于由传感器110收集的数据115和/或传感器110收集数据115的方式的分类。传感器的示例类型包括例如雷达、激光雷达、超声换能器、相机等。例如,可用不同类型的传感器110的参考图像来训练图像辨识程序。然后,在接收到图像作为输入后,图像辨识程序可输出与最小化成本函数相对应的传感器110的类型,如上所述。基于传感器110的类型,服务器130可确定传感器110所需要的维护。例如,如果机器学习程序将传感器110识别为相机,则服务器130可用机器学习程序来确定是否相机的透镜被遮住并需要清洁。也就是说,当训练图像辨识程序时,计算机105可接收被例如碎屑遮住的透镜的图像,并且成本函数的系数可被调整,使得计算机提供透镜被遮住的输出。
服务器130可用图像辨识程序来识别传感器110中的一个中的故障。“故障”是导致传感器110低于标准操作水平进行执行的损坏或未对准。当训练图像辨识程序时,服务器130可接收包括特定故障(例如,外壳破裂、位置未对准、透镜被遮住等)的传感器110的参考图像。成本函数的权重可被调整,使得服务器130在接收到有故障的传感器的图像后提供指示传感器110中的故障的输出,即,使得服务器130识别出故障。在识别出故障后,服务器130可将传感器110识别为需要维护。机器人臂150可更换有故障的传感器110。可选地,机器人臂150可对传感器110执行维护以将传感器恢复到标准操作水平。例如,机器人臂150可使传感器110相对于传感器座200旋转以调整传感器110的视野来收集在车辆101附近的指定区域的数据115。在另一个示例中,机器人臂150可更换传感器110的损坏部分(例如,透镜盖)。在另一个示例中,机器人臂150可将碎屑从传感器110移除。
服务器130可在识别出热变化(即,传感器110的热膨胀或热收缩中的一个)后确定传感器110是否需要维护。热变化可使传感器110膨胀或收缩,从而导致传感器110的部分翘曲而不对准。UAV 140和/或机器人臂150可收集传感器110的热图像115,即,指示传感器110的表面温度的红外图像。服务器130可将图像辨识程序应用于传感器110的图像以识别热膨胀或热收缩。例如,可用热膨胀的传感器110的参考图像和热收缩的传感器110的参考图像来训练机器学习程序,使得在输入传感器110的图像后,图像辨识程序可输出传感器110是热膨胀、热收缩或热中性的。在识别出传感器110热膨胀或热收缩后,服务器130可致动机器人臂150以对传感器110执行维护。例如,服务器130可致动机器人臂150以更换传感器110。在另一个示例中,服务器130可基于热膨胀或热收缩来致动机器人臂150以旋转传感器110来调整传感器110的视野。
服务器130可预测传感器110的预期寿命。传感器110的“预期寿命”是在常规的操作下传感器110将保持可操作的时间量的预测。也就是说,传感器110的预期寿命是在需要更换之前传感器110将以如下所述的由例如制造商设置的精度和准确度阈值收集数据115的预期时间。服务器130可通过从例如打印在传感器110上的条形码和/或其他代码、来自计算机105的消息等识别传感器110的安装日期和识别传感器110的类型来预测传感器110的预期寿命。也就是说,每种类型的传感器110可具有预测寿命,例如10年,并且服务器130可存储列出每种类型的传感器110各自的预测寿命的查找表等。在识别出传感器110的安装日期和传感器110的类型后,服务器130可通过将预测寿命加到安装日期并减去当前日期来确定传感器110的预期寿命。如果传感器110的预期寿命低于阈值,例如基于制造商推荐的更换时间表,则服务器130可指示机器人臂150更换传感器110。例如,制造商可推荐在预期寿命小于1年时更换传感器110,并且服务器130可指示机器人臂150更换相应的预期寿命小于1年的传感器110。
服务器130可致动机器人臂150以对传感器110和/或部件120执行维护。例如,服务器130可致动机器人臂150以从传感器座200移除被识别为需要维护的传感器110并将更换传感器110安装到传感器座200。在另一个示例中,机器人臂150可移动传感器座200中的传感器110,例如,机器人臂150可旋转一个或多个传感器110以调整传感器110的视野。在另一个示例中,机器人臂150可吹气以从传感器110移除碎屑。在另一个示例中,机器人臂150可更换有故障的部件120,例如空气滤清器。
服务器130可致动机器人臂150以从传感器座200上的喷嘴205清洁碎屑。当喷嘴205有碎屑时,喷嘴205可能不会像清洁的喷嘴205那样向传感器110喷射那么多的清洁液。服务器130可将喷嘴205的图像输入到机器学习程序中,该机器学习程序用带有碎屑的喷嘴205和没有碎屑的喷嘴205的参考图像进行训练并输出喷嘴205是否有碎屑的指示。在确定喷嘴205有碎屑后,服务器130可致动机器人臂150以从喷嘴205移除碎屑。例如,机器人臂150可包括刷子,当被施加到喷嘴205时,该刷子就将碎屑移除。
服务器130可指示机器人臂150确定连接到喷嘴205的传感器座200中的管的内部压力。当喷嘴205有碎屑时,碎屑可增大传感器座200的管中的压力。机器人臂150可包括压力计。服务器130可指示机器人臂150将压力计应用于传感器座200的管。当来自压力计的压力读数超过基于例如流体泵可产生的最大压力、制造商推荐的最大压力等确定的压力阈值时,服务器130可确定传感器座200需要维护。服务器130可致动机器人臂150以移除传感器座200来执行维护。
UAV 140和机器人臂150可执行对传感器110中的一个的校准。在这种背景下,“校准”是调整传感器110以使得由传感器110收集的数据115在精度和准确度中的至少一个的相应的预定阈值内的过程。在这种背景下,“精度”是对数据115的重复测量与数据115的先前测量的接近度的度量,而“准确度”是对数据115的测量与参考或预期目标的接近度的度量。也就是说,传感器110的精度与测量分辨率有关,并且传感器110的准确度与测量范围有关。也就是说,传感器110可能未对准、焦点不准等,并且可能收集在例如由制造商设置的阈值内不准确和/或不精确的数据115。当由传感器110收集的数据115在例如由制造商设置的准确度和精度阈值内时,传感器110是“对准”的,并且当收集的数据115在准确度或精度阈值中的至少一个之外时,传感器110是“未对准”的。例如,相机的准确度阈值可为相机的当前视野与由制造商设置的预定视野之间的最大角度差异。也就是说,如果相机旋转离开预定视野,则由相机收集的图像可能不准确,即,图像可能缺少在车辆101周围的预期要由相机观察的区域的数据115。服务器130可通过识别图像中的某一参考点的位置与在预定视野中的预定参考图像中的所述参考点的位置不同来确定相机旋转远离预定视野。参考点可为例如在车辆101的表面上的指定位置。准确度阈值可为例如5度。也就是说,如果相机的视野与预定视野相差多于5度,则服务器130可确定相机需要校准。在另一个示例中,相机的精度阈值可为由相机收集的图像的像素分辨率,即,2560×1440像素。也就是说,如果相机收集到具有小于2560×1440像素的图像,则服务器130可确定相机需要校准。通过执行校准,UAV140和机器人臂150可将传感器110恢复到收集准确和/或精确的数据115,以供计算机105用来操作车辆101。在基于由UAV 140和/或机器人臂150收集的图像数据115来确定传感器110未对准后,服务器130可指示UAV 140和机器人臂150执行传感器110的校准。
为了执行校准,UAV 140可在距传感器110的预定距离处盘旋,从而显示在传感器110的视野中的目标305。目标305可为指定图案,例如,打印在由UAV 140保持的板上的棋盘图案。可选地,UAV 140可致动附接到UAV 140的投影仪以将目标305作为图案显示在壁上。服务器130可指示传感器110收集目标305的图像数据115并可将图像数据115与传感器110的具有精确且准确的数据115的参考图像进行比较。服务器130可例如用常规的图像处理算法来确定所收集的图像数据115与参考图像之间的差异,该常规的图像处理算法将模糊检测算法(诸如高斯拉普拉斯滤波器)应用于所收集的图像数据115并将所收集的图像数据115的像素分布与参考图像的像素分布进行比较。基于来自图像处理算法的输出,服务器130可致动机器人臂150以调整传感器110。例如,机器人臂150可使传感器110旋转指定的角度,传感器110可收集目标305的图像数据115,并且服务器130可将图像处理算法应用于图像数据115。
服务器130可指示机器人臂150旋转传感器110,直到图像处理算法输出指示来自传感器110的图像数据115的准确度和/或精度在参考图像115的阈值内的值为止。例如,阈值可为基于常规的数据质量标准和/或由传感器110制造商设置的阈值确定的模糊阈值,并且服务器130可指示机器人臂150旋转传感器110,直到由图像处理算法确定的来自传感器110的图像数据115的模糊量低于模糊阈值为止。服务器130可指示机器人臂150使传感器110旋转预定角度(例如,10度)。在另一个示例中,服务器130可指示机器人臂150将传感器110竖直地移动由校准测试标准确定的预定距离(例如,10cm),以调整传感器110的视野。可选地,服务器130可用不同的常规数据质量算法来确定来自传感器110的图像数据115的准确度和/或精度。
图4是用于识别需要维护的传感器110和/或部件120的示例过程400的图。过程400在框405中开始,其中服务器130识别正在接近站300的车辆101。服务器130可致动UAV 140和/或机器人臂150上的相机145、155以检测正在接近站300的车辆101。可选地或另外地,计算机105可向服务器130发送车辆101正在接近站300的消息。
接下来,在框410中,服务器130致动安装到UAV 140的一个或多个传感器145以收集车辆101的图像数据115。UAV 140可在车辆101周围或上方盘旋以收集传感器110(例如,安装到传感器座200的传感器110)和部件120的图像。UAV 140可移动到车辆101的机器人臂150无法到达以收集图像数据115的区域。UAV 140可收集传感器座200的数据115。
接下来,在框415中,服务器130致动安装到机器人臂150的一个或多个传感器155以收集车辆101的图像数据115。机器人臂150可收集车辆101的传感器座200的图像数据115,包括安装到传感器座200的传感器110的图像。机器人臂150可收集车辆101的一个或多个部件120的图像数据115。
接下来,在框420中,服务器130将来自UAV 140和机器人臂150的图像数据115输入到图像辨识应用程序,诸如机器学习程序。如上所述,可训练机器学习程序以基于可操作的传感器110和/或部件120的参考图像和需要维护的传感器110和/或部件120的参考图像来识别需要维护的传感器110和/或部件120。
接下来,在框425中,服务器130确定一个或多个传感器110和/或部件120是否应接收维护。基于来自机器学习程序的输出,如上所述,服务器130可识别要接收维护的一个或多个传感器110。如果传感器110和/或部件120不要接收维护,则过程400在框435中继续。否则,过程400在框430中继续。
在框430中,服务器130致动UAV 140和机器人臂150以对传感器110和/或部件120执行维护。例如,机器人臂150可更换不可操作的传感器110。在另一个示例中,服务器130可致动安装到机器人臂150的清洁部件以将碎屑从传感器座200的喷嘴205移除。在另一个示例中,服务器130可致动机器人臂150以更换空气滤清器120。
在框435中,服务器130执行传感器110的校准。如上所述,服务器130可致动UAV140和机器人臂150以执行一个或多个传感器110的校准,使得传感器110可收集在预定准确度和/或精度阈值内的数据115。例如,服务器130可执行下面图5的过程500中所示的示例校准。
接下来,在框440中,服务器130确定是否继续过程400。例如,如果服务器130确定车辆101的其他传感器110不需要维护,则服务器130可确定不继续。如果服务器130确定继续,则过程400返回到框405。否则,过程400结束。
图5是用于校准传感器110的示例过程500的图。过程500在框505中开始,其中服务器130识别要校准的传感器110。如上所述,服务器130可基于来自机器学习程序的输出来识别要校准的传感器110。
接下来,在框510中,服务器130指示UAV 140显示目标305。如上所述,UAV 140可在传感器110的视野中显示目标305,该目标是在其上打印有图案的板。可选地,UAV 140可将图案作为目标305投影到在传感器110的视野内的壁上。该图案可为在常规的校准过程中使用的预定图案,例如,棋盘图案。
接下来,在框515中,服务器130指示计算机105来用传感器110收集目标305的图像。在收集到目标305的图像后,计算机105通过网络125将图像传输到服务器130。
接下来,在框520中,服务器130确定来自传感器110的图像是否指示传感器110对准。如上所述,服务器130可使用常规的数据质量技术和/或机器学习程序,该常规的数据质量技术和/或机器学习程序接收图像作为输入并提供指示传感器110是否收集在预定准确度和/或精度阈值(诸如由制造商设置的视野角度阈值和/或分辨率阈值,如上所述)内的数据115的输出。例如,服务器130可通过识别图像中的参考点的位置并将该位置与在预定视野中的参考图像中的参考点的位置进行比较来确定图像是否捕获了由制造商确定的视野。在另一个示例中,服务器130可确定图像处理算法是否输出了指示来自传感器110的图像数据115的准确度和/或精度在参考图像的相应阈值(例如,5度的准确度阈值、2560×1440像素的精度阈值等)内的值。如果图像指示传感器110是对准的,则过程500在框530中继续。否则,过程500在框525中继续。
在框525中,服务器130指示机器人臂150将传感器110调整到不同的位置。例如,服务器130可指示机器人臂150将传感器110旋转预定量(例如,10度)以调整传感器110的视野。在另一个示例中,服务器130可指示机器人臂150将传感器110升高或降低预定距离(例如,10cm)以调整传感器110的视野。然后,过程500返回到框515以收集更多图像。
在框530中,服务器130确定是否继续过程500。例如,服务器130可在识别出需要校准的另一个传感器110后确定继续过程500。如果服务器130确定继续,则过程500返回到框505。否则,过程500结束。
如本文所使用,修饰形容词的副词“基本上”意指形状、结构、测量结果、值、计算等可能因为材料、加工、制造、数据采集器测量、计算、处理时间、通信时间等的缺陷而偏离精确描述的几何形状、距离、测量结果、值、计算等。
本文所讨论的计算装置(包括计算机105和服务器130)包括处理器和存储器,所述存储器通常各自包括可由诸如上面识别的那些计算装置的一个或多个计算装置执行并用于实施上述过程的框或步骤的指令。计算机可执行指令可从使用多种编程语言和/或技术创建的计算机程序来编译或解译,所述编程语言和/或技术包括但不限于以下各者的单一形式或组合形式:JavaTM、C、C++、Visual Basic、Java Script、Perl、HTML等。一般来讲,处理器(例如,微处理器)从例如存储器、计算机可读介质等接收指令,并且执行这些指令,从而进行一个或多个过程,包括本文所描述的过程中的一个或多个。此类指令和其他数据可使用多种计算机可读介质来存储和传输。计算机105中的文件通常是存储在计算机可读介质(诸如存储介质、随机存取存储器等)上的数据的集合。
计算机可读介质包括参与提供可由计算机读取的数据(例如,指令)的任何介质。这种介质可采用许多形式,包括但不限于非易失性介质、易失性介质等。非易失性介质包括例如光盘或磁盘和其他持久性存储器。易失性介质包括通常构成主存储器的动态随机存取存储器(DRAM)。计算机可读介质的常见形式包括例如软盘、软磁盘、硬盘、磁带、任何其他磁性介质、CD ROM、DVD、任何其他光学介质、穿孔卡、纸带、具有孔图案的任何其他物理介质、RAM、PROM、EPROM、快闪EEPROM、任何其他存储器芯片或盒式磁带、或计算机可从中读取的任何其他介质。
关于本文所描述的介质、过程、***、方法等,应理解,虽然此类过程等的步骤已被描述为按照某一有序的序列发生,但是此类过程可通过以本文所描述的次序以外的次序执行所描述的步骤来实践。还应理解,可同时地执行某些步骤,可添加其他步骤,或者可省略本文所描述的某些步骤。例如,在过程500中,可省略一个或多个步骤,或者可以与图5中所示的不同的顺序执行步骤。换句话说,本文对***和/或过程的描述是为了示出某些实施例而提供,而决不应被理解为对所公开的主题进行限制。
因此,应理解,包括上面描述和附图以及所附权利要求的本公开旨在是说明性的而非限制性的。通过阅读以上描述,除了所提供的示例之外的许多实施例和应用对于本领域技术人员来说将是显而易见的。本发明的范围不应参考以上描述来确定,而是应参考所附的和/或基于此包括在非临时专利申请中的权利要求连同此类权利要求所赋予权利的等效物的全部范围来确定。预期并期望本文所讨论的领域未来将有所发展,并且所公开的***和方法将并入此类未来的实施例中。总而言之,应理解,所公开的主题能够进行修改和变化。
除非另有说明或上下文另有要求,否则修饰名词的冠词“一个”应被理解为是指一个或多个。短语“基于”涵盖部分地或完全地基于。
根据本发明,提供了一种***,所述***具有计算机,所述计算机包括处理器和存储器,所述存储器存储可由所述处理器执行以进行以下操作的指令:用机器人臂识别车辆的传感器;用无人机捕获所述传感器的多个图像;以及在将所述多个图像输入到图像辨识程序并获得所述传感器需要维护的输出后,致动所述机器人臂以对所述传感器执行维护。
根据一个实施例,所述指令还包括用于当所述图像辨识程序识别出所述传感器中的故障时致动所述机器人臂以更换所述传感器的指令。
根据一个实施例,所述指令还包括用于用所述机器人臂和所述无人机执行所述传感器的校准的指令。
根据一个实施例,用于执行所述校准的所述指令还包括用于用所述无人机将目标移动到所述传感器的视野中的指令、用于用所述传感器收集所述目标的图像数据的指令以及用于在确定所述图像数据指示所述传感器未对准后用所述机器人臂移动所述传感器的指令。
根据一个实施例,用于执行所述校准的所述指令还包括用于用所述无人机将图案投影到在所述传感器的视野中的壁上的指令和用于在确定来自所述传感器的图像数据指示所述传感器未对准后用所述机器人臂移动所述传感器的指令。
根据一个实施例,所述指令还包括用于移动所述机器人臂以从所述车辆上的喷嘴清洁碎屑的指令。
根据一个实施例,所述指令还包括用于将所述无人机移动到所述车辆的在所述机器人臂的移动范围之外的部分的指令。
根据一个实施例,所述指令还包括用于用所述图像辨识程序识别所述传感器的类型的指令。
根据一个实施例,所述指令还包括用于基于所述识别的传感器和所述多个图像来预测直到更换所述传感器为止的预期时间的指令。
根据一个实施例,所述指令还包括用于用所述机器人臂移除所述传感器的指令和用所述无人机捕获所述被移除的传感器的所述多个图像的指令。
根据一个实施例,所述多个图像是热图像,并且所述指令还包括用于在识别出所述传感器的热膨胀或热收缩中的一个后确定所述传感器是否需要维护的指令。
根据一个实施例,所述指令还包括用于将安装到所述机器人臂的压力计施加到所述车辆的传感器座的指令和用于当来自所述压力计的压力读数超过压力阈值时确定所述传感器座需要维护的指令。
根据本发明,一种方法包括:用机器人臂识别车辆的传感器;用无人机捕获所述传感器的多个图像;以及在将所述多个图像输入到图像辨识程序并获得所述传感器需要维护的输出后,致动所述机器人臂以对所述传感器执行维护。
根据一个实施例,本发明的特征还在于,当所述图像辨识程序识别出所述传感器中的故障时,致动所述机器人臂以更换所述传感器。
根据一个实施例,本发明的特征还在于,用所述机器人臂和所述无人机执行所述传感器的校准。
根据一个实施例,本发明的特征还在于,将所述无人机移动到所述车辆的在所述机器人臂的移动范围之外的部分。
根据本发明,提供了一种***,所述***具有:无人机,所述无人机可从站部署;机器人臂,所述机器人臂安装到所述站;用于用所述机器人臂识别车辆的传感器的构件;用于用所述无人机捕获所述传感器的多个图像的构件;以及用于在将所述多个图像输入到图像辨识程序并获得所述传感器需要维护的输出后致动所述机器人臂以对所述传感器执行维护的构件。
根据一个实施例,本发明的特征还在于,用于当所述图像辨识程序识别出所述传感器中的故障时致动所述机器人臂以更换所述传感器的构件。
根据一个实施例,本发明的特征还在于,用于用所述机器人臂和所述无人机执行所述传感器的校准的构件。
根据一个实施例,本发明的特征还在于,用于将所述无人机移动到所述车辆的在所述机器人臂的移动范围之外的部分的构件。

Claims (15)

1.一种方法,所述方法包括:
用机器人臂识别车辆的传感器;
用无人机捕获所述传感器的多个图像;以及
在将所述多个图像输入到图像辨识程序并获得所述传感器需要维护的输出后,致动所述机器人臂以对所述传感器执行维护。
2.如权利要求1所述的方法,所述方法还包括当所述图像辨识程序识别出所述传感器中的故障时,致动所述机器人臂以更换所述传感器。
3.如权利要求1所述的方法,所述方法还包括用所述机器人臂和所述无人机执行所述传感器的校准。
4.如权利要求3所述的方法,所述方法还包括:用所述无人机将目标移动到所述传感器的视野中;用所述传感器收集所述目标的图像数据;以及在确定所述图像数据指示所述传感器未对准后,用所述机器人臂移动所述传感器。
5.如权利要求3所述的方法,所述方法还包括:用所述无人机将图案投影到在所述传感器的视野中的壁上;以及在确定来自所述传感器的图像数据指示所述传感器未对准后,用所述机器人臂移动所述传感器。
6.如权利要求1所述的方法,所述方法还包括移动所述机器人臂以从所述车辆上的喷嘴清洁碎屑。
7.如权利要求1所述的方法,所述方法还包括将所述无人机移动到所述车辆的在所述机器人臂的移动范围之外的部分。
8.如权利要求1至7中任一项所述的方法,所述方法还包括用所述图像辨识程序识别所述传感器的类型。
9.如权利要求8所述的方法,所述方法还包括用于基于所述识别的传感器和所述多个图像来预测直到更换所述传感器为止的预期时间的指令。
10.如权利要求1至7中任一项所述的方法,所述方法还包括:用所述机器人臂移除所述传感器;以及用所述无人机捕获所述被移除的传感器的所述多个图像。
11.如权利要求1至7中任一项所述的方法,其中所述多个图像是热图像,并且所述方法还包括在识别出所述传感器的热膨胀或热收缩中的一个后,确定所述传感器是否需要维护。
12.如权利要求1至7中任一项所述的方法,所述方法还包括:将安装到所述机器人臂的压力计施加到所述车辆的传感器座;以及当来自所述压力计的压力读数超过压力阈值时,确定所述传感器座需要维护。
13.一种计算机,所述计算机被编程为执行如权利要求1至7中任一项所述的方法。
14.一种车辆,所述车辆包括如权利要求13所述的计算机。
15.一种计算机程序产品,所述计算机程序产品包括计算机可读介质,所述计算机可读介质存储可由计算机处理器执行以执行如权利要求1至7中任一项所述的方法的指令。
CN202010539675.9A 2019-06-13 2020-06-12 车辆维护 Pending CN112087480A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/440,244 2019-06-13
US16/440,244 US11318916B2 (en) 2019-06-13 2019-06-13 Vehicle maintenance

Publications (1)

Publication Number Publication Date
CN112087480A true CN112087480A (zh) 2020-12-15

Family

ID=73546958

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010539675.9A Pending CN112087480A (zh) 2019-06-13 2020-06-12 车辆维护

Country Status (3)

Country Link
US (1) US11318916B2 (zh)
CN (1) CN112087480A (zh)
DE (1) DE102020115550A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113705544A (zh) * 2021-10-28 2021-11-26 季华实验室 汽车内饰清洁方法、装置、电子设备及存储介质

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019216360A1 (de) * 2019-10-24 2021-04-29 Robert Bosch Gmbh Verfahren zum Prüfen wenigstens eines Umfeldsensors eines Fahrzeugs
JP2021084177A (ja) * 2019-11-28 2021-06-03 ファナック株式会社 無人搬送ロボットシステム
KR20210071193A (ko) * 2019-12-05 2021-06-16 한국전자통신연구원 자율 주행 장치, 센서 캘리브레이션 시스템 및 방법
US20210325520A1 (en) * 2020-04-17 2021-10-21 Velodyne Lidar, Inc. Systems and Methods for Calibrating a LIDAR Device
US11640731B2 (en) * 2020-07-09 2023-05-02 Dana Automotive Systems Group, Llc Systems and methods for monitoring a drive shaft condition
US20220341906A1 (en) * 2021-04-26 2022-10-27 X Development Llc Mobile Robot Environment Sensing
US20230334920A1 (en) * 2022-04-19 2023-10-19 Ford Global Technologies, Llc Systems and methods using an interactive cluster and/or smart tile approach to vehicle health alerts
DE102022206282A1 (de) 2022-06-23 2023-12-28 Zf Friedrichshafen Ag Messsystem zum Testen von Sensoren, insbesondere Distanzsensoren

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6338008B1 (en) 1998-04-09 2002-01-08 Mobil Oil Corporation Robotic vehicle servicing system
US20080229531A1 (en) * 2004-01-16 2008-09-25 Yoshiaki Takida Robot Arm Type Automatic Car Washing Device
US7725212B2 (en) * 2005-10-21 2010-05-25 Hewlett-Packard Development Company, L.P. Datacenter with automated robotic maintenance
GB0920636D0 (en) * 2009-11-25 2010-01-13 Cyberhawk Innovations Ltd Unmanned aerial vehicle
US20140310610A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Vehicle occupant impairment assisted vehicle
US20170341236A1 (en) * 2016-05-27 2017-11-30 General Electric Company Integrated robotic system and method for autonomous vehicle maintenance
US20170129602A1 (en) * 2015-11-10 2017-05-11 M3N, Inc. Multipurpose Robotic System
US20190279447A1 (en) * 2015-12-03 2019-09-12 Autoconnect Holdings Llc Automatic vehicle diagnostic detection and communication
US9940761B2 (en) * 2016-08-02 2018-04-10 International Business Machines Corporation Self-driving vehicle sensor fault remediation
US10037632B2 (en) * 2016-09-01 2018-07-31 Ford Global Technologies, Llc Surrogate vehicle sensors
DE112016007265T5 (de) 2016-10-24 2019-06-27 Ford Motor Company Verwenden eines unbemannten Luftfahrzeugs zum Überprüfen von autonomen Fahrzeugen
CN110494356B (zh) * 2017-04-12 2023-08-29 福特全球技术公司 多无人机地面车辆跨接起动
US10311710B1 (en) * 2017-05-31 2019-06-04 Alarm.Com Incorporated Method for using a drone to test monitoring system sensors
US10703476B2 (en) * 2017-08-17 2020-07-07 Here Global B.V. Method and apparatus for intelligent inspection and interaction between a vehicle and a drone
EP3710358A4 (en) * 2017-11-15 2021-06-23 Bayerische Motoren Werke Aktiengesellschaft AERIAL VEHICLE WITHOUT A CREW, PROCESS AND SYSTEM FOR PROVIDING A VEHICLE CLEANING SERVICE
TWI805725B (zh) * 2018-06-07 2023-06-21 日商索尼半導體解決方案公司 資訊處理裝置、資訊處理方法及資訊處理系統

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113705544A (zh) * 2021-10-28 2021-11-26 季华实验室 汽车内饰清洁方法、装置、电子设备及存储介质
CN113705544B (zh) * 2021-10-28 2022-02-08 季华实验室 汽车内饰清洁方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
US20200391704A1 (en) 2020-12-17
US11318916B2 (en) 2022-05-03
DE102020115550A1 (de) 2020-12-17

Similar Documents

Publication Publication Date Title
US11318916B2 (en) Vehicle maintenance
US10518411B2 (en) Robotic repair or maintenance of an asset
CN111837083B (zh) 信息处理装置、信息处理方法和存储介质
JP7444884B2 (ja) パイプにuavがパーチする自動化方法
US10452078B2 (en) Self-localized mobile sensor network for autonomous robotic inspection
US10633093B2 (en) Three-dimensional robotic inspection system
US11017228B2 (en) Method and arrangement for condition monitoring of an installation with operating means
EP3353614A1 (en) Autonomous inspection of elongated structures using unmanned aerial vehicles
US20190210570A1 (en) Sensor cleaning and cooling
EP3365736B1 (en) Automated fault diagnosis and recovery of machines
US10955857B2 (en) Stationary camera localization
CN108791066B (zh) 用于传感器透镜的自动清洁的***和方法
WO2019159420A1 (ja) 移動体運行管理システムおよび移動体
KR101853288B1 (ko) 무인 차량의 주행 정보 제공 장치 및 방법
CN115129060A (zh) 变电站的自动巡检方法、管控***和电子设备
EP3757600A1 (en) Aircraft sensor testing device and method
CN113936058A (zh) 基于车辆的数据获取
CN212179927U (zh) 无人机标定***及无人机机场
CN115515836A (zh) 传感器吊舱组件
US11353697B2 (en) Enhanced vehicle sensor cleaning
CN113805603A (zh) 无人机标定***及方法
US12046132B2 (en) Sensor localization
CN117742358A (zh) 一种无人机城轨列车巡检机器人***
CN113386675A (zh) 车辆车顶总成
CN115731300A (zh) 用于校准基础设施传感器***的方法和装置以及基础设施***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination