CN112703369A - 自动引导车的运动控制 - Google Patents

自动引导车的运动控制 Download PDF

Info

Publication number
CN112703369A
CN112703369A CN201980031837.3A CN201980031837A CN112703369A CN 112703369 A CN112703369 A CN 112703369A CN 201980031837 A CN201980031837 A CN 201980031837A CN 112703369 A CN112703369 A CN 112703369A
Authority
CN
China
Prior art keywords
substrate
dimensional images
generated
dimensional
dimensional image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201980031837.3A
Other languages
English (en)
Other versions
CN112703369B (zh
Inventor
周雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Isvision Hangzhou Technology Co Ltd
Original Assignee
Isvision Hangzhou Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Isvision Hangzhou Technology Co Ltd filed Critical Isvision Hangzhou Technology Co Ltd
Publication of CN112703369A publication Critical patent/CN112703369A/zh
Application granted granted Critical
Publication of CN112703369B publication Critical patent/CN112703369B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3415Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种用于精确定位相对于衬底运动的自动引导车的位置的方法,包括:扫描装置;扫描衬底表面以产生一系列两个或多个二维图像,所产生的每个二维图像中的每个都与衬底表面的已知部分相关联。还包括存储所有产生的图像。该方法包括定位相对于衬底表面运动的自动引导车,以及对与定位的自动引导车相对应的衬底表面进行扫描以产生补充的二维图像。将补充图像与存储的两个或更多个图像中的每一个进行比较,以准确地确定自动引导车相对于该位置处衬底表面的位置。该信息还可用于驱动自动引导车相对于衬底表面从固定位置移动到另一已知位置。

Description

自动引导车的运动控制
相关申请的交叉参考
本申请要求2018年3月21日提交的美国临时专利申请No.62/645,916的优先权,其内容通过引用整体在此并入。
背景技术
自动引导车(AGV(automatic guided vehicle)或AGC(automated guided cart))是指在制造或配送设施内通过指定的取货和交货程序沿衬底运输材料(如托盘、辊子、货架、手推车、集装箱等)自动引导或自行式车,其被广泛应用于各个行业。
一般来说,传统的AGV遵循标记(例如磁条或色带)或导线,这些标记或导线以特定的配置沿制造或配送设施的特定取货/交货路径放置在衬底(通常是楼层)中。另外,或与之相结合,AGV也可以使用视觉(如照相机)、磁铁或激光进行导航。此外,惯性导航(陀螺仪)或全球定位卫星(GPS)可用于某些应用。还可以将二维条形码引入楼层或设施内与取货和交货程序相对应的位置,以提高定位精度。
然而,AGV在衬底表面上沿特定的取货和交货程序运动时,其实时定位的精度固有地受到上述装置或技术类型的限制。因相同原因,AGV沿交货程序实时修正其定位或准确停在预定义位置的能力相应地受到限制。
此外,AGV在特定设施中的定位和移动精度也仅限于特定设施内的静态布置。特别是,目前的***不能轻易地考虑设施内的动态变化,特别是沿取货和交货程序的动态变化,这可能会影响AGV准确确定其在取货和交货程序上的位置的能力。例如,按照取货和交货程序改变衬底的配置,包括但不限于设施内装置的重新配置或放置。此外,衬底表面本身的变化,例如衬底的磨损或修复,可能会对AGV在任何给定时间精确确定其在设施中取货和交货程序上的位置的能力产生不利影响。
本文所述的方法和***旨在提高AGV在衬底上的定位精度,并允许此类衬底的表面动态变化。
发明内容
本发明描述了一种用于精确定位相对于衬底运动的自动引导车的位置的方法,所述方法包括:
预先扫描衬底表面的预定义长度和宽度以产生一系列两个或多个二维图像,所述产生的一系列两个或多个二维图像中的每一个对应于预定义长度和宽度内衬底表面上的不同位置;
将所述产生的两个或多个二维图像中的每一个与衬底表面上的各自已知位置相关联;
存储所述产生的和相关联的二维图像中的每一个;
将自动引导车定位在相对于衬底表面的预定义长度和宽度内的未知位置;
扫描对应于未知位置的衬底表面以产生补充二维图像;以及
将所述产生的补充二维图像与所述存储的两个或多个二维图像中的每一个进行比较,以确定定位的自动引导车相对于衬底的位置。
本发明还涉及一种用于控制自动引导车相对于衬底移动的方法,所述自动引导车包括耦合到控制器的传感装置。所述方法包括:
预先扫描衬底的衬底表面的预定义长度和宽度以产生一系列两个或多个二维图像,所述产生的一系列两个或多个二维图像中的每一个对应于预定义长度和宽度内衬底表面上的不同位置;
将所述产生的两个或多个二维图像中的每一个与衬底表面上的各自已知位置相关联;
将所述产生的和相关联的二维图像中的每一个存储在自动引导车的控制器内;
将自动引导车定位在相对于衬底表面的预定义长度和宽度内的第一已知位置;
使用传感装置在第一已知位置扫描衬底表面以产生第一附加二维图像;
将第一附加二维图像与衬底表面上的第一已知位置相关联;
沿相对于衬底表面的预定路径以预定速度从第一已知位置移动到第二已知位置;
在移动自动引导车的过程中,使用传感装置以预定的时间间隔扫描衬底表面,以产生一系列附加的一个或多个二维图像,所述产生的一个或多个附加二维图像中的每一个对应于第一和第二已知位置之间的各自附加已知位置;
将所述一系列一个或多个产生的附加二维图像中的每一个与衬底表面上相应的附加已知位置相关联;
使用传感装置在第一已知位置扫描衬底表面以产生第二附加二维图像;
将所述产生的第二附加二维图像与衬底表面上的第二已知位置相关联;
将所述产生的和相关联的第一附加二维图像、所述产生的和相关联的第二附加二维图像、以及所述产生的和相关联的两个或多个附加二维图像中的每一个存储在自动引导车的控制器内;
将自动引导车定位在相对于衬底表面的预定义长度和宽度内的未知位置;
使用传感装置扫描与未知位置相对应的衬底表面,以产生补充二维图像;
将所述产生的补充二维图像与所述存储的两个或多个二维图像中的每一个,所述产生的和相关联的第一附加二维图像,所述产生的和相关联的第二附加二维图像,以及所述产生的和相关联的两个或多个附加二维图像中的每一个进行比较,以确定定位的自动引导车相对于对应于未知位置的衬底的位置;
确定自动引导车从所述确定位置到沿预定路径的位置的移动路径;以及
将自动引导车沿所述确定的移动路径从所述确定位置移动到沿预定路径的位置。
因此,本发明提供了一种提高AGV在特定设施中的定位和移动精度的方法。具体而言,本发明所述的方法旨在考虑设施内的动态变化,尤其是沿所需的移动路径(例如取货和交货程序)的变化,这些变化可能影响AGV准确确定其位置的能力,从而控制其沿所需移动路径的移动。
附图说明
图1是根据本发明的位于衬底表面上的自动引导车的透视图;
图2是驱动***、转向***、光源和传感装置的电气连接示意图,每个传感器连接到控制器;
图3是图1的衬底表面的俯视图,其细分为多个二维网格,每个网格具有相同的预定义宽度和预定义的长度;
图4是一个逻辑流程图,说明了本发明用于确定图1的自动引导车在图3的二维网格上的位置的示例性方法;
图5是根据示例性方法用于扫描衬底的扫描装置的透视图;
图6是一个逻辑流程图,说明了本发明用于控制图1的自动引导车在图3的二维网格上的预定路径上从第一未知位置移动到第一已知位置的示例性方法。
具体实施方式
本发明涉及确定自动引导车(AGV 20)相对于衬底表面的位置的方法,并且还涉及控制AGV相对于衬底的衬底表面的移动的相关方法。
本发明中使用的AGV 20可以采用多种形式,包括但不限于牵引车AGV、单元负载AGV、托盘车AGV、叉车AGV、混合动力卡车AGV、轻载AGV或装配线AGV。AGV 20可用于各种制造环境中,相对于衬底表面运输材料(例如托盘、辊子、货架、手推车、集装箱等)。
不管其形式如何,如图1中的一个示例性实施例所示,AGV 20通常包括用于支撑AGV 20的基础结构22,并且还包括从基础结构22延伸并以其它方式耦合到基础结构的附加结构(未示出),其设计用于容纳、存储、拉动或以其它方式固定货物或材料用于运输。此外,AGV 20包括控制器35,所述控制器通常被配置成控制AGV 20和AGV 20的部件的操作,下面针对某些部件描述这种操作和控制的特定描述。
如下所述,实施例中描述的AGV 20的类型被配置为放置在衬底100的衬底表面102上并沿衬底表面102驱动(参见图1和图3)。然而,在替代实施例中,AGV可以是相对于衬底表面102定位的类型,例如位于衬底表面102之上且与衬底表面102隔开,并且其中AGV20在正常操作期间以间隔关系推动至衬底表面102。为了便于下文的描述,实施例中描述的AGV 20是放置在衬底表面102上并沿衬底表面102驱动的类型,尽管本发明的相同原理与其它类型的AGV 20相关,例如上述AGV 20,以间隔关系推动到衬底表面102。
图1实施例的AGV 20还包括驱动***26,所述驱动***26耦合到基础结构22和控制器35(如图2所示),其中包括一个或多个驱动轮29(如图1中的单个驱动轮29所示),驱动轮29配置为根据来自驱动***26的命令通过控制器35旋转,并沿衬底100的衬底表面102以所需的方向推动AGV 20。衬底100具有预定的长度L和宽度W(参见图3),在正常使用期间AGV20在其上驱动。
取决于AGV 20的最终用途,并且对应于如上所述的AGV 20的形式,由控制器35控制的驱动***26可以被配置成使驱动轮29旋转并且以低速或更高的速度沿衬底表面102推动AGV 20。
在某些实施例中,AGV 20还可以包括一个或多个非驱动轮28。在所示的实施例中,非驱动轮28包括四个支撑轮,每个支撑轮布置在基础结构22的角上。图1中所示的非驱动轮28是能够围绕旋转轴旋转(rotate)和在一定角度范围内旋转(swivel)的脚轮,以假设相对于AGV 20沿衬底表面102的期望移动方向的拖曳方向。每个非驱动轮28可以是脚轮总成的一部分,每个脚轮总成安装在基础结构22上。应当理解,考虑了脚轮组件60的各种配置。
此外,AGV 20还包括耦合到驱动***26的转向***40和被配置成沿衬底表面102引导AGV 20的控制器35(如图2所示)。转向***40有多种形式,最常见的是差速控制,如图1所示,其中,驱动***26包括两个独立的固定驱动轮29,所述驱动轮可以根据自控制器35的转向***40和驱动***26接收到的指令以不同的速度驱动,以便以相同的速度转动或驱动,从而允许AGV 20前进或后退。转向***40还可包括一个或多个可旋转驱动轮29,其分别围绕一个轴(未示出)旋转,从而允许AGV 20旋转可旋转驱动轮29,从而使AGV 20可以以对角线或横向方向推动。在进一步的实施例中,AGV 20可包括固定驱动轮28和可旋转驱动轮29。
在某些实施例中,AGV 20的基本结构22还包括耦合到控制器35(如图2所示)的传感装置50,其被配置成根据控制器35的命令,在预定视野中扫描衬底表面102,对应于相对于靠近AGV 20的衬底100的网格(图3中的附图标记104所示),由对应于笛卡尔坐标系上x和y坐标的x和y方向上的衬底100的长度和宽度来定义,一般以二维图像的形式产生关于相应网格104内的衬底表面102二维表面特征的信息。
在某些实施例中,传感装置50是相机(camera)52,所产生的信息被相机52以捕捉光的形式处理成二维图像,存储在控制器35中。
AGV 20上使用的相机52取决于单独产生的二维图像的期望图像分辨率,或者与AGV 20在其预期用途的正常操作期间沿衬底表面102推动AGV 20的速度相结合。
对于在低速应用中使用的AGV 20,可以使用区域扫描相机***(即,使用所需网格104即时捕捉图像的相机)。可以使用的一个示例性的、非限制性的区域扫描相机***是Basler Ace区域扫描相机,可从宾夕法尼亚州埃克斯顿市的Basler公司购买多种型号。
对于在更高速度应用中使用的AGV 20,考虑具有更高快门速度的相机。用于这些高速应用的相机示例包括线扫描相机***(即,相机每次拍摄一行捕捉图像)。与上面描述的关于低速应用的相机相比,线扫描相机***可以以非常高的速率捕捉图像,但是其分辨率较低。可以使用的一个示例性的非限制性线扫描相机***是Basler Racer线扫描相机,可从宾夕法尼亚州埃克斯顿市的Basler公司购买多种型号。
当然,虽然区域扫描照相机***和线扫描照相机***被特别考虑用作相机52,但是其它类型的数字照相机、可见光照相机、红外线照相机和其他可以结合AGV 20在正常操作期间沿衬底表面102移动时能产生期望分辨率的二维图像的设备也应予以考虑。
AGV 20的基本结构22还可以包括一个或多个光源55(在图1中显示为两个光源55),这些光源也可选地耦合到控制器35(如图2所示)。这些光源55提供从衬底表面102反射的附加光,所述附加光可由传感装置50接收并由传感装置使用以产生各自的二维图像中的每一个。
虽然AGV 20的基本结构22、驱动***26、非驱动轮28、驱动轮29、控制器35、转向***40、传感装置50和光源55如图1所示,但这些位置仅代表AGV 20上的一种可能配置。举例来说,传感装置50可位于基底结构22之下,或沿基底结构22的侧面,且不限于图1中的图示。此外,如图1所示,传感装置50的数量不限于单个传感装置。
控制器35包括存储器37。存储器37可以是适于存储数据和计算机可读指令的任何存储器。例如,存储器37可以是本地存储器、外部存储器、或实现为随机存取存储器(RAM)、非易失性RAM(NVRAM)、闪存或任何其它合适的存储形式的存储器。控制器35包括一个或多个微处理器,用于处理指令或处理存储在存储器中的算法,以控制动力驱动***26、转向***40、传感装置50和/或光源55的操作。另外或可选地,控制器35可以包括一个或多个微控制器、现场可编程门阵列、片上***、离散电路和/或能够执行本文所述功能的其它合适的硬件、软件或固件。控制器35可以携带在AGV 20上,或者可以远程定位。在一个实施例中,控制器35被安装到基本结构22上。控制器35可以包括一个或多个被配置成控制动力驱动***26、转向***40、传感装置50和/或光源55(参见图2)。动力驱动***26、转向***40、传感装置50、光源55和/或控制器35的电源可由电池电源提供。控制器35可经由有线或无线连接与动力驱动***26、转向***40、传感装置50和光源55通信。控制器35产生输出信号(命令)并将其发送到动力驱动***26、转向***40、传感装置50和光源55以执行一个或多个期望的功能。
在一个实施例中,控制器35包括用于跟踪时间的内部时钟。在一个实施例中,内部时钟是微控制器时钟。微控制器时钟可以包括晶体谐振器、陶瓷谐振器、电阻器、电容器(RC)振荡器或硅振荡器。本文中公开内容以外的其它内部时钟的示例被充分考虑。内部时钟可以用硬件、软件或两者实现。在一些实施例中,存储器37、微处理器和微控制器时钟协同向动力驱动***26、转向***40、传感装置50和/或光源55发送信号以满足预定的定时参数。
本发明描述了一种用于在任何给定时间精确确定AGV相对于衬底100的衬底表面102的定位的方法。如图3所示,衬底100具有预定义的宽度W和预定义的长度L。衬底100的预定义宽度W和长度L根据多种因素从短(例如几米)到长(例如许多米)不等,例如但不限于建筑物或工厂内的空间要求以及AGV 20运输的材料的尺寸和/或类型(如托盘、辊子、货架、手推车、集装箱等),这也会影响使用的AGV 20的尺寸。
衬底100的预定宽度W和长度L可进一步细分为两个或更多网格104(参见图3,其示出了细分为35个网格的衬底100),每个网格104还具有预定义的宽度和预定义的长度,其中一个或多个网格104能够描述在笛卡尔坐标系中定义的x和y坐标中相对于衬底100的精确位置。AGV 20的控制器35可以使用网格104来识别AGV 20在任何给定时间相对于衬底100的精确位置,并且还可以帮助AGV 20精确地移动到相对于衬底100的另一个位置(对应于另一个网格104),例如沿所需的行进路径,如以下方法所述。如下文所述,在某些实施例中,每个相应的网格104还可以代表由传感装置50传感并对应于单个产生的二维图像的预定视野。
现在参考图4,提供用于确定AGV 20相对于衬底100的位置的示例性方法的逻辑流程图,以及用于控制AGV 20相对于衬底的移动的相关方法的逻辑流程图。为了便于描述,还提供了图3,这有助于描述图4的逻辑流程图的各个步骤。
示例性方法(如图4中的150所示)从步骤152开始,其中预先扫描具有预定义长度L和宽度W的衬底100以产生两个或多个二维图像,所产生的两个或多个二维图像中的每个对应于衬底表面102上预定长度和宽度内的不同位置102。
在某些实施例中,具有耦合到控制器504的传感装置502的扫描装置500(见图5)相对于或位于衬底表面102上,例如位于对应于相应的两个或多个维度网格104中的第一个的位置(如图3中的左下角网格104所示)。控制器504然后命令传感装置502通过扫描靠近扫描装置500的衬底表面102来产生二维图像。这种接近可以在扫描装置500的下方、扫描装置500的前面、扫描装置的后面、扫描装置500的一侧或两侧,或者它们的任意组合。控制器504还包括存储器505(参见上文关于存储器37的描述)。
在步骤152期间,扫描装置500相对于由图3中的箭头106所示的衬底100的预定义长度和宽度的整体移动,对应于由图3中的每个附加网格104表示的衬底100上的不同的相应位置。在所述移动期间,控制器504命令传感装置502产生与衬底表面102上的每个不同位置相对应的一系列两个或多个二维图像,其由图3中的每个附加网格104表示。
在某些实施例中,传感装置502是相机,在预先扫描步骤期间,相机捕捉从衬底表面102接收到的光并进行处理以产生二维图像。此外,对于每个产生的二维图像,控制器504还可以控制光源(图5的扫描装置500中示出了光源506)照射到衬底表面102上,因此,所产生的二维图像可以受到光源产生的衬底表面102的反射光的影响。
所产生的二维图像捕捉衬底表面102的预定观看窗口内的衬底表面102的二维表面特征(即,特征),例如由各个网格104中的每一个所表示的预定义长度和宽度。相应的衬底表面102的这种二维特征可以包括脊线、凸起、波和空隙,这些脊线、凸起、波和空隙可能是人眼可见或不可见的,但是可以由呈现在所产生的二维图像上的传感装置捕捉到。
在某些实施例中,扫描装置500是AGV 20,其中传感装置502、控制器504和光源506分别对应于AGV 20上的传感装置50、控制器35和照相机52。
虽然步骤152的描述暗示着由各个网格104表示的每个二维图像包括在所产生的一系列二维图像中并不存在的单个特征,但不一定是这样。事实上,当扫描装置500沿衬底100移动时,可在多个产生的二维图像中识别衬底表面102上的特征。以另一种方式陈述,本发明具体设想其中传感装置502被配置成产生具有在一系列相邻产生的两个或多个二维图像中的特征重叠的二维图像。在某些实施例中,产生的二维图像在两个相邻产生的二维图像中的重叠范围可以是99.9%到0.1%(在图3中由相邻产生的二维网格104定义的任意两个二维图像表示,每个二维图像定义为具有预定义的网格长度和预定义的网格),使得在任何一个产生的二维图像中存在的特征可以在沿衬底100的任何一个方向上的两个或多个相邻位置中呈现(例如在图3中的任何方向上在多个相邻网格104中表示)。重叠程度越大,在产生的二维图像上精确确定所识别特征的位置的精度就越好,下面将进一步详细描述。
在完成步骤152的预先扫描之后,所述方法进入步骤154,其中所产生的两个或多个二维图像系列中的每一个与衬底表面102的预定义长度和宽度内的各个已知位置相关联,例如在图3所示的相应网格104内。具体而言,所产生的每个二维图像与衬底102的预定义位置相关联,所述预定义位置以笛卡尔坐标系中定义的相应x和y坐标表示。
在某些实施例中,位置关联装置508用于将产生的每个相应的二维图像与衬底表面上的对应位置相关联。在某些实施例中,例如在图5,位置关联装置508包含在扫描装置500上并且耦合到控制器504。或者,位置关联装置508可以是单独的装置。可以使用的合适的位置关联装置508包括但不限于激光跟踪装置、全球定位卫星(GPS)装置(例如手持、室内或室外GPS装置)、全站仪装置(TS)、全站仪经纬仪(TST)装置等。此外,还可以使用非电子位置关联装置,例如卷尺测量或对衬底100的表面102上胶带。
具体而言,位置关联装置508与扫描装置500配合以识别在特定时刻扫描装置500在衬底100上的位置,并在笛卡尔坐标系中定义的相应x和y坐标表示结果。这些结果被发送到控制器504被配置成同时识别由传感装置502捕捉和产生的相应的一个二维图像,并将从位置关联装置508确定的x坐标和y坐标与从扫描装置502产生的相应二维图像分配为产生的和关联的二维图像。对于所产生的一个或多个二维图像中的每个重复进行一次上述处理,提供与衬底100的预定义长度L和宽度W上的每个扫描位置相关联的一系列产生的和相关联的二维图像。
接下来,在步骤156中,将一系列产生的和相关联的二维图像存储在控制器的存储器中。特别地,当使用扫描装置500时,产生的和相关联的二维图像存储在控制器504的存储器505中。当AGV 20本身被使用时,产生的和相关联的二维图像被存储在控制器35的存储器37中。
在步骤156中,其中扫描装置500不是AGV 20,存储的二维图像被传输到AGV 20的控制器35的存储器37。当AGV 20本身是扫描装置500时,不需要步骤158。
接下来,在步骤162中,AGV 20相对于衬底100定位在未知位置(出于说明目的在图3中示出,其中AGV 20位于图3中对应于参考号400的位置)。
在步骤164中,控制器35命令传感装置50以上述步骤152中所述的方式扫描未知位置400处的衬底表面102,并产生补充二维图像。
在步骤166中,将产生的补充二维图像与存储的产生的和相关联的二维图像中的每一个进行比较。更具体地说,控制器35从传感装置50接收与产生的补充二维图像相对应的输出信号。控制器35访问其存储器37并将补充二维图像的特征与存储的产生的和相关联的二维图像中的每一个的特征进行比较。
然后,控制器35确定存储的和相关联的二维图像中的哪一个与产生的补充二维图像最接近。
在某些实施例中,控制器35使用基于模板匹配的方法(即,基于模板匹配的对象识别方法)来确定存储和关联的二维图像中的哪一个与产生的补充二维图像最接近。模板匹配是一种技术,其中产生的补充二维图像通过控制器35的存储器37中包含的算法进行处理,以找到与先前存储的产生的和相关联的二维图像中的一个模板图像的小部分最接近的二维图像的小部分图像(模板包括先前存储的产生的和相关联的二维图像中的每一个的小部分,通过相同的技术产生模板图像)。
因为所确定的存储和相关联的二维图像先前已经使用位置关联装置508通过x和y方向笛卡尔坐标(在大约10毫米的精度范围内)相对于衬底100精确定位,如上述步骤154所述,因此,AGV 20对应于产生的补充二维图像的位置400被精确地确定为对应于各自确定的存储和相关联的二维图像。此外,随着产生的和相关联的二维图像的重叠量增加到99.9%重叠,控制器35更精确地识别位置400的能力得到增强。
本发明的方法进一步进行到步骤168,其中补充二维图像替换从步骤152和154中确定和产生的二维图像,补充二维图像由控制器35与特定位置400相关联。这样,在识别位置400处的衬底表面102的表面特征特征被更新。因此,改变与所识别的位置相对应的衬底表面102的动态条件,例如,通过衬底表面102上的磨损(例如通过清洁或AGV 20或其它物体的摩擦接合)或通过衬底表面102的增强(例如,衬底表面102可以被清除碎屑等)来与识别的位置400相对应,可以在控制器上持续更新35在AGV 20的任何后续操作中确定AGV20的位置。
虽然在图4的逻辑流程图中没有描述,但是本发明还允许控制器35连续监视AGV20相对于衬底100的位置。因此,如果AGV 20正在移动,则控制器35可以使用本发明的方法来确认移动方向,并以快速有效的方式将移动方向修正到期望的移动方向。此外,所述方法还允许控制器35在沿衬底100的任何位置停止移动的AGV 20。
与此附加优点相关,本发明还提供了一种用于精确控制AGV 20相对于衬底100的移动的相关方法。如下所述,在所述方法的一个实施例中,如图6的逻辑流程图所示,描述AGV20从未知位置返回预定移动路径的移动。
如本文所述方法中使用并在图3中由箭头425进一步说明的预定移动路径是指在第一已知位置450(即,起始位置)和第二已知位置475(即,终点位置475)之间的预定移动路径,AGV 20在其间正常运行,以运输货物或执行其它功能。
具体而言,所述方法描述其中AGV 20位于衬底100上的未知位置400,以及如何控制AGV沿确定的路径415返回到第一已知位置450或第二已知位置475处的预定路径425,或者在预定路径425上第一已知位置450和第二已知位置475之间的任何位置。
现在参考图6,并且类似于图4中描述的方法,所述方法从步骤152、154、156和可选的步骤158开始,其中衬底100被预先扫描以产生一系列两个或多个二维图像,所产生的两个或多个二维图像与各自的已知位置相关联,并且将产生的和相关联的二维图像存储在AGV的控制器上,或者以其它方式存储在扫描装置的控制器上,并被传输、存储到AGV 20的控制器35。
接下来,在步骤170中,AGV 20可被放置在第一已知位置450处的衬底表面102上,其中使用传感装置50扫描衬底表面102以产生第一附加二维图像。
接下来,在步骤172中,AGV 20沿相对于衬底表面102的预定路径425以预定速度从第一已知位置450移动到第二已知位置475并停止,其中使用传感装置50扫描衬底表面102以产生第二附加二维图像。在所述移动过程中,使用传感装置50在第一已知位置450和第二已知位置475之间以预定的时间间隔扫描衬底表面102,以产生一系列附加的一个或多个二维图像。
步骤170和172中扫描衬底表面102的方法通常与上述步骤152中所述的衬底表面预先扫描方法一致。
接下来,在步骤174中,以与在步骤154中关联所产生的二维图像相同的方式,将产生的附加二维图像中的每一个(即,所产生的第一和附加二维图像以及产生的一个或多个附加二维图像的序列)与所产生的预定路径相对应的衬底表面的已知位置相关联。
具体而言,产生的第一附加二维图像与衬底表面102上的第一已知位置450相关联,所产生的第二附加二维图像与衬底表面102上的第二已知位置475相关联,并且,一个或多个附加二维图像序列中的每一个与沿第一和第二已知位置450、475之间的预定路径425的相应附加已知位置相关联。
接下来,在步骤176中,以如上步骤156中所述的方式将来自步骤174的产生的和相关联的附加二维图像中的每一个存储到控制器35上。在某些实施例中,与步骤176相关联,来自步骤174的所产生和相关联的附加二维图像中的每一个替换对应于在上述步骤154中产生的已知位置的一个或多个存储的产生的和相关联的二维图像的对应系列。
接下来,在步骤178中并且类似于步骤162,AGV 20相对于衬底100定位在未知位置(出于说明目的而示出,其中AGV 20位于图3中对应于参考号400的位置)。
在步骤180和类似于图4的步骤164中,控制器35命令传感装置50以上述步骤152中所述的方式扫描未知位置400处的衬底表面102,并产生补充二维图像。
在步骤182中并且类似于图4的步骤166,将产生的补充二维图像与步骤152中存储的产生的和相关联的二维图像中的每一个以及步骤176中存储的和关联的附加二维图像中的每一个进行比较。更具体地说,控制器35从传感装置50接收与产生的补充二维图像相对应的输出信号。控制器35访问其存储器37并将补充二维图像的特征与存储的产生的和相关联的二维图像以及存储的产生的和相关联的附加二维图像中的每一个的特征进行比较。
接下来,在步骤184中,基于如步骤182中提供的AGV 20的确定位置,并且基于控制器35已知的第一已知位置450或第二已知位置475的位置或沿预定路径425的任何位置,控制器35确定相对于衬底100所需的移动路径(如图3中的箭头415所示),AGV 20将通过所述衬底100从所确定的位置400向第一已知位置450或第二已知位置475中的每一个或沿预定路径425的任何位置移动(图3中所示为朝向第一已知位置425的移动的期望移动路径415)。
在步骤186中,控制器35引导AGV 20沿在步骤184中确定的相对于衬底100的期望路径415移动。更具体地说,在某些实施例中,控制器35命令转向***40和驱动***26驱动驱动轮29以期望的速度在期望路径415上旋转和推动AGV 20。
在步骤188中,当AGV 20沿相对于衬底100的期望路径415移动时,控制器35进一步命令传感装置50以预定的时间间隔连续扫描衬底表面102并产生一个或多个确定的路径二维图像。
在步骤190中,将一个或多个产生的确定路径的二维图像与步骤156中存储的产生的和相关联的二维图像中的每一个以及步骤176中存储的和关联的附加二维图像中的每一个进行比较,以确定AGV 20的实际移动路径,进而确定是否相对于衬底表面102AGV20的位置在预定时间间隔的期间内。根据所述信息,控制器35可以确定AGV 20的实际移动路径。
在步骤192中,所述方法继续,其中将确定的实际移动路径与期望的移动路径415进行比较。更具体地,控制器35使用存储在存储器37中的算法来比较确定的实际移动路径与期望的移动路径415,确定已确定的实际移动路径是否不同于所述期望移动路径415。
如果确定的实际移动路径不同于所述期望的移动路径415,则逻辑进入步骤194,其中所确定的实际移动路径被校正为所需的移动路径415。在某些实施例中,完成校正,其中控制器35指示驱动***26或转向***40改变AGV 20相对于衬底表面102的移动方向。
如果确定的实际移动路径与所述期望的移动路径415相同,则逻辑进入步骤196,其中AGV 20沿所需的移动路径415前进。
接下来,在步骤198中,所述方法还可以包括以类似于上述步骤154或174中描述的方式将一个或多个产生的确定路径二维图像关联到已知位置的步骤,并且存储与上述步骤156和176中描述的方式类似的一个或多个产生的确定路径二维图像。
在某些实施例中,与步骤198相关联,来自步骤188的所产生和相关联的确定路径二维图像中的每一个替换与上述步骤188和190中描述的所需移动路径415或实际移动路径上的已知位置对应的一个或多个存储的产生的和相关联的二维图像的对应系列。
本发明非常适合于在制造设施或仓库中使用,其既可以在室外环境使用,也可以在室内环境中使用。此外,由于本发明的方法能够持续更新对应于网格104中的一个或多个的二维图像,因此本发明能够在每一个变化的衬底表面102条件下连续地监视和精确地定位AGV20,并且对改变衬底100上的二维表面特性的污垢或其它污染物具有高度耐受性。因此,本发明非常适合用作自动引导车的安全或指导方法,以确定预先扫描道路上的精确车位置,达到亚毫米精度。
更进一步,如上所述,虽然根据上述描述的AGV 20通常涉及在正常使用期间与衬底表面102接触的AGV 20,但是本发明还考虑AGV 20不与衬底表面102接触,而是在使用期间远离衬底表面102的AGV20。举例来说,在正常使用期间,AGV 20可在衬底表面102上方飞行,或在衬底表面102上方悬停。然而,如上所述,用于确定AGV相对于衬底表面102的位置的方法仍然适用。
应当理解,术语“包括(include/includes/including)”具有与术语“包括(comprise/comprises/comprising)”相同的含义。
在前面的描述中已经讨论了若干实施例。然而,本文讨论的实施例并不打算是详尽的或将本发明限制到任何特定形式。所用术语的性质是描述性的,而非限制性的。根据上述教导,许多修改和变化是可能的,并且本发明可以实施而不是具体描述的。

Claims (20)

1.一种用于精确定位相对于衬底运动的自动引导车的位置的方法,其特征在于包括:
预先扫描预定义长度和宽度的衬底表面,以产生一系列两个或多个二维图像,其中一系列两个或多个二维图像中的每一个对应于预定义长度和宽度内衬底表面上的不同位置;
将一系列两个或多个二维图像中每一个与预定义长度和宽度内衬底表面上的各自对应位置相关联;
存储所述产生的和相关联的一系列两个或多个二维图像中的每一个;
将自动引导车定位在相对于衬底表面的预定义长度和宽度内的未知位置;
扫描对应于未知位置的衬底表面以产生补充二维图像;以及
将补充二维图像与一系列两个或多个二维图像中的每一个进行比较,以确定定位的自动引导车相对于衬底的位置。
2.根据权利要求1所述的方法,其特征在于:其中将补充二维图像与一系列两个或多个二维图像中的每一个进行比较的步骤包括:比较时基于模板匹配的方法识别与补充二维图像相对应的一系列两个或多个二维图像中的每一个。
3.根据权利要求2所述的方法,其特征在于:还包括如下步骤:用与所述确定的位置相对应的补充二维图像替换存储的一系列两个或多个二维图像中的各自识别的一个图像。
4.根据权利要求1所述的方法,其特征在于:自动引导车还包括耦合到控制器的传感装置,所述控制器存储产生的和相关联的二维图像中的每一个,其中,所述扫描对应于未知位置的衬底表面并将所述产生的补充二维图像与所述存储的两个或多个二维图像中的每一个进行比较的步骤包括:
将自动引导车定位在相对于衬底表面的未知位置;
使用传感装置扫描与未知位置对应的衬底表面,以产生补充二维图像;
使用控制器将补充二维图像与存储的一系列两个或多个二维图像中的每一个进行比较,以确定定位的自动引导车相对于衬底在未知位置中的位置。
5.根据权利要求4所述的方法,其特征在于:其中所述使用控制器将补充二维图像与一系列两个或多个二维图像中的每一个进行比较的步骤包括:
使用控制器,通过基于模板匹配的方法来识别与补充二维图像相对应的存储的一系列两个或多个二维图像中的相应一个。
6.根据权利要求5所述的方法,其特征在于还包括以下步骤:
使用控制器将确定的位置与补充二维图像相关联;以及,
用控制器内存储的与确定位置相对应的补充二维图像替换一系列两个或多个二维图像中的每一个。
7.根据权利要求1所述的方法,其特征在于:预先扫描衬底表面、关联一系列两个或多个二维图像中每一个与衬底表面上的各自对应位置,以及存储产生的和相关联的二维图像的步骤包括:
在衬底的衬底表面上定位具有传感装置的扫描装置;
使用传感装置预先扫描衬底表面,同时沿衬底表面在预定义长度和宽度内的两个或多个位置之间移动扫描装置,以产生一系列两个或多个二维图像,其中一系列两个或多个二维图像中的每一个对应于预定义长度和宽度内衬底表面上的两个或多个位置中的每一个;
使用位置关联装置将一系列两个或多个二维图像中每一个与预定义长度和宽度内衬底表面上的各自对应位置相关联,以形成两个或多个产生的和相关联的二维图像;以及
在扫描装置上存储所述两个或多个产生的和相关联的二维图像。
8.根据权利要求7所述的方法,其特征在于:所述自动引导车具有耦合到控制器的自动引导车传感装置,所述扫描对应于未知位置的衬底表面获取补充二维图像,以及将补充二维图像与存储的两个或多个二维图像中每一个进行比较的步骤包括:
将存储的两个或多个产生的和相关联的二维图像中从扫描装置转印到自动引导车的控制器;
将自动引导车定位在相对于衬底表面的预定义长度和宽度内的未知位置;
使用自动引导车传感装置扫描与未知位置相对应的衬底表面,以产生补充二维图像;
利用控制器,通过基于模板匹配的方法来识别与产生的补充二维图像相对应的存储的两个或多个二维图像中的每一个。
9.根据权利要求7所述的方法,其特征在于:所述自动引导车具有耦合到控制器的光传感装置,所述扫描对应于未知位置的衬底表面获取补充二维图像,以及将补充二维图像与存储的两个或多个二维图像中每一个进行比较的步骤包括:
将所述存储的两个或多个产生的和相关联的二维图像从扫描装置转印到自动引导车的控制器;
将自动引导车定位在相对于衬底表面的预定义长度和宽度内的未知位置;
使用光传感装置从未知位置捕捉衬底表面的光;
用所述控制器处理捕捉到的光,以产生补充二维图像;
利用控制器,通过基于模板匹配的方法来识别与补充二维图像相对应的一系列两个或多个二维图像中的每一个。
10.根据权利要求9所述的方法,其特征在于:所述自动引导车还具有光源,其中所述扫描对应于未知位置的衬底表面的步骤还包括:
从光源向衬底表面提供与未知位置相对的光。
11.根据权利要求1所述的方法,其特征在于:其中与一系列二维图像中的每一个相对应的各个位置定义了衬底表面内预定义网格长度和预定义网格宽度的二维网格。
12.根据权利要求11所述的方法,其特征在于:其中邻近的二维网格对的二维图像之间的重叠程度范围从0%~99.9%。
13.一种用于控制自动引导车相对于衬底移动的方法,其特征在于:所述自动引导车包括耦合到控制器的传感装置,所述方法包括:
预先扫描衬底表面的预定义长度和宽度以产生一系列两个或多个二维图像,所述产生的一系列两个或多个二维图像中的每一个对应于预定义长度和宽度内衬底表面上的不同位置;
将产生的两个或多个二维图像中的每一个与衬底表面上的各自已知位置相关联;
将所述产生的和相关联的二维图像中的每一个存储在自动引导车的控制器内;
将自动引导车定位在相对于衬底表面的预定义长度和宽度内的第一已知位置;
使用传感装置在第一已知位置扫描衬底表面以产生第一附加二维图像;
将所述产生的第一附加二维图像与衬底表面上的第一已知位置相关联;
沿相对于衬底表面的预定路径以预定速度从第一已知位置移动到第二已知位置;
在移动自动引导车的过程中,使用传感装置以预定的时间间隔扫描衬底表面,以产生一系列附加的一个或多个二维图像,所述产生的两个或多个附加二维图像中的每一个对应于第一和第二已知位置之间的各自附加已知位置;
将一系列一个或多个产生的附加二维图像中的每一个与衬底表面上相应的附加已知位置相关联;
使用传感装置在第一已知位置扫描衬底表面以产生第二附加二维图像;
将所述产生的第二附加二维图像与衬底表面上的第二已知位置相关联;
将所述产生的和相关联的第一附加二维图像、所述产生的和相关联的第二附加二维图像、以及所述产生的和相关联的两个或多个附加二维图像中的每一个存储在自动引导车的控制器内;
将自动引导车定位在相对于衬底表面的预定义长度和宽度内的未知位置;
使用传感装置扫描与未知位置相对应的衬底表面,以产生补充二维图像;
将所述产生的补充二维图像与所述存储的两个或多个二维图像中的每一个,所述产生的和相关联的第一附加二维图像,所述产生的和相关联的第二附加二维图像,以及所述产生的和相关联的两个或多个附加二维图像中的每一个进行比较,以确定定位的自动引导车相对于对应于未知位置的衬底的位置;
确定自动引导车从所述确定位置到沿预定路径的位置的移动路径;以及
将自动引导车沿确定的路径移动,所述确定的路径为从所述确定的位置到沿预定路径的位置。
14.根据权利要求13所述方法,其特征在于:其中比较的步骤包括:
基于模板匹配的方法,将所述产生的补充二维图像与所述存储的两个或多个二维图像中的每一个、所述产生的和相关联的第一附加二维图像、所述产生的和相关联的第二附加二维图像、以及所述产生的和相关联的两个或多个附加二维图像中的每一个进行比较,以确定定位的自动引导车相对对应于未知位置的衬底的位置。
15.根据权利要求13所述方法,其特征在于:
还包括用所述产生的和相关联的第一附加二维图像、所述产生的和相关联的第二附加二维图像,以及所述产生的和相关联的两个或多个附加二维图像中的每一个来替换来自与第一已知位置、第二已知位置以及沿相对于衬底表面的预定路径的每一个附加已知位置相对应的控制器内存储的两个或多个二维图像中每一个的步骤。
16.根据权利要求13所述方法,其特征在于:当自动引导车沿路径移动时,使用传感装置以预定的时间间隔扫描衬底表面,以产生一个或多个确定路径的二维图像;以及
将所产生的一个或多个确定路径的二维图像与所述存储的两个或多个二维图像中的每一个、所述产生的和相关联的第一附加二维图像、所述产生的和相关联的第二附加二维图像,以及所述产生的和相关联的两个或多个附加二维图像中的每一个进行比较,以确定在预定时间间隔中的相应一个期间,自动引导车相对于衬底表面的相对位置;
通过以预定的时间间隔比较每个所述确定的相对位置来确定自动引导车相对于衬底表面的实际移动路径;
将所述确定的实际移动路径与期望的移动路径进行比较;以及
当所述确定的移动路径不同于期望的移动路径时,将所述确定的实际移动路径修正为期望的移动路径。
17.根据权利要求13所述方法,其特征在于:所述预先扫描衬底表面,并将所述扫描的两个或多个二维图像中的每一个和衬底表面上的位置相关联;以及存储所述产生的和相关联的二维图像中的每一个的步骤包括:
在衬底表面上定位具有扫描传感装置的扫描装置;
使用扫描传感装置预先扫描衬底表面,同时沿衬底表面在预定义长度和宽度内的两个或多个位置之间移动扫描装置以产生两个或多个二维图像,所述产生的两个或多个二维图像中的每一个对应于预定义长度和宽度内衬底表面上的两个或多个位置中的每一个;
使用位置关联装置将所述产生的两个或多个二维图像中每一个与预定义长度和宽度内的衬底表面上的相应位置相关联,以形成两个或多个产生的和相关联的二维图像;以及
在扫描装置上存储所述两个或多个产生的和相关联的二维图像。
18.根据权利要求17所述方法,其特征在于:还包括将所述存储的两个或多个产生的和相关联的二维图像从扫描装置转印到自动引导车的控制器的步骤。
19.根据权利要求13所述方法,其特征在于:其中与所述产生的二维图像中的每一个相对应的每个不同的各个位置定义了衬底表面内具有预定义网格长度和预定义网格宽度的二维网格。
20.根据权利要求19所述方法,其特征在于:邻近的二维网格对的所述产生的二维图像之间的重叠程度范围从0%~99.9%。
CN201980031837.3A 2018-03-21 2019-03-21 自动引导车的运动控制 Active CN112703369B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862645916P 2018-03-21 2018-03-21
US62/645,916 2018-03-21
PCT/US2019/023429 WO2019183393A1 (en) 2018-03-21 2019-03-21 Controlling movement of an automated guided vehicle

Publications (2)

Publication Number Publication Date
CN112703369A true CN112703369A (zh) 2021-04-23
CN112703369B CN112703369B (zh) 2024-02-27

Family

ID=67988116

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980031837.3A Active CN112703369B (zh) 2018-03-21 2019-03-21 自动引导车的运动控制

Country Status (3)

Country Link
US (1) US11087492B2 (zh)
CN (1) CN112703369B (zh)
WO (1) WO2019183393A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110864691B (zh) * 2019-11-15 2021-10-19 浙江大学华南工业技术研究院 基于天花板式二维码的仿磁条定位方法及装置
DE102021105263A1 (de) * 2021-03-04 2022-09-08 Schaeffler Technologies AG & Co. KG Verfahren zum Ermitteln einer Fahrtrichtung und/oder einer Positionsveränderung und/oder Geschwindigkeit eines fahrerlosen Transportfahrzeugs, fahrerloses Transportfahrzeug und fahrerloses Transportsystem

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003044876A (ja) * 2001-07-30 2003-02-14 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
US20130045751A1 (en) * 2011-08-19 2013-02-21 Qualcomm Incorporated Logo detection for indoor positioning
CN103048996A (zh) * 2012-12-27 2013-04-17 深圳先进技术研究院 基于激光扫描测距仪的自动引导车、***及导航方法
CN105455743A (zh) * 2014-09-30 2016-04-06 Lg电子株式会社 机器人吸尘器及机器人吸尘器的控制方法
CN106382930A (zh) * 2016-08-18 2017-02-08 广东工业大学 一种室内agv无线导航方法及装置
WO2017053407A1 (en) * 2015-09-24 2017-03-30 Quovard Management Llc Systems and methods for localization using surface imaging

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7424133B2 (en) 2002-11-08 2008-09-09 Pictometry International Corporation Method and apparatus for capturing, geolocating and measuring oblique images
DE102004063916A1 (de) * 2004-01-21 2005-11-10 TÜV Automotive GmbH TÜV SÜD Gruppe Mehrspuriges Fahrzeug zum Durchführen von Crash-Versuchen
US8381982B2 (en) * 2005-12-03 2013-02-26 Sky-Trax, Inc. Method and apparatus for managing and controlling manned and automated utility vehicles
US9092455B2 (en) * 2012-07-17 2015-07-28 Microsoft Technology Licensing, Llc Image curation
US9037396B2 (en) 2013-05-23 2015-05-19 Irobot Corporation Simultaneous localization and mapping for a mobile robot
US10296814B1 (en) * 2013-06-27 2019-05-21 Amazon Technologies, Inc. Automated and periodic updating of item images data store
US10339389B2 (en) * 2014-09-03 2019-07-02 Sharp Laboratories Of America, Inc. Methods and systems for vision-based motion estimation
KR102314637B1 (ko) 2015-03-23 2021-10-18 엘지전자 주식회사 로봇 청소기 및 이를 구비하는 로봇 청소 시스템
GB201612528D0 (en) * 2016-07-19 2016-08-31 Machines With Vision Ltd Vehicle localisation using the ground or road surface
CN106595634A (zh) * 2016-11-30 2017-04-26 深圳市有光图像科技有限公司 通过对比图像识别移动机器人的位置的方法及移动机器人
EP3551967A2 (en) * 2016-12-09 2019-10-16 TomTom Global Content B.V. Method and system for video-based positioning and mapping
US10515458B1 (en) * 2017-09-06 2019-12-24 The United States Of America, As Represented By The Secretary Of The Navy Image-matching navigation method and apparatus for aerial vehicles
GB2568286B (en) * 2017-11-10 2020-06-10 Horiba Mira Ltd Method of computer vision based localisation and navigation and system for performing the same
US10436590B2 (en) * 2017-11-10 2019-10-08 Ankobot (Shanghai) Smart Technologies Co., Ltd. Localization system and method, and robot using the same
WO2019097422A2 (en) * 2017-11-14 2019-05-23 Ception Technologies Ltd. Method and system for enhanced sensing capabilities for vehicles
US11079242B2 (en) * 2017-12-29 2021-08-03 Walmart Apollo, Llc System and method for determining autonomous vehicle location using incremental image analysis
US10949996B2 (en) * 2018-01-16 2021-03-16 Aisin Seiki Kabushiki Kaisha Self-position estimation apparatus
US10825201B2 (en) * 2018-02-20 2020-11-03 Lyft, Inc. Deep direct localization from ground imagery and location readings
US20190347808A1 (en) * 2018-05-09 2019-11-14 Ford Global Technologies, Llc Monocular Visual Odometry: Speed And Yaw Rate Of Vehicle From Rear-View Camera
WO2019232806A1 (zh) * 2018-06-08 2019-12-12 珊口(深圳)智能科技有限公司 导航方法、导航***、移动控制***及移动机器人
US11151376B2 (en) * 2019-01-23 2021-10-19 Uber Technologies, Inc. Rider-driver localization for determining placement of AR content for passenger
US11610337B2 (en) * 2019-02-17 2023-03-21 Purdue Research Foundation Calibration of cameras and scanners on UAV and mobile platforms

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003044876A (ja) * 2001-07-30 2003-02-14 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
US20130045751A1 (en) * 2011-08-19 2013-02-21 Qualcomm Incorporated Logo detection for indoor positioning
CN103048996A (zh) * 2012-12-27 2013-04-17 深圳先进技术研究院 基于激光扫描测距仪的自动引导车、***及导航方法
CN105455743A (zh) * 2014-09-30 2016-04-06 Lg电子株式会社 机器人吸尘器及机器人吸尘器的控制方法
WO2017053407A1 (en) * 2015-09-24 2017-03-30 Quovard Management Llc Systems and methods for localization using surface imaging
CN106382930A (zh) * 2016-08-18 2017-02-08 广东工业大学 一种室内agv无线导航方法及装置

Also Published As

Publication number Publication date
CN112703369B (zh) 2024-02-27
WO2019183393A1 (en) 2019-09-26
US20210134008A1 (en) 2021-05-06
US11087492B2 (en) 2021-08-10

Similar Documents

Publication Publication Date Title
US11097760B2 (en) Self-driving systems with inventory holder
US11312030B2 (en) Self-driving vehicle system with steerable camera and indicator
JP6211734B1 (ja) ステレオ処理及び構造化光処理の組み合わせ
RU2283750C1 (ru) Способ коррекции координат робота-уборщика и автоматическая система уборки с использованием этого способа
CN111486848B (zh) Agv视觉导航方法、***、计算机设备以及存储介质
US5155684A (en) Guiding an unmanned vehicle by reference to overhead features
CN104238557B (zh) 无人驾驶运输车辆和运行无人驾驶运输车辆的方法
US20180120465A1 (en) Methods and Systems for Pallet Detection
US20160360940A1 (en) Methods and systems for movement of an automatic cleaning device using video signal
JP7510942B2 (ja) 自動運転車用自律放送システム
US20200264625A1 (en) Systems and methods for calibration of a pose of a sensor relative to a materials handling vehicle
EP4111285B1 (en) Method for controlling an automatic guided vehicle and control system adapted to execute the method
JP2008052669A (ja) 自律移動装置
US20230050980A1 (en) Autonomous transport vehicle with vision system
CN112703369B (zh) 自动引导车的运动控制
CN112987729A (zh) 用于控制自主移动机器人的方法和装置
KR20220050483A (ko) 무인 반송 차량의 위치 인식 장치 및 방법
JP2002132344A (ja) 移動体の誘導方法
KR102357156B1 (ko) 자율주행형 무인이송차량의 장애물 회피 구동 제어 시스템
US20240227187A9 (en) Guided Travel Mode with Dynamic Force Feedback for Mobile Robots
CN115755905A (zh) 机器人控制方法、机器人及计算机可读存储介质
WO2021000370A1 (zh) 控制方法和自动引导车
KR20240031719A (ko) 스마트 물류 차량 및 그 제어 방법
KR20230168516A (ko) 스마트 물류 차량 및 그 제어 방법
JP2022114853A (ja) 自律移動体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 310051 495, building 3, No. 1197, Bin'an Road, Binjiang District, Hangzhou City, Zhejiang Province

Applicant after: Yi Si Si (Hangzhou) Technology Co.,Ltd.

Address before: 310051 495, building 3, No. 1197, Bin'an Road, Binjiang District, Hangzhou City, Zhejiang Province

Applicant before: ISVISION (HANGZHOU) TECHNOLOGY Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant