CN106500714A - 一种基于视频的机器人导航方法及*** - Google Patents

一种基于视频的机器人导航方法及*** Download PDF

Info

Publication number
CN106500714A
CN106500714A CN201610839909.5A CN201610839909A CN106500714A CN 106500714 A CN106500714 A CN 106500714A CN 201610839909 A CN201610839909 A CN 201610839909A CN 106500714 A CN106500714 A CN 106500714A
Authority
CN
China
Prior art keywords
robot
ground location
camera
pixel
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610839909.5A
Other languages
English (en)
Other versions
CN106500714B (zh
Inventor
刘德建
念小义
何学城
陈宏展
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujian Netdragon Websoft Co Ltd
Original Assignee
Fujian Netdragon Websoft Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujian Netdragon Websoft Co Ltd filed Critical Fujian Netdragon Websoft Co Ltd
Priority to CN201610839909.5A priority Critical patent/CN106500714B/zh
Publication of CN106500714A publication Critical patent/CN106500714A/zh
Application granted granted Critical
Publication of CN106500714B publication Critical patent/CN106500714B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

本发明涉及导航领域,尤其涉及一种基于视频的机器人导航方法及***。本发明通过建立视频图像像素点位置与地面位置的对应关系;获取视频图像像素点;根据所述像素点的位置获取地面位置。实现通过在机器人上安装摄像头,实时获取机器人能检测到的实际场景,得到视频图像,在视频图像中选取一像素点,并驱动机器人至所述像素点所表示的地面位置,从而实现可针对机器人周围的实际场景导航机器人。

Description

一种基于视频的机器人导航方法及***
技术领域
本发明涉及导航领域,尤其涉及一种基于视频的机器人导航方法及***。
背景技术
目前业界的机器人导航,基本上是在一幅导航地图中,点击地图上的某个像素点或选择某个位置,再通过所选位置相对于整个地图的长宽比例来计算转化为现实场景中的目标位置,然后控制机器人再移动到那个位置。使用地图导航控制机器人移动的缺点在于地图是一张静态图片,事先在地图上按比例画好路线、障碍等标志物,无法实时反映实际场景中的变化。
发明内容
本发明所要解决的技术问题是:提供一种基于视频的机器人导航方法及***,实现可针对机器人周围的实际场景导航机器人。
为了解决上述技术问题,本发明采用的技术方案为:
本发明提供一种基于视频的机器人导航方法,包括:
建立视频图像像素点位置与地面位置的对应关系;
获取视频图像像素点;
根据所述像素点的位置获取地面位置。
上述基于视频的机器人导航方法,其有益效果在于:区别于现有技术使用地图导航控制机器人移动,无法根据实际场景中的变化进行导航。本发明通过在机器人上安装摄像头,实时获取机器人能检测到的实际场景,得到视频图像,再建立视频图像中像素点位置与地面位置的对应关系,可在视频图像中选取一像素点,并驱动机器人至所述像素点所表示的地面位置,从而实现可针对机器人周围的实际场景导航机器人。
本发明还提供一种基于视频的机器人导航***,包括:
建立模块,用于建立视频图像像素点位置与地面位置的对应关系;
第一获取模块,用于获取视频图像像素点;
第二获取模块,用于根据所述像素点的位置获取地面位置。
上述基于视频的机器人导航***,其有益效果在于:通过建立模块建立视频图像中像素点位置与地面位置的对应关系,通过第一获取模块在视频图像中选取一像素点,再通过第二获取模块获取选取的像素点所对应的地面位置,从而可驱动机器人至所述像素点所表示的地面位置,实现可针对机器人周围的实际场景导航机器人。
附图说明
图1为本发明一种基于视频的机器人导航方法的流程框图;
图2为本发明一种基于视频的机器人导航***的结构框图;
标号说明:
1、建立模块;2、第一获取模块;3、第二获取模块;31、第一计算单元;32、第二计算单元;4、第三获取模块;5、计算模块;6、第四获取模块;7、驱动模块。
具体实施方式
为详细说明本发明的技术内容、所实现目的及效果,以下结合实施方式并配合附图予以说明。
本发明最关键的构思在于:通过实时获取机器人周围的场景视频图像,在场景视频图像中选择像素点,并将所述像素点在视频图像中的位置转换为地面位置,驱动机器人至所述地面位置,实现可针对机器人周围的实际场景导航机器人。
如图1所示,本发明提供一种基于视频的机器人导航方法,包括:
建立视频图像像素点位置与地面位置的对应关系;
获取视频图像像素点;
根据所述像素点的位置获取地面位置。
进一步地,根据所述像素点的位置获取地面位置,具体为:
根据所述像素点的位置,计算得到机器人的摄像头相对于所述地面位置的垂直方向偏角和水平方向偏角;
根据所述垂直方向偏角和所述水平方向偏角,计算得到所述地面位置相对于机器人的摄像头的垂直距离和水平距离。
由上述描述可知,可根据像素点的位置计算出该像素点所对应的地面位置距离机器人的摄像头的偏移量。
优选地,计算机器人的摄像头相对于所述地面位置的垂直方向偏角和水平方向偏角的方法步骤具体为:
以监控端的视频图像的左上角为原点,右方为X轴正半轴,下方为Y轴正半轴建立直角坐标系,得到第一坐标系。在监控端的视频图像中选取一像素点作为目标像素点,该像素点在第一坐标系中的坐标为(x1,y1),监控端的分辨率为width1*height1。计算所述像素点在监控端的视频图像中的垂直比例和水平比例,rateX1=x1/width1,rateY1=y1/height1;
以监控端的视频图像的左上角为原点,右方为X轴正半轴,下方为Y轴正半轴建立直角坐标系,得到第二坐标系。获取机器人端视频图像的分辨率width2*height2;计算所述目标像素点在机器人端视频图像中的坐标(x2,y2),x2=width2*rateX1,y2=height2*rateY1;
获取摄像头的水平视角angW和垂直视角angH;计算得到所述目标像素点对应的地面位置与摄像头之间的水平偏角angX和垂直偏角angY,angX=(x2/width2-0.5)*angW,angY=(Y2/height2-0.5)*angH;
获取摄像头距地面的垂直高度z;计算所述目标像素点对应的地面位置相对于摄像头对应的地面位置的水平偏移量x3和垂直偏移量y3,y3=z/tan(angY);x3=y3*tan(angX)。进一步地,还包括:
获取机器人的摄像头相对于机器人正前方的角度;
根据所述地面位置相对于机器人的摄像头的垂直距离和水平距离和所述角度,计算得到所述地面位置相对于机器人的垂直距离和水平距离。
由上述描述可知,可根据地面位置相对于机器人的摄像头的偏移量计算出该地面位置相对于机器人的偏移量。机器人的摄像头可以安装在任意方位,当机器人的摄像头不是安装在机器人的正前方时,需要将地面位置相对于机器人摄像头的偏移量转换为相对于机器人正前方的偏移量,才能正确地根据偏移量驱动机器人至所述地面位置。
优选地,计算所述地面位置相对于机器人的垂直距离和水平距离具体为:
以机器人为原点,正前方为Y轴正半轴,右方为X轴正半轴,上方为Z轴正半轴建立坐标系,得到第三坐标系。获取机器人的摄像头在第三坐标系中的坐标(x4,y4,z4),摄像头相对于机器人正前方的角度angC,所述目标像素点对应的地面位置相对于摄像头对应的地面位置的水平偏移量x3和垂直偏移量y3,计算得到所述目标像素点对应的地面位置相对于机器人的水平偏移量x5和垂直偏移量y5,x5=x3*cos(-angC)–y3*sin(-angC)+x4;y5=x3*sin(-angC)+y3*cos(-angC)+y4。
进一步地,还包括:
实时获取机器人的摄像头拍摄的画面,得到所述视频图像。
由上述描述可知,实现实时获取机器人周围的实际场景。
进一步地,还包括:
驱动机器人至所述地面位置。
由上述描述可知,实现驱动机器人至在视频图像中选取的像素点对应于实际场景中的地面位置。
如图2所示,本发明还提供一种基于视频的机器人导航***,包括:
建立模块1,用于建立视频图像像素点位置与地面位置的对应关系;
第一获取模块2,用于获取视频图像像素点;
第二获取模块3,用于根据所述像素点的位置获取地面位置。
进一步地,所述第二获取模块3包括:
第一计算单元31,用于根据所述像素点的位置,计算得到机器人的摄像头相对于所述地面位置的垂直方向偏角和水平方向偏角;
第二计算单元32,用于根据所述垂直方向偏角和所述水平方向偏角,计算得到所述地面位置相对于机器人的摄像头的垂直距离和水平距离。
进一步地,还包括:
第三获取模块4,用于获取机器人的摄像头相对于机器人正前方的角度;
计算模块5,用于根据所述地面位置相对于机器人的摄像头的垂直距离和水平距离和所述角度,计算得到所述地面位置相对于机器人的垂直距离和水平距离。
进一步地,还包括:
第四获取模块6,用于实时获取机器人的摄像头拍摄的画面,得到所述视频图像。
进一步地,还包括:
驱动模块7,用于驱动机器人至所述地面位置。
本发明的实施例一为:
实时获取机器人的摄像头拍摄的画面,得到视频图像;
建立所述视频图像像素点位置与地面位置的对应关系;
获取视频图像像素点;
根据所述像素点的位置,计算得到机器人的摄像头相对于所述地面位置的垂直方向偏角和水平方向偏角;
根据所述垂直方向偏角和所述水平方向偏角,计算得到所述地面位置相对于机器人的摄像头的垂直距离和水平距离;
驱动机器人至所述地面位置。
由上述描述可知,本实施例实现可实时获取机器人周围的实际场景的视频图像,并可通过选取视频图像中的像素点导航机器人。
本发明的实施例二为:
在实施例一的基础上,还包括:
获取机器人的摄像头相对于机器人正前方的角度;
根据所述地面位置相对于机器人的摄像头的垂直距离和水平距离和所述角度,计算得到所述地面位置相对于机器人的垂直距离和水平距离。
由上述描述可知,在本实施例中获取机器人周围实际场景视频图像的摄像头可安装于机器人的任意方位,通过将地面位置相对于机器人摄像头的偏移量转换为地面位置相对于机器人的偏移量,可驱动机器人至所述地面位置。
本发明的实施例三为:
机器人摄像头的视频图像的像素分辨率为1280*720,监控端上视频图像的分辨率为1440*810。监控端从机器人端实时获取视频图像,并对获取到的视频图像进行畸变校正。
以视频图像的左上角为原点,右方为X轴正半轴,下方为Y轴正半轴建立直角坐标系。在监控端的视频图像中选取一像素点(800,710)作为导航机器人的目标像素点。
目标像素点在监控端的视频图像中的垂直比例:710/810=0.8765;水平比例:800/1440=0.5556;目标像素点在机器人摄像头的视频图像中的像素坐标为(711,631),其计算过程为1280*0.5556=711,720*0.8765=631;根据摄像头的垂直视角28.64度、水平视角61.18度、摄像头距地面的高度1米及目标像素点在摄像头的视频图像中的像素坐标计算出目标像素点所对应的地面位置,即目标地面位置相对于摄像头的垂直偏角为10.78度和水平偏角为3.39度。以摄像头为原点,摄像头的正前方为X轴正半轴,摄像头的正右方为Y轴正半轴建立直角坐标系,根据目标地面位置相对于摄像头的垂直偏角和水平偏角计算出目标地面位置相对于摄像头的水平偏移量为0.31,垂直偏移量为5.25。以机器人的为原点,机器人的正前方为Y轴正半轴,机器人的正右方为X轴正半轴建立直角坐标系。将目标地面位置相对于摄像头的水平偏移量和垂直偏移量转换为目标地面位置相对于机器人的水平偏移量和垂直偏移量。根据视频图像与地面位置的对应关系,可根据所述偏移量计算出目标地面位置相对于摄像头的实际水平距离和实际垂直距离。根据目标地面位置距离机器人的实际水平距离和实际垂直距离驱动机器人至目标位置。
本发明的实施例四为:
第四获取模块实时获取机器人的摄像头拍摄的画面,得到所述视频图像;
建立模块建立视频图像像素点位置与地面位置的对应关系;
第一获取模块获取视频图像像素点;
第二获取模块中的第一计算单元,用于根据所述像素点的位置,计算得到机器人的摄像头相对于所述地面位置的垂直方向偏角和水平方向偏角;第二计算单元,用于根据所述垂直方向偏角和所述水平方向偏角,计算得到所述地面位置相对于机器人的摄像头的垂直距离和水平距离;
第三获取模块,用于获取机器人的摄像头相对于机器人正前方的角度;
计算模块,用于根据所述地面位置相对于机器人的摄像头的垂直距离和水平距离和所述角度,计算得到所述地面位置相对于机器人的垂直距离和水平距离;
驱动模块驱动机器人至所述地面位置。
由上述描述可知,本实施例提供一种基于视频的机器人导航***,所述***包括第四获取模块、建立模块、第一获取模块、第二获取模块、第三获取模块、计算模块和驱动模块。其中,第二获取模块包括第一计算单元和第二计算单元。通过上述***可实现实时获取机器人周围的实际场景的视频图像,并可通过选取视频图像中的像素点导航机器人。
综上所述,本发明提供的一种基于视频的机器人导航方法,通过在机器人上安装摄像头,实时获取机器人能检测到的实际场景,得到视频图像,再建立视频图像中像素点位置与地面位置的对应关系,可在视频图像中选取一像素点,并驱动机器人至所述像素点所表示的地面位置,从而实现可针对机器人周围的实际场景导航机器人;进一步地,可根据像素点的位置计算出该像素点所对应的地面位置距离机器人的摄像头的偏移量;进一步地,可根据地面位置相对于机器人的摄像头的偏移量计算出该地面位置相对于机器人的偏移量;进一步地,实现实时获取机器人周围的实际场景;进一步地,实现驱动机器人至在视频图像中选取的像素点对应于实际场景中的地面位置。本发明还提供一种基于视频的机器人导航***,所述***包括第四获取模块、建立模块、第一获取模块、第二获取模块、第三获取模块、计算模块和驱动模块;其中,第二获取模块包括第一计算单元和第二计算单元;通过上述***可实现实时获取机器人周围的实际场景的视频图像,并可通过选取视频图像中的像素点导航机器人。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等同变换,或直接或间接运用在相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种基于视频的机器人导航方法,其特征在于,包括:
建立视频图像像素点位置与地面位置的对应关系;
获取视频图像像素点;
根据所述像素点的位置获取地面位置。
2.根据权利要求1所述的一种基于视频的机器人导航方法,其特征在于,根据所述像素点的位置获取地面位置,具体为:
根据所述像素点的位置,计算得到机器人的摄像头相对于所述地面位置的垂直方向偏角和水平方向偏角;
根据所述垂直方向偏角和所述水平方向偏角,计算得到所述地面位置相对于机器人的摄像头的垂直距离和水平距离。
3.根据权利要求2所述的一种基于视频的机器人导航方法,其特征在于,还包括:
获取机器人的摄像头相对于机器人正前方的角度;
根据所述地面位置相对于机器人的摄像头的垂直距离和水平距离和所述角度,计算得到所述地面位置相对于机器人的垂直距离和水平距离。
4.根据权利要求1所述的一种基于视频的机器人导航方法,其特征在于,还包括:
实时获取机器人的摄像头拍摄的画面,得到所述视频图像。
5.根据权利要求1所述的一种基于视频的机器人导航方法,其特征在于,还包括:
驱动机器人至所述地面位置。
6.一种基于视频的机器人导航***,其特征在于,包括:
建立模块,用于建立视频图像像素点位置与地面位置的对应关系;
第一获取模块,用于获取视频图像像素点;
第二获取模块,用于根据所述像素点的位置获取地面位置。
7.根据权利要求6所述的一种基于视频的机器人导航***,其特征在于,所述第二获取模块包括:
第一计算单元,用于根据所述像素点的位置,计算得到机器人的摄像头相对于所述地面位置的垂直方向偏角和水平方向偏角;
第二计算单元,用于根据所述垂直方向偏角和所述水平方向偏角,计算得到所述地面位置相对于机器人的摄像头的垂直距离和水平距离。
8.根据权利要求6所述的一种基于视频的机器人导航***,其特征在于,还包括:
第三获取模块,用于获取机器人的摄像头相对于机器人正前方的角度;
计算模块,用于根据所述地面位置相对于机器人的摄像头的垂直距离和水平距离和所述角度,计算得到所述地面位置相对于机器人的垂直距离和水平距离。
9.根据权利要求6所述的一种基于视频的机器人导航***,其特征在于,还包括:
第四获取模块,用于实时获取机器人的摄像头拍摄的画面,得到所述视频图像。
10.根据权利要求6所述的一种基于视频的机器人导航***,其特征在于,还包括:
驱动模块,用于驱动机器人至所述地面位置。
CN201610839909.5A 2016-09-22 2016-09-22 一种基于视频的机器人导航方法及*** Active CN106500714B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610839909.5A CN106500714B (zh) 2016-09-22 2016-09-22 一种基于视频的机器人导航方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610839909.5A CN106500714B (zh) 2016-09-22 2016-09-22 一种基于视频的机器人导航方法及***

Publications (2)

Publication Number Publication Date
CN106500714A true CN106500714A (zh) 2017-03-15
CN106500714B CN106500714B (zh) 2019-11-29

Family

ID=58290950

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610839909.5A Active CN106500714B (zh) 2016-09-22 2016-09-22 一种基于视频的机器人导航方法及***

Country Status (1)

Country Link
CN (1) CN106500714B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110733424A (zh) * 2019-10-18 2020-01-31 深圳市麦道微电子技术有限公司 一种行车视频***中地面位置与车身水平距离的计算方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004252817A (ja) * 2003-02-21 2004-09-09 Victor Co Of Japan Ltd 画像位置検出方法及び画像位置検出装置
CN102156481A (zh) * 2011-01-24 2011-08-17 广州嘉崎智能科技有限公司 无人飞行器的智能追踪控制方法及***
CN102682292A (zh) * 2012-05-10 2012-09-19 清华大学 基于单目视觉的道路边缘检测及粗定位方法
CN102999051A (zh) * 2011-09-19 2013-03-27 广州盈可视电子科技有限公司 一种云台控制的方法及装置
CN103459099A (zh) * 2011-01-28 2013-12-18 英塔茨科技公司 与一个可移动的远程机器人相互交流
CN104034316A (zh) * 2013-03-06 2014-09-10 深圳先进技术研究院 一种基于视频分析的空间定位方法
CN104034305A (zh) * 2014-06-10 2014-09-10 杭州电子科技大学 一种单目视觉实时定位的方法
CN104200469A (zh) * 2014-08-29 2014-12-10 暨南大学韶关研究院 一种视觉智能数控***的数据融合方法
CN104835173A (zh) * 2015-05-21 2015-08-12 东南大学 一种基于机器视觉的定位方法
CN104954747A (zh) * 2015-06-17 2015-09-30 浙江大华技术股份有限公司 视频监视方法和装置
CN105171756A (zh) * 2015-07-20 2015-12-23 缪学良 一种视频结合二维坐标系操控远程机器人的方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004252817A (ja) * 2003-02-21 2004-09-09 Victor Co Of Japan Ltd 画像位置検出方法及び画像位置検出装置
CN102156481A (zh) * 2011-01-24 2011-08-17 广州嘉崎智能科技有限公司 无人飞行器的智能追踪控制方法及***
CN103459099A (zh) * 2011-01-28 2013-12-18 英塔茨科技公司 与一个可移动的远程机器人相互交流
CN102999051A (zh) * 2011-09-19 2013-03-27 广州盈可视电子科技有限公司 一种云台控制的方法及装置
CN102682292A (zh) * 2012-05-10 2012-09-19 清华大学 基于单目视觉的道路边缘检测及粗定位方法
CN104034316A (zh) * 2013-03-06 2014-09-10 深圳先进技术研究院 一种基于视频分析的空间定位方法
CN104034305A (zh) * 2014-06-10 2014-09-10 杭州电子科技大学 一种单目视觉实时定位的方法
CN104200469A (zh) * 2014-08-29 2014-12-10 暨南大学韶关研究院 一种视觉智能数控***的数据融合方法
CN104835173A (zh) * 2015-05-21 2015-08-12 东南大学 一种基于机器视觉的定位方法
CN104954747A (zh) * 2015-06-17 2015-09-30 浙江大华技术股份有限公司 视频监视方法和装置
CN105171756A (zh) * 2015-07-20 2015-12-23 缪学良 一种视频结合二维坐标系操控远程机器人的方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110733424A (zh) * 2019-10-18 2020-01-31 深圳市麦道微电子技术有限公司 一种行车视频***中地面位置与车身水平距离的计算方法
CN110733424B (zh) * 2019-10-18 2022-03-15 深圳市麦道微电子技术有限公司 一种行车视频***中地面位置与车身水平距离的计算方法

Also Published As

Publication number Publication date
CN106500714B (zh) 2019-11-29

Similar Documents

Publication Publication Date Title
CN104848858B (zh) 二维码以及用于机器人的视觉-惯性组合导航***及方法
JP4537557B2 (ja) 情報呈示システム
JP6211157B1 (ja) キャリブレーション装置およびキャリブレーション方法
JP5725708B2 (ja) センサ位置姿勢計測方法
US20160117824A1 (en) Posture estimation method and robot
US11015930B2 (en) Method for 2D picture based conglomeration in 3D surveying
EP3011362A1 (en) Systems and methods for tracking location of movable target object
KR101379787B1 (ko) 구멍을 가진 구조물을 이용한 카메라와 레이저 거리 센서의 보정 장치 및 보정 방법
EP1262909A3 (en) Calculating camera offsets to facilitate object position determination using triangulation
JP2017106959A (ja) 投影装置、投影方法及び投影用コンピュータプログラム
CN106629399A (zh) 一种集装箱对箱引导***
CN104976950B (zh) 物件空间信息量测装置与方法及取像路径的计算方法
KR102174729B1 (ko) 랜드마크를 활용한 주행차로 인식 방법 및 시스템
JP2017120551A (ja) 自律走行装置
CN101802738A (zh) 用来检测环境的***
CN107300382A (zh) 一种用于水下机器人的单目视觉定位方法
US9990004B2 (en) Optical detection of bending motions of a flexible display
JP2006349607A (ja) 距離計測装置
CN107055331A (zh) 集装箱对箱引导***
JP6180158B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法、およびプログラム
JP2010112731A (ja) ロボットの座標の結合方法
KR101153221B1 (ko) 천정의 반복 무늬와 화소이동벡터를 이용한 로봇의 위치 및 방향 계산
JP2017151026A (ja) 三次元情報取得装置、三次元情報取得方法、及びプログラム
CN106500714A (zh) 一种基于视频的机器人导航方法及***
JP2012159470A (ja) 車両用画像認識装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant