CN108030452A - 视觉扫地机器人及建立场景地图的方法 - Google Patents

视觉扫地机器人及建立场景地图的方法 Download PDF

Info

Publication number
CN108030452A
CN108030452A CN201711241201.0A CN201711241201A CN108030452A CN 108030452 A CN108030452 A CN 108030452A CN 201711241201 A CN201711241201 A CN 201711241201A CN 108030452 A CN108030452 A CN 108030452A
Authority
CN
China
Prior art keywords
picture
scene map
camera
static object
static
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711241201.0A
Other languages
English (en)
Inventor
王声平
张立新
周毕兴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Infinite Power Development Co., Ltd.
Original Assignee
Shenzhen Water World Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Water World Co Ltd filed Critical Shenzhen Water World Co Ltd
Priority to CN201711241201.0A priority Critical patent/CN108030452A/zh
Publication of CN108030452A publication Critical patent/CN108030452A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/24Floor-sweeping machines, motor-driven
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明揭示了一种视觉扫地机器人以及建立地图的方法,其中建立地图方法是:扫地机器人采集图片,在建立地图中将图片中运动的物体忽略,不建立在地图里。该发明使建立的场景地图更加准确。

Description

视觉扫地机器人及建立场景地图的方法
技术领域
本发明涉及到扫地机器人领域,特别是涉及到一种视觉扫地机器人及建立场景地图的方法。
背景技术
扫地机器人在清扫环境中进行定位建立场景地图时,一般假设环境是静态的,通过获取环境中静态信息来匹配计算得出当前姿态,而当环境中出现不断运动的动态物体时,例如在家里走动的人或宠物,匹配得出的姿态就会有较大误差。而且,在建图时,如果扫地机器人前方存在移动的物体,也会将此物体作为地图点标记在地图上,这样对扫地机器人的路径规则也会造成比较大的影响。
发明内容
本发明的主要目的为提供一种扫地机器人建立场景地图的方法,该方法建立的场景地图中没有运动的物体。
本发明提出一种扫地机器人建立场景地图的方法,包括步骤:
采集图片;
判定所述图片中静止的物体所对应的区域,标记为有效区域;
根据所述图片中有效区域建立场景地图。
进一步地,所述判定所述图片中静止的物体所对应的区域,标记为有效区域的步骤包括:
采用光流法提取所述图片中的运动物体;
将所述运动物体在所述图片对应的区域中忽略,得到图片中剩余的区域为静止的物体所对应的区域,形成所述有效区域。
进一步地,所述根据所述图片中有效区域建立场景地图的步骤包括:
利用摄像头的内参结合所述静止的物体在所述图片中的位置计算所述静止的物体在场景地图中的位置;
根据所述静止的物体在场景地图中的位置建立场景地图。
进一步地,所述利用摄像头的内参结合所述静止的物体在所述图片中的位置计算所述静止的物体在场景地图中的位置的步骤包括:
获取摄像头在所述场景地图中的位置;
根据摄像头的内参,计算出所述静止的物体相对所述摄像头的位置;
根据预设公式,计算得出所述静止的物体在所述场景地图中的位置。
进一步地,所述摄像头的内参包括所述摄像头的焦距和光圈中心。
进一步地,所述根据所述图片中有效区域建立场景地图的步骤包括:
根据所述图片,建立三维坐标体系;
获取所述静止的物体在所述三维坐标体系中的坐标,并在所述三维坐标体系中标记,形成所述场景地图;
所述计算出所述静止的物体相对所述摄像头的位置的步骤包括:
根据指定公式计算出在三维坐标体系中,所述静止的物体相对所述摄像头的坐标[x,y,z],所述指定公式为:
z=d
x=(u-cx)·z/fx
y=(v-cy)·z/fy
其中,fx、fy指摄像头在x,y两个轴上的焦距,cx、cy指像头的光圈中心,[u,v,d]为图片中的像素坐标。
进一步地,所述根据预设公式,计算得出所述静止的物体在所述空间场景地图中位置的步骤包括:
用所述静止的物体相对所述摄像头的坐标[x,y,z]加上所述摄像头在所述三维体系中的坐标,得到所述静止的物体在所述空间场景地图中位置。
本发明还提出一种视觉扫地机器人,包括:
视觉***,用于采集清扫过程中拍摄的图片;
判定***,用于判定所述图片中静止的物体所对应的区域,标记为有效区域;
地图***,根据判定***标记的有效区域建立场景地图。
进一步地,所述判定***包括:
光流模块,用于采用光流法提取所述图片中的运动物体;
忽略模块,用于将所述运动物体在所述图片对应的区域中忽略,得到图片中剩余的区域为静止的物体所对应的区域,形成所述有效区域。
进一步地,所述地图***包括:
内参模块,用于利用摄像头的内参结合所述静止的物体在所述图片中的位置计算所述静止的物体在场景地图中的位置;
建立模块,用于根据所述静止的物体在场景地图中的位置建立场景地图。
进一步地,所述内参模块包括:
位置单元,用于获取摄像头在所述场景地图中的位置;
第一计算单元,用于根据摄像头的内参,计算出所述静止的物体相对所述摄像头的位置;
第二计算单元,用于根据预设公式,计算得出所述静止的物体在所述场景地图中的位置。
进一步地,所述摄像头的内参包括所述摄像头的焦距和光圈中心。
进一步地,所述地图***包括:
坐标体系模块,用于根据所述图片,建立三维坐标体系;
标记模块,用于获取所述静止的物体在所述三维坐标体系中的坐标,并在所述三维坐标体系中标记,形成所述场景地图;
所述第一计算单元包括:
公式子单元,用于根据指定公式计算出在三维坐标体系中,所述静止的物体相对所述摄像头的坐标[x,y,z],所述指定公式为:
z=d
x=(u-cx)·z/fx
y=(v-cy)·z/fy
其中,fx、fy指摄像头在x,y两个轴上的焦距,cx、cy指像头的光圈中心,[u,v,d]为图片中的像素坐标。
进一步地,所述第二计算单元包括:
相加子单元,用于用所述静止的物体相对所述摄像头的坐标[x,y,z]加上所述摄像头在所述三维体系中的坐标,得到所述静止的物体在所述空间场景地图中位置。
与现有技术相比,本发明的视觉扫地机器人建立场景地图,将清扫环境中运动的物体不建立在场景地图中,使建立的场景地图更加准确,使用户在使用时避免将运动的家人或宠物建立在场景地图中,为后续的规划清扫路径提供更高效准确的路径规则。
附图说明
图1是本发明一实施例的视觉扫地机器人建立地图的方法的步骤示意图;
图2本是发明一实施例的视觉扫地机器人建立地图的方法的步骤示意图;
图3是本发明一实施例的视觉扫地机器人建立地图的方法的步骤示意图;
图4是本发明一实施例的视觉扫地机器人建立地图的方法的步骤示意图;
图5是本发明一实施例的视觉扫地机器人的结构示意图;
图6是本发明一实施例的视觉扫地机器人的结构示意图;
图7是本发明一实施例的视觉扫地机器人的结构示意图;
图8是本发明一实施例的视觉扫地机器人的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参照图1,提出本发明一实施例的视觉扫地机器人建立场景地图的方法,包括步骤:
S1、采集图片;
S2、判定所述图片中静止的物体所对应的区域,标记为有效区域;
S3、根据所述图片中有效区域建立场景地图。
本实施例中,视觉扫地机器人的视觉***,可以进行拍照。扫地机器人在清扫时,视觉***拍照,并根据拍摄的照片建立场景地图,在地图中,清扫环境中的各物体都会在地图中体现。例如清扫环境是用户的房子,房子里的桌子、椅子、电视等各种物体均会被视觉***拍摄,然后利用视觉***判断图中的物体是否移动,若物体是移动状态,则判定物体不是属于固定的环境,获取该物体的外形轮廓,将该外形轮廓从图片中剔除掉,判定运动的物体是无效区域,判定静止的物体的外形轮廓对应的区域是有效区域,在建立场景地图时,只获取图片中有效区域的部分。判定图片中静止的物体所对应的区域为有效区域的方法,可以是视觉***分别采集两张图片,将两张图片进行对比,发现物体在图片中位置不一样,则判定物体为运动的物体。
参照图2,进一步的,所述判定所述图片中静止的物体所对应的区域为有效区域的步骤包括:
S21、采用光流法提取所述图片中的运动物体;
S22、将所述运动物体在所述图片对应的区域中忽略,得到图片中剩余的区域为静止的物体所对应的区域,形成所述有效区域。
本实施例中,光流法是给图片中的每个像素点赋予一个速度矢量,形成一个运动矢量场。扫地机器人根据拍摄的图像中各个像素点的速度矢量特征,可以对图像进行动态分析。如果图像中没有运动目标,则光流矢量在整个图像区域是连续变化的。当图像中有运动物体时,目标和背景存在着相对运动。运动物体所形成的速度矢量必然和背景的速度矢量有所不同,如此便可以计算出运动物体在图像中的位置。通过上述步骤将图片中静止物体对应的区域划分出来,确认为有效区域。将图片中运动的物体对应的区域忽略,得到图片中剩余的静止的物体对应的区域,在建立地图中只建立静止的物体对应的区域,忽略运动的物体对应的区域。
参照图3,进一步地,所述根据所述图片中有效区域建立场景地图的步骤包括:
S31、利用摄像头的内参,结合所述静止的物体在所述图片中的位置计算所述静止的物体在场景地图中的位置;
S32、根据所述静止的物体在场景地图中的位置建立场景地图。
本实施例中,摄像头的内参,是指摄像头的内部参数,比如摄像头的焦距、光圈等固定的系数在对应拍摄照片时的数字。利用拍摄照片时摄像头的内参,结合静止的物体在所述图片中的位置,可以计算出静止的物体在场景地图中的位置。计算出静止物体在场景地图中的位置后,根据这些静止物体的位置信息,建立场景地图。
参照图4,进一步地,所述利用摄像头的内参结合所述静止的物体在所述图片中的位置计算所述静止的物体在场景地图中的位置的步骤包括:
S311、获取摄像头在所述场景地图中的位置;
S312、根据摄像头的内参,计算出所述静止的物体相对所述摄像头的位置;
S313、根据预设公式,计算得出所述静止的物体在所述场景地图中的位置。
本实施例中,根据内参计算出静止的物体相对摄像头的位置,再获取视觉扫地机器人的移动路径,可以计算出视觉扫地机器人的摄像头在环境中的位置,再根据预设的公式,即可以计算出图片中静止的物体在环境中的位置,从而得出静止物体在场景地图中的位置。
进一步地,所述摄像头的内参包括所述摄像头的焦距、光圈中心。
本实施例中,根据摄像头的焦距、光圈中心参数值,可以判定出扫地机器人在拍摄照片时,两者的相对距离以及相对角度等位置信息,计算出图片中的静止的物体相对摄像头的位置。
进一步地,所述根据所述图片中有效区域建立场景地图的步骤包括:
S32、根据所述图片,建立三维坐标体系;
S33、获取所述静止的物体在所述三维坐标体系中的坐标,并在所述三维坐标体系中标记,形成所述场景地图;
所述计算出所述静止的物体相对所述摄像头的位置的步骤包括:
S3123、根据指定公式计算出在三维坐标体系中,所述静止的物体相对所述摄像头的坐标[x,y,z],所述指定公式为:
z=d
x=(u-cx)·z/fx
y=(v-cy)·z/fy
其中,fx、fy指摄像头在x,y两个轴上的焦距,cx、cy指像头的光圈中心,[u,v,d]为图片中的像素坐标。
本实施例中,摄像头在拍摄图片后,以拍摄图片时摄像头的位置为坐标原点,建立三维坐标体系,再将图片中静止的物体标记在三维坐标体系中,三维坐标体系就是场景地图。三维坐标体系以墙壁为X轴和Y轴平面,与墙壁面垂直的轴为Z轴,每隔一段固定距离设置有一个标度。以坐标标度的形式计算出静止的物体相对摄像头的位置,具体的,计算出静止的物体在清扫环境中相对摄像头的上下距离,然后再根据摄像头的焦距以及光圈中心,得出静止的物体在清扫环境中相对摄像头的前后距离和左右距离。
进一步地,所述根据预设公式,计算得出所述静止的物体在所述空间场景地图中位置的步骤包括:
S3124、用所述静止的物体相对所述摄像头的坐标[x,y,z]加上所述摄像头在所述三维体系中的坐标,得到所述静止的物体在所述空间场景地图中位置。
本实施例中,在计算时,先获取摄像头在三维坐标体系中的坐标,例如摄像头拍照时的坐标是[1,0,1],经过上述公式计算出的静止的物体相对摄像头的坐标是[2,0,3],即如果以摄像头为坐标原点的话,静止的物体坐标是[2,0,3],因此计算出静止的物体相对实际的坐标原点的话,则应加上摄像头的坐标,最终计算出静止的物体的坐标为[3,0,4],然后将该坐标在三维坐标体系中标记出来。依此方法,多次计算出图片中静止的物体相对原点的位置,经过多次计算后,该三维坐标体系中就有很多个点,即可以建立出整个场景地图。
综上所述,本发明的视觉扫地机器人建立场景地图,将清扫环境中运动的物体不建立在场景地图中,使建立的场景地图更加准确,使用户在使用时避免将运动的家人或宠物建立在场景地图中,为后续的规划清扫路径提供更高效准确的路径规则。
参照图5,本发明还提出一种视觉扫地机器人,包括:
视觉***1,用于采集清扫过程中拍摄的图片;
判定***2,用于判定所述图片中静止的物体所对应的区域,标记为有效区域;
地图***3,根据判定***标记2的有效区域建立场景地图。
本实施例中,视觉扫地机器人视觉***1,可以进行拍照。扫地机器人在清扫时,视觉***1拍照,并根据拍摄的照片建立场景地图,在地图中,清扫环境中的各物体都会在地图中体现。例如清扫环境是用户的房子,房子里的桌子、椅子、电视等各种物体均会被视觉***拍摄,然后判定***2利用视觉***1判断图中的物体是否移动,若物体是移动状态,则判定物体不是属于固定的环境,获取该物体的外形轮廓,将该外形轮廓从图片中剔除掉,判定***2判定运动的物体是无效区域,判定静止的物体的外形轮廓对应的区域是有效区域,地图***3在建立场景地图时,只获取图片中有效区域的部分。判定图片中静止的物体所对应的区域为有效区域的方法,可以是视觉***分别采集两张图片,将两张图片进行对比,发现物体在图片中位置不一样,则判定物体为运动的物体。
参照图6,进一步地,所述判定***2包括:
光流模块21,用于采用光流法提取所述图片中的运动物体;
忽略模块22,用于将所述运动物体在所述图片对应的区域中忽略,得到图片中剩余的区域为静止的物体所对应的区域,形成所述有效区域。
本实施例中,光流法是给图片中的每个像素点赋予一个速度矢量,形成一个运动矢量场。扫地机器人根据拍摄的图像中各个像素点的速度矢量特征,可以对图像进行动态分析。如果图像中没有运动目标,则光流矢量在整个图像区域是连续变化的。当图像中有运动物体时,目标和背景存在着相对运动。运动物体所形成的速度矢量必然和背景的速度矢量有所不同,如此光流模块21便可以计算出运动物体在图像中的位置。通过光流模块21将图片中静止物体对应的区域划分出来,确认为有效区域。忽略模块22将图片中运动的物体对应的区域忽略,在建立地图中忽略运动的物体对应的区域。
参照图7,进一步地,所述地图***3包括:
内参模块31,用于利用摄像头的内参,结合所述静止的物体在所述图片中的位置计算所述静止的物体在场景地图中的位置;
建立模块32,用于根据所述静止的物体在场景地图中的位置建立场景地图。
本实施例中,摄像头的内参,是指摄像头的内部参数,比如摄像头的焦距、光圈等固定的系数在对应拍摄照片时的数字。内参模块31利用拍摄照片时摄像头的内参,结合静止物体在所述图片中的位置,可以计算出静止的物体在场景地图中的位置,计算出静止物体在场景地图中的位置后,建立模块32根据这些静止物体的位置信息,建立场景地图。
参照图8,进一步地,所述内参模块31包括:
位置单元311,用于获取摄像头在所述场景地图中的位置;
第一计算单元312,用于根据摄像头的内参,计算出所述静止的物体相对所述摄像头的位置;
第二计算单元312,用于根据预设公式,计算得出所述静止的物体在所述场景地图中的位置。
本实施例中,位置单元311根据内参计算出静止的物体相对摄像头的位置,再获取视觉扫地机器人的移动路径,第一计算单元312可以计算出视觉扫地机器人的摄像头在环境中的位置,再根据预设的公式,第二计算单元313可以计算出图片中静止的物体在环境中的位置,从而得出静止物体在场景地图中的位置。
进一步地,所述摄像头的内参包括所述摄像头的焦距和光圈中心。
本实施例中,根据摄像头的焦距和光圈中心,可以判定出扫地机器人在拍摄照片时,两者的相对距离以及相对角度等位置信息,计算出图片中的静止的物体相对摄像头的位置。
进一步地,所述地图***3包括:
坐标体系模块,用于根据所述图片,建立三维坐标体系;
标记模块,用于获取所述静止的物体在所述三维坐标体系中的坐标,并在所述三维坐标体系中标记,形成所述场景地图;
所述第一计算单元312包括:
公式子单元,用于根据指定公式计算出在三维坐标体系中,所述静止的物体相对所述摄像头的坐标[x,y,z],所述指定公式为:
z=d
x=(u-cx)·z/fx
y=(v-cy)·z/fy
其中,fx、fy指摄像头在x,y两个轴上的焦距,cx、cy指像头的光圈中心,[u,v,d]为图片中的像素坐标。
本实施例中,摄像头在拍摄图片后,以拍摄图片时摄像头的位置为坐标原点,坐标体系模块建立三维坐标体系,标记模块再将图片中静止的物体标记在三维坐标体系中,三维坐标体系就是场景地图。三维坐标体系以墙壁为X轴和Y轴平面,与墙壁面垂直的轴为Z轴,每隔一段固定距离设置有一个标度。第一计算单元312以坐标标度的形式计算出静止的物体相对摄像头的位置,具体的,计算出静止的物体在清扫环境中相对摄像头的上下距离,然后公式子单元再根据摄像头的焦距以及光圈中心,得出静止的物体在清扫环境中相对摄像头的前后距离和左右距离。
进一步地,所述第二计算单元313包括:
相加子单元,用于用所述静止的物体相对所述摄像头的坐标[x,y,z]加上所述摄像头在所述三维体系中的坐标,得到所述静止的物体在所述空间场景地图中位置。
本实施例中,在计算时,先获取摄像头在三维坐标体系中的坐标,例如摄像头拍照时的坐标是[1,0,1],经过上述公式计算出的静止的物体相对摄像头的坐标是[2,0,3],即如果以摄像头为坐标原点的话,静止的物体坐标是[2,0,3],因此计算出静止的物体相对实际的坐标原点的话,则应加上摄像头的坐标,最终相加子单元计算出静止的物体的坐标为[3,0,4],然后将该坐标在三维坐标体系中标记出来。依此方法,多次计算出图片中静止的物体相对原点的位置,经过多次计算后,该三维坐标体系中就有很多个点,即可以建立出整个场景地图。
综上所述,本发明的视觉扫地机器人建立场景地图,将清扫环境中运动的物体不建立在场景地图中,使建立的场景地图更加准确,使用户在使用时避免将运动的家人或宠物建立在场景地图中,为后续的规划清扫路径提供更高效准确的路径规则。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种视觉扫地机器人建立场景地图的方法,其特征在于,包括步骤:
采集图片;
判定所述图片中静止的物体所对应的区域,标记为有效区域;
根据所述图片中有效区域建立场景地图。
2.如权利要求1所述的视觉扫地机器人建立场景地图的方法,其特征在于,所述判定所述图片中静止的物体所对应的区域,标记为有效区域的步骤包括:
采用光流法提取所述图片中的运动物体;
将所述运动物体在所述图片对应的区域中忽略,得到图片中剩余的区域为静止的物体所对应的区域,形成所述有效区域。
3.如权利要求1所述的视觉扫地机器人建立场景地图的方法,其特征在于,所述根据所述图片中有效区域建立场景地图的步骤包括:
利用摄像头的内参,结合所述静止的物体在所述图片中的位置计算所述静止的物体在场景地图中的位置;
根据所述静止的物体在场景地图中的位置建立场景地图。
4.如权利要求3所述的视觉扫地机器人建立场景地图的方法,其特征在于,所述利用摄像头的内参结合所述静止的物体在所述图片中的位置计算所述静止的物体在场景地图中的位置的步骤包括:
获取摄像头在所述场景地图中的位置;
根据摄像头的内参,计算出所述静止的物体相对所述摄像头的位置;
根据预设公式,计算得出所述静止的物体在所述场景地图中的位置。
5.如权利要求4所述的视觉扫地机器人建立场景地图的方法,其特征在于,
所述根据所述图片中有效区域建立场景地图的步骤包括:
根据所述图片,建立三维坐标体系;
获取所述静止的物体在所述三维坐标体系中的坐标,并在所述三维坐标体系中标记,形成所述场景地图;
所述计算出所述静止的物体相对所述摄像头的位置的步骤包括:
根据指定公式计算出在三维坐标体系中,所述静止的物体相对所述摄像头的坐标[x,y,z],所述指定公式为:
z=d
x=(u-cx)·z/fx
y=(v-cy)·z/fy
其中,fx、fy指摄像头在x,y两个轴上的焦距,cx、cy指像头的光圈中心,[u,v,d]为图片中的像素坐标。
6.一种视觉扫地机器人,其特征在于,包括:
视觉***,用于采集清扫过程中拍摄的图片;
判定***,用于判定所述图片中静止的物体所对应的区域,标记为有效区域;
地图***,根据判定***标记的有效区域建立场景地图。
7.如权利要求6所述的视觉扫地机器人,其特征在于,所述判定***包括:
光流模块,用于采用光流法提取所述图片中的运动物体;
忽略模块,用于将所述运动物体在所述图片对应的区域中忽略,得到图片中剩余的区域为静止的物体所对应的区域,形成所述有效区域。
8.如权利要求7所述的视觉扫地机器人,其特征在于,所述地图***包括:
内参模块,用于利用摄像头的内参,结合所述静止的物体在所述图片中的位置计算所述静止的物体在场景地图中的位置;
建立模块,用于根据所述静止的物体在场景地图中的位置建立场景地图。
9.如权利要求8所述的视觉扫地机器人,其特征在于,所述内参模块包括:
位置单元,用于获取摄像头在所述场景地图中的位置;
第一计算单元,用于根据摄像头的内参,计算出所述静止的物体相对所述摄像头的位置;
第二计算单元,用于根据预设公式,计算得出所述静止的物体在所述场景地图中的位置。
10.如权利要求9所述的视觉扫地机器人,其特征在于,所述地图***包括:
坐标体系模块,用于根据所述图片,建立三维坐标体系;
标记模块,用于获取所述静止的物体在所述三维坐标体系中的坐标,并在所述三维坐标体系中标记,形成所述场景地图;
所述第一计算单元包括:
公式子单元,用于根据指定公式计算出在三维坐标体系中,所述静止的物体相对所述摄像头的坐标[x,y,z],所述指定公式为:
z=d
x=(u-cx)·z/fx
y=(v-cy)·z/fy
其中,fx、fy指摄像头在x,y两个轴上的焦距,cx、cy指像头的光圈中心,[u,v,d]为图片中的像素坐标。
CN201711241201.0A 2017-11-30 2017-11-30 视觉扫地机器人及建立场景地图的方法 Pending CN108030452A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711241201.0A CN108030452A (zh) 2017-11-30 2017-11-30 视觉扫地机器人及建立场景地图的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711241201.0A CN108030452A (zh) 2017-11-30 2017-11-30 视觉扫地机器人及建立场景地图的方法

Publications (1)

Publication Number Publication Date
CN108030452A true CN108030452A (zh) 2018-05-15

Family

ID=62095085

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711241201.0A Pending CN108030452A (zh) 2017-11-30 2017-11-30 视觉扫地机器人及建立场景地图的方法

Country Status (1)

Country Link
CN (1) CN108030452A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109813285A (zh) * 2019-01-31 2019-05-28 莱克电气股份有限公司 基于视觉的清洁机器人环境识别方法、存储介质、一种清洁机器人
WO2019104693A1 (zh) * 2017-11-30 2019-06-06 深圳市沃特沃德股份有限公司 视觉扫地机器人及建立场景地图的方法
CN110374045A (zh) * 2019-07-29 2019-10-25 哈尔滨工业大学 一种智能化除冰方法
CN111345735A (zh) * 2018-12-24 2020-06-30 江苏美的清洁电器股份有限公司 扫地机的地图构建的方法和装置
CN112401757A (zh) * 2020-11-13 2021-02-26 南京科沃斯机器人技术有限公司 垃圾弹出处理方法、***及自移动清扫机器人
CN117808632A (zh) * 2024-02-29 2024-04-02 南京市金地物业有限责任公司 用于物业保洁管理***的处理方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103049758A (zh) * 2012-12-10 2013-04-17 北京工业大学 融合步态光流图和头肩均值形状的远距离身份验证方法
KR20130083276A (ko) * 2012-01-12 2013-07-22 한국외국어대학교 연구산학협력단 소형 디스플레이 기기에서 비디오 영상의 효과적인 시각화를 위한 정적 관심 영역 검출 장치 및 방법
CN103871076A (zh) * 2014-02-27 2014-06-18 西安电子科技大学 基于光流法和超像素分割的运动目标提取方法
CN104168444A (zh) * 2013-05-17 2014-11-26 浙江大华技术股份有限公司 一种跟踪球机的目标跟踪方法及跟踪球机
US9122951B2 (en) * 2010-11-01 2015-09-01 Drvision Technologies Llc Teachable object contour mapping for biology image region partition
CN105139445A (zh) * 2015-08-03 2015-12-09 百度在线网络技术(北京)有限公司 场景重建方法及装置
CN105260988A (zh) * 2015-09-09 2016-01-20 百度在线网络技术(北京)有限公司 一种高精地图数据的处理方法和装置
CN105827963A (zh) * 2016-03-22 2016-08-03 维沃移动通信有限公司 一种拍照过程中场景变化检测方法及移动终端
CN105913489A (zh) * 2016-04-19 2016-08-31 东北大学 一种利用平面特征的室内三维场景重构方法
CN106296722A (zh) * 2015-05-25 2017-01-04 联想(北京)有限公司 一种信息处理方法及电子设备
CN107358206A (zh) * 2017-07-13 2017-11-17 山东大学 一种基于感兴趣区域的光流特征矢量模值和角度结合的微表情检测方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9122951B2 (en) * 2010-11-01 2015-09-01 Drvision Technologies Llc Teachable object contour mapping for biology image region partition
KR20130083276A (ko) * 2012-01-12 2013-07-22 한국외국어대학교 연구산학협력단 소형 디스플레이 기기에서 비디오 영상의 효과적인 시각화를 위한 정적 관심 영역 검출 장치 및 방법
CN103049758A (zh) * 2012-12-10 2013-04-17 北京工业大学 融合步态光流图和头肩均值形状的远距离身份验证方法
CN104168444A (zh) * 2013-05-17 2014-11-26 浙江大华技术股份有限公司 一种跟踪球机的目标跟踪方法及跟踪球机
CN103871076A (zh) * 2014-02-27 2014-06-18 西安电子科技大学 基于光流法和超像素分割的运动目标提取方法
CN106296722A (zh) * 2015-05-25 2017-01-04 联想(北京)有限公司 一种信息处理方法及电子设备
CN105139445A (zh) * 2015-08-03 2015-12-09 百度在线网络技术(北京)有限公司 场景重建方法及装置
CN105260988A (zh) * 2015-09-09 2016-01-20 百度在线网络技术(北京)有限公司 一种高精地图数据的处理方法和装置
CN105827963A (zh) * 2016-03-22 2016-08-03 维沃移动通信有限公司 一种拍照过程中场景变化检测方法及移动终端
CN105913489A (zh) * 2016-04-19 2016-08-31 东北大学 一种利用平面特征的室内三维场景重构方法
CN107358206A (zh) * 2017-07-13 2017-11-17 山东大学 一种基于感兴趣区域的光流特征矢量模值和角度结合的微表情检测方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019104693A1 (zh) * 2017-11-30 2019-06-06 深圳市沃特沃德股份有限公司 视觉扫地机器人及建立场景地图的方法
CN111345735A (zh) * 2018-12-24 2020-06-30 江苏美的清洁电器股份有限公司 扫地机的地图构建的方法和装置
CN109813285A (zh) * 2019-01-31 2019-05-28 莱克电气股份有限公司 基于视觉的清洁机器人环境识别方法、存储介质、一种清洁机器人
CN110374045A (zh) * 2019-07-29 2019-10-25 哈尔滨工业大学 一种智能化除冰方法
CN110374045B (zh) * 2019-07-29 2021-09-28 哈尔滨工业大学 一种智能化除冰方法
CN112401757A (zh) * 2020-11-13 2021-02-26 南京科沃斯机器人技术有限公司 垃圾弹出处理方法、***及自移动清扫机器人
CN112401757B (zh) * 2020-11-13 2021-09-14 南京科沃斯机器人技术有限公司 垃圾弹出处理方法、***及自移动清扫机器人
CN117808632A (zh) * 2024-02-29 2024-04-02 南京市金地物业有限责任公司 用于物业保洁管理***的处理方法
CN117808632B (zh) * 2024-02-29 2024-05-24 南京市金地物业有限责任公司 用于物业保洁管理***的处理方法

Similar Documents

Publication Publication Date Title
CN108030452A (zh) 视觉扫地机器人及建立场景地图的方法
CN109643127B (zh) 构建地图、定位、导航、控制方法及***、移动机器人
CN108885459B (zh) 导航方法、导航***、移动控制***及移动机器人
CN110801180B (zh) 清洁机器人的运行方法及装置
US9911226B2 (en) Method for cleaning or processing a room by means of an autonomously mobile device
JP6295645B2 (ja) 物体検出方法及び物体検出装置
Zhao et al. A novel system for tracking pedestrians using multiple single-row laser-range scanners
CN103778635B (zh) 用于处理数据的方法和装置
US9235753B2 (en) Extraction of skeletons from 3D maps
US7598976B2 (en) Method and apparatus for a multisensor imaging and scene interpretation system to aid the visually impaired
CN106843460B (zh) 基于多摄像头的多目标位置捕获定位***及方法
CN109074083A (zh) 移动控制方法、移动机器人及计算机存储介质
US20080212835A1 (en) Object Tracking by 3-Dimensional Modeling
CN106569489A (zh) 具有视觉导航功能的扫地机器人及其导航方法
JP2011095797A (ja) 画像処理装置、画像処理方法及びプログラム
CN113331743A (zh) 清洁机器人清洁地面的方法以及清洁机器人
CN1811644A (zh) 在复杂环境下智能机器人自主定位的方法
WO2019232804A1 (zh) 软件更新方法、***、移动机器人及服务器
JP2021536649A (ja) 対象の検出と追跡のためのビデオ監視システムを構築する方法
Schwarze et al. An intuitive mobility aid for visually impaired people based on stereo vision
Xompero et al. Multi-view shape estimation of transparent containers
KR20140031129A (ko) 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법
BenAbdelkader et al. Estimation of anthropomeasures from a single calibrated camera
CN114680732A (zh) 一种清洁机器人及其清洁控制方法
CN110910484A (zh) 一种基于slam的二维图像到三维实景中的物体贴图方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20190905

Address after: Room 402, 4th floor, Kanghe Sheng Building, New Energy Innovation Industrial Park, No. 1 Chuangsheng Road, Nanshan District, Shenzhen City, Guangdong Province, 518000

Applicant after: Shenzhen Infinite Power Development Co., Ltd.

Address before: 518000 Nanshan District, Shenzhen, Guangdong Province, 1079 Nanhai Avenue, Shekou, Garden City Digital Building B Block 503, 602

Applicant before: SHENZHEN WOTE WODE CO., LTD.

RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20180515