CN111144480A - 一种可回收垃圾视觉分类方法、***、设备 - Google Patents
一种可回收垃圾视觉分类方法、***、设备 Download PDFInfo
- Publication number
- CN111144480A CN111144480A CN201911358220.0A CN201911358220A CN111144480A CN 111144480 A CN111144480 A CN 111144480A CN 201911358220 A CN201911358220 A CN 201911358220A CN 111144480 A CN111144480 A CN 111144480A
- Authority
- CN
- China
- Prior art keywords
- rgb
- objects
- conveyor belt
- point cloud
- garbage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000010813 municipal solid waste Substances 0.000 title claims abstract description 63
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000000007 visual effect Effects 0.000 title claims abstract description 34
- 239000010819 recyclable waste Substances 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 6
- 238000003062 neural network model Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000004422 calculation algorithm Methods 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 238000004064 recycling Methods 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 2
- 230000005540 biological transmission Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 3
- 239000012636 effector Substances 0.000 description 3
- 239000011521 glass Substances 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 229920003023 plastic Polymers 0.000 description 2
- 239000004033 plastic Substances 0.000 description 2
- 238000013145 classification model Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 239000010893 paper waste Substances 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种可回收垃圾视觉分类方法、***以及设备。该方法包括获取传送带上物体的RGB图像和深度信息;根据获取的物体的RGB图像,对RGB图像进行分割和分类;将分割后的RGB图像与对应的深度信息匹配,获取各物体在世界坐标的点云;根据所述各物体在世界坐标的点云、传送带的运动速度,计算各物体的抓取位姿。采用本发明,通过视觉方法检测、分类以及定位传送带上的可回收垃圾,极大程度提高了可回收垃圾分类的效率和准确性。
Description
技术领域
本发明涉及垃圾分类技术领域,尤其涉及一种可回收垃圾视觉分类方法、***、设备。
背景技术
随着现代人们生活水平的提高和各项消费的增加,城市垃圾产生量日益增多,环境状况也逐渐恶化。面对此种局面,垃圾分类是解决日益增多垃圾的最有效方式,也是对垃圾进行有效处置的一种科学管理方法。如何通过垃圾分类管理,最大限度地实现垃圾资源利用,减少垃圾处置的数量,改善生存环境状态,是当前中国乃至世界各国共同关注的迫切问题。
垃圾分类在源头将垃圾分类投放,目前垃圾主要分为可回收垃圾、有害垃圾、干垃圾、湿垃圾等。其中,可回收垃圾又主要包括废纸、塑料、玻璃、金属等几大类。可回收垃圾是可以再生循环的垃圾。因此对可回收垃圾进行分类回收再利用十分的有必要。
目前,可回收垃圾的分类回收方法主要包括人工拣选、风选等,其人工成本高,处理效率低,准确度也不高。
发明内容
有鉴于此,本发明的目的在于提供一种可回收垃圾视觉分类方法、***、设备,以解决现有技术可回收垃圾分类回收效率低准确度不高的问题。
本发明解决上述技术问题所采用的技术方案如下:
根据本发明的第一个方面,提供一种可回收垃圾视觉分类方法,所述方法包括以下步骤:
获取传送带上物体的RGB图像和深度信息;
根据获取的物体的RGB图像,对RGB图像进行分割和分类;
将分割后的RGB图像与对应的深度信息匹配,获取各物体在世界坐标的点云;
根据所述各物体在世界坐标的点云、传送带的运动速度,计算各物体的抓取位姿。
根据本发明的第二个方面,提供一种可回收垃圾视觉分类***,所述***包括:
传送带,用于传送物体,所述物体为可回收垃圾;
RGB相机,用于获取传送带上物体的RGB图像和深度信息;
服务器,用于接收RGB相机发送的RGB图像和深度信息,对RGB图像进行分割和分类,将分割后的RGB图像与对应的深度信息匹配,获取各物体在世界坐标的点云,根据所述各物体在世界坐标的点云、传送带的运动速度,计算各物体的抓取位姿。
根据本发明的第三个方面,提供一种可回收垃圾视觉分类设备,所述设备包括:存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现可回收垃圾视觉分类步骤。
本发明实施例的可回收垃圾视觉分类方法、***以及设备,通过视觉方法检测、分类以及定位传送带上的可回收垃圾,可以高效而精准的对混合的可回收垃圾进行分类,极大程度提高了可回收垃圾分类的效率和准确性。
附图说明
图1为本发明实施例一提供的一种可回收垃圾视觉分类***的示意图;
图2为本发明实施例二提供的一种可回收垃圾视觉分类方法的流程图;
图3A为本发明实施例二中计算初步抓取位姿示意图的正视图;
图3B为本发明实施例二中计算初步抓取位姿示意图的俯视图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在后续的描述中,如果使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身没有特定的意义。因此,“模块”、“部件”或“单元”可以混合地使用。
本发明实施例一提供了一种可回收垃圾视觉分类***。如图1所示,可回收垃圾视觉分类***包括传送带10、RGB相机30、服务器50。
所述传送带10,用于传送物体,传送带10上的物体为可回收垃圾。最常见的可回收垃圾有:纸质包装盒、塑料瓶、金属制易拉罐、玻璃瓶等。将需要分类的可回收垃圾从传送带10一端进行放置,随着传送带10的向前移动。
所述RGB相机30,用于获取传送带10上物体的RGB图像和深度信息,所述RGB相机30放置于传送带10附近,并对传送带10上的物体进行拍摄,获取物体的RGB图像和深度信息。所述RGB相机30还将获取的RGB图像和深度信息发送给服务器50。
所述服务器50,用于接收RGB相机30发送的RGB图像和深度信息,对RGB图像进行分割和分类,将分割后的RGB图像与对应的深度信息匹配,获取各物体在世界坐标的点云,根据所述各物体在世界坐标的点云、传送带10的运动速度,计算各物体的抓取位姿。
服务器50通过基于深度卷积神经网络模型的实例分割算法,对RGB图像进行分割,得到各个物体在RGB图像中的区域、各个物体所属的垃圾种类。
所述基于深度卷积神经网络模型进行了预先训练,具体方式为:根据垃圾回收种类的定义,采集各种物体图像并进行标注,使用标注后的图像数据对所述基于深度卷积神经网络模型进行预先训练。由于进行了预先训练,因此可以对RGB图像进行分割和分类。
所述服务器50计算所得到的抓取位姿,可以提供给抓取设备,抓取设备根据抓取位姿,对各物体分别进行精准抓取,这里不再赘述。
通过本实施例提供的可回收垃圾视觉分类***,通过视觉方法检测、分类以及定位传送带上的可回收垃圾,可以高效而精准的对混合的可回收垃圾进行分类,极大程度提高了可回收垃圾分类的效率和准确性。
为了进一步理解本发明的实现过程,请继续参阅图2,图2为本发明实施例二提供的可回收垃圾视觉分类方法的流程图。
所述可回收垃圾视觉分类方法包括:
步骤S201、获取传送带上物体的RGB图像和深度信息;
通过RGB相机拍摄传送带上的物体,获取传送带上物体的原始图像RGB图像和深度信息。
步骤S202、根据获取的物体的RGB图像,对RGB图像进行分割和分类;
优选地,根据获取的物体的RGB图像,对RGB图像进行分割和分类,具体可采用如下方式:
通过基于深度卷积神经网络模型的实例分割算法,对RGB图像进行分割和检测,得到各个物体在RGB图像中的区域、各个物体所属的垃圾种类。
神经网络模型预先进行过训练。可以根据垃圾回收种类的定义,采集各种物体图像并进行标注,使用标注后的图像数据对所述基于深度卷积神经网络模型进行预先训练。
对神经网络模型预先进行训练,可以采用下面的方法:
神经网络获得多个物体的训练图像;
根据当前垃圾回收任务的定义,获得训练图像中完整度达到70%的物体的标注;
根据所述训练图像和对应的标注对神经网络进行训练。
其中,训练图像可以是成千上万个不同种类的可回收垃圾物体的图像,通过越多的训练图像能够训练出越精确的分类模型。训练图像中的物体包括处于不同形态、不同角度、不同距离和不同光线下的物体。再通过人工进行标注,即在训练图像中标注所要分类的物体的像素点。这里,完整度是指,在训练图像中,物体仅部分暴露在外,通过判断暴露在外的区域是否达到物体本身的70%,若是,则表示完整度达到70%。经过预先训练的神经网络能够根据RGB图像信息进行分割和分类。
步骤S203、将分割后的RGB图像与对应的深度信息匹配,获取各物体在世界坐标的点云;
优选地,获取各物体在世界坐标的点云具体方式为:
根据检测得到的各个物体的位置区域,从深度信息中获取各个物体在RGB相机坐标系的点云,所述点云由Nⅹ4矩阵Pc表示,其中N为矩阵行数,即物体点云的三维点数量,每行的四个数分别表示一个三维点的齐次(x,y,z,l)坐标;
根据物体在RGB相机坐标系的点云,计算物体在世界坐标系下的点云:设从各个物体的相机坐标系到世界坐标系的转换矩阵为M,M为4ⅹ4矩阵,设物体在世界坐标系下的点云为Nⅹ4矩阵Pw,则计算公式为:Pw=(M·(Pc)T)T,其中T表示矩阵的转置运算。
步骤S204、根据所述各物体在世界坐标的点云、传送带的运动速度,计算各物体的抓取位姿。
具体地,计算各物体的抓取位姿,包括:
根据所述各物体在世界坐标的点云,计算各物体的初步抓取位姿;
根据各物体的初步抓取位姿、传送带的运动速度,计算各物体的实时抓取位姿。
本实施例中,抓取位姿指的是抓取设备的末端执行器抓取物体的位置和朝向等。
优选地,根据所述各物体在世界坐标的点云,计算各物体的初步抓取位姿的具体方式为:
根据物体的世界坐标点云,计算得到物体的初步抓取位姿,初步抓取位姿G由Gx,Gy,Gz,Gα,Gβ,Gθ六个变量表示,其中(Gx,Gy,Gz)表示抓取位姿的空间位置坐标,(Gα,Gβ,Gθ)表示抓取位姿的单位方向向量。
为了更好的理解计算各物体的初步抓取位姿的过程,请一起参阅图3A和图3B。其中,图3A为计算初步抓取位姿示意图的正视图。图3B为计算初步抓取位姿示意图的俯视图。图中圆柱体表示物体点云区域,虚线框表示能够包含物体点云的最小立体框,小圆圈表示计算得到的抓取位姿的位置,箭头表示计算得到的抓取位姿的方向,Hg为抓取设备末端执行器的高度。本实施例中,机械臂的末端执行器是夹爪。
由图3A和3B可以看出,(Gx,Gy)为最小立体框在xy平面上矩形框的中心坐标点。Gz的坐标点可以通过传送带表面离地面的高度加上夹爪的高度得出,即Gz=Hc+Hg,Hc表示传送带表面离地面的高度,Hg是夹爪的高度。(Gα,Gβ)为最小立框体在xy平面上矩形框的短边方向,Gθ为-Z轴方向。
优选地,根据各物体的初步抓取位姿、传送带的运动速度,计算各物体的实时抓取位姿,具体方式为:
设传送带的传输速度恒定为V,在x和y方向的速度分别为Vx和Vy,G(T)为根据T时刻获取的RGB图像和深度图像计算得到的初步抓取位姿,则各物体的实时抓取位姿G(t)的计算公式为:
Gx(t)=Gx(T)+Vxⅹ(t-T),
Gy(t)=Gy(T)+Vyⅹ(t-T),
GZ(t)=GZ,Gα(t)=Gα,Gβ(t)=Gβ,Gθ(t)=Gθ。
由于物体随着传送带匀速运动,因此各物体的实时抓取位姿G(t)和初步抓取位姿G之间的关系如上式所示。
通过本实施例提供的可回收垃圾视觉分类方法,通过视觉方法检测、分类以及定位传送带上的可回收垃圾,可以高效而精准的对混合的可回收垃圾进行分类,极大程度提高了可回收垃圾分类的效率和准确性。
在前述实施例的基础上,本发明实施例三提供了一种可回收垃圾视觉分类设备,所述设备包括:存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现第一实施例或者第二实施例的可回收垃圾视觉分类步骤。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
Claims (10)
1.一种可回收垃圾视觉分类方法,其特征在于,所述方法包括以下步骤:
获取传送带上物体的RGB图像和深度信息;
根据获取的物体的RGB图像,对RGB图像进行分割和分类;
将分割后的RGB图像与对应的深度信息匹配,获取各物体在世界坐标的点云;
根据各物体在世界坐标的点云、传送带的运动速度,计算各物体的抓取位姿。
2.如权利要求1所述的可回收垃圾视觉分类方法,其特征在于,根据获取的物体的RGB图像,对RGB图像进行分割和分类,具体方式为:通过基于深度卷积神经网络模型的实例分割算法,对RGB图像进行分割,得到各个物体在RGB图像中的区域、各个物体所属的垃圾种类。
3.如权利要求2所述的可回收垃圾视觉分类方法,其特征在于,还包括:
根据垃圾回收种类的定义,采集各种物体图像并进行标注,使用标注后的图像数据对所述基于深度卷积神经网络模型进行预先训练。
4.如权利要求2所述的可回收垃圾视觉分类方法,其特征在于,将分割后的RGB图像与对应的深度信息匹配,获取各物体在世界坐标的点云,具体方式为:
根据检测得到的各个物体的位置区域,从深度信息中获取各个物体在RGB相机坐标系的点云,所述点云由Nⅹ4矩阵Pc表示,其中N为矩阵行数,即物体点云的三维点数量,每行的四个数分别表示一个三维点的齐次(x,y,z,l)坐标;
根据物体在RGB相机坐标系的点云,计算物体在世界坐标系下的点云:设从各个物体的相机坐标系到世界坐标系的转换矩阵为M,M为4ⅹ4矩阵,设物体在世界坐标系下的点云为Nⅹ4矩阵Pw,则计算公式为:Pw=(M·(Pc)T)T,其中T表示矩阵的转置运算。
5.如权利要求4所述的可回收垃圾视觉分类方法,其特征在于,根据所述各物体在世界坐标的点云、传送带的运动速度,计算各物体的抓取位姿,具体包括:
根据所述各物体在世界坐标的点云,计算各物体的初步抓取位姿;
根据各物体的初步抓取位姿、传送带的运动速度,计算各物体的实时抓取位姿。
6.如权利要求5所述的可回收垃圾视觉分类方法,其特征在于,所述根据所述各物体在世界坐标的点云,计算各物体的初步抓取位姿,具体方式为:
根据物体的世界坐标点云,计算得到物体的初步抓取位姿,初步抓取位姿G由Gx,Gy,Gz,Gα,Gβ,Gθ六个变量表示,其中(Gx,Gy,Gz)表示抓取位姿的空间位置坐标,(Gα,Gβ,Gθ)表示抓取位姿的单位方向向量。
7.如权利要求6所述的可回收垃圾视觉分类方法,其特征在于,根据各物体的初步抓取位姿、传送带的运动速度,计算各物体的实时抓取位姿,具体方式为:
设传送带的传输速度恒定为V,在x和y方向的速度分别为Vx和Vy,G(T)为根据T时刻获取的RGB图像和深度图像计算得到的初步抓取位姿,则各物体的实时抓取位姿G(t)的计算公式为:
Gx(t)=Gx(T)+Vxⅹ(t-T),
Gy(t)=Gy(T)+Vyⅹ(t-T),
GZ(t)=GZ,Gα(t)=Gα,Gβ(t)=Gβ,Gθ(t)=Gθ。
8.一种可回收垃圾视觉分类***,其特征在于,包括:
传送带,用于传送物体,所述物体为可回收垃圾;
RGB相机,用于获取传送带上物体的RGB图像和深度信息;
服务器,用于接收RGB相机发送的RGB图像和深度信息,对RGB图像进行分割和分类,将分割后的RGB图像与对应的深度信息匹配,获取各物体在世界坐标的点云,根据所述各物体在世界坐标的点云、传送带的运动速度,计算各物体的抓取位姿。
9.如权利要求8所述的可回收垃圾视觉分类***,其特征在于,所述服务器对RGB图像进行分割和分类,具体方式为:
通过基于深度卷积神经网络模型的实例分割算法,对RGB图像进行分割,得到各个物体在RGB图像中的区域、各个物体所属的垃圾种类。
10.一种可回收垃圾视觉分类设备,其特征在于,所述设备包括:存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至7中任一所述的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911358220.0A CN111144480A (zh) | 2019-12-25 | 2019-12-25 | 一种可回收垃圾视觉分类方法、***、设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911358220.0A CN111144480A (zh) | 2019-12-25 | 2019-12-25 | 一种可回收垃圾视觉分类方法、***、设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111144480A true CN111144480A (zh) | 2020-05-12 |
Family
ID=70520077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911358220.0A Pending CN111144480A (zh) | 2019-12-25 | 2019-12-25 | 一种可回收垃圾视觉分类方法、***、设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111144480A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112419393A (zh) * | 2020-11-15 | 2021-02-26 | 浙江大学 | 一种垃圾焚烧炉料斗内垃圾体积实时测算装置及方法 |
CN116550649A (zh) * | 2023-04-19 | 2023-08-08 | 湖南大学 | 一种厨余垃圾协作操控机械手及其工作方法 |
CN117124302A (zh) * | 2023-10-24 | 2023-11-28 | 季华实验室 | 一种零件分拣方法、装置、电子设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106000904A (zh) * | 2016-05-26 | 2016-10-12 | 北京新长征天高智机科技有限公司 | 一种生活垃圾自动分拣*** |
CN109190691A (zh) * | 2018-08-20 | 2019-01-11 | 小黄狗环保科技有限公司 | 基于深度神经网络的废弃饮料瓶与易拉罐分类识别的方法 |
CN109249402A (zh) * | 2018-10-15 | 2019-01-22 | 深圳蓝胖子机器人有限公司 | 机器人、机器人自动回收垃圾方法、装置和存储介质 |
CN109409376A (zh) * | 2018-11-05 | 2019-03-01 | 昆山紫东智能科技有限公司 | 针对固废对象的图像分割方法、计算机终端及存储介质 |
CN110322512A (zh) * | 2019-06-28 | 2019-10-11 | 中国科学院自动化研究所 | 结合小样本实例分割和三维匹配的物***姿估计方法 |
US20190362178A1 (en) * | 2017-11-21 | 2019-11-28 | Jiangnan University | Object Symmetry Axis Detection Method Based on RGB-D Camera |
CN110580725A (zh) * | 2019-09-12 | 2019-12-17 | 浙江大学滨海产业技术研究院 | 一种基于rgb-d相机的箱体分拣方法及*** |
CN110610201A (zh) * | 2019-08-30 | 2019-12-24 | 厦门快商通科技股份有限公司 | 厨余回收分类方法、***、移动终端及存储介质 |
-
2019
- 2019-12-25 CN CN201911358220.0A patent/CN111144480A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106000904A (zh) * | 2016-05-26 | 2016-10-12 | 北京新长征天高智机科技有限公司 | 一种生活垃圾自动分拣*** |
US20190362178A1 (en) * | 2017-11-21 | 2019-11-28 | Jiangnan University | Object Symmetry Axis Detection Method Based on RGB-D Camera |
CN109190691A (zh) * | 2018-08-20 | 2019-01-11 | 小黄狗环保科技有限公司 | 基于深度神经网络的废弃饮料瓶与易拉罐分类识别的方法 |
CN109249402A (zh) * | 2018-10-15 | 2019-01-22 | 深圳蓝胖子机器人有限公司 | 机器人、机器人自动回收垃圾方法、装置和存储介质 |
CN109409376A (zh) * | 2018-11-05 | 2019-03-01 | 昆山紫东智能科技有限公司 | 针对固废对象的图像分割方法、计算机终端及存储介质 |
CN110322512A (zh) * | 2019-06-28 | 2019-10-11 | 中国科学院自动化研究所 | 结合小样本实例分割和三维匹配的物***姿估计方法 |
CN110610201A (zh) * | 2019-08-30 | 2019-12-24 | 厦门快商通科技股份有限公司 | 厨余回收分类方法、***、移动终端及存储介质 |
CN110580725A (zh) * | 2019-09-12 | 2019-12-17 | 浙江大学滨海产业技术研究院 | 一种基于rgb-d相机的箱体分拣方法及*** |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112419393A (zh) * | 2020-11-15 | 2021-02-26 | 浙江大学 | 一种垃圾焚烧炉料斗内垃圾体积实时测算装置及方法 |
CN112419393B (zh) * | 2020-11-15 | 2022-06-14 | 浙江大学 | 一种垃圾焚烧炉料斗内垃圾体积实时测算装置及方法 |
CN116550649A (zh) * | 2023-04-19 | 2023-08-08 | 湖南大学 | 一种厨余垃圾协作操控机械手及其工作方法 |
CN116550649B (zh) * | 2023-04-19 | 2024-01-23 | 湖南大学 | 一种厨余垃圾协作操控机械手及其工作方法 |
CN117124302A (zh) * | 2023-10-24 | 2023-11-28 | 季华实验室 | 一种零件分拣方法、装置、电子设备及存储介质 |
CN117124302B (zh) * | 2023-10-24 | 2024-02-13 | 季华实验室 | 一种零件分拣方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111015662B (zh) | 一种动态抓取物体方法、***、设备和动态抓取垃圾方法、***、设备 | |
Zhihong et al. | A vision-based robotic grasping system using deep learning for garbage sorting | |
Rabano et al. | Common garbage classification using mobilenet | |
CN111003380A (zh) | 一种智能回收垃圾的方法、***、设备 | |
CN111144480A (zh) | 一种可回收垃圾视觉分类方法、***、设备 | |
CN109102543B (zh) | 基于图像分割的物体定位方法、设备和存储介质 | |
CN112802105A (zh) | 对象抓取方法及装置 | |
CN111723782A (zh) | 基于深度学习的视觉机器人抓取方法及*** | |
CN113469264A (zh) | 一种垃圾自动分类模型的构建方法、垃圾分拣方法和*** | |
CN110516625A (zh) | 一种垃圾识别分类的方法、***、终端及存储介质 | |
Inagaki et al. | Detecting layered structures of partially occluded objects for bin picking | |
JP2022181173A (ja) | 透明物体のビンピッキング | |
Melinte et al. | Deep learning computer vision for sorting and size determination of municipal waste | |
CN116228854B (zh) | 一种基于深度学习的包裹自动分拣方法 | |
CN109146885B (zh) | 图像分割方法、设备和计算机可读存储介质 | |
CN112215147A (zh) | 垃圾投放位置的溯源方法、装置、设备及存储介质 | |
Li et al. | An intelligent identification and classification system of decoration waste based on deep learning model | |
Shao et al. | Combining rgb and points to predict grasping region for robotic bin-picking | |
US11875528B2 (en) | Object bin picking with rotation compensation | |
CN113971746B (zh) | 基于单次人手示教的垃圾分类方法、装置及分拣智能*** | |
Yeaminul Islam et al. | Computer vision-based waste detection and classification for garbage management and recycling | |
CN113894050A (zh) | 物流件分拣方法、分拣设备及存储介质 | |
CN114187501A (zh) | 包裹检测方法、装置及*** | |
CN111062387A (zh) | 一种传送带上物品的识别方法、抓取方法及相关设备 | |
Wang et al. | Deep affordance learning for single-and multiple-instance object detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200512 |