CN115884855A - 机器人*** - Google Patents
机器人*** Download PDFInfo
- Publication number
- CN115884855A CN115884855A CN202180044393.4A CN202180044393A CN115884855A CN 115884855 A CN115884855 A CN 115884855A CN 202180044393 A CN202180044393 A CN 202180044393A CN 115884855 A CN115884855 A CN 115884855A
- Authority
- CN
- China
- Prior art keywords
- search range
- robot
- feature amount
- image
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1687—Assembly, peg and hole, palletising, straight line, weaving pattern movement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40006—Placing, palletize, un palletize, paper roll placing, box stacking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Manipulator (AREA)
Abstract
本发明提供能够适当地取出能够根据载置状态变形的对象物的机器人***。本公开的机器人***具备:拍摄对象物的摄像装置、取出所述对象物的机器人、基于所述摄像装置的拍摄图像来确定所述对象物的位置的图像处理装置以及使所述机器人取出由所述图像处理装置确定了位置的所述对象物的机器人控制装置,所述图像处理装置具有:示教部,其设定能够取得所述摄像装置的拍摄图像中的所述对象物的图案的特征量的检索范围;识别部,其在所述摄像装置的拍摄图像中提取具有所述检索范围内的所述特征量的所述图案;以及修正部,其基于所述识别部提取出的所述图案的所述特征量来修正所述检索范围。
Description
技术领域
本发明涉及机器人***。
背景技术
由机器人逐一取出多个对象物的机器人***正在被利用。例如如专利文献1所记载的那样,公知有如下技术:在对象物的配置不固定的情况下也对配置有对象物的区域进行拍摄,从拍摄到的图像中提取与对象物的特征一致的图案由此确定对象物的位置,使得能够适当地取出对象物。
现有技术文献
专利文献
专利文献1:国际公开第2017/033254号公报
发明内容
发明所要解决的课题
在对象物为例如袋包装体等的情况下,对象物能够根据载置状态而变形。若对象物的变形量变大,则拍摄图像中的对象物的图案(通过图像处理而识别的形状)与所设定的图案不一致,因此有可能无法检测出对象物的存在。例如,在托盘上堆积多个袋包装体的情况下,配置在下侧的袋包装体从上方被压扁而以平面尺寸变大的方式变形。因此,若向机器人***示教以未被压缩的状态载置的袋包装体的形状,则有时无法适当地取出下方的袋包装体。因此,需要一种能够适当地取出能够根据载置状态变形的对象物的机器人***。
用于解决课题的手段
本公开的机器人***具备:摄像装置,其拍摄对象物;机器人,其取出所述对象物;图像处理装置,其基于所述摄像装置的拍摄图像来确定所述对象物的位置;以及机器人控制装置,其使所述机器人取出由所述图像处理装置确定了位置的所述对象物,所述图像处理装置具有:示教部,其设定能够取得所述摄像装置的拍摄图像中的所述对象物的图案的特征量的检索范围;识别部,其在所述摄像装置的拍摄图像中提取具有所述检索范围内的所述特征量的所述图案;以及修正部,其基于所述识别部提取出的所述图案的所述特征量来修正所述检索范围。
发明效果
根据本公开的机器人***,能够适当地取出能够根据载置状态而变形的对象物。
附图说明
图1是表示本公开的一个实施方式的机器人***的结构的示意图。
图2是例示图1的机器人***的拍摄图像的图。
图3是表示图1的机器人***的示教处理的步骤的流程图。
图4是表示图1的机器人***的对象物取出处理的步骤的流程图。
图5是例示图1的机器人***取出的第N层的对象物的特征量的图。
图6是例示图1的机器人***取出的第N-1层的对象物的特征量的图。
图7是例示图1的机器人***取出的第N-2层的对象物的特征量的图。
具体实施方式
以下,参照附图对本公开的实施方式进行说明。图1是表示本公开的一个实施方式的机器人***1的结构的示意图。
本实施方式的机器人***1是将堆积在托盘P上的多个对象物T逐一取出的码垛***。作为本实施方式的机器人***1取出的对象物T,例如假设将粉粒体装袋而成的袋包装体。
机器人***1具备拍摄对象物T的摄像装置10、取出对象物T的机器人20、基于摄像装置10的拍摄图像来确定对象物T的位置的图像处理装置30、以及使机器人20取出由图像处理装置30确定了位置的对象物T的机器人控制装置40。
摄像装置10从上方拍摄托盘P存在的范围、即托盘P上的多个对象物T,取得至少能够确认最上层的对象物T的轮廓的拍摄图像。摄像装置10可以通过架台等结构物固定在配置有托盘P的场所的上方,但通过由机器人20保持,能够省略固定摄像装置10的结构物。
作为摄像装置10所取得的拍摄图像,可以是可见光图像,但如图2所例示的那样,优选设为按每个像素表示从摄像装置10到被摄体的距离的距离图像。通过摄像装置10取得对象物T的距离图像,也可以不另外设置检测对象物T的高度位置的传感器。取得距离图像的摄像装置10具有:投射器,其将图案光投影到整个拍摄范围;以及2个摄像机,其拍摄从不同的位置投影到被摄体的图案光,根据在2个摄像机拍摄到的图像之间因视差而产生的图案光的位置偏移,能够使用按每个平面位置计算到被摄体的距离的3维视觉传感器。计算从2个摄像机拍摄到的图像到被摄体的距离的结构要素可以与投射器和摄像机分离设置,也可以与后述的图像处理装置30为一体。
机器人20典型地可以是垂直多关节型机器人,但也可以是立式机器人、并联连杆型机器人、正交坐标型机器人等。机器人20在前端部具有能够保持对象物T的保持头21。保持头21根据对象物T而适当设计,例如能够设为具有吸附对象物T的真空吸附垫的结构。保持头21也可以具有检测与对象物T的接触的接触传感器等。保持头21通过具有接触传感器,能够确认取出的对象物T的高度位置。
图像处理装置30具有:示教部31,其设定能够取得摄像装置10的拍摄图像中的对象物T的图案的特征量的检索范围;识别部32,其在摄像装置10的拍摄图像中提取具有检索范围内的特征量的图案;以及修正部33,其基于识别部32提取出的图案的特征量来修正检索范围。
图像处理装置30能够通过向具有CPU、存储器等的计算机装置导入适当的控制程序来实现。示教部31、识别部32以及修正部33是对图像处理装置30的功能进行分类而得到的,也可以不是能够在该功能以及程序结构中明确地区分的装置。另外,图像处理装置30也可以与后述的机器人控制装置40构成为一体。
示教部31在实际进行利用机器人20取出对象物T的作业之前,设定识别部32为了确定摄像装置10的拍摄图像中的对象物T的图案而使用的特征量的检索范围(将特征量进入其中的图案判定为对象物T的图案的范围)的初始值。示教部31的特征量的检索范围的初始值的设定可以对每个托盘P进行,但若货物姿势(托盘P上的对象物的数量及配置)相同,则省略由示教部31进行的特征量的设定,能够再利用特征量的检索范围的初始值。因此,示教部31优选能够按对象物T的每个货物姿势存储特征量的检索范围的初始值。
图3表示由示教部31进行的特征量的检索范围的初始值的设定的步骤。检索范围的初始值的设定包含:在摄像装置10的视野内配置对象物T的工序(步骤S11:摄像装置配置工序);通过摄像装置10拍摄图像的工序(步骤S12:图像拍摄工序);接受操作员对对象物T的图像中位置的输入的工序(步骤S13:输入接受工序);计算接受到的位置的图案的特征量的工序(步骤S14:特征量计算工序);以及基于在特征量计算工序中计算出的特征量,设定特征量的检索范围的工序(步骤S15:检索范围设定工序)。
在步骤S11的摄像装置配置工序中,例如利用机器人20对摄像装置10进行定位,由此使对象物T进入摄像装置10的拍摄范围内。在摄像装置配置工序中,可以将对象物T载置于工作台等,但优选设为能够从上方对预定的货物姿势的对象物T即在托盘P上以预定配置层叠预定数量的对象物T而成的物品进行拍摄的状态。
在步骤S12的图像拍摄工序中,通过摄像装置10取得包含对象物T的图案的拍摄图像。
在步骤S13的输入接受工序中,对摄像装置10所取得的拍摄图像进行画面显示,接受操作员进行的画面上对象物T的图像中位置的输入。也可以在1个图像上接受多个对象物T位置的输入。
在步骤S14的特征量计算工序中,例如通过二值化等公知的方法,将拍摄图像划分为在预定距离范围内存在物体的图案区域和背景区域,进而,例如通过斑点分析等公知的方法计算在输入接受工序中指定的位置的图案的特征量例如面积、长轴长度、短轴长度等。
在步骤S15的检索范围设定工序中,基于在特征量计算工序中计算出的1个或多个特征量,设定特征量的检索范围的初始值。作为具体例,也可以将在特征量计算工序中计算出的多个图案的特征量的平均值设定为特征量的检索范围的中央值。
这样,通过具有操作员仅在画面上确定对象物T就能够容易地设定特征量的检索范围的初始值的示教部31,机器人***1能够简单地进行多样的对象物T的取出作业。
识别部32根据摄像装置10所取得的拍摄图像,例如通过二值化等公知的方法切出物体所存在的图案区域,针对各图案,通过斑点分析等分别计算特征量。然后,识别部32将计算出的特征量在检索范围内的图案提取为对象物T的区域。由此,确定堆积在托盘P上的多个对象物T中配置在最上层的全部对象物T的位置。
修正部33基于由识别部32确定了位置的对象物T的图案的特征量,重新设定特征量的检索范围。优选的是,修正部33基于高度在恒定范围内的一组对象物T的特征量、即拍摄图像中的最上层的对象物T的特征量,对在一组对象物T的下方的对象物T、即拍摄图像中的最上层的对象物T被取出后整体露出的下一层的对象物T的位置的确定所应用的特征量的检索范围进行修正。由此,能够将因各层的对象物T的层叠而压扁的状态下的特征量反映到下一层的对象物T的确定,因此能够比较准确地检测对象物T。
作为特征量的检索范围的修正方法,能够采用不改变检索范围的宽度地变更检索范围的中央值的方法。具体而言,修正部33也可以将检索范围的中央值设定为一组对象物T即最上层的对象物T的特征量的平均值。根据该方法,能够比较简单且有效地修正特征量。另外,虽然能够通过增大检索范围的宽度来应对变形,但由于错误检测增加,因此优选不改变检索范围的宽度。
机器人控制装置40从图像处理装置30接收识别部32所确定的位置的信息,将保持头21定位在接收到的位置来保持对象物T,控制机器人20的动作,以使保持对象物T的保持头21移动和从托盘P取出对象物T。另外,机器人控制装置40根据机器人20的动作,指示图像处理装置30进行下一对象物T位置的确定。
机器人控制装置40与图像处理装置30同样地,能够通过向具有CPU、存储器等的计算机装置导入适当的控制程序来实现。
图4表示机器人***1进行的从托盘P取出对象物T的取出处理的步骤。对象物T的取出处理具备:取得由示教部31设定的特征量的检索范围的初始值的工序(步骤S21:初始值取得工序);配置摄像装置10的工序(步骤S22:摄像装置配置工序);利用摄像装置10拍摄对象物T的工序(步骤S23:图像拍摄工序);通过识别部32确定对象物T的位置的工序(步骤S24:位置确定工序);通过机器人20将确定了位置的对象物T取出的工序(步骤S25:对象物取出工序);通过修正部33修正特征量的检索范围的工序(步骤S26:检索范围修正工序);以及确认取出的对象物T是否为最下层的对象物的工序(步骤S27:最下层确认工序)。
在步骤S21的初始值取得工序中,识别部32从示教部31取得应该适用于要取出的对象物T的特征量的检索范围的初始值。作为具体例,能够设为如下结构:若操作员输入对机器人控制装置40应该处理的对象物T的种类及其货物姿势(托盘图案)进行确定的代码等,则机器人控制装置40以针对输入至识别部32的对象物T的货物姿势来取得示教部31所设定的特征量的检索范围的初始值的方式进行指示。另外,在示教部31中没有设定与应该处理的对象物T的货物姿势对应的特征量的检索范围的情况下,也可以促使操作员通过示教部31设定特征量的检索范围。
在步骤S22的摄像装置配置工序中,通过机器人20在能够拍摄对象物T的位置配置摄像装置10。该摄像装置10的位置可以是固定的,也可以根据该时刻的最上层的对象物T的高度而变化。
在步骤S23的图像拍摄工序中,通过摄像装置10拍摄能够适当地确认该时刻的最上层的对象物T的图像。如上所述,该拍摄图像优选设为距离图像。因此,在图像拍摄工序中,摄像装置10也可以进行解析2个摄像机的图像而生成距离图像的处理。
在步骤S24的位置确定工序中,识别部32对摄像装置10所取得的拍摄图像进行解析,提取特征量在检索范围内的图案作为对象物T的图案。然后,识别部32计算对象物T的位置以及方向,并对机器人控制装置40输入所计算出的全部对象物T的位置以及方向。
在步骤S25的对象物取出工序中,机器人控制装置40以使保持头21移动到能够保持从识别部32输入了位置的对象物T的位置的方式使机器人20动作,在该位置使保持头21保持对象物T,以使保持对象物T的保持头21移动并将对象物T从托盘P取出的方式使机器人20动作。机器人控制装置40控制机器人20,使得将从托盘P取出的对象物T载置并释放到例如未图示的输送机等上。对于从识别部32输入的全部对象物T,逐一地按顺序执行该对象物T的取出动作。
在步骤S26的检索范围修正工序中,如上所述,修正部33根据在最近一个拍摄图像中识别部32作为对象物T的图案而提取出的图案的特征量,修正识别部32存储的特征量的检索范围。
在步骤S27的最下层确认工序中,确认最近的拍摄图像是否是拍摄了托盘P上的最下层的对象物T的图像。能够根据确定了位置的对象物T的高度位置来判定是否为最下层的对象物T。如果最近的拍摄图像是拍摄了托盘P上的最下层的对象物T的图像,则认为将托盘P上的对象物T全部取出,因此结束关于该托盘P的处理。如果最近的拍摄图像不是拍摄到托盘P上的最下层的对象物T的图像,则为了取出下一层的对象物T,返回到步骤S22的摄像装置配置工序。
图5例示第N层(最上层)的对象物T的拍摄图像中的图案的特征量,图6例示第N-1层(从上数第二层)的对象物T的拍摄图像中的图案的特征量,图7例示第N-2层(从上数第三层)的对象物T的拍摄图像中的图案的特征量。在该例子中,使用图案的短轴长度作为特征量。
在第N层中,由于对象物T未从上方被压扁,因此对象物T的短轴长度与最初配置时的值大致没有变化,与在示教部31中设定特征量时的对象物T的短轴长度大致相等。短轴长度的检索范围的初始值的中央值为100,例如设定为±3σ(标准偏差的3倍)的下限值及上限值为80及120时,最上层的对象物T的短轴长度当然收敛于该下限值与上限值之间。在第N-1层中,作为各对象物T因最上层的对象物T的重量而上下压缩的结果,短轴长度稍微增大,但在该例中,最大限度地收敛于假定最上层而设定的下限值与上限值之间。然而,在第N-2层中,作为各对象物T因上面的2层对象物T的重量而上下压缩的结果,第N-2层的对象物T的一部分的短轴长度变得比假定最上层而设定的上限值大。因此,如果固定特征量的检索范围,则有时无法适当地检测下层的对象物T。
在通过修正部33将各层的对象物T的图案的短轴长度的平均值作为下一层的检索范围的中央值的情况下,第N层的检索范围为80以上120以下(中央值100),第N-1层的检索范围为81位以上121以下(中央值101),第N-2层的检索范围为87以上127以下(中央值107)。在该情况下,第N-2层的图案中的短轴长度的最大值为125,但该值也在检索范围内,因此能够提取全部的对象物T的图案,能够通过机器人20适当地取出全部的对象物T。
如以上那样,机器人***1在取出处于相同层的对象物T时,反映作为对象物T而提取出的图案的特征量,对用于确定下1层的对象物T的图案的特征量的检索范围进行修正,由此对越是位于下层的对象物T越压扁而拍摄图像中的图案的宽度以及面积越大的情况进行补偿,能够适当地识别对象物T。
以上,对本公开的机器人***的实施方式进行了说明,但本公开的范围不限于所述的实施方式。另外,所述的实施方式所记载的效果只不过是列举了从本公开的机器人***产生的最佳的效果,本公开的机器人***的效果并不限定于所述的实施方式所记载的效果。
作为具体例,在上述机器人***进行的对象物的取出处理中,对象物取出工序和检索范围修正工序可以调换顺序,也可以同时执行。另外,本公开所涉及的机器人***也可以构成为,在位置确定工序后无法在拍摄图像中发现对象物的图案的情况下结束处理。
附图标记说明
1机器人***
10摄像装置
20机器人
21保持头
30图像处理装置
31示教部
32识别部
33修正部
40机器人控制装置
P托盘
T对象物。
Claims (5)
1.一种机器人***,其特征在于,
所述机器人***具备:
摄像装置,其拍摄对象物;
机器人,其取出所述对象物;
图像处理装置,其基于所述摄像装置的拍摄图像来确定所述对象物的位置;以及
机器人控制装置,其使所述机器人取出由所述图像处理装置确定了位置的所述对象物,
所述图像处理装置具有:
示教部,其设定能够取得所述摄像装置的拍摄图像中的所述对象物的图案的特征量的检索范围;
识别部,其在所述摄像装置的拍摄图像中提取具有所述检索范围内的所述特征量的所述图案;以及
修正部,其基于所述识别部提取出的所述图案的所述特征量来修正所述检索范围。
2.根据权利要求1所述的机器人***,其特征在于,
所述修正部不改变所述检索范围的宽度地变更所述检索范围的中央值。
3.根据权利要求1或2所述的机器人***,其特征在于,
所述修正部基于高度在恒定范围内的一组所述对象物的特征量,修正应用于所述一组所述对象物的下方的所述对象物的所述检索范围。
4.根据权利要求3所述的机器人***,其特征在于,
所述修正部将所述一组所述对象物的特征量的平均值设定为所述检索范围的中央值。
5.根据权利要求1至4中任一项所述的机器人***,其特征在于,
所述摄像装置取得所述对象物的距离图像。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020-108600 | 2020-06-24 | ||
JP2020108600 | 2020-06-24 | ||
PCT/JP2021/023073 WO2021261378A1 (ja) | 2020-06-24 | 2021-06-17 | ロボットシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115884855A true CN115884855A (zh) | 2023-03-31 |
Family
ID=79281243
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180044393.4A Pending CN115884855A (zh) | 2020-06-24 | 2021-06-17 | 机器人*** |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230173668A1 (zh) |
JP (1) | JPWO2021261378A1 (zh) |
CN (1) | CN115884855A (zh) |
DE (1) | DE112021003349T5 (zh) |
WO (1) | WO2021261378A1 (zh) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09255158A (ja) * | 1996-03-22 | 1997-09-30 | Kobe Steel Ltd | 物体配置認識装置 |
JP2013154457A (ja) * | 2012-01-31 | 2013-08-15 | Asahi Kosan Kk | ワーク移載システム、ワーク移載方法及びプログラム |
JP6293968B2 (ja) | 2015-08-24 | 2018-03-14 | 株式会社日立製作所 | 移動ロボット運用システム、移動ロボット、及び対象物取り出し方法 |
-
2021
- 2021-06-17 WO PCT/JP2021/023073 patent/WO2021261378A1/ja active Application Filing
- 2021-06-17 US US17/999,844 patent/US20230173668A1/en active Pending
- 2021-06-17 DE DE112021003349.2T patent/DE112021003349T5/de active Pending
- 2021-06-17 CN CN202180044393.4A patent/CN115884855A/zh active Pending
- 2021-06-17 JP JP2022531917A patent/JPWO2021261378A1/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2021261378A1 (ja) | 2021-12-30 |
JPWO2021261378A1 (zh) | 2021-12-30 |
US20230173668A1 (en) | 2023-06-08 |
DE112021003349T5 (de) | 2023-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5201411B2 (ja) | バラ積みピッキング装置とその制御方法 | |
KR20240042157A (ko) | 자동화된 패키지 등록 시스템, 디바이스 및 방법 | |
EP3173194B1 (en) | Manipulator system, image capturing system, transfer method of object, and carrier medium | |
JP4565023B2 (ja) | 物品取り出し装置 | |
JP2019509559A (ja) | センサ誘導式ロボットを用いたボックスの位置特定、分離、およびピッキング | |
KR102534983B1 (ko) | 전자 부품의 자세 검출 장치 및 자세 검출 방법 | |
US20220284591A1 (en) | System and method of object detection based on image data | |
CN108290286A (zh) | 用于教导工业机器人拾取零件的方法 | |
JP6595691B1 (ja) | 荷降ろし装置、荷降ろし方法及びプログラム | |
CN108160530A (zh) | 一种上料平台及工件上料方法 | |
JP5360369B2 (ja) | ピッキング装置と方法 | |
JPH0753054A (ja) | 自動荷卸し装置 | |
JP6167760B2 (ja) | 物品位置認識装置 | |
JP6666764B2 (ja) | ワーク認識方法及びランダムピッキング方法 | |
WO2019240273A1 (ja) | 情報処理装置、情報処理装置を備える荷降しシステム、及びコンピュータ可読記憶媒体 | |
JPH03228589A (ja) | ワークの位置決め方法 | |
CN115884855A (zh) | 机器人*** | |
JP5263501B2 (ja) | デパレタイズ用のワーク位置認識装置および方法 | |
JP2019199335A (ja) | 情報処理装置、情報処理プログラム、及び仕分システム | |
KR101993262B1 (ko) | 미소 볼 탑재 워크의 리페어 장치 | |
CN115003613A (zh) | 用于分离计件货物的设备和方法 | |
JP7481926B2 (ja) | 情報処理装置、仕分システム、及びプログラム | |
JP7481867B2 (ja) | 制御装置及びプログラム | |
JP2019098431A (ja) | 情報処理装置及び仕分システム | |
JP4860452B2 (ja) | テンプレートマッチングを用いたマーク位置決め方法及び装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |