CN110326032B - 图像识别***、图像识别方法和存储介质 - Google Patents

图像识别***、图像识别方法和存储介质 Download PDF

Info

Publication number
CN110326032B
CN110326032B CN201880011459.8A CN201880011459A CN110326032B CN 110326032 B CN110326032 B CN 110326032B CN 201880011459 A CN201880011459 A CN 201880011459A CN 110326032 B CN110326032 B CN 110326032B
Authority
CN
China
Prior art keywords
image
item
image recognition
article
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201880011459.8A
Other languages
English (en)
Other versions
CN110326032A (zh
Inventor
饭尾亮真
岩元浩太
横井秀雄
高田亮
小山和也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017024891A external-priority patent/JP6862888B2/ja
Priority claimed from JP2017024890A external-priority patent/JP6801490B2/ja
Priority claimed from JP2017024892A external-priority patent/JP6878938B2/ja
Application filed by NEC Corp filed Critical NEC Corp
Publication of CN110326032A publication Critical patent/CN110326032A/zh
Application granted granted Critical
Publication of CN110326032B publication Critical patent/CN110326032B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07GREGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
    • G07G1/00Cash registers
    • G07G1/0036Checkout procedures
    • G07G1/0045Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F9/00Details other than those peculiar to special kinds or types of apparatus
    • G07F9/02Devices for alarm or indication, e.g. when empty; Advertising arrangements in coin-freed apparatus
    • G07F9/026Devices for alarm or indication, e.g. when empty; Advertising arrangements in coin-freed apparatus for alarm, monitoring and auditing in vending machines or means for indication, e.g. when empty
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07GREGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
    • G07G1/00Cash registers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/09Recognition of logos

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Image Analysis (AREA)
  • Cash Registers Or Receiving Machines (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)

Abstract

提供了一种可以容易地识别产品的侧面的图像的图像识别***。根据本发明的实施例的图像识别***包括:放置台(14),放置台(14)被定位在图像设备(11)下方并且产品被放置在其上,该图像设备(11)被提供以在所述图像设备(11)下方捕获图像;支撑结构(200),支撑结构(200)相对于放置台(14)的顶面以预定角度支撑产品;以及图像识别设备(100),图像识别设备(100)通过识别由图像设备(11)所获取的产品的图像来识别产品。

Description

图像识别***、图像识别方法和存储介质
技术领域
本发明涉及图像识别***、图像识别方法和存储介质。
背景技术
照惯列,通常的做法是,当顾客在零售店等处购买物品时,POS终端通过读取附在物品上的条形码来标识物品并且获取物品信息,诸如,名称、价格等。近年来,已经开发了一种技术,该技术不需要物品附有条形码并且通过使用图像识别技术基于物品的外部特征来标识物品。
专利文献1公开了一种技术,该技术从多个方向捕获被布置在预定识别区域中的多个物品,并且通过捕获到的图像的特征量来共同识别该多个物品。在专利文献1中公开的技术中,通过使用多个图像捕获设备或者改变单个图像捕获设备的位置来执行从多个方向进行捕获。因此,可以同时标识多个物品并且有效地获取物品信息。
[引用列表]
[专利文献]
PLT 1:日本专利申请特开第2013-54673号
发明内容
[技术问题]
由于物品通常具有三维形状,因此,在图像识别技术中,通过使用针对物品的至少一个面所捕获到的图像中的外部特征来标识物品。例如,当使用被固定在物品上方的单个图像捕获设备时,在自然地捕获被布置在台上的物品的顶面的同时,需要将物品侧放以捕获物品的侧面。然而,对于待放下的一些物品(诸如,其将接触顾客的嘴的易打开端部的一部分暴露在外的饮料罐),出于卫生原因,这不是优选的。进一步地,一些物品(诸如,软的未烘烤的蛋糕)不应该被放下或者可能由于放下而被损坏。
当如在专利文献1中公开的技术中公开的那样从多个方向捕获物品时,虽然不仅可以容易地捕获物品的顶面,而且可以容易地捕获物品的侧面,但是需要较大的成本来提供多个图像捕获设备或者将图像捕获设备配置为可移动的,并且处理变得复杂,因为需要聚合多条图像信息。
已经鉴于上面描述的问题完成了本发明,并且示例目的是提供一种可以容易地对物品的侧面执行图像识别的图像识别***。
进一步地,即使利用图像识别处理,也可能无法区分物品,诸如,包括共同的商标但是按照各种尺寸销售的饮料罐。进一步地,对于具有各种形状或者颜色的一些物品(诸如,新鲜食品),可能无法应用使用形状或者颜色的图像识别处理。因此,通过根据物品的类型或者状态执行不同的处理,似乎可以提高图像识别的准确度。然而,在专利文献1中公开的技术中,由于按照相同的方式来处理被布置在识别区域中的多个物品,因此,不能根据物品来应用不同的识别处理。
已经鉴于上面描述的问题完成了本发明,并且另一示例目的是提供一种可以分别向以图像识别为目标的多个物品应用不同的识别过程的图像识别***、图像识别方法和存储介质。
此外,由于外观彼此相似,因此,可能无法如在专利文献1中公开的技术中公开的那样通过使用简单地使用物品的外观(特征量)的图像识别处理来区分物品(诸如,包括共同的商标但是按照各种尺寸销售的饮料罐)。
已经鉴于上面描述的问题完成了本发明,并且再一示例目的是提供一种可以在图像识别处理中容易地标识具有不同尺寸的相似物品的图像识别***、图像识别方法和存储介质。
[问题的解决方案]
本发明的第一示例方面是一种图像识别***,其包括:放置台,该放置台被用于将物品放置在图像捕获设备下方,图像捕获设备被提供以执行向下方向的捕获;支撑结构,该支撑结构被配置为以相对于放置台的顶面的预定角度支撑物品;以及图像识别装置,该图像识别装置通过对由图像捕获设备获取的、物品的图像执行图像识别来标识物品。
本发明的第二示例方面是一种图像识别方法,其包括以下步骤:获取被布置在识别区域中的物品的图像;以及基于所获取的图像中的物品的外观和所获取的图像中的识别区域中的物品的位置来标识物品。
本发明的第三示例方面是一种存储程序的存储介质,该程序使计算机执行以下步骤:获取被布置在识别区域中的物品的图像;以及基于所获取的图像中的物品的外观和所获取的图像中的识别区域中的物品的位置来标识物品。
本发明的第四示例方面是一种图像识别方法,其包括以下步骤:获取物品的图像,该物品被布置成使得预定面被定位在参考坐标上;基于所获取的图像中的物品的外观,提取与所获取的图像中的物品相对应的物品;将所提取的物品的外边缘叠加在所获取的图像中的物品上;计算外边缘与参考坐标之间的差异;以及基于差异,确定所获取的图像中的物品。
本发明的第五示例方面是一种存储程序的存储介质,该程序使计算机执行以下步骤:获取物品的图像,该物品被布置成使得预定面被定位在参考坐标上;基于所获取的图像中的物品的外观,提取与所获取的图像中的物品相对应的物品;将所提取的物品的外边缘叠加在所获取的图像中的物品上;计算外边缘与参考坐标之间的差异;以及基于差异,确定所获取的图像中的物品。
[本发明的有益效果]
根据本发明,由于捕获了由支撑结构支撑的物品的图像,因此,可以容易地对物品的侧面执行图像识别。
进一步地,根据本发明,可以分别基于物品的位置,针对被布置在识别区域中的多个物品执行不同的图像识别过程。
此外,根据本发明,通过使用布置物品的参考坐标,可以在图像识别中容易地标识具有不同尺寸的相似物品。
附图说明
图1是根据第一示例实施例的图像识别***的示意图。
图2是根据第一示例实施例的支撑部分的透视图。
图3是根据第一示例实施例的处于布置有物品的状态的支撑部分的顶视图。
图4A是根据第一示例实施例的在放置台上的识别区域的顶视图。
图4B是根据第一示例实施例的从靠近放置台上的识别区域的端部的部分进入图像捕获设备的光的平面的示意图。
图5是根据第一示例实施例的POS终端的框图。
图6是根据第一示例实施例的POS终端的一般配置图。
图7是图示了根据第一示例实施例的图像识别方法的流程图的示意图。
图8是根据第二示例实施例的支撑部分的透视图。
图9是在第三示例实施例中作为识别目标的物品的示意图。
图10A是根据第三示例实施例的处于布置有物品的状态的支撑部分的顶视图。
图10B是根据第三示例实施例的处于布置有物品的状态的支撑部分的顶视图。
图10C是根据第三示例实施例的支撑部分的透视图。
图11是图示了根据第三示例实施例的图像识别方法的流程图的示意图。
图12是根据第四示例实施例的在放置台上的识别区域的顶视图。
图13是图示了根据第四示例实施例的图像识别方法的流程图的示意图。
图14是根据第五示例实施例的在放置台上的识别区域的顶视图。
图15是图示了根据第五示例实施例的图像识别方法的流程图的示意图。
图16是根据第六示例实施例的POS终端的框图。
图17是图示了第六示例实施例中有关物品的被存储在识别信息存储单元中的识别信息的示意图。
图18是根据第一示例实施例的处于布置有物品的状态的支撑部分的顶视图。
图19A是根据第六示例实施例的由图像识别***执行的尺寸确定处理的示意图。
图19B是根据第六示例实施例的由图像识别***执行的尺寸确定处理的示意图。
图19C是根据第六示例实施例的由图像识别***执行的尺寸确定处理的示意图。
图20是图示了根据第六示例实施例的图像识别方法的流程图的示意图。
图21是根据第七示例实施例的在放置台上的识别区域的顶视图。
图22是根据第八示例实施例的图像识别***的示意图。
图23是根据第八示例实施例的架的前视图。
图24是根据每个示例实施例的图像识别***的一般配置图。
图25是根据每个示例实施例的POS终端的一般配置图。
图26是根据每个示例实施例的图像识别装置的一般配置图。
具体实施方式
虽然下面将参照附图来描述本发明的示例实施例,但是本发明不限于这些示例实施例。注意,在下面描述的示意图中,具有相同功能的那些用相同的附图标记来标记,并且可以省略其重复描述。
[第一示例实施例]
图1是根据本示例实施例的图像识别***10的示意图。图像识别***10具有作为图像识别装置的POS终端(销售点信息管理终端)100、被用于在其上放置以图像识别为目标的物品的放置台14以及被用于支撑放置台14上的物品的支撑部分200。POS终端100被连接至被设置在可以捕获放置台14上的物品的位置处的图像捕获设备11、可以在放置台14上对预定图像进行投射的投射设备12以及显示有关物品的信息的显示设备13。虽然在本示例实施例中图像识别装置与POS终端100一体地形成,但是可以与POS终端100分开设置图像识别装置,并且图像识别装置可以被配置为与POS终端100交换必要信息以实施根据本示例实施例的图像识别方法。
POS终端100在显示设备13上显示支付下的物品信息、支付金额、预定消息等。通过稍后描述的图像识别方法获取物品信息。进一步地,POS终端100可以执行与支付有关的任何处理,诸如,存款和取款、打印收据等。
放置台14具有沿水平方向(即,垂直于重力方向的方向)延伸的放置面(顶面)。一个或者多个物品B被放置在放置台14的放置面上。
图像捕获设备11沿重力方向被设置在放置台14上方并且被固定至支柱、臂、天花板等(未图示)。例如,图像捕获设备11是通过使用图像传感器(诸如,电荷耦合器件(CCD)传感器、互补金属氧化物半导体(CMOS)传感器等)来获取图像的任何图像捕获设备(诸如,相机或者扫描仪)。图像捕获设备11可以捕获至少包括放置台14的放置面的区域,并且向POS终端100传输指示捕获到的图像的信号。指示由图像捕获设备11捕获的图像的信号可以被直接传输至POS终端100,或者可以被一次存储在存储设备中并且然后由POS终端100读取。为了均匀地捕获放置台14上的物品,需要图像捕获设备11的光轴与放置台14的放置面的法线相匹配。图像捕获设备11可以按照预定时间间隔执行捕获,或者可以根据来自POS终端100的指令执行捕获。
投射设备12沿重力方向被设置在放置台14上方并且被固定至支柱、臂、天花板等(未图示)。投射设备12是通过使用光源(诸如,灯、发光二极管(LED)等)来对所需图像进行投射的任何投射设备(诸如,投影仪)。投射设备12根据来自POS终端100的信号在放置台14的放置面上对图像进行投射。投射设备12被安装在可以实现这种投射的预定位置处。投射设备12的安装位置是设计问题。例如,投射设备12可以被安装在放置面的正上方或者对角线上方以从该方向对图像进行投射。另外,投射设备12可以被安装在放置面上以从横向方向对图像进行投射。另外,放置台14可以由透明的构件形成,并且投射设备12可以被安装在放置台14之下。在这种情况下,投射设备12从放置台14的下面在放置台14的放置面上对图像进行投射。
在本示例实施例中,投射设备12在放置台14的放置面上对图像进行投射,该图像指示由图像捕获设备11捕获的并且执行图像识别的识别区域A(例如,围绕识别区域A的框架)。识别区域A可以与图像捕获设备11的捕获区域相匹配,或者可以是图像捕获设备11的捕获区域的一部分。可以在POS终端100中对识别区域A进行预设,或者识别区域A可以由用户设置。
支撑部分200是被用于在放置台14的放置面上相对于重力方向以预定角度支撑物品B的支撑结构。支撑部分200可以在识别区域A内与放置台14一体地形成(即,作为放置台14的一部分),或者可以被形成为被放置在放置台14上的构件。稍后将通过使用图2至图4来描述支撑部分200的详细配置。
显示设备13是向用户(即,店员或者顾客)显示任何信息(诸如,物品信息)的显示设备。作为显示设备13,可以使用任何显示设备(诸如,阴极射线管(CRT)显示器、液晶显示器等)。
当执行物品识别方法时,作为识别目标的每个物品B被直接布置在放置台14上的识别区域A内部或者被布置在支撑部分200上。具体地,当物品B的外部特征是在放置物品B时被自然地布置成沿重力方向面向上方(即,面向图像捕获设备11)时,物品B被直接布置在放置台14上的识别区域A内部。另一方面,当在放置物品B时物品B的外部特征相对于重力方向面向侧向(即,不面向图像捕获设备11)时,物品B被布置在支撑部分200上。其外部特征相对于重力方向面向侧向的物品B可以是:例如,诸如具有大致圆柱形形状的饮料罐等制品或者诸如被容纳在透明容器中的当被放下时会被损坏的软蛋糕等制品。
图2是根据本示例实施例的作为物品支撑结构的支撑部分200的透视图。虽然在本示例实施例中支撑部分200被形成为与放置台14分开的构件,但是支撑部分200可以被形成为使得放置台14的放置面的一部分用作图2的物品支撑结构。支撑部分200具有侧面支撑构件210和底面支撑构件220。侧面支撑构件210具有支撑物品的侧面的侧面支撑面211,并且底面支撑构件220具有支撑物品的底面的底面支撑面221。侧面支撑构件210和底面支撑构件220被设置成使得侧面支撑面211和底面支撑面221彼此垂直(即,这些面之间的角度为90度),并且侧面支撑面211相对于水平方向(即,垂直于重力方向的方向)形成预定角度C1。利用这种配置,支撑部分200可以根据角度C1来支撑物品,并且促进图像捕获设备11捕获物品的侧面。
优选地,角度C1是大于0度但是小于90度的角度,并且更优选地,是大于或者等于30度但是小于或者等于60度的角度,使得图像捕获设备11以稳定的方式捕获物品的侧面,并且在本示例实施例中,角度C1是45度。当角度C1相对于水平方向是大于60度的角度时,将通过图像捕获设备11以陡峭的角度捕获物品的侧面,并且因此,图像识别的准确度降低。当角度C1相对于水平方向是小于30度的角度时,具有大致圆柱形形状的物品可能会滚动,或者软的物品可能被损坏。
图3是根据本示例实施例的作为物品支撑结构的支撑部分200的顶视图。图3是从垂直于侧面支撑面211的方向观察支撑物品D的支撑部分200的视图。例如,物品D是诸如具有大致圆柱形形状的饮料罐等制品或者诸如被容纳在透明容器中的放下将被损坏的软蛋糕等制品。由于以这种方式,侧面支撑面211支撑物品D的侧面并且底面支撑面221支撑物品D的底部,因此,支撑部分200可以稳定地支撑物品D,并且图像捕获设备11可以容易地捕获物品D。
需要侧面支撑面211在垂直于底面支撑面221的方向上的长度C2(以下称为高度)小于由支撑部分200支撑的大致圆柱形的物品D在垂直于底面支撑面221的方向上的长度(以下称为高度)。当大致圆柱形的物品D是饮料罐时,易打开端部的一部分通常被设置在顶部。当侧面支撑面211的高度C2高于或者等于物品D的高度时,在物品D被布置在支撑部分200上时易打开端部的一部分可能接触侧面支撑面211。因此,在侧面支撑面211的高度C2低于物品D的高度的情况下,物品D的易打开端部的一部分不太可能接触侧面支撑面211,并且因此,可以获得优选的卫生状态。
由于当物品由人的手支撑时物品的角度可能不相同,因此,物品的角度可能每次发生变化,单个物品可能被错误地识别为多个物品,或者图像识别的准确度可能降低。相反,由于在本示例实施例中支撑部分200以预定角度C1支撑物品,因此,可以提高图像识别的准确度。
图4A是根据本示例实施例的放置台14上的识别区域A的顶视图。在图4A中,通过虚线图示了图像捕获设备11投射在放置台14上的位置。支撑部分200被设置成使得侧面支撑面211面向图像捕获设备11,即,相较于侧面支撑面211,底面支撑面221更接近图像捕获设备11。因此,由支撑部分200支撑的物品的侧面面向图像捕获设备11并且因此可以由图像捕获设备11捕获。
支撑部分200被设置成接触识别区域A的端部或者靠近识别区域A的端部。具体地,优选的是,支撑部分200被布置在相较于图像捕获设备11的光轴和识别区域A相交的点E1与识别区域A的端部之间的线E2的中点,更接近识别区域A的端部的位置处。此外,更优选的是,支撑部分200被布置在相较于在线E2的三等分点之外的在识别区域A的端侧(end side)上的点,更接近识别区域A的端部(end)的位置处。
在识别区域A中,对于距离图像捕获设备11的光轴更远(即,更接近图像捕获设备11的视角的端部)的部分,捕获到的图像的失真更大。这是因为以球形形状进入图像捕获设备11的光被投射在平面图像上。图4B是从靠近识别区域A的端部的位置进入图像捕获设备11的光的平面E3的示意图。靠近识别区域A的端部,光的平面E延伸的方向接近如在图4B中图示的重力方向。因此,由于被平放在放置台14上的物品F2的侧面沿垂直于重力方向的方向延伸,因此,当利用接近重力方向的光捕获图像时,图像的失真增加。相反,由于由支撑部分200以大于0度的预定角度支撑的物品F1的侧面延伸的方向接近与重力方向接近的光的方向,因此,图像的失真的影响小。以这种方式,由于在本示例实施例中支撑部分200被布置成接触识别区域A的端部或者靠近识别区域A的端部,因此,可以减少图像捕获设备11的视角的影响并且提高对物品的识别的准确度。
图5是根据本示例实施例的POS终端100(图像识别装置)的框图。在图5中,箭头表示主要的数据流,并且可能存在除了在图5中图示的那些数据流之外的其它数据流。在图5中,每个块表示功能单元中的配置,而不是硬件(设备)单元中的配置。因此,在图5中图示的块可以被实施在单个设备内,或者可以被单独地实施在多个设备内。可以经由任何组件(诸如,数据总线、网络、便携式存储介质等)来执行在块之间的数据交换。
POS终端100具有图像获取单元110、图像识别单元120、物品信息获取单元130和显示控制单元140作为处理单元。进一步地,POS终端100具有识别信息存储单元151和物品信息存储单元152作为存储单元。
图像获取单元110接收指示由图像捕获设备11捕获的图像的信号,并且将接收到的信号输入至POS终端100作为图像数据。可以从图像捕获设备11直接获取图像数据,或者可以通过读取被存储在存储设备中的图像数据来获取图像数据。
图像识别单元120提取由图像获取单元110获取的图像数据中包括的每个物品。例如,从各种物品的参考图像预先计算得出的特征量与被用于标识相应物品的物品ID相关联地被存储在识别信息存储单元151中。作为特征量,可以使用可以通过图像数据来计算的、指示物品的外观的任何信息,诸如,形状、颜色、颜色分布等。图像识别单元120从由图像获取单元110获取的图像数据来计算特征量,并且将计算得出的特征量与被存储在识别信息存储单元151中的特征量相比较。然后,图像识别单元120在识别信息存储单元151中标识具有最相似的特征量(即,满足预定标准)的物品作为图像数据中的物品。图像识别单元120从识别信息存储单元151获取标识的物品的物品ID。作为由图像识别单元120执行的物品识别方法,可以使用可以通过图像数据来标识物品的任何图像识别技术,而不限于此处说明的特定方法。
图像识别单元120对由支撑部分200支撑的物品和被直接放置在放置台14上(即,不由支撑部分200支撑)的物品执行不同的处理。支撑部分200支撑物品的角度C1以及图像捕获设备11与支撑部分200之间的位置关系是不变的并且是已知的。因此,图像识别单元120通过使用角度C1和图像捕获设备11与支撑部分200之间的位置关系来对图像数据中与支撑部分200相对应的区域执行校正。即,图像识别单元120使用支撑物品的角度C1和图像捕获设备11与支撑部分200之间的位置关系来扩展由图像捕获设备11捕获的物品的图像,并且因此生成在从正前方捕获物品的侧面时将获得的图像或者在接近上述情况下将获得的图像。由于以这种方式校正的图像通常处于接近通过从正前方捕获物品而获得的参考图像的状态,因此,可以提高上面描述的图像识别的准确度。
在物品信息存储单元152中,与物品ID相关联地预先存储了有关物品的任何物品信息(诸如,物品的名称、物品的价格等)。物品信息获取单元130基于由图像识别单元120获取的物品ID来获取被存储在物品信息存储单元152中的物品信息。
显示控制单元140执行控制以显示有关由物品信息获取单元130获取的每个物品的物品信息。在本示例实施例中,显示控制单元140控制处理以在视觉上向用户指示预定信息,诸如,除了在显示设备13上进行显示之外,还通过打印机打印收据。
图6是图示了根据本示例实施例的POS终端100(图像识别装置)的示例性设备配置的一般配置图。POS终端100具有中央处理单元(CPU)101、存储器102、存储设备103和接口104。POS终端100可以是独立的设备或者可以与另一设备一体地形成。
接口104是被连接至另一设备并且传输和接收信号的连接单元。接口104包括传输和接收信号所需的处理器、电路、天线、连接终端等。接口104根据来自CPU 101的信号来与所连接的设备执行传输和接收信号。例如,接口104被连接至图像捕获设备11、投射设备12、显示设备13和输入设备15并且与其执行传输和接收信号。除了上述设备之外,接口104还可以被连接至网络或者其它设备。
存储设备103存储由POS终端100执行的程序、通过程序获得的处理结果数据等。存储设备103包括专用于读取的只读存储器(ROM)、硬盘驱动器或者可读写的闪速存储器等。进一步地,存储设备103可以包括计算机可读便携式存储介质,诸如,CD-ROM。存储器102包括暂时存储由CPU 101处理的数据或者从存储设备103读取的程序和数据的随机存取存储器(RAM)等。
CPU 101是将被用于处理的临时数据暂时存储在存储器102中,读取被存储在存储设备103中的程序,并且根据程序来对临时数据执行各种处理操作(诸如,计算、控制、确定等)的处理器。进一步地,CPU 101将处理结果数据存储在存储设备103中,并且还经由接口104来外部地传输数据或者控制信号。
在本示例实施例中,CPU 101通过执行被存储在存储设备103中的程序来用作图5所示图像获取单元110、图像识别单元120、物品信息获取单元130和显示控制单元140。进一步地,在本示例实施例中,存储设备103用作图5所示识别信息存储单元151和物品信息存储单元152。
POS终端100不限于在图6中图示的特定配置。POS终端100不限于单个设备,并且可以被配置成使得两个或者更多个在物理上分开的设备通过有线或者无线连接而被连接。POS终端100中包括的相应单元可以分别由电路(electric circuitry)实施。此处的电路在概念上包括单个设备、多个设备、芯片集或者云的术语。
进一步地,POS终端100的至少一部分可以按照软件即服务(SaaS)的形式来提供。即,用于实施POS终端100的功能中的至少一些功能可以由经由网络执行的软件执行。
图7是图示了根据本示例实施例的图像识别方法的流程图的示意图。图7所示流程图以用户执行预定操作以在图像识别***10上执行图像识别而开始或者在每个预定时间处而开始。例如,图7所示流程图以用户按下被连接至POS终端100的输入设备15(键盘或者触摸屏)的按钮而开始。
首先,图像获取单元110接收指示由图像捕获设备11捕获的图像的信号,并且将接收到的信号输入至POS终端100作为图像数据(步骤S101)。
接下来,图像识别单元120通过使用支撑部分200的角度C1和图像捕获设备11与支撑部分200之间的位置关系来对在步骤S101中获取的图像中与支撑部分200(支撑部分区域)相对应的区域执行校正,并且输出校正过的区域作为一个图像数据(步骤S102)。支撑部分区域被预设作为图像中的某一位置(坐标)。进一步地,可以通过图像识别来从图像中确定支撑部分200的位置以将该位置用作支撑部分区域。
接下来,图像识别单元120对在步骤S102中校正过的图像数据执行图像识别处理,并且基于识别信息存储单元151中的识别信息来标识物品(步骤S103)。然后,图像识别单元120将在步骤S103中标识到的物品确定为图像中的物品(步骤S104)。当在一个图像数据中标识到多个物品时,对每个物品执行后续处理。
最后,物品信息获取单元130基于在步骤S104中确定的物品的物品ID来从物品信息存储单元152获取物品信息,并且显示控制单元140执行控制以通过使用显示设备13来显示物品信息(步骤S105)。
具体地,当在每个预定时间处执行图7所示流程图时,可以重复获取有关被放置在放置台14上的同一物品的物品信息,并且可以在支付时多次收集同一物品的价格。因此,当图像识别单元120在预定时间段内或者预定数量的帧内在接近的位置(例如,质心的位置差异低于预定值)处标识到同一物品时,物品信息获取单元130不在步骤S105中执行获取有关物品的物品信息(在图7所示流程图中未图示)。
POS终端100的CPU 101是在图7中图示的图像识别方法中包括的每个步骤(处理)的主题。即,CPU 101通过从存储器102或者存储设备103读取用于执行在图7中图示的图像识别方法的程序并且执行该程序以控制POS终端100的每个单元来执行在图7中图示的图像识别方法。
根据本示例实施例的图像识别***10从沿重力方向向上而被设置的图像捕获设备11捕获由支撑部分200以预定角度支撑的物品,并且执行图像识别。由于可以通过仅使用一个图像捕获设备来执行有关物品的侧面的图像识别,因此,相较于当通过设置多个图像捕获设备或者移动图像捕获设备来从多个方向捕获物品时的处理,可以实现更低成本并且更简单的处理。由于支撑部分200沿重力方向稳定地支撑物品,因此,与人的手支撑物品的情况相比较,图像捕获设备11可以容易地捕获物品的侧面,并且提高图像识别的准确度。
进一步地,由于可以同时识别被直接放置在放置台14上的物品和由支撑部分200以预定角度支撑的物品,因此,不需要用户执行附加操作。
进一步地,由于支撑部分200支撑物品,使得物品的侧面相对于水平方向倾斜,因此,物品不太可能会滚动,并且可以执行稳定的图像识别。此外,由于支撑部分200支撑物品的角度是固定并且是已知的,因此,可以通过使用角度来对物品的图像进行校正。这可以进一步提高图像识别的准确度。
此外,由于支撑部分200被设置成靠近识别区域A的端部,因此,物品的侧面可以沿着进入图像捕获设备11的光的球体而被支撑。这可以减少在图像捕获设备11的视角的端部的失真的影响,并且可以进一步提高图像识别的准确度。
[第二示例实施例]
虽然根据第一示例实施例的支撑部分200通过倾斜地支撑物品来促进捕获物品的侧面,但是根据本示例实施例的支撑部分200支撑物品,使得物品的侧面平行于水平方向。利用这种配置,图像捕获设备11可以容易地捕获物品的侧面。本示例实施例使用具有与第一示例实施例中的配置相同的配置的图像识别***10。可以使用根据本示例实施例的支撑部分200,代替根据第一示例实施例的支撑部分200,或者除了根据第一示例实施例的支撑部分200之外,还可以使用根据本示例实施例的支撑部分200。
图8是根据本示例实施例的作为物品支撑结构的支撑部分200的透视图。支撑部分200可以被形成为与放置台14分开的构件,或者可以被形成为使得放置台14的放置面的一部分用作图8所示物品支撑结构。
支撑部分200具有侧面支撑构件210。该侧面支撑构件210具有支撑物品的侧面的侧面支撑面211。该侧面支撑面211被设置成平行于水平方向(即,垂直于重力方向的方向)。即,在本示例实施例中,第一示例实施例中的侧面支撑面211相对于水平方向的角度C1被设置为0度。利用这种配置,支撑部分200可以支撑物品,使得物品的侧面面向图像捕获设备11,并且可以促进图像捕获设备11捕获物品的侧面。
此外,任何数量的(两个或者更多个)突起部分230被设置在侧面支撑面211上。突起部分230沿着待被布置的物品的侧面平行于彼此而被设置。利用这种突起部分230,由于物品的取向受限,因此,用户可以容易地按照预定取向来将物品布置在支撑部分200上。
突起部分230之间的间隔与待被布置的物品的宽度基本相同,并且优选地,被设置为待被布置的物品的宽度加上预定余量(例如,宽度的大约2%到10%)的值。这可以抑制圆柱形物品或者球形物品滚动,并且使对物品的侧面执行的图像识别稳定。
虽然在本示例实施例中省略了底面支撑构件220,但是底面支撑构件220可以被设置成竖直地接触侧面支撑构件210和突起部分230。相反,突起部分230可以根据第一示例实施例被设置在支撑部分200上。
借助于根据本示例实施例的支撑部分200,以与第一示例实施例相同的方式,图像捕获设备11可以容易地捕获物品的侧面,并且与人的手支撑物品的情况相比较,可以提高图像识别的准确度。
[第三示例实施例]
本示例实施例进一步基于在根据第一或者第二示例实施例的图像识别***10中布置的物品的位置来执行图像识别。即,在本示例实施例中,针对被布置物品的相应位置(区域),执行不同的图像识别处理。
图9是在本示例实施例中作为识别的目标的物品D1和D2的示意图。物品D1和D2是分别具有大致圆柱形形状的制品,诸如,饮料罐。物品D1和D2具有彼此不同的尺寸,例如,物品D1的体积是350ml,而物品D2的体积是500ml。在物品D1和D2的侧面上表示有共同的商标G。即,物品D1和D2是具有不同尺寸的不同物品。一般的图像识别技术基于图像数据中的外观的特征量(诸如,形状、颜色、颜色分布等)来执行图像识别。因此,具有共同的商标G的物品D1和D2不太可能通过这种图像识别被区分开来,并且可能被错误地识别为同一物品。
在本示例实施例中,针对具有这种相似的外观的物品D1和D2,通过使用有关物品D1和D2被布置的位置、区域或者坐标的信息,提高了图像识别的准确度。
在根据本示例实施例的图像识别处理中,图像识别单元120通过使用布置物品的坐标(位置)来确定图像中包括的物品是否是用于识别处理的目标,并且通过使用有关目标物品的坐标来执行识别处理。是否是使用坐标的识别处理的目标被预设为针对每个物品的坐标确定标志。例如,图9所示物品D1和D2是具有不同尺寸的不同物品,并且因此,是使用坐标的识别处理的目标。因此,即使在具有不同尺寸的不同物品的情况下,也可以基于物品的由用户布置的位置来选择性地标识具有尺寸中的任何一种尺寸的物品。
图10A和图10B是处于布置有物品的状态的支撑部分200的顶视图。图10A和图10B分别是在从垂直于侧面支撑面211的方向观察支撑物品D1和D2的支撑部分200时的示意图。如在图10A和图10B中图示的,由于侧面支撑面211支撑物品D1和D2的侧面,并且底面支撑面221支撑物品D1和D2的底面,因此,支撑部分200可以稳定地支撑物品D1和D2,并且促进图像捕获设备11捕获物品D1和D2的侧面。
图10C是根据本示例实施例的作为物品支撑结构的支撑部分200的透视图。如在图10C中图示的,附加于图2所示配置,将侧面支撑面211划分为两个区域的区域划分部分212也被设置在侧面支撑面211上。区域划分部分212是在侧面支撑面211上沿垂直于底面支撑面221的方向延伸的突起部分。区域划分部分212可以是在侧面支撑面211上表达的符号或者颜色、由投射设备12投射的光或者被设置在侧面支撑面211上的结构,只要其可以在视觉上向用户指示区域。
侧面支撑面211被区域划分部分212划分为第一区域H1和第二区域H2。图像识别单元120根据物品被布置在区域H1和H2中的哪个区域中(即,根据布置物品的位置)来执行不同的识别处理。
为了确定区域H1和H2,图像识别单元120可以对关于由图像捕获设备11获取的图像中的每个像素属于区域H1和H2中的哪个区域的信息进行预设,并且基于与物品的位置相对应的像素来确定物品被布置在区域H1和H2中的哪个区域中。可替代地,图像识别单元120可以识别区域划分部分212的位置,并且基于区域划分部分212的位置与物品之间的位置关系,确定物品被布置在区域H1和H2中的哪个区域中。
例如,当物品D1和D2被布置在第一区域H1中时,图像识别单元120确定物品D1和D2是小物品。即,在图10A的示例中,小物品D1和大物品D2都被确定为小物品。进一步地,当物品D1和D2被布置在第二区域H2中时,图像识别单元120确定物品D1和D2是大物品。即,在图10B的示例中,小物品D1和大物品D2都被确定为大物品。在实际操作中,通过用户将小物品D1布置在第一区域H1中并且将大物品D2布置在第二区域H2中,图像识别单元120可以正确地标识具有不同尺寸的相似物品D1和D2。
换句话说,除了有关物品的外观的信息之外,图像识别单元120还基于有关布置物品的位置的信息来标识物品。因此,对于仅通过物品的外观难以标识的物品,可以提高识别的准确度。
由图像识别单元120使用的区域的数量不限于两个,而是根据要区分的尺寸的数量,可以是至少两个或者更多个中的任何数量。进一步地,图像识别单元120可以使用有关位置的、被用于区分仅通过外观难以区分的物品的其它属性的信息(味道、香味等的变化),而不限于物品的尺寸。
图11是图示了根据本示例实施例的图像识别方法的流程图的示意图。图11所示流程图以用户执行预定操作以在图像识别***10上执行图像识别而开始或者在每个预定时间处而开始。例如,图11所示流程图以用户按下被连接至POS终端100的输入设备15(键盘或者触摸屏)的按钮而开始。
首先,图像获取单元110接收指示由图像捕获设备11捕获的图像的信号,并且将接收到的信号输入至POS终端100作为图像数据(步骤S201)。
接下来,图像识别单元120通过使用支撑部分200的角度C1和图像捕获设备11与支撑部分200之间的位置关系来对在步骤S201中获取的图像中与支撑部分200(支撑部分区域)相对应的区域执行校正,并且输出校正过的区域作为一个图像数据(步骤S202)。支撑部分区域被预设为图像中的某一位置(例如,像素的坐标)。进一步地,可以通过图像识别来从图像中确定支撑部分200的位置,并且将该位置用作支撑部分区域。
图像识别单元120通过使用在步骤S202中校正过的图像数据来对物品执行图像识别处理,并且基于识别信息存储单元151中的识别信息来标识物品(步骤S203)。然后,图像识别单元120将在步骤S203中标识到的物品确定为图像中的物品(步骤S204)。当在一个图像数据中标识到多个物品时,对每个物品执行后续处理。
如果针对在步骤S204中确定的物品设置了坐标确定标志(步骤S205,是),则图像识别单元120获取图像中的物品的坐标(位置)(步骤S206)。坐标确定标志通过使用布置物品的坐标来针对作为识别处理的目标的物品而被预设。例如,坐标确定标志被存储在识别信息存储单元151中。例如,物品的坐标被表示为指示图像中的物品的区域的一组坐标。在步骤S206中的获取物品的坐标可以在如在图11中图示的步骤S205中的确定坐标确定标志之后而被执行,或者可以与步骤S203中的图像识别一起被执行。
图像识别单元120基于物品的在步骤S206中获取的坐标来确定在步骤S204中确定的物品是否正确(步骤S207)。具体地,如果在步骤S206中获取的物品的坐标在与步骤S204中确定的物品相对应的区域内部,则图像识别单元120确定正确的物品被确定。另一方面,如果在步骤S206中获取的物品的坐标在与步骤S204中确定的物品相对应的区域外部,则图像识别单元120确定错误的物品被确定。
例如,执行以下处理。为了简化说明,此处假设有两种类型的物品,它们是如在图10A和图10B中图示的小物品和大物品。图像识别单元120获取与在步骤S204中确定的物品相对应的正确位置(第一区域H1或者第二区域H2)。对物品的正确位置进行了预设。在图10A和图10B的示例中,小物品的正确位置是第一区域H1,并且大物品的正确位置是第二区域H2。然后,图像识别单元120确定在步骤S206中获取的物品的坐标是否被定位在与感兴趣的物品相对应的正确位置(第一区域H1或者第二区域H2)。虽然可以利用任何方法来执行该确定,但是例如,当一半或者更多与物品相对应的像素在图像中与第一区域H1相对应的区域内时,可以将物品的位置确定为在第一区域H1中,否则,可以确定为在第二区域H2中。可替代地,当物品的区域的中心(质心)在第一区域H1中时,可以将物品的位置确定为在第一区域H1中,否则,可以确定为在第二区域H2中。图像中与第一区域H1和第二区域H2相对应的区域可以由用户预设,或者可以由对划分第一区域H1和第二区域H2的区域划分部分212执行图像识别的图像识别单元120设置。
物品的类型的数量或者区域的数量不限于两个,并且可以是至少两个或者更多个中的任何数量,并且在这种情况下,可以适当地应用根据布置物品的区域的分类。
如果物品未被定位在正确的位置(步骤S208,否),则在步骤S204中被确定的物品被改变为正确的物品(步骤S209)。正确的物品是与包括在步骤S206中获取的物品的坐标的区域相对应的物品。在图10A和图10B的示例中,如果在步骤S206中获取的物品的坐标在第一区域H1内,则正确的物品是小物品,并且如果在步骤S206中获取的物品的坐标在第二区域H2内,则正确的物品是大物品。
如果没有针对在步骤S204中确定的物品设置坐标确定标志(步骤S205,否)或者如果物品被定位在正确的位置(步骤S208,是),则直接使用在步骤S204中确定的物品。
最后,物品信息获取单元130基于在步骤S204中确定的物品或者在步骤S209中所改变的物品的物品ID来从物品信息存储单元152获取物品信息,并且显示控制单元140执行控制以通过使用显示设备13来显示物品信息(步骤S210)。
具体地,当在每个预定时间处执行图11所示流程图时,可以重复获取有关被放置在放置台14上的同一物品的物品信息,并且可以在支付时多次收集同一物品的价格。因此,当图像识别单元120在预定时间段内或者预定数量的帧内在接近的位置(例如,质心的位置差异低于预定值)处标识到同一物品时,物品信息获取单元130不在步骤S110中执行获取有关物品的物品信息(在图11所示流程图中未图示)。
虽然在图11所示流程图中物品在步骤S204中被暂时确定并且如果物品的坐标在错误的区域中,则物品被改变为正确的物品,但是处理不限于该特定形式。例如,可以在步骤S204中提取与图像中的物品相似的多个物品候选,并且可以将多个候选中其坐标在正确的区域中的候选确定为图像中的物品。
POS终端100的CPU 101是在图11中图示的图像识别方法中包括的每个步骤(处理)的主题。即,CPU 101通过从存储器102或者存储设备103读取用于执行在图11中图示的图像识别方法的程序并且执行该程序以控制POS终端100的每个单元来执行在图11中图示的图像识别方法。
除了物品的外观之外,根据本示例实施例的图像识别***10还通过使用布置物品的位置来对物品执行图像识别。因此,对于通过仅通过物品的外观的图像识别难以区分的物品(在本示例实施例中,具有相似的外观但是具有不同尺寸的饮料罐),可以基于布置物品的位置来减少图像识别的结果,并且因此,可以提高图像识别的准确度。
进一步地,由于支撑部分200支撑物品的角度是固定并且是已知的,因此,可以通过使用角度来对物品的图像进行校正。这可以进一步提高图像识别的准确度。
[第四示例实施例]
进一步地,虽然在第三示例实施例中有关位置的信息被用于促进对具有不同尺寸的物品的识别,但是在本示例实施例中,有关位置的信息被用于促进对不同类型的物品的识别。本示例实施例使用具有与第三示例实施例的配置相同的配置的图像识别***10。可以使用本示例实施例,而不是第一示例实施例至第三示例实施例中的任何一个实施例,或者可以结合第一示例实施例至第三示例实施例中的至少任何一个示例实施例使用本示例实施例。
图12是根据本示例实施例的放置台14上的识别区域A的顶视图。在图12中,通过虚线图示了图像捕获设备11投射在放置台14上的位置。
识别区域A通过区域划分线J被划分为第一区域J1和第二区域J2。区域划分线J是在识别区域A上指示的线。区域划分线J可以是在识别区域A上表达的符号或者颜色、由投射设备12投射的光或者被设置在识别区域上的结构,只要其可以在视觉上向用户指示区域。图像识别单元120根据物品被布置在区域J1和J2中的哪个区域中(即,布置物品的位置)来执行不同的识别处理。
为了确定区域J1和J2,图像识别单元120可以对关于由图像捕获设备11获取的图像中的每个像素属于区域J1和J2中的哪个区域的信息进行预设,并且基于与物品的位置相对应的像素来确定物品被布置在区域J1和J2中的哪个区域中。可替代地,图像识别单元120可以识别区域划分线J的位置,并且基于区域划分线J的位置与物品之间的位置关系,确定物品被布置在区域J1和J2中的哪个区域中。
本示例实施例中作为识别的目标的第一类型的物品K1和第二类型的物品K2是彼此不同类型的物品。具体地,物品K1是被装在指示物品的内容的包装中并且具有不变的外观的一般制品。一般制品具有稳定的外观,并且因此,易于通过使用外观的图像识别处理而被标识。另一方面,物品K2是不被装在包装中或者被装在物品是可见的透明包装中的新鲜食品。新鲜食品有关形状、颜色等具有各种外观,并且因此,难以通过使用外观的图像识别处理而被标识。新鲜食品通常附有指示物品名称、价格的标签和条形码。
例如,当物品被布置在第一区域J1中时,图像识别单元120随着物品是一般制品而执行图像识别处理。即,在图12的示例中,对物品K1执行用于一般制品的图像识别处理。当物品被布置在第二区域J2中时,图像识别单元120随着物品是新鲜食品而执行图像识别处理。即,在图12的示例中,对物品K2执行用于新鲜食品的图像识别处理。
用于一般制品的图像识别处理通过使用从整个物品计算得出的特征量(形状、颜色、颜色分布等)来执行识别。用于新鲜食品的图像识别处理通过使用从附在物品的标签内部的区域而不是整个物品计算得出的特征量来执行识别。因此,在向一般制品应用普通的图像识别的同时,通过使用有关具有稳定的外观的标签的信息来对具有不确定的外观的新鲜食品应用图像识别,并且因此,可以提高图像识别的准确度。作为有关相应类型的物品的特定图像识别处理,可以使用适合于类型的任何方法,而不限于此处说明的那些方法。
在实际操作中,通过用户将是一般制品的物品K1布置在第一区域J1中并且将是新鲜食品的物品K2布置在第二区域J2中,图像识别单元120可以分别对不同类型的物品K1和K2应用合适的图像识别处理。
换句话说,除了有关物品的外观的信息之外,图像识别单元120还基于有关布置物品的位置的信息来标识物品。因此,可以根据布置物品的位置来选择合适的图像识别处理,并且可以提高识别的准确度。
由图像识别单元120使用的区域的数量不限于两个,而是根据要区分的物品的类型中的类型,可以是至少两个或者更多个中的任何数量。
图13是图示了根据本示例实施例的图像识别方法的流程图的示意图。图13所示流程图以用户执行预定操作以在图像识别***10上执行图像识别开始。例如,图13的流程图以用户按下被连接至POS终端100的输入设备15的按钮(键盘或者触摸屏)或者在每个预定时间处而开始。
首先,图像获取单元110接收指示由图像捕获设备11捕获的图像的信号,并且将接收到的信号输入至POS终端100作为图像数据(步骤S301)。
接下来,图像识别单元120获取在步骤S301中获取的图像中的物品的位置(步骤S302)。对在图像中检测到的每个物品执行下面的步骤S303至S307。
图像识别单元120确定物品的位置被定位在识别区域A的第一区域J1和第二区域J2中的哪个区域中。虽然可以利用任何方法来执行该确定,但是例如,当一半或者更多与物品对应的像素在图像中与第一区域J1对应的区域内时,可以将物品的位置确定为在第一区域J1中,并且否则,可以确定为在第二区域J2中。在图像中与第一区域J1和第二区域J2对应的区域可以由用户预设,或者可以由图像识别单元120对划分第一区域J1和第二区域J2的区域划分线J执行图像识别来设置。
如果物品的在步骤S302中获取的位置在第一区域J1内(步骤S303,是),则图像识别单元120对感兴趣的物品执行被用于一般制品的图像识别处理,并且基于识别信息存储单元151中的识别信息来识别物品(步骤S304)。
如果在步骤S302中获取的物品的位置在第二区域J2内(步骤S303,否),则图像识别单元120对感兴趣的物品执行被用于新鲜食品的图像识别处理,并且基于识别信息存储单元151中的识别信息来识标识物品(步骤S305)。
然后,图像识别单元120将在步骤S304或者S305中标识到的物品确定为图像中的物品(步骤S306)。
最后,物品信息获取单元130基于在步骤S306中确定的物品的物品ID来从物品信息存储单元152获取物品信息,并且显示控制单元140执行控制以通过使用显示设备13来显示物品信息(步骤S307)。
POS终端100的CPU 101是在图13中图示的图像识别方法中包括的每个步骤(处理)的主题。即,CPU 101通过从存储器102或者存储设备103读取用于执行在图13中图示的图像识别方法的程序并且执行该程序以控制POS终端100的每个单元来执行在图13中图示的图像识别方法。
按照与第三示例实施例相同的方式,除了物品的外观之外,根据本示例实施例的图像识别***10还通过使用关于布置物品的位置的位置来对物品执行图像识别。因此,可以基于布置物品的位置来对每种类型的物品(在本示例实施例中,为一般制品和新鲜食品)执行合适的图像识别处理,并且因此,可以提高图像识别的准确度。
[第五示例实施例]
进一步地,虽然在第三示例实施例中有关位置的信息被用于促进对具有不同尺寸的物品的识别,但是在本示例实施例中,即使当用于识别区域中的位置的环境不同时,有关位置的信息也被用于提高图像识别的准确度。本示例实施例使用具有与第三示例实施例的配置相同的配置的图像识别***10。可以使用本示例实施例,而不是第一示例实施例至第四示例实施例中的任何一个实施例,或者可以结合第一示例实施例至第四示例实施例中的任何一个示例实施例使用本示例实施例。
图14是根据本示例实施例的放置台14上的识别区域A的顶视图。在图14中,通过虚线图示了图像捕获设备11投射在放置台14上的位置。
识别区域A通过在相应区域中提供不同颜色而被划分为第一区域M1和第二区域M2。图14通过在第二区域M2中表示许多点来说明了第一区域M1在颜色上与第二区域M2不同。每个区域可以由在识别区域A上表达的符号或者颜色、由投射设备12投射的光或者被设置在识别区域A上的结构表示,只要其可以在视觉上向用户指示区域。图像识别单元120根据物品被布置在区域M1和M2中的哪个区域中(即,布置物品的位置)来执行不同的识别处理。
为了确定区域M1和M2,图像识别单元120可以对关于由图像捕获设备11获取的图像中的每个像素属于区域M1和M2中的哪个区域的信息进行预设,并且基于与物品的位置对应的像素来确定物品被布置在区域M1和M2中的哪个区域中。可替代地,图像识别单元120可以基于每个区域的颜色来确定范围,并且确定物品被布置在区域M1和M2中的哪个区域中。
在本示例实施例中,在第一区域M1与第二区域M2之间,环境光的亮度是不同的。当障碍物被定位在光源与识别区域A之间时,识别区域A被遮蔽,并且因此,亮度根据识别区域A上的位置发生变化。因此,由于由图像捕获设备11获取的物品的图像的亮度根据布置物品的位置而发生变化,因此,这可能影响与被存储在识别信息存储单元151中的参考图像(特征量)的比较的结果。在图14的示例中,第一区域M1是相对亮的明亮区域,而第二区域M2是相对暗的黑暗区域。
例如,当物品被布置在第一区域M1中时,图像识别单元120执行适合于明亮状态的图像识别处理。即,在图14的示例中,对物品N1执行被用于明亮区域的图像识别处理。当物品被布置在第二区域M2中时,图像识别单元120执行适合于黑暗状态的图像识别处理。即,在图14的示例中,对物品N2执行被用于黑暗区域的图像识别处理。
例如,被用于明亮区域的图像识别处理在校正以减少照度在物品的图像数据上被执行之后执行图像识别,而被用于黑暗区域的图像识别处理在校正以增加照度在物品的图像数据上被执行之后执行图像识别。因此,由于可以利用接近均匀的亮度来执行图像识别,因此,不管布置物品的位置如何,都可以获得相似图像识别的条件,并且提高了图像识别的准确度。作为有关在相应亮度区域中的物品的特定图像识别处理,可以使用适合于亮度的任何方法,而不限于此处说明的那些方法。虽然此处图像的亮度被简单地校正,但是例如,对于相应区域,可以显著地改变处理,诸如,在被用于明亮区域的图像识别处理中,在图像中使用颜色,而在被用于黑暗区域的图像识别处理中,不在图像中使用颜色。
换句话说,除了物品的外观之外,图像识别单元120还基于有关布置物品的位置的信息来标识物品。因此,可以向布置物品的位置中的环境应用合适的图像识别处理,并且可以提高识别的准确度。
由图像识别单元120使用的区域的数量不限于两个,而是根据要区分的物品的类型,可以是任何数量。当在识别区域A上的亮度随着光源(诸如,太阳、荧光灯等)的状态发生改变时,相应区域的范围和对相应区域执行的处理可以根据时间或者日期发生改变。
图15是图示了根据本示例实施例的图像识别方法的流程图的示意图。图15所示流程图以用户执行预定操作以在图像识别***10上执行图像识别开始。例如,图15所示流程图以用户按下被连接至POS终端100的输入设备15的按钮(键盘或者触摸屏)或者在每个预定时间处而开始。
首先,图像获取单元110接收指示由图像捕获设备11捕获的图像的信号,并且将接收到的信号输入至POS终端100作为图像数据(步骤S401)。
接下来,图像识别单元120获取在步骤S401中获取的图像中的物品的位置(步骤S402)。对在图像中检测到的每个物品执行下面的步骤S403至S407。
图像识别单元120确定物品的位置被定位在识别区域A的第一区域M1和第二区域M2中的哪个区域中。虽然可以利用任何方法来执行该确定,但是例如,当一半或者更多与物品对应的像素在图像中与第一区域M1对应的区域内时,可以将物品的位置确定为在第一区域M1中,并且否则,可以确定为在第二区域M2中。图像中与第一区域M1和第二区域M2对应的区域可以由用户预设,或者可以由图像识别单元120对第一区域M1和第二区域M2的颜色执行图像识别来设置。
如果在步骤S402中获取的物品的位置在第一区域M1内(步骤S403,是),则图像识别单元120对感兴趣的物品执行被用于明亮区域的图像识别处理,并且基于识别信息存储单元151中的识别信息来标识物品(步骤S404)。
如果在步骤S402中获取物品的位置在第二区域M2内(步骤S403,否),则图像识别单元120对感兴趣的物品执行被用于黑暗区域的图像识别处理,并且基于识别信息存储单元151中的识别信息来识别物品(步骤S405)。
然后,图像识别单元120将在步骤S404或者S405中标识到的物品确定为图像中的物品(步骤S406)。
最后,物品信息获取单元130基于在步骤S406中确定的物品的物品ID来从物品信息存储单元152获取物品信息,并且显示控制单元140执行控制以通过使用显示设备13来显示物品信息(步骤S407)。
POS终端100的CPU 101是在图15中图示的图像识别方法中包括的每个步骤(处理)的主题。即,CPU 101通过从存储器102或者存储设备103读取用于执行在图15中图示的图像识别方法的程序并且执行该程序以控制POS终端100的每个单元来执行在图15中图示的图像识别方法。
按照与第三示例实施例相同的方式,除了物品的外观之外,根据本示例实施例的图像识别***10还通过使用布置物品的位置来对物品执行图像识别。因此,可以执行适合于布置物品的位置的环境的图像识别处理,并且因此,可以提高图像识别的准确度。
[第六示例实施例]
本示例实施例通过在根据第一示例实施例至第五示例实施例中的任何一个示例实施例的图像识别***10中使用参考线进一步执行尺寸确定处理来区分具有不同尺寸的相似物品。
图16是根据本示例实施例的POS终端100(图像识别装置)的框图。在图16中,箭头表示主要的数据流,并且可能存在除了在图16中图示的那些数据流之外的其它数据流。在图16中,每个块图示了功能单元中的配置,而不是硬件(设备)单元中的配置。因此,在图16中图示的块可以被实施在单个设备中,或者可以被单独地实施在多个设备中。可以经由任何组件(诸如,数据总线、网络、便携式存储介质等)来执行在块之间的数据交换。
除了在图5中图示的图像获取单元110、图像识别单元120、物品信息获取单元130和显示控制单元140之外,根据本示例实施例的POS终端100还具有尺寸确定单元160作为处理单元。
图像识别单元120(也被称为提取单元)提取由图像获取单元110获取的图像中包括的每个物品,并且输出提取结果以及在每个提取的物品的图像中的范围。例如,在识别信息存储单元151中,预先从各种物品的参考图像计算得出的特征量被存储为与标识相应物品的物品ID相关联的识别信息。作为特征量,可以使用可以通过图像数据来计算的、指示物品的外观的任何信息,诸如,形状、颜色、颜色分布等。图像识别单元120从由图像获取单元110获取的图像数据来计算特征量,并且将计算得出的特征量与被存储在识别信息存储单元151中的特征量相比较。然后,图像识别单元120在识别信息存储单元151中标识具有最相似的特征量(即,满足预定标准)的物品作为图像中的物品。图像识别单元120从识别信息存储单元151获取并输出作为标识到的物品的标识符的物品ID。进一步地,图像识别单元120输出识别到的物品的范围(例如,区域的左上点和右下点的坐标,通过这些坐标,特征量被计算)。作为由图像识别单元120执行的物品识别方法,可以使用可以通过图像数据来标识物品的任何图像识别技术,而不限于此处说明的特定方法。
尺寸确定单元160(也被称为确定单元)确定由图像识别单元120确定的物品的尺寸是否接近图像中的物品的尺寸,并且因此,最终确定物品。稍后将通过使用图19A至图19C来描述特定的尺寸确定处理。
在本示例实施例中,CPU 101通过执行被存储在存储设备103中的程序来用作图16的图像获取单元110、图像识别单元120、物品信息获取单元130、显示控制单元140和尺寸确定单元160。
在根据本示例实施例的图像识别处理中,图像识别单元120在图像中的物品上叠加预先存储的物品图像的外边缘,并且基于预定参考线与外边缘之间的差异来标识物品。因此,即使在具有不同尺寸的不同物品的情况下,具有接近图像中的物品的尺寸的物品也可以被选择性地被标识。
在本示例实施例中,对于如在图9中图示的具有相似外观的物品D1和D2,通过使用与布置物品D1和D2的参考线(参考坐标)的差异促进尺寸的区分来提高图像识别的准确度。
图17是图示了本示例实施例中有关物品D1和D2的被存储在识别信息存储单元151中的识别信息的示意图。在识别信息存储单元151中,除了物品D1和D2的物品ID或者从物品D1和D2的图像计算出的特征量之外,作为围绕物品D1和D2的物品图像的外边缘的矩形区域的外边缘P1和P2的范围(例如,左上点和右下点的相应坐标)分别被存储为有关物品D1和D2的识别信息。可以通过检测物品D1和D2的外部形状来自动检测外边缘P1和P2,或者外边缘P1和P2可以由用户设置。虽然为了更加明显在图17中图示了相应物品D1和D2的图像本身,但是指示从物品D1和D2计算出的特征量以及物品D1和D2的外边缘P1和P2的范围的信息可以按照字符串、二进制数据等的任何形式被存储在识别信息存储单元151中。
图18是处于布置有物品的状态的支撑部分200的顶视图。图18是从垂直于侧面支撑面211的方向观察支撑物品D1和D2的支撑部分200的视图。由于如在图18中图示的,侧面支撑面211支撑物品D1和D2的侧面,并且底面支撑面221支撑物品D1和D2的底面,因此,支撑部分200可以在底面支撑面221上以相同的水平支撑物品D1和D2的底面,并且促进图像捕获设备11捕获物品D1和D2的侧面。
图19A至图19C是根据本示例实施例的由图像识别***10执行的尺寸确定处理的示意图。虽然图19A至图19C中的每一个都图示了x轴和y轴,但是可以采用任何x轴和y轴。由于在此处,图像中的物品D1和D2彼此相似,因此,通过传统的图像识别处理,会以任何方式来将物品D1和D2确定为物品D1或者D2。根据本示例实施例的尺寸确定处理准确地使用参考线(参考坐标)来标识图像中的物品D1和D2与具有彼此不同尺寸的相似物品D1和D2中的哪个对应。虽然此处说明了物品的类型的数量为两个的情况,但是类型的数量可以是至少两个或者更多个中的任何数量。
在图19A至图19C中,除了由图像捕获设备11获取的图像中的物品D1和D2之外,还图示了被用作尺寸确定的参考的参考线Q(即,一组参考坐标)。例如,参考线Q可以是由等式y=A(A是常数)表达的参考坐标(参考点)。由于物品D1和D2由支撑部分200支撑,因此,物品D1和D2的预定面(在该示例中,为底面)自然地匹配在底面支撑面221上。因此,在本示例实施例中,底面支撑面221的位置被定义作为参考线Q,并且每个物品的底面被定位在参考线Q上。根据物品的形状,待被定位在参考线Q上的预定面可以是任何面,而不限于底面。
首先,如在图19A中图示的,尺寸确定单元160获取由图像捕获设备11获取的图像中的物品D1和D2的位置以及参考线Q的位置。尺寸确定单元160从图像识别单元120接收由图像识别单元120提取的物品D1和D2的位置。在图像捕获设备11中所获取的图像中的参考线Q的位置可以由用户预设并且被存储在存储设备中。在这种情况下,例如,尺寸确定单元160从存储设备读取由图像捕获设备11获取的图像中的特定像素的坐标作为参考线Q的位置。可替代地,由图像捕获设备11获取的图像中的参考线Q的位置可以由对支撑部分200(底面支撑面221)执行图像识别的图像识别单元120设置。在这种情况下,例如,尺寸确定单元160从图像识别单元120接收底面支撑面221的位置作为参考线Q的位置,底面支撑面221的位置由图像识别单元120基于诸如支撑部分200的形状、颜色、图案等外观被确定。
首先,将描述针对物品D1和D2,图像识别单元120提取物品D1的情况。尺寸确定单元160从图像识别单元120接收与提取的物品D1对应的外边缘P1的范围。如在图19B中图示的,尺寸确定单元160然后将物品D1的外边缘P1叠加在图像中的物品D1和D2上。例如,外边缘P1的范围和图像中的物品D1和D2的范围由相应区域的左下点和右下点的坐标(x坐标和y坐标)表达。然后,外边缘P1和物品D1和D2叠加,使得外边缘P1的范围的取向和中心点(质心)与图像中的物品D1和D2的范围的取向和中心点(质心)相匹配。在图19B中图示了该状态。尺寸确定单元160针对图像中的每个物品计算参考线Q与外边缘P1之间的距离作为差异R。当差异R在预定范围内时(在该示例中,当物品D1的外边缘P1被叠加在图像中的物品D1上时),图像识别单元120采用所提取的物品D1,并且当差异R不在预定范围内时(在该示例中,当物品D1的外边缘P1被叠加在图像中的物品D2上时),丢弃所提取的物品D2。差异R的预定范围由用户预设。
其次,将描述针对物品D1和D2,图像识别单元120提取物品D2的情况。尺寸确定单元160从图像识别单元120接收与提取的物品D2对应的外边缘P2的范围。如在图19C中图示的,尺寸确定单元160然后将物品D2的外边缘P2叠加在图像中的物品D1和D2上。例如,外边缘P2的范围和图像中的物品D1和D2的范围由相应区域的左下点和右下点的坐标(x坐标和y坐标)表示。然后,外边缘P2和物品D1和D2叠加,使得外边缘P2的范围的取向和中心点(质心)与图像中的物品D1和D2的范围的取向和中心点(质心)相匹配。在图19C中图示了该状态。尺寸确定单元160针对图像中的每个物品计算参考线Q与外边缘P2之间的距离作为差异R。当差异R在预定范围内时(在该示例中,当物品D2的外边缘P2被叠加在图像中的物品D2上时),图像识别单元120采用所提取的物品D2,并且当差异R不在预定范围内时(在该示例中,当物品D2的外边缘P2被叠加在图像中的物品D1上时),丢弃所提取的物品D1。差异R的预定范围由用户预设。
虽然参考线Q与外边缘之间的距离(即,最接近参考线Q的外边缘的点)在此处被用作差异R,但是可以使用表示参考线Q与外边缘之间的相对位置关系的其它值。例如,外边缘的任何边的中点可以被定义为外边缘上的参考点,并且参考点与参考线Q之间的距离可以被用作差异R。可替代地,外边缘的边中的每条边的中点可以被定义为外边缘上的每个参考点,并且相应参考点与参考线Q之间的多个距离可以被用作差异R。可替代地,可以通过检测物品的取向来确定外边缘的底边,该底边上的特定点(例如,端点或者中点)可以被定义为外边缘上的参考点,并且参考点与参考线Q之间的距离可以被用作差异R。
如上所述,根据本示例实施例的尺寸确定单元160可以计算物品的外边缘与参考线之间的差异,当差异在预定范围内时,将尺寸标识为接近图像中的物品的尺寸,并且准确地确定物品。进一步地,由于支撑部分200支撑物品,因此,物品的位置(物品的底面)可以容易地与参考线相匹配。
图20是图示了根据本示例实施例的图像识别方法的流程图的示意图。图20所示流程图以用户执行预定操作以在图像识别***10上执行图像识别而开始或者在每个预定时间处而开始。例如,图20所示流程图以用户按下被连接至POS终端100的输入设备15(键盘或者触摸屏)的按钮开始。
首先,图像获取单元110接收指示由图像捕获设备11捕获的图像的信号,并且将接收到的信号输入至POS终端100作为图像数据(步骤S501)。
接下来,图像识别单元120通过使用支撑部分200的角度C1和图像捕获设备11与支撑部分200之间的位置关系来对在步骤S501中获取的图像中与支撑部分200(支撑部分区域)对应的区域执行校正,并且输出校正过的区域作为一个图像数据(步骤S502)。支撑部分区域被预设为图像中的某一位置(例如,像素的坐标)。进一步地,可以通过图像识别来从图像中确定支撑部分200的位置以将该位置用作支撑部分区域。
图像识别单元120通过使用在步骤S502中校正过的图像数据来对物品执行图像识别处理,并且基于识别信息存储单元151中的识别信息来标识物品(步骤S503)。然后,图像识别单元120将在步骤S503中标识到的物品确定为图像中的物品(步骤S504)。当在一个图像数据中标识到多个物品时,对每个物品执行后续处理。
接下来,尺寸确定单元160从在步骤S501中获取的图像获取参考线Q的位置(步骤S505)。物品的预定面(例如,底面)被定位在参考线Q上。例如,通过读取由用户预设的内容或者通过对在步骤S501中获取的图像执行图像识别来获取参考线Q在图像中的位置。
接下来,尺寸确定单元160从图像识别单元120接收指示图像中的物品的范围和在步骤S504中确定的物品的外边缘的范围的信息,并且将在步骤S504中确定的物品的外边缘叠加在图像中的物品上(步骤S506)。此时,在步骤S504中确定的物品的外边缘被叠加在图像中的物品上,使得外边缘的范围的取向和中心点(质心)与物品的范围的取向和中心点(质心)相匹配。例如,物品的外边缘被预先存储在识别信息存储单元151中。注意,物品的外边缘可以是预先登记的物品图像的外边缘,或者可以存储预先登记的物品的外边缘本身(即,表示外边缘的点或者线的集合)。
接下来,尺寸确定单元160计算被叠加在物品上的外边缘上的参考点与参考线Q之间的距离作为差异R(步骤S507)。例如,外边缘上最接近参考线Q的点可以被定义为外边缘的参考点,并且参考点与参考线Q之间的距离可以被用作差异R。可替代地,外边缘的任何边的中点可以被定义为外边缘上的参考点,并且参考点与参考线Q之间的距离可以被用作差异R。可替代地,外边缘的边中的每条边的中点可以被定义为外边缘上的每个参考点,并且相应参考点与参考线Q之间的多个距离可以被用作差异R。可替代地,可以通过检测物品的取向来确定外边缘的底边,该底边上的特定点(例如,端点或者中点)可以被定义为外边缘上的参考点,并且参考点与参考线Q之间的距离可以被用作差异R。
如果在步骤S507中计算得出的差异R在预定范围内(步骤S508,是),则物品信息获取单元130基于在步骤S504中确定的物品的物品ID来从物品信息存储单元152获取物品信息,并且显示控制单元140通过使用显示设备13来执行控制以显示物品信息(步骤S509)。
如果在步骤S507中计算得出的差异R不在预定范围内(步骤S508,否),则物品信息获取单元130丢弃在步骤S504中确定的物品的识别结果(步骤S510)。
具体地,当在每个预定时间处执行图20所示流程图时,可以重复获取有关被放置在放置台14上的同一物品的物品信息,并且可以在支付时多次收集同一物品的价格。因此,当图像识别单元120在预定时间段内或者预定数量的帧内在接近的位置(例如,质心的位置差异低于预定值)处标识到同一物品时,物品信息获取单元130不在步骤S509中执行获取有关物品的物品信息(在图20所示流程图中未图示)。
在图20所示流程图中,虽然在步骤S504中暂时确定了物品,并且如果与参考线的差异的预定范围之外,则在步骤S510中丢弃物品的识别结果,但是处理不限于该具体形式。例如,可以在步骤S504中提取与图像中的物品相似的多个物品候选,并且,在该多个候选中,可以将其与参考线的差异满足预定标准的候选(例如,差异最小)确定为图像中的物品。
POS终端100的CPU 101是在图20中图示的图像识别方法中包括的每个步骤(处理)的主题。即,CPU 101通过从存储器102或者存储设备103读取用于执行在图20中图示的图像识别方法的程序并且执行该程序以控制POS终端100的每个单元来执行在图20中图示的图像识别方法。
除了物品的外观之外,根据本示例实施例的图像识别***10还通过使用物品的外边缘与参考线(参考坐标)之间的位置差异来标识图像。因此,即使当存在具有不同尺寸的多个相似物品时,也可以确定具有接近图像中的物品的尺寸的物品,并且因此,可以提高图像识别的准确度。
进一步地,虽然本示例实施例基于物品的底面与参考线相匹配的条件,但是由于支撑部分200支撑物品并且参考线与底面支撑面221对应,因此,物品(物品的底面)可以容易地与参考线相匹配。
[第七示例实施例]
虽然在第六示例实施例中通过使用支撑部分200来使物品的位置与参考线Q相匹配,但是在本示例实施例中,物品的位置与用户在放置台14上表示的参考线Q相匹配。本示例实施例使用具有与第六示例实施例的配置相同的配置的图像识别***10。可以使用本示例实施例,而不是第一示例实施例至第六示例实施例中的任何一个实施例,或者可以结合第一示例实施例至第六示例实施例中的任何一个示例实施例使用本示例实施例。
图21是根据本示例实施例的放置台14上的识别区域A的顶视图。在图21中,通过虚线图示了图像捕获设备11投射在放置台14上的位置。在尺寸确定中被用作参考的参考线Q被表达在识别区域A内部。参考线Q由可以在视觉上向用户指示的任何方法表示,并且例如,可以由诸如被设置在放置台14上或者中的突起或者凹部等结构、在放置台14上表示的符号或者颜色、或者由投射设备12投射的光表示。
在由图像捕获设备11获取的图像中参考线Q的位置可以由用户预设,或者可以由对在识别区域A内的参考线Q执行图像识别的图像识别单元120设置。
在执行图像识别之前,用户可以布置可以具有不同尺寸的变化的物品D1和D2(诸如,饮料罐),使得其底面与参考线Q相匹配。注意,对于不具有变化的物品,用户可以在识别区域A上的任何区域中布置这种物品。
接下来,用户执行用于在图像识别***10上执行图像识别方法的操作。图像识别***10根据在图20所示流程图中图示的图像识别方法来对被布置在放置台14上的物品D1和D2执行图像识别。然后,图像识别***10基于被表示在识别区域A内的参考线Q来确定尺寸。
然后,图像识别***10在显示设备13上显示有关通过图像识别而标识到的物品的物品信息。
在本示例实施例中,虽然与第一示例实施例不同,努力通过用户的手来布置要与参考线Q相匹配的物品,但是即使当存在具有不同尺寸的多个相似物品时,也可以选择性地标识具有接近图像中的物品的尺寸的物品,并且因此,可以提高图像识别的准确度。
[第八示例实施例]
虽然第六示例实施例和第七示例实施例具有在POS终端中的支付处的物品的目标图像识别,但是本示例实施例以对被放置在架上的物品进行图像识别为目标。下面将主要描述与第六示例实施例的那些特征不同的特征。
图22是根据本示例实施例的图像识别***20的示意图。图像识别***20具有图像识别装置300和作为图像识别的目标的物品被布置在其上的架400。图像识别装置300被连接到图像捕获设备11,该图像捕获设备11被设置在可以捕获架400上的物品的位置处并且被连接至显示与物品有关的信息的显示设备13。图像捕获设备11和显示设备13的配置与第六示例实施例中的那些配置相同。虽然在第六示例实施例中省略了投射设备12,但是可以提供投射设备12。
虽然在第六示例实施例中,POS终端100是图像识别装置,但是在本示例实施例中,通用计算机被用作图像识别装置300。与第六示例实施例一样,可以与另一装置(诸如,POS终端)一体地配置图像识别装置300。
图像识别装置300的设备配置与在图6中图示的POS终端100的设备配置相同。图像识别装置300通过图像识别方法来标识架400上的物品,并且在显示设备13上显示有关架400上的一个或者多个物品的布置的信息。例如,有关一个或者多个物品的布置的信息可以是有关被布置的特定物品的数量和位置的信息、关于对一个或者多个物品的布置是否满足参考的显示条件的信息等。
图像捕获设备11被设置某一位置处以便能够捕获架400的正面并且被固定至支柱、臂、天花板等(未图示)。为了通过单个图像捕获设备11来对架400的宽的区域进行图像识别,需要图像捕获设备11是可移动的并且能够捕获架400上的不同区域。图像捕获设备11能够捕获至少包括架400的正面的区域,并且向图像识别装置300传输指示捕获到的图像的信号。指示由图像捕获设备11捕获的图像的信号可以被直接传输至图像识别装置300,或者可以被一次存储在存储设备中并且然后由图像识别装置300读取。图像捕获设备11可以按照预定时间间隔来执行捕获,或者可以根据来自图像识别装置300的指令来执行捕获。
图23是根据本示例实施例的架400的前视图。架400具有沿水平方向(即,垂直于重力方向的方向)延伸的至少一个架板410。物品D1和D2被放置在架板410上。当物品D1和D2的布置可以由图像捕获设备11捕获时,透明的门可以被设置在架400的正面侧上。
在本示例实施例中,架板410的顶面与在尺寸确定中被用作参考的参考线Q对应。因此,被布置在架400上的物品D1和D2的预定面(此处,为底面)自然与参考线Q相匹配。
在由图像捕获设备11获取的图像中的参考线Q的位置可以由用户预设,或者可以由对架板410执行图像识别的图像识别单元120设置。
当执行图像识别时,用户执行用于在图像识别***20上执行图像识别方法的操作。图像识别***20根据在图20中图示的图像识别方法来对被布置在架400上的物品D1和D2执行图像识别。然后,图像识别***10基于参考线Q(即,架板410的顶面)来确定尺寸。
然后,图像识别***20使用有关通过图像识别而标识的物品的物品信息以在显示设备13上显示有关架400上的物品的布置的信息。
根据本示例实施例的图像识别***20对被布置在架上的物品而不是支付处的物品执行图像识别,并且输出有关物品的布置的信息。此时,即使当存在具有不同尺寸的多个相似物品时,由于可以选择性地标识具有接近图像中的物品的尺寸的物品,因此,也可以提高图像识别的准确度。进一步地,由于其上布置有物品的架板的顶面被用作尺寸确定的参考线,因此,物品(物品的底面)可以容易地与参考线相匹配。
[其它示例实施例]
图24是根据上面描述的示例实施例中的每个示例实施例的图像识别***10的一般配置图。图24图示了图像识别***10对物品的侧面执行图像识别的配置示例。图像识别***10具有被用于将物品放置在图像捕获设备下方的放置台14,图像捕获设备被提供以便执行向下方向的捕获、被配置为相对于放置台的顶面以预定角度支撑物品的支撑结构(支撑部分)200,以及通过对由图像捕获设备获取的物品的图像执行图像识别来标识物品的图像识别装置(POS终端)100。
图25是根据上面描述的示例实施例中的每个示例实施例的POS终端100的一般配置图。图25图示了POS终端100用作通过使用有关物品的位置的信息来执行图像识别的图像识别装置的配置示例。POS终端100具有获取被布置在识别区域中的物品的图像的图像获取单元110以及基于在所获取的图像中的物品的外观和所获取的图像中的识别区域中的物品的位置来标识物品的图像识别单元120。
图26是根据上面描述的示例实施例中的每个示例实施例的图像识别装置的一般配置图。图26图示了图像识别装置(即,POS终端100或者图像识别装置300)用作通过使用有关参考坐标的信息来对物品执行图像识别的装置的配置示例。图像识别装置(POS终端)100和300中的每一个具有获取被布置成使得预定面被定位在参考坐标处的物品的图像的图像获取单元110、基于获取的图像中的物品的外观来提取与获取的图像中的物品相对应的物品的图像识别单元(提取单元)120,以及将提取的物品的外边缘叠加在获取的图像中的物品上、计算外边缘与参考坐标之间的差异、并且基于差异来确定获取的图像中的物品的尺寸确定单元(确定单元)160。
本发明不限于上面描述的示例实施例,而是在不脱离本发明的精神的范围内,可以适当地改变本发明。
进一步地,示例实施例中的每个示例实施例的范围包括一种处理方法,该处理方法在存储介质中存储使示例实施例中的每个示例实施例的配置以运行以便实施上面描述的示例实施例中的每个示例实施例的功能的程序(例如,使POS终端100执行在图7、图11、图13、图15和图20中图示的处理的程序),将被存储在存储介质中的程序读取为代码,并且在计算机中执行程序。即,示例实施例中的每个示例实施例的范围还包括计算机可读存储介质。进一步地,示例实施例中的每个示例实施例不仅包括存储上面描述的计算机程序的存储介质,而且包括计算机程序本身。
作为存储介质,例如,可以使用floppy(注册商标)盘、硬盘、光盘、磁光盘、CD-ROM、磁带、非易失性存储卡或者ROM。进一步地,示例实施例中的每个示例实施例的范围包括在OS上操作以与另一软件或者外接板的功能协作地执行处理的示例,而不限于通过被存储在存储介质中的单独的程序来执行处理的示例。
上面描述的全部或者部分示例实施例可以被描述为但是不限于以下补充说明。
(补充说明1)
一种图像识别***,包括:
放置台,被用于将物品放置在图像捕获设备下方,该图像捕获设备被提供以执行向下方向的捕获;
支撑结构,被配置为以相对于放置台的顶面的预定角度支撑物品;以及
图像识别装置,通过对由图像捕获设备获取的、物品的图像执行图像识别来标识物品。
(补充说明2)
根据补充说明1的图像识别***,其中,图像识别装置被配置为:针对被直接放置在放置台上的物品和由支撑结构支撑的物品执行不同的图像识别。
(补充说明3)
根据补充说明1或者2的图像识别***,
其中,图像识别装置被配置为对放置台上的预定识别区域执行图像识别,并且
其中,支撑结构被设置成接触识别区域的端部或者靠近识别区域的端部。
(补充说明4)
根据补充说明3的图像识别***,其中,支撑结构被设置在相较于线的中点更接近识别区域的端部的位置处,该线在图像捕获设备的光轴和识别区域相交的点与识别区域的端部之间。
(补充说明5)
根据补充说明3或者4的图像识别***,还包括投射设备,对识别区域进行投射。
(补充说明6)
根据补充说明1至5中任一项的图像识别***,其中,支撑结构具有侧面支撑面,该侧面支撑面形成相对于放置台的顶面的角度。
(补充说明7)
根据补充说明6的图像识别***,其中支撑结构具有垂直于侧面支撑面的底面支撑面。
(补充说明8)
根据补充说明1至7中任一项的图像识别***,其中,角度大于0度并且小于90度。
(补充说明9)
根据补充说明8的图像识别***,其中,角度大于或者等于30度并且小于或者等于60度。
(补充说明10)
根据补充说明8或者9的图像识别***,其中,图像识别装置被配置为:通过使用角度来校正图像,并且对经校正的图像执行图像识别。
(补充说明11)
根据补充说明1至10中任一项的图像识别***,其中,图像识别装置包括:
图像获取单元,获取被布置在识别区域中的物品的图像,以及
图像识别单元,基于所获取的图像中的物品的外观和所获取的图像中的识别区域中的物品的位置来标识物品。
(补充说明12)
根据补充说明11的图像识别***,
其中,识别区域被划分为至少两个区域,并且
其中,图像识别单元通过分别使用针对至少两个区域的不同的过程来标识物品。
(补充说明13)
根据补充说明12的图像识别***,其中,至少两个区域由以下中的任何一项来表示:在识别区域上表达的符号或者颜色、被投射在识别区域上的光、以及被设置在识别区域上的结构。
(补充说明14)
根据补充说明11至13中任一项的图像识别***,
其中,图像获取单元获取由支撑结构支撑的物品的图像,支撑结构被设置在识别区域中,并且
其中,图像识别单元基于所获取的图像中的物品的外观和支撑结构上的物品的位置来标识物品。
(补充说明15)
根据补充说明11至14中任一项的图像识别***,其中,图像识别单元基于识别区域中的物品的位置来确定物品的尺寸,并且通过使用该尺寸来标识物品。
(补充说明16)
根据补充说明11至15中任一项的图像识别***,其中,当标识物品时,图像识别单元基于识别区域中的物品的位置来确定物品的类型,并且通过使用该类型来标识物品。
(补充说明17)
根据补充说明11至16中任一项的图像识别***,其中,当标识物品时,图像识别单元基于识别区域中的物品的位置来确定所获取的图像中的识别区域中的物品的位置的亮度,并且通过使用该亮度来标识物品。
(补充说明18)
一种图像识别方法,包括以下步骤:
获取被布置在识别区域中的物品的图像;以及
基于所获取的图像中的物品的外观和所获取的图像中的识别区域中的物品的位置来标识物品。
(补充说明19)
一种存储程序的存储介质,该程序使计算机执行以下步骤:
获取被布置在识别区域中的物品的图像;以及
基于所获取的图像中的物品的外观和所获取的图像中的识别区域中的物品的位置来标识物品。
(补充说明20)
根据补充说明1至17中任一项的图像识别***,
其中,图像识别装置包括:
图像获取单元,获取物品的图像,物品被布置成使得预定面被定位在参考坐标上,
提取单元,基于所获取的图像中的物品的外观来提取与所获取的图像中的物品相对应的物品,以及
确定单元,将所提取的物品的外边缘叠加在所获取的图像中的物品上,计算外边缘与参考坐标之间的差异,并且基于差异来确定所获取的图像中的物品。
(补充说明21)
根据补充说明20的图像识别***,其中,当差异在预定范围内时,确定单元将所提取的物品确定为所获取的图像中的物品。
(补充说明22)
根据补充说明20或者21的图像识别***,其中,确定单元将外边缘叠加在所获取的图像中的物品上,使得所获取的图像中的物品的中心与外边缘的中心相匹配。
(补充说明23)
根据补充说明20至22中任一项的图像识别***,其中,外边缘限定围绕所提取的物品的矩形区域。
(补充说明24)
根据补充说明20至23中任一项的图像识别***,
其中,物品由支撑结构支撑,该支撑结构具有被配置为支撑物品的预定面的支撑面,并且
其中,参考坐标与支撑面相对应。
(补充说明25)
根据补充说明20至23中任一项的图像识别***,
其中,物品被放置在沿水平方向延伸的放置台上,并且
其中,参考坐标被表示在放置台上。
(补充说明26)
根据补充说明20至23中任一项的图像识别***,
其中,物品被布置在架上,该架具有沿水平方向延伸的架板,并且
其中,参考坐标与架板的顶面相对应。
(补充说明27)
一种图像识别方法包括以下步骤:
获取物品的图像,物品被布置成使得预定面被定位在参考坐标上;
基于所获取的图像中的物品的外观,提取与所获取的图像中的物品相对应的物品;
将所提取的物品的外边缘叠加在所获取的图像中的物品上;
计算外边缘与参考坐标之间的差异;以及
基于差异,确定所获取的图像中的物品。
(补充说明28)
一种存储程序的存储介质,该程序使计算机执行以下步骤:
获取物品的图像,物品被布置成使得预定面被定位在参考坐标上;
基于所获取的图像中的物品的外观,提取与所获取的图像中的物品相对应的物品;
将所提取的物品的外边缘叠加在所获取的图像中的物品上;
计算外边缘与参考坐标之间的差异;以及
基于差异,确定所获取的图像中的物品。
如上所述,虽然已经参照示例实施例描述了本发明,但是本发明不限于上面描述的示例实施例。在本发明的范围内,可以对本发明的特征或者细节进行本领域的技术人员可以理解的各种修改。
本申请基于2017年2月14日提交的日本专利申请第2017-024890号、2017年2月14日提交的日本专利申请第2017-024891号和2017年2月14日提交的日本专利申请第2017-024892号并且要求其优先权权益,其公开内容通过引用的方式全部并入本文。
[参考符号列表]
10、20 图像识别***
11 图像捕获设备
12 投射设备
13 显示设备
14 放置台
100、300 POS终端(图像识别装置)
101 CPU
102 存储器
103 存储设备
104 接口
110 图像获取单元
120 图像识别单元
130 物品信息获取单元
140 显示控制单元
160 尺寸确定单元
200 支撑部分
211 侧面支撑面
221 底面支撑面
A 识别区域
P1、P2 外边缘
Q 参考线

Claims (28)

1.一种图像识别***,其特征在于,包括:
放置台,所述放置台被用于将物品放置在图像捕获设备下方,所述图像捕获设备被提供以执行向下方向的捕获;
支撑结构,所述支撑结构被配置为以相对于所述放置台的顶面的预定角度支撑所述物品,所述支撑结构包括相对于所述顶面倾斜以支撑所述物品的至少两个第一表面、以及垂直于所述至少两个第一表面的至少两个第二表面;以及
图像识别装置,所述图像识别装置通过对由所述图像捕获设备获取的、所述物品的图像执行图像识别来标识所述物品。
2.根据权利要求1所述的图像识别***,其中所述图像识别装置被配置为:针对被直接放置在所述放置台上的所述物品和由所述支撑结构支撑的所述物品,执行不同的所述图像识别。
3.根据权利要求1或2所述的图像识别***,
其中所述图像识别装置被配置为对所述放置台上的预定识别区域执行所述图像识别,并且
其中所述支撑结构被设置成接触所述识别区域的端部、或者靠近所述识别区域的所述端部。
4.根据权利要求3所述的图像识别***,其中所述支撑结构被设置在相较于线的中点更接近所述识别区域的所述端部的位置处,所述线在所述图像捕获设备的光轴和所述识别区域相交的点与所述识别区域的所述端部之间。
5.根据权利要求3所述的图像识别***,还包括投射设备,所述投射设备对所述识别区域进行投射。
6.根据权利要求1或2所述的图像识别***,其中所述支撑结构具有侧面支撑面,所述侧面支撑面形成相对于所述放置台的顶面的所述角度。
7.根据权利要求6所述的图像识别***,其中所述支撑结构具有垂直于所述侧面支撑面的底面支撑面。
8.根据权利要求1或2所述的图像识别***,其中所述角度大于0度并且小于90度。
9.根据权利要求8所述的图像识别***,其中所述角度大于或等于30度、并且小于或等于60度。
10.根据权利要求8所述的图像识别***,其中所述图像识别装置被配置为:通过使用所述角度来校正所述图像,并且对经校正的所述图像执行所述图像识别。
11.根据权利要求1或2所述的图像识别***,其中所述图像识别装置包括:
图像获取单元,所述图像获取单元获取被布置在识别区域中的所述物品的所述图像,以及
图像识别单元,所述图像识别单元基于所获取的所述图像中的所述物品的外观和所获取的所述图像中的所述识别区域中的所述物品的位置,来标识所述物品。
12.根据权利要求11所述的图像识别***,
其中所述识别区域被划分为至少两个区域,并且
其中所述图像识别单元通过分别使用针对所述至少两个区域的不同的过程来标识所述物品。
13.根据权利要求12所述的图像识别***,其中所述至少两个区域由以下中的任何一项来表示:在所述识别区域上表达的符号或颜色、被投射在所述识别区域上的光、以及被设置在所述识别区域上的结构。
14.根据权利要求11所述的图像识别***,
其中所述图像获取单元获取由所述支撑结构支撑的所述物品的所述图像,所述支撑结构被设置在所述识别区域中,并且
其中所述图像识别单元基于所获取的所述图像中的所述物品的外观和所述支撑结构上的所述物品的位置,来标识所述物品。
15.根据权利要求11所述的图像识别***,其中所述图像识别单元基于所述识别区域中的所述物品的所述位置来确定所述物品的尺寸,并且通过使用所述尺寸来标识所述物品。
16.根据权利要求11所述的图像识别***,其中当标识所述物品时,所述图像识别单元基于所述识别区域中的所述物品的所述位置来确定所述物品的类型,并且通过使用所述类型来标识所述物品。
17.根据权利要求11所述的图像识别***,其中当标识所述物品时,所述图像识别单元基于所述识别区域中的所述物品的所述位置,来确定所获取的所述图像中的、所述识别区域中的所述物品的所述位置的亮度,并且通过使用所述亮度来标识所述物品。
18.根据权利要求1或2所述的图像识别***,
其中所述图像识别装置包括:
图像获取单元,所述图像获取单元获取所述物品的所述图像,所述物品被布置成使得预定面被定位在参考坐标上,
提取单元,所述提取单元基于所获取的所述图像中的所述物品的外观,来提取与所获取的所述图像中的所述物品相对应的物品,以及
确定单元,所述确定单元将所提取的物品的外边缘叠加在所获取的所述图像中的所述物品上,计算所述外边缘与所述参考坐标之间的差异,并且基于所述差异来确定所获取的所述图像中的所述物品。
19.根据权利要求18所述的图像识别***,其中当所述差异在预定范围内时,所述确定单元将所提取的所述物品确定为所获取的所述图像中的所述物品。
20.根据权利要求18所述的图像识别***,其中所述确定单元将所述外边缘叠加在所获取的所述图像中的所述物品上,使得所获取的所述图像中的所述物品的中心与所述外边缘的中心相匹配。
21.根据权利要求18所述的图像识别***,其中所述外边缘限定围绕所提取的所述物品的矩形区域。
22.根据权利要求18所述的图像识别***,
其中所述物品由所述支撑结构支撑,所述支撑结构具有被配置为支撑所述物品的所述预定面的支撑面,并且
其中所述参考坐标与所述支撑面相对应。
23.根据权利要求18所述的图像识别***,
其中所述物品被放置在沿水平方向延伸的所述放置台上,并且
其中所述参考坐标被表示在所述放置台上。
24.根据权利要求18所述的图像识别***,
其中所述物品被布置在架上,所述架具有沿水平方向延伸的架板,并且
其中所述参考坐标与所述架板的顶面相对应。
25.一种使用图像识别***的图像识别方法,其特征在于,所述图像识别***包括:
放置台,所述放置台被用于将物品放置在图像捕获设备下方,所述图像捕获设备被提供以执行向下方向的捕获;
支撑结构,所述支撑结构被配置为以相对于所述放置台的顶面的预定角度支撑所述物品,所述支撑结构包括相对于所述顶面倾斜以支撑所述物品的至少两个第一表面、以及垂直于所述至少两个第一表面的至少两个第二表面;
所述图像识别方法包括以下步骤:
获取所述物品的图像,所述物品被布置在所述放置台上的识别区域中,所述图像由所述图像捕获设备获取;以及
基于所获取的所述图像中的所述物品的外观和所获取的所述图像中的所述识别区域中的所述物品的位置,来标识所述物品;
其中所述识别区域被划分为至少两个区域,并且
其中标识的所述步骤通过分别使用针对所述至少两个区域的不同的过程来标识所述物品。
26.一种存储程序的存储介质,其特征在于,所述程序使计算机执行以下步骤:
获取物品的图像,所述物品被布置在放置台上的识别区域中,所述图像由图像捕获设备获取;以及
基于所获取的所述图像中的所述物品的外观和所获取的所述图像中的所述识别区域中的所述物品的位置,来标识所述物品;
其中所述识别区域被划分为至少两个区域,并且
其中标识的所述步骤通过分别使用针对所述至少两个区域的不同的过程来标识所述物品;
所述计算机被包括在图像识别***中,所述图像识别***包括:
放置台,所述放置台被用于将物品放置在所述图像捕获设备下方,所述图像捕获设备被提供以执行向下方向的捕获;
支撑结构,所述支撑结构被配置为以相对于所述放置台的顶面的预定角度支撑所述物品,所述支撑结构包括相对于所述顶面倾斜以支撑所述物品的至少两个第一表面、以及垂直于所述至少两个第一表面的至少两个第二表面。
27.一种使用图像识别***的图像识别方法,其特征在于,所述图像识别***包括:
放置台,所述放置台被用于将物品放置在图像捕获设备下方,所述图像捕获设备被提供以执行向下方向的捕获;
支撑结构,所述支撑结构被配置为以相对于所述放置台的顶面的预定角度支撑所述物品,所述支撑结构包括相对于所述顶面倾斜以支撑所述物品的至少两个第一表面、以及垂直于所述至少两个第一表面的至少两个第二表面;以及
图像识别装置,所述图像识别装置通过对由所述图像捕获设备获取的、所述物品的图像执行图像识别来标识所述物品,
所述图像识别方法包括以下步骤:
获取所述物品的图像,所述物品被布置成使得预定面被定位在参考坐标上,所述图像通过所述图像捕获设备被获取;
基于所获取的所述图像中的所述物品的外观,提取与所获取的所述图像中的所述物品相对应的物品;
将所提取的所述物品的外边缘叠加在所获取的所述图像中的所述物品上;
计算所述外边缘与所述参考坐标之间的差异;以及
基于所述差异,确定所获取的所述图像中的所述物品。
28.一种存储程序的存储介质,其特征在于,所述程序使被包括在图像识别***中的计算机执行以下步骤:
获取物品的图像,所述物品被布置成使得预定面被定位在参考坐标上,所述图像通过图像捕获设备被获取;
基于所获取的所述图像中的所述物品的外观,提取与所获取的所述图像中的所述物品相对应的物品;
将所提取的所述物品的外边缘叠加在所获取的所述图像中的所述物品上;
计算所述外边缘与所述参考坐标之间的差异;以及
基于所述差异,确定所获取的所述图像中的所述物品;
所述图像识别***包括:
放置台,所述放置台被用于将物品放置在所述图像捕获设备下方,所述图像捕获设备被提供以执行向下方向的捕获;以及
支撑结构,所述支撑结构被配置为以相对于所述放置台的顶面的预定角度支撑所述物品;
其中所述支撑结构包括相对于所述顶面倾斜以支撑所述物品的至少两个第一表面、以及垂直于所述至少两个第一表面的至少两个第二表面。
CN201880011459.8A 2017-02-14 2018-02-08 图像识别***、图像识别方法和存储介质 Active CN110326032B (zh)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP2017-024892 2017-02-14
JP2017024891A JP6862888B2 (ja) 2017-02-14 2017-02-14 画像認識装置、システム、方法およびプログラム
JP2017-024891 2017-02-14
JP2017024890A JP6801490B2 (ja) 2017-02-14 2017-02-14 画像認識システム
JP2017024892A JP6878938B2 (ja) 2017-02-14 2017-02-14 画像認識装置、システム、方法およびプログラム
JP2017-024890 2017-02-14
PCT/JP2018/004422 WO2018151008A1 (ja) 2017-02-14 2018-02-08 画像認識システム、画像認識方法及び記録媒体

Publications (2)

Publication Number Publication Date
CN110326032A CN110326032A (zh) 2019-10-11
CN110326032B true CN110326032B (zh) 2022-05-03

Family

ID=63169454

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880011459.8A Active CN110326032B (zh) 2017-02-14 2018-02-08 图像识别***、图像识别方法和存储介质

Country Status (3)

Country Link
US (2) US11367266B2 (zh)
CN (1) CN110326032B (zh)
WO (1) WO2018151008A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7062507B2 (ja) * 2018-05-08 2022-05-16 東芝テック株式会社 物品認識装置
US20230064123A1 (en) 2020-02-20 2023-03-02 Nec Corporation Article specification apparatus, article specification method, and non-transitory storage medium
CN112270664A (zh) * 2020-04-16 2021-01-26 上海扩博智能技术有限公司 透明包装产品检测方法、***、设备和存储介质

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10050083A1 (de) * 2000-10-10 2002-04-18 Sick Ag Vorrichtung und Verfahren zur Erfassung von Objekten
JP4016735B2 (ja) * 2001-11-30 2007-12-05 株式会社日立製作所 レーンマーク認識方法
JP4260634B2 (ja) * 2002-02-15 2009-04-30 富士通株式会社 画像変換方法及び装置、画像認識装置、ロボット制御装置並びに画像投影装置
JP4042780B2 (ja) * 2005-11-04 2008-02-06 オムロン株式会社 物体認識方法、物体認識用のプログラムならびにその記憶媒体、および物体認識装置
JP2010008272A (ja) * 2008-06-27 2010-01-14 Maspro Denkoh Corp ミリ波撮像装置
CN202111802U (zh) * 2010-02-12 2012-01-11 王炳立 多图像传感器的监控设备的校准装置
JP5780865B2 (ja) * 2011-07-14 2015-09-16 キヤノン株式会社 画像処理装置、撮像システム、画像処理システム
JP2013045434A (ja) * 2011-08-26 2013-03-04 Toshiba Tec Corp 硬貨入出金装置、硬貨入出金装置の制御方法及び制御プログラム
EP2751748B1 (en) 2011-08-30 2019-05-08 Digimarc Corporation Methods and arrangements for identifying objects
US9129277B2 (en) * 2011-08-30 2015-09-08 Digimarc Corporation Methods and arrangements for identifying objects
US11288472B2 (en) * 2011-08-30 2022-03-29 Digimarc Corporation Cart-based shopping arrangements employing probabilistic item identification
JP5431429B2 (ja) 2011-09-06 2014-03-05 東芝テック株式会社 情報処理装置及びプログラム
CN102495026B (zh) 2011-11-23 2013-08-28 天津大学 一种用于线激光扫描视觉测量***的光带中心线提取方法
JP5451787B2 (ja) 2012-01-31 2014-03-26 東芝テック株式会社 情報処理装置、店舗システム及びプログラム
JP2013250768A (ja) 2012-05-31 2013-12-12 Toshiba Tec Corp 商品認識装置及び商品認識プログラム
US8960549B2 (en) * 2012-06-29 2015-02-24 Ncr Corporation Method, apparatus and system for scanning an optical code
JP6005750B2 (ja) * 2012-08-28 2016-10-12 株式会社日立製作所 認証装置、及び認証方法
JP2014049015A (ja) 2012-09-03 2014-03-17 Toshiba Tec Corp 商品認識装置及び商品認識プログラム
JP5677389B2 (ja) 2012-09-06 2015-02-25 東芝テック株式会社 情報処理装置及びプログラム
US9595029B1 (en) * 2012-10-04 2017-03-14 Ecr Software Corporation System and method for self-checkout, scan portal, and pay station environments
US9514369B2 (en) * 2012-12-06 2016-12-06 Nec Corporation Program, method, and system for displaying image recognition processing suitability
JP6027875B2 (ja) * 2012-12-07 2016-11-16 オリンパス株式会社 撮像装置及び顕微鏡システム
JP6239262B2 (ja) * 2013-05-09 2017-11-29 株式会社東芝 区分システム及び区分方法
US10650264B2 (en) * 2013-05-31 2020-05-12 Nec Corporation Image recognition apparatus, processing method thereof, and program
US20160203499A1 (en) 2013-09-06 2016-07-14 Nec Corporation Customer behavior analysis system, customer behavior analysis method, non-transitory computer readable medium, and shelf system
JP6220679B2 (ja) 2014-01-08 2017-10-25 東芝テック株式会社 情報処理装置、店舗システム及びプログラム
JP2015138349A (ja) 2014-01-21 2015-07-30 東芝テック株式会社 商品読取装置、販売データ処理装置および制御プログラム
US20150310601A1 (en) * 2014-03-07 2015-10-29 Digimarc Corporation Methods and arrangements for identifying objects
WO2015140855A1 (ja) * 2014-03-20 2015-09-24 日本電気株式会社 Pos端末装置、posシステム、画像処理方法及びプログラムが格納された非一時的なコンピュータ可読媒体
JP2015194791A (ja) 2014-03-31 2015-11-05 日本電気株式会社 Pos端末装置
FR3020871B1 (fr) * 2014-05-07 2017-08-11 Areva Dispositif et procede de reconstruction tridimensionnelle d'une scene par analyse d'image
US9239943B2 (en) * 2014-05-29 2016-01-19 Datalogic ADC, Inc. Object recognition for exception handling in automatic machine-readable symbol reader systems
JP2016033694A (ja) * 2014-07-30 2016-03-10 東芝テック株式会社 物体認識装置及び物体認識プログラム
KR20160056466A (ko) * 2014-11-11 2016-05-20 삼성디스플레이 주식회사 표면 검사 장치, 표면 검사 방법 및 표시 장치의 제조 방법
US9330474B1 (en) 2014-12-23 2016-05-03 Ricoh Co., Ltd. Distinguishing between stock keeping units using a physical dimension of a region depicted in an image
JP6341124B2 (ja) * 2015-03-16 2018-06-13 カシオ計算機株式会社 オブジェクト認識装置および認識結果提示方法
JP6348887B2 (ja) * 2015-07-15 2018-06-27 東芝テック株式会社 販売データ処理装置およびプログラム
CN204946113U (zh) * 2015-08-11 2016-01-06 华南理工大学 一种光轴垂直度调整装置
CN204883835U (zh) * 2015-08-31 2015-12-16 丁慧洁 利用成像技术对外来物体碎片的识别装置
CN108698402B (zh) * 2016-02-12 2019-11-29 花王株式会社 喷墨记录装置
US10319094B1 (en) * 2016-05-20 2019-06-11 Ccc Information Services Inc. Technology for capturing, transmitting, and analyzing images of objects
JP6283806B2 (ja) * 2016-06-01 2018-02-28 サインポスト株式会社 情報処理システム
CN106204622A (zh) * 2016-07-22 2016-12-07 浙江大学 一种基于tv约束的断层相位显微镜重建方法

Also Published As

Publication number Publication date
WO2018151008A1 (ja) 2018-08-23
US20200012878A1 (en) 2020-01-09
US11367266B2 (en) 2022-06-21
US20220262088A1 (en) 2022-08-18
CN110326032A (zh) 2019-10-11

Similar Documents

Publication Publication Date Title
US11900316B2 (en) Information processing apparatus, control method, and program
US20220262088A1 (en) Image recognition system, image recognition method, and storage medium
US11049279B2 (en) Device for detecting positional relationship among objects
US9961256B2 (en) Apparatus and method for specifying and aiming cameras at shelves
CA3095182C (en) Method, system and apparatus for correcting translucency artifacts in data representing a support structure
CN108364047B (zh) 电子价签、电子价签***及数据处理方法
US20150154449A1 (en) Method and apparatus for recognizing actions
US20200282429A1 (en) Package sorting system, projected instruction device, and package sorting method
CN110622173A (zh) 贴错标签的产品的检测
WO2020186520A1 (zh) 价签信息显示方法、装置及货架***
US11600084B2 (en) Method and apparatus for detecting and interpreting price label text
US10922571B2 (en) Information processing apparatus, information processing method, and program
US9123214B2 (en) Commodity sales data processing device
JP6878938B2 (ja) 画像認識装置、システム、方法およびプログラム
US10740614B2 (en) Information processing device, information processing method, and program storing medium
JP6801490B2 (ja) 画像認識システム
JP6862888B2 (ja) 画像認識装置、システム、方法およびプログラム
CN113538784B (zh) 智能货柜以及物品识别方法
US20210027062A1 (en) Object detection system using image recognition, object detection device using image recognition, object detection method using image recognition, and non-transitory storage medium
JP2016157209A (ja) 商品販売データ処理装置
JP7316203B2 (ja) 情報処理システム、情報処理装置、および情報処理方法
CN112074842B (zh) 价签信息显示方法、装置及货架***
US20170161529A1 (en) Object recognition encoder
Lam et al. FYP 17017 Augmented Reality Stocktaking System with RGB-D based Object Counting

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant