WO2018151008A1 - 画像認識システム、画像認識方法及び記録媒体 - Google Patents

画像認識システム、画像認識方法及び記録媒体 Download PDF

Info

Publication number
WO2018151008A1
WO2018151008A1 PCT/JP2018/004422 JP2018004422W WO2018151008A1 WO 2018151008 A1 WO2018151008 A1 WO 2018151008A1 JP 2018004422 W JP2018004422 W JP 2018004422W WO 2018151008 A1 WO2018151008 A1 WO 2018151008A1
Authority
WO
WIPO (PCT)
Prior art keywords
product
image
image recognition
unit
recognition
Prior art date
Application number
PCT/JP2018/004422
Other languages
English (en)
French (fr)
Inventor
亮真 飯尾
岩元 浩太
秀雄 横井
亮 高田
小山 和也
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017024891A external-priority patent/JP6862888B2/ja
Priority claimed from JP2017024890A external-priority patent/JP6801490B2/ja
Priority claimed from JP2017024892A external-priority patent/JP6878938B2/ja
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US16/485,680 priority Critical patent/US11367266B2/en
Priority to CN201880011459.8A priority patent/CN110326032B/zh
Publication of WO2018151008A1 publication Critical patent/WO2018151008A1/ja
Priority to US17/739,439 priority patent/US20220262088A1/en

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07GREGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
    • G07G1/00Cash registers
    • G07G1/0036Checkout procedures
    • G07G1/0045Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F9/00Details other than those peculiar to special kinds or types of apparatus
    • G07F9/02Devices for alarm or indication, e.g. when empty; Advertising arrangements in coin-freed apparatus
    • G07F9/026Devices for alarm or indication, e.g. when empty; Advertising arrangements in coin-freed apparatus for alarm, monitoring and auditing in vending machines or means for indication, e.g. when empty
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07GREGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
    • G07G1/00Cash registers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/09Recognition of logos

Definitions

  • the present invention relates to an image recognition system, an image recognition method, and a recording medium.
  • Patent Document 1 describes a technique in which a plurality of products arranged in a predetermined recognition area are imaged from a plurality of directions, and the plurality of products are collectively recognized from feature amounts of the captured images.
  • imaging from a plurality of directions is performed by using a plurality of imaging devices or changing the position of one imaging device. Thereby, a plurality of products can be simultaneously identified and product information can be efficiently acquired.
  • the image recognition technology identifies the product using an appearance feature in an image captured on at least one surface of the product. For example, when using a single imaging device fixed above the product, the top surface of the product placed on the table is captured naturally, but the product needs to be laid sideways to image the side of the product. There is. However, there are some products that are hygienicly unpreferable to lie down, such as a beverage can where the part of the mouth that touches the customer's mouth is exposed. In addition, there are products such as soft confectionery that cannot be laid down or are damaged by being laid down.
  • the present invention has been made in view of the above-described problems, and an object of the present invention is to provide an image recognition system that can easily perform image recognition of a side surface of a product.
  • the present invention has been made in view of the above-described problems, and provides an image recognition system, an image recognition method, and a recording medium that can apply different recognition processes to a plurality of products to be image recognized. To do other purposes.
  • the present invention has been made in view of the above problems, and provides an image recognition system, an image recognition method, and a recording medium that can easily identify similar products having different sizes in image recognition processing. For other purposes.
  • an image recognition system a mounting table for mounting a product below an imaging device provided to capture an image of the lower side, and the product with respect to the upper surface of the mounting table. And a support structure that supports the product at a predetermined angle, and an image recognition device that identifies the product by performing image recognition on an image of the product acquired by the imaging device.
  • an image recognition method the step of acquiring an image of a product arranged in a recognition area, the appearance of the product in the acquired image and the recognition area of the product in the recognition area Identifying the product based on location.
  • a recording medium the step of acquiring, on a computer, an image of a product arranged in a recognition area, the appearance of the product in the acquired image, and the recognition area of the product
  • a program for executing the step of identifying the product based on the position inside is recorded.
  • an image recognition method the step of acquiring an image of a product arranged such that a predetermined surface is positioned on a reference coordinate, and the product in the acquired image Extracting the product corresponding to the product in the acquired image based on the appearance of the image, overlapping the outer edge of the extracted product on the product in the acquired image, the outer edge and the reference Calculating a difference from coordinates, and determining the product in the acquired image based on the difference.
  • a recording medium the step of acquiring, on a computer, an image of a product arranged so that a predetermined surface is positioned on a reference coordinate, Extracting a product corresponding to the product in the acquired image based on the appearance of the product, superimposing an outer edge of the extracted product on the product in the acquired image, and the outer edge;
  • a program for executing a step of calculating a difference from the reference coordinates and a step of determining the product in the acquired image based on the difference is recorded.
  • different image recognition processes can be performed on a plurality of products arranged in the recognition area based on the positions of the products.
  • 1 is a schematic diagram of an image recognition system according to a first embodiment. It is a perspective view of the support part which concerns on 1st Embodiment. It is a top view of the support part of the state by which the goods concerning a 1st embodiment are arranged. It is a top view of the recognition area on the mounting table according to the first embodiment. It is a schematic diagram of the surface of the light which injects into an imaging device from the vicinity of the edge of the recognition area on the mounting base which concerns on 1st Embodiment. It is a block diagram of the POS terminal which concerns on 1st Embodiment. It is a schematic block diagram of the POS terminal which concerns on 1st Embodiment.
  • FIG. 1 is a schematic diagram of an image recognition system 10 according to the present embodiment.
  • the image recognition system 10 supports a product on a POS terminal (sales point information management terminal) 100 as an image recognition device, a mounting table 14 for mounting a product to be subjected to image recognition, and the mounting table 14.
  • the support part 200 is provided.
  • an imaging device 11 provided at a position where a product on the mounting table 14 can be imaged, a projection device 12 capable of projecting a predetermined image on the mounting table 14, and a display for displaying information relating to the product A device 13 is connected.
  • the image recognition apparatus is configured integrally with the POS terminal 100.
  • the image recognition method is provided separately from the POS terminal 100 and exchanges necessary information with the POS terminal 100 to perform the image recognition method according to the present embodiment. May be configured to implement.
  • the POS terminal 100 displays the merchandise information under accounting, the amount of accounting, a predetermined message, etc. on the display device 13.
  • the product information is acquired by an image recognition method described later. Further, the POS terminal 100 may perform any processing related to accounting, such as deposit / withdrawal and receipt printing.
  • the mounting table 14 has a mounting surface (upper surface) extending in a horizontal direction (that is, a direction perpendicular to the direction of gravity).
  • One or more products B are placed on the placement surface of the placement table 14.
  • the imaging device 11 is provided above the mounting table 14 along the direction of gravity, and is fixed to a pillar, an arm, a ceiling, etc. (not shown).
  • the imaging device 11 is an arbitrary imaging device such as a camera or a scanner that acquires an image with an image sensor such as a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor.
  • the imaging device 11 can image at least an area including the mounting surface of the mounting table 14, and transmits a signal indicating the captured image to the POS terminal 100.
  • a signal indicating an image captured by the imaging device 11 may be transmitted directly to the POS terminal 100, or may be read by the POS terminal 100 after being temporarily recorded in the storage device.
  • the optical axis of the imaging device 11 coincides with the normal line of the mounting surface of the mounting table 14.
  • the imaging device 11 may perform imaging at a predetermined time interval, or may perform imaging according to an instruction from the POS terminal 100.
  • the projection device 12 is provided above the mounting table 14 along the direction of gravity, and is fixed to a pillar, arm, ceiling, etc. (not shown).
  • the projection device 12 is an arbitrary projection device such as a projector that projects a desired image using a light source such as a lamp or LED (Light Emitting Diode).
  • the projection device 12 projects an image on the mounting surface of the mounting table 14 in accordance with a signal from the POS terminal 100.
  • the projection device 12 is installed at a predetermined position where such projection can be realized.
  • the installation position of the projection device 12 is a design matter.
  • the projection device 12 may be installed directly above or obliquely above the placement surface and project an image from this direction.
  • the projection device 12 may be installed on the placement surface and project an image from the lateral direction.
  • the mounting table 14 may be formed of a transparent member, and the projection device 12 may be installed below the mounting table 14. In this case, the projection device 12 projects an image on the mounting surface of the mounting table 14 from below the mounting table 14.
  • the projection device 12 projects an image (for example, a frame surrounding the recognition region A) indicating the recognition region A that is captured by the imaging device 11 and image recognition is performed on the mounting surface of the mounting table 14.
  • the recognition area A may coincide with the imaging area of the imaging device 11 or may be a part of the imaging area of the imaging device 11.
  • the recognition area A may be set in advance in the POS terminal 100 or may be set by the user.
  • the support unit 200 is a support structure for supporting the product B at a predetermined angle with respect to the direction of gravity on the mounting surface of the mounting table 14.
  • the support unit 200 may be configured integrally with the mounting table 14 (that is, as a part of the mounting table 14), or may be configured as a member mounted on the mounting table 14. The detailed configuration of the support unit 200 will be described later with reference to FIGS.
  • the display device 13 is a display device that displays arbitrary information such as product information to a user (that is, a store clerk or a customer).
  • a display device any display device such as a CRT (Cathode Ray Tube) display or a liquid crystal display may be used.
  • each product B to be recognized is placed directly in the recognition area A on the mounting table 14 or placed on the support unit 200.
  • the product B when the product B is placed, when the appearance feature of the product B is naturally directed upward along the direction of gravity (that is, directed to the imaging device 11), the product B is placed on the mounting table. 14 in the recognition area A.
  • the product B when the product B is placed, if the appearance feature of the product B is directed to the side with respect to the direction of gravity (that is, not suitable for the imaging device 11), the product B is disposed on the support unit 200. Is done.
  • the product B whose appearance features are directed laterally with respect to the direction of gravity for example, is laid down like an article having a substantially cylindrical shape such as a beverage can or a soft confectionery in a transparent container. It is an article damaged by this.
  • FIG. 2 is a perspective view of a support portion 200 as a product support structure according to the present embodiment.
  • the support unit 200 is configured as a separate member from the mounting table 14, but may be configured by using a part of the mounting surface of the mounting table 14 as the product support structure of FIG. 2.
  • the support unit 200 includes a side support 210 and a bottom support 220.
  • the side support 210 has a side support surface 211 that supports the side of the product
  • the bottom support 220 has a bottom support surface 221 that supports the bottom of the product.
  • the side support surface 211 and the bottom support surface 221 are perpendicular to each other (ie, the angle formed by them) is 90 degrees, and the side support surface 211 is at a predetermined angle with respect to the horizontal direction (ie, the direction perpendicular to the direction of gravity).
  • Side support 210 and bottom support 220 are provided so as to form C1. With such a configuration, the support unit 200 can support the product at the angle C ⁇ b> 1 and facilitate the imaging of the side surface of the product by the imaging device 11.
  • the angle C1 is preferably an angle that is greater than 0 degree and less than 90 degrees, and more preferably an angle that is greater than or equal to 30 degrees and less than or equal to 60 degrees so that the imaging apparatus 11 can stably capture the side surface of the product. In form, it is 45 degrees.
  • the angle C1 is an angle larger than 60 degrees with respect to the horizontal direction, the side of the product is imaged at a steep angle from the imaging device 11, and the accuracy of image recognition is reduced.
  • the angle C1 is an angle smaller than 30 degrees with respect to the horizontal direction, there is a possibility that the substantially cylindrical product rolls or the soft product is damaged.
  • FIG. 3 is a top view of the support portion 200 as the product support structure according to the present embodiment.
  • FIG. 3 is a view of the support unit 200 in a state in which the product D is supported from a direction perpendicular to the side support surface 211.
  • the commodity D is an article having a substantially cylindrical shape such as a beverage can, or an article that is damaged by being laid down like a soft confectionery in a transparent container.
  • the support unit 200 stably supports the product D and the product D by the imaging device 11. Imaging can be facilitated.
  • a length C ⁇ b> 2 (hereinafter referred to as a height) along the direction perpendicular to the bottom surface support surface 221 of the side surface support surface 211 is equal to the bottom surface support surface 221 of the substantially cylindrical product D supported by the support unit 200. It is desirable that the length is smaller than the length along the vertical direction (hereinafter referred to as height).
  • a drinking mouth is generally provided at the top.
  • the height C ⁇ b> 2 of the side support surface 211 is greater than or equal to the height of the product D, the drinking mouth may touch the side support surface 211 when the product D is placed on the support unit 200. Therefore, by making the height C2 of the side support surface 211 smaller than the height of the product D, the drinking mouth of the product D is difficult to touch the side support surface 211, and a hygienic preferable state can be obtained.
  • the angle of the product is not constant, so the angle of the product changes with time, and one product is misidentified as multiple products, and the accuracy of image recognition decreases. There is a risk of On the other hand, in this embodiment, since the support unit 200 supports the product at a predetermined angle C1, the accuracy of image recognition can be improved.
  • FIG. 4A is a top view of the recognition area A on the mounting table 14 according to the present embodiment.
  • the position where the imaging device 11 is projected onto the mounting table 14 is indicated by a broken line.
  • the support unit 200 is provided such that the side support surface 211 faces the imaging device 11, that is, the bottom support surface 221 is closer to the imaging device 11 than the side support surface 211.
  • the side surface of the product supported by the support unit 200 faces the imaging device 11, and thus can be imaged by the imaging device 11.
  • the support unit 200 is provided in contact with or near the end of the recognition area A. Specifically, the support unit 200 is closer to the end of the recognition area A than the midpoint of the line E2 connecting the point E1 where the optical axis of the imaging device 11 intersects the recognition area A and the end of the recognition area A. It is preferable to arrange
  • FIG. 4B is a schematic diagram of a surface E3 of light incident on the imaging device 11 from the vicinity of the end of the recognition area A. In the vicinity of the edge of the recognition area A, the extending direction of the light surface E3 is close to the direction of gravity as shown in FIG. 4B.
  • the side surface of the product F2 placed on the mounting table 14 in a sideways direction extends in a direction perpendicular to the gravity direction, image distortion increases when imaged with light close to the gravity direction.
  • the extending direction of the side surface of the product F1 supported by the support unit 200 at a predetermined angle greater than 0 degrees is close to the direction of light close to the gravitational direction, and thus the influence of image distortion is small.
  • the support part 200 is arrange
  • FIG. 5 is a block diagram of the POS terminal 100 (image recognition apparatus) according to the present embodiment.
  • arrows indicate main data flows, and there may be data flows other than those illustrated in FIG. 5.
  • each block shows a functional unit configuration, not a hardware (device) unit configuration. Therefore, the blocks shown in FIG. 5 may be implemented in a single device, or may be separately implemented in a plurality of devices. Data exchange between the blocks may be performed via any means such as a data bus, a network, a portable storage medium, or the like.
  • the POS terminal 100 includes an image acquisition unit 110, an image recognition unit 120, a product information acquisition unit 130, and a display control unit 140 as processing units.
  • the POS terminal 100 includes an identification information storage unit 151 and a product information storage unit 152 as storage units.
  • the image acquisition unit 110 receives a signal indicating an image captured by the imaging device 11 and inputs the signal as image data to the POS terminal 100.
  • the image data may be acquired directly from the imaging device 11 or may be acquired by reading out data recorded in a storage device.
  • the image recognition unit 120 extracts each product included in the image data acquired by the image acquisition unit 110.
  • the identification information storage unit 151 feature amounts calculated in advance from reference images of various products are recorded in association with product IDs for identifying each product.
  • the feature amount arbitrary information indicating the appearance of a product that can be calculated from image data, such as a shape, a color, and a color distribution, may be used.
  • the image recognition unit 120 calculates a feature amount from the image data acquired by the image acquisition unit 110 and compares it with the feature amount recorded in the identification information storage unit 151.
  • the image recognition unit 120 identifies the product having the most similar feature quantity (that is, satisfies a predetermined criterion) in the identification information storage unit 151 as the product in the image data.
  • the image recognition unit 120 acquires the product ID of the identified product from the identification information storage unit 151.
  • the product recognition method executed by the image recognition unit 120 is not limited to the specific method shown here, and any image recognition technique capable of identifying a product from image data may be used.
  • the image recognition unit 120 performs different processing between a product supported by the support unit 200 and a product mounted directly on the mounting table 14 (that is, not supported by the support unit 200).
  • the angle C1 at which the support unit 200 supports the product and the positional relationship between the imaging device 11 and the support unit 200 are constant and known. Therefore, the image recognition unit 120 corrects an area corresponding to the support unit 200 in the image data using the angle C1 and the positional relationship between the imaging device 11 and the support unit 200. That is, the image recognizing unit 120 expands the product image captured by the imaging device 11 using the angle C1 at which the product is supported and the positional relationship between the imaging device 11 and the support unit 200. An image when the side surface is imaged from the front or an image close to this case is generated. Since the image corrected in this manner is generally close to a reference image acquired by imaging a product from the front, the accuracy of the above-described image recognition can be improved.
  • the product information storage unit 152 In the product information storage unit 152, arbitrary product information related to the product such as the name and price of the product is recorded in advance in association with the product ID.
  • the product information acquisition unit 130 acquires the product information recorded in the product information storage unit 152 based on the product ID acquired by the image recognition unit 120.
  • the display control unit 140 performs control to display the product information of each product acquired by the product information acquisition unit 130.
  • the display control unit 140 controls processing that visually indicates predetermined information to the user, such as receipt printing by a printer, in addition to display by the display device 13.
  • FIG. 6 is a schematic configuration diagram illustrating an exemplary device configuration of the POS terminal 100 (image recognition apparatus) according to the present embodiment.
  • the POS terminal 100 includes a CPU (Central Processing Unit) 101, a memory 102, a storage device 103, and an interface 104.
  • the POS terminal 100 may be an independent device or may be integrated with other devices.
  • the interface 104 is a connection unit that is connected to other devices to transmit and receive signals.
  • the interface 104 includes a processor, an electric circuit, an antenna, a connection terminal, and the like necessary for signal transmission / reception.
  • the interface 104 transmits / receives a signal to / from a connected device in accordance with a signal from the CPU 101.
  • the interface 104 is connected to, for example, the imaging device 11, the projection device 12, the display device 13, and the input device 15, and transmits and receives signals to and from them.
  • the interface 104 may be connected to a network and other devices.
  • the storage device 103 stores a program executed by the POS terminal 100, data of a processing result by the program, and the like.
  • the storage device 103 includes a read-only ROM (Read Only Memory), a readable / writable hard disk drive, a flash memory, or the like.
  • the storage device 103 may include a computer-readable portable storage medium such as a CD-ROM.
  • the memory 102 includes a RAM (Random Access Memory) that temporarily stores data being processed by the CPU 101, a program read from the storage device 103, and data.
  • the CPU 101 temporarily records temporary data used for processing in the memory 102, reads a program recorded in the storage device 103, and performs various calculations, control, discrimination, etc. on the temporary data according to the program It is a processor which performs the processing operation of. Further, the CPU 101 records processing result data in the storage device 103 and transmits data and control signals to the outside via the interface 104.
  • the CPU 101 functions as the image acquisition unit 110, the image recognition unit 120, the product information acquisition unit 130, and the display control unit 140 in FIG. 5 by executing a program recorded in the storage device 103.
  • the storage device 103 functions as the identification information storage unit 151 and the product information storage unit 152 in FIG.
  • the POS terminal 100 is not limited to the specific configuration shown in FIG.
  • the POS terminal 100 is not limited to one device, and may be configured by connecting two or more physically separated devices in a wired or wireless manner.
  • Each unit included in the POS terminal 100 may be realized by an electric circuit configuration.
  • the electric circuit configuration is a term that conceptually includes a single device, a plurality of devices, a chipset, or a cloud.
  • At least a part of the POS terminal 100 may be provided in the SaaS (Software as a Service) format. That is, at least a part of the functions for realizing the POS terminal 100 may be executed by software executed via a network.
  • SaaS Software as a Service
  • FIG. 7 is a diagram showing a flowchart of the image recognition method according to the present embodiment.
  • the flowchart in FIG. 7 is started when the user performs a predetermined operation for executing image recognition on the image recognition system 10 or at predetermined time intervals. For example, when the user presses a button of the input device 15 (keyboard or touch panel) connected to the POS terminal 100, the flowchart of FIG. 7 is started.
  • the image acquisition unit 110 receives a signal indicating an image captured by the imaging device 11, and inputs the signal as image data to the POS terminal 100 (step S101).
  • the image recognition unit 120 determines the angle C1 of the support unit 200 and the imaging device 11 and the support unit 200 with respect to the region (support unit region) corresponding to the support unit 200 in the image acquired in step S101. Is corrected using the positional relationship between the two and output as one image data (step S102).
  • the support area is preset as a position (coordinates) in the image.
  • the position of the support unit 200 may be determined from the image by image recognition, and the position may be used as the support unit region.
  • the image recognition unit 120 performs image recognition processing on the image data corrected in step S102, and identifies a product based on the identification information in the identification information storage unit 151 (step S103). Then, the image recognition unit 120 determines the product identified in step S103 as the product in the image (step S104). When a plurality of products are identified in one image data, the subsequent processing is performed for each product.
  • the product information acquisition unit 130 acquires product information from the product information storage unit 152 based on the product ID of the product determined in step S104, and the display control unit 140 displays the product information using the display device 13. Control is performed (step S105).
  • the product information acquisition unit 130 In step S105, product information about the product is not acquired (not shown in the flowchart of FIG. 7).
  • the CPU 101 of the POS terminal 100 becomes the main body of each step (process) included in the image recognition method shown in FIG. That is, the CPU 101 reads out a program for executing the image recognition method shown in FIG. 7 from the memory 102 or the storage device 103, executes the program, and controls each unit of the POS terminal 100, thereby performing the image recognition shown in FIG. Execute the method.
  • the image recognition system 10 captures an image of a product supported at a predetermined angle by the support unit 200 from the imaging device 11 provided above the gravity direction, and performs image recognition. Since it is possible to perform image recognition on the side of a product with only one imaging device, it is possible to realize a process that is cheaper and simpler than imaging products from multiple directions by providing multiple imaging devices or moving the imaging device can do. Since the support unit 200 stably supports the product in the direction of gravity, the imaging device 11 can easily capture the side surface of the product and improve the accuracy of image recognition as compared with the case where the product is supported by a human hand. .
  • the support unit 200 supports the product such that the side surface of the product is inclined with respect to the horizontal direction, the product is difficult to roll and stable image recognition can be performed. Furthermore, since the angle at which the support unit 200 supports the product is fixed and known, the image of the product can be corrected using the angle. Thereby, the accuracy of image recognition can be further improved.
  • the support unit 200 is provided in the vicinity of the end of the recognition area A, the side surface of the product can be supported along the spherical surface of the light incident on the imaging device 11. Thereby, the influence of distortion at the edge of the angle of view of the imaging device 11 can be reduced, and the accuracy of image recognition can be further improved.
  • the support unit 200 according to the first embodiment makes it easy to image the side surface of the product by supporting the product diagonally, but the support unit 200 according to the present embodiment has the side surface of the product parallel to the horizontal direction. Support the product to become. Even with such a configuration, the imaging device 11 can easily image the side of the product.
  • This embodiment uses an image recognition system 10 having the same configuration as that of the first embodiment.
  • the support unit 200 according to the present embodiment may be used instead of the support unit 200 according to the first embodiment, or may be used in addition to the support unit 200 according to the first embodiment.
  • FIG. 8 is a perspective view of a support portion 200 as a product support structure according to the present embodiment.
  • the support unit 200 may be configured as a separate member from the mounting table 14, or may be configured by forming a part of the mounting surface of the mounting table 14 into the product support structure of FIG. 8.
  • the support unit 200 includes a side support 210.
  • the side support 210 has a side support surface 211 that supports the side of the product.
  • the side support surface 211 is provided in parallel to the horizontal direction (that is, the direction perpendicular to the direction of gravity). That is, in this embodiment, the angle C1 with respect to the horizontal direction of the side surface support surface 211 in the first embodiment is set to 0 degree.
  • the support unit 200 can support the product such that the side surface of the product faces the imaging device 11, and can facilitate the imaging of the side surface of the product by the imaging device 11.
  • protrusions 230 are provided on the side support surface 211.
  • the protrusions 230 are provided in parallel to each other along the side surface of the product to be arranged. Since the direction of the product is restricted by such a protrusion 230, the user can easily place the product on the support unit 200 in a predetermined direction.
  • the interval between the protrusions 230 is substantially the same as the width of the product to be arranged, and is preferably set to a value obtained by adding a predetermined margin (for example, about 2% to 10% of the width) to the width of the product to be arranged. The Thereby, it can suppress that a cylindrical or spherical product rolls, and can stabilize the image recognition with respect to the side surface of the product.
  • the bottom surface support 220 is omitted, but the bottom surface support 220 may be provided so as to be in perpendicular contact with the side surface support 210 and the protrusion 230. Conversely, the protrusion 230 may be provided on the support 200 according to the first embodiment.
  • the imaging device 11 easily captures the side surface of the product and improves the accuracy of image recognition as compared with the case where it is supported by a human hand. Can be made.
  • the present embodiment further performs image recognition based on a position where a product is arranged. That is, in the present embodiment, different image recognition processing is performed for each position (area) where the product is arranged.
  • FIG. 9 is a schematic diagram of products D1 and D2 to be recognized in the present embodiment.
  • the products D1 and D2 are articles having a substantially cylindrical shape like a beverage can.
  • the products D1 and D2 have different sizes.
  • the product D1 contains 350 ml
  • the product D2 contains 500 ml.
  • a common logo mark G is represented on the side surfaces of the products D1 and D2. That is, the products D1 and D2 are products of variations with different sizes.
  • a general image recognition technique performs image recognition based on appearance features such as shape, color, and color distribution in image data. Therefore, the products D1 and D2 having a common logo mark G are not easily distinguished by image recognition, and are easily misidentified as the same product.
  • the accuracy of image recognition is improved by using information on the position, region, or coordinate where the products D1 and D2 having similar appearances are arranged as described above.
  • the image recognition unit 120 determines whether or not the product included in the image is a target to be identified using the coordinates (position) where the product is placed, The product is identified using coordinates. Whether or not it is an object to be identified using coordinates is preset as a coordinate determination flag for each product. For example, since the products D1 and D2 in FIG. 9 are products with variations in size, they are targets to be identified using coordinates. Thereby, even if it is a goods with a variation from which a magnitude
  • 10A and 10B are top views of the support part 200 in a state in which products are arranged.
  • 10A and 10B are views of the support unit 200 in a state in which the products D1 and D2 are supported from a direction perpendicular to the side support surface 211, respectively.
  • the side support surface 211 supports the side surfaces of the products D1 and D2
  • the bottom surface support surface 221 supports the bottom surfaces of the products D1 and D2. Therefore, the support unit 200 stably supports the products D1 and D2. While supporting, the imaging of the side surface of goods D1 and D2 by imaging device 11 can be made easy.
  • FIG. 10C is a perspective view of a support portion 200 as a product support structure according to the present embodiment.
  • the side support surface 211 is provided with a region partitioning section 212 that partitions the side support surface 211 into two regions as shown in FIG. 10C.
  • the region partitioning portion 212 is a protrusion that extends in a direction perpendicular to the bottom surface supporting surface 221 on the side surface supporting surface 211. If the area can be visually shown to the user, the area segmenting unit 212 is provided on the side support surface 211, the symbol or color represented on the side support surface 211, the light projected by the projection device 12, or the side support surface 211. The structure may be sufficient.
  • the side support surface 211 is divided into a first region H1 and a second region H2 by the region partitioning unit 212.
  • the image recognizing unit 120 performs different recognition processing depending on whether the product is arranged in the region H1 or H2 (that is, the position where the product is arranged).
  • the image recognition unit 120 presets information on whether each pixel in the image acquired by the imaging device 11 belongs to the area H1 or H2, and corresponds to the position of the product. Based on the pixel to be used, it may be determined whether the product is arranged in the region H1 or H2. Alternatively, the image recognition unit 120 recognizes the position of the region sorting unit 212 and determines whether the product is arranged in the regions H1 and H2 based on the positional relationship between the position of the region sorting unit 212 and the product. May be.
  • the image recognition unit 120 determines the products D1 and D2 as small products. That is, in the example of FIG. 10A, both the small product D1 and the large product D2 are determined as small products. Further, when the products D1 and D2 are arranged in the second region H2, the image recognition unit 120 determines the products D1 and D2 as large products. That is, in the example of FIG. 10B, both the small product D1 and the large product D2 are determined as large products.
  • the image recognizing unit 120 has a similar size difference product D1 by arranging a small product D1 in the first region H1 and a large product D2 in the second region H2. , D2 can be correctly identified.
  • the image recognition unit 120 identifies the product based on the information on the position where the product is arranged in addition to the information on the appearance of the product. As a result, it is possible to improve the accuracy of identification of products that are difficult to identify only from the appearance of the products.
  • the number of regions used by the image recognition unit 120 is not limited to two, and may be any number of at least two or more according to the number of sizes to be distinguished.
  • the image recognition unit 120 is not limited to the size of the product, and may use position information to distinguish other properties (variations such as taste and fragrance) that are difficult to distinguish from the appearance alone.
  • FIG. 11 is a diagram showing a flowchart of the image recognition method according to the present embodiment.
  • the flowchart of FIG. 11 is started when a user performs a predetermined operation for executing image recognition on the image recognition system 10 or at predetermined time intervals. For example, when the user presses a button of the input device 15 (keyboard or touch panel) connected to the POS terminal 100, the flowchart of FIG. 11 is started.
  • the image acquisition unit 110 receives a signal indicating an image captured by the imaging device 11, and inputs the signal as image data to the POS terminal 100 (step S201).
  • the image recognition unit 120 determines the angle C1 of the support unit 200 and the imaging device 11 and the support unit 200 with respect to the region (support unit region) corresponding to the support unit 200 in the image acquired in step S201. Is corrected using the positional relationship between the two and output as one image data (step S202).
  • the support area is set in advance as a position (for example, pixel coordinates) in the image.
  • the position of the support unit 200 may be determined from the image by image recognition, and the position may be used as the support unit region.
  • the image recognition unit 120 performs product image recognition processing using the image data corrected in step S202, and identifies the product based on the identification information in the identification information storage unit 151 (step S203). Then, the image recognition unit 120 determines the product identified in step S203 as the product in the image (step S204). When a plurality of products are identified in one image data, the subsequent processing is performed for each product.
  • the image recognition unit 120 acquires the coordinates (position) of the product in the image (step S206).
  • the coordinate determination flag is set in advance for a product for which identification processing is performed using the coordinates where the product is arranged.
  • the coordinate determination flag is recorded in the identification information storage unit 151, for example.
  • the product coordinates are represented as a set of coordinates indicating the product area in the image, for example.
  • the acquisition of the product coordinates in step S206 may be performed after the determination of the coordinate determination flag in step S205 as shown in FIG. 11, or may be performed together with the image recognition in step S203.
  • the image recognition unit 120 determines whether or not the product determined in step S204 is correct based on the coordinates of the product acquired in step S206 (step S207). Specifically, the image recognition unit 120 determines that the correct product has been determined if the coordinates of the product acquired in step S206 are within an area corresponding to the product determined in step S204. On the other hand, the image recognizing unit 120 determines that an incorrect product has been determined if the coordinates of the product acquired in step S206 are not within the region corresponding to the product determined in step S204.
  • the image recognition unit 120 acquires a correct position (first area H1 or second area H2) corresponding to the product determined in step S204.
  • the correct position of the product is set in advance.
  • the correct position of the small product is the first region H1
  • the correct position of the large product is the second region H2.
  • the image recognition unit 120 determines whether the coordinates of the product acquired in step S206 are in a correct position (first region H1 or second region H2) corresponding to the product. This determination may be performed by an arbitrary method.
  • the position of the product is the first position. It may be determined that the area is on the area H1, and if not, it may be determined that the area is on the second area H2. Alternatively, it is determined that the position of the product is on the first region H1 when the center (center of gravity) of the product region is in the first region H1, and is determined to be on the second region H2 otherwise. May be.
  • the areas in the image corresponding to the first area H1 and the second area H2 may be preset by the user, or the area where the image recognition unit 120 divides the first area H1 and the second area H2. It may be set by recognizing the sorting unit 212 as an image.
  • the number of types of products and the number of regions are not limited to two, and may be any number of at least two or more. In that case, the case classification may be appropriately performed according to the region where the products are arranged.
  • the product determined in step S204 is changed to the correct product (step S209).
  • the correct product is a product corresponding to the region including the coordinates of the product acquired in step S206.
  • the correct product is a small product when the coordinates of the product acquired in step S206 are within the first region H1, and the correct product when the coordinates are within the second region H2. Is a great commodity.
  • step S204 When the coordinate determination flag is not set for the product determined in step S204 (NO in step S205) or when the product is in the correct position (YES in step S208), the product determined in step S204 is used as it is. Use.
  • the product information acquisition unit 130 acquires product information from the product information storage unit 152 based on the product ID of the product determined in step S204 or the product changed in step S209, and the display control unit 140 displays the display device. 13 is used to control the display of product information (step S210).
  • the product information acquisition unit 130 In step S110, product information about the product is not acquired (not shown in the flowchart of FIG. 11).
  • a product is provisionally determined in step S204, and when the product coordinates are in an incorrect area, the product is changed to a correct product in step S209, but this is not a specific form.
  • step S204 a plurality of candidates for a product similar to the product in the image may be extracted, and a candidate having a correct coordinate among the plurality of candidates may be determined as a product in the image.
  • the CPU 101 of the POS terminal 100 becomes the main body of each step (process) included in the image recognition method shown in FIG. That is, the CPU 101 reads out a program for executing the image recognition method shown in FIG. 11 from the memory 102 or the storage device 103, and executes the program to control each unit of the POS terminal 100, thereby performing the image recognition shown in FIG. Execute the method.
  • the image recognition system 10 performs image recognition of a product using a position where the product is arranged in addition to the appearance of the product.
  • image recognition is performed based on the position where the product is placed. Since the results can be narrowed down, the accuracy of image recognition can be improved.
  • the angle at which the support unit 200 supports the product is fixed and known, the image of the product can be corrected using the angle. Thereby, the accuracy of image recognition can be further improved.
  • the position is used to facilitate identification of products having different sizes, whereas in the present embodiment, the position is used to facilitate identification of products of different types.
  • This embodiment uses an image recognition system 10 having the same configuration as that of the third embodiment. This embodiment may be used in place of any of the first to third embodiments, or may be used in combination with at least one of the first to third embodiments.
  • FIG. 12 is a top view of the recognition area A on the mounting table 14 according to the present embodiment.
  • the position where the imaging device 11 is projected onto the mounting table 14 is indicated by a broken line.
  • the recognition area A is divided into a first area J1 and a second area J2 by an area dividing line J.
  • the area dividing line J is a line represented on the recognition area A. If the area can be visually shown to the user, the area division line J is provided on the recognition area A, the symbol or the color represented on the recognition area A, the light projected by the projection device 12, or the recognition area A. The structure may be sufficient.
  • the image recognizing unit 120 performs different recognition processing depending on whether the product is arranged in the region J1 or J2 (that is, the position where the product is arranged).
  • the image recognition unit 120 presets information as to which of the areas J1 and J2 each pixel in the image acquired by the imaging device 11 corresponds to the position of the product. Based on the pixel to be used, it may be determined in which of the areas J1 and J2 the product is arranged. Alternatively, the image recognition unit 120 recognizes the position of the area division line J, and determines whether the product is arranged in the areas J1 and J2 based on the positional relationship between the position of the area division line J and the product. May be.
  • the first type of product K1 and the second type of product K2 to be recognized are products of different types.
  • the product K1 is a general article that is wrapped in a package representing the content of the product and has a constant appearance. Since general articles have a stable appearance, they are easily identified by image recognition processing using the appearance.
  • the product K2 is a fresh food that is not wrapped in a package or is wrapped in a transparent package so that the product itself can be seen. Fresh foods have various appearances such as shapes and colors, and are difficult to identify by image recognition processing using the appearance. Fresh food is often labeled with a brand name, price and barcode.
  • the image recognition unit 120 when the product is arranged in the first region J1, the image recognition unit 120 performs the image recognition process on the assumption that the product is a general article. That is, in the example of FIG. 12, image recognition processing for general articles is performed on the product K1.
  • the image recognition unit 120 When the product is arranged in the second region J2, the image recognition unit 120 performs image recognition processing assuming that the product is a fresh food. That is, in the example of FIG. 12, image recognition processing for fresh food is performed on the product K2.
  • identification is performed using feature amounts (shape, color, color distribution, etc.) calculated from the entire product.
  • identification is performed using a feature amount calculated from an area in a label attached to a product, not the entire product.
  • image recognition processing for fresh food is performed using a feature amount calculated from an area in a label attached to a product, not the entire product.
  • the user arranges the product K1 which is a general article in the first region J1, and the product K2 which is a fresh food in the second region J2.
  • Appropriate image recognition processing can be applied to different products K1 and K2.
  • the image recognition unit 120 identifies the product based on the information on the position where the product is arranged in addition to the information on the appearance of the product. Accordingly, an appropriate image recognition process can be selected depending on the position where the product is arranged, and the identification accuracy can be improved.
  • the number of areas used by the image recognition unit 120 is not limited to two, and may be any number of at least two or more according to the types of products to be distinguished.
  • FIG. 13 is a diagram showing a flowchart of the image recognition method according to the present embodiment.
  • the flowchart of FIG. 13 is started when the user performs a predetermined operation for executing image recognition on the image recognition system 10. For example, when the user presses a button of the input device 15 (keyboard or touch panel) connected to the POS terminal 100, or at predetermined intervals, the flowchart of FIG. 13 is started.
  • a button of the input device 15 keyboard or touch panel
  • the image acquisition unit 110 receives a signal indicating an image captured by the imaging device 11 and inputs it as image data to the POS terminal 100 (step S301).
  • the image recognition unit 120 acquires the position of the product in the image acquired in step S301 (step S302).
  • the following steps S303 to S307 are performed for each product detected in the image.
  • the image recognition unit 120 determines whether the position of the product is in the first area J1 or the second area J2 on the recognition area A. This determination may be performed by an arbitrary method. For example, when more than half of the pixel group corresponding to the product is in the region in the image corresponding to the first region J1, the position of the product is the first position. It may be determined that the area is on the area J1, and if not, it may be determined that the area is on the second area J2.
  • the areas in the image corresponding to the first area J1 and the second area J2 may be preset by the user, or the area where the image recognition unit 120 divides the first area J1 and the second area J2.
  • the dividing line J may be set by recognizing an image.
  • the image recognition unit 120 When the position of the product acquired in step S302 is within the first region J1 (YES in step S303), the image recognition unit 120 performs image recognition processing for general goods on the product and performs identification. A product is identified based on the identification information in the information storage unit 151 (step S304).
  • the image recognition unit 120 When the position of the product acquired in step S302 is within the second region J2 (NO in step S303), the image recognition unit 120 performs image recognition processing for fresh food on the product and performs identification. A product is identified based on the identification information in the information storage unit 151 (step S305).
  • the image recognition unit 120 determines the product identified in step S304 or S305 as the product in the image (step S306).
  • the product information acquisition unit 130 acquires product information from the product information storage unit 152 based on the product ID of the product determined in step S306, and the display control unit 140 displays the product information using the display device 13. Control is performed (step S307).
  • the CPU 101 of the POS terminal 100 becomes the main body of each step (process) included in the image recognition method shown in FIG. That is, the CPU 101 reads out a program for executing the image recognition method shown in FIG. 13 from the memory 102 or the storage device 103, executes the program, and controls each unit of the POS terminal 100, thereby performing the image recognition shown in FIG. Execute the method.
  • the image recognition system 10 performs product image recognition using the position where the product is arranged in addition to the appearance of the product. As a result, it is possible to execute appropriate image recognition processing for each type of product (general goods and fresh food in the present embodiment) based on the position where the product is arranged, so that the accuracy of image recognition can be improved.
  • the position is used to make it easy to identify products having different sizes.
  • the accuracy of image recognition is improved even when the environment differs depending on the position in the recognition area. Use the position to make it.
  • This embodiment uses an image recognition system 10 having the same configuration as that of the third embodiment. This embodiment may be used in place of any of the first to fourth embodiments, or may be used in combination with at least one of the first to fourth embodiments.
  • FIG. 14 is a top view of the recognition area A on the mounting table 14 according to the present embodiment.
  • the position where the imaging device 11 is projected onto the mounting table 14 is indicated by a broken line.
  • the recognition area A is divided into a first area M1 and a second area M2 by giving different colors to each area.
  • FIG. 14 shows that the color is different from that of the first region M1 by representing a large number of points on the second region M2. If each area can be visually shown to the user, each area can be identified by the symbol or color represented on the recognition area A, the light projected by the projection device 12, or the structure provided on the recognition area A. May be represented.
  • the image recognizing unit 120 performs different recognition processing depending on whether the product is arranged in the area M1 or M2 (that is, the position where the product is arranged).
  • the image recognition unit 120 presets information on whether each pixel in the image acquired by the imaging device 11 belongs to the area M1 or M2, and corresponds to the position of the product.
  • the product may be determined in which of the regions M1 and M2 based on the pixel to be processed.
  • the image recognition unit 120 may specify a range based on the color of each region and determine whether the product is arranged in the region M1 or M2.
  • the brightness of the ambient light differs between the first region M1 and the second region M2. If there is a shield between the light source and the recognition area A, a shadow is formed in the recognition area A, so that the brightness changes depending on the position on the recognition area A. As a result, the brightness of the image of the product acquired by the imaging device 11 changes depending on the position where the product is arranged, which affects the comparison result with the reference image (feature amount) recorded in the identification information storage unit 151. Can do.
  • the first region M1 is a relatively bright bright region
  • the second region M2 is a relatively dark dark region.
  • the image recognition unit 120 when the product is arranged in the first region M1, the image recognition unit 120 performs an image recognition process suitable for a bright state. That is, in the example of FIG. 14, the image recognition process for the bright region is performed on the product N1.
  • the image recognition unit 120 When the product is arranged in the second region M2, the image recognition unit 120 performs image recognition processing suitable for a dark state. That is, in the example of FIG. 14, the dark area image recognition process is performed on the product N2.
  • the image recognition process for the bright region performs image recognition after correcting the brightness of the product image data, and the image recognition process for the dark region performs correction to increase the brightness of the product image data. After that, image recognition is performed.
  • the image recognition can be performed with the brightness close to a constant level, so that similar image recognition conditions can be set regardless of the position where the product is placed, and the accuracy of image recognition can be improved.
  • the specific image recognition processing for the product in each brightness area is not limited to the one shown here, and any method suitable for the brightness may be used.
  • the brightness of the image is simply corrected.
  • the color in the image is not used in the image recognition processing for the dark region, and the color in the image is used in the image recognition processing for the bright region. The processing may be changed greatly for each region.
  • the image recognition unit 120 identifies the product based on the information on the position where the product is arranged in addition to the information on the appearance of the product. As a result, an appropriate image recognition process can be applied to the environment where the product is placed, and the accuracy of identification can be improved.
  • the number of areas used by the image recognition unit 120 is not limited to two, and may be any number corresponding to the type of product to be distinguished.
  • the brightness on the recognition area A changes due to changes in the state of a light source such as the sun or a fluorescent lamp
  • the range of each area and the processing performed on each area may be changed depending on the time or date. Good.
  • FIG. 15 is a diagram showing a flowchart of the image recognition method according to the present embodiment.
  • the flowchart of FIG. 15 is started when the user performs a predetermined operation for executing image recognition on the image recognition system 10.
  • the flowchart of FIG. 15 is started when the user presses a button on the input device 15 (keyboard or touch panel) connected to the POS terminal 100 or at predetermined time intervals.
  • the image acquisition unit 110 receives a signal indicating an image captured by the imaging device 11, and inputs the signal as image data to the POS terminal 100 (step S401).
  • the image recognition unit 120 acquires the position of the product in the image acquired in step S401 (step S402).
  • the following steps S403 to S407 are performed for each product detected in the image.
  • the image recognition unit 120 determines whether the position of the product is in the first area M1 or the second area M2 on the recognition area A. This determination may be performed by any method. For example, when more than half of the pixel group corresponding to the product is in the region in the image corresponding to the first region M1, the position of the product is the first position. It may be determined that the area is on the area M1, and if not, it may be determined that the area is on the second area M2.
  • the regions in the image corresponding to the first region M1 and the second region M2 may be preset by the user, or the image recognition unit 120 images the colors of the first region M1 and the second region M2. It may be set by recognizing.
  • the image recognition unit 120 When the position of the product acquired in step S402 is within the first area M1 (YES in step S403), the image recognition unit 120 performs image recognition processing for the bright area on the product and performs identification. A product is identified based on the identification information in the information storage unit 151 (step S404).
  • the image recognition unit 120 When the position of the product acquired in step S402 is in the second area M2 (NO in step S403), the image recognition unit 120 performs image recognition processing for the dark area on the product and performs identification. A product is identified based on the identification information in the information storage unit 151 (step S405).
  • the image recognition unit 120 determines the product identified in step S404 or S405 as the product in the image (step S406).
  • the product information acquisition unit 130 acquires product information from the product information storage unit 152 based on the product ID of the product determined in step S406, and the display control unit 140 displays the product information using the display device 13. Control is performed (step S407).
  • the CPU 101 of the POS terminal 100 becomes the main body of each step (process) included in the image recognition method shown in FIG. That is, the CPU 101 reads out a program for executing the image recognition method shown in FIG. 15 from the memory 102 or the storage device 103, executes the program, and controls each unit of the POS terminal 100, thereby performing the image recognition shown in FIG. Execute the method.
  • the image recognition system 10 performs product image recognition using the position where the product is arranged in addition to the appearance of the product. As a result, an appropriate image recognition process can be executed with respect to the environment where the product is placed, so that the accuracy of image recognition can be improved.
  • FIG. 16 is a block diagram of the POS terminal 100 (image recognition apparatus) according to the present embodiment.
  • arrows indicate main data flows, and there may be data flows other than those shown in FIG.
  • each block shows a functional unit configuration, not a hardware (device) unit configuration. Therefore, the blocks shown in FIG. 16 may be implemented in a single device, or may be separately implemented in a plurality of devices. Data exchange between the blocks may be performed via any means such as a data bus, a network, a portable storage medium, or the like.
  • the POS terminal 100 includes a size determination unit 160 as a processing unit in addition to the image acquisition unit 110, the image recognition unit 120, the product information acquisition unit 130, and the display control unit 140 illustrated in FIG.
  • the image recognition unit 120 (also referred to as an extraction unit) extracts each product included in the image acquired by the image acquisition unit 110, and outputs an extraction result together with a range in the image of each extracted product.
  • the identification information storage unit 151 feature quantities calculated in advance from reference images of various products are recorded as identification information in association with product IDs that identify the products.
  • the feature amount arbitrary information indicating the appearance of a product that can be calculated from image data, such as a shape, a color, and a color distribution, may be used.
  • the image recognition unit 120 calculates a feature amount from the image data acquired by the image acquisition unit 110 and compares it with the feature amount recorded in the identification information storage unit 151.
  • the image recognition unit 120 identifies a product having the most similar feature quantity (that is, satisfies a predetermined criterion) in the identification information storage unit 151 as a product in the image.
  • the image recognition unit 120 acquires a product ID, which is an identifier of the identified product, from the identification information storage unit 151 and outputs the product ID.
  • the image recognition unit 120 outputs the range of the identified product (for example, the coordinates of the upper left point and the lower right point of the region where the feature amount is calculated).
  • the product recognition method executed by the image recognition unit 120 is not limited to the specific method shown here, and any image recognition technique capable of identifying a product from image data may be used.
  • the size determination unit 160 determines whether or not the size of the product determined by the image recognition unit 120 is close to the size of the product in the image, thereby finally determining the product. To do. Specific size determination processing will be described later with reference to FIGS. 19A to 19C.
  • the CPU 101 executes the program recorded in the storage device 103 to thereby execute the image acquisition unit 110, the image recognition unit 120, the product information acquisition unit 130, the display control unit 140, and the size determination unit 160 in FIG. Function as.
  • the image recognition unit 120 overlaps the outer edge of the product image recorded in advance with the product in the image, and identifies the product based on the difference between the predetermined reference line and the outer edge. Therefore, even if it is goods with a variation from which a magnitude
  • the products D1 and D2 having similar appearances can be easily distinguished from each other by using a difference from a reference line (reference coordinates) on which the products D1 and D2 are arranged. Improve the accuracy of image recognition.
  • FIG. 17 is a schematic diagram showing identification information of the products D1 and D2 recorded in the identification information storage unit 151 in the present embodiment.
  • the identification information storage unit 151 as the identification information of the products D1 and D2, the product IDs of the products D1 and D2, the feature amounts calculated from the images of the products D1 and D2, and the outer edges of the product images of the products D1 and D2 A range of outer edges P1 and P2 (for example, the coordinates of the upper left point and the lower right point) that is a rectangular area surrounding the image is recorded.
  • the outer edges P1 and P2 may be automatically detected by detecting the outer shape of the products D1 and D2, or may be set by the user.
  • the feature amounts calculated from the products D1 and D2 and information indicating the ranges of the outer edges P1 and P2 of the products D1 and D2 are as follows. What is necessary is just to be recorded on the identification information storage part 151 in arbitrary formats, such as a character string and binary data.
  • FIG. 18 is a top view of the support part 200 in a state in which products are arranged.
  • FIG. 18 is a view of the support unit 200 in a state in which the products D1 and D2 are supported from a direction perpendicular to the side support surface 211.
  • FIG. 18 since the side support surface 211 supports the side surfaces of the products D1 and D2, and the bottom surface support surface 221 supports the bottom surfaces of the products D1 and D2, the support unit 200 supports the bottom surfaces of the products D1 and D2. It is possible to facilitate the imaging of the side surfaces of the products D1 and D2 by the imaging device 11 while supporting them in alignment with 221.
  • 19A to 19C are schematic diagrams of the size determination process performed by the image recognition system 10 according to the present embodiment.
  • 19A to 19C show the x-axis and the y-axis, respectively, the way of taking the x-axis and the y-axis is arbitrary.
  • the products D1 and D2 in the image are similar to each other, the products D1 and D2 can be determined as both the products D1 and D2 by the conventional image recognition processing.
  • the products D1 and D2 in the image are identified with high accuracy by using a reference line (reference coordinates) as to which of the similar products D1 and D2 having different sizes.
  • the number of types may be at least two arbitrary numbers.
  • 19A to 19C show a reference line Q (that is, a collection of reference coordinates) as a reference for size determination together with the products D1 and D2 in the image acquired by the imaging device 11.
  • the predetermined surface positioned on the reference line Q is not limited to the bottom surface, and may be an arbitrary surface according to the shape of the product.
  • the size determination unit 160 acquires the positions of the products D1 and D2 and the position of the reference line Q in the image acquired by the imaging device 11.
  • the size determination unit 160 receives the positions of the products D1 and D2 extracted by the image recognition unit 120 from the image recognition unit 120.
  • the position of the reference line Q in the image acquired by the imaging device 11 may be set in advance by the user and recorded in the storage device. In that case, the size determination unit 160 reads, for example, the coordinates of a specific pixel in the image acquired by the imaging device 11 from the storage device as the position of the reference line Q.
  • the position of the reference line Q in the image acquired by the imaging device 11 may be set when the image recognition unit 120 recognizes the image of the support unit 200 (bottom surface support surface 221).
  • the size determination unit 160 uses the position of the bottom support surface 221 determined by the image recognition unit 120 based on the appearance of the support unit 200 such as the shape, color, and pattern as the position of the reference line Q. Received from the recognition unit 120.
  • the size determination unit 160 receives the range of the outer edge P1 corresponding to the extracted product D1 from the image recognition unit 120. And the magnitude
  • the range of the outer edge P1 and the range of the products D1 and D2 in the image are represented by, for example, the coordinates (x coordinate and y coordinate) of the lower left point and the lower right point of each region.
  • the size determination unit 160 calculates the distance R between the reference line Q and the outer edge P1 for each product in the image as a difference R.
  • the difference R is within a predetermined range (here, when the outer edge P1 of the product D1 is superimposed on the product D1 in the image)
  • the image recognition unit 120 adopts the extracted product D1 to obtain the predetermined range. If it is not within (in this case, the outer edge P1 of the product D1 is superimposed on the product D2 in the image), the extracted product D2 is discarded.
  • the predetermined range of the difference R is preset by the user.
  • the size determination unit 160 receives the range of the outer edge P2 corresponding to the extracted product D2 from the image recognition unit 120. And the magnitude
  • the range of the outer edge P2 and the range of the products D1 and D2 in the image are represented by, for example, the coordinates (x coordinate and y coordinate) of the lower left point and the lower right point of each region.
  • the size determining unit 160 calculates the distance R between the reference line Q and the outer edge P2 for each product in the image.
  • the image recognition unit 120 adopts the extracted product D2 to obtain the predetermined range. If it is not within (in this case, the outer edge P2 of the product D2 is superimposed on the product D1 in the image), the extracted product D1 is discarded.
  • the predetermined range of the difference R is preset by the user.
  • the distance between the reference line Q and the outer edge (that is, the point closest to the reference line Q of the outer edge) is used as the difference R.
  • other differences indicating the relative positional relationship between the reference line Q and the outer edge are used.
  • a value may be used.
  • the midpoint of any one of the outer edges may be used as the reference point of the outer edge, and the distance between the reference point and the reference line Q may be used as the difference R.
  • the midpoint of each side of the outer edge may be used as the reference point of the outer edge, and a plurality of distances between each of the plurality of reference points and the reference line Q may be used as the difference R.
  • the base of the outer edge is specified by detecting the orientation of the product, a specific point on the base (for example, an end point or a middle point) is set as the reference point of the outer edge, and the distance between the reference point and the reference line Q is determined. It may be used as the difference R.
  • the size determination unit 160 calculates the difference between the outer edge of the product and the reference line, and when the difference is within a predetermined range, the size is close to the product in the image.
  • the product can be determined with high accuracy.
  • the support unit 200 supports the product, the position of the product (the bottom surface of the product) can be easily aligned with the reference line.
  • FIG. 20 is a diagram showing a flowchart of the image recognition method according to the present embodiment.
  • the flowchart of FIG. 20 is started when a user performs a predetermined operation for executing image recognition on the image recognition system 10 or at predetermined time intervals. For example, when the user presses a button of the input device 15 (keyboard or touch panel) connected to the POS terminal 100, the flowchart of FIG.
  • the image acquisition unit 110 receives a signal indicating an image captured by the imaging device 11, and inputs the signal as image data to the POS terminal 100 (step S501).
  • the image recognition unit 120 determines the angle C1 of the support unit 200 and the imaging device 11 and the support unit 200 with respect to the region (support unit region) corresponding to the support unit 200 in the image acquired in step S501. Is corrected using the positional relationship and output as one image data (step S502).
  • the support area is set in advance as a position (for example, pixel coordinates) in the image.
  • the position of the support unit 200 may be determined from the image by image recognition, and the position may be used as the support unit region.
  • the image recognition unit 120 performs image recognition processing of the product using the image data corrected in step S502, and identifies the product based on the identification information in the identification information storage unit 151 (step S503). Then, the image recognition unit 120 determines the product identified in step S503 as the product in the image (step S504). When a plurality of products are identified in one image data, the subsequent processing is performed for each product.
  • the size determination unit 160 acquires the position of the reference line Q from the image acquired in step S501 (step S505).
  • a predetermined surface for example, the bottom surface
  • the position of the reference line Q in the image is acquired, for example, by reading the content set in advance by the user or performing image recognition on the image acquired in step S501.
  • the size determination unit 160 receives information indicating the range of the product in the image and the range of the outer edge of the product determined in step S504 from the image recognition unit 120, and displays the outer edge of the product determined in step S504 in the image. (Step S506). At this time, for example, the outer edge of the product determined in step S504 is superimposed on the product in the image so that the outer edge range and the direction and center point (center of gravity) of the product range match.
  • the outer edge of the product is recorded in advance in, for example, the identification information storage unit 151.
  • the outer edge of the product may be an outer edge of a product image registered in advance, or may store the outer edge of the product registered in advance (that is, a collection of points or lines representing the outer edge). .
  • the size determination unit 160 calculates the distance R between the reference point of the outer edge superimposed on the product and the reference line Q as a difference R (step S507).
  • the point closest to the outer edge reference line Q may be used as the outer edge reference point, and the distance between the reference point and the reference line Q may be used as the difference R.
  • the midpoint of any side of the outer edge may be used as the reference point of the outer edge, and the distance between the reference point and the reference line Q may be used as the difference R.
  • the midpoint of each side of the outer edge may be used as the reference point of the outer edge, and a plurality of distances between each of the plurality of reference points and the reference line Q may be used as the difference R.
  • the base of the outer edge is specified by detecting the orientation of the product, a specific point on the base (for example, an end point or a middle point) is set as the reference point of the outer edge, and the distance between the reference point and the reference line Q is determined. It may be used as the difference R.
  • step S508 When the difference R calculated in step S507 is within a predetermined range (YES in step S508), the product information acquisition unit 130 determines from the product information storage unit 152 based on the product ID of the product determined in step S504. The product information is acquired, and the display control unit 140 performs control to display the product information using the display device 13 (step S509).
  • step S507 If the difference R calculated in step S507 is not within the predetermined range (NO in step S508), the product information acquisition unit 130 discards the product identification result determined in step S504 (step S510).
  • the product information acquisition unit 130 In step S509, product information about the product is not acquired (not shown in the flowchart of FIG. 20).
  • the product is temporarily determined in step S504, and if the difference from the reference line is outside the predetermined range, the product identification result is discarded in step S510.
  • the present invention is not limited to this specific form.
  • a plurality of candidates for products similar to the product in the image are extracted, and among the plurality of candidates, a candidate satisfying a predetermined standard (for example, the smallest difference) is selected as a candidate in the image. You may decide as goods.
  • a predetermined standard for example, the smallest difference
  • the CPU 101 of the POS terminal 100 becomes the main body of each step (process) included in the image recognition method shown in FIG. That is, the CPU 101 reads out a program for executing the image recognition method shown in FIG. 20 from the memory 102 or the storage device 103, executes the program, and controls each unit of the POS terminal 100, thereby performing the image recognition shown in FIG. Execute the method.
  • the image recognition system 10 identifies a product using a difference in position between the outer edge of the product and a reference line (reference coordinates) in addition to the appearance of the product. Thereby, even when there are a plurality of similar products having different sizes, it is possible to determine a product having a size close to the product in the image, so that the accuracy of image recognition can be improved.
  • the present embodiment is based on the assumption that the bottom surface of the product is aligned with the reference line.
  • the support unit 200 supports the product and the reference line corresponds to the bottom surface support surface 221, the product (the bottom surface of the product). ) Can be easily aligned with the reference line.
  • the position of the product is aligned with the reference line Q using the support unit 200, whereas in this embodiment, the position of the product is displayed on the mounting table 14 by the user. Align.
  • This embodiment uses an image recognition system 10 having the same configuration as that of the sixth embodiment. This embodiment may be used in place of any of the first to sixth embodiments, or may be used in combination with at least one of the first to sixth embodiments.
  • FIG. 21 is a top view of the recognition area A on the mounting table 14 according to the present embodiment.
  • the position where the imaging device 11 is projected onto the mounting table 14 is indicated by a broken line.
  • a reference line Q serving as a reference for size determination is represented.
  • the reference line Q is expressed by an arbitrary method that can be visually shown to the user. For example, a structure such as a protrusion or a depression provided on the mounting table 14, a symbol or a color displayed on the mounting table 14, or It is represented by the light projected by the projection device 12.
  • the position of the reference line Q in the image acquired by the imaging device 11 may be set in advance by the user, or may be set by the image recognition unit 120 image-recognizing the reference line Q in the recognition area A. .
  • the user Prior to image recognition, the user arranges the products D1 and D2, which may have variations in size such as beverage cans, so that the bottoms thereof are aligned with the reference line Q.
  • a user may arrange
  • the image recognition system 10 performs image recognition on the products D1 and D2 arranged on the mounting table 14 according to the image recognition method shown in the flowchart of FIG. Then, the image recognition system 10 determines the size based on the reference line Q represented in the recognition area A.
  • the image recognition system 10 displays the product information of the product identified by the image recognition on the display device 13.
  • the present embodiment unlike the first embodiment, although there is a trouble of arranging the products so as to align with the reference line Q by the user's hand, even if there are a plurality of similar products having different sizes, Since a product having a size close to the product in the image can be selectively identified, the accuracy of image recognition can be improved.
  • FIG. 22 is a schematic diagram of the image recognition system 20 according to the present embodiment.
  • the image recognition system 20 includes an image recognition device 300 and a shelf 400 on which products to be subjected to image recognition are arranged. Connected to the image recognition device 300 are an imaging device 11 provided at a position where the product on the shelf 400 can be imaged, and a display device 13 that displays information related to the product.
  • the configurations of the imaging device 11 and the display device 13 are the same as those in the sixth embodiment.
  • the projection device 12 is omitted as compared with the sixth embodiment, it may be provided.
  • the POS terminal 100 is an image recognition device, but in this embodiment, a general computer is an image recognition device 300. As in the sixth embodiment, the image recognition device 300 may be integrated with another device such as a POS terminal.
  • the device configuration of the image recognition apparatus 300 is the same as the device configuration of the POS terminal 100 shown in FIG.
  • the image recognition device 300 identifies the product on the shelf 400 by the image recognition method, and displays information related to the arrangement of the product on the shelf 400 on the display device 13.
  • the information related to the arrangement of the products is, for example, information on the number and position of specific products, information on whether or not the display conditions on the basis of the arrangement of the products are satisfied, and the like.
  • the imaging device 11 is provided at a position where the front surface of the shelf 400 can be imaged, and is fixed to a pillar, an arm, a ceiling, etc. (not shown). In order to recognize a wide range of images on the shelf 400 with one imaging device 11, it is desirable to make the imaging device 11 movable so that different areas of the shelf 400 can be imaged.
  • the imaging device 11 can capture an area including at least the front surface of the shelf 400, and transmits a signal indicating the captured image to the image recognition device 300.
  • a signal indicating an image captured by the imaging device 11 may be directly transmitted to the image recognition device 300, or may be read by the image recognition device 300 after being temporarily recorded in the storage device.
  • the imaging device 11 may perform imaging at a predetermined time interval, or may perform imaging according to an instruction from the image recognition device 300.
  • FIG. 23 is a front view of the shelf 400 according to the present embodiment.
  • the shelf 400 has at least one shelf plate 410 extending in a horizontal direction (that is, a direction perpendicular to the direction of gravity).
  • the products D1 and D2 are placed on the shelf board 410.
  • a transparent door may be provided on the front side of the shelf 400 as long as the arrangement of the products D1 and D2 can be imaged by the imaging device 11.
  • the upper surface of the shelf plate 410 corresponds to the reference line Q that serves as a reference for size determination. Therefore, predetermined surfaces (here, bottom surfaces) of the products D1 and D2 arranged on the shelf 400 are naturally aligned with the reference line Q.
  • the position of the reference line Q in the image acquired by the imaging device 11 may be set in advance by the user, or may be set by the image recognition unit 120 recognizing the shelf 410.
  • the user When performing image recognition, the user performs an operation for executing the image recognition method on the image recognition system 20.
  • the image recognition system 20 performs image recognition on the products D1 and D2 arranged on the shelf 400 according to the image recognition method shown in the flowchart of FIG. Then, the image recognition system 10 determines the size based on the reference line Q (that is, the upper surface of the shelf board 410).
  • the image recognition system 20 displays information regarding the arrangement of the products on the shelf 400 on the display device 13 using the product information of the products identified by the image recognition.
  • the image recognition system 20 performs image recognition on a product arranged on a shelf, not a product at the time of accounting, and outputs information related to the arrangement of the product. At this time, even when there are a plurality of similar products having different sizes, it is possible to selectively identify a product having a size close to the product in the image, so that the accuracy of image recognition can be improved. it can. In addition, since the upper surface of the shelf on which the product is arranged is used as a reference line for size determination, the product (the bottom surface of the product) can be easily aligned with the reference line.
  • FIG. 24 is a schematic configuration diagram of the image recognition system 10 according to each of the above-described embodiments.
  • FIG. 24 shows a configuration example for the image recognition system 10 to perform image recognition on the side of a product.
  • the image recognition system 10 includes a mounting table 14 for mounting a product below an imaging device provided to image the lower side, and a support structure that supports the product at a predetermined angle with respect to the upper surface of the mounting table.
  • POS terminal image recognition device
  • FIG. 25 is a schematic configuration diagram of the POS terminal 100 according to each of the above-described embodiments.
  • FIG. 25 shows a configuration example for the POS terminal 100 to function as an image recognition apparatus that performs image recognition using information on the position of a product.
  • the POS terminal 100 acquires the product based on the image acquisition unit 110 that acquires an image of the product arranged in the recognition area, and the appearance of the product in the acquired image and the position of the product in the recognition area.
  • an image recognition unit 120 for identifying.
  • FIG. 26 is a schematic configuration diagram of the image recognition apparatus according to each of the above-described embodiments.
  • FIG. 26 shows a configuration example for the image recognition device (that is, the POS terminal 100 or the image recognition device 300) to function as a device that performs image recognition of a product using information on the reference coordinates.
  • the image recognition devices (POS terminals) 100 and 300 include an image acquisition unit 110 that acquires an image of a product arranged so that a predetermined plane is positioned on the reference coordinates, and the product in the acquired image.
  • an image recognition unit (extraction unit) 120 that extracts a product corresponding to the product in the acquired image, and an outer edge of the extracted product is superimposed on the product in the acquired image
  • a size determination unit (determination unit) 160 that calculates a difference between an outer edge and the reference coordinates and determines the product in the acquired image based on the difference.
  • a program that operates the configuration of the embodiment so as to realize the functions of the above-described embodiments (for example, a program that causes the POS terminal 100 to execute the processes shown in FIGS. 7, 11, 13, 15, and 20) is used as a recording medium.
  • a method of recording, reading a program recorded on the recording medium as a code, and executing the program on a computer is also included in the category of each embodiment. That is, a computer-readable recording medium is also included in the scope of each embodiment.
  • the computer program itself is included in each embodiment.
  • the recording medium for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a nonvolatile memory card, and a ROM can be used.
  • the embodiment is not limited to the processing executed by a single program recorded in the recording medium, and the embodiments that execute processing by operating on the OS in cooperation with other software and the function of the expansion board are also described in each embodiment. Included in the category.
  • An image recognition system comprising:
  • the image recognition device is configured to perform different image recognition between the product directly placed on the mounting table and the product supported by the support structure. 2. The image recognition system according to 1.
  • the image recognition device is configured to perform the image recognition on a predetermined recognition area on the mounting table,
  • the image recognition system according to appendix 1 or 2 wherein the support structure is provided in contact with or in the vicinity of an end of the recognition area.
  • the support structure is provided at a position closer to the end of the recognition area than a midpoint of a line segment connecting the point where the optical axis of the imaging device intersects the recognition area and the end of the recognition area.
  • the image recognition system according to appendix 3 which is characterized.
  • appendix 5 The image recognition system according to appendix 3 or 4, further comprising a projection device that projects the recognition area.
  • Appendix 7 The image recognition system according to appendix 6, wherein the support structure has a bottom support surface perpendicular to the side support surface.
  • Appendix 8 The image recognition system according to any one of appendices 1 to 7, wherein the angle is larger than 0 degree and smaller than 90 degrees.
  • Appendix 9 The image recognition system according to appendix 8, wherein the angle is not less than 30 degrees and not more than 60 degrees.
  • Appendix 10 The image according to appendix 8 or 9, wherein the image recognition device is configured to correct the image using the angle and to perform the image recognition on the corrected image. Recognition system.
  • the image recognition device includes: An image acquisition unit that acquires the image of the product arranged in a recognition area; An image recognition unit for identifying the product based on the appearance of the product in the acquired image and the position of the product in the recognition area;
  • the image recognition system according to any one of appendices 1 to 10, further comprising:
  • the recognition area is divided into at least two areas;
  • the at least two areas are indicated by any one of a symbol or a color represented in the recognition area, a light projected on the recognition area, and a structure provided in the recognition area.
  • the image acquisition unit acquires the image of the product supported by the support structure provided in the recognition area,
  • the image recognition unit identifies the product based on an appearance of the product in the acquired image and a position of the product on the support structure, according to any one of appendices 11 to 13, The image recognition system described.
  • the image recognizing unit determines the size of the product based on the position of the product in the recognition area, and identifies the product using the size.
  • the image recognition system as described in any one of Claims.
  • the image recognition unit when identifying the product, determines a type of the product based on the position of the product in the recognition area, and identifies the product using the type.
  • the image recognition system according to any one of appendices 11 to 15.
  • the image recognition unit determines the brightness of the position in the recognition area of the product in the acquired image based on the position in the recognition area of the product when identifying the product,
  • the image recognition system according to any one of appendices 11 to 16, wherein the product is identified using the brightness.
  • the image recognition device includes: An image acquisition unit that acquires the image of the product arranged such that a predetermined surface is positioned on a reference coordinate; Based on the appearance of the product in the acquired image, an extraction unit that extracts a product corresponding to the product in the acquired image; Determination that the outer edge of the extracted product is superimposed on the product in the acquired image, the difference between the outer edge and the reference coordinates is calculated, and the product in the acquired image is determined based on the difference And
  • the image recognition system according to any one of appendices 1 to 17, further comprising:
  • Appendix 21 The image recognition system according to appendix 20, wherein the determination unit determines the extracted product as the product in the acquired image when the difference is within a predetermined range.
  • Appendix 22 In the appendix 20 or 21, wherein the determination unit overlaps the outer edge with the product in the acquired image so that the center of the product in the acquired image coincides with the center of the outer edge.
  • Appendix 23 The image recognition system according to any one of appendices 20 to 22, wherein the outer edge is a rectangular region surrounding the extracted product.
  • Appendix 24 The product is supported by the support structure having a support surface that supports the predetermined surface of the product, The image recognition system according to any one of appendices 20 to 23, wherein the reference coordinates correspond to the support surface.
  • Appendix 26 The product is arranged on a shelf having a shelf board extending in a horizontal direction, The image recognition system according to any one of appendices 20 to 23, wherein the reference coordinates correspond to an upper surface of the shelf board.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Cash Registers Or Receiving Machines (AREA)
  • Image Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)

Abstract

容易に商品の側面の画像認識を行うことができる画像認識システムを提供する。本発明の一実施形態に係る画像認識システムは、下方を撮像するように設けられる撮像装置(11)の下方において商品を載置するための載置台(14)と、商品を載置台(14)の上面に対して所定の角度に支持する支持構造(200)と、撮像装置(11)によって取得される商品の画像に対して画像認識を行うことによって商品を識別する画像認識装置(100)と、を備える。

Description

画像認識システム、画像認識方法及び記録媒体
 本発明は、画像認識システム、画像認識方法及び記録媒体に関する。
 従来、顧客が小売店等において商品を購入する際には、POS端末が商品に付されたバーコードを読み取ることによって商品を識別し、名称や価格等の商品情報を取得することが一般的であった。近年、商品にバーコードが付されていることを必要とせず、画像認識技術を用いて商品の外観的な特徴に基づいて商品を識別する技術が開発されている。
 特許文献1には、所定の認識領域に配置された複数の商品を複数の方向から撮像し、撮像された画像の特徴量から該複数の商品を一括して認識する技術が記載されている。特許文献1に記載の技術において、複数の方向からの撮像は、複数の撮像装置を用いること、あるいは1つの撮像装置の位置を変更することによって行われる。これにより、複数の商品を同時に識別して商品情報を効率的に取得することができる。
特開2013-54673号公報
 一般的に商品は立体形状を有しているため、画像認識技術では商品の少なくとも一面について撮像された画像中の外観的な特徴を用いて商品の識別が行われる。例えば商品の上方に固定された1つの撮像装置を用いる場合に、台の上に置かれた商品の上面は自然と撮像されるが、商品の側面を撮像するためには商品を横倒しにする必要がある。しかしながら、顧客の口に触れる飲み口の部分が露出している飲料缶のように、横倒しにすることが衛生的に好ましくない商品がある。また、柔らかな生菓子のように、横倒しにできない、あるいは横倒しにすることによって破損してしまう商品がある。
 特許文献1に記載の技術のように複数の方向から商品を撮像する場合には、商品の上面だけでなく側面を容易に撮像できるものの、複数の撮像装置を設ける又は撮像装置を可動にするためのコストが大きく、また複数の画像の情報を統合する必要があるため処理が複雑である。
 本発明は、上述の問題に鑑みて行われたものであって、容易に商品の側面の画像認識を行うことができる画像認識システムを提供することを目的とする。
 また、飲料缶のように共通のロゴマークを含み様々な大きさで販売されている商品は、画像認識の処理で見分けることが難しい場合がある。また、生鮮食品のように形状や色が多様であり、形状や色を用いる画像認識の処理が適用しづらい商品がある。そのため、商品の種類や状態に従って異なる処理を行うことによって、画像認識の精度を向上させることができると考えられる。しかしながら、特許文献1に記載の技術では、認識領域内に配置される複数の商品が等しく扱われるため、商品によって異なる認識処理を適用することはできない。
 本発明は、上述の問題に鑑みて行われたものであって、画像認識対象の複数の商品に対してそれぞれ異なる認識処理を適用することができる画像認識システム、画像認識方法および記録媒体を提供することを他の目的とする。
 さらに、飲料缶のように共通のロゴマークを含み様々な大きさで販売されている商品は、外観が互いに類似しているため、特許文献1に記載の技術のように単純に商品の外観(特徴量)を用いる画像認識の処理で見分けることが難しい場合がある。
 本発明は、上述の問題に鑑みて行われたものであって、画像認識処理において大きさの異なる類似商品を容易に識別することができる画像認識システム、画像認識方法および記録媒体を提供することをさらに他の目的とする。
 本発明の第1の態様は、画像認識システムであって、下方を撮像するように設けられる撮像装置の下方において商品を載置するための載置台と、前記商品を前記載置台の上面に対して所定の角度に支持する支持構造と、前記撮像装置によって取得される前記商品の画像に対して画像認識を行うことによって前記商品を識別する画像認識装置と、を備える。
 本発明の第2の態様は、画像認識方法であって、認識領域に配置されている商品の画像を取得するステップと、取得した前記画像における前記商品の外観および前記商品の前記認識領域中の位置に基づいて、前記商品を識別するステップと、を有する。
 本発明の第3の態様は、記録媒体であって、コンピュータに、認識領域に配置されている商品の画像を取得するステップと、取得した前記画像における前記商品の外観および前記商品の前記認識領域中の位置に基づいて、前記商品を識別するステップと、を実行させるプログラムが記録されている。
 本発明の第4の態様は、画像認識方法であって、所定の面が基準座標の上に位置するように配置されている商品の画像を取得するステップと、取得した前記画像中の前記商品の外観に基づいて、取得した前記画像中の前記商品に対応する商品を抽出するステップと、取得した前記画像中の前記商品に、抽出した前記商品の外縁を重ねるステップと、前記外縁と前記基準座標との差を算出するステップと、前記差に基づいて、取得した前記画像中の前記商品を決定するステップと、を有する。
 本発明の第5の態様は、記録媒体であって、コンピュータに、所定の面が基準座標の上に位置するように配置されている商品の画像を取得するステップと、取得した前記画像中の前記商品の外観に基づいて、取得した前記画像中の前記商品に対応する商品を抽出するステップと、取得した前記画像中の前記商品に、抽出した前記商品の外縁を重ねるステップと、前記外縁と前記基準座標との差を算出するステップと、前記差に基づいて、取得した前記画像中の前記商品を決定するステップと、を実行させるプログラムが記録されている。
 本発明によれば、支持構造によって支持された商品の画像を撮像するため、商品の側面に対して容易に画像認識を行うことができる。
 また、本発明によれば、認識領域に配置されている複数の商品に対してそれぞれ商品の位置に基づいて異なる画像認識の処理を行うことができる。
 さらに、本発明によれば、商品が配置される基準座標を用いることによって、画像認識において大きさの異なる類似商品を容易に識別することができる。
第1の実施形態に係る画像認識システムの模式図である。 第1の実施形態に係る支持部の斜視図である。 第1の実施形態に係る商品が配置された状態の支持部の上面図である。 第1の実施形態に係る載置台上の認識領域の上面図である。 第1の実施形態に係る載置台上の認識領域の端の近傍から撮像装置に入射する光の面の模式図である。 第1の実施形態に係るPOS端末のブロック図である。 第1の実施形態に係るPOS端末の概略構成図である。 第1の実施形態に係る画像認識方法のフローチャートを示す図である。 第2の実施形態に係る支持部の斜視図である。 第3の実施形態で認識対象とする商品の模式図である。 第3の実施形態に係る商品が配置された状態の支持部の上面図である。 第3の実施形態に係る商品が配置された状態の支持部の上面図である。 第3の実施形態に係る支持部の斜視図である。 第3の実施形態に係る画像認識方法のフローチャートを示す図である。 第4の実施形態に係る載置台上の認識領域の上面図である。 第4の実施形態に係る画像認識方法のフローチャートを示す図である。 第5の実施形態に係る載置台上の認識領域の上面図である。 第5の実施形態に係る画像認識方法のフローチャートを示す図である。 第6の実施形態に係るPOS端末のブロック図である。 第6の実施形態で識別情報記憶部に記録されている商品の識別情報を示す模式図である。 第1の実施形態に係る商品が配置された状態の支持部の上面図である。 第6の実施形態に係る画像認識システムによって行われる大きさ判定処理の模式図である。 第6の実施形態に係る画像認識システムによって行われる大きさ判定処理の模式図である。 第6の実施形態に係る画像認識システムによって行われる大きさ判定処理の模式図である。 第6の実施形態に係る画像認識方法のフローチャートを示す図である。 第7の実施形態に係る載置台上の認識領域の上面図である。 第8の実施形態に係る画像認識システムの模式図である。 第8の実施形態に係る棚の前面図である。 各実施形態に係る画像認識システムの概略構成図である。 各実施形態に係るPOS端末の概略構成図である。 各実施形態に係る画像認識装置の概略構成図である。
 以下、図面を参照して、本発明の実施形態を説明するが、本発明は本実施形態に限定されるものではない。なお、以下で説明する図面で、同機能を有するものは同一符号を付け、その繰り返しの説明は省略することもある。
(第1の実施形態)
 図1は、本実施形態に係る画像認識システム10の模式図である。画像認識システム10は、画像認識装置としてのPOS端末(販売時点情報管理端末)100、画像認識の対象とする商品を載置するための載置台14、および載置台14上において商品を支持するための支持部200を備える。POS端末100には、載置台14上の商品を撮像可能な位置に設けられた撮像装置11、載置台14上に所定の像を投影可能な投影装置12、および商品に係る情報を表示する表示装置13が接続されている。本実施形態では、画像認識装置は、POS端末100と一体として構成されているが、POS端末100とは別に設けられ、POS端末100と必要な情報を授受して本実施形態に係る画像認識方法を実施するように構成されてもよい。
 POS端末100は、表示装置13に会計中の商品情報、会計の金額、所定のメッセージ等を表示する。商品情報は、後述の画像認識方法によって取得される。また、POS端末100は、入出金やレシートの印刷等、会計に係る任意の処理を行ってよい。
 載置台14は、水平方向(すなわち重力方向に対して垂直な方向)に延在する載置面(上面)を有する。載置台14の載置面上には1つ以上の商品Bが載置される。
 撮像装置11は、重力方向に沿って載置台14の上方に設けられ、不図示の柱、アーム、天井等に固定される。撮像装置11は、例えばCCD(Charge Coupled Device)センサ、CMOS(Complementary Metal Oxide Semiconductor)センサ等のイメージセンサによって画像を取得するカメラ又はスキャナ等の任意の撮像装置である。撮像装置11は、少なくとも載置台14の載置面を含む領域を撮像可能であり、撮像した画像を示す信号をPOS端末100に送信する。撮像装置11が撮像した画像を示す信号は、直接POS端末100に送信されてよく、あるいは一旦記憶装置に記録された後にPOS端末100によって読み出されてよい。載置台14上の商品を一様に撮像するために、撮像装置11の光軸は載置台14の載置面の法線と一致していることが望ましい。撮像装置11は、所定の時間間隔で撮像を行ってよく、あるいはPOS端末100からの指示に従って撮像を行ってよい。
 投影装置12は、重力方向に沿って載置台14の上方に設けられ、不図示の柱、アーム、天井等に固定される。投影装置12はランプ、LED(Light Emitting Diode)等の光源を用いて所望の像を投影するプロジェクタ等の任意の投影装置である。投影装置12は、POS端末100からの信号に従って、載置台14の載置面上に像を投影する。投影装置12は、このような投影が実現可能な所定位置に設置される。投影装置12の設置位置は設計的事項である。例えば、投影装置12は、載置面の真上や斜め上方に設置され、当該方向から像を投影してもよい。その他、投影装置12は、載置面上に設置され、横方向から像を投影してもよい。その他、載置台14を透明の部材で構成し、載置台14の下方に投影装置12を設置してもよい。この場合、投影装置12は、載置台14の下側から、載置台14の載置面上に像を投影する。
 本実施形態において投影装置12は、撮像装置11によって撮像されて画像認識が行われる認識領域Aを示す像(例えば認識領域Aを取り囲む枠)を載置台14の載置面上に投影する。認識領域Aは、撮像装置11の撮像領域と一致してよく、あるいは撮像装置11の撮像領域の一部でよい。認識領域Aは、POS端末100において予め設定されてよく、あるいは利用者によって設定されてよい。
 支持部200は、載置台14の載置面上において、商品Bを重力方向に対して所定の角度に支持するための支持構造である。支持部200は、認識領域A内において、載置台14と一体に(すなわち載置台14の一部として)構成されてよく、あるいは載置台14上に載置される部材として構成されてよい。支持部200の詳細な構成については、図2~4を用いて後述する。
 表示装置13は、利用者(すなわち店員又は顧客)に対して商品情報等の任意の情報を表示する表示装置である。表示装置13として、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ等の任意の表示装置を用いてよい。
 商品認識方法を実行する際には、認識対象の各商品Bは載置台14上の認識領域A内に直接配置されるか、あるいは支持部200に配置される。具体的には、商品Bが置かれる時に、商品Bの外観的な特徴を自然と重力方向に沿って上方に向けられる(すなわち撮像装置11に向けられる)場合には、その商品Bは載置台14上の認識領域A内に直接配置される。一方、商品Bが置かれる時に、商品Bの外観的な特徴が重力方向に対して側方に向く(すなわち撮像装置11に向かない)場合には、その商品Bは支持部200の上に配置される。外観的な特徴が重力方向に対して側方に向く商品Bは、例えば、飲料缶のように略円柱形を有している物品、あるいは透明な容器に入った柔らかい菓子のように横倒しにすることで破損する物品である。
 図2は、本実施形態に係る商品支持構造としての支持部200の斜視図である。本実施形態では支持部200は載置台14と別の部材として構成されているが、載置台14の載置面の一部を図2の商品支持構造にすることによって構成されてよい。支持部200は、側面支持体210および底面支持体220を備える。側面支持体210は商品の側面を支持する側面支持面211を有し、底面支持体220は商品の底面を支持する底面支持面221を有する。側面支持面211および底面支持面221が互いに垂直(すなわちそれらのなす角度が90度)であり、かつ側面支持面211が水平方向(すなわち重力方向に対して垂直な方向)に対して所定の角度C1をなすように、側面支持体210および底面支持体220は設けられている。このような構成により、支持部200は商品を角度C1で支持し、撮像装置11による商品の側面の撮像を容易にすることができる。
 角度C1は、撮像装置11が商品の側面を安定して撮像できるように、好ましくは0度より大きく90度より小さい角度であり、より好ましくは30度以上60度以下の角度であり、本実施形態では45度である。角度C1が水平方向に対して60度より大きい角度である場合には、商品の側面を撮像装置11から急角度で撮像することになるため、画像認識の精度が低下する。角度C1が水平方向に対して30度より小さい角度である場合には、略円柱形の商品が転がったり、柔らかい商品が破損したりするおそれがある。
 図3は、本実施形態に係る商品支持構造としての支持部200の上面図である。図3は、側面支持面211に対して垂直な方向から、商品Dを支持している状態の支持部200を見た図である。例えば商品Dは、飲料缶のように略円柱形を有している物品、あるいは透明な容器に入った柔らかい菓子のように横倒しにすることで破損する物品である。このように側面支持面211が商品Dの側面を支持し、底面支持面221が商品Dの底面を支持するため、支持部200は商品Dを安定的に支持するとともに、撮像装置11による商品Dの撮像を容易にすることができる。
 側面支持面211の底面支持面221に対して垂直な方向に沿った長さC2(以下、高さという)は、支持部200によって支持される略円柱形の商品Dの底面支持面221に対して垂直な方向に沿った長さ(以下、高さという)よりも小さいことが望ましい。略円柱形の商品Dが飲料缶である場合には、一般的に上部に飲み口が設けられる。側面支持面211の高さC2が商品Dの高さ以上である場合には、商品Dを支持部200に配置する際に飲み口が側面支持面211に触れる場合がある。そのため、側面支持面211の高さC2を商品Dの高さよりも小さくすることによって、商品Dの飲み口が側面支持面211に触れづらく、衛生的に好ましい状態にすることができる。
 人間の手で商品を支持する場合には商品の角度が一定でないため、時間ごとに商品の角度が変化し、1つの商品を複数の商品であると誤認したり、画像認識の精度が低下したりするおそれがある。それに対して本実施形態では支持部200が商品を所定の角度C1に支持するため、画像認識の精度を向上させることができる。
 図4Aは、本実施形態に係る載置台14上の認識領域Aの上面図である。図4Aには、撮像装置11を載置台14上に投影した位置が破線で示されている。支持部200は、側面支持面211が撮像装置11に対向するように、すなわち底面支持面221が側面支持面211よりも撮像装置11に近いように設けられる。これにより、支持部200に支持される商品の側面は、撮像装置11に向くため、撮像装置11によって撮像可能である。
 支持部200は、認識領域Aの端に接して又は端の近傍に設けられる。具体的には、支持部200は、撮像装置11の光軸が認識領域Aと交わる点E1と、認識領域Aの端とを結ぶ線分E2の中点よりも認識領域Aの端に近い位置に配置されることが好ましい。さらに支持部200は、線分E2の三等分点のうち認識領域Aの端側の点よりも認識領域Aの端に近い位置に配置されることがより好ましい。
 認識領域Aにおいて、撮像装置11の光軸から離れるほど、すなわち撮像装置11の画角の端に近付くほど、撮像される像の歪みが大きくなる。これは、撮像装置11に対して球面状に入射する光を平面の画像に投影するためである。図4Bは、認識領域Aの端の近傍から撮像装置11に入射する光の面E3の模式図である。認識領域Aの端の近傍では、光の面E3の延在する方向は、図4Bに示すように重力方向に近い。したがって、載置台14上に横倒しで載置される商品F2の側面は、重力方向に垂直な方向に延在するため、重力方向に近い光によって撮像される際に像の歪みが大きくなる。それに対して、支持部200に0度より大きい所定の角度で支持される商品F1の側面の延在する方向は、重力方向に近い光の方向と近いため、像の歪みの影響が小さい。このように、本実施形態では支持部200を認識領域Aの端に接して又は端の近傍に配置するため、撮像装置11の画角による影響を低減し、商品の認識精度を向上させることができる。
 図5は、本実施形態に係るPOS端末100(画像認識装置)のブロック図である。図5において、矢印は主なデータの流れを示しており、図5に示したもの以外のデータの流れがあってよい。図5において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図5に示すブロックは単一の装置内に実装されてよく、あるいは複数の装置内に別れて実装されてよい。ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてよい。
 POS端末100は、処理部として、画像取得部110、画像認識部120、商品情報取得部130および表示制御部140を備える。また、POS端末100は、記憶部として、識別情報記憶部151および商品情報記憶部152を備える。
 画像取得部110は、撮像装置11によって撮像された画像を示す信号を受け取り、画像データとしてPOS端末100に入力する。画像データは、撮像装置11から直接取得されてよく、あるいは記憶装置に記録されたものを読み出すことにより取得されてよい。
 画像認識部120は、画像取得部110によって取得された画像データに含まれる各商品を抽出する。例えば、識別情報記憶部151には、様々な商品の基準画像から予め算出された特徴量が、各商品を識別する商品IDと関連付けられて記録される。特徴量として、形状、色、色の分布等、画像データから算出可能な商品の外観を示す任意の情報を用いてよい。画像認識部120は、画像取得部110によって取得された画像データから特徴量を算出し、識別情報記憶部151に記録された特徴量と比較する。そして、画像認識部120は、識別情報記憶部151の中で最も類似する(すなわち所定の基準を満たす)特徴量を有する商品を、画像データ中の商品として識別する。画像認識部120は、識別された商品の商品IDを識別情報記憶部151から取得する。画像認識部120によって実行される商品認識方法として、ここに示した具体的な方法に限定されず、画像データから商品を識別可能な任意の画像認識技術が用いられてよい。
 画像認識部120は、支持部200によって支持される商品と、載置台14に直接載置される(すなわち支持部200によって支持されない)商品との間で異なる処理を行う。支持部200が商品を支持する角度C1、および撮像装置11と支持部200との位置関係は一定であり、既知である。そのため、画像認識部120は、画像データの中で支持部200に対応する領域に対して、角度C1および撮像装置11と支持部200との位置関係を用いて補正する。すなわち、画像認識部120は、撮像装置11により撮像された商品の画像を、商品が支持される角度C1および撮像装置11と支持部200との位置関係を用いて伸長することによって、該商品の側面を真正面から撮像する場合の画像またはこの場合に近い画像を生成する。このように補正された画像は一般的に真正面から商品を撮像することによって取得される基準画像と近い状態となるため、上述の画像認識の精度を向上させることができる。
 商品情報記憶部152には、商品の名称、価格等の商品に係る任意の商品情報が、商品IDと関連付けられて予め記録される。商品情報取得部130は、画像認識部120によって取得された商品IDに基づいて、商品情報記憶部152に記録された商品情報を取得する。
 表示制御部140は、商品情報取得部130によって取得された各商品の商品情報を表示する制御を行う。本実施形態において表示制御部140は、表示装置13による表示のほか、プリンタによるレシート印刷等、利用者に対して視覚的に所定の情報を示す処理を制御する。
 図6は、本実施形態に係るPOS端末100(画像認識装置)の例示的な機器構成を示す概略構成図である。POS端末100は、CPU(Central Processing Unit)101と、メモリ102と、記憶装置103と、インターフェース104とを備える。POS端末100は独立した装置でよく、あるいは他の装置と一体に構成されてよい。
 インターフェース104は、他の機器に接続されて信号の送受信を行う接続部である。インターフェース104は、信号の送受信に必要なプロセッサ、電気回路、アンテナ、接続端子等を含む。インターフェース104は、CPU101からの信号に従って、接続された機器との間で信号の送受信を行う。インターフェース104は、例えば撮像装置11、投影装置12、表示装置13および入力装置15に接続され、それらと信号の送受信を行う。インターフェース104は、これらのほかネットワークやその他の機器に接続されてよい。
 記憶装置103は、POS端末100が実行するプログラムや、プログラムによる処理結果のデータ等を記憶する。記憶装置103は、読み取り専用のROM(Read Only Memory)や、読み書き可能のハードディスクドライブ又はフラッシュメモリ等を含む。また、記憶装置103は、CD-ROM等のコンピュータ読取可能な可搬記憶媒体を含んでもよい。メモリ102は、CPU101が処理中のデータや記憶装置103から読み出されたプログラムおよびデータを一時的に記憶するRAM(Random Access Memory)等を含む。
 CPU101は、処理に用いる一時的なデータをメモリ102に一時的に記録し、記憶装置103に記録されたプログラムを読み出し、該プログラムに従って該一時的なデータに対して種々の演算、制御、判別などの処理動作を実行するプロセッサである。また、CPU101は、記憶装置103に処理結果のデータを記録し、またインターフェース104を介してデータや制御信号を外部に送信する。
 本実施形態においてCPU101は、記憶装置103に記録されたプログラムを実行することによって、図5の画像取得部110、画像認識部120、商品情報取得部130および表示制御部140として機能する。また、本実施形態において記憶装置103は、図5の識別情報記憶部151および商品情報記憶部152として機能する。
 POS端末100は、図6に示す具体的な構成に限定されない。POS端末100は、1つの装置に限られず、2つ以上の物理的に分離した装置が有線又は無線で接続されることにより構成されていてもよい。POS端末100に含まれる各部は、それぞれ電気回路構成により実現されていてもよい。ここで、電気回路構成とは、単一のデバイス、複数のデバイス、チップセット又はクラウドを概念的に含む文言である。
 また、POS端末100の少なくとも一部がSaaS(Software as a Service)形式で提供されてよい。すなわち、POS端末100を実現するための機能の少なくとも一部が、ネットワーク経由で実行されるソフトウェアによって実行されてよい。
 図7は、本実施形態に係る画像認識方法のフローチャートを示す図である。図7のフローチャートは、利用者が画像認識システム10に対して画像認識を実行するための所定の操作を行うことによって、あるいは所定の時間ごとに開始される。例えば、利用者がPOS端末100に接続された入力装置15(キーボードやタッチパネル)のボタンを押下することによって、図7のフローチャートが開始される。
 まず、画像取得部110は、撮像装置11によって撮像された画像を示す信号を受け取り、画像データとしてPOS端末100に入力する(ステップS101)。
 次に、画像認識部120は、ステップS101で取得された画像の中で、支持部200に対応する領域(支持部領域)に対して、支持部200の角度C1および撮像装置11と支持部200との位置関係を用いて補正を行い、1つの画像データとして出力する(ステップS102)。支持部領域は、画像中の位置(座標)として予め設定されている。また、画像認識によって画像から支持部200の位置を決定し、該位置を支持部領域として用いてもよい。
 次に画像認識部120は、ステップS102で補正された画像データに対して画像認識処理を行い、識別情報記憶部151の識別情報に基づいて商品を識別する(ステップS103)。そして画像認識部120は、ステップS103で識別された商品を、画像中の商品として決定する(ステップS104)。1つの画像データ中に複数の商品が識別された場合には、各商品について以降の処理を行う。
 最後に、商品情報取得部130は、ステップS104で決定された商品の商品IDに基づいて商品情報記憶部152から商品情報を取得し、表示制御部140は表示装置13を用いて商品情報を表示する制御を行う(ステップS105)。
 特に所定の時間ごとに図7のフローチャートが実行される場合には、載置台14に置かれたままの同一商品について繰り返し商品情報が取得されてしまい、会計において同一商品の価格が複数回集計されるおそれがある。そこで、画像認識部120が所定の時間以内又は所定のフレーム数以内に近似(例えば重心の位置の差が所定の値以下)の位置で同一の商品を識別した場合に、商品情報取得部130はステップS105において該商品についての商品情報の取得を行わない(図7のフローチャートには不図示)。
 POS端末100のCPU101は、図7に示す画像認識方法に含まれる各ステップ(工程)の主体となる。すなわち、CPU101は、図7に示す画像認識方法を実行するためのプログラムをメモリ102又は記憶装置103から読み出し、該プログラムを実行してPOS端末100の各部を制御することによって図7に示す画像認識方法を実行する。
 本実施形態に係る画像認識システム10は、支持部200によって所定の角度に支持された商品を重力方向の上方に設けられた撮像装置11から撮像し、画像認識を行う。1つの撮像装置のみで商品の側面に対する画像認識を行うことができるため、複数の撮像装置を設ける又は撮像装置を移動させることによって複数方向から商品を撮像するよりも低コストかつ簡単な処理を実現することができる。支持部200は商品を重力方向に対して安定的に支持するため、撮像装置11は商品の側面を容易に撮像し、人間の手で支持する場合よりも画像認識の精度を向上させることができる。
 また、載置台14に直接載置される商品と、支持部200によって所定の角度に支持される商品とを同時に認識することができるため、利用者が追加の操作を行う必要がない。
 また、支持部200が商品の側面が水平方向に対して斜めになるように商品を支持するため、商品が転がりづらく、安定した画像認識を行うことができる。さらに、支持部200が商品を支持する角度は固定され、かつ既知であるため、該角度を用いて商品の画像を補正することができる。これにより、画像認識の精度をさらに向上させることができる。
 また、支持部200は認識領域Aの端の近傍に設けられるため、商品の側面を撮像装置11に入射する光の球面に沿って支持することができる。これにより、撮像装置11の画角の端における歪みの影響を低減し、画像認識の精度をさらに向上させることができる。
(第2の実施形態)
 第1の実施形態に係る支持部200は商品を斜めに支持することによって商品の側面を撮像しやすくしているが、本実施形態に係る支持部200は商品の側面が水平方向に対して平行になるように商品を支持する。このような構成によっても撮像装置11は商品の側面を容易に撮像することができる。本実施形態は、第1の実施形態と同様の構成を有する画像認識システム10を用いる。本実施形態に係る支持部200は、第1の実施形態に係る支持部200の代わりに用いられてよく、あるいは第1の実施形態に係る支持部200に加えて用いてられてよい。
 図8は、本実施形態に係る商品支持構造としての支持部200の斜視図である。支持部200は載置台14と別の部材として構成されてよく、あるいは載置台14の載置面の一部を図8の商品支持構造にすることによって構成されてよい。
 支持部200は、側面支持体210を備える。側面支持体210は商品の側面を支持する側面支持面211を有する。側面支持面211は、水平方向(すなわち重力方向に対して垂直な方向)に対して平行に設けられている。すなわち本実施形態では、第1の実施形態における側面支持面211の水平方向に対する角度C1が0度に設定されている。このような構成により、支持部200は商品の側面が撮像装置11に向くように商品を支持し、撮像装置11による商品の側面の撮像を容易にすることができる。
 さらに、側面支持面211上には、2つ以上の任意の数の突起部230が設けられる。突起部230は、配置される商品の側面に沿って、互いに平行に設けられる。このような突起部230によって商品の向きが制限されるため、利用者が支持部200上に商品を所定の向きで配置しやすい。
 突起部230同士の間隔は、配置される商品の幅と略同一であり、好ましくは配置される商品の幅に所定のマージン(例えば幅の2%~10%程度)を加えた値に設定される。これにより、円柱形や球形の商品が転がることを抑制し、商品の側面に対する画像認識を安定化することができる。
 本実施形態では底面支持体220は省略されているが、側面支持体210および突起部230に対して垂直に接するように底面支持体220が設けられてもよい。逆に、第1の実施形態に係る支持部200に、突起部230が設けられてもよい。
 本実施形態に係る支持部200を用いることによって、第1の実施形態と同様に、撮像装置11は商品の側面を容易に撮像し、人間の手で支持する場合よりも画像認識の精度を向上させることができる。
(第3の実施形態)
 本実施形態は、第1又は第2の実施形態に係る画像認識システム10において、さらに商品が配置される位置に基づいた画像認識を行う。すなわち、本実施形態では、商品が配置されている位置(領域)ごとに異なる画像認識処理を行う。
 図9は、本実施形態で認識対象とする商品D1、D2の模式図である。商品D1、D2は飲料缶のように略円柱形を有している物品である。商品D1、D2は互いに異なる大きさを有しており、例えば商品D1は350ml入りであり、商品D2は500ml入りである。商品D1、D2の側面には、共通のロゴマークGが表されている。すなわち、商品D1、D2は大きさが異なるバリエーションの商品である。一般的な画像認識技術は画像データ中の形状、色、色の分布等の外観の特徴量に基づいて画像認識を行う。そのため共通のロゴマークGを有する商品D1、D2は、画像認識によって区別されづらく、同一の商品であると誤認されやすい。
 本実施形態では、このように外観が類似した商品D1、D2について、それらが配置される位置、領域または座標の情報を用いることによって画像認識の精度を向上させる。
 本実施形態に係る画像認識処理では、画像認識部120は、画像に含まれる商品が、商品が配置されている座標(位置)を用いて識別処理を行う対象であるかどうかを判定し、対象である商品に対しては座標を用いて識別処理を行う。座標を用いて識別処理を行う対象であるかどうかは、座標判定フラグとして商品ごとに予め設定される。例えば図9の商品D1、D2は、大きさが異なるバリエーションのある商品であるため、座標を用いて識別処理を行う対象である。これにより、大きさが異なるバリエーションのある商品であっても、利用者によって配置された商品の位置に基づいていずれかの大きさの商品を選択的に識別することができる。
 図10A、10Bは、商品が配置された状態の支持部200の上面図である。図10A、10Bはそれぞれ、側面支持面211に対して垂直な方向から、商品D1、D2を支持している状態の支持部200を見た図である。図10A、10Bのように側面支持面211が商品D1、D2の側面を支持し、底面支持面221が商品D1、D2の底面を支持するため、支持部200は商品D1、D2を安定的に支持するとともに、撮像装置11による商品D1、D2の側面の撮像を容易にすることができる。
 図10Cは、本実施形態に係る商品支持構造としての支持部200の斜視図である。図2の構成に加えて、側面支持面211には、図10Cに示すように、側面支持面211を2つの領域に区分する領域区分部212が設けられる。領域区分部212は、側面支持面211上において底面支持面221に垂直な方向に延在する突起である。領域区分部212は、領域を利用者に視覚的に示すことができれば、側面支持面211上に表された記号又は色、あるいは投影装置12により投影された光、あるいは側面支持面211上に設けられた構造でよい。
 側面支持面211は、領域区分部212によって第1の領域H1および第2の領域H2に区分される。画像認識部120は、商品が領域H1およびH2のどちらに配置されているか(すなわち商品が配置されている位置)によって異なる認識処理を行う。
 領域H1、H2の判別のために、画像認識部120は、撮像装置11によって取得される画像中の各画素が領域H1およびH2のどちらに属するかの情報を予め設定し、商品の位置に対応する画素に基づいて、商品が領域H1およびH2のどちらに配置されているかを判定してもよい。あるいは、画像認識部120は、領域区分部212の位置を認識し、領域区分部212の位置と商品との位置関係に基づいて、商品が領域H1およびH2のどちらに配置されているかを判定してもよい。
 例えば、商品D1、D2が第1の領域H1に配置されている場合には、画像認識部120は、商品D1、D2を小さい商品として判定する。すなわち、図10Aの例では小さい商品D1および大きい商品D2はいずれも小さい商品として判定される。また、商品D1、D2が第2の領域H2に配置されている場合には、画像認識部120は、商品D1、D2を大きい商品として判定する。すなわち、図10Bの例では小さい商品D1および大きい商品D2はいずれも大きい商品として判定される。実際の運用においては、利用者が小さい商品D1を第1の領域H1に配置し、大きい商品D2を第2の領域H2に配置することによって、画像認識部120は類似する大きさ違いの商品D1、D2を正しく識別することができる。
 換言すると、画像認識部120は、商品の外観の情報に加えて、商品が配置されている位置の情報に基づいて、商品の識別を行う。これにより商品の外観からのみでは識別が難しい商品について、識別の精度を向上させることができる。
 画像認識部120が利用する領域の数は2つに限られず、区別すべき大きさの数に応じて少なくとも2つ以上の任意の数でよい。また、画像認識部120は、商品の大きさに限られず、外観のみから区別しづらい商品のその他の性質(味や香り等のバリエーション)を区別するために位置の情報を用いてよい。
 図11は、本実施形態に係る画像認識方法のフローチャートを示す図である。図11のフローチャートは、利用者が画像認識システム10に対して画像認識を実行するための所定の操作を行うことによって、あるいは所定の時間ごとに開始される。例えば、利用者がPOS端末100に接続された入力装置15(キーボードやタッチパネル)のボタンを押下することによって、図11のフローチャートが開始される。
 まず、画像取得部110は、撮像装置11によって撮像された画像を示す信号を受け取り、画像データとしてPOS端末100に入力する(ステップS201)。
 次に、画像認識部120は、ステップS201で取得された画像の中で、支持部200に対応する領域(支持部領域)に対して、支持部200の角度C1および撮像装置11と支持部200との位置関係を用いて補正を行い、1つの画像データとして出力する(ステップS202)。支持部領域は、画像中の位置(例えば画素の座標)として予め設定されている。また、画像認識によって画像から支持部200の位置を決定し、該位置を支持部領域として用いてもよい。
 画像認識部120はステップS202で補正された画像データを用いて商品の画像認識処理を行い、識別情報記憶部151の識別情報に基づいて商品を識別する(ステップS203)。そして画像認識部120は、ステップS203で識別された商品を、画像中の商品として決定する(ステップS204)。1つの画像データ中に複数の商品が識別された場合には、各商品について以降の処理を行う。
 ステップS204で決定された商品に対して座標判定フラグが設定されている場合に(ステップS205のYES)、画像認識部120は、画像中の商品の座標(位置)を取得する(ステップS206)。座標判定フラグは、商品が配置されている座標を用いて識別処理を行う対象である商品に対して予め設定される。座標判定フラグは、例えば識別情報記憶部151に記録される。商品の座標は、例えば画像中で商品の領域を示す座標の集合として表される。ステップS206の商品の座標の取得は、図11のようにステップS205の座標判定フラグの判定の後に行われてよく、あるいはステップS203の画像認識とともに行われてもよい。
 画像認識部120は、ステップS206で取得された商品の座標に基づいて、ステップS204で決定された商品が正しいか否かを判定する(ステップS207)。具体的には画像認識部120は、ステップS206で取得された商品の座標が、ステップS204で決定された商品に対応する領域内であれば、正しい商品が決定されていると判定する。一方、画像認識部120は、ステップS206で取得された商品の座標が、ステップS204で決定された商品に対応する領域内でなければ、誤った商品が決定されていると判定する。
 例えば、以下のような処理が行われる。ここでは簡略化のために商品の種類が図10A、10Bのように小さい商品および大きい商品の2つであることを想定する。画像認識部120は、ステップS204で決定された商品に対応する正しい位置(第1の領域H1又は第2の領域H2)を取得する。商品の正しい位置は、予め設定されている。図10A、10Bの例では、小さい商品の正しい位置は第1の領域H1であり、大きい商品の正しい位置は第2の領域H2である。そして、画像認識部120は、ステップS206で取得された商品の座標が、その商品に対応する正しい位置(第1の領域H1又は第2の領域H2)にあるか否かを判定する。この判定は任意の方法で行われてよいが、例えば商品に対応する画素群のうち半数以上が、第1の領域H1に対応する画像中の領域内にある場合に商品の位置は第1の領域H1上にあると判定され、そうでない場合に第2の領域H2上にあると判定されてよい。あるいは、商品の領域の中心(重心)が第1の領域H1にある場合に商品の位置は第1の領域H1上にあると判定され、そうでない場合に第2の領域H2上にあると判定されてよい。第1の領域H1および第2の領域H2に対応する画像中の領域は、利用者によって予め設定されてよく、あるいは画像認識部120が第1の領域H1および第2の領域H2を区画する領域区分部212を画像認識することによって設定されてよい。
 商品の種類の数および領域の数は2つに限られず、少なくとも2つ以上の任意の数でよく、その場合には商品の配置される領域に応じた場合分けを適宜行えばよい。
 商品が正しい位置にない場合に(ステップS208のNO)、ステップS204で決定された商品を、正しい商品に変更する(ステップS209)。正しい商品は、ステップS206で取得された商品の座標を含む領域に対応する商品である。図10A、10Bの例では、ステップS206で取得された商品の座標が第1の領域H1内にある場合には正しい商品は小さい商品であり、第2の領域H2内にある場合には正しい商品は大きい商品である。
 ステップS204で決定された商品に対して座標判定フラグが設定されていない場合(ステップS205のNO)又は商品が正しい位置にある場合に(ステップS208のYES)、ステップS204で決定された商品をそのまま用いる。
 最後に、商品情報取得部130は、ステップS204で決定された商品又はステップS209で変更された商品の商品IDに基づいて商品情報記憶部152から商品情報を取得し、表示制御部140は表示装置13を用いて商品情報を表示する制御を行う(ステップS210)。
 特に所定の時間ごとに図11のフローチャートが実行される場合には、載置台14に置かれたままの同一商品について繰り返し商品情報が取得されてしまい、会計において同一商品の価格が複数回集計されるおそれがある。そこで、画像認識部120が所定の時間以内又は所定のフレーム数以内に近似(例えば重心の位置の差が所定の値以下)の位置で同一の商品を識別した場合に、商品情報取得部130はステップS110において該商品についての商品情報の取得を行わない(図11のフローチャートには不図示)。
 図11のフローチャートでは、ステップS204で商品を仮に決定し、該商品の座標が誤った領域である場合にステップS209において正しい商品に変更するが、この具体的な形態に限られない。例えばステップS204で画像中の商品に類似する商品の複数の候補を抽出し、該複数の候補のうち座標が正しい領域である候補を、画像中の商品として決定してもよい。
 POS端末100のCPU101は、図11に示す画像認識方法に含まれる各ステップ(工程)の主体となる。すなわち、CPU101は、図11に示す画像認識方法を実行するためのプログラムをメモリ102又は記憶装置103から読み出し、該プログラムを実行してPOS端末100の各部を制御することによって図11に示す画像認識方法を実行する。
 本実施形態に係る画像認識システム10は、商品の外観に加えて、商品の配置される位置を用いて商品の画像認識を行う。これにより、商品の外観からのみでは画像認識による区別をしづらい商品(本実施形態では外観が類似しているが大きさの異なる飲料缶)について、商品が配置される位置に基づいて画像認識の結果を絞り込むことができるため、画像認識の精度を向上させることができる。
 また、支持部200が商品を支持する角度は固定され、かつ既知であるため、該角度を用いて商品の画像を補正することができる。これにより、画像認識の精度をさらに向上させることができる。
(第4の実施形態)
 第3の実施形態では大きさの異なる商品を識別しやすくするために位置を用いるのに対して、本実施形態では種類の異なる商品を識別しやすくするために位置を用いる。本実施形態は、第3の実施形態と同様の構成を有する画像認識システム10を用いる。本実施形態は、第1~第3のいずれかの実施形態の代わりに用いられてよく、あるいは第1~第3の少なくともいずれかの実施形態に組み合わせて用いてられてよい。
 図12は、本実施形態に係る載置台14上の認識領域Aの上面図である。図12には、撮像装置11を載置台14上に投影した位置が破線で示されている。
 認識領域Aは、領域区分線Jによって第1の領域J1および第2の領域J2に区分される。領域区分線Jは、認識領域A上に表された線である。領域区分線Jは、領域を利用者に視覚的に示すことができれば、認識領域A上に表された記号又は色、あるいは投影装置12により投影された光、あるいは認識領域A上に設けられた構造でよい。画像認識部120は、商品が領域J1およびJ2のどちらに配置されているか(すなわち商品が配置されている位置)によって異なる認識処理を行う。
 領域J1、J2の判別のために、画像認識部120は、撮像装置11によって取得される画像中の各画素が領域J1およびJ2のどちらに属するかの情報を予め設定し、商品の位置に対応する画素に基づいて、商品が領域J1およびJ2のどちらに配置されているかを判定してもよい。あるいは、画像認識部120は、領域区分線Jの位置を認識し、領域区分線Jの位置と商品との位置関係に基づいて、商品が領域J1およびJ2のどちらに配置されているかを判定してもよい。
 本実施形態において認識対象とする第1の種類の商品K1および第2の種類の商品K2は、互いに種類が異なる商品である。具体的には、商品K1は、商品の内容を表すパッケージに包まれており外観が一定の一般物品である。一般物品は、外観が安定しているため、外観を用いる画像認識の処理で識別しやすい。一方、商品K2は、パッケージに包まれていない、又は透明なパッケージに包まれており、商品そのものが見える状態の生鮮食品である。生鮮食品は形状や色等の外観が多様であり、外観を用いる画像認識の処理で識別しづらい。生鮮食品には、商品名、価格およびバーコードを含むラベルが付与されていることが多い。
 例えば、商品が第1の領域J1に配置されている場合には、画像認識部120は、商品が一般物品であるものとして画像認識処理を行う。すなわち、図12の例では商品K1に対して一般物品用の画像認識処理が行われる。商品が第2の領域J2に配置されている場合には、画像認識部120は、商品が生鮮食品であるものとして画像認識処理を行う。すなわち、図12の例では商品K2に対して生鮮食品用の画像認識処理が行われる。
 一般物品用の画像認識処理は、商品全体から算出される特徴量(形状、色、色の分布等)を用いて識別を行う。生鮮食品用の画像認識処理は、商品全体ではなく、商品に付与されたラベル内の領域から算出される特徴量を用いて識別を行う。これにより、一般物品については通常の画像認識を適用するのに対して、外観が不定の生鮮食品については外観が安定したラベルの情報を用いて画像認識を適用するため、画像認識の精度を向上させることができる。それぞれの種類の商品に対する具体的な画像認識処理として、ここに示したものに限られず、その種類に適した任意の方法が用いられてよい。
 実際の運用においては、利用者が一般物品である商品K1を第1の領域J1に配置し、生鮮食品である商品K2を第2の領域J2に配置することによって、画像認識部120は種類の異なる商品K1、K2に対してそれぞれ適切な画像認識処理を適用することができる。
 換言すると、画像認識部120は、商品の外観の情報に加えて、商品が配置されている位置の情報に基づいて、商品の識別を行う。これにより商品が配置される位置によって適切な画像認識処理を選択することができ、識別の精度を向上させることができる。
 画像認識部120が利用する領域の数は2つに限られず、区別すべき商品の種類に応じた少なくとも2つ以上の任意の数でよい。
 図13は、本実施形態に係る画像認識方法のフローチャートを示す図である。図13のフローチャートは、利用者が画像認識システム10に対して画像認識を実行するための所定の操作を行うことによって開始される。例えば、利用者がPOS端末100に接続された入力装置15(キーボードやタッチパネル)のボタンを押下することによって、あるいは所定の時間ごとに、図13のフローチャートが開始される。
 まず、画像取得部110は、撮像装置11によって撮像された画像を示す信号を受け取り、画像データとしてPOS端末100に入力する(ステップS301)。
 次に、画像認識部120は、ステップS301で取得された画像中の商品の位置を取得する(ステップS302)。画像中で検出された各商品について、以下のステップS303~S307を行う。
 画像認識部120は、商品の位置が認識領域A上の第1の領域J1および第2の領域J2のどちらにあるかを判定する。この判定は任意の方法で行われてよいが、例えば商品に対応する画素群のうち半数以上が、第1の領域J1に対応する画像中の領域内にある場合に商品の位置は第1の領域J1上にあると判定され、そうでない場合に第2の領域J2上にあると判定されてよい。第1の領域J1および第2の領域J2に対応する画像中の領域は、利用者によって予め設定されてよく、あるいは画像認識部120が第1の領域J1および第2の領域J2を区画する領域区分線Jを画像認識することによって設定されてよい。
 ステップS302で取得された商品の位置が第1の領域J1内にある場合には(ステップS303のYES)、画像認識部120は、該商品に対して一般物品用の画像認識処理を行い、識別情報記憶部151の識別情報に基づいて商品を識別する(ステップS304)。
 ステップS302で取得された商品の位置が第2の領域J2内にある場合には(ステップS303のNO)、画像認識部120は、該商品に対して生鮮食品用の画像認識処理を行い、識別情報記憶部151の識別情報に基づいて商品を識別する(ステップS305)。
 そして画像認識部120は、ステップS304又はS305で識別された商品を、画像中の商品として決定する(ステップS306)。
 最後に、商品情報取得部130は、ステップS306で決定された商品の商品IDに基づいて商品情報記憶部152から商品情報を取得し、表示制御部140は表示装置13を用いて商品情報を表示する制御を行う(ステップS307)。
 POS端末100のCPU101は、図13に示す画像認識方法に含まれる各ステップ(工程)の主体となる。すなわち、CPU101は、図13に示す画像認識方法を実行するためのプログラムをメモリ102又は記憶装置103から読み出し、該プログラムを実行してPOS端末100の各部を制御することによって図13に示す画像認識方法を実行する。
 本実施形態に係る画像認識システム10は、第3の実施形態と同様に、商品の外観に加えて、商品の配置される位置を用いて商品の画像認識を行う。これにより、商品が配置される位置に基づいて商品の種類(本実施形態では一般物品および生鮮食品)ごとに適切な画像認識処理を実行できるため、画像認識の精度を向上させることができる。
(第5の実施形態)
 第3の実施形態では大きさの異なる商品を識別しやすくするために位置を用いるのに対して、本実施形態では認識領域中の位置によって環境が異なる場合であっても画像認識の精度を向上させるために位置を用いる。本実施形態は、第3の実施形態と同様の構成を有する画像認識システム10を用いる。本実施形態は、第1~第4のいずれかの実施形態の代わりに用いられてよく、あるいは第1~第4の少なくともいずれかの実施形態に組み合わせて用いてられてよい。
 図14は、本実施形態に係る載置台14上の認識領域Aの上面図である。図14には、撮像装置11を載置台14上に投影した位置が破線で示されている。
 認識領域Aは、各領域上に異なる色が付されることによって第1の領域M1および第2の領域M2に区分される。図14では、第2の領域M2上に多数の点を表すことによって、第1の領域M1とは色が異なることが示されている。各領域を利用者に視覚的に示すことができれば、認識領域A上に表された記号又は色、あるいは投影装置12により投影された光、あるいは認識領域A上に設けられた構造によって各領域が表されてよい。画像認識部120は、商品が領域M1およびM2のどちらに配置されているか(すなわち商品が配置されている位置)によって異なる認識処理を行う。
 領域M1、M2の判別のために、画像認識部120は、撮像装置11によって取得される画像中の各画素が領域M1およびM2のどちらに属するかの情報を予め設定し、商品の位置に対応する画素に基づいて、商品が領域M1およびM2のどちらに配置されているかを判定してもよい。あるいは、画像認識部120は、各領域の色に基づいて範囲を特定し、商品が領域M1およびM2のどちらに配置されているかを判定してもよい。
 本実施形態において、第1の領域M1および第2の領域M2では、環境光の明るさが異なる。光源と認識領域Aとの間に遮蔽物が存在すると、認識領域Aに影ができるため、認識領域A上の位置によって明るさが変わる。その結果、商品が配置される位置によって撮像装置11によって取得される商品の画像の明るさが変化するため、識別情報記憶部151に記録されている基準画像(特徴量)との比較結果に影響し得る。図14の例では、第1の領域M1は相対的に明るい明領域であり、第2の領域M2は相対的に暗い暗領域である。
 例えば、商品が第1の領域M1に配置されている場合には、画像認識部120は、明るい状態に適した画像認識処理を行う。すなわち、図14の例では商品N1に対して明領域用の画像認識処理が行われる。商品が第2の領域M2に配置されている場合には、画像認識部120は、暗い状態に適した画像認識処理を行う。すなわち、図14の例では商品N2に対して暗領域用の画像認識処理が行われる。
 例えば明領域用の画像認識処理は商品の画像データに対して明度を下げる補正を行った後に画像認識を行い、暗領域用の画像認識処理は商品の画像データに対して明度を上げる補正を行った後に画像認識を行う。これによって明るさを一定に近付けて画像認識を行うことができるため、商品が配置される位置によらず類似の画像認識の条件にすることができ、画像認識の精度を向上させることができる。それぞれの明るさの領域の商品に対する具体的な画像認識処理として、ここに示したものに限られず、その明るさに適した任意の方法が用いられてよい。ここでは単純に画像の明るさを補正しているが、例えば暗領域用の画像認識処理では画像中の色を用いず、明領域用の画像認識処理では画像中の色を用いることのように、領域ごとに処理を大幅に変えてもよい。
 換言すると、画像認識部120は、商品の外観の情報に加えて、商品が配置されている位置の情報に基づいて、商品の識別を行う。これにより商品が配置される位置の環境に対して適切な画像認識処理を適用することができ、識別の精度を向上させることができる。
 画像認識部120が利用する領域の数は2つに限られず、区別すべき商品の種類に応じた任意の数でよい。太陽や蛍光灯等の光源の状態が変わるために認識領域A上の明るさが変化する場合には、時間や日付によって各領域の範囲、ならびに各領域に対して行われる処理を変更してもよい。
 図15は、本実施形態に係る画像認識方法のフローチャートを示す図である。図15のフローチャートは、利用者が画像認識システム10に対して画像認識を実行するための所定の操作を行うことによって開始される。例えば、利用者がPOS端末100に接続された入力装置15(キーボードやタッチパネル)のボタンを押下することによって、あるいは所定の時間ごとに、図15のフローチャートが開始される。
 まず、画像取得部110は、撮像装置11によって撮像された画像を示す信号を受け取り、画像データとしてPOS端末100に入力する(ステップS401)。
 次に、画像認識部120は、ステップS401で取得された画像中の商品の位置を取得する(ステップS402)。画像中で検出された各商品について、以下のステップS403~S407を行う。
 画像認識部120は、商品の位置が認識領域A上の第1の領域M1および第2の領域M2のどちらにあるかを判定する。この判定は任意の方法で行われてよいが、例えば商品に対応する画素群のうち半数以上が、第1の領域M1に対応する画像中の領域内にある場合に商品の位置は第1の領域M1上にあると判定され、そうでない場合に第2の領域M2上にあると判定されてよい。第1の領域M1および第2の領域M2に対応する画像中の領域は、利用者によって予め設定されてよく、あるいは画像認識部120が第1の領域M1および第2の領域M2の色を画像認識することによって設定されてよい。
 ステップS402で取得された商品の位置が第1の領域M1内にある場合には(ステップS403のYES)、画像認識部120は、該商品に対して明領域用の画像認識処理を行い、識別情報記憶部151の識別情報に基づいて商品を識別する(ステップS404)。
 ステップS402で取得された商品の位置が第2の領域M2内にある場合には(ステップS403のNO)、画像認識部120は、該商品に対して暗領域用の画像認識処理を行い、識別情報記憶部151の識別情報に基づいて商品を識別する(ステップS405)。
 そして画像認識部120は、ステップS404又はS405で識別された商品を、画像中の商品として決定する(ステップS406)。
 最後に、商品情報取得部130は、ステップS406で決定された商品の商品IDに基づいて商品情報記憶部152から商品情報を取得し、表示制御部140は表示装置13を用いて商品情報を表示する制御を行う(ステップS407)。
 POS端末100のCPU101は、図15に示す画像認識方法に含まれる各ステップ(工程)の主体となる。すなわち、CPU101は、図15に示す画像認識方法を実行するためのプログラムをメモリ102又は記憶装置103から読み出し、該プログラムを実行してPOS端末100の各部を制御することによって図15に示す画像認識方法を実行する。
 本実施形態に係る画像認識システム10は、第3の実施形態と同様に、商品の外観に加えて、商品の配置される位置を用いて商品の画像認識を行う。これにより、商品が配置される位置の環境に対して適切な画像認識処理を実行できるため、画像認識の精度を向上させることができる。
(第6の実施形態)
 本実施形態は、第1~第5のいずれかの実施形態に係る画像認識システム10において、さらに基準線を用いる大きさ判定処理を行うことによって、異なる大きさの類似商品を区別する。
 図16は、本実施形態に係るPOS端末100(画像認識装置)のブロック図である。図16において、矢印は主なデータの流れを示しており、図16に示したもの以外のデータの流れがあってよい。図16において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図16に示すブロックは単一の装置内に実装されてよく、あるいは複数の装置内に別れて実装されてよい。ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてよい。
 本実施形態によるPOS端末100は、処理部として、図5に示す画像取得部110、画像認識部120、商品情報取得部130および表示制御部140に加えて、大きさ判定部160を備える。
 画像認識部120(抽出部ともいう)は、画像取得部110によって取得された画像に含まれる各商品を抽出し、抽出された各商品の画像中の範囲とともに抽出結果を出力する。例えば、識別情報記憶部151には、様々な商品の基準画像から予め算出された特徴量が、各商品を識別する商品IDと関連付けられて識別情報として記録される。特徴量として、形状、色、色の分布等、画像データから算出可能な商品の外観を示す任意の情報を用いてよい。画像認識部120は、画像取得部110によって取得された画像データから特徴量を算出し、識別情報記憶部151に記録された特徴量と比較する。そして、画像認識部120は、識別情報記憶部151の中で最も類似する(すなわち所定の基準を満たす)特徴量を有する商品を、画像中の商品として識別する。画像認識部120は、識別された商品の識別子である商品IDを識別情報記憶部151から取得して出力する。また、画像認識部120は、識別された商品の範囲(例えば特徴量を算出した領域の左上点および右下点の座標)を出力する。画像認識部120によって実行される商品認識方法として、ここに示した具体的な方法に限定されず、画像データから商品を識別可能な任意の画像認識技術が用いられてよい。
 大きさ判定部160(決定部ともいう)は、画像認識部120によって決定された商品の大きさが画像中の商品の大きさに近いか否かを判定し、それによって最終的に商品を決定する。具体的な大きさ判定処理については図19A~19Cを用いて後述する。
 本実施形態においてCPU101は、記憶装置103に記録されたプログラムを実行することによって、図16の画像取得部110、画像認識部120、商品情報取得部130、表示制御部140及び大きさ判定部160として機能する。
 本実施形態に係る画像認識処理では、画像認識部120は、予め記録された商品画像の外縁を画像中の商品に重ね合わせ、所定の基準線と外縁との差に基づいて商品を識別する。これにより、大きさが異なるバリエーションのある商品であっても、画像中の商品に近い大きさの商品を選択的に識別することができる。
 本実施形態では、図9に示すように外観が類似した商品D1、D2について、商品D1、D2が配置される基準線(基準座標)からの差を用いることによって大きさの区別を容易にし、画像認識の精度を向上させる。
 図17は、本実施形態で識別情報記憶部151に記録されている商品D1、D2の識別情報を示す模式図である。識別情報記憶部151には、商品D1、D2の識別情報として、商品D1、D2の商品ID、商品D1、D2の画像から算出される特徴量とともに、商品D1、D2のそれぞれの商品画像の外縁を囲む矩形の領域である外縁P1、P2の範囲(例えば左上点および右下点の座標)が記録される。外縁P1、P2は、商品D1、D2の外形を検出することによって自動的に検出されてよく、あるいは利用者によって設定されてよい。図17には視認性のために商品D1、D2の画像そのものが示されているが、商品D1、D2から算出される特徴量および商品D1、D2の外縁P1、P2の範囲を示す情報が、文字列、バイナリデータ等の任意の形式で識別情報記憶部151に記録されていればよい。
 図18は、商品が配置された状態の支持部200の上面図である。図18は、側面支持面211に対して垂直な方向から、商品D1、D2を支持している状態の支持部200を見た図である。図18のように側面支持面211が商品D1、D2の側面を支持し、底面支持面221が商品D1、D2の底面を支持するため、支持部200は商品D1、D2の底面を底面支持面221に揃えて支持するとともに、撮像装置11による商品D1、D2の側面の撮像を容易にすることができる。
 図19A~19Cは、本実施形態に係る画像認識システム10によって行われる大きさ判定処理の模式図である。図19A~19Cにはそれぞれx軸およびy軸が示されているが、x軸およびy軸のとり方は任意である。ここでは画像中の商品D1、D2は互いに類似しているため、商品D1、D2は従来の画像認識処理によって商品D1、D2のどちらにも決定され得る。本実施形態に係る大きさ判定処理は、画像中の商品D1、D2が、それぞれ大きさが異なる類似商品D1、D2のどちらであるか基準線(基準座標)を用いて高精度に識別する。ここでは商品の種類が2つの場合を示したが、種類の数は少なくとも2つの任意の数でよい。
 図19A~19Cには、撮像装置11によって取得される画像において、商品D1、D2とともに、大きさ判定の基準とする基準線Q(すなわち基準座標の集まり)が示されている。基準線Qは、例えばy=A(Aは定数)の式によって表される基準座標(基準点)であってもよい。商品D1、D2は支持部200によって支持されているため、商品D1、D2の所定の面(ここでは底面)は底面支持面221に自然と揃えられている。そのため、本実施形態では底面支持面221の位置を基準線Qとして定義し、各商品の底面は基準線Q上に位置する。基準線Q上に位置させる所定の面は、底面に限らず、商品の形状に応じた任意の面でよい。
 まず大きさ判定部160は、図19Aに示すように、撮像装置11によって取得される画像における商品D1、D2の位置および基準線Qの位置を取得する。大きさ判定部160は、画像認識部120が抽出した商品D1、D2の位置を画像認識部120から受け取る。撮像装置11によって取得される画像中の基準線Qの位置は、利用者によって予め設定され、記憶装置に記録されてよい。その場合には、大きさ判定部160は、例えば撮像装置11によって取得される画像における特定の画素の座標を、基準線Qの位置として記憶装置から読み出す。あるいは撮像装置11によって取得される画像中の基準線Qの位置は、画像認識部120が支持部200(底面支持面221)を画像認識することによって設定されてよい。その場合には、大きさ判定部160は、例えば画像認識部120が支持部200の形状、色、模様等の外観に基づいて決定した底面支持面221の位置を、基準線Qの位置として画像認識部120から受け取る。
 第1に、画像認識部120によって商品D1、D2に対してともに商品D1が抽出された場合を説明する。大きさ判定部160は、抽出された商品D1に対応する外縁P1の範囲を画像認識部120から受け取る。そして大きさ判定部160は、図19Bのように商品D1の外縁P1を、画像中の商品D1、D2に重ねる。外縁P1の範囲および画像中の商品D1、D2の範囲は、例えばそれぞれの領域の左下点および右下点の座標(x座標およびy座標)によって表される。そして、外縁P1の範囲および画像中の商品D1、D2の範囲の向きおよび中心点(重心)が一致するように、外縁P1および商品D1、D2は重ねられる。この状態が図19Bに示されている。大きさ判定部160は、画像中の各商品について基準線Qと外縁P1と間の距離を差Rとして算出する。画像認識部120は、差Rが所定の範囲内である場合(ここでは画像中の商品D1に商品D1の外縁P1が重ねられた場合)に、抽出された商品D1を採用し、所定の範囲内でない場合(ここでは画像中の商品D2に商品D1の外縁P1が重ねられた場合)に、抽出された商品D2を破棄する。差Rの所定の範囲は、利用者によって予め設定される。
 第2に、画像認識部120によって商品D1、D2に対してともに商品D2が抽出された場合を説明する。大きさ判定部160は、抽出された商品D2に対応する外縁P2の範囲を画像認識部120から受け取る。そして大きさ判定部160は、図19Cのように商品D2の外縁P2を、画像中の商品D1、D2に重ねる。外縁P2の範囲および画像中の商品D1、D2の範囲は、例えばそれぞれの領域の左下点および右下点の座標(x座標およびy座標)によって表される。そして、外縁P2の範囲および画像中の商品D1、D2の範囲の向きおよび中心点(重心)が一致するように、外縁P2および商品D1、D2は重ねられる。この状態が図19Cに示されている。大きさ判定部160は、画像中の各商品について基準線Qと外縁P2と間の距離を差Rとして算出する。画像認識部120は、差Rが所定の範囲内である場合(ここでは画像中の商品D2に商品D2の外縁P2が重ねられた場合)に、抽出された商品D2を採用し、所定の範囲内でない場合(ここでは画像中の商品D1に商品D2の外縁P2が重ねられた場合)に、抽出された商品D1を破棄する。差Rの所定の範囲は、利用者によって予め設定される。
 ここでは差Rとして基準線Qと外縁(すなわち外縁の基準線Qに最も近い点)との間の距離を用いたが、基準線Qと外縁との間の相対的な位置関係を表すその他の値を用いてもよい。例えば、外縁のいずれかの辺の中点を外縁の基準点とし、該基準点と基準線Qとの間の距離を差Rとして用いてもよい。あるいは、外縁の各辺の中点をそれぞれ外縁の基準点とし、複数の該基準点のそれぞれと基準線Qとの間の複数の距離を差Rとして用いてもよい。あるいは、商品の向きを検出することによって外縁の底辺を特定し、底辺上の特定の点(例えば端点又は中点)を外縁の基準点とし、該基準点と基準線Qとの間の距離を差Rとして用いてもよい。
 このように本実施形態に係る大きさ判定部160は、商品の外縁と基準線との間の差を算出し、該差が所定の範囲内である場合に、画像中の商品に近い大きさであるとみなし、商品を高精度に判定することができる。また、支持部200が商品を支持するため、商品(商品の底面)の位置を基準線に容易に揃えることができる。
 図20は、本実施形態に係る画像認識方法のフローチャートを示す図である。図20のフローチャートは、利用者が画像認識システム10に対して画像認識を実行するための所定の操作を行うことによって、あるいは所定の時間ごとに開始される。例えば、利用者がPOS端末100に接続された入力装置15(キーボードやタッチパネル)のボタンを押下することによって、図20のフローチャートが開始される。
 まず、画像取得部110は、撮像装置11によって撮像された画像を示す信号を受け取り、画像データとしてPOS端末100に入力する(ステップS501)。
 次に画像認識部120は、ステップS501で取得された画像の中で、支持部200に対応する領域(支持部領域)に対して、支持部200の角度C1および撮像装置11と支持部200との位置関係を用いて補正を行い、1つの画像データとして出力する(ステップS502)。支持部領域は、画像中の位置(例えば画素の座標)として予め設定されている。また、画像認識によって画像から支持部200の位置を決定し、該位置を支持部領域として用いてもよい。
 画像認識部120はステップS502で補正された画像データを用いて商品の画像認識処理を行い、識別情報記憶部151の識別情報に基づいて商品を識別する(ステップS503)。そして画像認識部120は、ステップS503で識別された商品を、画像中の商品として決定する(ステップS504)。1つの画像データ中に複数の商品が識別された場合には、各商品について以降の処理を行う。
 次に大きさ判定部160は、ステップS501で取得された画像から基準線Qの位置を取得する(ステップS505)。商品の所定の面(例えば底面)は、基準線Q上に位置している。画像中の基準線Qの位置は、例えば利用者によって予め設定された内容を読み出すこと、又はステップS501で取得された画像に対して画像認識を行うことによって取得される。
 次に大きさ判定部160は、画像中の商品の範囲およびステップS504で決定された商品の外縁の範囲を示す情報を画像認識部120から受け取り、ステップS504で決定された商品の外縁を画像中の商品に重ねる(ステップS506)。このとき、例えば外縁の範囲および商品の範囲の向きおよび中心点(重心)が一致するように、ステップS504で決定された商品の外縁が画像中の商品に重ねられる。商品の外縁は、例えば識別情報記憶部151に予め記録される。なお、商品の外縁とは、予め登録されている商品画像の外縁であってもよく、予め登録されている商品の外縁そのもの(すなわち外縁を表す点又は線の集まり)を記憶していてもよい。
 次に大きさ判定部160は、商品に重ねられた外縁の基準点と基準線Qとの間の距離を差Rとして算出する(ステップS507)。例えば、外縁の基準線Qに最も近い点を外縁の基準点とし、該基準点と基準線Qとの間の距離を差Rとして用いてもよい。あるいは、外縁のいずれかの辺の中点を外縁の基準点とし、該基準点と基準線Qとの間の距離を差Rとして用いてもよい。あるいは、外縁の各辺の中点をそれぞれ外縁の基準点とし、複数の該基準点のそれぞれと基準線Qとの間の複数の距離を差Rとして用いてもよい。あるいは、商品の向きを検出することによって外縁の底辺を特定し、底辺上の特定の点(例えば端点又は中点)を外縁の基準点とし、該基準点と基準線Qとの間の距離を差Rとして用いてもよい。
 ステップS507で算出された差Rが所定の範囲内である場合に(ステップS508のYES)、商品情報取得部130は、ステップS504で決定された商品の商品IDに基づいて商品情報記憶部152から商品情報を取得し、表示制御部140は表示装置13を用いて商品情報を表示する制御を行う(ステップS509)。
 ステップS507で算出された差Rが所定の範囲内でない場合に(ステップS508のNO)、商品情報取得部130は、ステップS504で決定された商品の識別結果を破棄する(ステップS510)。
 特に所定の時間ごとに図20のフローチャートが実行される場合には、載置台14に置かれたままの同一商品について繰り返し商品情報が取得されてしまい、会計において同一商品の価格が複数回集計されるおそれがある。そこで、画像認識部120が所定の時間以内又は所定のフレーム数以内に近似(例えば重心の位置の差が所定の値以下)の位置で同一の商品を識別した場合に、商品情報取得部130はステップS509において該商品についての商品情報の取得を行わない(図20のフローチャートには不図示)。
 図20のフローチャートでは、ステップS504で商品を仮に決定し、基準線との差が所定の範囲外であればステップS510で商品の識別結果を破棄するが、この具体的な形態に限られない。例えばステップS504で画像中の商品に類似する商品の複数の候補を抽出し、該複数の候補のうち基準線との差が所定の基準を満たす(例えば最も差が小さい)候補を、画像中の商品として決定してもよい。
 POS端末100のCPU101は、図20に示す画像認識方法に含まれる各ステップ(工程)の主体となる。すなわち、CPU101は、図20に示す画像認識方法を実行するためのプログラムをメモリ102又は記憶装置103から読み出し、該プログラムを実行してPOS端末100の各部を制御することによって図20に示す画像認識方法を実行する。
 本実施形態に係る画像認識システム10は、商品の外観に加えて、商品の外縁と基準線(基準座標)との位置の差を用いて商品の識別を行う。これにより、大きさの異なる複数の類似商品がある場合であっても、画像中の商品に近い大きさを有する商品を決定することができるため、画像認識の精度を向上させることができる。
 また、本実施形態は商品の底面が基準線に揃っていることを前提とするが、支持部200が商品を支持するとともに、基準線が底面支持面221に対応するため、商品(商品の底面)を基準線に容易に揃えることができる。
(第7の実施形態)
 第6の実施形態では支持部200を用いて商品の位置を基準線Qに揃えているのに対して、本実施形態では利用者によって商品の位置を載置台14上に表される基準線Qに揃える。本実施形態は、第6の実施形態と同様の構成を有する画像認識システム10を用いる。本実施形態は、第1~第6のいずれかの実施形態の代わりに用いられてよく、あるいは第1~第6の少なくともいずれかの実施形態に組み合わせて用いてられてよい。
 図21は、本実施形態に係る載置台14上の認識領域Aの上面図である。図21には、撮像装置11を載置台14上に投影した位置が破線で示されている。認識領域A内には、大きさ判定の基準とする基準線Qが表されている。基準線Qは、利用者に視覚的に示すことができる任意の方法によって表され、例えば載置台14上の設けられた突起や窪み等の構造、載置台14に表された記号や色、あるいは投影装置12により投影された光によって表される。
 撮像装置11によって取得される画像中の基準線Qの位置は、利用者によって予め設定されるか、あるいは画像認識部120が認識領域A内の基準線Qを画像認識することによって設定されてよい。
 画像認識を行う前に、利用者は飲料缶等の大きさが異なるバリエーションがあり得る商品D1、D2を、その底面が基準線Qに揃うように配置する。なお、バリエーションのない商品については、利用者は認識領域A上の任意の領域に配置してもよい。
 次に、利用者は画像認識システム10に対して画像認識方法を実行するための操作を行う。画像認識システム10は、図20のフローチャートに示す画像認識方法に従って、載置台14上に配置された商品D1、D2に対して画像認識を行う。そして、画像認識システム10は、認識領域A内に表された基準線Qに基づいて大きさの判定を行う。
 その後、画像認識システム10は、画像認識によって識別された商品の商品情報を表示装置13に表示する。
 本実施形態では、第1の実施形態とは異なり利用者の手で商品を基準線Qに揃うように配置する手間があるものの、大きさの異なる複数の類似商品がある場合であっても、画像中の商品に近い大きさを有する商品を選択的に識別することができるため、画像認識の精度を向上させることができる。
(第8の実施形態)
 第6および第7の実施形態はPOS端末において会計時の商品を画像認識の対象とするのに対して、本実施形態は棚に置かれた状態の商品を画像認識の対象とする。以下では主に第6の実施形態と異なる点を説明する。
 図22は、本実施形態に係る画像認識システム20の模式図である。画像認識システム20は、画像認識装置300、画像認識の対象とする商品を配置するための棚400を備える。画像認識装置300には、棚400上の商品を撮像可能な位置に設けられた撮像装置11、および商品に係る情報を表示する表示装置13が接続されている。撮像装置11および表示装置13の構成は第6の実施形態と同様である。第6の実施形態に比べて投影装置12は省略されているが、設けられてもよい。
 第6の実施形態ではPOS端末100を画像認識装置としているが、本実施形態では一般的なコンピュータを画像認識装置300とする。第6の実施形態のように、画像認識装置300をPOS端末のような他の装置と一体に構成してもよい。
 画像認識装置300の機器構成は、図6に示すPOS端末100の機器構成と同様である。画像認識装置300は、画像認識方法によって棚400上の商品を識別し、表示装置13に棚400上の商品の配置に関する情報を表示する。商品の配置に関する情報は、例えば特定の商品が配置されている数および位置の情報、あるいは商品の配置が基準とする陳列条件を満たしているか否かの情報等である。
 撮像装置11は、棚400の前面を撮像可能な位置に設けられ、不図示の柱、アーム、天井等に固定される。1つの撮像装置11で棚400の広範囲の画像認識を行うために、撮像装置11を可動にし、棚400の異なる領域を撮像可能にすることが望ましい。撮像装置11は、少なくとも棚400の前面を含む領域を撮像可能であり、撮像した画像を示す信号を画像認識装置300に送信する。撮像装置11が撮像した画像を示す信号は、直接画像認識装置300に送信されてよく、あるいは一旦記憶装置に記録された後に画像認識装置300によって読み出されてよい。撮像装置11は、所定の時間間隔で撮像を行ってよく、あるいは画像認識装置300からの指示に従って撮像を行ってよい。
 図23は、本実施形態に係る棚400の前面図である。棚400は、水平方向(すなわち重力方向に対して垂直な方向)に延在する少なくとも1つの棚板410を有する。棚板410上に商品D1、D2が載置される。撮像装置11によって商品D1、D2の配置が撮像可能であれば、棚400の前面側に透明な扉が設けられてもよい。
 本実施形態において、棚板410の上面が、大きさ判定の基準とする基準線Qに対応する。そのため、棚400に配置されている商品D1、D2の所定の面(ここでは底面)は、基準線Qに自然と揃えられている。
 撮像装置11によって取得される画像中の基準線Qの位置は、利用者によって予め設定されるか、あるいは画像認識部120が棚板410を画像認識することによって設定されてよい。
 画像認識を行う際に、利用者は画像認識システム20に対して画像認識方法を実行するための操作を行う。画像認識システム20は、図20のフローチャートに示す画像認識方法に従って、棚400に配置された商品D1、D2に対して画像認識を行う。そして、画像認識システム10は、基準線Q(すなわち棚板410の上面)に基づいて大きさの判定を行う。
 その後、画像認識システム20は、画像認識によって識別された商品の商品情報を用いて、表示装置13に棚400上の商品の配置に関する情報を表示する。
 本実施形態に係る画像認識システム20は、会計時の商品ではなく、棚に並んでいる商品に対して画像認識を行い、商品の配置に関する情報を出力する。このとき、大きさの異なる複数の類似商品がある場合であっても、画像中の商品に近い大きさを有する商品を選択的に識別することができるため、画像認識の精度を向上させることができる。また、商品が配置されている棚板の上面を大きさ判定の基準線とするため、商品(商品の底面)を基準線に容易に揃えることができる。
(その他の実施形態)
 図24は、上述の各実施形態に係る画像認識システム10の概略構成図である。図24には、画像認識システム10が商品の側面に対して画像認識を行うための構成例が示されている。画像認識システム10は、下方を撮像するように設けられる撮像装置の下方において商品を載置するための載置台14と、前記商品を前記載置台の上面に対して所定の角度に支持する支持構造(支持部)200と、前記撮像装置によって取得される前記商品の画像に対して画像認識を行うことによって前記商品を識別する画像認識装置(POS端末)100と、を備える。
 図25は、上述の各実施形態に係るPOS端末100の概略構成図である。図25には、POS端末100が商品の位置の情報を用いて画像認識を行う画像認識装置として機能するための構成例が示されている。POS端末100は、認識領域に配置されている商品の画像を取得する画像取得部110と、取得した前記画像における前記商品の外観および前記商品の前記認識領域中の位置に基づいて、前記商品を識別する画像認識部120と、を備える。
 図26は、上述の各実施形態に係る画像認識装置の概略構成図である。図26には、画像認識装置(すなわちPOS端末100又は画像認識装置300)が、基準座標の情報を用いて商品の画像認識を行う装置として機能するための構成例が示されている。画像認識装置(POS端末)100、300は、所定の面が基準座標の上に位置するように配置されている商品の画像を取得する画像取得部110と、取得した前記画像中の前記商品の外観に基づいて、取得した前記画像中の前記商品に対応する商品を抽出する画像認識部(抽出部)120と、取得した前記画像中の前記商品に、抽出した前記商品の外縁を重ね、前記外縁と前記基準座標との差を算出し、前記差に基づいて、取得した前記画像中の前記商品を決定する大きさ判定部(決定部)160と、を備える。
 本発明は、上述の実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において適宜変更可能である。
 上述の各実施形態の機能を実現するように該実施形態の構成を動作させるプログラム(例えば、図7、11、13、15および20に示す処理をPOS端末100に実行させるプログラム)を記録媒体に記録させ、該記録媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記録媒体も各実施形態の範囲に含まれる。また、上述のコンピュータプログラムが記録された記録媒体はもちろん、そのコンピュータプログラム自体も各実施形態に含まれる。
 該記録媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記録媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS上で動作して処理を実行するものも各実施形態の範疇に含まれる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
 下方を撮像するように設けられる撮像装置の下方において商品を載置するための載置台と、
 前記商品を前記載置台の上面に対して所定の角度に支持する支持構造と、
 前記撮像装置によって取得される前記商品の画像に対して画像認識を行うことによって前記商品を識別する画像認識装置と、
 を備える画像認識システム。
(付記2)
 前記画像認識装置は、前記載置台に直接載置される前記商品と、前記支持構造に支持される前記商品との間で異なる前記画像認識を行うように構成されることを特徴とする、付記1に記載の画像認識システム。
(付記3)
 前記画像認識装置は、前記載置台上の所定の認識領域に対して前記画像認識を行うように構成され、
 前記支持構造は、前記認識領域の端に接して又は前記端の近傍に設けられることを特徴とする、付記1又は2に記載の画像認識システム。
(付記4)
 前記支持構造は、前記撮像装置の光軸が前記認識領域に交わる点と、前記認識領域の前記端とを結ぶ線分の中点よりも前記認識領域の前記端に近い位置に設けられることを特徴とする、付記3に記載の画像認識システム。
(付記5)
 前記認識領域を投影する投影装置をさらに備えることを特徴とする、付記3又は4に記載の画像認識システム。
(付記6)
 前記支持構造は、前記載置台の上面に対して前記角度をなす側面支持面を有することを特徴とする、付記1~5のいずれか一項に記載の画像認識システム。
(付記7)
 前記支持構造は、前記側面支持面に対して垂直な底面支持面を有することを特徴とする、付記6に記載の画像認識システム。
(付記8)
 前記角度は、0度より大きく90度より小さいことを特徴とする、付記1~7のいずれか一項に記載の画像認識システム。
(付記9)
 前記角度は、30度以上60度以下であることを特徴とする、付記8に記載の画像認識システム。
(付記10)
 前記画像認識装置は、前記角度を用いて前記画像を補正し、補正された前記画像に対して前記画像認識を行うように構成されていることを特徴とする、付記8又は9に記載の画像認識システム。
(付記11)
 前記画像認識装置は、
  認識領域に配置されている前記商品の前記画像を取得する画像取得部と、
 取得した前記画像における前記商品の外観および前記商品の前記認識領域中の位置に基づいて、前記商品を識別する画像認識部と、
 を備えることを特徴とする、付記1~10のいずれか一項に記載の画像認識システム。
(付記12)
 前記認識領域は少なくとも2つの領域に区分されており、
 前記画像認識部は、前記少なくとも2つの領域に対してそれぞれ異なる処理を用いて前記商品を識別することを特徴とする、付記11に記載の画像認識システム。
(付記13)
 前記少なくとも2つの領域は、前記認識領域に表された記号又は色、前記認識領域に投影された光、および前記認識領域に設けられた構造のいずれかによって示されることを特徴とする、付記12に記載の画像認識システム。
(付記14)
 前記画像取得部は、前記認識領域に設けられた前記支持構造によって支持されている前記商品の前記画像を取得し、
 前記画像認識部は、取得した前記画像における前記商品の外観および前記商品の前記支持構造上の位置に基づいて、前記商品を識別することを特徴とする、付記11~13のいずれか一項に記載の画像認識システム。
(付記15)
 前記画像認識部は、前記商品の前記認識領域中の前記位置に基づいて前記商品の大きさを判定し、前記大きさを用いて前記商品を識別することを特徴とする、付記11~14のいずれか一項に記載の画像認識システム。
(付記16)
 前記画像認識部は、前記商品を識別する際に、前記商品の前記認識領域中の前記位置に基づいて前記商品の種類を判定し、前記種類を用いて前記商品を識別することを特徴とする、付記11~15のいずれか一項に記載の画像認識システム。
(付記17)
 前記画像認識部は、前記商品を識別する際に、前記商品の前記認識領域中の前記位置に基づいて、取得した前記画像における前記商品の前記認識領域中の前記位置の明るさを判定し、前記明るさを用いて前記商品を識別することを特徴とする、付記11~16のいずれか一項に記載の画像認識システム。
(付記18)
 認識領域に配置されている商品の画像を取得するステップと、
 取得した前記画像における前記商品の外観および前記商品の前記認識領域中の位置に基づいて、前記商品を識別するステップと、
 を有する画像認識方法。
(付記19)
 コンピュータに、
 認識領域に配置されている商品の画像を取得するステップと、
 取得した前記画像における前記商品の外観および前記商品の前記認識領域中の位置に基づいて、前記商品を識別するステップと、
 を実行させるプログラムが記録された記録媒体。
(付記20)
 前記画像認識装置は、
  所定の面が基準座標の上に位置するように配置されている前記商品の前記画像を取得する画像取得部と、
  取得した前記画像中の前記商品の外観に基づいて、取得した前記画像中の前記商品に対応する商品を抽出する抽出部と、
  取得した前記画像中の前記商品に、抽出した前記商品の外縁を重ね、前記外縁と前記基準座標との差を算出し、前記差に基づいて、取得した前記画像中の前記商品を決定する決定部と、
 を備えることを特徴とする、付記1~17のいずれか一項に記載の画像認識システム。
(付記21)
 前記決定部は、前記差が所定の範囲内である場合に、抽出した前記商品を、取得した前記画像中の前記商品として決定することを特徴とする、付記20に記載の画像認識システム。
(付記22)
 前記決定部は、取得した前記画像中の前記商品の中心が前記外縁の中心に一致するように、取得した前記画像中の前記商品に前記外縁を重ねることを特徴とする、付記20又は21に記載の画像認識システム。
(付記23)
 前記外縁は、抽出した前記商品を囲む矩形の領域であることを特徴とする、付記20~22のいずれか一項に記載の画像認識システム。
(付記24)
 前記商品は、前記商品の前記所定の面を支持する支持面を有する前記支持構造によって支持され、
 前記基準座標は前記支持面に対応することを特徴とする、付記20~23のいずれか一項に記載の画像認識システム。
(付記25)
 前記商品は、水平方向に延在する前記載置台に載置され、
 前記基準座標は、前記載置台上に表されていることを特徴とする、付記20~23のいずれか一項に記載の画像認識システム。
(付記26)
 前記商品は、水平方向に延在する棚板を有する棚に配置され、
 前記基準座標は、前記棚板の上面に対応することを特徴とする、付記20~23のいずれか一項に記載の画像認識システム。
(付記27)
 所定の面が基準座標の上に位置するように配置されている商品の画像を取得するステップと、
 取得した前記画像中の前記商品の外観に基づいて、取得した前記画像中の前記商品に対応する商品を抽出するステップと、
 取得した前記画像中の前記商品に、抽出した前記商品の外縁を重ねるステップと、
 前記外縁と前記基準座標との差を算出するステップと、
 前記差に基づいて、取得した前記画像中の前記商品を決定するステップと、
 を有する画像認識方法。
(付記28)
 コンピュータに、
 所定の面が基準座標の上に位置するように配置されている商品の画像を取得するステップと、
 取得した前記画像中の前記商品の外観に基づいて、取得した前記画像中の前記商品に対応する商品を抽出するステップと、
 取得した前記画像中の前記商品に、抽出した前記商品の外縁を重ねるステップと、
 前記外縁と前記基準座標との差を算出するステップと、
 前記差に基づいて、取得した前記画像中の前記商品を決定するステップと、
 を実行させるプログラムが記録された記録媒体。
 以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2017年2月14日に出願された日本出願特願2017-024890を基礎とする優先権、2017年2月14日に出願された日本出願特願2017-024891を基礎とする優先権、及び2017年2月14日に出願された日本出願特願2017-024892を基礎とする優先権を主張し、それらの開示の全てをここに取り込む。
 10、20 画像認識システム
 11 撮像装置
 12 投影装置
 13 表示装置
 14 載置台
 100、300 POS端末(画像認識装置)
 101 CPU
 102 メモリ
 103 記憶装置
 104 インターフェース
 110 画像取得部
 120 画像認識部
 130 商品情報取得部
 140 表示制御部
 160 大きさ判定部
 200 支持部
 211 側面支持面
 221 底面支持面
 A 認識領域
 P1、P2 外縁
 Q 基準線

Claims (28)

  1.  下方を撮像するように設けられる撮像装置の下方において商品を載置するための載置台と、
     前記商品を前記載置台の上面に対して所定の角度に支持する支持構造と、
     前記撮像装置によって取得される前記商品の画像に対して画像認識を行うことによって前記商品を識別する画像認識装置と、
     を備える画像認識システム。
  2.  前記画像認識装置は、前記載置台に直接載置される前記商品と、前記支持構造に支持される前記商品との間で異なる前記画像認識を行うように構成されることを特徴とする、請求項1に記載の画像認識システム。
  3.  前記画像認識装置は、前記載置台上の所定の認識領域に対して前記画像認識を行うように構成され、
     前記支持構造は、前記認識領域の端に接して又は前記端の近傍に設けられることを特徴とする、請求項1又は2に記載の画像認識システム。
  4.  前記支持構造は、前記撮像装置の光軸が前記認識領域に交わる点と、前記認識領域の前記端とを結ぶ線分の中点よりも前記認識領域の前記端に近い位置に設けられることを特徴とする、請求項3に記載の画像認識システム。
  5.  前記認識領域を投影する投影装置をさらに備えることを特徴とする、請求項3又は4に記載の画像認識システム。
  6.  前記支持構造は、前記載置台の上面に対して前記角度をなす側面支持面を有することを特徴とする、請求項1~5のいずれか一項に記載の画像認識システム。
  7.  前記支持構造は、前記側面支持面に対して垂直な底面支持面を有することを特徴とする、請求項6に記載の画像認識システム。
  8.  前記角度は、0度より大きく90度より小さいことを特徴とする、請求項1~7のいずれか一項に記載の画像認識システム。
  9.  前記角度は、30度以上60度以下であることを特徴とする、請求項8に記載の画像認識システム。
  10.  前記画像認識装置は、前記角度を用いて前記画像を補正し、補正された前記画像に対して前記画像認識を行うように構成されていることを特徴とする、請求項8又は9に記載の画像認識システム。
  11.  前記画像認識装置は、
      認識領域に配置されている前記商品の前記画像を取得する画像取得部と、
     取得した前記画像における前記商品の外観および前記商品の前記認識領域中の位置に基づいて、前記商品を識別する画像認識部と、
     を備えることを特徴とする、請求項1~10のいずれか一項に記載の画像認識システム。
  12.  前記認識領域は少なくとも2つの領域に区分されており、
     前記画像認識部は、前記少なくとも2つの領域に対してそれぞれ異なる処理を用いて前記商品を識別することを特徴とする、請求項11に記載の画像認識システム。
  13.  前記少なくとも2つの領域は、前記認識領域に表された記号又は色、前記認識領域に投影された光、および前記認識領域に設けられた構造のいずれかによって示されることを特徴とする、請求項12に記載の画像認識システム。
  14.  前記画像取得部は、前記認識領域に設けられた前記支持構造によって支持されている前記商品の前記画像を取得し、
     前記画像認識部は、取得した前記画像における前記商品の外観および前記商品の前記支持構造上の位置に基づいて、前記商品を識別することを特徴とする、請求項11~13のいずれか一項に記載の画像認識システム。
  15.  前記画像認識部は、前記商品の前記認識領域中の前記位置に基づいて前記商品の大きさを判定し、前記大きさを用いて前記商品を識別することを特徴とする、請求項11~14のいずれか一項に記載の画像認識システム。
  16.  前記画像認識部は、前記商品を識別する際に、前記商品の前記認識領域中の前記位置に基づいて前記商品の種類を判定し、前記種類を用いて前記商品を識別することを特徴とする、請求項11~15のいずれか一項に記載の画像認識システム。
  17.  前記画像認識部は、前記商品を識別する際に、前記商品の前記認識領域中の前記位置に基づいて、取得した前記画像における前記商品の前記認識領域中の前記位置の明るさを判定し、前記明るさを用いて前記商品を識別することを特徴とする、請求項11~16のいずれか一項に記載の画像認識システム。
  18.  認識領域に配置されている商品の画像を取得するステップと、
     取得した前記画像における前記商品の外観および前記商品の前記認識領域中の位置に基づいて、前記商品を識別するステップと、
     を有する画像認識方法。
  19.  コンピュータに、
     認識領域に配置されている商品の画像を取得するステップと、
     取得した前記画像における前記商品の外観および前記商品の前記認識領域中の位置に基づいて、前記商品を識別するステップと、
     を実行させるプログラムが記録された記録媒体。
  20.  前記画像認識装置は、
      所定の面が基準座標の上に位置するように配置されている前記商品の前記画像を取得する画像取得部と、
      取得した前記画像中の前記商品の外観に基づいて、取得した前記画像中の前記商品に対応する商品を抽出する抽出部と、
      取得した前記画像中の前記商品に、抽出した前記商品の外縁を重ね、前記外縁と前記基準座標との差を算出し、前記差に基づいて、取得した前記画像中の前記商品を決定する決定部と、
     を備えることを特徴とする、請求項1~17のいずれか一項に記載の画像認識システム。
  21.  前記決定部は、前記差が所定の範囲内である場合に、抽出した前記商品を、取得した前記画像中の前記商品として決定することを特徴とする、請求項20に記載の画像認識システム。
  22.  前記決定部は、取得した前記画像中の前記商品の中心が前記外縁の中心に一致するように、取得した前記画像中の前記商品に前記外縁を重ねることを特徴とする、請求項20又は21に記載の画像認識システム。
  23.  前記外縁は、抽出した前記商品を囲む矩形の領域であることを特徴とする、請求項20~22のいずれか一項に記載の画像認識システム。
  24.  前記商品は、前記商品の前記所定の面を支持する支持面を有する前記支持構造によって支持され、
     前記基準座標は前記支持面に対応することを特徴とする、請求項20~23のいずれか一項に記載の画像認識システム。
  25.  前記商品は、水平方向に延在する前記載置台に載置され、
     前記基準座標は、前記載置台上に表されていることを特徴とする、請求項20~23のいずれか一項に記載の画像認識システム。
  26.  前記商品は、水平方向に延在する棚板を有する棚に配置され、
     前記基準座標は、前記棚板の上面に対応することを特徴とする、請求項20~23のいずれか一項に記載の画像認識システム。
  27.  所定の面が基準座標の上に位置するように配置されている商品の画像を取得するステップと、
     取得した前記画像中の前記商品の外観に基づいて、取得した前記画像中の前記商品に対応する商品を抽出するステップと、
     取得した前記画像中の前記商品に、抽出した前記商品の外縁を重ねるステップと、
     前記外縁と前記基準座標との差を算出するステップと、
     前記差に基づいて、取得した前記画像中の前記商品を決定するステップと、
     を有する画像認識方法。
  28.  コンピュータに、
     所定の面が基準座標の上に位置するように配置されている商品の画像を取得するステップと、
     取得した前記画像中の前記商品の外観に基づいて、取得した前記画像中の前記商品に対応する商品を抽出するステップと、
     取得した前記画像中の前記商品に、抽出した前記商品の外縁を重ねるステップと、
     前記外縁と前記基準座標との差を算出するステップと、
     前記差に基づいて、取得した前記画像中の前記商品を決定するステップと、
     を実行させるプログラムが記録された記録媒体。
PCT/JP2018/004422 2017-02-14 2018-02-08 画像認識システム、画像認識方法及び記録媒体 WO2018151008A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/485,680 US11367266B2 (en) 2017-02-14 2018-02-08 Image recognition system, image recognition method, and storage medium
CN201880011459.8A CN110326032B (zh) 2017-02-14 2018-02-08 图像识别***、图像识别方法和存储介质
US17/739,439 US20220262088A1 (en) 2017-02-14 2022-05-09 Image recognition system, image recognition method, and storage medium

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2017024891A JP6862888B2 (ja) 2017-02-14 2017-02-14 画像認識装置、システム、方法およびプログラム
JP2017-024892 2017-02-14
JP2017-024891 2017-02-14
JP2017024890A JP6801490B2 (ja) 2017-02-14 2017-02-14 画像認識システム
JP2017024892A JP6878938B2 (ja) 2017-02-14 2017-02-14 画像認識装置、システム、方法およびプログラム
JP2017-024890 2017-02-14

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/485,680 A-371-Of-International US11367266B2 (en) 2017-02-14 2018-02-08 Image recognition system, image recognition method, and storage medium
US17/739,439 Continuation US20220262088A1 (en) 2017-02-14 2022-05-09 Image recognition system, image recognition method, and storage medium

Publications (1)

Publication Number Publication Date
WO2018151008A1 true WO2018151008A1 (ja) 2018-08-23

Family

ID=63169454

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/004422 WO2018151008A1 (ja) 2017-02-14 2018-02-08 画像認識システム、画像認識方法及び記録媒体

Country Status (3)

Country Link
US (2) US11367266B2 (ja)
CN (1) CN110326032B (ja)
WO (1) WO2018151008A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021166146A1 (ja) * 2020-02-20 2021-08-26

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7062507B2 (ja) * 2018-05-08 2022-05-16 東芝テック株式会社 物品認識装置
CN112270664A (zh) * 2020-04-16 2021-01-26 上海扩博智能技术有限公司 透明包装产品检测方法、***、设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013054673A (ja) * 2011-09-06 2013-03-21 Toshiba Tec Corp 情報処理装置及びプログラム
WO2015140855A1 (ja) * 2014-03-20 2015-09-24 日本電気株式会社 Pos端末装置、posシステム、画像処理方法及びプログラムが格納された非一時的なコンピュータ可読媒体
JP2017220198A (ja) * 2016-06-01 2017-12-14 サインポスト株式会社 情報処理システム

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10050083A1 (de) * 2000-10-10 2002-04-18 Sick Ag Vorrichtung und Verfahren zur Erfassung von Objekten
JP4016735B2 (ja) 2001-11-30 2007-12-05 株式会社日立製作所 レーンマーク認識方法
JP4260634B2 (ja) * 2002-02-15 2009-04-30 富士通株式会社 画像変換方法及び装置、画像認識装置、ロボット制御装置並びに画像投影装置
JP4042780B2 (ja) * 2005-11-04 2008-02-06 オムロン株式会社 物体認識方法、物体認識用のプログラムならびにその記憶媒体、および物体認識装置
JP2010008272A (ja) 2008-06-27 2010-01-14 Maspro Denkoh Corp ミリ波撮像装置
CN202111802U (zh) 2010-02-12 2012-01-11 王炳立 多图像传感器的监控设备的校准装置
JP5780865B2 (ja) * 2011-07-14 2015-09-16 キヤノン株式会社 画像処理装置、撮像システム、画像処理システム
JP2013045434A (ja) * 2011-08-26 2013-03-04 Toshiba Tec Corp 硬貨入出金装置、硬貨入出金装置の制御方法及び制御プログラム
US9129277B2 (en) * 2011-08-30 2015-09-08 Digimarc Corporation Methods and arrangements for identifying objects
EP2751748B1 (en) 2011-08-30 2019-05-08 Digimarc Corporation Methods and arrangements for identifying objects
US11288472B2 (en) * 2011-08-30 2022-03-29 Digimarc Corporation Cart-based shopping arrangements employing probabilistic item identification
CN102495026B (zh) * 2011-11-23 2013-08-28 天津大学 一种用于线激光扫描视觉测量***的光带中心线提取方法
JP5451787B2 (ja) 2012-01-31 2014-03-26 東芝テック株式会社 情報処理装置、店舗システム及びプログラム
JP2013250768A (ja) 2012-05-31 2013-12-12 Toshiba Tec Corp 商品認識装置及び商品認識プログラム
US8960549B2 (en) * 2012-06-29 2015-02-24 Ncr Corporation Method, apparatus and system for scanning an optical code
KR101947538B1 (ko) 2012-08-28 2019-02-13 가부시끼가이샤 히다치 세이사꾸쇼 인증 장치, 및 인증 방법
JP2014049015A (ja) 2012-09-03 2014-03-17 Toshiba Tec Corp 商品認識装置及び商品認識プログラム
JP5677389B2 (ja) 2012-09-06 2015-02-25 東芝テック株式会社 情報処理装置及びプログラム
US9595029B1 (en) * 2012-10-04 2017-03-14 Ecr Software Corporation System and method for self-checkout, scan portal, and pay station environments
JP6265132B2 (ja) 2012-12-06 2018-01-24 日本電気株式会社 画像認識処理適性表示システム、方法およびプログラム
JP6027875B2 (ja) * 2012-12-07 2016-11-16 オリンパス株式会社 撮像装置及び顕微鏡システム
JP6239262B2 (ja) 2013-05-09 2017-11-29 株式会社東芝 区分システム及び区分方法
JP6179592B2 (ja) * 2013-05-31 2017-08-16 日本電気株式会社 画像認識装置、その処理方法、およびプログラム
US20160203499A1 (en) 2013-09-06 2016-07-14 Nec Corporation Customer behavior analysis system, customer behavior analysis method, non-transitory computer readable medium, and shelf system
JP6220679B2 (ja) 2014-01-08 2017-10-25 東芝テック株式会社 情報処理装置、店舗システム及びプログラム
JP2015138349A (ja) 2014-01-21 2015-07-30 東芝テック株式会社 商品読取装置、販売データ処理装置および制御プログラム
US20150310601A1 (en) * 2014-03-07 2015-10-29 Digimarc Corporation Methods and arrangements for identifying objects
JP2015194791A (ja) 2014-03-31 2015-11-05 日本電気株式会社 Pos端末装置
FR3020871B1 (fr) 2014-05-07 2017-08-11 Areva Dispositif et procede de reconstruction tridimensionnelle d'une scene par analyse d'image
US9239943B2 (en) * 2014-05-29 2016-01-19 Datalogic ADC, Inc. Object recognition for exception handling in automatic machine-readable symbol reader systems
JP2016033694A (ja) * 2014-07-30 2016-03-10 東芝テック株式会社 物体認識装置及び物体認識プログラム
KR20160056466A (ko) * 2014-11-11 2016-05-20 삼성디스플레이 주식회사 표면 검사 장치, 표면 검사 방법 및 표시 장치의 제조 방법
US9330474B1 (en) 2014-12-23 2016-05-03 Ricoh Co., Ltd. Distinguishing between stock keeping units using a physical dimension of a region depicted in an image
JP6341124B2 (ja) * 2015-03-16 2018-06-13 カシオ計算機株式会社 オブジェクト認識装置および認識結果提示方法
JP6348887B2 (ja) * 2015-07-15 2018-06-27 東芝テック株式会社 販売データ処理装置およびプログラム
CN204946113U (zh) 2015-08-11 2016-01-06 华南理工大学 一种光轴垂直度调整装置
CN204883835U (zh) 2015-08-31 2015-12-16 丁慧洁 利用成像技术对外来物体碎片的识别装置
WO2017138436A1 (ja) * 2016-02-12 2017-08-17 花王株式会社 インクジェット記録装置
US10319094B1 (en) * 2016-05-20 2019-06-11 Ccc Information Services Inc. Technology for capturing, transmitting, and analyzing images of objects
CN106204622A (zh) 2016-07-22 2016-12-07 浙江大学 一种基于tv约束的断层相位显微镜重建方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013054673A (ja) * 2011-09-06 2013-03-21 Toshiba Tec Corp 情報処理装置及びプログラム
WO2015140855A1 (ja) * 2014-03-20 2015-09-24 日本電気株式会社 Pos端末装置、posシステム、画像処理方法及びプログラムが格納された非一時的なコンピュータ可読媒体
JP2017220198A (ja) * 2016-06-01 2017-12-14 サインポスト株式会社 情報処理システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021166146A1 (ja) * 2020-02-20 2021-08-26
WO2021166146A1 (ja) * 2020-02-20 2021-08-26 日本電気株式会社 物品特定装置、物品特定方法、及びプログラム
JP7388531B2 (ja) 2020-02-20 2023-11-29 日本電気株式会社 物品特定装置、物品特定方法、及びプログラム

Also Published As

Publication number Publication date
US20200012878A1 (en) 2020-01-09
US11367266B2 (en) 2022-06-21
US20220262088A1 (en) 2022-08-18
CN110326032B (zh) 2022-05-03
CN110326032A (zh) 2019-10-11

Similar Documents

Publication Publication Date Title
JP6897555B2 (ja) 情報処理装置、制御方法、及びプログラム
US20220262088A1 (en) Image recognition system, image recognition method, and storage medium
US11071399B2 (en) Shelf system
US10417696B2 (en) Suggestion generation based on planogram matching
JP4764920B2 (ja) カメラ内装式モバイルデバイスのビジュアルコードシステムおよびその応用例
WO2016052379A1 (ja) 情報処理装置、棚札管理システム、制御方法、及びプログラム
WO2016052382A1 (ja) 情報処理装置、棚札管理システム、制御方法、及びプログラム
US20200282429A1 (en) Package sorting system, projected instruction device, and package sorting method
CN112074842A (zh) 价签信息显示方法、装置及货架***
JP2015230236A (ja) 商品案内装置、端末装置、商品案内方法、及びプログラム
US20200334656A1 (en) Product recognition apparatus, sales data processing apparatus, and control method
US20150254488A1 (en) Code symbol reading apparatus and method for reading code symbol
US20210142092A1 (en) Method and Apparatus for Detecting and Interpreting Price Label Text
JP6878938B2 (ja) 画像認識装置、システム、方法およびプログラム
JP6801490B2 (ja) 画像認識システム
US10740614B2 (en) Information processing device, information processing method, and program storing medium
US20220261957A1 (en) Stitch images
JP7211447B2 (ja) 画像認識装置、システム、方法およびプログラム
JP2014032553A (ja) 長尺物本数測定装置、長尺物本数測定方法、及びコンピュータプログラム
EP4170616A1 (en) Information processing system, information processing device, and information processing method
JP7316203B2 (ja) 情報処理システム、情報処理装置、および情報処理方法
WO2019181035A1 (ja) 登録システム、登録方法及びプログラム
US11263452B2 (en) Method and device for detecting an inventory in a storage space
JPH057744B2 (ja)

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18754581

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18754581

Country of ref document: EP

Kind code of ref document: A1