JP6979653B2 - Product identification system - Google Patents

Product identification system Download PDF

Info

Publication number
JP6979653B2
JP6979653B2 JP2020068783A JP2020068783A JP6979653B2 JP 6979653 B2 JP6979653 B2 JP 6979653B2 JP 2020068783 A JP2020068783 A JP 2020068783A JP 2020068783 A JP2020068783 A JP 2020068783A JP 6979653 B2 JP6979653 B2 JP 6979653B2
Authority
JP
Japan
Prior art keywords
image information
face
information
product
shelf
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020068783A
Other languages
Japanese (ja)
Other versions
JP2020115380A (en
Inventor
成吉 谷井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Marketvision Co Ltd
Original Assignee
Marketvision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018145794A external-priority patent/JP6737446B2/en
Application filed by Marketvision Co Ltd filed Critical Marketvision Co Ltd
Priority to JP2020068783A priority Critical patent/JP6979653B2/en
Publication of JP2020115380A publication Critical patent/JP2020115380A/en
Application granted granted Critical
Publication of JP6979653B2 publication Critical patent/JP6979653B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明は,店舗などで陳列されている商品を特定するための商品特定システムに関する。 The present invention relates to a product identification system for specifying products displayed in stores and the like.

小売業界においては,商品の陳列状況が商品の販売に影響することが知られている。そのため,商品の製造会社,販売会社としては,自社または他社の商品が,店舗のどこに陳列されているのかを把握することで,自社商品の開発戦略,販売戦略につなげることができる。 In the retail industry, it is known that the display status of products affects the sales of products. Therefore, as a product manufacturing company or sales company, it is possible to connect to the development strategy and sales strategy of the company's products by grasping where the products of the company or other companies are displayed in the store.

一方,その実現のためには,店頭に陳列されている商品の正確な特定が重要である。そこで,店舗の陳列棚を撮影し,その画像情報から陳列されている商品を,人間が手作業で特定をすることが考えられる。この場合,ほぼ正確に商品を特定することができる。しかし,商品の陳列状況を継続的に把握するためには,一定期間ごとにその陳列状況を把握しなければならないが,店舗の陳列棚を撮影した画像情報から毎回,人間が商品を特定するのは,負担が大きくまた非効率である。 On the other hand, in order to realize this, it is important to accurately identify the products displayed in the store. Therefore, it is conceivable that a person manually identifies the products displayed from the image information of the display shelves of the store. In this case, the product can be identified almost accurately. However, in order to continuously grasp the display status of products, it is necessary to grasp the display status at regular intervals, but humans identify the products every time from the image information taken of the display shelves of the store. Is burdensome and inefficient.

そこで店舗の陳列棚を撮影した画像情報から,そこに陳列されている商品を自動的に特定し,商品の陳列状況を把握することが求められる。たとえば商品ごとの標本画像をもとに,店舗の陳列棚を撮影した画像に対して画像認識技術を用いる方法がある。これらの従来技術として,たとえば,下記特許文献1乃至特許文献3に示すような技術を用いて,商品の陳列状況を管理するシステムが存在する。 Therefore, it is required to automatically identify the products displayed on the display shelves of the store from the image information taken and grasp the display status of the products. For example, there is a method of using image recognition technology for an image taken of a display shelf of a store based on a sample image of each product. As these conventional techniques, for example, there is a system for managing the display status of products by using the techniques shown in the following Patent Documents 1 to 3.

特開平5−342230号公報Japanese Unexamined Patent Publication No. 5-342230 特開平5−334409号公報Japanese Unexamined Patent Publication No. 5-333409 国際公開2012/029548International release 2012/029548

特許文献1の発明は,商品をどの陳列棚に陳列すべきかが知識のない者にもできるように支援するシステムである。そのため,実際の商品の陳列状況を把握することはできない。また特許文献2は,商品の陳列を支援する棚割支援システムにおいて,商品画像の入力を支援するシステムである。しかし特許文献2のシステムでは,棚割支援システムを利用する際の商品画像の入力を支援するのみであって,このシステムを用いたとしても,実際の陳列状況がどのような状況であるかを特定することはできない。 The invention of Patent Document 1 is a system that supports a person who does not have knowledge about which display shelf a product should be displayed on. Therefore, it is not possible to grasp the actual display status of products. Further, Patent Document 2 is a system that supports input of a product image in a shelf allocation support system that supports the display of products. However, the system of Patent Document 2 only supports the input of product images when using the shelf allocation support system, and even if this system is used, what kind of situation is the actual display situation? It cannot be specified.

特許文献3は,陳列棚に空き空間がある場合に,その空き空間に陳列すべき商品を特定したり,陳列棚に陳列すべき商品を置き間違えた場合にそれを通知する発明である。この発明でも,商品と,陳列棚に陳列されている商品との画像マッチング処理を行って,陳列棚に陳列されている商品を特定しているが,認識精度が低いのが実情である。 Patent Document 3 is an invention for specifying a product to be displayed in the empty space when there is an empty space in the display shelf, or notifying the product when the product to be displayed is mistakenly placed on the display shelf. In the present invention as well, the image matching process between the product and the product displayed on the display shelf is performed to identify the product displayed on the display shelf, but the actual situation is that the recognition accuracy is low.

陳列棚を撮影した画像に対して,標本画像をもとに画像認識技術を用いる場合,その画像認識の精度や処理負荷が問題となる。たとえば,陳列棚が設置されている店舗では,照明の状態が均一ではなく,標本画像の照明との差が大きいと,画像認識の精度が低下する。そのため,陳列棚を撮影した画像から,そこに陳列されている商品を特定することは容易ではない場合がある。また,画像認識には大きな処理負荷が発生するので,多大なリソースが必要となってしまう。そのため,投下資本が大きくなってしまう。 When image recognition technology is used based on a sample image for an image taken on a display shelf, the accuracy of the image recognition and the processing load become problems. For example, in a store where display shelves are installed, if the lighting conditions are not uniform and the difference from the lighting of the sample image is large, the accuracy of image recognition deteriorates. Therefore, it may not be easy to identify the products displayed on the display shelves from the images taken. In addition, a large processing load is generated for image recognition, which requires a large amount of resources. Therefore, the invested capital becomes large.

そこで本発明者らは,上記課題に鑑み,陳列棚に陳列されている商品を,従来よりも高精度に特定できる一方,処理負荷を少なくすることを可能とする商品特定システムを発明した。 Therefore, in view of the above problems, the present inventors have invented a product identification system that can identify products displayed on display shelves with higher accuracy than before, while reducing the processing load.

第1の発明は,陳列棚に陳列している商品を特定するための商品特定システムであって,前記商品特定システムは,前記陳列棚を撮影した画像情報から,商品が置かれている領域であるフェイスを特定するフェイス特定処理部と,前記画像情報における,前記フェイスに表示されている商品の商品識別情報を特定し,前記フェイスに対応づけて商品識別情報記憶部に記憶させる商品識別情報特定処理部,を有しており,前記商品識別情報特定処理部は,第2の画像情報における処理対象とするフェイスの画像情報と,そのフェイスに対応する第1の画像情報におけるフェイスから所定範囲にあるフェイスの画像情報とを比較し,類似性が所定条件を充足している第1の画像情報におけるフェイスにある商品の商品識別情報を,前記第2の画像情報における前記処理対象とするフェイスにある商品の商品識別情報として特定する,商品特定システムである。
The first invention is a product identification system for specifying a product displayed on a display shelf, and the product identification system is a region in which a product is placed from image information obtained by photographing the display shelf. a face identification processing section for specifying a certain face, in the image information, to identify the product identification information of the commodity is displayed on the face, commodity identification information specific to be stored in the product identification information storage unit in association with the face It has a processing unit, and the product identification information identification processing unit has a predetermined range from the image information of the face to be processed in the second image information and the face in the first image information corresponding to the face. comparing the image information of a face, the commodity identification information of the commodity in the face in the first image information similarity is satisfied the predetermined condition, the face to be the processing target in the second image information It is a product identification system that identifies a product as product identification information.

画像情報のフェイスにおける商品を特定するためには,従来は,商品の標本画像情報と対比することが一般的であった。しかし,商品の標本画像情報と画像マッチング処理を行う場合,処理負荷が大きくなり,またその精度も高いとはいえない。一方,本発明のように,第1の画像情報におけるフェイスの画像情報と比較することによって,画像マッチング処理を大幅に減らせるので,処理負荷が少なくなる。また商品の配置は継続性があることも多いので,第1の画像情報におけるフェイスの画像情報と類似度が高ければ,同一の商品である可能性が高い。そのため,商品を特定する精度を向上させることもできる。 In order to identify a product on the face of image information, it has been common to compare it with the sample image information of the product. However, when performing image matching processing with sample image information of a product, the processing load becomes large and the accuracy cannot be said to be high. On the other hand, as in the present invention, the image matching process can be significantly reduced by comparing with the image information of the face in the first image information, so that the processing load is reduced. In addition, since the arrangement of products is often continuous, if the degree of similarity with the image information of the face in the first image information is high, it is highly possible that the products are the same. Therefore, it is possible to improve the accuracy of identifying the product.

上述の発明において,前記商品識別情報特定処理部は,第2の画像情報におけるフェイスの画像情報と,そのフェイスに対応する第1の画像情報におけるフェイスから所定範囲にあるフェイスの画像情報とを比較し,もっとも類似性が高くかつ一定の閾値以上である第1の画像情報におけるフェイスにある商品の商品識別情報を,前記第2の画像情報におけるフェイスにある商品の商品識別情報として特定する,商品特定システムのように構成することができる。
In the above-described invention, the product identification information specifying processing unit compares the image information of the face in the second image information with the image information of the face in a predetermined range from the face in the first image information corresponding to the face. However, the product identification information of the product on the face in the first image information having the highest similarity and equal to or higher than a certain threshold is specified as the product identification information of the product on the face in the second image information. It can be configured like a specific system.

上述の発明において,前記商品特定システムは,さらに,商品の標本画像情報を記憶する標本画像情報記憶部,を有しており,前記商品識別情報特定処理部は,さらに,前記第2の画像情報におけるフェイスの画像情報と,そのフェイスに対応する前記第1の画像情報におけるフェイスから所定範囲にあるフェイスの画像情報との比較の結果,類似性が所定条件を充足していない場合には,前記第2の画像情報におけるフェイスの画像情報と,前記標本画像情報記憶部に記憶する標本画像情報とを比較することで,前記第2の画像情報におけるフェイスにある商品の商品識別情報を特定する,商品特定システムのように構成することができる。
In the above-described invention, the product identification system further includes a sample image information storage unit for storing sample image information of the product, and the product identification information identification processing unit further includes the second image information. As a result of comparison between the image information of the face in the above and the image information of the face in the predetermined range from the face in the first image information corresponding to the face, if the similarity does not satisfy the predetermined condition, the above By comparing the image information of the face in the second image information with the sample image information stored in the sample image information storage unit, the product identification information of the product on the face in the second image information is specified. It can be configured like a product identification system.

陳列棚に陳列されている商品について,その配置が変更されることもある。その場合,第2の画像情報におけるフェイスの商品識別情報を特定するにあたり,第1の画像情報におけるフェイスの画像情報との比較の結果,類似性が所定条件を充足していない場合もある。その場合には,本発明のように,第2の画像情報におけるフェイスの画像情報と標本画像情報とを比較することで,商品識別情報を特定することが好ましい。 The arrangement of the products displayed on the display shelves may be changed. In that case, in specifying the product identification information of the face in the second image information, as a result of comparison with the image information of the face in the first image information, the similarity may not satisfy the predetermined condition. In that case, it is preferable to specify the product identification information by comparing the image information of the face in the second image information with the sample image information as in the present invention.

上述の発明において,前記商品特定システムは,さらに,画像情報に対する棚段位置の特定を行う棚段位置特定処理部,を有しており,前記棚段位置特定処理部は,前記第2の画像情報における棚段の位置を,前記第1の画像情報における棚段の位置に基づいて特定する,商品特定システムのように構成することができる。 In the above-described invention, the product identification system further includes a shelf stage position specifying processing unit for specifying the shelf stage position with respect to image information, and the shelf stage position specifying processing unit is the second image. The position of the shelf in the information can be configured like a product identification system that specifies the position of the shelf in the first image information based on the position of the shelf.

第2の画像情報における棚段の位置は,本発明のように,第1の画像情報における棚段の位置に基づいて特定することで,処理負荷を掛けずに特定できる。 The position of the shelf in the second image information can be specified without applying a processing load by specifying the position of the shelf in the first image information based on the position of the shelf in the first image information as in the present invention.

第1の発明の商品特定システムは,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータを,陳列棚を撮影した画像情報から,商品が置かれている領域であるフェイスを特定するフェイス特定処理部,前記画像情報における,商品が置かれている領域であるフェイスに表示されている商品の商品識別情報を特定し,前記フェイスに対応づけて所定の記憶領域に記憶させる商品識別情報特定処理部,として機能させるための商品特定プログラムであって,前記商品識別情報特定処理部は,第2の画像情報におけるフェイスの画像情報と,そのフェイスに対応する第1の画像情報におけるフェイスから所定範囲にあるフェイスの画像情報とを比較し,類似性が所定条件を充足している第1の画像情報におけるフェイスにある商品の商品識別情報を,前記第2の画像情報におけるフェイスにある商品の商品識別情報として特定する,商品特定プログラムである。
The product identification system of the first invention can be realized by loading the program of the present invention into a computer and executing it. That is, the computer is displayed on the face identification processing unit that identifies the face, which is the area where the product is placed, from the image information obtained by photographing the display shelf, and on the face, which is the area where the product is placed, in the image information. It is a product identification program for specifying the product identification information of a product and functioning as a product identification information identification processing unit that is associated with the face and stored in a predetermined storage area, and is the product identification information identification processing unit. Compares the image information of the face in the second image information with the image information of the face in the first image information corresponding to the face within a predetermined range from the face , and the similarity satisfies the predetermined condition. It is a product identification program that identifies the product identification information of the product on the face in the first image information as the product identification information of the product on the face in the second image information.

本発明の商品特定システムを用いることによって,陳列棚に陳列されている商品を,従来よりも高精度に特定できる一方,処理負荷を少なくすることを可能とする。 By using the product identification system of the present invention, it is possible to identify the products displayed on the display shelves with higher accuracy than before, while reducing the processing load.

本発明の商品特定システムのシステム構成の一例を模式的に示すブロック図である。It is a block diagram schematically showing an example of the system configuration of the product identification system of this invention. 本発明の商品特定システムで用いるコンピュータのハードウェア構成の一例を模式的に示すブロック図である。It is a block diagram schematically showing an example of the hardware composition of the computer used in the product identification system of this invention. 本発明の商品特定システムにおける初期処理の処理プロセスの一例を示すフローチャートである。It is a flowchart which shows an example of the processing process of the initial processing in the product identification system of this invention. 本発明の商品特定システムにおける二回目以降の処理の処理プロセスの一例を示すフローチャートである。It is a flowchart which shows an example of the processing process of the second and subsequent processing in the product identification system of this invention. N−1回目の撮影画像情報に対して特徴量採取領域を設定した状態の一例を示す図である。It is a figure which shows an example of the state which set the feature amount collection area with respect to the N-1th photographed image information. N回目の撮影画像情報に対して,特徴量採取領域を設定した状態の一例を示す図である。It is a figure which shows an example of the state in which the feature amount collection area is set for the Nth shot image information. N−1回目の特徴量採取領域と,N回目の特徴量採取領域とのペアの関係を示す図である。It is a figure which shows the relationship of the pair of the N-1th feature amount collection area, and the Nth time feature amount collection area. N−1回目の撮影画像情報における棚位置Cを,関数Fにより,N回目の撮影画像情報における棚位置Dとして射影する状態を示す図である。It is a figure which shows the state which the shelf position C in the N-1th photographed image information is projected as the shelf position D in the Nth photographed image information by a function F. 指定を受け付けた棚段位置の一例を示す図である。It is a figure which shows an example of the shelf stage position which accepted the designation. 商品識別情報特定処理部におけるフェイス単位での商品識別情報の特定処理を模式的に示す図である。It is a figure which shows typically the specifying process of the product identification information for each face in the product identification information identification processing unit. 撮影画像情報の一例を示す図である。It is a figure which shows an example of photographed image information. 図11の撮影画像情報に対して,棚位置C1乃至C4の入力を受け付けた状態の一例を示す図である。It is a figure which shows an example of the state which received the input of the shelf positions C1 to C4 with respect to the photographed image information of FIG. 図11の撮影画像情報に台形補正処理を実行して正置化した正置画像情報の一例を示す図である。It is a figure which shows an example of the right-positioned image information which performed the trapezoidal correction process on the photographed image information of FIG. 図13の正置画像情報に対して棚段位置の指定を受け付けた一例を示す図である。It is a figure which shows an example which accepted the designation of the shelf stage position with respect to the normal image information of FIG. フェイス位置を特定した正置画像情報の一例を示す図である。It is a figure which shows an example of the orthodox image information which specified the face position. N回目の撮影画像情報の一例を示す図である。It is a figure which shows an example of the Nth shot image information. N−1回目の撮影画像情報に対して特徴量採取領域が設定された状態の一例を示す図である。It is a figure which shows an example of the state in which the feature amount collection area is set for the N-1th photographed image information. N回目の撮影画像情報に対して特徴量採取領域が設定された状態の一例を示す図である。It is a figure which shows an example of the state which the feature amount collection area is set for the Nth time photographed image information. N回目の撮影画像情報において,棚位置D1乃至D4を特定した状態の一例を示す図である。It is a figure which shows an example of the state which specified the shelf positions D1 to D4 in the Nth photograph image information. 図16の撮影画像情報に,特定した頂点D1乃至D4を用いて台形補正処理を実行して正置化した正置画像情報の一例を示す図である。It is a figure which shows an example of the emplacement image information which performed the trapezoidal correction process using the identified vertices D1 to D4, and made it erect to the photographed image information of FIG. N回目の正置画像情報に写っている陳列棚の各棚段の位置を特定した状態の一例を示す図である。It is a figure which shows an example of the state which specified the position of each shelf of the display shelf which appears in the Nth normal image information. フェイス位置を特定した正置画像情報の一例を示す図である。It is a figure which shows an example of the orthodox image information which specified the face position. N回目の正置画像情報におけるフェイスの画像情報と,そのフェイスに対応するN−1回目の正置画像情報におけるフェイスの画像情報との類似性の比較をすることで,商品識別情報を特定する処理を模式的に示す図である。The product identification information is specified by comparing the similarity between the image information of the face in the Nth normal image information and the image information of the face in the N-1th normal image information corresponding to the face. It is a figure which shows the process schematically. N回目の正置画像情報におけるフェイスの画像情報と,そのフェイスに対応するN−1回目の正置画像情報におけるフェイスおよびその周辺のフェイスの画像情報との類似性の比較をすることで,商品識別情報を特定する処理を模式的に示す図である。By comparing the similarity between the image information of the face in the Nth normal image information and the image information of the face and the surrounding faces in the N-1th normal image information corresponding to the face, the product is produced. It is a figure which shows typically the process which specifies the identification information. 標本画像情報記憶部に記憶する標本画像情報の一例を示す図である。It is a figure which shows an example of the sample image information which is stored in the sample image information storage part.

本発明の商品特定システム1のシステム構成の一例を図1に示す。商品特定システム1は,管理端末2と撮影画像情報入力端末3とを用いる。 FIG. 1 shows an example of the system configuration of the product identification system 1 of the present invention. The product identification system 1 uses a management terminal 2 and a photographed image information input terminal 3.

管理端末2は,商品特定システム1を運営する企業等の組織が利用するコンピュータである。また,撮影画像情報入力端末3は,店舗の陳列棚を撮影した撮影画像情報の入力を管理端末2に行う。 The management terminal 2 is a computer used by an organization such as a company that operates the product identification system 1. Further, the photographed image information input terminal 3 inputs the photographed image information obtained by photographing the display shelf of the store to the management terminal 2.

商品特定システム1における管理端末2,撮影画像情報入力端末3は,コンピュータを用いて実現される。図2にコンピュータのハードウェア構成の一例を模式的に示す。コンピュータは,プログラムの演算処理を実行するCPUなどの演算装置70と,情報を記憶するRAMやハードディスクなどの記憶装置71と,情報を表示するディスプレイなどの表示装置72と,情報の入力が可能なキーボードやマウスなどの入力装置73と,演算装置70の処理結果や記憶装置71に記憶する情報をインターネットやLANなどのネットワークを介して送受信する通信装置74とを有している。 The management terminal 2 and the photographed image information input terminal 3 in the product identification system 1 are realized by using a computer. FIG. 2 schematically shows an example of a computer hardware configuration. The computer can input information into an arithmetic unit 70 such as a CPU that executes arithmetic processing of a program, a storage device 71 such as a RAM or a hard disk for storing information, a display device 72 such as a display for displaying information, and information. It has an input device 73 such as a keyboard and a mouse, and a communication device 74 that transmits / receives the processing result of the arithmetic unit 70 and the information stored in the storage device 71 via a network such as the Internet or LAN.

コンピュータがタッチパネルディスプレイを備えている場合には,表示装置72と入力装置73とが一体的に構成されていてもよい。タッチパネルディスプレイは,たとえばタブレット型コンピュータやスマートフォンなどの可搬型通信端末などで利用されることが多いが,それに限定するものではない。 When the computer is provided with a touch panel display, the display device 72 and the input device 73 may be integrally configured. Touch panel displays are often used in portable communication terminals such as tablet computers and smartphones, but are not limited thereto.

タッチパネルディスプレイは,そのディスプレイ上で,直接,所定の入力デバイス(タッチパネル用のペンなど)や指などによって入力を行える点で,表示装置72と入力装置73の機能が一体化した装置である。 The touch panel display is a device in which the functions of the display device 72 and the input device 73 are integrated in that input can be performed directly on the display with a predetermined input device (such as a pen for a touch panel) or a finger.

撮影画像情報入力端末3は,上記の各装置のほか,カメラなどの撮影装置を備えていてもよい。撮影画像情報入力端末3として,携帯電話,スマートフォン,タブレット型コンピュータなどの可搬型通信端末を用いることもできる。 The captured image information input terminal 3 may include a capture device such as a camera in addition to the above-mentioned devices. As the captured image information input terminal 3, a portable communication terminal such as a mobile phone, a smartphone, or a tablet computer can also be used.

本発明における各手段は,その機能が論理的に区別されているのみであって,物理上あるいは事実上は同一の領域を為していても良い。 Each means in the present invention has only a logical distinction in its function, and may form the same area physically or substantially.

商品特定システム1における管理端末2は,撮影画像情報入力端末3とネットワークを介して情報の送受信が可能である。 The management terminal 2 in the product identification system 1 can send and receive information via a network with the photographed image information input terminal 3.

商品特定システム1における管理端末2は,撮影画像情報入力受付処理部20と撮影画像情報記憶部21と台形補正処理部22と頂点座標記憶部23と正置画像情報記憶部24と棚段位置特定処理部25と棚段位置座標記憶部26とフェイス特定処理部27とフェイス座標記憶部28と商品識別情報特定処理部29と標本画像情報記憶部30と商品識別情報記憶部31と棚段画像マッチング処理部32とを有する。 The management terminal 2 in the product identification system 1 includes a photographed image information input reception processing unit 20, a photographed image information storage unit 21, a trapezoidal correction processing unit 22, an apex coordinate storage unit 23, an orthodox image information storage unit 24, and a shelf position specification. Processing unit 25, shelf position coordinate storage unit 26, face identification processing unit 27, face coordinate storage unit 28, product identification information identification processing unit 29, sample image information storage unit 30, product identification information storage unit 31, and shelf image matching. It has a processing unit 32.

撮影画像情報入力受付処理部20は,撮影画像情報入力端末3で撮影した店舗の陳列棚の画像情報(撮影画像情報)の入力を受け付け,後述する撮影画像情報記憶部21に記憶させる。撮影画像情報入力端末3からは,撮影画像情報のほか,撮影日時,店舗名などの店舗識別情報,画像情報を識別する画像情報識別情報などをあわせて入力を受け付けるとよい。 The photographed image information input reception processing unit 20 receives input of image information (photographed image information) of the display shelf of the store photographed by the photographed image information input terminal 3 and stores it in the photographed image information storage unit 21 described later. In addition to the photographed image information, the photographed image information input terminal 3 may accept input including the image information such as the image capture date and time, the store name, and the image information identification information for identifying the image information.

撮影画像情報記憶部21は,撮影画像情報入力受付処理部20で受け付けた撮影画像情報,撮影日時,店舗識別情報,画像情報識別情報などを対応づけて記憶する。撮影画像情報とは,台形補正処理を実行する対象となる画像情報であればよく,一つの陳列棚を複数枚で撮影した場合に,それが一つの画像情報として合成された画像情報も含まれる。また,歪み補正処理が実行された後の画像情報も撮影画像情報に含まれる。 The photographed image information storage unit 21 stores the photographed image information, the photographed date and time, the store identification information, the image information identification information, and the like received by the photographed image information input reception processing unit 20 in association with each other. The captured image information may be any image information to be executed for trapezoidal correction processing, and includes image information synthesized as one image information when one display shelf is photographed by a plurality of sheets. .. In addition, the image information after the distortion correction processing is executed is also included in the captured image information.

台形補正処理部22は,撮影画像情報記憶部21に記憶した撮影画像情報に対して台形補正処理を実行して正置化し,正置画像情報を生成する。正置画像情報は,正置画像情報記憶部24に記憶させる。この際に,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報なども対応づけて記憶させるとよい。台形補正処理は,撮影画像情報に写っている陳列棚の棚段が水平に,そこに陳列されている商品が垂直になるように行う補正処理である。 The keystone correction processing unit 22 executes trapezoidal correction processing on the captured image information stored in the captured image information storage unit 21 to make it normal, and generates normal image information. The normal image information is stored in the normal image information storage unit 24. At this time, it is advisable to store the shooting date and time, the store identification information, the image information identification information of the shot image information, the image information identification information of the normal image information, and the like in association with each other. The keystone correction process is a correction process performed so that the shelves of the display shelves shown in the photographed image information are horizontal and the products displayed there are vertical.

台形補正処理部22における台形補正処理としては,初回の台形補正処理と,二回目以降の台形補正処理とに分かれる。 The keystone correction process in the keystone correction processing unit 22 is divided into a first keystone correction process and a second and subsequent keystone correction processes.

台形補正処理部22における初回の台形補正処理は,陳列棚の長方形の領域の4頂点の指定の入力を受け付ける。陳列棚の長方形の領域の4頂点としては,陳列棚の棚位置の4頂点であってもよいし,棚段の4頂点であってもよい。また,2段,3段の棚段のまとまりの4頂点であってもよい。ここで指定を受け付けた4頂点は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報と対応づけて頂点座標記憶部23に記憶させる。そして台形補正処理部22は,指定を受け付けた4頂点の座標に基づいて,撮影画像情報に対して台形補正処理を実行し,正置画像情報として正置画像情報記憶部24に記憶させる。この際に,台形補正処理部22は,正置画像情報に対応付けて,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報と対応づけて正置画像情報記憶部24に記憶をさせる。指定を受け付けた4頂点の座標情報に基づく正置化の処理は公知の方法を用いることができる The first keystone correction process in the keystone correction processing unit 22 accepts input for designating four vertices in the rectangular area of the display shelf. The four vertices of the rectangular area of the display shelf may be the four vertices of the shelf position of the display shelf or the four vertices of the shelf stage. Further, it may be four vertices of a group of two or three shelves. The four vertices that have been designated here are stored in the vertex coordinate storage unit 23 in association with the image information identification information of the shooting date / time information, store information, and shooting image information. Then, the keystone correction processing unit 22 executes the keystone correction processing on the captured image information based on the coordinates of the four vertices that have received the designation, and stores the keystone correction processing unit 24 in the normal placement image information storage unit 24 as the normal placement image information. At this time, the trapezoidal correction processing unit 22 associates with the shooting date / time information, the store information, the image information identification information of the shooting image information, and the image identification information of the normal image information in association with the normal image information. The image information storage unit 24 stores the information. A known method can be used for the process of emplacement based on the coordinate information of the four vertices that have received the designation.

撮影画像情報は,一定期間ごとに,同じような領域を同じような角度で撮影がされることが望ましい。しかし完全に同じ領域を同じ角度で撮影をすることはできない。そこで,台形補正処理部22は,二回目以降の台形補正処理を以下のように実行をする。 It is desirable that the captured image information be captured in a similar area at a similar angle at regular intervals. However, it is not possible to shoot the exact same area at the same angle. Therefore, the keystone correction processing unit 22 executes the second and subsequent keystone correction processing as follows.

まず,台形補正処理部22は,N回目の撮影画像情報に対応する同じ(ほぼ同じ)領域を撮影したN−1回目の撮影画像情報の頂点座標を頂点座標記憶部23から特定する。N回目の撮影画像情報に対応する同じ(ほぼ同じ)領域を撮影したN−1回目の撮影画像情報の頂点座標は,撮影画像情報に対応する店舗識別情報,画像識別情報,撮影日時情報などに基づいて特定をする。そして,N−1回目の撮影画像情報に対して,特定をした4頂点の頂点座標を含む所定の大きさの矩形領域,たとえば棚段の幅の1/5程度の正方形を特徴量採取領域220として設定をする。N−1回目の撮影画像情報に対して,特徴量採取領域220を設定した状態の一例を図5に示す。特徴量採取領域220は,頂点座標を含む矩形領域であればよい。一方,陳列棚の背景同士がマッチングをしてしまうと,撮影位置が少しずれるだけで背景が大きくずれてしまう。そこで,特徴量採取領域220は,なるべく陳列棚の内側を多く含む位置に設定することが好ましい。つまり,頂点座標は,特徴量採取領域220において,特徴量採取領域220の中心点よりも陳列棚の外側方向に位置していることが好ましい。たとえば,頂点座標の4点は左上,右上,左下,右下に位置する。そして,特徴量採取領域220の矩形領域を縦横の中心でそれぞれ2分割した合計4領域に分割すると,左上の頂点座標を含む特徴量採取領域220では,その頂点座標が矩形領域のうち左上の領域に位置するように特徴量採取領域220を設定する。同様に,右上の頂点座標を含む特徴量採取領域220では,その頂点座標が矩形領域のうち右上の領域に位置するように特徴量採取領域220を設定し,左下の頂点座標を含む特徴量採取領域220では,その頂点座標が矩形領域のうち左下の領域に位置するように特徴量採取領域220を設定し,右下の頂点座標を含む特徴量採取領域220では,その頂点座標が矩形領域のうち右下の領域に位置するように特徴量採取領域220を設定する。これによって,頂点座標は,特徴量採取領域220において,特徴量採取領域220の中心点よりも陳列棚の外側方向に位置することとなる。 First, the keystone correction processing unit 22 specifies the vertex coordinates of the N-1st shot image information obtained by shooting the same (almost the same) region corresponding to the Nth shot image information from the vertex coordinate storage unit 23. The vertex coordinates of the N-1st shot image information obtained by shooting the same (almost the same) area corresponding to the Nth shot image information are used as store identification information, image identification information, shooting date and time information, etc. corresponding to the shot image information. Make an identification based on. Then, for the N-1th shot image information, a rectangular area having a predetermined size including the coordinates of the specified four vertices, for example, a square having a width of about 1/5 of the shelf level is formed as a feature amount collection area 220. Set as. FIG. 5 shows an example of a state in which the feature amount collection area 220 is set for the N-1th captured image information. The feature amount collection area 220 may be a rectangular area including the coordinates of the vertices. On the other hand, if the backgrounds of the display shelves match each other, the backgrounds will be greatly displaced even if the shooting position is slightly displaced. Therefore, it is preferable to set the feature quantity collection area 220 at a position including the inside of the display shelf as much as possible. That is, it is preferable that the apex coordinates are located in the feature amount collection area 220 in the outer direction of the display shelf from the center point of the feature amount collection area 220. For example, the four points of vertex coordinates are located at the upper left, upper right, lower left, and lower right. Then, when the rectangular area of the feature amount collection area 220 is divided into two areas at the vertical and horizontal centers, a total of four areas are divided. In the feature amount collection area 220 including the upper left vertex coordinates, the vertex coordinates are the upper left area of the rectangular area. The feature amount collection area 220 is set so as to be located at. Similarly, in the feature amount collection area 220 including the upper right vertex coordinates, the feature amount collection area 220 is set so that the vertex coordinates are located in the upper right area of the rectangular area, and the feature amount collection including the lower left vertex coordinates is set. In the area 220, the feature amount collection area 220 is set so that the vertex coordinates are located in the lower left area of the rectangular area, and in the feature amount collection area 220 including the lower right vertex coordinates, the vertex coordinates are in the rectangular area. The feature amount collection area 220 is set so as to be located in the lower right area. As a result, the apex coordinates are located in the feature amount collection area 220 in the outer direction of the display shelf from the center point of the feature amount collection area 220.

つぎに,台形補正処理部22は,N回目の撮影画像情報において,N−1回目の撮影画像情報に設定した特徴量採取領域220を内包し,N−1回目の撮影画像情報の特徴量採取領域220以上の大きさの特徴量採取領域221を設定する。N回目の撮影画像情報に設定する特徴量採取領域221は,短辺の1/2の大きさは超えない。さらに,撮影画像情報よりも外側に出る場合には,その範囲をトリミングする。N回目の撮影画像情報に対して特徴量採取領域221を設定した状態の一例を図6に示す。 Next, the keystone correction processing unit 22 includes the feature amount collection area 220 set in the N-1st shot image information in the Nth shot image information, and the feature amount collection of the N-1th shot image information. A feature amount collection area 221 having a size of the area 220 or more is set. The feature amount collection area 221 set in the Nth captured image information does not exceed the size of 1/2 of the short side. Furthermore, if it goes outside the captured image information, the range is trimmed. FIG. 6 shows an example of a state in which the feature amount collection area 221 is set for the Nth shot image information.

そして台形補正処理部22は,N−1回目の撮影画像情報に対して設定した各特徴量採取領域220において,局所特徴量を採取し,局所特徴量による特徴点とその座標のセットとを記憶する。また,N回目の撮影画像情報に対して設定した各特徴量採取領域221において,局所特徴量を採取し,局所特徴量による特徴点とその座標のセットとを記憶する。 Then, the keystone correction processing unit 22 collects the local feature amount in each feature amount collection area 220 set for the N-1th captured image information, and stores the feature points based on the local feature amount and the set of their coordinates. do. Further, in each feature amount collection area 221 set for the Nth captured image information, the local feature amount is collected, and the feature points based on the local feature amount and the set of their coordinates are stored.

台形補正処理部22は,N−1回目の撮影画像情報の特徴量採取領域220における特徴点の局所特徴量と,N−1回目の撮影画像情報の特徴量採取領域220に対応する位置にあるN回目の撮影画像情報の特徴量採取領域221における特徴点の局所特徴量とを比較する。そして,N−1回目の撮影画像情報の各特徴点の各局所特徴量にもっとも近い,N回目の撮影画像情報の各局所特徴量の特徴点を特定する。そしてもっとも近い局所特徴量同士の特徴点をペアとし,ペアとなる局所特徴量による特徴点の座標を対応づける。なお,この際に,局所特徴量同士の近さ(類似性)があらかじめ定められた閾値未満のペアは除外をする。これによって,N−1回目の特徴量採取領域220における局所特徴量の特徴点と,N回目の特徴量採取領域221におけるもっとも近い局所特徴量の特徴点同士のペアを特定できる。N−1回目の特徴量採取領域220の局所特徴量の特徴点と,N回目の特徴量採取領域221の局所特徴量の特徴点とのペアの関係を図7に示す。図7では,N−1回目の特徴量採取領域220における局所特徴量による特徴点の点群をA,N回目の特徴量採取領域221における局所特徴量による特徴点の点群をB,N−1回目の台形補正処理に用いた頂点をCで示している。 The keystone correction processing unit 22 is located at a position corresponding to the local feature amount of the feature point in the feature amount collection area 220 of the N-1st captured image information and the feature amount collection area 220 of the N-1st captured image information. The feature amount of the Nth photographed image information is compared with the local feature amount of the feature point in the collection area 221. Then, the feature point of each local feature amount of the Nth shot image information, which is the closest to each local feature amount of each feature point of the N-1th shot image information, is specified. Then, the feature points of the closest local features are paired, and the coordinates of the feature points according to the paired local features are associated. At this time, pairs whose proximity (similarity) between local features is less than a predetermined threshold are excluded. Thereby, the pair of the feature points of the local feature amount in the N-1th feature amount collection area 220 and the feature points of the closest local feature amount in the Nth feature amount collection area 221 can be specified. FIG. 7 shows the relationship between the feature points of the local feature amount of the N-1st feature amount collection area 220 and the feature points of the local feature amount of the Nth feature amount collection area 221. In FIG. 7, the point cloud of the feature point by the local feature amount in the N-1st feature amount collection area 220 is A, and the point cloud of the feature point by the local feature amount in the Nth feature amount collection area 221 is B, N-. The vertices used for the first trapezoidal correction process are indicated by C.

N−1回目の特徴量採取領域220における局所特徴量による特徴点の点群Aの座標と,点群Aに対応するN回目の特徴量採取領域221における局所特徴量による特徴点の点群Bの座標とに基づいて,点群Aを点群Bに射影する関数F(アフィン変換)を求める。関数Fは,サンプリング推定を反復する,ロバスト推定の一種であるOpenCVのRANSACを利用するなどの方法があるが,それらに限定しない。なお,射影の関係にある関係線からずれが大きいペアは処理対象から除外をする。 The coordinates of the feature point point group A due to the local feature amount in the N-1st feature amount collection area 220 and the point group B of the feature point due to the local feature amount in the Nth feature amount collection area 221 corresponding to the point group A. Based on the coordinates of, the function F (affine transformation) that projects the point group A onto the point group B is obtained. The function F has methods such as repeating sampling estimation and using RANSAC of OpenCV, which is a kind of robust estimation, but is not limited thereto. Pairs with a large deviation from the relational lines that are in the projection relationship are excluded from the processing target.

台形補正処理部22において関数Fを求めたのち,台形補正処理部22は,N−1回目の台形補正処理で用いた頂点Cの座標を,関数Fに基づいてN回目の撮影画像情報に射影し,N回目の台形補正処理のための頂点Dの座標として特定する。これを模式的に示すのが図8である。 After the keystone correction processing unit 22 obtains the function F, the keystone correction processing unit 22 projects the coordinates of the vertices C used in the N-1th keystone correction processing onto the Nth shot image information based on the function F. Then, it is specified as the coordinates of the vertex D for the Nth keystone correction process. FIG. 8 schematically shows this.

以上の処理を各特徴量採取領域220,221に対して行うことで,N回目の撮影画像情報における台形補正処理のための棚位置の4頂点を特定する。そして,台形補正処理部22は,特定した4頂点に基づいて,N回目の撮影画像情報に対する台形補正処理を実行して正置化し,正置画像情報を正置画像情報記憶部24に記憶させる。この際に,台形補正処理部22は,正置画像情報に対応付けて,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報と対応づけて正置画像情報記憶部24に記憶をさせる。特定したN回目の撮影画像情報に対応する頂点の座標は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報と対応づけて頂点座標記憶部23に記憶させる。 By performing the above processing for each feature amount collection area 220 and 221, the four vertices of the shelf position for the keystone correction processing in the Nth captured image information are specified. Then, the trapezoidal correction processing unit 22 executes the keystone correction processing for the Nth captured image information to make it normal based on the specified four vertices, and stores the normal image information in the normal image information storage unit 24. .. At this time, the trapezoidal correction processing unit 22 associates with the shooting date / time information, the store information, the image information identification information of the shooting image information, and the image identification information of the normal image information in association with the normal image information. The image information storage unit 24 stores the information. The coordinates of the vertices corresponding to the specified Nth shot image information are stored in the vertices coordinate storage unit 23 in association with the shooting date / time information, the store information, and the image information identification information of the shot image information.

なお,台形補正処理部22における台形補正処理で用いる頂点の特定処理は,本発明のように陳列棚を撮影した画像情報から商品を特定する場合に限らず,同一の撮影対象物を撮影した複数の画像情報を正置化し,正置画像情報を生成する画像処理システムにも適用することができる。これによって,同一の撮影対象物を撮影した複数の画像情報について,それぞれ正置化して,その撮影対象物の正置画像情報を生成することができる。 The keystone specifying process used in the keystone correction processing in the keystone correction processing unit 22 is not limited to the case where the product is specified from the image information obtained by photographing the display shelf as in the present invention, and a plurality of images of the same object to be photographed are photographed. It can also be applied to an image processing system that converts the image information of the above into a trapezoid and generates the trapezoidal image information. As a result, it is possible to generate the orthodox image information of the same object to be photographed by converting a plurality of image information of the same object into the orthotopic image.

また,N回目の撮影画像情報における台形補正処理のための棚位置の4頂点を特定するため,上述では,N−1回目の撮影画像情報における特徴量採取領域220での局所特徴量による特徴点の点群Aと,N回目の撮影画像情報における特徴量採取領域221での局所特徴量による特徴点の点群Bとを用いて関数Fを求め,N−1回目の台形補正処理で用いた頂点Cの座標を,関数FによりN回目の撮影画像情報に射影し,N回目の台形補正処理のための頂点Dの座標として特定する処理を説明した。しかし,かかる処理では,N−1回目の撮影画像情報と,N回目の撮影画像情報とにおいて,類似する画像情報の対応点の座標(位置)を見つければよいので,上記の方法にするものではなく,画像情報内の箇所を特定するタイプの特徴量であればいかなるものであってもよい。たとえば,画像情報内における尖った箇所,ハイライトのポイントなどがある。本明細書では,局所特徴量などの,画像情報内の箇所を特定する特徴量を画像特徴量(位置特定型画像特徴量)という。なお,本明細書の説明では,画像特徴量として,上述のように局所特徴量を用いる場合を説明する。 Further, in order to specify the four vertices of the shelf position for the keystone correction processing in the Nth shot image information, in the above description, the feature points based on the local feature amount in the feature amount collection area 220 in the N-1th shot image information. The function F was obtained using the point group A of No. 1 and the point group B of the feature points based on the local feature amount in the feature amount collection area 221 in the Nth shot image information, and used in the N-1th keystone correction process. The process of projecting the coordinates of the vertex C onto the captured image information of the Nth time by the function F and specifying them as the coordinates of the vertex D for the keystone correction process of the Nth time has been described. However, in such a process, it is sufficient to find the coordinates (positions) of the corresponding points of the similar image information in the N-1st shot image information and the Nth shot image information. Any type of feature quantity that specifies a location in the image information may be used. For example, there are sharp points and highlight points in the image information. In the present specification, a feature amount that identifies a part in image information, such as a local feature amount, is referred to as an image feature amount (position-specific image feature amount). In the description of the present specification, the case where the local feature amount is used as the image feature amount will be described.

頂点座標記憶部23は,台形補正処理部22で台形補正処理を行うにあたり用いる4頂点の座標情報を記憶する。座標情報は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報と対応づけられている。 The vertex coordinate storage unit 23 stores the coordinate information of the four vertices used for performing the keystone correction processing by the keystone correction processing unit 22. The coordinate information is associated with the image information identification information of the shooting date / time information, the store information, and the shooting image information.

正置画像情報記憶部24は,台形補正処理部22で台形補正処理をした正置画像情報を記憶する。正置画像情報記憶部24は,正置画像情報に,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報と対応づけて記憶させるとよい。 The normal image information storage unit 24 stores the normal image information that has been keystone-corrected by the keystone correction processing unit 22. The normal image information storage unit 24 may store the normal image information in association with the shooting date / time information, the store information, the image information identification information of the shooting image information, and the image identification information of the normal image information.

棚段位置特定処理部25は,正置画像情報に写っている陳列棚における棚段について,その位置の入力を受け付ける。棚段位置の指定は,領域222の指定を受け付け,その4点を棚段位置の座標とする。受け付けた棚段の領域222を構成する座標は,棚段位置座標記憶部26に記憶する。棚段の領域222を構成する座標は,撮影日時情報,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報に対応づけて記憶させるとよい。この座標は,正置画像情報における陳列棚内での所定箇所(たとえば陳列棚の左上の頂点C1)を基準とした相対座標である。図9に,指定を受け付けた棚段の領域222の一例を示す。また同一の陳列棚については,N−1回目の正置画像情報の棚段の領域222を構成する座標を,N回目の棚段の領域222を構成する座標として特定する。 The shelf stage position specifying processing unit 25 accepts input of the position of the shelf stage in the display shelf shown in the normal image information. For the designation of the shelf position, the designation of the area 222 is accepted, and the four points are used as the coordinates of the shelf position. The coordinates constituting the received shelf stage area 222 are stored in the shelf stage position coordinate storage unit 26. The coordinates constituting the shelf area 222 may be stored in association with the shooting date / time information, the store identification information, the image information identification information of the shooting image information, and the image identification information of the normal image information. These coordinates are relative coordinates with respect to a predetermined location in the display shelf (for example, the upper left vertex C1 of the display shelf) in the normal image information. FIG. 9 shows an example of the area 222 of the shelf that has received the designation. For the same display shelf, the coordinates constituting the shelf area 222 of the N-1th normal image information are specified as the coordinates constituting the Nth shelf area 222.

棚段位置座標記憶部26は,正置画像情報における棚段の領域222を構成する座標を記憶する。たとえば,棚段の領域222を構成する座標に,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報とを対応づけて記憶する。 The shelf position coordinate storage unit 26 stores the coordinates constituting the shelf area 222 in the normal image information. For example, the coordinates constituting the shelf area 222 are stored in association with the shooting date / time information, the store information, the image information identification information of the shooting image information, and the image identification information of the normal image information.

フェイス特定処理部27は,正置画像情報における棚段ごとに,商品が置かれているフェイスを特定する。フェイス特定処理部27は,初回のフェイスの特定処理と,二回目以降のフェイスの特定処理とに分かれる。 The face specifying processing unit 27 identifies the face on which the product is placed for each shelf in the normal image information. The face specifying processing unit 27 is divided into a face specifying process for the first time and a face specifying process for the second and subsequent times.

フェイス特定処理部27における初回のフェイスの特定処理は,棚段位置座標記憶部26に記憶する棚段位置の座標で構成される領域222(好ましくは矩形領域)の範囲内において,商品が置かれている領域(フェイス)を特定する。具体的には,商品と商品との間の影を特定する,画像の繰り返しパターンを特定する,パッケージの上辺の段差を特定する,商品幅が同一であるなどの制約に基づいて区切り位置を特定する,などによって,フェイスの領域を特定する。フェイスの特定処理としては,商品のカテゴリや商品の形態によって,任意の方法を採用可能であり,上記に限定するものではない。また,自動的に特定したフェイスに対して,担当者による修正入力を受け付けてもよい。さらに,担当者からフェイスの位置の入力を受け付けるのでもよい。特定したフェイスを構成する領域の座標は,フェイスフェイス座標記憶部28に記憶させる。この際には,正置画像情報におけるフェイスの領域の座標に,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報とを対応づけて記憶させる。またフェイスの領域を示す座標としては,矩形領域を特定するために必要な頂点の座標であり,たとえば4点,または右上と左下,左上と右下の2点の座標でよい。 In the first face identification process in the face identification processing unit 27, the product is placed within the range of the area 222 (preferably a rectangular area) composed of the coordinates of the shelf stage position stored in the shelf stage position coordinate storage unit 26. Identify the area (face) you are in. Specifically, the demarcation position is specified based on constraints such as specifying the shadow between the products, specifying the repeating pattern of the image, specifying the step on the upper side of the package, and having the same product width. Specify the area of the face by doing, etc. As the face identification process, any method can be adopted depending on the product category and the product form, and the process is not limited to the above. In addition, the person in charge may accept correction input for the automatically specified face. Furthermore, the input of the position of the face may be accepted from the person in charge. The coordinates of the area constituting the specified face are stored in the face face coordinate storage unit 28. In this case, the coordinates of the face area in the orthodox image information include shooting date and time information, store information, image information identification information of the shooting image information, image identification information of the orthodox image information, and face identification for identifying the face. Store information in association with it. The coordinates indicating the face area are the coordinates of the vertices required to specify the rectangular area, and may be, for example, the coordinates of four points, or the coordinates of two points, upper right and lower left, upper left and lower right.

フェイス特定処理部27における二回目以降のフェイスの特定処理は,同一の陳列棚の同一の棚段について,フェイス座標記憶部28に記憶する前回(N−1回目)の正置画像情報で特定したフェイスの領域の座標を抽出し,その座標を今回(N回目)の正置画像情報で特定したフェイスの領域の座標とする。 The second and subsequent face identification processes in the face identification processing unit 27 were specified by the previous (N-1th) normal image information stored in the face coordinate storage unit 28 for the same shelf on the same display shelf. The coordinates of the face area are extracted, and the coordinates are used as the coordinates of the face area specified by the normal image information of this time (Nth time).

フェイスの領域の座標は,棚段の位置の座標と同様に,正置画像情報における陳列棚内での所定箇所(たとえば陳列棚の左上の頂点C1)を基準とした相対座標である。 The coordinates of the face area are relative coordinates with respect to a predetermined position in the display shelf (for example, the upper left vertex C1 of the display shelf) in the normal image information, similar to the coordinates of the position of the shelf.

フェイス座標記憶部28は,フェイスの領域の座標を記憶する。たとえば,正置画像情報におけるフェイスの領域の座標に,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報とを対応づけて記憶する。 The face coordinate storage unit 28 stores the coordinates of the area of the face. For example, the coordinates of the face area in the normal image information include shooting date / time information, store information, image information identification information of the shot image information, image identification information of the normal image information, and face identification information for identifying the face. Correspond and memorize.

商品識別情報特定処理部29は,陳列棚の棚段ごとに,フェイスに表示されている商品の商品識別情報を特定する。商品識別情報としては,商品名のほか,その商品に対して割り当てられているJANコードなどがあるが,それに限定されない。商品を識別することができる情報であればいかなるものでもよい。 The product identification information identification processing unit 29 specifies the product identification information of the product displayed on the face for each shelf of the display shelf. The product identification information includes, but is not limited to, the product name and the JAN code assigned to the product. Any information that can identify the product may be used.

商品識別情報特定処理部29は,初回の商品識別情報の特定処理と,二回目以降の商品識別情報の特定処理とに分かれる。 The product identification information specifying processing unit 29 is divided into a first-time product identification information specifying process and a second and subsequent product identification information specifying processes.

初回の商品識別情報の特定処理は,フェイスごとに,フェイスの画像情報と,後述する標本画像情報記憶部30に記憶する商品の標本画像情報とマッチングすることで,そのフェイスに表示されている商品の商品識別情報を特定する。具体的には,まず,処理対象となるフェイスの座標をフェイス座標記憶部28から特定する。そしてその座標で構成される領域の画像情報と,標本画像情報記憶部30に記憶する標本画像情報との類似性を判定し,その類似性がもっとも高い標本画像情報に対応する商品識別情報を,上記座標で構成されるフェイスに表示されている商品の商品識別情報として特定をする。 In the initial product identification information identification process, the product displayed on the face is displayed by matching the image information of the face with the sample image information of the product stored in the sample image information storage unit 30 described later for each face. Identify the product identification information of. Specifically, first, the coordinates of the face to be processed are specified from the face coordinate storage unit 28. Then, the similarity between the image information of the region composed of the coordinates and the sample image information stored in the sample image information storage unit 30 is determined, and the product identification information corresponding to the sample image information having the highest similarity is obtained. It is specified as the product identification information of the product displayed on the face composed of the above coordinates.

ここでフェイスの画像情報と標本画像情報との類似性を判定するには,以下のような処理を行う。まず,商品識別情報特定処理部29における商品識別情報の特定処理の前までの処理において,正置画像情報におけるフェイスの領域の画像情報と,標本画像情報との方向が同じ(横転や倒立していない)となっており,また,それぞれの画像情報の大きさがおおよそ同じとなっている(所定範囲以上で画像情報の大きさが異なる場合には,類似性の判定の前にそれぞれの画像情報の大きさが所定範囲内となるようにサイズ合わせをしておく)。そして,フェイスの画像情報と,標本画像情報との類似性は,フェイスの画像情報の画像特徴量(たとえば局所特徴量)に基づく特徴点と,標本画像情報との画像特徴量(たとえば局所特徴量)に基づく特徴点を,それぞれ抽出する。そして,フェイスの画像情報の特徴点と,標本画像情報の特徴点とでもっとも類似性が高いペアを検出し,それぞれで対応する点の座標の差を求める。そして,差の平均値を求める。差の平均値は,フェイスの画像情報と,標本画像情報との全体の平均移動量を示している。そして,すべての特徴点のペアの座標差を平均の座標差と比較し,外れ度合いの大きなペアを除外する。そして,残った対応点の数で類似性を順位付ける。 Here, in order to determine the similarity between the face image information and the sample image information, the following processing is performed. First, in the processing before the product identification information identification processing in the product identification information identification processing unit 29, the direction of the image information of the face region in the orthostatic image information and the sample image information are the same (rolling over or inverted). (No), and the size of each image information is approximately the same (if the size of the image information is different within a predetermined range, each image information is before the judgment of similarity. Adjust the size so that the size of is within the specified range). The similarity between the face image information and the sample image information is the image feature amount (for example, local feature amount) between the feature point based on the image feature amount (for example, local feature amount) of the face image information and the sample image information. ) Is extracted. Then, the pair having the highest similarity between the feature points of the image information of the face and the feature points of the sample image information is detected, and the difference in the coordinates of the corresponding points is obtained. Then, the average value of the differences is calculated. The average value of the difference indicates the total average moving amount of the face image information and the sample image information. Then, the coordinate difference of all the feature point pairs is compared with the average coordinate difference, and the pair with a large degree of deviation is excluded. Then, the similarity is ranked according to the number of remaining corresponding points.

以上のような方法でフェイスの画像情報と,標本画像情報との類似性を算出できる。また,その精度を向上させるため,さらに,色ヒストグラム同士のEMD(Earth Movers Distance)を求め,類似性の尺度としてもよい。これによって,撮影された画像情報の明度等の環境変化に比較的強い類似性の比較を行うことができ,高精度で特定をすることができる。なお,類似性の判定は,上述に限定をするものではない。特定した商品識別情報は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて商品識別情報記憶部31に記憶する。 The similarity between the face image information and the sample image information can be calculated by the above method. Further, in order to improve the accuracy, the EMD (Earth Movers Distance) between the color histograms may be obtained and used as a measure of similarity. This makes it possible to compare similarities that are relatively strong against environmental changes such as the brightness of captured image information, and to identify with high accuracy. The determination of similarity is not limited to the above. The identified product identification information corresponds to the shooting date / time information, store information, image information identification information of the shooting image information, image identification information of the normal image information, and face identification information for identifying the face, and is associated with the product identification information storage unit. Store in 31.

商品識別情報特定処理部29は,二回目以降の商品識別情報の特定処理を以下のように実行する。N回目の正置画像情報におけるフェイスの商品識別情報の特定処理は,まず処理対象となるフェイスのフェイス識別情報をフェイス座標記憶部28から特定する。特定したフェイス識別情報をXとする。そして,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,フェイス識別情報Xに対応する位置にあるN−1回目の正置画像情報における領域の画像情報とを比較する。類似性の判定については,色ヒストグラム同士のEMDを求め,類似性の尺度とすることが好ましいが,それに限定するものではない。その類似性が一定の閾値以上であれば,N−1回目の正置画像情報におけるその領域のフェイスに対応する商品識別情報を商品識別情報記憶部31から抽出し,N回目の正置画像情報におけるフェイス識別情報Xの商品識別情報とする。これによって,処理対象となるN回目の正置画像情報におけるフェイス識別情報Xの商品識別情報を特定できる。もし類似性が一定の閾値未満であれば,初回の場合と同様に,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,標本画像情報記憶部30に記憶する標本画像情報とを比較して,類似性が所定の閾値以上で,かつ,もっとも類似性が高い商品識別情報を,N回目の正置画像情報におけるフェイス識別情報Xのフェイスの商品識別情報として特定をする。 The product identification information specifying processing unit 29 executes the second and subsequent times of specifying the product identification information as follows. In the Nth face identification information of the face in the normal image information, the face identification information of the face to be processed is first specified from the face coordinate storage unit 28. Let X be the specified face identification information. Then, the image information of the area of the face identification information X in the Nth normal image information is compared with the image information of the area in the N-1th normal image information at the position corresponding to the face identification information X. Regarding the determination of similarity, it is preferable, but not limited to, to obtain the EMD between the color histograms and use it as a measure of similarity. If the similarity is equal to or higher than a certain threshold value, the product identification information corresponding to the face of the region in the N-1th normal image information is extracted from the product identification information storage unit 31, and the Nth normal image information. It is the product identification information of the face identification information X in the above. Thereby, the product identification information of the face identification information X in the Nth normal image information to be processed can be specified. If the similarity is less than a certain threshold, the image information in the area of the face identification information X in the Nth normal image information and the sample image information stored in the sample image information storage unit 30 are the same as in the first case. The product identification information having a similarity equal to or higher than a predetermined threshold and having the highest similarity is specified as the product identification information of the face of the face identification information X in the Nth orthodox image information.

なお,N−1回目の正置画像情報におけるフェイスの領域の画像情報との比較において,対応するフェイスの位置との比較のみならず,所定範囲のフェイスを比較対象として含めてもよい。たとえばN回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と比較する場合,比較対象としては,N−1回目の正置画像情報におけるフェイス識別情報Xの領域のほか,その領域から所定範囲にあるフェイスの領域,たとえばその左右方向に一または複数離隔している位置にあるフェイス,上下の棚段に位置するフェイスの領域も含めてもよい。さらに,N−1回目の正置画像情報におけるフェイス識別情報Xの領域のほか,フェイス識別情報X−2,X−1,X,X+1,X+2のように,複数の隣接するフェイスの領域を含めてもよい。 In the comparison with the image information of the face area in the N-1th normal image information, not only the comparison with the position of the corresponding face but also the faces in a predetermined range may be included as the comparison target. For example, when comparing with the image information in the area of the face identification information X in the Nth normal image information, the comparison target is from the area of the face identification information X in the N-1th normal image information and from that area. The area of the face within a predetermined range, for example, the area of the face located one or more apart in the left-right direction thereof, and the area of the face located on the upper and lower shelves may be included. Further, in addition to the area of the face identification information X in the N-1th orthodox image information, the area of a plurality of adjacent faces such as the face identification information X-2, X-1, X, X + 1, X + 2 is included. You may.

この場合,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,N−1回目の正置画像情報における,比較対象となる範囲のフェイスの範囲の領域のそれぞれの画像情報とを比較し,もっとも類似性が高いN−1回目の正置画像情報のフェイス識別情報を特定する。なお,類似性は,類似性は一定の閾値以上であることを条件としてもよい。そして特定したN−1回目の正置画像情報のフェイス識別情報に対応する商品識別情報を商品識別情報記憶部31から抽出し,N回目の正置画像情報におけるフェイス識別情報Xの商品識別情報とする。この処理を模式的に示すのが図10である。図10(a)は前回(N−1回目)の正置画像情報であり,図10(b)は今回(N回目)の正置画像情報である。そして,N回目の正置画像情報の棚段1の各フェイスの領域の画像情報と,N−1回目の正置画像情報の棚段1の各フェイスの領域の画像情報とをそれぞれ比較することで類似性を判定し,もっとも類似性が高いN−1回目の正置画像情報の棚段1のフェイスの商品識別情報を,N回目の正置画像情報の棚段1のフェイスの商品識別情報として特定をすることを示す。図10では,N回目の正置画像情報のフェイスに対応する位置にあるN−1回目の正置画像情報のフェイスに加え,その左右2つずつのフェイスとの比較を行う場合を示している。なお同一棚段のみならず,上下の棚段のフェイス位置の画像情報との比較を行ってもよい。たとえば図10の場合,N回目の正置画像情報の棚段2の中心のフェイス位置の商品識別情報を特定する際に,N−1回目の正置画像情報の棚段2の中心およびその左右2つずつのフェイスの領域の画像情報と比較するのみならず,N−1回目の正置画像情報の棚段1の中心およびその左右2つずつのフェイスの領域の画像情報,N−1回目の正置画像情報の棚段3の中心およびその左右2つずつのフェイスの領域の画像情報と類似性の比較を行ってもよい。 In this case, the image information in the area of the face identification information X in the Nth normal image information and the image information in the area of the face in the range to be compared in the N-1th normal image information. And identify the face identification information of the N-1th orthodox image information with the highest similarity. The similarity may be conditional on the similarity being equal to or higher than a certain threshold value. Then, the product identification information corresponding to the face identification information of the specified N-1th normal image information is extracted from the product identification information storage unit 31, and the product identification information of the face identification information X in the Nth normal image information is used. do. FIG. 10 schematically shows this process. FIG. 10A is the previous (N-1st) normal image information, and FIG. 10B is the current (Nth) normal image information. Then, the image information of the area of each face of the shelf 1 of the Nth normal image information is compared with the image information of the area of each face of the shelf 1 of the N-1th normal image information. The similarity is determined by, and the product identification information of the face of the shelf 1 of the N-1th normal image information with the highest similarity is used, and the product identification information of the face of the shelf 1 of the Nth normal image information is used. Indicates that it is specified as. FIG. 10 shows a case where, in addition to the face of the N-1st normal image information at the position corresponding to the face of the Nth normal image information, comparison is performed with two faces on the left and right of the face. .. Not only the same shelf, but also the image information of the face positions of the upper and lower shelves may be compared. For example, in the case of FIG. 10, when specifying the product identification information of the face position at the center of the shelf 2 of the Nth normal image information, the center of the shelf 2 of the N-1th normal image information and its left and right thereof. Not only the image information of the area of two faces, but also the image information of the area of two faces on the left and right of the center of the shelf 1 of the N-1th normal image information, the N-1st. You may compare the image information and the similarity between the center of the shelf 3 and the two face regions on the left and right of the shelf 3 of the normal image information.

N−1回目の正置画像情報のフェイスの画像情報との比較の結果,類似性が閾値を充足しないなどによって商品識別情報を特定できなかった場合には,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,標本画像情報記憶部30に記憶する標本画像情報とを比較して,類似性が所定の閾値以上で,かつ,もっとも類似性が高い商品識別情報を,N回目の正置画像情報におけるフェイス識別情報Xのフェイスの商品識別情報として特定をする。この場合の類似性の判定処理は,初回の商品識別情報の特定処理と同様に行える。 As a result of comparison with the image information of the face of the N-1th normal image information, if the product identification information cannot be specified because the similarity does not satisfy the threshold, the face in the Nth normal image information The image information in the area of the identification information X is compared with the sample image information stored in the sample image information storage unit 30, and the product identification information having a similarity equal to or higher than a predetermined threshold and having the highest similarity is obtained as N. The face identification information X in the first orthodox image information is specified as the product identification information of the face. The similarity determination process in this case can be performed in the same manner as the initial product identification information identification process.

以上のようにして特定した商品識別情報は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて商品識別情報記憶部31に記憶する。 The product identification information specified as described above is associated with the shooting date / time information, store information, image information identification information of the shooting image information, image identification information of the orthodox image information, and face identification information for identifying the face. It is stored in the product identification information storage unit 31.

標本画像情報記憶部30は,正置画像情報に写っている陳列棚の棚段における各フェイスの商品がどの商品であるかを識別するための標本画像情報を記憶する。標本画像情報は,陳列棚に陳列される可能性のある商品を,上下,左右,斜めなど複数の角度から撮影をした画像情報である。図25に標本画像情報記憶部30に記憶される標本画像情報の一例を示す。図25では,標本画像情報として,缶ビールをさまざまな角度から撮影をした場合を示しているが,缶ビールに限られない。標本画像情報記憶部30は,標本画像情報と,商品識別情報とを対応付けて記憶する。 The sample image information storage unit 30 stores sample image information for identifying which product is the product of each face on the shelf of the display shelf shown in the normal image information. Specimen image information is image information obtained by photographing products that may be displayed on a display shelf from a plurality of angles such as up and down, left and right, and diagonally. FIG. 25 shows an example of the sample image information stored in the sample image information storage unit 30. FIG. 25 shows the case where the canned beer is photographed from various angles as the sample image information, but the sample image information is not limited to the canned beer. The sample image information storage unit 30 stores the sample image information and the product identification information in association with each other.

なお,標本画像情報記憶部30には,標本画像情報とともに,または標本画像情報に代えて,標本画像情報から抽出された,類似性の算出に必要となる情報,たとえば画像特徴量とその位置のペアの情報を記憶していてもよい。標本画像情報には,類似性の算出に必要となる情報も含むとする。この場合,商品識別情報特定処理部29は,フェイスの領域の画像情報と,標本画像情報とのマッチング処理を行う際に,標本画像情報について毎回,画像特徴量を算出せずともよくなり,計算時間を短縮することができる。 In the sample image information storage unit 30, information necessary for calculating similarity, for example, an image feature amount and its position, which is extracted from the sample image information together with the sample image information or instead of the sample image information, is stored in the sample image information storage unit 30. The pair information may be stored. The sample image information shall include the information necessary for calculating the similarity. In this case, the product identification information identification processing unit 29 does not have to calculate the image feature amount for the sample image information every time when performing the matching process between the image information in the face area and the sample image information, and the calculation is performed. You can save time.

商品識別情報記憶部31は,陳列棚の棚段の各フェイスに表示されている商品の商品識別情報を記憶する。たとえば,商品識別情報に対応付けて,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて商品識別情報記憶部31に記憶する。 The product identification information storage unit 31 stores the product identification information of the product displayed on each face of the shelf of the display shelf. For example, product identification is associated with the product identification information, such as shooting date / time information, store information, image information identification information of the shot image information, image identification information of the normal image information, and face identification information for identifying the face. It is stored in the information storage unit 31.

棚段画像マッチング処理部32は,前回(N−1回目)の正置画像情報における棚段の領域222の画像情報と,今回(N回目)の正置画像情報における棚段の領域222の画像情報とに基づいて,その類似性が高ければその棚段における各フェイスの商品識別情報は同一と判定する。この類似性の判定処理は,上述のように,前回(N−1回目)の正置画像情報における棚段の領域222の画像情報の画像特徴量と,今回(N回目)の正置画像情報における棚段の領域222の画像情報とに基づく類似性の判定でもよいし,色ヒストグラム同士のEMDを用いたものであってもよい。また,それらに限定するものではない。そして,商品識別情報特定処理部29におけるフェイス単位ごとの特定処理ではなく,商品識別情報特定処理部29に,N回目の正置画像情報におけるその棚段における各フェイスの商品識別情報を,N−1回目の同一の棚段における各フェイスの商品識別情報と同一として,商品識別情報記憶部31に記憶させる。これによって,あまり商品の動きがない棚段や逆にきわめて短いサイクルで管理される棚段など,変化がほとんど生じない棚段についての処理を省略することができる。なお,棚段画像マッチング処理部32による処理は設けなくてもよい。 The shelf image matching processing unit 32 uses the image information of the shelf area 222 in the previous (N-1st) normal image information and the image of the shelf area 222 in the current (Nth) normal image information. Based on the information, if the similarity is high, it is determined that the product identification information of each face on the shelf is the same. As described above, this similarity determination process includes the image feature amount of the image information of the shelf area 222 in the previous (N-1st) orthogonal image information and the current (Nth) orthogonal image information. The similarity may be determined based on the image information of the shelf area 222 in the above, or the EMD of the color histograms may be used. Moreover, it is not limited to them. Then, instead of the specific processing for each face in the product identification information specifying processing unit 29, the product identification information specifying processing unit 29 is informed of the product identification information of each face on the shelf in the Nth normal image information. It is stored in the product identification information storage unit 31 as the same as the product identification information of each face on the same shelf for the first time. As a result, it is possible to omit the processing for the shelves that hardly change, such as the shelves where the products do not move much and the shelves that are managed in an extremely short cycle. It is not necessary to provide the processing by the shelf image matching processing unit 32.

つぎに,本発明の商品特定システム1を用いた処理プロセスの一例を図3および図4のフローチャートを用いて説明する。 Next, an example of the processing process using the product identification system 1 of the present invention will be described with reference to the flowcharts of FIGS. 3 and 4.

まず初回の処理プロセスを図3のフローチャートを用いて説明する。 First, the initial processing process will be described with reference to the flowchart of FIG.

店舗の陳列棚が撮影された撮影画像情報は,撮影画像情報入力端末3から入力され,管理端末2の撮影画像情報入力受付処理部20でその入力を受け付ける(S100)。図11に,撮影画像情報の一例を示す。また,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報の入力を受け付ける。そして,撮影画像情報入力受付処理部20は,入力を受け付けた撮影画像情報,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報を対応づけて撮影画像情報記憶部21に記憶させる。 The photographed image information photographed on the display shelf of the store is input from the photographed image information input terminal 3, and the input is accepted by the photographed image information input reception processing unit 20 of the management terminal 2 (S100). FIG. 11 shows an example of captured image information. It also accepts input of image information identification information such as shooting date and time, store identification information, and shooting image information. Then, the captured image information input reception processing unit 20 stores the captured image information, the shooting date and time, the store identification information, and the image information identification information of the captured image information in association with each other in the captured image information storage unit 21.

管理端末2において所定の操作入力を受け付けると,台形補正処理部22は撮影画像情報記憶部21に記憶する撮影画像情報を抽出し,台形補正処理を行うための頂点である棚位置(陳列棚の位置)の4点C(C1乃至C4)の入力を受け付ける(S110)。図11の撮影画像情報に対して,棚位置C1乃至C4の入力を受け付けた状態の一例を図12に示す。入力を受け付けた棚位置の座標C1乃至C4は,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報に対応づけて頂点座標記憶部23に記憶させる。台形補正処理部22は,入力を受け付けた棚位置(頂点C1乃至C4)の座標に基づいて,撮影画像情報に対する台形補正処理を実行し正置化して正置画像情報を生成する(S120)。生成した正置画像情報は,台形補正処理前の撮影画像情報に対応する撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報に対応づけて正置画像情報記憶部24に記憶させる。図11の撮影画像情報に台形補正処理を実行して正置化した正置画像情報を図13に示す。 When the management terminal 2 receives a predetermined operation input, the trapezoidal correction processing unit 22 extracts the captured image information stored in the captured image information storage unit 21, and the shelf position (display shelf) which is the apex for performing the trapezoidal correction processing. The input of the four points C (C1 to C4) of the position) is accepted (S110). FIG. 12 shows an example of a state in which the input of the shelf positions C1 to C4 is accepted for the captured image information of FIG. The coordinates C1 to C4 of the shelf position that received the input are stored in the apex coordinate storage unit 23 in association with the image information identification information of the shooting date / time, the store identification information, and the shooting image information. The keystone correction processing unit 22 executes trapezoidal correction processing on the captured image information based on the coordinates of the shelf positions (vertices C1 to C4) that have received the input, and generates the normal image information (S120). The generated orthodox image information corresponds to the shooting date and time corresponding to the captured image information before the trapezoidal correction processing, the store identification information, the image information identification information of the captured image information, and the image information identification information of the orthostatic image information. It is stored in the image information storage unit 24. FIG. 13 shows the orthodox image information obtained by executing the keystone correction processing on the captured image information of FIG. 11 and making it orthodox.

棚段位置特定処理部25は,正置画像情報記憶部24に記憶する正置画像情報を抽出し,棚段位置の指定の入力を受け付ける(S130)。指定を受け付けた棚段位置T(図9における領域222)の座標は,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報に対応づけて棚段位置座標記憶部26に記憶させる。指定を受け付けた棚段位置Tの一例を図14に示す。図14では,棚段1の棚段位置を座標T11乃至T14,棚段2の棚段位置を座標T21乃至T24,棚段3の棚段位置を座標T31乃至T34で指定を受け付け,その入力を受け付ける。各棚段は,それぞれの4点の座標で構成される矩形領域222となる。なお,棚段位置の座標は4点を記憶せずとも,T11,T14など矩形領域222を特定可能な2点であってもよい。 The shelf stage position specifying processing unit 25 extracts the normal placement image information stored in the normal placement image information storage unit 24, and accepts an input for designating the shelf stage position (S130). The coordinates of the shelf stage position T (region 222 in FIG. 9) that received the designation correspond to the shooting date and time, the store identification information, the image information identification information of the shot image information, and the image information identification information of the normal image information. It is stored in the position coordinate storage unit 26. FIG. 14 shows an example of the shelf stage position T that has received the designation. In FIG. 14, the shelf stage position of the shelf stage 1 is specified by the coordinates T11 to T14, the shelf stage position of the shelf stage 2 is specified by the coordinates T21 to T24, and the shelf stage position of the shelf stage 3 is specified by the coordinates T31 to T34, and the input is accepted. accept. Each shelf is a rectangular area 222 composed of the coordinates of each of the four points. The coordinates of the shelf position may be two points such as T11 and T14 that can specify the rectangular area 222 without storing four points.

そして,フェイス特定処理部27は,S130で入力を受け付けた棚段位置に基づいて,棚段ごとに,フェイスを特定する処理を実行する(S140)。具体的には,棚段1について,座標T11乃至T14で構成される矩形領域222の範囲内において,商品と商品との間の影を特定する,画像の繰り返しパターンを特定する,パッケージの上辺の段差を特定する,商品幅が同一であるなどの制約に基づいて区切り位置を特定する,などによって,フェイスを特定する。また,棚段2について座標T21乃至T24で構成される矩形領域222の範囲内において,および棚段3について座標T31乃至T34で構成される矩形領域222の範囲内において,棚段1と同様に,フェイスを特定する。フェイスを特定した正置画像情報の一例を図15に示す。特定したフェイスの座標は,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイスを識別するためのフェイス識別情報と対応付けてフェイス座標記憶部28に記憶させる。たとえば図15における棚段1の左端のフェイスの座標(F11乃至F14)を,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイス識別情報に対応付けて記憶させる。なお,フェイスの座標は4点を記憶せずとも,F11,F14など矩形領域を特定可能な2点であってもよい。 Then, the face specifying processing unit 27 executes a process for specifying the face for each shelf based on the shelf position where the input is received in S130 (S140). Specifically, for the shelf 1, the shadow between the products is specified, the repeating pattern of the image is specified, and the upper side of the package is specified within the range of the rectangular area 222 composed of the coordinates T11 to T14. The face is specified by specifying the step, specifying the dividing position based on restrictions such as the same product width. Further, in the range of the rectangular area 222 composed of the coordinates T21 to T24 for the shelf step 2, and within the range of the rectangular area 222 composed of the coordinates T31 to T34 for the shelf step 3, similarly to the shelf step 1. Identify the face. FIG. 15 shows an example of the orthodox image information in which the face is specified. The coordinates of the specified face are associated with the shooting date / time, store identification information, image information identification information of the shooting image information, image information identification information of the orthostatic image information, and face identification information for identifying the face, and the face coordinate storage unit. Make it memorize in 28. For example, the coordinates (F11 to F14) of the leftmost face of the shelf 1 in FIG. 15 are used as the shooting date / time, store identification information, image information identification information of shot image information, image information identification information of normal image information, and face identification information. Store in association with each other. The coordinates of the face may be two points such as F11 and F14 that can specify a rectangular area without storing four points.

以上のように正置画像情報における各棚段の各フェイスを特定すると,商品識別情報特定処理部29は,フェイスごとに,標本画像情報記憶部30に記憶する標本画像情報とマッチング処理を実行し,そのフェイスに表示されている商品の商品識別情報を特定する(S150)。すなわち,図15における棚段1の左端のフェイスの場合,正置画像情報の座標F11乃至F14の矩形領域(この領域のフェイスのフェイス識別情報をXとする)における画像情報と,標本画像情報記憶部30に記憶する各標本画像情報とから,それぞれの画像特徴量を算出し,特徴点のペアを求めることで,類似性を判定する。そして,もっとも類似性の高い標本画像情報を特定し,そのときの類似性があらかじめ定められた閾値以上であれば,その標本画像情報に対応する商品識別情報を標本画像情報記憶部30に基づいて特定する。そして,特定した商品識別情報を,そのフェイス識別情報Xのフェイスに表示されている商品の商品識別情報とする。そして商品識別情報特定処理部29は,特定した商品識別情報を,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイス識別情報に対応づけて商品識別情報記憶部31に記憶する(S160)。 When each face of each shelf in the orthodox image information is specified as described above, the product identification information identification processing unit 29 executes matching processing with the sample image information stored in the sample image information storage unit 30 for each face. , Specify the product identification information of the product displayed on the face (S150). That is, in the case of the leftmost face of the shelf 1 in FIG. 15, the image information in the rectangular region of the coordinates F11 to F14 of the orthodox image information (the face identification information of the face in this region is X) and the sample image information storage. The similarity is determined by calculating each image feature amount from each sample image information stored in the unit 30 and obtaining a pair of feature points. Then, the sample image information having the highest similarity is specified, and if the similarity at that time is equal to or higher than a predetermined threshold value, the product identification information corresponding to the sample image information is obtained based on the sample image information storage unit 30. Identify. Then, the specified product identification information is used as the product identification information of the product displayed on the face of the face identification information X. Then, the product identification information identification processing unit 29 associates the identified product identification information with the shooting date / time, store identification information, image information identification information of the shot image information, image information identification information of the normal image information, and face identification information. It is stored in the product identification information storage unit 31 (S160).

なお,すべてのフェイスの商品識別情報を特定できるとは限らない。そこで,特定できていないフェイスについては,商品識別情報の入力を受け付け,入力を受け付けた商品識別情報を,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイス識別情報に対応づけて商品識別情報記憶部31に記憶する。また,特定した商品識別情報の修正処理についても同様に,入力を受け付けてもよい。 Not all face product identification information can be specified. Therefore, for faces that have not been identified, the input of product identification information is accepted, and the product identification information for which the input is accepted is used as the shooting date and time, store identification information, image information identification information of shot image information, and image information of orthodox image information. It is stored in the product identification information storage unit 31 in association with the identification information and the face identification information. Similarly, input may be accepted for the correction process of the specified product identification information.

以上のような処理を行うことで,撮影画像情報(図11)に写っている陳列棚の棚段に陳列されている商品の商品識別情報を特定することができる。 By performing the above processing, it is possible to specify the product identification information of the product displayed on the shelf of the display shelf shown in the photographed image information (FIG. 11).

つぎに,所定期間(たとえば一週間)経過後に,同一の陳列棚について,同じような領域を同じような角度で撮影した撮影画像情報について,本発明の処理プロセスを実行する場合を図4のフローチャートを用いて説明する。 Next, the flowchart of FIG. 4 shows a case where the processing process of the present invention is executed for the photographed image information obtained by photographing the same area on the same display shelf at the same angle after a predetermined period (for example, one week) has elapsed. Will be described using.

店舗の陳列棚が撮影された撮影画像情報は,撮影画像情報入力端末3から入力され,管理端末2の撮影画像情報入力受付処理部20でその入力を受け付ける(S200)。図16に,撮影画像情報の一例を示す。また,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報の入力を受け付ける。そして,撮影画像情報入力受付処理部20は,入力を受け付けた撮影画像情報,撮影日時,店舗識別情報,画像情報識別情報を対応づけて撮影画像情報記憶部21に記憶させる。 The photographed image information photographed on the display shelf of the store is input from the photographed image information input terminal 3, and the input is accepted by the photographed image information input reception processing unit 20 of the management terminal 2 (S200). FIG. 16 shows an example of captured image information. It also accepts input of image information identification information such as shooting date and time, store identification information, and shooting image information. Then, the captured image information input reception processing unit 20 stores the captured image information, the shooting date and time, the store identification information, and the image information identification information in association with each other in the captured image information storage unit 21.

管理端末2において所定の操作入力を受け付けると,台形補正処理部22は撮影画像情報記憶部21に記憶する撮影画像情報を抽出し,台形補正処理を実行するための,棚位置の頂点D(D1乃至D4)を特定する処理を実行する(S210)。 When the management terminal 2 receives a predetermined operation input, the trapezoidal correction processing unit 22 extracts the captured image information stored in the captured image information storage unit 21, and the vertex D (D1) of the shelf position for executing the trapezoidal correction processing. ~ D4) is executed (S210).

今回(N回目)の撮影画像情報(図16)に対応する同じまたはほぼ同じ領域を撮影した前回(N−1回目)の撮影画像情報の頂点座標を頂点座標記憶部23から特定する。つまり,前回の撮影画像情報が図11の場合,その頂点座標C1乃至C4を頂点座標記憶部23から特定する。前回の撮影画像情報の頂点座標は,撮影日時,店舗識別情報,撮影画像情報の画像識別情報などに基づいて特定をすればよい。 The vertex coordinates of the previous (N-1st) captured image information in which the same or substantially the same area corresponding to the captured image information (FIG. 16) of this time (Nth) is captured are specified from the vertex coordinate storage unit 23. That is, when the previously captured image information is shown in FIG. 11, the vertex coordinates C1 to C4 are specified from the vertex coordinate storage unit 23. The vertex coordinates of the previously captured image information may be specified based on the shooting date and time, the store identification information, the image identification information of the captured image information, and the like.

台形補正処理部22は,撮影画像情報記憶部21からN−1回目の撮影画像情報(図11)を抽出し,それぞれの頂点C1乃至C4について,頂点を一つずつ含む所定の大きさの矩形領域を特徴量採取領域220として,N−1回目の撮影画像情報に設定する。N−1回目の撮影画像情報に特徴量採取領域220を設定した状態を図17に示す。 The keystone correction processing unit 22 extracts the N-1st captured image information (FIG. 11) from the captured image information storage unit 21, and for each of the vertices C1 to C4, a rectangle having a predetermined size including one vertex. The area is set as the feature amount collection area 220 and set as the N-1th captured image information. FIG. 17 shows a state in which the feature amount collection area 220 is set for the N-1th captured image information.

また,台形補正処理部22は,撮影画像情報記憶部21からN回目の撮影画像情報(図16)を抽出し,N−1回目の特徴量採取領域220よりも広い範囲の特徴量採取領域221を,N回目の撮影画像情報に設定する。N回目の撮影画像情報に特徴量採取領域221を設定した状態を図18に示す。N回目の撮影画像情報におけるそれぞれの特徴量採取領域221は,N−1回目の特徴量採取領域220を一つずつ含む。 Further, the trapezoidal correction processing unit 22 extracts the Nth shot image information (FIG. 16) from the shot image information storage unit 21, and the feature amount collection area 221 having a wider range than the N-1th feature amount collection area 220. Is set as the Nth shot image information. FIG. 18 shows a state in which the feature amount collection area 221 is set for the Nth shot image information. Each feature amount collection area 221 in the Nth shot image information includes one N-1th feature amount collection area 220.

そして台形補正処理部22は,N−1回目の撮影画像情報に対して設定した各特徴量採取領域220において局所特徴量を採取し,局所特徴量による特徴点と座標のセットとを記憶する。また,N回目の撮影画像情報に対して設定した各特徴量採取領域221において局所特徴量を採取し,局所特徴量による特徴点と座標のセットとを記憶する。 Then, the keystone correction processing unit 22 collects the local feature amount in each feature amount collection area 220 set for the N-1th captured image information, and stores the feature point and the set of coordinates according to the local feature amount. In addition, the local feature amount is collected in each feature amount collection area 221 set for the Nth captured image information, and the feature point and the set of coordinates according to the local feature amount are stored.

台形補正処理部22は,N−1回目の撮影画像情報の特徴量採取領域220での各特徴点の各局所特徴量にもっとも近いN回目の撮影画像情報の特徴量採取領域221での局所特徴量の特徴点を特定し,それらをペアとなる局所特徴量の特徴点として,それぞれの座標を対応付ける。図7に示すのがN−1回目のN−1回目の特徴量採取領域220と,N回目の特徴量採取領域221とのペアの関係である。 The trapezoidal correction processing unit 22 is the local feature in the feature amount collection area 221 of the Nth shot image information closest to each local feature amount of each feature point in the feature amount collection area 220 of the N-1st shot image information. The feature points of the quantity are specified, and the coordinates are associated with them as the feature points of the local feature quantity to be paired. FIG. 7 shows the relationship between the N-1st feature amount collection area 220 and the Nth feature amount collection area 221.

そして,N−1回目の特徴量採取領域220における局所特徴量による特徴点の点群をA,N回目の特徴量採取領域221における局所特徴量による特徴点の点群をB,N−1回目の台形補正処理に用いた頂点をC(C1乃至C4)とすると,台形補正処理部22は,点群Aと点群Bの座標とに基づいて,点群Aを点群Bに射影する関数F(アフィン変換)を求める。 Then, the point cloud of the feature point by the local feature amount in the N-1st feature amount collection area 220 is A, and the point cloud of the feature point by the local feature amount in the Nth feature amount collection area 221 is B, N-1st. Assuming that the vertices used for the trapezoidal correction processing of are C (C1 to C4), the trapezoidal correction processing unit 22 projects the point cloud A onto the point cloud B based on the coordinates of the point cloud A and the point cloud B. Find F (affin conversion).

そして台形補正処理部22は,N−1回目の台形補正処理で用いた頂点C(C1乃至C4)の座標を,求めた関数Fに基づいて射影し,N回目の台形補正処理のための頂点D(D1乃至D4)の座標として特定する。 Then, the keystone correction processing unit 22 projects the coordinates of the vertices C (C1 to C4) used in the N-1th keystone correction processing based on the obtained function F, and the vertex for the Nth keystone correction processing. It is specified as the coordinates of D (D1 to D4).

以上の処理を各特徴量採取領域220,221に対して行うことで,N回目の台形補正処理のための4頂点D(D1乃至D4)が自動的に特定できる。特定したN回目の頂点D(D1乃至D4)の座標は,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報に対応づけて頂点座標記憶部23に記憶させる。特定された頂点D1乃至D4を示すのが図19である。 By performing the above processing for each feature amount collection area 220, 221, the four vertices D (D1 to D4) for the Nth keystone correction processing can be automatically specified. The coordinates of the specified Nth vertex D (D1 to D4) are stored in the vertex coordinate storage unit 23 in association with the image information identification information of the shooting date and time, the store identification information, and the shooting image information. FIG. 19 shows the identified vertices D1 to D4.

以上のようにして,N回目の撮影画像情報に対する台形補正処理のための棚位置の頂点D(D1乃至D4)を特定すると,台形補正処理部22は,頂点D(D1乃至D4)に基づいて,N回目の撮影画像情報に対して台形補正処理を実行する(S220)。そしてN回目の撮影画像情報を正置化した正置画像情報を,台形補正処理前の撮影画像情報に対応する撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報に対応づけて正置画像情報記憶部24に記憶させる。図16の撮影画像情報に対して,特定した頂点D(D1乃至D4)を用いて台形補正処理を実行して正置化した正置画像情報を図20に示す。 As described above, when the vertex D (D1 to D4) of the shelf position for the keystone correction processing for the Nth captured image information is specified, the keystone correction processing unit 22 is based on the vertex D (D1 to D4). , The keystone correction process is executed for the Nth captured image information (S220). Then, the normal image information obtained by rectifying the Nth shot image information is the shooting date and time corresponding to the shot image information before the trapezoidal correction processing, the store identification information, the image information identification information of the shot image information, and the normal image information. It is stored in the orthodox image information storage unit 24 in association with the image identification information. FIG. 20 shows the orthodox image information obtained by performing trapezoidal correction processing using the specified vertices D (D1 to D4) with respect to the captured image information of FIG.

そして棚段位置特定処理部25は,N−1回目の正置画像情報に対応する棚段位置の座標を,棚段位置座標記憶部26から抽出し,それを,N回目の正置画像情報(図20)に写っている陳列棚の棚段位置の座標とする。すなわち,N−1回目の正置画像情報に対応する棚段1の座標T11乃至T14,棚段2の座標T21乃至T24,棚段3の座標T31乃至T34を抽出し,その座標を,N回目の正置画像情報の陳列棚の棚段1,棚段2,棚段3の座標として,それぞれの棚段位置を特定する(S230)。N回目の正置画像情報(図20)に写っている陳列棚の各棚段の位置を特定した状態を図21に示す。特定した棚段位置の座標は,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報に対応付けて棚段位置座標記憶部26に記憶させる。 Then, the shelf stage position specifying processing unit 25 extracts the coordinates of the shelf stage position corresponding to the N-1th normal placement image information from the shelf stage position coordinate storage unit 26, and extracts the coordinates of the shelf stage position coordinate storage unit 26 from the shelf stage position coordinate storage unit 26. The coordinates are the positions of the shelves of the display shelves shown in (FIG. 20). That is, the coordinates T11 to T14 of the shelf 1 corresponding to the N-1th orthodox image information, the coordinates T21 to T24 of the shelf 2, and the coordinates T31 to T34 of the shelf 3 are extracted, and the coordinates are set to the Nth time. The position of each shelf is specified as the coordinates of the shelf 1, the shelf 2, and the shelf 3 of the display shelf of the normal image information (S230). FIG. 21 shows a state in which the positions of the shelves of the display shelves shown in the Nth normal image information (FIG. 20) are specified. The coordinates of the specified shelf stage position are stored in the shelf stage position coordinate storage unit 26 in association with the shooting date / time, store identification information, image information identification information of the shooting image information, and image identification information of the normal image information.

以上のようにして特定した棚段位置に基づいて,フェイス特定処理部27は,N−1回目の各棚段における各フェイスの座標Fおよびフェイス識別情報をフェイス座標記憶部28から抽出し,N回目の各棚段におけるフェイスの座標Fおよびフェイス識別情報として特定する(S240)。特定したフェイスの座標およびフェイス識別情報は,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報に対応付けて記憶させる。これによって,N回目の正置画像情報における各棚段についても,N−1回目の正置画像情報と同様に,それぞれのフェイスおよびその座標が特定できる。これを模式的に示すのが図22である。 Based on the shelf stage position specified as described above, the face identification processing unit 27 extracts the coordinate F and the face identification information of each face in each shelf stage of the N-1th time from the face coordinate storage unit 28, and N It is specified as the coordinates F of the face and the face identification information in each shelf of the second time (S240). The coordinates of the specified face and the face identification information are stored in association with the shooting date and time, the store identification information, the image information identification information of the shot image information, and the image identification information of the orthostatic image information. As a result, the faces and their coordinates can be specified for each shelf in the Nth normal image information as well as the N-1th normal image information. FIG. 22 schematically shows this.

そして棚段画像マッチング処理部32は,N回目の正置画像情報の棚段の画像情報と,N−1回目の正置画像情報の棚段の画像情報との類似性を判定する(S250)。すなわち,N回目の正置画像情報の棚段1の画像情報(座標T11乃至T14の領域の画像情報)と,N−1回目の正置画像情報の棚段1の画像情報(座標T11乃至T14の領域の画像情報)とを,色ヒストグラム同士のEMDを求め,類似性を判定する。 Then, the shelf image matching processing unit 32 determines the similarity between the image information of the shelf of the Nth normal image information and the image information of the shelf of the N-1th normal image information (S250). .. That is, the image information of the shelf 1 of the Nth normal image information (image information in the region of the coordinates T11 to T14) and the image information of the shelf 1 of the N-1th normal image information (coordinates T11 to T14). (Image information in the area of) and EMD between color histograms are obtained, and similarity is determined.

もしN回目の正置画像情報の棚段1の画像情報と,N−1回目の正置画像情報の棚段1の画像情報とが類似と判定できた場合(S260),商品識別情報特定処理部29は,N−1回目の正置画像情報の棚段1のそれぞれのフェイスの商品識別情報を商品識別情報特定処理部29から抽出し,N回目の正置画像情報の棚段1のそれぞれ対応する位置にあるフェイスの商品識別情報として特定する(S270)。そして商品識別情報特定処理部29は,特定したフェイスの商品識別情報を,商品識別情報記憶部31に記憶させる。 If it can be determined that the image information of the shelf 1 of the Nth normal image information and the image information of the shelf 1 of the N-1th normal image information are similar (S260), the product identification information identification process is performed. Unit 29 extracts the product identification information of each face of the N-1th normal image information shelf 1 from the product identification information identification processing unit 29, and each of the N-1th normal image information shelf 1 It is specified as the product identification information of the face at the corresponding position (S270). Then, the product identification information specifying processing unit 29 stores the product identification information of the specified face in the product identification information storage unit 31.

一方,棚段画像マッチング処理部32におけるN回目の正置画像情報の棚段の画像情報と,N−1回目の正置画像情報の棚段の画像情報との類似性の判定の結果,類似と判定できなかった場合(S260),商品識別情報記憶部31は,その棚段におけるフェイス単位での商品識別情報の特定処理を実行する(S280)。 On the other hand, as a result of determining the similarity between the image information of the shelf of the Nth normal image information and the image information of the shelf of the N-1th normal image information in the shelf image matching processing unit 32, the image is similar. If it cannot be determined (S260), the product identification information storage unit 31 executes a process for specifying the product identification information in face units on the shelf (S280).

すなわち,N回目の正置画像情報におけるフェイスの画像情報と,そのフェイスに対応するN−1回目の正置画像情報におけるフェイスおよびそのフェイスから所定範囲のフェイスの画像情報とを比較し,もっとも類似性が高いN−1回目の正置画像情報のフェイスを特定する。そしてその類似性が一定の閾値以上であれば,N回目の正置画像情報におけるフェイスの商品識別情報を,当該特定したN−1回目の正置画像情報におけるフェイスに対応する商品識別情報として特定する。この処理を模式的に示すのが図23および図24である。図23は,N回目の正置画像情報におけるフェイスの画像情報と,そのフェイスに対応するN−1回目の正置画像情報におけるフェイスの画像情報との類似性の比較をすることで,商品識別情報を特定する処理を示している。図24は,N回目の正置画像情報におけるフェイスの画像情報と,そのフェイスに対応するN−1回目の正置画像情報におけるフェイスおよび左右1個ずつのフェイスの画像情報との類似性の比較をすることで,商品識別情報を特定する処理を示している。なお,図24に示すように,N−1回目の正置画像情報における同一の棚段で対応するフェイスのみならず,その左右に所定数分のフェイス,その棚段の上下に位置する棚段におけるフェイスを類似性の比較対象としてもよい。 That is, the image information of the face in the Nth normal image information is compared with the image information of the face in the N-1th normal image information corresponding to the face and the face in a predetermined range from the face, and the most similar. Identify the face of the N-1th orthodox image information with high character. If the similarity is equal to or higher than a certain threshold value, the product identification information of the face in the Nth normal image information is specified as the product identification information corresponding to the face in the specified N-1th normal image information. do. 23 and 24 show this process schematically. FIG. 23 shows product identification by comparing the similarity between the image information of the face in the Nth normal image information and the image information of the face in the N-1th normal image information corresponding to the face. Shows the process of specifying information. FIG. 24 shows a comparison of the similarity between the image information of the face in the Nth normal image information and the image information of the face and the left and right faces in the N-1th normal image information corresponding to the face. By doing so, the process of specifying the product identification information is shown. As shown in FIG. 24, not only the faces corresponding to the same shelf in the N-1th normal image information, but also a predetermined number of faces on the left and right of the face, and the shelves located above and below the shelf. The face in the above may be used as a comparison target for similarity.

もしもっとも類似性が高いN−1回目の正置画像情報のフェイスについて,その類似性が一定の閾値を充足していなければ,そのフェイスの商品識別情報を未確定とする。そして,商品識別情報特定処理部29は,そのフェイスの領域の画像情報と,標本画像情報記憶部30に記憶する各標本画像情報と画像マッチング処理を実行することで,商品識別情報を特定する(S290)。 If the face of the N-1th orthodox image information having the highest similarity does not satisfy a certain threshold value, the product identification information of the face is undetermined. Then, the product identification information specifying processing unit 29 specifies the product identification information by executing the image matching process with the image information of the area of the face and each sample image information stored in the sample image information storage unit 30 (the product identification information specifying processing unit 29). S290).

以上のようにして特定したフェイスごとの商品識別情報を,商品識別情報特定処理部29は,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイス識別情報に対応づけて商品識別情報記憶部31に記憶する(S300)。 The product identification information identification processing unit 29 uses the product identification information for each face specified as described above to obtain the shooting date / time, store identification information, image information identification information of the shot image information, image information identification information of the normal image information, and the like. It is stored in the product identification information storage unit 31 in association with the face identification information (S300).

なお,すべてのフェイスの商品識別情報を特定できるとは限らない。そこで,特定できていないフェイスについては,商品識別情報の入力を受け付け,入力を受け付けた商品識別情報を,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイス識別情報に対応づけて商品識別情報記憶部31に記憶する。また,特定した商品識別情報の修正処理についても同様に,入力を受け付けてもよい。 Not all face product identification information can be specified. Therefore, for faces that have not been identified, the input of product identification information is accepted, and the product identification information for which the input is accepted is used as the shooting date and time, store identification information, image information identification information of shot image information, and image information of orthodox image information. It is stored in the product identification information storage unit 31 in association with the identification information and the face identification information. Similarly, input may be accepted for the correction process of the specified product identification information.

以上のような処理を行うことで,撮影画像情報(図16)に写っている陳列棚の棚段に陳列されている商品の商品識別情報を特定することができる。また,二回目以降の撮影画像情報については,台形補正処理のための頂点を自動的に特定できるので,担当者による作業を軽減することができる。また,フェイスの画像情報を,標本画像情報と比較するのではなく,前回の同一またはそこから所定範囲の位置にあるフェイスの画像情報と比較することで,画像マッチング処理を減らすことができるとともに,商品の特定精度を向上させることができる。 By performing the above processing, it is possible to specify the product identification information of the product displayed on the shelf of the display shelf shown in the photographed image information (FIG. 16). In addition, for the second and subsequent shot image information, the vertices for keystone correction processing can be automatically specified, so the work by the person in charge can be reduced. Further, by comparing the image information of the face with the image information of the face in the same position as the previous time or at a position within a predetermined range from the previous time, instead of comparing with the sample image information, the image matching process can be reduced and the image matching process can be reduced. It is possible to improve the identification accuracy of the product.

なお,N回目の撮影画像情報に対する処理については,N−1回目の撮影画像情報または正置画像情報での処理結果を用いることが好ましいが,任意のタイミングで,初回の場合と同様の処理を実行することで,自動処理によるデータのズレを元に修正することができる。 For the processing of the Nth shot image information, it is preferable to use the processing result of the N-1th shot image information or the orthostatic image information, but at any timing, the same processing as in the first time is performed. By executing it, it is possible to correct it based on the data deviation due to automatic processing.

本発明の商品特定システム1を用いることによって,陳列棚に陳列されている商品を,従来よりも高精度に特定できる一方,処理負荷を少なくすることを可能とする。 By using the product identification system 1 of the present invention, it is possible to identify the products displayed on the display shelf with higher accuracy than before, while reducing the processing load.

1:商品特定システム
2:管理端末
3:撮影画像情報入力端末
20:撮影画像情報入力受付処理部
21:撮影画像情報記憶部
22:台形補正処理部
23:頂点座標記憶部
24:正置画像情報記憶部
25:棚段位置特定処理部
26:棚段位置座標記憶部
27:フェイス特定処理部
28:フェイス座標記憶部
29:商品識別情報特定処理部
30:標本画像情報記憶部
31:商品識別情報記憶部
32:棚段画像マッチング処理部
70:演算装置
71:記憶装置
72:表示装置
73:入力装置
74:通信装置
220:N−1回目の撮影画像情報における特徴量採取領域
221:N回目の撮影画像情報における特徴量採取領域
222:棚段の領域
A:N−1回目の撮影画像情報における局所特徴量の点群
B:N回目の撮影画像情報における局所特徴量の点群
C:N−1回目の撮影画像情報における棚位置
D:N回目の撮影画像情報における棚位置
T:棚段位置
1: Product identification system 2: Management terminal 3: Photographed image information input terminal 20: Photographed image information input reception processing unit 21: Photographed image information storage unit 22: Trapezoidal correction processing unit 23: Vertex coordinate storage unit 24: Positive image information Storage unit 25: Shelf stage position identification processing unit 26: Shelf stage position coordinate storage unit 27: Face identification processing unit 28: Face coordinate storage unit 29: Product identification information identification processing unit 30: Specimen image information storage unit 31: Product identification information Storage unit 32: Shelf stage image matching processing unit 70: Arithmetic device 71: Storage device 72: Display device 73: Input device 74: Communication device 220: N-1st feature amount collection area in image information 221: Nth time Feature amount collection area in captured image information 222: Shelf stage area A: N-1 point group of local feature amount in captured image information B: Point group of local feature amount in Nth captured image information C: N- Shelf position in the first shot image information D: Shelf position in the Nth shot image information T: Shelf stage position

Claims (5)

陳列棚に陳列している商品を特定するための商品特定システムであって,
前記商品特定システムは,
前記陳列棚を撮影した画像情報から,商品が置かれている領域であるフェイスを特定するフェイス特定処理部と,
前記画像情報における,前記フェイスに表示されている商品の商品識別情報を特定し,前記フェイスに対応づけて商品識別情報記憶部に記憶させる商品識別情報特定処理部,を有しており,
前記商品識別情報特定処理部は,
第2の画像情報における処理対象とするフェイスの画像情報と,そのフェイスに対応する第1の画像情報におけるフェイスから所定範囲にあるフェイスの画像情報とを比較し,類似性が所定条件を充足している第1の画像情報におけるフェイスにある商品の商品識別情報を,前記第2の画像情報における前記処理対象とするフェイスにある商品の商品識別情報として特定する,
ことを特徴とする商品特定システム。
It is a product identification system for identifying the products displayed on the display shelves.
The product identification system is
From the image information of the display shelf, the face identification processing unit that identifies the face, which is the area where the product is placed, and the face identification processing unit.
Wherein the image information to identify the product identification information of the commodity is displayed on the face, it has a product identification information identifying unit to be stored in the product identification information storage unit in association with the face,
The product identification information identification processing unit is
The image information of the face to be processed in the second image information is compared with the image information of the face in the first image information corresponding to the face within a predetermined range from the face , and the similarity satisfies the predetermined condition. The product identification information of the product on the face in the first image information is specified as the product identification information of the product on the face to be processed in the second image information.
A product identification system characterized by that.
前記商品識別情報特定処理部は,
第2の画像情報におけるフェイスの画像情報と,そのフェイスに対応する第1の画像情報におけるフェイスから所定範囲にあるフェイスの画像情報とを比較し,もっとも類似性が高くかつ一定の閾値以上である第1の画像情報におけるフェイスにある商品の商品識別情報を,前記第2の画像情報におけるフェイスにある商品の商品識別情報として特定する,
ことを特徴とする請求項1に記載の商品特定システム。
The product identification information identification processing unit is
The image information of the face in the second image information is compared with the image information of the face in the first image information corresponding to the face within a predetermined range from the face , and the similarity is the highest and is equal to or higher than a certain threshold. The product identification information of the product on the face in the first image information is specified as the product identification information of the product on the face in the second image information.
The product identification system according to claim 1.
前記商品特定システムは,さらに,
商品の標本画像情報を記憶する標本画像情報記憶部,を有しており,
前記商品識別情報特定処理部は,さらに,
前記第2の画像情報におけるフェイスの画像情報と,そのフェイスに対応する前記第1の画像情報におけるフェイスから所定範囲にあるフェイスの画像情報との比較の結果,類似性が所定条件を充足していない場合には,前記第2の画像情報におけるフェイスの画像情報と,前記標本画像情報記憶部に記憶する標本画像情報とを比較することで,前記第2の画像情報におけるフェイスにある商品の商品識別情報を特定する,
ことを特徴とする請求項1または請求項2に記載の商品特定システム。
The product identification system further
It has a sample image information storage unit, which stores sample image information of products.
The product identification information identification processing unit further
As a result of comparison between the image information of the face in the second image information and the image information of the face in the predetermined range from the face in the first image information corresponding to the face, the similarity satisfies the predetermined condition. If not, the product of the product on the face in the second image information is obtained by comparing the image information of the face in the second image information with the sample image information stored in the sample image information storage unit. Identify the identification information,
The product identification system according to claim 1 or 2, characterized in that.
前記商品特定システムは,さらに,
画像情報に対する棚段位置の特定を行う棚段位置特定処理部,を有しており,
前記棚段位置特定処理部は,
前記第2の画像情報における棚段の位置を,前記第1の画像情報における棚段の位置に基づいて特定する,
ことを特徴とする請求項1から請求項3のいずれかに記載の商品特定システム。
The product identification system further
It has a shelf position identification processing unit that specifies the shelf position for image information.
The shelf stage position specifying processing unit is
The position of the shelf in the second image information is specified based on the position of the shelf in the first image information.
The product identification system according to any one of claims 1 to 3, wherein the product identification system is characterized in that.
コンピュータを,
陳列棚を撮影した画像情報から,商品が置かれている領域であるフェイスを特定するフェイス特定処理部,
前記画像情報における,商品が置かれている領域であるフェイスに表示されている商品の商品識別情報を特定し,前記フェイスに対応づけて所定の記憶領域に記憶させる商品識別情報特定処理部,として機能させるための商品特定プログラムであって,
前記商品識別情報特定処理部は,
第2の画像情報におけるフェイスの画像情報と,そのフェイスに対応する第1の画像情報におけるフェイスから所定範囲にあるフェイスの画像情報とを比較し,類似性が所定条件を充足している第1の画像情報におけるフェイスにある商品の商品識別情報を,前記第2の画像情報におけるフェイスにある商品の商品識別情報として特定する,
ことを特徴とする商品特定プログラム。
Computer,
Face identification processing unit that identifies the face, which is the area where the product is placed, from the image information of the display shelf.
As a product identification information specifying processing unit that identifies the product identification information of the product displayed on the face, which is the area where the product is placed, in the image information, and stores the product identification information in a predetermined storage area in association with the face. It is a product identification program to make it work.
The product identification information identification processing unit is
The first image information of the face in the second image information is compared with the image information of the face in the first image information corresponding to the face within a predetermined range from the face , and the similarity satisfies the predetermined condition. The product identification information of the product on the face in the image information of the above is specified as the product identification information of the product on the face in the second image information.
A product identification program characterized by that.
JP2020068783A 2018-08-02 2020-04-07 Product identification system Active JP6979653B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020068783A JP6979653B2 (en) 2018-08-02 2020-04-07 Product identification system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018145794A JP6737446B2 (en) 2018-08-02 2018-08-02 Product identification system
JP2020068783A JP6979653B2 (en) 2018-08-02 2020-04-07 Product identification system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018145794A Division JP6737446B2 (en) 2018-08-02 2018-08-02 Product identification system

Publications (2)

Publication Number Publication Date
JP2020115380A JP2020115380A (en) 2020-07-30
JP6979653B2 true JP6979653B2 (en) 2021-12-15

Family

ID=78870787

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020068783A Active JP6979653B2 (en) 2018-08-02 2020-04-07 Product identification system

Country Status (1)

Country Link
JP (1) JP6979653B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5561524B2 (en) * 2010-03-19 2014-07-30 ソニー株式会社 Image processing apparatus and method, and program
JP2014178739A (en) * 2013-03-13 2014-09-25 Sony Corp Image processor and image processing method and program
JP6705075B2 (en) * 2014-10-01 2020-06-03 株式会社マーケットヴィジョン Product display information collection system

Also Published As

Publication number Publication date
JP2020115380A (en) 2020-07-30

Similar Documents

Publication Publication Date Title
US11120254B2 (en) Methods and apparatuses for determining hand three-dimensional data
JP6440043B1 (en) Product identification system
WO2018072483A1 (en) Image segmentation method, image segmentation system and storage medium, and device comprising same
WO2019042419A1 (en) Image tracking point acquisition method and device, and storage medium
JP6831951B2 (en) Image recognition system
US10291838B2 (en) Focusing point determining method and apparatus
CN108573471B (en) Image processing apparatus, image processing method, and recording medium
CN110505397B (en) Camera selection method, device and computer storage medium
JP6746123B2 (en) Image recognition system
JP6229554B2 (en) Detection apparatus and detection method
JP6979653B2 (en) Product identification system
CN117253022A (en) Object identification method, device and inspection equipment
JP6536707B1 (en) Image recognition system
JP2018036901A (en) Image processor, image processing method and image processing program
JP2003022442A (en) Method and device for object detection and position measurement, execution program for the same method, and its recording medium
JP6737446B2 (en) Product identification system
JP6781996B1 (en) Image correction processing system
JP6936529B1 (en) Verification system
JP2004240909A (en) Image processor and image processing method
CN114170576A (en) Method and device for detecting repeated images
CN111767757B (en) Identity information determining method and device
JP2022185872A (en) Image processing device, image processing method and imaging apparatus
JP6717769B2 (en) Information processing device and program
JP2016167126A (en) Information terminal device
JP2019160327A (en) Image recognition system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211104

R150 Certificate of patent or registration of utility model

Ref document number: 6979653

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150