JP6887167B2 - Image processing system - Google Patents

Image processing system Download PDF

Info

Publication number
JP6887167B2
JP6887167B2 JP2019070140A JP2019070140A JP6887167B2 JP 6887167 B2 JP6887167 B2 JP 6887167B2 JP 2019070140 A JP2019070140 A JP 2019070140A JP 2019070140 A JP2019070140 A JP 2019070140A JP 6887167 B2 JP6887167 B2 JP 6887167B2
Authority
JP
Japan
Prior art keywords
image information
information
plane
generated
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019070140A
Other languages
Japanese (ja)
Other versions
JP2020170265A (en
Inventor
成吉 谷井
成吉 谷井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Marketvision Co Ltd
Original Assignee
Marketvision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Marketvision Co Ltd filed Critical Marketvision Co Ltd
Priority to JP2019070140A priority Critical patent/JP6887167B2/en
Publication of JP2020170265A publication Critical patent/JP2020170265A/en
Application granted granted Critical
Publication of JP6887167B2 publication Critical patent/JP6887167B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

本発明は,画像処理システムに関する。 The present invention relates to an image processing system.

ある画像情報に,判定対象とする対象物が写っているかを判定することが求められる場合がある。たとえば商品の陳列棚を撮影した画像情報に,判定対象とする商品が写っているかを判定することで,その商品が陳列されていたかを判定する場合などがその一例としてあげられる。 It may be required to determine whether or not an object to be determined is reflected in a certain image information. For example, there is a case where it is determined whether or not the product to be determined is displayed in the image information obtained by photographing the display shelf of the product.

このように,画像情報に対象物が写っているかを判定する場合には,通常,処理対象となる画像情報と,対象物の画像情報との画像マッチング処理を実行することが一般的である。たとえば,下記特許文献1乃至特許文献3には,商品ごとの標本画像情報をもとに,店舗の陳列棚を撮影した画像情報に対して画像認識技術を用いることで商品の陳列状況を管理するシステムが開示されている。 In this way, when determining whether or not an object is reflected in the image information, it is common to execute an image matching process between the image information to be processed and the image information of the object. For example, in the following Patent Documents 1 to 3, based on the sample image information for each product, the display status of the product is managed by using the image recognition technology for the image information obtained by photographing the display shelf of the store. The system is disclosed.

特開平5−342230号公報Japanese Unexamined Patent Publication No. 5-342230 特開平5−334409号公報Japanese Unexamined Patent Publication No. 5-334409 国際公開2012/029548International release 2012/029548

しかし特許文献1乃至特許文献3などのいずれの技術においても,撮影した画像情報は2次元画像情報であり,また標本情報も2次元の画像情報である。そのため,2次元画像情報同士を単純に比較することとなる。しかし,撮影した画像情報において,対象物が必ずしも標本画像情報と同じ向きで写っているとは限らない。たとえば,商品の標本画像情報を撮影する際に,商品ラベルが正面に位置するように撮影するが,陳列されている商品は,たとえば客が商品を触ることで,商品ラベルが正面に向いていない状態となることもある。画像マッチング処理においては,画像特徴量の比較で行うことが一般的であるため,上記のような場合,撮影した画像情報と標本画像情報との画像マッチング処理の精度は著しく低下する。 However, in any of the techniques such as Patent Document 1 to Patent Document 3, the captured image information is two-dimensional image information, and the sample information is also two-dimensional image information. Therefore, the two-dimensional image information is simply compared with each other. However, in the captured image information, the object is not always shown in the same direction as the sample image information. For example, when taking a sample image information of a product, the product label is taken so that it is located in front of the product, but the product label is not facing the front when the customer touches the product, for example. It may be in a state. Since the image matching process is generally performed by comparing the image feature amounts, the accuracy of the image matching process between the captured image information and the sample image information is significantly lowered in the above cases.

そこで従来は,一つの対象物について,複数の角度から対象物を撮影した複数の標本画像情報をあらかじめ準備しておくことで,撮影した画像情報において,対象物が正面に向いていない場合に対応することが一般的であった。たとえば一つの対象物について,角度を10度ずつ回転して撮影し,36枚の標本画像情報を準備していた。 Therefore, conventionally, for one object, by preparing a plurality of sample image information obtained by photographing the object from a plurality of angles in advance, it is possible to deal with the case where the object is not facing the front in the photographed image information. It was common to do. For example, one object was photographed by rotating the angle by 10 degrees, and 36 sample image information was prepared.

しかしこのような場合,一つの対象物について多くの角度から標本画像情報を撮影しておく必要があり,撮影する枚数が多くなるほか,標本画像情報の増大,画像マッチング処理の処理時間,処理負荷の増大といった課題が発生することとなる。 However, in such a case, it is necessary to capture the sample image information from many angles for one object, which increases the number of images to be captured, increases the sample image information, the processing time of the image matching process, and the processing load. Will arise, such as an increase in the number of people.

そこで本発明者は,上記課題に鑑み,上記課題を解決する画像情報に対象物が写っているのを判定するための画像処理システムを発明した。 Therefore, in view of the above problems, the present inventor has invented an image processing system for determining that an object is reflected in the image information that solves the above problems.

第1の発明は,陳列棚を撮影した撮影画像情報とそれに対応する深さ情報とを用いて第1の平面展開画像情報を生成する画像情報処理部と,陳列棚に陳列される商品を撮影した対象物画像情報とそれに対応する深さ情報とを用いて,前記商品の標本情報を生成する標本情報処理部と,前記平面展開画像情報の一部または全部と,前記標本情報の一部または全部とを用いてマッチング処理を実行するマッチング処理部と,を有しており,前記深さ情報は,撮影対象と撮影装置との距離情報であり,前記画像情報処理部は,前記撮影画像情報とそれに対応する深さ情報とを用いて3次元モデルを生成し,前記生成した3次元モデルが正対する位置になるように回転させ,前記回転させた3次元モデルの一部または全部について,平面に展開する前記第1の平面展開画像情報を生成し,前記標本情報処理部は,前記対象物画像情報とそれに対応する深さ情報とを用いて3次元モデルを生成し,前記生成した3次元モデルの一部または全部について,平面に展開する第2の平面展開画像情報を生成し,前記第2の平面展開画像情報を用いて,前記商品の標本情報を生成する,画像処理システムである。
The first invention is an image information processing unit that generates a first plane development image information using photographed image information obtained by photographing a display shelf and corresponding depth information, and photographs a product displayed on the display shelf. A sample information processing unit that generates sample information of the product using the object image information and the corresponding depth information, a part or all of the plane-expanded image information, and a part or part of the sample information. It has a matching processing unit that executes matching processing using all of them, and the depth information is distance information between a shooting target and a shooting device, and the image information processing unit has the shot image information. A 3D model is generated using the information and the corresponding depth information, and the generated 3D model is rotated so that the generated 3D model faces each other. The first plane-expanded image information developed in the above is generated, the sample information processing unit generates a three-dimensional model using the object image information and the corresponding depth information, and the generated three-dimensional No part of the model, to generate a second planar development image information developed in a plane, with the second planar development image information, and generates the sample information of the commodity, an image processing system.

本発明によって,標本情報の数を減らすことができる。また標本情報を減らせるので,マッチング処理の処理時間,処理負荷を軽減することができる。 According to the present invention, the number of sample information can be reduced. Moreover, since the sample information can be reduced, the processing time and processing load of the matching process can be reduced.

上述の発明において,前記画像情報処理部は,前記撮影画像情報とそれに対応する深さ情報を用いて3次元モデルを生成し,前記生成した3次元モデルに前記撮影画像情報をテクスチャマッピングし,前記テクスチャマッピングした3次元モデルが正対する位置となるように視点方向を決定し,前記決定した視点方向からのテクスチャマッピングした3次元モデルから所定の領域を特定し,前記特定した所定の領域を平面に展開することで前記第1の平面展開画像情報を生成する,画像処理システムのように構成することができる。
In the invention described above, the image information processing unit, the captured image information and generates a 3-dimensional model by using the depth information corresponding thereto, the photographic image information texture mapping to three-dimensional model of the generated , The viewpoint direction is determined so that the texture-mapped three-dimensional model faces the position, a predetermined area is specified from the texture-mapped three-dimensional model from the determined viewpoint direction, and the specified predetermined area is defined. It can be configured like an image processing system that generates the first plane development image information by developing it on a plane.

撮影画像情報と深さ情報とを用いて平面展開画像情報を生成するには,本発明のような処理を実行することが好ましい。とくに,撮影画像情報から平面展開画像情報を生成する過程において,生成した3次元モデルが正対する位置となる視点方向で平面展開画像情報を生成するので,斜め方向から撮影している場合などであっても,それを正対位置にすることができ,正対位置からの平面展開画像情報とすることができる。そのため,標本情報とのマッチングが容易となるので,標本情報を減らすことができる。 In order to generate the plane development image information using the captured image information and the depth information, it is preferable to execute the process as in the present invention. In particular, in the process of generating the plane development image information from the captured image information, the plane development image information is generated in the viewpoint direction at which the generated 3D model faces the position, so that the case is taken from an oblique direction. However, it can be set to the facing position and can be used as the plane development image information from the facing position. Therefore, matching with the sample information becomes easy, and the sample information can be reduced.

上述の発明において,前記標本情報処理部は,前記対象物画像情報とそれに対応する深さ情報を用いて3次元モデルを生成し,前記生成した3次元モデルに前記対象物画像情報をテクスチャマッピングし,前記テクスチャマッピングした3次元モデルから所定の領域を特定し,前記特定した所定の領域を平面に展開することで前記第2の平面展開画像情報を生成する,画像処理システムのように構成することができる。
In the above invention, the specimen processing unit generates a three-dimensional model by using the depth information and corresponding said object image information, texture the object image information into a three-dimensional model of the generated Configured like an image processing system that generates the second plane-expanded image information by mapping, specifying a predetermined region from the texture-mapped three-dimensional model, and expanding the identified predetermined region on a plane. can do.

対象物画像情報と深さ情報とを用いて平面展開画像情報を生成するには,本発明のような処理を実行することが好ましい。とくに対象物画像情報から平面展開画像情報を生成する過程において,3次元モデル化をした上で平面展開画像情報を生成し,それを用いて標本情報を生成しているので,標本情報の数を減らすことができる。 In order to generate the plane development image information using the object image information and the depth information, it is preferable to execute the process as in the present invention. In particular, in the process of generating the plane development image information from the object image information, the plane development image information is generated after three-dimensional modeling, and the sample information is generated using it. Can be reduced.

第4の発明は,陳列棚を撮影した画像情報とそれに対応する深さ情報とを用いて平面展開画像情報を生成する画像情報処理部と,前記平面展開画像情報の一部または全部と,あらかじめ記憶した商品の標本情報の一部または全部とを用いてマッチング処理を実行するマッチング処理部と,を有しており,前記深さ情報は,撮影対象と撮影装置との距離情報であり,前記画像情報処理部は,前記画像情報とそれに対応する深さ情報とを用いて3次元モデルを生成し,前記生成した3次元モデルが正対する位置になるように回転させ,前記回転させた3次元モデルの一部または全部について,平面に展開する平面展開画像情報を生成する,画像処理システムである。
A fourth invention includes an image information processing unit that generates planar development image information using image information obtained by photographing a display shelf and the corresponding depth information, a part or all of the plane expansion image information, and a portion or all of the plane expansion image information in advance. It has a matching processing unit that executes matching processing using a part or all of the stored sample information of the product, and the depth information is distance information between the photographing target and the photographing device, and is described above. The image information processing unit generates a three-dimensional model using the image information and the corresponding depth information, rotates the generated three-dimensional model so that the generated three-dimensional model faces each other, and rotates the rotated three-dimensional model. This is an image processing system that generates plane-expanded image information that expands to a plane for part or all of the model.

本発明のように構成することでも,第1の発明と同様の技術的効果を得ることができる。すなわち,標本情報の数を減らすことができ,またマッチング処理の処理時間,処理負荷を軽減することができる。この場合,標本情報としては,第1の発明と同様に対象物画像情報を用いて3次元モデル化をした上で,それを平面展開した平面展開画像情報から生成した標本情報を用いてもよいし,従来と同様に,対象物画像情報から生成した標本情報であってもよい。そして標本情報とマッチングする画像情報について3次元モデル化をした上で生成した平面展開画像情報を用いるので,標本情報の数を従来よりも減らすことができる。 Even with the configuration as in the present invention, the same technical effect as in the first invention can be obtained. That is, the number of sample information can be reduced, and the processing time and processing load of matching processing can be reduced. In this case, as the sample information, the sample information generated from the plane-expanded image information obtained by modeling the object image information in a three-dimensional manner as in the first invention may be used. However, as in the conventional case, the sample information may be the sample information generated from the object image information. Then, since the plane-expanded image information generated after three-dimensional modeling of the image information matching with the sample information is used, the number of sample information can be reduced as compared with the conventional case.

本発明のプログラムをコンピュータに読み込ませて実行することで,第1の発明の画像処理システムを構成することができる。すなわち,コンピュータを,陳列棚を撮影した撮影画像情報とそれに対応する深さ情報とを用いて第1の平面展開画像情報を生成する画像情報処理部,陳列棚に陳列される商品を撮影した対象物画像情報とそれに対応する深さ情報とを用いて,前記商品の標本情報を生成する標本情報処理部,前記平面展開画像情報の一部または全部と,前記標本情報の一部または全部とを用いてマッチング処理を実行するマッチング処理部,として機能させる画像処理プログラムであって,前記深さ情報は,撮影対象と撮影装置との距離情報であり,前記画像情報処理部は,前記撮影画像情報とそれに対応する深さ情報とを用いて3次元モデルを生成し,前記生成した3次元モデルが正対する位置になるように回転させ,前記回転させた3次元モデルの一部または全部について,平面に展開する前記第1の平面展開画像情報を生成し,前記標本情報処理部は,前記対象物画像情報とそれに対応する深さ情報とを用いて3次元モデルを生成し,前記生成した3次元モデルの一部または全部について,平面に展開する第2の平面展開画像情報を生成し,前記第2の平面展開画像情報を用いて,前記商品の標本情報を生成する,画像処理プログラムである。
By loading the program of the present invention into a computer and executing it, the image processing system of the first invention can be configured. That is, the computer is an image information processing unit that generates the first plane-expanded image information by using the photographed image information obtained by photographing the display shelf and the corresponding depth information, and the object in which the product displayed on the display shelf is photographed. Using the object image information and the corresponding depth information, the sample information processing unit that generates the sample information of the product, a part or all of the plane-expanded image information, and a part or all of the sample information. An image processing program that functions as a matching processing unit that executes matching processing using the image processing unit. The depth information is distance information between a photographing target and a photographing device, and the image information processing unit is the photographed image information. A 3D model is generated using the information and the corresponding depth information, and the generated 3D model is rotated so that the generated 3D model faces each other. The first plane-expanded image information developed in the above is generated, the sample information processing unit generates a three-dimensional model using the object image information and the corresponding depth information, and the generated three-dimensional No part of the model, to generate a second planar development image information developed in a plane, with the second planar development image information, and generates the sample information of the commodity, which is an image processing program.

本発明のプログラムをコンピュータに読み込ませて実行することで,第4の発明の画像処理システムを構成することができる。すなわち,
コンピュータを,陳列棚を撮影した画像情報とそれに対応する深さ情報とを用いて平面展開画像情報を生成する画像情報処理部,前記平面展開画像情報の一部または全部と,あらかじめ記憶した商品の標本情報の一部または全部とを用いてマッチング処理を実行するマッチング処理部,として機能させる画像処理プログラムであって,前記深さ情報は,撮影対象と撮影装置との距離情報であり,前記画像情報処理部は,前記画像情報とそれに対応する深さ情報とを用いて3次元モデルを生成し,前記生成した3次元モデルを前記撮影対象が正対する位置になるように回転させ,前記回転させた3次元モデルの一部または全部について,平面に展開する平面展開画像情報を生成する,画像処理プログラムである。
By loading and executing the program of the present invention in a computer, the image processing system of the fourth invention can be configured. That is,
A computer, an image information processing unit that generates plane development image information using image information obtained by photographing a display shelf and the corresponding depth information, a part or all of the plane development image information, and a product stored in advance. An image processing program that functions as a matching processing unit that executes matching processing using part or all of the sample information. The depth information is distance information between an imaging target and an imaging device, and the image. The information processing unit generates a three-dimensional model using the image information and the corresponding depth information, rotates the generated three-dimensional model so that the image shooting target faces the position, and rotates the generated three-dimensional model. This is an image processing program that generates plane-expanded image information that expands on a plane for a part or all of the three-dimensional model.

本発明の画像処理システムを用いることによって,マッチング処理で用いる標本情報の数を減らすことができる。そのため,従来のように,対象物を多くの角度から撮影しておく必要がなくなり,また撮影負担を減らすことができる。また,一つの対象物に対する標本情報を減らすことができ,マッチング処理の処理時間,処理負荷を軽減することができる。 By using the image processing system of the present invention, the number of sample information used in the matching process can be reduced. Therefore, it is not necessary to shoot the object from many angles as in the conventional case, and the burden of shooting can be reduced. In addition, the sample information for one object can be reduced, and the processing time and processing load of matching processing can be reduced.

本発明の画像処理システムの全体の処理機能の一例を模式的に示すブロック図である。It is a block diagram which shows typically an example of the whole processing function of the image processing system of this invention. 本発明の画像処理システムで用いるコンピュータのハードウェア構成の一例を模式的に示すブロック図である。It is a block diagram which shows typically an example of the hardware composition of the computer used in the image processing system of this invention. 本発明の画像処理システムにおける標本情報に関する処理の処理プロセスの一例を示すフローチャートである。It is a flowchart which shows an example of the processing process of the processing concerning the sample information in the image processing system of this invention. 本発明の画像処理システムにおける全体処理の処理プロセスの一例を示すフローチャートである。It is a flowchart which shows an example of the processing process of the whole processing in the image processing system of this invention. 撮影した画像情報と深さ情報による深さマップとの対応関係を模式的に示す図である。It is a figure which shows typically the correspondence relationship between the photographed image information and the depth map by depth information. 対象物画像情報と深さマップに基づく3次元モデル化の処理の一例を模式的に示す図である。It is a figure which shows an example of the process of 3D modeling based on the object image information and the depth map schematically. 平面展開の処理の一例を模式的に示す図である。It is a figure which shows an example of the plane development process typically. 撮影画像情報の一例を示す図である。It is a figure which shows an example of photographed image information. 深さ情報をマッピングした深さマップの一例を模式的に示す図である。It is a figure which shows typically an example of the depth map which mapped the depth information. 3次元モデル化の後に実行するスティッチング処理を模式的に示す図である。It is a figure which shows typically the stitching process which is executed after 3D modeling. 3次元モデル化の後に実行するスティッチング処理を模式的に示す図である。It is a figure which shows typically the stitching process which is executed after 3D modeling. 視点方向決定処理において,基準を特定する処理を模式的に示す図である。It is a figure which shows typically the process of specifying a reference in the viewpoint direction determination process. 各面をラベリングする処理の一例を模式的に示す図である。It is a figure which shows typically an example of the process of labeling each surface. パッケージタイプが缶の場合のフェイスを特定するイメージ図である。It is an image diagram which specifies the face when the package type is a can. パッケージタイプが瓶の場合のフェイスを特定するイメージ図である。It is an image diagram which identifies the face when the package type is a bottle. パッケージタイプが箱物の場合のフェイスを特定するイメージ図である。It is an image diagram which identifies the face when the package type is a box. パッケージタイプがつるし商品の場合のフェイスを特定するイメージ図である。It is an image diagram that identifies the face when the package type is a hanging product. 平面展開画像情報から特定した特徴領域の一例を示す図である。It is a figure which shows an example of the feature area specified from the plane development image information.

本発明の画像処理システム1の全体の処理機能の一例のブロック図を図1に示す。画像処理システム1は,管理端末2と入力端末3とを用いる。 FIG. 1 shows a block diagram of an example of the overall processing function of the image processing system 1 of the present invention. The image processing system 1 uses a management terminal 2 and an input terminal 3.

管理端末2は,画像処理システム1の中心的な処理機能を実現するコンピュータである。また,入力端末3は,画像情報,深さ情報または深さマップを取得する端末である。たとえば店舗の陳列棚を撮影するとともに,その深さ情報または深さマップを取得する端末である。また,後述するマッチング処理の標本とする商品などの対象物を撮影するととともに,その深さ情報または深さマップを取得する端末である。 The management terminal 2 is a computer that realizes the core processing function of the image processing system 1. Further, the input terminal 3 is a terminal that acquires image information, depth information, or depth map. For example, it is a terminal that photographs the display shelves of a store and acquires the depth information or depth map. In addition, it is a terminal that captures an object such as a product as a sample for matching processing, which will be described later, and acquires its depth information or depth map.

画像処理システム1における管理端末2,入力端末3は,コンピュータを用いて実現される。図2にコンピュータのハードウェア構成の一例を模式的に示す。コンピュータは,プログラムの演算処理を実行するCPUなどの演算装置70と,情報を記憶するRAMやハードディスクなどの記憶装置71と,情報を表示するディスプレイなどの表示装置72と,情報の入力が可能なキーボードやマウスなどの入力装置73と,演算装置70の処理結果や記憶装置71に記憶する情報をインターネットやLANなどのネットワークを介して送受信する通信装置74とを有している。 The management terminal 2 and the input terminal 3 in the image processing system 1 are realized by using a computer. FIG. 2 schematically shows an example of the hardware configuration of the computer. The computer can input information from an arithmetic unit 70 such as a CPU that executes arithmetic processing of a program, a storage device 71 such as a RAM or a hard disk that stores information, and a display device 72 such as a display that displays information. It has an input device 73 such as a keyboard and a mouse, and a communication device 74 that transmits and receives processing results of the arithmetic unit 70 and information stored in the storage device 71 via a network such as the Internet or LAN.

コンピュータがタッチパネルディスプレイを備えている場合には,表示装置72と入力装置73とが一体的に構成されていてもよい。タッチパネルディスプレイは,たとえばタブレット型コンピュータやスマートフォンなどの可搬型通信端末などで利用されることが多いが,それに限定するものではない。 When the computer is provided with a touch panel display, the display device 72 and the input device 73 may be integrally configured. Touch panel displays are often used, for example, in portable communication terminals such as tablet computers and smartphones, but are not limited thereto.

タッチパネルディスプレイは,そのディスプレイ上で,直接,所定の入力デバイス(タッチパネル用のペンなど)や指などによって入力を行える点で,表示装置72と入力装置73の機能が一体化した装置である。 The touch panel display is a device in which the functions of the display device 72 and the input device 73 are integrated in that input can be performed directly on the display with a predetermined input device (such as a pen for a touch panel) or a finger.

入力端末3は,上記の各装置のほか,カメラなどの撮影装置を備えていてもよい。入力端末3として,携帯電話,スマートフォン,タブレット型コンピュータなどの可搬型通信端末を用いることもできる。入力端末3は,撮影装置で可視光などによる画像情報(後述する撮影画像情報または対象物画像情報)を撮影するほか,撮影対象と撮影装置との距離情報(深さ情報)を2次元情報として取得する。深さ情報がマッピングされた情報を,本明細書では深さマップとよぶ。深さマップは,撮影画像情報に対応しており,撮影画像情報に写っている物までの深さ情報が,撮影画像情報と対応する位置にマッピングされている。深さマップは,少なくとも撮影画像情報に対応する範囲をメッシュ状に区切り,そのメッシュごとに深さ情報が与えられている。メッシュの縦,横の大きさは,取得できる深さ情報の精度に依存するが,メッシュの縦,横の大きさが小さいほど精度が上げられる。通常は,1mmから数mmの範囲であるが,1mm未満,あるいは1cm以上であってもよい。 The input terminal 3 may include a photographing device such as a camera in addition to the above-mentioned devices. As the input terminal 3, a portable communication terminal such as a mobile phone, a smartphone, or a tablet computer can also be used. The input terminal 3 captures image information (photographed image information or object image information described later) by visible light or the like with a photographing device, and also uses distance information (depth information) between the imaged object and the photographing device as two-dimensional information. get. The information to which the depth information is mapped is referred to as a depth map in this specification. The depth map corresponds to the photographed image information, and the depth information up to the object reflected in the photographed image information is mapped to the position corresponding to the photographed image information. In the depth map, at least the range corresponding to the captured image information is divided into meshes, and the depth information is given to each mesh. The vertical and horizontal sizes of the mesh depend on the accuracy of the depth information that can be acquired, but the smaller the vertical and horizontal sizes of the mesh, the higher the accuracy. Usually, it is in the range of 1 mm to several mm, but it may be less than 1 mm or 1 cm or more.

深さ情報を取得する場合,撮影対象の撮影の際に,特定の波長の光線,たとえば赤外線を照射してそれぞれの方向からの反射光の量や反射光が到達するまでの時間を計測することで撮影対象までの距離情報(深さ情報)を取得する,あるいは特定の波長の光線,たとえば赤外線のドットパターンを照射し,反射のパターンから撮影対象までの距離情報(深さ情報)を計測するもののほか,ステレオカメラの視差を利用する方法があるが,これらに限定されない。なお,深さ情報が撮影装置(三次元上の一点)からの距離で与えられる場合には,かかる深さ情報を,撮影装置の撮影面(平面)からの深さ情報に変換をしておく。このように深さ情報を取得するための装置(深さ検出装置)を入力端末3は備えていてもよい。 When acquiring depth information, it is necessary to measure the amount of reflected light from each direction and the time until the reflected light arrives by irradiating light rays of a specific wavelength, for example, infrared rays, when shooting the object to be photographed. Acquires distance information (depth information) to the shooting target, or irradiates a light beam of a specific wavelength, for example, an infrared dot pattern, and measures the distance information (depth information) from the reflection pattern to the shooting target. In addition to the above, there are methods that utilize the parallax of a stereo camera, but the method is not limited to these. If the depth information is given by the distance from the photographing device (one point on three dimensions), the depth information is converted into the depth information from the photographing surface (plane) of the photographing device. .. The input terminal 3 may be provided with a device (depth detection device) for acquiring depth information in this way.

画像情報と深さ情報とはその位置関係が対応をしている。図5では,陳列棚を撮影対象として撮影した画像情報と深さ情報による深さマップとの対応関係を示している。図5(a)が撮影した画像情報,図5(b)がそれに対応する深さマップを模式的に示した図である。 The positional relationship between the image information and the depth information corresponds. FIG. 5 shows the correspondence between the image information taken with the display shelf as the shooting target and the depth map based on the depth information. FIG. 5 (a) is a diagram schematically showing image information taken, and FIG. 5 (b) is a diagram schematically showing a corresponding depth map.

本発明における各手段は,その機能が論理的に区別されているのみであって,物理上あるいは事実上は同一の領域を為していてもよい。本発明の各手段における処理は,その処理順序を適宜変更することもできる。また,処理の一部を省略してもよい。たとえば後述する視点方向を決定する処理を省略することもできる。その場合,視点方向を決定する処理をしていない画像情報に対する処理を実行することができる。また,管理端末2における機能の一部または全部を入力端末3で実行してもよい。 Each means in the present invention has only a logical distinction in its function, and may form the same area physically or substantially. The processing order of the processing in each means of the present invention may be changed as appropriate. In addition, a part of the processing may be omitted. For example, the process of determining the viewpoint direction, which will be described later, can be omitted. In that case, it is possible to execute processing on the image information that has not been processed to determine the viewpoint direction. Further, a part or all of the functions in the management terminal 2 may be executed in the input terminal 3.

画像処理システム1は,標本情報処理部20と標本情報記憶部21と画像情報処理部22と画像情報記憶部23とマッチング処理部24とを有する。 The image processing system 1 includes a sample information processing unit 20, a sample information storage unit 21, an image information processing unit 22, an image information storage unit 23, and a matching processing unit 24.

標本情報処理部20は,後述するマッチング処理部24におけるマッチング処理の際に,対象物が画像情報に写っているかを比較するための,対象物の標本情報に対する処理を実行する。たとえば標本とする対象物として陳列棚の棚段に陳列されている商品とする場合,その商品を標本情報とするための処理を実行する。 The sample information processing unit 20 executes processing on the sample information of the object in order to compare whether or not the object is reflected in the image information at the time of the matching process in the matching processing unit 24 described later. For example, when a product displayed on a shelf of a display shelf is used as a sample object, a process for using the product as sample information is executed.

標本情報処理部20は,入力端末3で撮影した,標本とする対象物の画像情報(対象物画像情報)の入力を受け付け,後述する標本情報記憶部21に記憶させる。この際に,対象物に対して正対した位置で,かつ影がないように撮影されることが好ましい。 The sample information processing unit 20 receives the input of the image information (object image information) of the object to be sample taken by the input terminal 3 and stores it in the sample information storage unit 21 described later. At this time, it is preferable to take a picture at a position facing the object and without a shadow.

また,標本情報処理部20は,入力端末3で撮影した画像情報(対象物画像情報)に対する深さ情報や深さマップの入力を受け付け,対象物画像情報に対応づけて,後述する標本情報記憶部21に記憶させる。なお,入力端末3から深さマップではなく,深さ情報を受け付けた場合には,それをマッピングして深さマップを生成する。 Further, the sample information processing unit 20 receives input of depth information and depth map for the image information (object image information) taken by the input terminal 3, associates it with the object image information, and stores the sample information described later. It is stored in the part 21. When the depth information is received from the input terminal 3 instead of the depth map, it is mapped to generate the depth map.

対象物画像情報と深さ情報,深さマップは,対象物画像情報を撮影する際に同時に撮影,情報が取得され,その情報を標本情報処理部20で入力を受け付けるようにすることが好ましい。 It is preferable that the object image information, the depth information, and the depth map are photographed and the information is acquired at the same time when the object image information is photographed, and the sample information processing unit 20 accepts the input of the information.

標本情報処理部20は,対象物画像情報と深さマップに基づいて3次元モデルに変換をする。すなわち,対象物画像情報と深さマップとは対応しているので,まず深さマップにおける深さ情報に基づいて3次元モデルに変換をし,そこに撮影画像情報を対応づけてテクスチャマッピングをする。図6に対象物画像情報と深さマップに基づく3次元モデル化の処理の一例を示す。なお,図6では飲料のペットボトルを3次元モデル化する場合を示している。図6(a)は対象物画像情報である。標本情報処理部20は,同時に深さマップを取得しているので,深さマップにおける各メッシュの深さ情報に基づいて,3次元モデルに変換をする。そして深さマップにおける各メッシュの位置に,撮影画像情報の対応する画素の色情報などを貼り付けるテクスチャマッピングをすることで,図6(b)乃至(d)のように3次元モデル化をすることができる。図6(b)は左方向からの視点,図6(c)は正面からの視点,図6(d)は右方向からの視点を示している。 The sample information processing unit 20 converts the object into a three-dimensional model based on the object image information and the depth map. That is, since the object image information and the depth map correspond to each other, first, the object image information is converted into a three-dimensional model based on the depth information in the depth map, and the captured image information is associated with the depth map to perform texture mapping. .. FIG. 6 shows an example of the three-dimensional modeling process based on the object image information and the depth map. Note that FIG. 6 shows a case where a PET bottle of a beverage is three-dimensionally modeled. FIG. 6A is object image information. Since the sample information processing unit 20 acquires the depth map at the same time, it converts it into a three-dimensional model based on the depth information of each mesh in the depth map. Then, by performing texture mapping in which the color information of the corresponding pixel of the captured image information is pasted at the position of each mesh on the depth map, a three-dimensional model is performed as shown in FIGS. 6 (b) to 6 (d). be able to. FIG. 6 (b) shows a viewpoint from the left, FIG. 6 (c) shows a viewpoint from the front, and FIG. 6 (d) shows a viewpoint from the right.

標本情報処理部20は,対象物画像情報と深さマップに基づいて,対象物の3次元モデルを生成すると,それを平面展開する平面展開処理を実行する。平面展開とは,3次元モデルを平面(2次元)に展開することを意味する。3次元モデルを平面展開する方法はさまざまな方法があり,限定するものではない。 When the sample information processing unit 20 generates a three-dimensional model of an object based on the object image information and the depth map, the sample information processing unit 20 executes a plane expansion process for plane expansion of the three-dimensional model. Planar expansion means expanding a three-dimensional model into a plane (two-dimensional). There are various methods for expanding the three-dimensional model in a plane, and the method is not limited.

平面展開の方法の一例としては,3次元モデルの内側に投影の中心を定め,そこから投影をすることで,平面に展開する方法がある。標本情報処理部20における平面展開の処理の一例を図7を用いて説明する。図7(a)は対象物としてのペットボトルを撮影した画像情報であり,その上面図は,略六角形状になっている。なお実際の形状はより細かく凹凸があるが,ここでは説明のため,六角形で示す。そして,図7(a)の画像情報をその深さマップを用いて3次元モデル化した場合に,上方から見た場合の位置関係が図7(b)である。この場合,撮影装置(カメラ)の陰になっている箇所の深さ情報は存在しないので,図7(b)に示すように,上方から見た場合,空白がある。そして,平面展開する対象物の任意の箇所に投影の中心軸を特定する。たとえば対象物が陳列棚に陳列される商品であって,その形状が箱形,袋型ではなく,円柱型,ボトル型などの表面が平面ではなく規則的な曲面の場合には,対象物の横幅とその表面の形状から,回転軸の中心点を求め,投影の中心軸として特定する。なお,投影の中心軸を特定するためには,上記のように限らず,任意の方法であってよい。投影の中心軸を特定した状態が図7(c)である。そして,特定した投影の中心軸から,対象物の表面を,任意に設定した投影面に投影する。これを模式的に示すのが図7(d)である。なお,図7(d)のように,対象物の面と投影面ととの位置が一致しない場合,その離間する距離に応じた投影結果の画像情報の縦横の大きさを,適宜の縮尺率によって調整する。一方,図7(e)のように,対象物の面と投影面との位置を一致させる場合には,その縮尺率の調整処理は設けなくてもよい。なお,図7(b)乃至(e)は,いずれも上方からの図である。 As an example of the plane expansion method, there is a method of expanding to a plane by defining the center of projection inside the three-dimensional model and projecting from there. An example of the plane expansion process in the sample information processing unit 20 will be described with reference to FIG. 7. FIG. 7A is image information obtained by photographing a PET bottle as an object, and the top view thereof has a substantially hexagonal shape. The actual shape is finer and uneven, but for the sake of explanation, it is shown as a hexagon. Then, when the image information of FIG. 7 (a) is three-dimensionally modeled using the depth map, the positional relationship when viewed from above is shown in FIG. 7 (b). In this case, since there is no depth information of the part behind the photographing device (camera), there is a blank when viewed from above as shown in FIG. 7 (b). Then, the central axis of the projection is specified at an arbitrary position of the object to be developed in a plane. For example, if the object is a product to be displayed on a display shelf and the shape is not a box shape or a bag shape but a cylindrical shape or a bottle shape and the surface is a regular curved surface instead of a flat surface, the object is a product. From the width and the shape of the surface, find the center point of the rotation axis and specify it as the center axis of projection. Note that the central axis of projection may be specified by any method, not limited to the above. FIG. 7 (c) shows a state in which the central axis of projection is specified. Then, the surface of the object is projected onto an arbitrarily set projection plane from the central axis of the specified projection. This is schematically shown in FIG. 7 (d). As shown in FIG. 7D, when the positions of the surface of the object and the projection surface do not match, the vertical and horizontal dimensions of the image information of the projection result according to the distance between them are set to an appropriate scale ratio. Adjust by. On the other hand, when the positions of the surface of the object and the projection surface are matched as shown in FIG. 7 (e), it is not necessary to provide the adjustment process of the scale ratio. Note that FIGS. 7 (b) to 7 (e) are views from above.

標本情報処理部20は,このような平面展開の処理を行うことで,対象物の3次元モデルを2次元(平面)に展開し,その画像情報(平面展開画像情報)に変換することができる。なお,上述では,投影による処理で3次元モデルから平面展開画像情報に変換する処理を行ったが,平面展開処理において,3次元モデルから平面展開画像情報に変換する処理はほかの処理によってもよい。 By performing such plane expansion processing, the sample information processing unit 20 can expand the three-dimensional model of the object into two dimensions (plane) and convert it into image information (plane expansion image information). .. In the above, the process of converting the 3D model to the plane-expanded image information is performed by the process of projection, but in the plane-expanded process, the process of converting the 3D model to the plane-expanded image information may be performed by other processes. ..

標本情報処理部20は,平面展開画像情報の全部または一部を用いて標本情報を生成する。すなわち,平面展開画像情報の全部または一部について特定した特徴領域における特徴量を抽出し,それを当該対象物の標本情報として特定する。なお,標本情報としては特徴量のほか,平面展開画像情報そのものの全部または一部であってもよいし,後述するマッチング処理で用いる類似性の算出に必要となる情報であれば,ほかの指標に基づく情報であってもよい。 The sample information processing unit 20 generates sample information using all or part of the plane development image information. That is, the feature amount in the feature region specified for all or part of the plane development image information is extracted, and it is specified as the sample information of the object. In addition to the feature amount, the sample information may be all or part of the plane development image information itself, and other indexes as long as it is information necessary for calculating the similarity used in the matching process described later. It may be information based on.

なお標本情報処理部20は,一つの対象物について一つの標本情報を生成してもよいし,一つの対象物について複数の角度,たとえば商品を正対化して撮影する場合に,写らない位置にある表面を写すため,正面,背面,上面,下面,両側面程度の角度からの標本情報を生成してもよい。 Note that the sample information processing unit 20 may generate one sample information for one object, or may generate one sample information for one object at a plurality of angles, for example, at a position that does not appear when the product is face-to-face and photographed. In order to capture a certain surface, sample information may be generated from angles such as front, back, top, bottom, and both sides.

標本情報記憶部21は,対象物ごとに,対象物画像情報,深さ情報,深さマップ,対象物の3次元モデルなどを記憶している。また対象物の識別情報,たとえば商品名などの名称,型番,商品コード(JANコード)などを対応づけて記憶していることが好ましい。 The sample information storage unit 21 stores the object image information, the depth information, the depth map, the three-dimensional model of the object, and the like for each object. Further, it is preferable to store the identification information of the object, for example, the name such as the product name, the model number, the product code (JAN code), and the like in association with each other.

画像情報処理部22は,入力端末3で撮影した画像情報(撮影画像情報)の入力を受け付け,後述する画像情報記憶部23に記憶させる。たとえば店舗の陳列棚の撮影画像情報の入力を受け付け,画像情報記憶部23に記憶させる。入力端末3からは,撮影画像情報のほか,撮影日時,撮影対象を示す情報,たとえば店舗名などの店舗識別情報,画像情報を識別する画像情報識別情報などをあわせて入力を受け付けるとよい。図8に,撮影画像情報の一例を示す。図8では,陳列棚に3段の棚段があり,そこに商品が陳列されている撮影画像情報である。 The image information processing unit 22 receives input of image information (photographed image information) taken by the input terminal 3 and stores it in the image information storage unit 23 described later. For example, the input of the photographed image information of the display shelf of the store is received and stored in the image information storage unit 23. In addition to the captured image information, the input terminal 3 may accept input together with information indicating the shooting date and time and the shooting target, for example, store identification information such as a store name, image information identification information for identifying the image information, and the like. FIG. 8 shows an example of captured image information. In FIG. 8, there are three shelves on the display shelf, and the photographed image information on which the products are displayed is shown.

また画像情報処理部22は,入力端末3で撮影した画像情報(撮影画像情報)に対する深さ情報や深さマップの入力を受け付け,撮影画像情報に対応づけて,後述する画像情報記憶部23に記憶させる。たとえば店舗の陳列棚に対する深さ情報や深さマップの入力を受け付け,店舗の陳列棚を撮影した撮影画像情報に対応づけて,画像情報記憶部23に記憶させる。図9に,深さ情報をマッピングした深さマップの一例を模式的に示す。なお,入力端末3から深さマップではなく,深さ情報を受け付けた場合には,それをマッピングして深さマップを生成する。 Further, the image information processing unit 22 receives the input of the depth information and the depth map for the image information (photographed image information) photographed by the input terminal 3, and associates the photographed image information with the image information storage unit 23 described later. Remember. For example, it receives input of depth information and a depth map for the display shelf of the store, associates it with the photographed image information of the display shelf of the store, and stores it in the image information storage unit 23. FIG. 9 schematically shows an example of a depth map in which depth information is mapped. When the depth information is received from the input terminal 3 instead of the depth map, it is mapped to generate the depth map.

撮影画像情報と深さ情報,深さマップは,撮影画像情報を撮影する際に同時に撮影,情報が取得され,その情報を画像情報処理部22で入力を受け付けるようにすることが好ましい。 It is preferable that the captured image information, the depth information, and the depth map are captured and the information is acquired at the same time when the captured image information is captured, and the image information processing unit 22 accepts the input of the information.

画像情報処理部22は,撮影画像情報と深さマップに基づいて3次元モデルに変換をする。すなわち,撮影画像情報と深さ情報とは対応しているので,まず深さ情報を3次元モデルに変換をし,そこに撮影画像情報を対応づけてテクスチャマッピングをする。撮影画像情報と深さマップとに基づく3次元モデルへの変換は,標本情報処理と同様の処理を実行すればよい。 The image information processing unit 22 converts the captured image information into a three-dimensional model based on the depth map. That is, since the photographed image information and the depth information correspond to each other, the depth information is first converted into a three-dimensional model, and the photographed image information is associated with the depth information to perform texture mapping. The conversion to the three-dimensional model based on the captured image information and the depth map may be performed in the same manner as the sample information processing.

なお,画像情報処理部22は,撮影対象を撮影する際に,複数枚で撮影した場合,それを一つの画像情報に合成するスティッチング処理を実行してもよい。スティッチング処理は,3次元モデル化の前であってもよいし,3次元モデル化の後であってもよい。3次元モデル化の前のスティッチング処理,3次元モデル化の後のスティッチング処理のいずれも公知の手法を用いることもできる。 Note that the image information processing unit 22 may execute a stitching process for synthesizing a plurality of images when the image processing target is photographed into one image information. The stitching process may be performed before the 3D modeling or after the 3D modeling. A known method can be used for both the stitching process before the 3D modeling and the stitching process after the 3D modeling.

3次元モデル化の前に行う場合には,各撮影画像情報間で対応点を検出することでスティッチング処理を実行する。この際に,撮影画像情報同士で対応点が特定できるので,特定した対応点の位置に対応する深さマップ同士も同様に対応づける。これによって,3次元モデル化の前にスティッチング処理を実行できる。 If it is performed before the three-dimensional modeling, the stitching process is executed by detecting the corresponding points between the captured image information. At this time, since the corresponding points can be specified between the captured image information, the depth maps corresponding to the positions of the specified corresponding points are also associated with each other in the same manner. This allows stitching to be performed before 3D modeling.

また,3次元モデル化の後に行う場合には,2つの3次元モデルにおける凹凸形状の類似性を深さ情報から特定し,形状が類似(深さ情報に基づく凹凸のパターンが所定範囲内に含まれている)している領域内において,その領域に対応する,当該3次元モデルの元となった撮影画像情報同士で対応点を検索することで,3次元モデル化の後にスティッチング処理を実行できる。これを模式的に示すのが図10である。図10(a)および(b)は横に並ぶ棚段を撮影した撮影画像情報であり,図10(c)は図10(a)に基づく3次元モデル,図10(d)は図10(b)に基づく3次元モデルである。この場合,図11に示すように,たとえば撮影画像情報において,スティッチング処理のための基準101,たとえば棚段を写り込むように撮影をしておけば,その基準101が同一の視点方向になるように3次元モデルを回転する。そして深さ情報に基づく凹凸形状の類似を判定する。そして特定した類似する領域100内における対応点を検索することで,スティッチング処理を実行できる。図11(a)は図10(a)の3次元モデルを,図10(b)と同一の視点方向となるように回転させた状態である。そして図11(a)と図11(b)の破線領域100が,深さ情報に基づいて判定した凹凸形状の類似の領域100である。また,一点鎖線領域101が,同一の視点方向になるように3次元モデルを回転させるための基準とする棚段である。なお基準101とするものは撮影対象によって任意に特定することができるが、好ましくは2以上の直線で構成されるものであることがよい。 In addition, when performing after 3D modeling, the similarity of the uneven shape in the two 3D models is specified from the depth information, and the shapes are similar (the pattern of the unevenness based on the depth information is included in the predetermined range. The stitching process is executed after the 3D modeling by searching for the corresponding points between the captured image information that is the source of the 3D model that corresponds to that area. it can. This is schematically shown in FIG. 10 (a) and 10 (b) are photographed image information obtained by photographing the shelves arranged side by side, FIG. 10 (c) is a three-dimensional model based on FIG. 10 (a), and FIG. 10 (d) is FIG. 10 (d). It is a three-dimensional model based on b). In this case, as shown in FIG. 11, for example, in the captured image information, if the reference 101 for stitching processing, for example, the shelf step is captured so as to be reflected, the reference 101 is in the same viewpoint direction. Rotate the 3D model as in. Then, the similarity of the uneven shape is determined based on the depth information. Then, the stitching process can be executed by searching for the corresponding points in the specified similar area 100. FIG. 11A shows a state in which the three-dimensional model of FIG. 10A is rotated so as to have the same viewpoint direction as that of FIG. 10B. The broken line region 100 in FIGS. 11 (a) and 11 (b) is a region 100 having a concave-convex shape determined based on the depth information. Further, the alternate long and short dash line region 101 is a shelf stage that serves as a reference for rotating the three-dimensional model so that the three-dimensional model is oriented in the same viewpoint direction. The reference 101 can be arbitrarily specified depending on the object to be photographed, but it is preferably composed of two or more straight lines.

以上のような処理を実行することで,3次元モデル化の前または後のいずれであってもスティッチング処理を実行することができる。また,複数枚の撮影画像情報を用いない場合にはスティッチング処理は実行しなくてもよい。 By executing the above processing, the stitching processing can be executed either before or after the three-dimensional modeling. Further, when the information of a plurality of captured images is not used, the stitching process may not be executed.

画像情報処理部22は,3次元モデル化処理を実行した後,撮影対象とした3次元モデルが正対する位置となるように,その視点方向を決定する処理を実行する。たとえば撮影対象が商品の陳列棚やそこにある商品である場合,陳列棚や商品が正対する位置(正面となる位置)になるように視点方向を決定する。 After executing the three-dimensional modeling process, the image information processing unit 22 executes a process of determining the viewpoint direction so that the three-dimensional model to be photographed faces the position. For example, when the object to be photographed is a product display shelf or a product located there, the viewpoint direction is determined so that the display shelf or the product faces the position (front position).

視点方向を決定する処理としては,3次元モデルにおける基準が,正対する位置となるためのあらかじめ定めた条件を充足するように視点方向を決定すればよい。基準および条件は撮影対象などに応じて任意に設定することができる。たとえば陳列棚を撮影する際には,陳列棚の棚段の前面102を基準とし,条件としては,陳列棚の複数の棚段の前面102がいずれも水平となり,かつ互いに垂直の位置となるように,視点を撮影範囲の上下左右で中央に移動させることで,実現できる。棚段の前面102は,通常,商品の陳列棚を撮影した場合,陳列棚の前面が一番手前に位置する(もっとも前に位置している)ので3次元モデルの深さ情報から棚段の前面102を特定することができる。この処理を模式的に示すのが図12である。図12(a)は陳列棚を撮影した撮影画像情報であり,図12(b)はその陳列棚の深さマップにおいて,深さ情報を白黒の濃度で表現した図であり(黒の場合が手前に位置する(深さ情報の値が小さい)),図12(c)は深さマップに基づく3次元モデルであり,深さ情報を色に変換したものである。そして画像情報処理部22は,深さ情報に基づいて陳列棚の棚段の前面を特定し,その棚段が上述の条件を充足するように視点方向を決定する。また視点方向の決定処理で用いた基準と,上述の3次元モデル化後のスティッチング処理における基準とは同一の基準を用いてもよい。たとえばいずれの場合も陳列棚の棚段の前面を基準として用いることができる。 As a process for determining the viewpoint direction, the viewpoint direction may be determined so that the reference in the three-dimensional model satisfies a predetermined condition for the position to face each other. The standard and conditions can be arbitrarily set according to the shooting target and the like. For example, when taking a picture of a display shelf, the front 102 of the shelf of the display shelf is used as a reference, and the condition is that the front 102 of the plurality of shelves of the display shelf are all horizontal and perpendicular to each other. This can be achieved by moving the viewpoint to the center in the vertical and horizontal directions of the shooting range. Normally, when the product display shelf is photographed, the front surface 102 of the shelf is located in the foreground (the frontmost position) of the display shelf, so that the depth information of the three-dimensional model indicates that the shelf is in front of the shelf. The front surface 102 can be specified. FIG. 12 schematically shows this process. FIG. 12 (a) is photographed image information of the display shelf, and FIG. 12 (b) is a diagram in which the depth information is expressed in black and white density in the depth map of the display shelf (in the case of black). Located in the foreground (the value of the depth information is small), FIG. 12 (c) is a three-dimensional model based on the depth map, in which the depth information is converted into colors. Then, the image information processing unit 22 identifies the front surface of the shelf of the display shelf based on the depth information, and determines the viewpoint direction so that the shelf satisfies the above-mentioned conditions. Further, the same standard may be used for the standard used in the determination process of the viewpoint direction and the standard in the stitching process after the above-mentioned three-dimensional modeling. For example, in either case, the front surface of the shelf of the display shelf can be used as a reference.

図12(c)ではわかりやすさのため,撮影画像情報をテクスチャマッピングする前の状態で処理をする場合を示しているが,テクスチャマッピングをした後の3次元モデルに対して視点方向の決定処理を実行してもよい。なお,視点方向の決定処理は,上述に限らず,任意の処理で実現することができる。 For the sake of clarity, FIG. 12C shows the case where the captured image information is processed in the state before the texture mapping, but the viewpoint direction determination processing is executed for the 3D model after the texture mapping. You may. The process of determining the viewpoint direction is not limited to the above, and can be realized by any process.

なお,もともと撮影画像情報が正対した位置から撮影されているなどの場合には,視点方向の決定処理は実行しなくてもよい。 If the captured image information is originally captured from a position facing it, the viewpoint direction determination process does not have to be executed.

画像情報処理部22は,3次元モデルが正対する位置に視点方向を決定すると,標本情報とマッチング処理を実行するための所定領域(これを「フェイス領域」という場合がある)を特定する。たとえば商品の陳列棚を撮影した撮影画像情報であって,標本情報が商品である場合,フェイス領域として,陳列棚に陳列されている商品の領域を特定する。 When the image information processing unit 22 determines the viewpoint direction at a position facing the three-dimensional model, the image information processing unit 22 specifies a predetermined area for executing the sample information and the matching process (this may be referred to as a “face area”). For example, when the sample information is a product in the photographed image information obtained by photographing the product display shelf, the area of the product displayed on the display shelf is specified as the face area.

フェイス領域の特定方法はさまざまな方法があり,標本情報の特性に合わせて任意に設定することができる。標本情報が商品であって,陳列棚を撮影した撮影画像情報から商品の領域を特定する場合には,たとえば,陳列棚の棚段と棚段の間の領域(棚段領域)における商品と商品との間に生じる細く狭い陰影を特定する,画像の繰り返しパターンを特定する,パッケージの上辺の段差を特定する,商品幅が同一であるなどの制約に基づいて区切り位置を特定する,などによって,フェイス領域を特定する。また,商品のカテゴリや商品の形態によって,任意の方法を採用可能であり,上記に限定するものではない。また,自動的に特定したフェイス領域に対して,担当者による修正入力を受け付けてもよい。さらに,担当者からフェイス領域の位置の入力を受け付けるのでもよい。 There are various methods for specifying the face area, which can be arbitrarily set according to the characteristics of the sample information. When the sample information is a product and the area of the product is specified from the photographed image information obtained by photographing the display shelf, for example, the product and the product in the area between the shelves of the display shelf (shelf area). By identifying the narrow and narrow shadows that occur between the product, identifying the repeating pattern of the image, identifying the step on the upper side of the package, specifying the division position based on restrictions such as the same product width, etc. Identify the face area. In addition, any method can be adopted depending on the category of the product and the form of the product, and the method is not limited to the above. In addition, a correction input by the person in charge may be accepted for the automatically specified face area. Further, the person in charge may input the position of the face area.

また3次元モデルにおいて所定条件を充足する面の位置と範囲を特定し,その面と,あらかじめ定めた標本情報の表面モデルのタイプに応じた条件を充足するかをマッチングし,条件を充足する面をフェイス領域として特定する。たとえば上述と同様に,標本情報が商品であり,陳列棚を撮影した撮影画像情報から3次元モデルを生成し,商品のフェイス領域を特定する処理の場合には,以下のような処理が実行できる。 In addition, in the 3D model, the position and range of the surface that satisfies the predetermined conditions are specified, and the surface is matched with the surface that satisfies the conditions according to the type of the surface model of the predetermined sample information, and the surface that satisfies the conditions. Is specified as the face area. For example, as described above, in the case where the sample information is a product, a three-dimensional model is generated from the photographed image information obtained by photographing the display shelf, and the face area of the product is specified, the following processing can be executed. ..

まず,微細な凹凸を除外するために高周波をフィルタアウトした上で,垂直に近い,正対した一定以上の面積を持つ面,直立した円筒の面,全体に凸のゆがんだ多面体の領域の面を検出し,3次元空間内の位置と範囲を特定する。たとえば,深さ情報が一定の範囲内であり,法線が安定して正面を向いていれば平面,深さ情報について垂直方向の相関性が強く,水平方向に凸であれば円筒,水平方向および垂直方向のいずれも凸,または法線が安定していなければ凸のゆがんだ多面体の領域の面のように特定をする。そして,検出した各面をラベリングをする。図13では5つの面を検出し,それぞれ1から5のラベリングをした状態を示している。そして検出した面について,たとえば深さ情報の平均値などに基づいて,最前面から,順に最前面からの距離(これをレベルとする)を算出する。そして算出したレベルに基づいて,各面の前後関係を特定する。図13では,1,2の面のレベルは0cmであり,3,4の面のレベルは3cm,5の面のレベルは20cmのように算出をする。そして,最前面が1,2の面,その次に奥に位置するのが3,4の面,最背面が5の面として,5つの面の前後関係を特定する。 First, after filtering out high frequencies to exclude fine irregularities, a surface that is close to vertical and has an area above a certain level facing each other, an upright cylindrical surface, and a surface of a polyhedral region that is convex and distorted as a whole. Is detected, and the position and range in the three-dimensional space are specified. For example, if the depth information is within a certain range and the normal is stable and faces the front, there is a strong vertical correlation between the plane and depth information, and if it is convex in the horizontal direction, it is cylindrical and horizontal. And in either the vertical direction, it is specified as a plane in the region of a convex or distorted polyhedron if the normal is not stable. Then, each detected surface is labeled. FIG. 13 shows a state in which five surfaces are detected and labeled from 1 to 5 respectively. Then, for the detected surface, the distance from the foreground (this is used as the level) is calculated in order from the foreground based on, for example, the average value of the depth information. Then, based on the calculated level, the context of each surface is specified. In FIG. 13, the level of the surfaces 1 and 2 is 0 cm, the level of the surfaces 3 and 4 is 3 cm, the level of the surface 5 is 20 cm, and so on. Then, the front-back relationship of the five faces is specified, with the frontmost faces being the faces 1 and 2, the next being located in the back being the faces 3 and 4, and the backmost being the face 5.

そして画像情報処理部22は,このように特定した面の前後関係を用いて,面の種別を特定する。すなわち,最前面であって,深さマップにある狭い横長の平面を,棚板の前面および商品タグ面,最背面を棚段の後板面,また,棚段の前面と深さ情報が同一または近接(一定範囲,たとえば数cm以内)しており,中空にある垂直の長方形は商品タグの面として特定をする。そして,好ましくは,それ以外の面を商品面(商品が陳列される可能性のある面)として特定をする。したがって,図13の例では,1,2の面を棚板の前面および商品タグ面,3,4の面を商品面,5の面を棚体の後板面として特定をする。 Then, the image information processing unit 22 specifies the type of the surface by using the context of the surface specified in this way. That is, the depth information is the same as the front surface of the shelf, the product tag surface, the back surface of the shelf, and the front surface of the shelf on the narrow horizontally long plane on the depth map. Alternatively, a vertical rectangle that is close (within a certain range, for example, within a few centimeters) and is hollow is specified as the surface of the product tag. Then, preferably, the other side is specified as a product side (a side on which the product may be displayed). Therefore, in the example of FIG. 13, the surfaces 1 and 2 are specified as the front surface and the product tag surface of the shelf board, the surfaces 3 and 4 are specified as the product surface, and the surface 5 is specified as the rear plate surface of the shelf body.

このように特定した商品面において,いずれかのタイミングにおいて入力を受け付けた商品のパッケージタイプに基づいて,対応する処理を実行する。パッケージタイプとしては,缶,瓶(ペットボトルを含む。以下同様),缶と瓶の併存,箱物,吊るし商品などがあるが,それらに限定をするものではない。 On the product side specified in this way, the corresponding process is executed based on the package type of the product for which input is accepted at any timing. Package types include cans, bottles (including PET bottles; the same applies hereinafter), coexistence of cans and bottles, boxes, hanging products, etc., but are not limited to these.

パッケージタイプが缶または瓶であった場合,一定の大きさの範囲内にある円筒の領域を缶または瓶のフェイス領域として特定する。これを模式的に示すのが,図14および図15である。図14はパッケージタイプが缶の場合を示すイメージ図であり,図15はパッケージタイプが瓶の場合を示すイメージ図である。 If the package type is a can or bottle, identify the area of the cylinder within a certain size as the face area of the can or bottle. This is schematically shown in FIGS. 14 and 15. FIG. 14 is an image diagram showing the case where the package type is a can, and FIG. 15 is an image diagram showing the case where the package type is a bottle.

パッケージタイプが缶と瓶の併存であった場合,一定の大きさの範囲内に円筒があり,上方に小さな円筒がない領域を缶のフェイス領域,一定の大きさの範囲内に円筒があり,上方に小さな円筒がある領域を瓶のフェイス領域として特定をする。 When the package type is a coexistence of a can and a bottle, there is a cylinder within a certain size range, the area where there is no small cylinder above is the face area of the can, and there is a cylinder within a certain size range. The area with a small cylinder above is specified as the face area of the bottle.

パッケージタイプが箱物であった場合,一定の大きさの範囲内にある垂直の長方形の平面の領域を箱物のフェイス領域として特定をする。これを模式的に示すのが図16である。 If the package type is a box, the area of the vertical rectangular plane within a certain size range is specified as the face area of the box. This is schematically shown in FIG.

また,パッケージタイプが吊るし商品であった場合,一定のサイズの範囲内にあり,中空に浮いた長方形の平面または凹凸面の領域を,吊るし商品のフェイス領域として特定をする。これを模式的に示すのが図17である。 If the package type is a hanging product, the area of a rectangular flat surface or uneven surface that is within a certain size range and floats in the air is specified as the face area of the hanging product. This is schematically shown in FIG.

なお,画像情報処理部22は,パッケージタイプの選択を受け付けずフェイス領域を特定してもよい。この場合,商品面の領域と,パッケージタイプごとの判定処理をそれぞれ実行することで,フェイス領域としての条件が成立するかを判定する。そして,フェイス領域を構成する面が存在する場合には,その面が構成するフェイス領域を特定し,あらかじめ定められたパッケージタイプの優先条件に基づいて,フェイス領域がどのようなパッケージタイプであるかを特定する。 The image information processing unit 22 may specify the face area without accepting the selection of the package type. In this case, it is determined whether or not the condition as the face area is satisfied by executing the determination process for each of the product surface area and the package type. Then, if there is a surface that constitutes the face area, the face area that the surface constitutes is specified, and what kind of package type the face area is based on the predetermined package type priority condition. To identify.

3次元モデルからフェイス領域を特定する処理は,標本情報のカテゴリや形状などによって任意の方法を採用可能であり,上記に限定するものではない。また,自動的に特定したフェイス領域に対して,担当者による修正入力を受け付けてもよい。さらに,担当者からフェイス領域の位置の入力を受け付けるのでもよい。 The process of specifying the face region from the three-dimensional model can adopt any method depending on the category and shape of the sample information, and is not limited to the above. In addition, a correction input by the person in charge may be accepted for the automatically specified face area. Further, the person in charge may input the position of the face area.

さらに画像情報処理部22は,深層学習(ディープラーニング)を用いてフェイス領域を特定してもよい。この場合,中間層が多数の層からなるニューラルネットワークの各層のニューロン間の重み付け係数が最適化された学習モデルに対して,上記3次元モデルを入力し,その出力値に基づいて,フェイス領域を特定してもよい。また学習モデルとしては,さまざまな3次元モデルにフェイス領域を与えたものを用いることができる。 Further, the image information processing unit 22 may specify the face region by using deep learning. In this case, the above three-dimensional model is input to the learning model in which the weighting coefficient between neurons in each layer of the neural network consisting of many layers is optimized, and the face region is set based on the output value. It may be specified. Further, as the learning model, various three-dimensional models with face regions can be used.

画像情報処理部22は,以上のように特定したフェイス領域を切り出す。フェイス領域を切り出すとは,3次元モデルから特定したフェイス領域を実際に切り出してもよいし,後述の処理の処理対象としてその領域を設定することも含まれる。 The image information processing unit 22 cuts out the face region specified as described above. Cutting out the face area may actually cut out the face area specified from the three-dimensional model, and also includes setting the area as the processing target of the processing described later.

フェイス領域を切り出す場合には,上述の各処理で特定したフェイス領域をそのまま切り出してもよいし,複数の方法によりフェイス領域の特定を行い,各方法で特定したフェイス領域の結果を用いて切り出す対象とするフェイス領域を特定してもよい。たとえば,3次元モデルから所定条件を充足する面の位置と範囲を特定し,標本情報の表面モデルのタイプに応じた条件を充足するかをマッチングしてフェイス領域を特定する方法と,深層学習によりフェイス領域を特定する方法とを行い,あらかじめ定めた演算によって,最終的に切り出す対象とするフェイス領域を特定してもよい。切り出すフェイス領域の特定方法は,上記に限定するものではなく,任意に設定することができる。 When cutting out the face area, the face area specified by each of the above processes may be cut out as it is, or the face area may be specified by a plurality of methods and the target to be cut out using the result of the face area specified by each method. The face area to be used may be specified. For example, a method of specifying the position and range of a surface that satisfies a predetermined condition from a three-dimensional model, matching whether the condition corresponding to the type of the surface model of the sample information is satisfied, and specifying the face region, and deep learning You may specify the face area to be finally cut out by performing a method of specifying the face area and performing a predetermined calculation. The method for specifying the face area to be cut out is not limited to the above, and can be set arbitrarily.

画像情報処理部22は,画像情報処理部22において切り出したフェイス領域について,標本情報処理部20と同様の平面展開処理を実行し,平面展開画像情報を生成する。 The image information processing unit 22 executes the same plane expansion processing as the sample information processing unit 20 on the face region cut out by the image information processing unit 22, and generates plane expansion image information.

画像情報記憶部23は,入力端末3から受け付けた撮影画像情報,深さ情報や深さマップ,撮影日時,画像情報識別情報,3次元モデル,平面展開画像情報などを対応づけて記憶する。撮影画像情報とは,本発明の処理対象となる画像情報であればよい。歪み補正処理などの撮影画像情報に対する補正処理が実行された後の画像情報も撮影画像情報に含まれる。 The image information storage unit 23 stores captured image information, depth information, depth map, shooting date / time, image information identification information, three-dimensional model, plane development image information, etc. received from the input terminal 3 in association with each other. The captured image information may be any image information to be processed according to the present invention. The captured image information also includes the image information after the correction processing for the captured image information such as the distortion correction processing is executed.

マッチング処理部24は,撮影画像情報に対する平面展開画像情報を生成した後,通常の2次元画像のマッチング処理と同様に,その平面展開画像情報の全部または一部と,標本情報の全部または一部とのマッチング処理を実行する。たとえば撮影画像情報に対する平面展開画像情報において,標本情報とマッチング処理を行う特徴領域を特定し,その特徴領域の特徴量を抽出する。そして抽出した特徴量と,標本情報の特徴量とのマッチング処理を実行することで,撮影画像情報に対する平面展開画像情報の全部または一部と,標本情報との類似性を判定し,撮影画像情報に含まれる対象物を判定する。 After generating the plane-expanded image information for the captured image information, the matching processing unit 24 generates all or a part of the plane-expanded image information and all or a part of the sample information in the same manner as the normal two-dimensional image matching process. Executes matching process with. For example, in the plane development image information for the captured image information, the feature area to be matched with the sample information is specified, and the feature amount of the feature area is extracted. Then, by executing a matching process between the extracted feature amount and the feature amount of the sample information, the similarity between all or part of the plane-expanded image information with respect to the photographed image information and the sample information is determined, and the photographed image information. Determine the object contained in.

なおマッチング処理としては,特徴領域を特定せずにそのまま特徴量を抽出し,標本情報の特徴量とマッチング処理を実行してもよい。また特徴量以外の方法によりマッチング処理を行ってもよい。さらに,画像情報処理部22は,深層学習(ディープラーニング)を用いて標本情報とのマッチング処理を実行してもよい。この場合,中間層が多数の層からなるニューラルネットワークの各層のニューロン間の重み付け係数が最適化された学習モデルに対して,上記撮影画像情報に対する平面展開画像情報の全部または一部を入力し,その出力値に基づいて,類似する標本情報を特定してもよい。学習モデルとしては,さまざまな平面展開画像情報に標本情報を与えたものを用いることができる。 As the matching process, the feature amount may be extracted as it is without specifying the feature area, and the feature amount of the sample information and the matching process may be executed. Further, the matching process may be performed by a method other than the feature amount. Further, the image information processing unit 22 may execute a matching process with the sample information by using deep learning. In this case, all or part of the plane development image information for the above captured image information is input to the learning model in which the weighting coefficient between the neurons of each layer of the neural network consisting of many layers is optimized. Similar sample information may be identified based on the output value. As the learning model, it is possible to use various plane-developed image information to which sample information is given.

以上のような処理を実行することで,撮影画像情報に写っている対象物を判定し,対象物の識別情報を出力することができる。 By executing the above processing, it is possible to determine the object in the captured image information and output the identification information of the object.

なお,標本情報とする対象物の平面展開画像情報における特徴領域,撮影画像情報に対する平面展開画像情報における特徴領域としては,任意の箇所を特定することができる。たとえば,それぞれの平面展開画像情報からラベル部分を特定し,背景画像的な要素は無視し,商品名,メーカーロゴ,定格表示,キャッチコピーなどを特徴領域とすることができるが,特徴領域は,標本情報とする対象物の特性に応じて任意に設定することができる。 It should be noted that any location can be specified as the feature area in the plane-expanded image information of the object to be the sample information and the feature area in the plane-expanded image information with respect to the captured image information. For example, the label part can be specified from each plane development image information, the background image element can be ignored, and the product name, maker logo, rating display, catch phrase, etc. can be set as the feature area. It can be arbitrarily set according to the characteristics of the object to be sample information.

つぎに本発明の画像処理システム1を用いた処理プロセスの一例を図3および図4のフローチャートを用いて説明する。 Next, an example of the processing process using the image processing system 1 of the present invention will be described with reference to the flowcharts of FIGS. 3 and 4.

まず標本情報を生成する処理を図3のフローチャートを用いて説明する。 First, the process of generating sample information will be described with reference to the flowchart of FIG.

標本情報を生成する場合,背景や底面が無地の場所に,対象物を載置し,対象物に正対した位置で,かつ影がないように,入力端末3で対象物を撮影する。この際に,対象物の画像情報(対象物画像情報)と深さマップとを取得する。そして標本情報処理部20は,入力端末3から,対象物画像情報と深さマップとの入力を受け付け,標本情報記憶部21に記憶させる(S100)。なお,対象物画像情報に影などのノイズが写り込んでいる場合には適宜,それを除去する処理を実行する。 When generating sample information, the object is placed in a place where the background and the bottom surface are plain, and the object is photographed by the input terminal 3 at a position facing the object and without a shadow. At this time, the image information of the object (object image information) and the depth map are acquired. Then, the sample information processing unit 20 receives the input of the object image information and the depth map from the input terminal 3 and stores the input in the sample information storage unit 21 (S100). If noise such as shadows is reflected in the image information of the object, a process to remove it is executed as appropriate.

そして標本情報処理部20は,入力を受け付けた対象物画像情報と深さマップとに基づいて,対象物の3次元モデルを生成する(S110)。このように生成した3次元モデルに対して,平面展開処理を実行し,対象物画像情報に対する平面展開画像情報を生成する(S120)。標本情報処理部20は,対象物画像情報に対する平面展開情報の一部を特徴領域として特定する(S130)。たとえば対象物画像情報が図6(a)の場合,平面展開画像情報から特定した特徴領域の一例を図18に示す。図18では,対象物がペットボトルの場合に,その平面展開画像情報からラベルの領域を特徴領域として特定した状態を示している。なお,一つの平面展開画像情報から一または複数の特徴領域を特定する。 Then, the sample information processing unit 20 generates a three-dimensional model of the object based on the input image information of the object and the depth map (S110). The plane expansion process is executed on the three-dimensional model generated in this way, and the plane expansion image information for the object image information is generated (S120). The sample information processing unit 20 specifies a part of the plane expansion information with respect to the object image information as a feature region (S130). For example, when the object image information is FIG. 6A, FIG. 18 shows an example of the feature region specified from the plane development image information. FIG. 18 shows a state in which a label area is specified as a feature area from the plane development image information when the object is a PET bottle. It should be noted that one or more feature regions are specified from one plane-developed image information.

そして標本情報処理部20は,特定した特徴領域から特徴量を抽出し(S140),それを当該対象物の標本情報として特定する。このように特定した標本情報を標本情報記憶部21に,当該対象物の対象物画像情報などに対応づけて記憶させる(S150)。また当該対象物の識別情報も,対応づけて記憶させる。 Then, the sample information processing unit 20 extracts a feature amount from the specified feature region (S140) and specifies it as sample information of the object. The sample information thus specified is stored in the sample information storage unit 21 in association with the object image information of the object (S150). In addition, the identification information of the object is also associated and stored.

以上のような処理を実行することで,標本情報を標本情報記憶部21に記憶させることができる。 By executing the above processing, the sample information can be stored in the sample information storage unit 21.

つぎに,撮影画像情報に写っている対象物を判定する処理を図4のフローチャートを用いて説明する。以下の説明では,店舗の陳列棚を撮影し,その陳列棚に写っている対象物を判定することで,店舗における商品の陳列状況を特定する場合を説明する。 Next, the process of determining the object reflected in the captured image information will be described with reference to the flowchart of FIG. In the following description, a case will be described in which the display status of products in a store is specified by photographing the display shelves of the store and determining the objects shown on the display shelves.

店舗の陳列棚を撮影した撮影画像情報,深さマップは,入力端末3から入力され,管理端末2の画像情報処理部22でそれらの入力を受け付け,画像情報記憶部23に記憶させる(S200)。また,撮影日時,店舗識別情報,撮影画像情報の識別情報の入力を受け付けて,画像情報記憶部23に記憶させる。 The photographed image information and the depth map obtained by photographing the display shelves of the store are input from the input terminal 3, the image information processing unit 22 of the management terminal 2 receives the input, and the image information storage unit 23 stores the input (S200). .. Further, the input of the shooting date / time, the store identification information, and the identification information of the shot image information is received and stored in the image information storage unit 23.

画像情報処理部22は,入力を受け付けた撮影画像情報と深さマップとに基づいて,撮影対象とした陳列棚の3次元モデルを生成する(S210)。このように生成した3次元モデルに対して,画像情報処理部22は,撮影対象とした陳列棚の3次元モデルが正対する位置となるように,その視点方向を決定する(S220)。 The image information processing unit 22 generates a three-dimensional model of the display shelf to be photographed based on the photographed image information that has received the input and the depth map (S210). With respect to the three-dimensional model generated in this way, the image information processing unit 22 determines the viewpoint direction so that the three-dimensional model of the display shelf to be photographed faces the position (S220).

そして画像情報処理部22は,撮影対象とした陳列棚の3次元モデルが正対する位置となる視点方向を決定したので,陳列棚に陳列されている商品の領域をフェイス領域として特定し,特定したフェイス領域を切り出すフェイス処理を実行する(S230)。 Then, the image information processing unit 22 determines the viewpoint direction at which the three-dimensional model of the display shelf to be photographed faces, so that the area of the product displayed on the display shelf is specified as the face area and specified. The face process for cutting out the face area is executed (S230).

そして切り出したフェイス領域について,平面展開画像情報を生成し,画像情報記憶部23に記憶させる(S240)。 Then, plane development image information is generated for the cut out face area and stored in the image information storage unit 23 (S240).

以上のように撮影画像情報に対する平面展開画像情報を生成すると,マッチング処理部24は,撮影画像情報に対する平面展開画像情報において,標本情報とマッチング処理を行う特徴領域を特定し(S250),その特徴領域の特徴量を抽出する(S260)。そして抽出した特徴量と,標本情報の特徴量とのマッチング処理を実行することで(S270),撮影画像情報に対する平面展開画像情報の全部または一部と,標本情報との類似性を判定し,撮影画像情報に含まれる対象物を判定する。判定した対象物の識別情報を,管理端末2は,表示装置72に表示する,紙に出力するなど,適宜の出力処理を実行する。 When the plane-expanded image information for the captured image information is generated as described above, the matching processing unit 24 identifies a feature region for matching with the sample information in the plane-expanded image information for the captured image information (S250), and the features thereof. The feature amount of the region is extracted (S260). Then, by executing a matching process between the extracted feature amount and the feature amount of the sample information (S270), the similarity between all or part of the plane-expanded image information with respect to the captured image information and the sample information is determined. Determine the object included in the captured image information. The management terminal 2 executes an appropriate output process such as displaying the determined object identification information on the display device 72 or outputting it on paper.

上述の実施例1では,対象物画像情報,撮影画像情報のいずれも3次元モデル化し,その後,平面展開画像情報を生成して,特徴領域同士の比較を行う処理としていたが,対象物画像情報,撮影画像情報のいずれかのみについて,3次元モデル化して平面展開画像情報を生成するようにしてもよい。この場合,平面展開画像情報の特徴領域と,従来通りの対象物画像情報,撮影画像情報,あるいはそれらに対して適宜の台形補正処理などの適宜の補正処理が施された画像情報における特徴領域との比較を行ってもよい。なお,補正処理を施した対象物画像情報,撮影画像情報も,「対象物画像情報」,「撮影画像情報」に含むものとする。 In Example 1 described above, both the object image information and the captured image information are three-dimensionally modeled, and then the plane development image information is generated to compare the feature areas. However, the object image information , Only one of the captured image information may be three-dimensionally modeled to generate the plane development image information. In this case, the feature area of the plane-developed image information and the feature area of the conventional object image information, the photographed image information, or the image information to which appropriate correction processing such as trapezoidal correction processing is performed. May be compared. The corrected object image information and photographed image information are also included in the "object image information" and "photographed image information".

たとえば,対象物画像情報について,実施例1と同様に,3次元モデル化して平面展開画像情報を生成し,その平面展開画像情報における特徴領域を特定してその特徴量を算出することで標本情報を生成しておく。撮影画像情報については,平面展開画像情報を生成せずに,2次元の撮影画像情報またはその補正した画像情報,あるいは3次元モデル化をした状態において,標本情報とマッチング処理を実行する。このような処理によっても,撮影画像情報における対象物が正対していない場合であっても,マッチング処理を実行することができ,従来よりも標本情報の数を減らすことができる。 For example, the sample information is obtained by three-dimensionally modeling the object image information in the same manner as in the first embodiment to generate the plane development image information, specifying the feature region in the plane development image information, and calculating the feature amount. Is generated. Regarding the captured image information, the sample information and the matching process are executed in the state where the two-dimensional captured image information or its corrected image information or the three-dimensional model is performed without generating the plane development image information. Even with such processing, matching processing can be executed even when the objects in the captured image information do not face each other, and the number of sample information can be reduced as compared with the conventional case.

また,撮影画像情報について,実施例1と同様に,3次元モデル化して,平面展開画像情報を生成し,その平面展開画像情報における特徴領域を特定してその特徴量を算出する。一方,対象物画像情報は従来と同様に,正対した状態で撮影をしておき,2次元の対象物画像情報またはその補正した画像情報から標本情報をそのまま従来と同様に生成する。そして上述のように平面展開画像情報における特徴領域の特徴量と,標本情報の特徴量とを比較してマッチング処理を実行する。このような処理によっても,撮影画像情報における対象物が正対していない場合であっても,マッチング処理を実行することができ,従来よりも標本情報の数を減らすことができる。 Further, the captured image information is three-dimensionally modeled in the same manner as in the first embodiment, the plane development image information is generated, the feature area in the plane development image information is specified, and the feature amount is calculated. On the other hand, the object image information is photographed in a facing state as in the conventional case, and the sample information is generated as it is from the two-dimensional object image information or the corrected image information as in the conventional case. Then, as described above, the matching process is executed by comparing the feature amount of the feature area in the plane-developed image information with the feature amount of the sample information. Even with such processing, matching processing can be executed even when the objects in the captured image information do not face each other, and the number of sample information can be reduced as compared with the conventional case.

上述の実施例1,実施例2では,撮影画像情報から3次元モデル化をした後にフェイス領域を特定する処理としていたが,撮影画像情報から従来の技術を用いてフェイス領域を特定し,特定したフェイス領域を3次元モデル化するようにしてもよい。 In the above-mentioned Examples 1 and 2, the process of specifying the face region after three-dimensional modeling from the captured image information was performed, but the face region was specified and specified by using the conventional technique from the captured image information. The face region may be modeled in three dimensions.

上述の各処理については,本発明の明細書に記載した順序に限定するものではなく,その目的を達成する限度において適宜,変更することが可能である。 The above-mentioned treatments are not limited to the order described in the specification of the present invention, and can be appropriately changed as long as the object is achieved.

また,本発明の画像処理システム1は,店舗の陳列棚を撮影した撮影画像情報から,陳列棚に陳列した商品を対象物として,その商品の陳列状況を特定する場合に有効であるが,それに限定するものではない。すなわち,ある撮影対象物を撮影した場合に,その所望の対象物が写っている領域を撮影した画像情報から特定する際に,広く用いることができる。 Further, the image processing system 1 of the present invention is effective in specifying the display status of a product displayed on the display shelf from the photographed image information obtained by photographing the display shelf of the store. It is not limited. That is, when a certain object to be photographed is photographed, it can be widely used when specifying the area in which the desired object is captured from the photographed image information.

本発明の画像処理システム1を用いることによって,マッチング処理で用いる標本情報の数を減らすことができる。そのため,従来のように,対象物を多くの角度から撮影しておく必要がなくなり,また撮影負担を減らすことができる。また,一つの対象物に対する標本情報を減らすことができ,マッチング処理の処理時間,処理負荷を軽減することができる。 By using the image processing system 1 of the present invention, the number of sample information used in the matching process can be reduced. Therefore, it is not necessary to shoot the object from many angles as in the conventional case, and the burden of shooting can be reduced. In addition, the sample information for one object can be reduced, and the processing time and processing load of matching processing can be reduced.

1:画像処理システム
2:管理端末
3:入力端末
20:標本情報処理部
21:標本情報記憶部
22:画像情報処理部
23:画像情報記憶部
24:マッチング処理部
70:演算装置
71:記憶装置
72:表示装置
73:入力装置
74:通信装置
1: Image processing system 2: Management terminal 3: Input terminal 20: Specimen information processing unit 21: Specimen information storage unit 22: Image information processing unit 23: Image information storage unit 24: Matching processing unit 70: Arithmetic device 71: Storage device 72: Display device 73: Input device 74: Communication device

Claims (6)

陳列棚を撮影した撮影画像情報とそれに対応する深さ情報とを用いて第1の平面展開画像情報を生成する画像情報処理部と,
陳列棚に陳列される商品を撮影した対象物画像情報とそれに対応する深さ情報とを用いて,前記商品の標本情報を生成する標本情報処理部と,
前記平面展開画像情報の一部または全部と,前記標本情報の一部または全部とを用いてマッチング処理を実行するマッチング処理部と,を有しており,
前記深さ情報は,撮影対象と撮影装置との距離情報であり,
前記画像情報処理部は,
前記撮影画像情報とそれに対応する深さ情報とを用いて3次元モデルを生成し,
前記生成した3次元モデルが正対する位置になるように回転させ,
前記回転させた3次元モデルの一部または全部について,平面に展開する前記第1の平面展開画像情報を生成し,
前記標本情報処理部は,
前記対象物画像情報とそれに対応する深さ情報とを用いて3次元モデルを生成し,
前記生成した3次元モデルの一部または全部について,平面に展開する第2の平面展開画像情報を生成し,
前記第2の平面展開画像情報を用いて,前記商品の標本情報を生成する,
ことを特徴とする画像処理システム。
An image information processing unit that generates the first plane development image information using the photographed image information obtained by photographing the display shelf and the corresponding depth information, and the image information processing unit.
A sample information processing unit that generates sample information of the product using the image information of the object obtained by photographing the product displayed on the display shelf and the corresponding depth information.
It has a part or all of the plane development image information and a matching processing unit that executes a matching process using a part or all of the sample information.
The depth information is distance information between the shooting target and the shooting device.
The image information processing unit
A three-dimensional model is generated using the captured image information and the corresponding depth information.
Rotate the generated 3D model so that it faces the opposite position.
For a part or all of the rotated three-dimensional model, the first plane development image information to be developed on a plane is generated.
The sample information processing unit
A three-dimensional model is generated using the object image information and the corresponding depth information.
For a part or all of the generated three-dimensional model, a second plane-expanded image information to be expanded on a plane is generated.
Using the second plane development image information , sample information of the product is generated.
An image processing system characterized by this.
前記画像情報処理部は,
前記撮影画像情報とそれに対応する深さ情報とを用いて3次元モデルを生成し,
前記生成した3次元モデルに前記撮影画像情報をテクスチャマッピングし,
前記テクスチャマッピングした3次元モデルが正対する位置となるように視点方向を決定し,
前記決定した視点方向からのテクスチャマッピングした3次元モデルから所定の領域を特定し,
前記特定した所定の領域を平面に展開することで前記第1の平面展開画像情報を生成する,
ことを特徴とする請求項1に記載の画像処理システム。
The image information processing unit
A three-dimensional model is generated using the captured image information and the corresponding depth information.
The captured image information is texture-mapped to the generated three-dimensional model, and the photographed image information is texture-mapped.
The viewpoint direction is determined so that the texture-mapped 3D model faces the opposite position.
A predetermined area is specified from the texture-mapped three-dimensional model from the determined viewpoint direction.
The first plane-expanded image information is generated by expanding the specified predetermined region on a plane.
The image processing system according to claim 1.
前記標本情報処理部は,
前記対象物画像情報とそれに対応する深さ情報とを用いて3次元モデルを生成し,
前記生成した3次元モデルに前記対象物画像情報をテクスチャマッピングし,
前記テクスチャマッピングした3次元モデルから所定の領域を特定し,
前記特定した所定の領域を平面に展開することで前記第2の平面展開画像情報を生成する,
ことを特徴とする請求項1または請求項2に記載の画像処理システム。
The sample information processing unit
A three-dimensional model is generated using the object image information and the corresponding depth information.
The object image information is texture-mapped to the generated three-dimensional model, and the object image information is texture-mapped.
A predetermined area is specified from the texture-mapped three-dimensional model, and the area is specified.
The second plane-expanded image information is generated by expanding the specified predetermined region on a plane.
The image processing system according to claim 1 or 2, wherein the image processing system is characterized by the above.
陳列棚を撮影した画像情報とそれに対応する深さ情報とを用いて平面展開画像情報を生成する画像情報処理部と,
前記平面展開画像情報の一部または全部と,あらかじめ記憶した商品の標本情報の一部または全部とを用いてマッチング処理を実行するマッチング処理部と,を有しており,
前記深さ情報は,撮影対象と撮影装置との距離情報であり,
前記画像情報処理部は,
前記画像情報とそれに対応する深さ情報とを用いて3次元モデルを生成し,
前記生成した3次元モデルが正対する位置になるように回転させ,
前記回転させた3次元モデルの一部または全部について,平面に展開する平面展開画像情報を生成する,
ことを特徴とする画像処理システム。
An image information processing unit that generates planar development image information using image information obtained by photographing display shelves and corresponding depth information, and
It has a matching processing unit that executes a matching process using a part or all of the plane development image information and a part or all of the sample information of the product stored in advance.
The depth information is distance information between the shooting target and the shooting device.
The image information processing unit
A three-dimensional model is generated using the image information and the corresponding depth information.
Rotate the generated 3D model so that it faces the opposite position.
Generates plane-expanded image information that expands into a plane for a part or all of the rotated three-dimensional model.
An image processing system characterized by this.
コンピュータを,
陳列棚を撮影した撮影画像情報とそれに対応する深さ情報とを用いて第1の平面展開画像情報を生成する画像情報処理部,
陳列棚に陳列される商品を撮影した対象物画像情報とそれに対応する深さ情報とを用いて,前記商品の標本情報を生成する標本情報処理部,
前記平面展開画像情報の一部または全部と,前記標本情報の一部または全部とを用いてマッチング処理を実行するマッチング処理部,として機能させる画像処理プログラムであって,
前記深さ情報は,撮影対象と撮影装置との距離情報であり,
前記画像情報処理部は,
前記撮影画像情報とそれに対応する深さ情報とを用いて3次元モデルを生成し,
前記生成した3次元モデルが正対する位置になるように回転させ,
前記回転させた3次元モデルの一部または全部について,平面に展開する前記第1の平面展開画像情報を生成し,
前記標本情報処理部は,
前記対象物画像情報とそれに対応する深さ情報とを用いて3次元モデルを生成し,
前記生成した3次元モデルの一部または全部について,平面に展開する第2の平面展開画像情報を生成し,
前記第2の平面展開画像情報を用いて,前記商品の標本情報を生成する,
ことを特徴とする画像処理プログラム。
Computer,
Image information processing unit that generates the first plane development image information using the photographed image information obtained by photographing the display shelf and the corresponding depth information,
A sample information processing unit that generates sample information of the product by using the image information of the object obtained by photographing the product displayed on the display shelf and the corresponding depth information.
An image processing program that functions as a matching processing unit that executes matching processing using a part or all of the plane development image information and a part or all of the sample information.
The depth information is distance information between the shooting target and the shooting device.
The image information processing unit
A three-dimensional model is generated using the captured image information and the corresponding depth information.
Rotate the generated 3D model so that it faces the opposite position.
For a part or all of the rotated three-dimensional model, the first plane development image information to be developed on a plane is generated.
The sample information processing unit
A three-dimensional model is generated using the object image information and the corresponding depth information.
For a part or all of the generated three-dimensional model, a second plane-expanded image information to be expanded on a plane is generated.
Using the second plane development image information , sample information of the product is generated.
An image processing program characterized by this.
コンピュータを,
陳列棚を撮影した画像情報とそれに対応する深さ情報とを用いて平面展開画像情報を生成する画像情報処理部,
前記平面展開画像情報の一部または全部と,あらかじめ記憶した商品の標本情報の一部または全部とを用いてマッチング処理を実行するマッチング処理部,として機能させる画像処理プログラムであって,
前記深さ情報は,撮影対象と撮影装置との距離情報であり,
前記画像情報処理部は,
前記画像情報とそれに対応する深さ情報とを用いて3次元モデルを生成し,
前記生成した3次元モデルを前記撮影対象が正対する位置になるように回転させ,
前記回転させた3次元モデルの一部または全部について,平面に展開する平面展開画像情報を生成する,
ことを特徴とする画像処理プログラム。
Computer,
Image information processing unit that generates planar development image information using image information obtained by photographing display shelves and corresponding depth information,
An image processing program that functions as a matching processing unit that executes matching processing using a part or all of the plane development image information and a part or all of the sample information of a product stored in advance.
The depth information is distance information between the shooting target and the shooting device.
The image information processing unit
A three-dimensional model is generated using the image information and the corresponding depth information.
The generated three-dimensional model is rotated so that the imaging target faces the position.
Generates plane-expanded image information that expands into a plane for a part or all of the rotated three-dimensional model.
An image processing program characterized by this.
JP2019070140A 2019-04-01 2019-04-01 Image processing system Active JP6887167B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019070140A JP6887167B2 (en) 2019-04-01 2019-04-01 Image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019070140A JP6887167B2 (en) 2019-04-01 2019-04-01 Image processing system

Publications (2)

Publication Number Publication Date
JP2020170265A JP2020170265A (en) 2020-10-15
JP6887167B2 true JP6887167B2 (en) 2021-06-16

Family

ID=72745931

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019070140A Active JP6887167B2 (en) 2019-04-01 2019-04-01 Image processing system

Country Status (1)

Country Link
JP (1) JP6887167B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012138023A (en) * 2010-12-27 2012-07-19 Maxell Finetech Ltd Vein image acquisition device, authentication information storage system and personal authentication system
JP2015072608A (en) * 2013-10-03 2015-04-16 独立行政法人産業技術総合研究所 State estimation device and state estimation method
JP6318557B2 (en) * 2013-11-11 2018-05-09 日本電気株式会社 POS terminal device, POS system, image processing method and program
JP6222345B2 (en) * 2014-03-20 2017-11-01 日本電気株式会社 POS terminal device, POS system, image processing method and program
JP6322603B2 (en) * 2015-06-23 2018-05-09 東芝テック株式会社 Image processing apparatus, image processing program, and display status determination apparatus
JP6523925B2 (en) * 2015-11-10 2019-06-05 株式会社日立製作所 Authentication apparatus using biometric information and authentication method
JP6440043B1 (en) * 2017-06-27 2018-12-19 株式会社マーケットヴィジョン Product identification system
JP6458239B1 (en) * 2017-08-29 2019-01-30 株式会社マーケットヴィジョン Image recognition system

Also Published As

Publication number Publication date
JP2020170265A (en) 2020-10-15

Similar Documents

Publication Publication Date Title
Nishida et al. Procedural modeling of a building from a single image
JP5778237B2 (en) Backfill points in point cloud
US9275277B2 (en) Using a combination of 2D and 3D image data to determine hand features information
CN108734087B (en) Object automatic identification method and system, shopping equipment and storage medium
US9740914B2 (en) Face location detection
WO2020134528A1 (en) Target detection method and related product
CN108269266A (en) Segmentation image is generated using Markov random field optimization
JP2001283224A (en) Face collating method, recording medium stored with the collating method and face collator
WO2012061945A1 (en) System and method for object searching using spatial data
EP4254349A2 (en) Methods for generating a dataset of corresponding images for machine vision learning
Brown et al. Restoring 2D content from distorted documents
US9147279B1 (en) Systems and methods for merging textures
JP6541920B1 (en) INFORMATION PROCESSING APPARATUS, PROGRAM, AND INFORMATION PROCESSING METHOD
JP2016179534A (en) Information processor, information processing method, program
US20170064284A1 (en) Producing three-dimensional representation based on images of a person
WO2022021782A1 (en) Method and system for automatically generating six-dimensional posture data set, and terminal and storage medium
JP2003115042A (en) Method for evaluating three-dimensional shape model and method and device for generating the model
US20240062345A1 (en) Method, apparatus, and computer-readable medium for foreground object deletion and inpainting
CN114766042A (en) Target detection method, device, terminal equipment and medium
Papadaki et al. Accurate 3D scanning of damaged ancient Greek inscriptions for revealing weathered letters
CN114219958B (en) Multi-view remote sensing image classification method, device, equipment and storage medium
WO2021046773A1 (en) Facial anti-counterfeiting detection method and apparatus, chip, electronic device and computer-readable medium
US11080920B2 (en) Method of displaying an object
JP6887167B2 (en) Image processing system
JP6788877B2 (en) Image processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200331

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200420

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200608

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200615

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200615

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200623

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200624

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20200722

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200728

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20201214

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20210201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210219

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210325

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210406

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210510

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210511

R150 Certificate of patent or registration of utility model

Ref document number: 6887167

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150