WO2006006356A1 - 画像照合装置、画像照合方法および画像照合プログラム - Google Patents

画像照合装置、画像照合方法および画像照合プログラム Download PDF

Info

Publication number
WO2006006356A1
WO2006006356A1 PCT/JP2005/011465 JP2005011465W WO2006006356A1 WO 2006006356 A1 WO2006006356 A1 WO 2006006356A1 JP 2005011465 W JP2005011465 W JP 2005011465W WO 2006006356 A1 WO2006006356 A1 WO 2006006356A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
value
positive
negative
correlation
Prior art date
Application number
PCT/JP2005/011465
Other languages
English (en)
French (fr)
Inventor
Toru Yonezawa
Hirofumi Kameyama
Original Assignee
Glory Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2004206170A external-priority patent/JP4563741B2/ja
Priority claimed from JP2004206169A external-priority patent/JP4563740B2/ja
Application filed by Glory Ltd. filed Critical Glory Ltd.
Priority to US11/572,070 priority Critical patent/US7856137B2/en
Priority to AT05753375T priority patent/ATE460711T1/de
Priority to CN2005800237406A priority patent/CN101014978B/zh
Priority to EP05753375A priority patent/EP1768063B8/en
Priority to DE602005019884T priority patent/DE602005019884D1/de
Publication of WO2006006356A1 publication Critical patent/WO2006006356A1/ja

Links

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D5/00Testing specially adapted to determine the identity or genuineness of coins, e.g. for segregating coins which are unacceptable or alien to a currency
    • G07D5/005Testing the surface pattern, e.g. relief
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/752Contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection

Definitions

  • Image collation apparatus image collation method, and image collation program
  • the present invention relates to an image matching device, an image matching method, and an image for matching images by comparing image characteristics between an input image of a matching target object and a plurality of template images registered in advance. More particularly, the present invention relates to an image collation apparatus, an image collation method, and an image collation program that can efficiently collate an input image with a template image to improve a collation rate.
  • a correlation value is calculated by comparing an input image of coins with a template image of coins, and a correlation value that is strong in a portion of the entire image to be compared that exceeds a predetermined area.
  • An image matching technique for determining that the coin related to the input image is a genuine coin when the value exceeds the threshold is disclosed.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2003-187289
  • the present invention has been made in view of the above problems (problems), and is an image collation apparatus capable of improving the image collation accuracy of money and articles other than coins and improving the collation rate of image collation.
  • An object of the present invention is to provide an image matching method and an image matching program.
  • an image collating apparatus includes an image between an input image of a collation target and a plurality of template images registered in advance.
  • a correlation value image is generated from the input image and the template image, and the correlation value image is determined based on whether or not the pixel value is equal to or greater than a threshold value.
  • Correlation value image separation means for separating a positive correlation value image and a negative correlation value image
  • template image separation for separating the template image into a positive template image and a negative template image depending on whether the pixel value is equal to or greater than a threshold value
  • Positive and negative separation correlation image generating means for generating a correlation image, characterized by comprising a verification determining unit that performs collation determination using the positive-negative separation correlation image.
  • the positive / negative separated correlation image generating means is configured to generate an image for each pixel of the positive correlation value image and the positive template image.
  • a positive feature region image having a pixel value as a product value and a negative feature region image having a pixel value as a product of each negative product of the negative correlation value image and the positive template image are generated. It is characterized by doing.
  • the positive / negative separated correlation image generation means is configured to generate an image for each pixel of the positive correlation value image and the negative template image.
  • a positive background region image having a pixel value as a product value and a negative background region image having a pixel value as a product of each of the negative correlation value image and the negative template image are generated. It is characterized by doing.
  • the image collating apparatus is the invention of claim 1, wherein the positive / negative separated correlation image generation means is configured to generate an image for each pixel of the positive correlation value image and the positive template image.
  • the positive / negative separated correlation image generation means generates a negative value generated using the negative correlation value image.
  • the pixel value of at least one surrounding pixel is compared with the pixel of interest in the region image and the surrounding pixel of the corresponding pixel corresponding to the pixel of interest in the positive region image generated using the positive correlation value image. Is larger than the pixel value of the target pixel, the dilation processing is performed to move the target pixel to the corresponding pixel.
  • the input image and the template image are edge images obtained by image conversion by edge extraction processing using an edge extraction operator. It is characterized by being.
  • the edge image is a normal edge image obtained by normalizing the edge strength of the extracted edge. It is characterized by that.
  • the template image is obtained by averaging images for each individual of the object to be collated. It is an average image.
  • the correlation value image is a normality obtained by normalizing a correlation value for each pixel of the input image or the template image. It is an image having a correlation value as a pixel value.
  • the matching determination means divides the positive / negative separated correlation image into blocks and calculates a sum of pixel values in each block. A block value is calculated, and a product of the block value and a weighting coefficient is added to all the positive / negative separated correlation images to calculate a collation value and perform collation determination.
  • the image collating apparatus according to the invention of claim 11 is characterized in that, in the invention of claim 1, the matching determination means calculates the value of the weighting coefficient by linear discriminant analysis.
  • the image collating device according to the invention of claim 12 is characterized in that, in the invention of claim 1, the object to be matched is money.
  • the image collating method according to the invention of claim 13 collates images by comparing image characteristics between the input image of the object to be collated and a plurality of template images registered in advance.
  • the input image and the template image force correlation value image are generated according to the image collating method to be performed, and the correlation value image is compared with the positive correlation value image depending on whether the pixel value is equal to or greater than a threshold value.
  • a correlation value image separation step for separating the template image into a correlation value image; a template image separation step for separating the template image into a positive template image and a negative template image depending on whether or not the pixel value is equal to or greater than a threshold value; Positive / negative separated correlation image generation for generating a plurality of positive / negative separated correlation images by combining the positive correlation value image and the negative correlation value image with the positive template image and the negative template image And extent, characterized in that it includes a verification determining step of performing matching decision by using the positive-negative separation correlation image.
  • the image collation program according to the invention of claim 14 compares the image characteristics between the input image of the object to be collated and a plurality of template images registered in advance. Therefore, a program for causing a computer to execute an image matching method for matching images, which generates a correlation value image from the input image and the template image, and determines whether the correlation value image has a pixel value greater than or equal to a threshold value.
  • a correlation value image separation step for separating a positive correlation value image and a negative correlation value image, and a template image for separating the template image into a positive template image and a negative template image depending on whether the pixel value is equal to or greater than a threshold value.
  • a plurality of positive correlation value images and negative correlation value images are combined with the positive template image and the negative template image.
  • Positive and negative separation correlation image generating step of generating a separation correlation image characterized in that to execute the matching determination step of performing collation determination to a computer by using the positive-negative separation correlation image.
  • the image collating apparatus is preliminarily connected to the input image of the object to be collated.
  • An image collation device that collates images by comparing image features with a plurality of registered template images, and after rotating the input image and the template image by polar coordinates, Polar coordinate transformation image generation means for generating a p- ⁇ input image and a p- ⁇ template image with corrected deviation, the p-0 input image and the p ⁇ template image force also generate a correlation value image, and the correlation value image Correlation value image separation means for separating a positive correlation value image and a negative correlation value image according to whether or not the pixel value is greater than or equal to a threshold value, and whether or not the p-0 template image has a power value that is greater than or equal to the threshold value.
  • a template image separation means for separating the positive template image and the negative template image, the positive correlation value image, the negative correlation value image, and the positive template image
  • a positive / negative separated correlation image generating means for generating a plurality of positive / negative separated correlation images by a combination with the negative template image
  • a matching determination means for performing a matching determination using the positive / negative separated correlation images.
  • the positive / negative separated correlation image generation means calculates a product for each pixel of the positive correlation value image and the positive template image. Generating a positive feature region image having a calculated value as a pixel value, and a negative feature region image having a pixel value as a calculated value for each pixel of the negative correlation value image and the positive template image And
  • the positive / negative separated correlation image generation means calculates a product for each pixel of the positive correlation value image and the negative template image. Generating a positive background region image having a calculated value as a pixel value, and a negative background region image having a pixel value as a calculated value for each pixel of the negative correlation value image and the negative template image. And
  • the positive / negative separated correlation image generation means calculates a product for each pixel of the positive correlation value image and the positive template image.
  • a positive feature region image having a calculated value as a pixel value, a negative feature region image having a pixel value as a calculated value for each pixel of the negative correlation value image and the positive template image, and the positive correlation value image A positive background region image having a pixel value as a value obtained by calculating a product for each pixel of the negative template image, the negative correlation value image, and the negative template image
  • a negative background region image having a pixel value as a value obtained by calculating a product for each pixel is characterized.
  • the positive / negative separated correlation image generating means is generated using the negative correlation value image.
  • the pixel of interest in the negative region image is compared with the surrounding pixels of the corresponding pixel corresponding to the pixel of interest in the positive region image generated using the positive correlation value image. If the value is larger than the pixel value of the target pixel, an expansion process for moving the target pixel to the corresponding pixel is performed.
  • the image collating device according to the invention of claim 20 is characterized in that, in the invention of claim 1, the p
  • the ⁇ input image and the p ⁇ template image are edge images that have been image-converted by edge extraction processing using an edge extraction operator.
  • the edge image is a normal edge image obtained by normalizing the edge strength of the extracted edge. It is characterized by being.
  • the template image is an average image obtained by averaging images of the individual objects to be collated. It is characterized by being.
  • the correlation value image is a phase-by-pixel phase of the P-0 input image and the p ⁇ template. It is an image having a normal correlation value obtained by normalizing a function value as a pixel value.
  • the matching determination means divides the positive / negative separated correlation image into blocks, and calculates a sum of pixel values in each block. A block value is calculated, and a product of the block value and a weighting coefficient is added to all the positive / negative separated correlation images to calculate a collation value and perform collation determination.
  • the image collating apparatus is characterized in that, in the invention of claim 1, the matching determination means calculates the value of the weighting coefficient by linear discriminant analysis.
  • the polar coordinate conversion image generating means is configured to use the P-0 input image or the p ⁇ template image. It is characterized in that the rotational shift between both images is corrected by parallel movement.
  • the circular object is a coin.
  • the image collating method according to the invention of claim 28 collates images by comparing image features between the input image of the object to be collated and a plurality of template images registered in advance.
  • a polar coordinate conversion image generation step of generating a p- ⁇ input image and a p ⁇ template image in which the input image and the template image are subjected to polar coordinate conversion and the rotational deviation of both images is corrected.
  • the p-0 input image and the p ⁇ template image force correlation value image are generated, and the correlation value image is divided into a positive correlation value image and a negative correlation value image depending on whether the pixel value is equal to or greater than a threshold value.
  • the image collation program according to the invention of claim 29 is capable of comparing image characteristics between an input image of a collation target and a plurality of template images registered in advance. Therefore, a program for causing a computer to execute an image collating method for collating images, wherein the input image and the template image are subjected to polar coordinate conversion, and the rotational displacement of both images is corrected.
  • a correlation value image separation step that separates a value image and a negative correlation value image; and the p- ⁇ template image is divided into a positive template image and a negative template depending on whether the pixel value is equal to or greater than a threshold value.
  • the input image and the template image force correlation value image are generated, and the correlation value image is negatively correlated with the positive correlation value image depending on whether the pixel value is equal to or greater than the threshold value.
  • the template image is separated into a positive template image and a negative template image depending on whether the pixel value is equal to or greater than a threshold value, and a positive correlation value image, a negative correlation value image, a positive template image, and a negative template image are separated.
  • a positive feature region image having a value obtained by calculating a product of each of the positive correlation value image and the positive template image for each pixel, a negative correlation value image, and a positive template. Since the negative feature region image is generated with the pixel value as the pixel product value calculated from the pixel image, the region image and the feature should appear in the part where the feature should appear. By performing image matching using a region image with no feature in the portion, it is possible to perform highly accurate image matching and improve the image matching rate.
  • a positive background region image having a value obtained by calculating a product for each pixel of the positive correlation value image and the negative template image, a negative correlation value image, and a negative template.
  • the negative background area image is generated with the pixel value of the product of the pixel image and the pixel value as the pixel value.
  • Image matching is performed using an image, a region image in which features should not appear, a region image in which there should be a background, and a region image in which there should be no background.
  • the target pixel in the negative region image generated using the negative correlation value image and the target region in the positive region image generated using the positive correlation value image If the pixel value of at least one surrounding pixel is larger than the pixel value of the target pixel in comparison with the surrounding pixels of the corresponding pixel corresponding to the pixel, the target pixel is moved to the corresponding pixel. Since it is configured to perform dilation processing, it is possible to eliminate the influence of isolated points due to correlation value calculation, perform highly accurate image image matching, and improve the image matching rate. .
  • the input image and the template image are configured to be edge images that have been image-converted by edge extraction processing using an edge extraction operator, each extracted image By comparing these characteristic portions, it is possible to perform high-accuracy image image collation and improve the image collation rate.
  • the edge image is configured to be a normalized edge image in which the edge strength of the extracted edge is normalized, the influence of the individual difference of the object to be collated is reduced. It is possible to perform high-accuracy image image collation and to improve the image collation rate.
  • the template image is configured to be an average image obtained by averaging the images for each individual of the verification target object, the template image is fixed to the individual of the verification target object. Even when there is a pattern, it is possible to perform highly accurate image image matching, and to improve the image matching rate.
  • the correlation value image is configured to be an image having a normal correlation value obtained by normalizing a correlation value for each pixel of the input image or the template image as a pixel value.
  • the collation determining means divides the positive / negative separated correlation image into blocks, calculates the sum of the pixel values in each block as a block value, the block value and the weighting coefficient, Is added to all the positive and negative separated correlation images, and the collation value is calculated and the collation judgment is performed. Therefore, it is possible to adjust the weight of the region where the feature is likely to appear and the weight of the region where the feature is difficult to appear. In addition, by simplifying the calculation procedure, efficient image matching can be performed, and the image matching rate can be improved.
  • the collation determining means is configured to calculate the value of the weight coefficient by linear discriminant analysis, it obtains an appropriate weight coefficient based on the learning sample. Therefore, it is possible to perform high-accuracy image image collation and improve the image collation rate.
  • the object to be verified is configured to be currency
  • an input image and a template image force correlation value image are generated, and the correlation value image is determined as a positive correlation value image depending on whether the pixel value is equal to or greater than a threshold value.
  • the template image is separated into a negative correlation value image, and the template image is separated into a positive template image and a negative template image depending on whether or not the pixel value is equal to or greater than a threshold, and a positive correlation value image, a negative correlation value image, a positive template image, and a negative template image are obtained.
  • an input image and a template image force correlation value image are generated, and the correlation value image is determined as a positive correlation value image depending on whether the pixel value is equal to or greater than a threshold value.
  • the template image is separated into a negative correlation value image, and the template image is separated into a positive template image and a negative template image depending on whether or not the pixel value is equal to or greater than a threshold, and a positive correlation value image, a negative correlation value image, a positive template image, and a negative template image are obtained.
  • a p- ⁇ input image and a p- ⁇ template image in which the input image and the template image are subjected to polar coordinate transformation and the rotational deviation of both images is corrected, are generated, -The ⁇ input image and the p- ⁇ template image force also generate a correlation value image, and the correlation value image is separated into a positive correlation value image and a negative correlation value image depending on whether or not the pixel value is greater than or equal to a threshold value.
  • the image is separated into a positive template image and a negative template image depending on whether or not the pixel value is equal to or greater than a threshold value, and multiple images are obtained by combining the positive correlation value image, the negative correlation value image, the positive template image, and the negative template image. Since the positive / negative separated correlation image is generated and the collation determination is performed using the positive / negative separated correlation image, only the portion where the correlation between the input image and the template image is high. In addition, the correlation value of the low-correlation portion is used, and the image matching is performed using not only the feature portion of the template image but also the background portion, so that it is possible to perform highly accurate image matching. Play.
  • a positive feature region image having a value obtained by calculating a product of each of the positive correlation value image and the positive template image for each pixel, a negative correlation value image, and a positive template. Since the negative feature region image is generated with the pixel value as the pixel product value calculated from the pixel image, the region image and the feature should appear in the part where the feature should appear. It is possible to perform image collation with high accuracy by performing image collation using a region image that does not have a feature in a part.
  • a positive background region image having a value obtained by calculating a product for each pixel of the positive correlation value image and the negative template image, a negative correlation value image, and a negative template.
  • the negative background area image is generated with the pixel value of the product of the pixel image and the pixel value as the pixel value.
  • a positive feature region image having a value obtained by calculating a product of each of the positive correlation value image and the positive template image for each pixel, a negative correlation value image, and a positive template.
  • a negative feature region image whose pixel value is a value obtained by calculating the product of each pixel with the image, and a positive background region image whose pixel value is a value calculated for each pixel of the positive correlation value image and the negative template image.
  • a negative background region image whose pixel value is a value obtained by calculating the product of each pixel of the negative correlation value image and the negative template image.
  • Image matching is performed using an image, a region image in which features should not appear, a region image in which there should be a background, and a region image in which there should be no background.
  • the target pixel in the negative region image generated using the negative correlation value image and the target pixel in the positive region image generated using the positive correlation value image If the pixel value of at least one surrounding pixel is larger than the pixel value of the target pixel in comparison with the surrounding pixels of the corresponding pixel corresponding to the pixel, the target pixel is moved to the corresponding pixel. Since it is configured to perform the expansion process, it is possible to eliminate the influence of isolated points associated with the correlation value calculation and to perform highly accurate image image matching.
  • the p ⁇ input image and the p ⁇ template image are configured to be edge images that have been image-converted by edge extraction processing using an edge extraction operator. By comparing the characteristic parts of each image, it is possible to perform highly accurate image image matching.
  • the edge image is configured to be a normalized edge image obtained by normalizing the edge strength of the extracted edge, the influence of the individual difference of the matching object is eliminated. As a result, it is possible to perform high-accuracy image image collation.
  • the template image is configured to be an average image obtained by averaging all the images for each individual of the verification target object, the template image is specific to the individual of the verification target object. Even if there is a pattern, there is an effect that it is possible to perform image image collation with high accuracy.
  • the correlation value image is a normalized correlation value obtained by normalizing the correlation value for each pixel of the p ⁇ input image and the p- ⁇ template image. Since it is configured to be an image, it is possible to perform highly accurate image image matching while suppressing variations in correlation values.
  • the collation determining means divides the positive / negative separated correlation image into blocks, calculates the sum of the pixel values in each block as a block value, the block value and the weight coefficient Is added to all the positive and negative separated correlation images, and the collation value is calculated and the collation judgment is performed. Therefore, it is possible to adjust the weight of the region where the feature is likely to appear and the weight of the region where the feature is difficult to appear.
  • the simplified calculation procedure has the effect of enabling efficient image matching.
  • the collation determining means is configured to calculate the value of the weight coefficient by linear discriminant analysis, an appropriate weight coefficient is obtained based on the learning sample. As a result, it is possible to perform image image collation with high accuracy.
  • the polar coordinate conversion image generation means is configured to correct the rotational deviation of both images by translating the p- ⁇ input image or the P- ⁇ template image. As a result, it is possible to reduce the amount of calculation associated with powerful correction and perform highly efficient image matching.
  • the circular object is configured to be a coin, there is an effect that it is possible to perform highly accurate image image collation with respect to the collation of money.
  • polar coordinate transformation is performed on the input image and the template image.
  • a p- ⁇ input image and a p- ⁇ template image with the rotational offset of both images corrected are generated, and a correlation value image is also generated for the ⁇ input image and the p- ⁇ template image force.
  • 0 template image is divided into a positive template image and a negative template image depending on whether or not the pixel value is greater than or equal to a threshold value.
  • a plurality of positive and negative separated correlation images are generated by combining the positive correlation value image and the negative correlation value image with the positive template image and the negative template image, and collation determination is performed using the positive and negative separated correlation images. Therefore, not only the part where the correlation between the input image and the template image is high, but also the correlation value of the part where the correlation is low is used, and only the characteristic part of the template image is used. Et not a, by performing image matching using also the background portion, there is an effect that it is possible Nau Oko high image matching accuracy.
  • the p- ⁇ input image and the p- ⁇ template image in which the rotational deviation of both images is corrected are generated, -The ⁇ input image and the p- ⁇ template image force also generate a correlation value image, and the correlation value image is separated into a positive correlation value image and a negative correlation value image depending on whether or not the pixel value is greater than or equal to a threshold value.
  • the image is separated into a positive template image and a negative template image depending on whether or not the pixel value is equal to or greater than a threshold value, and multiple images are obtained by combining the positive correlation value image, the negative correlation value image, the positive template image, and the negative template image.
  • the positive / negative separated correlation image is generated and the collation determination is performed using the positive / negative separated correlation image, only the portion where the correlation between the input image and the template image is high.
  • the correlation value of the low-correlation portion is used, and the image matching is performed using not only the feature portion of the template image but also the background portion, so that it is possible to perform highly accurate image matching. Play.
  • FIG. 1 is a functional block diagram illustrating a configuration of an image matching device according to a first embodiment.
  • FIG. 2 is an explanatory diagram for explaining an outline of processing of the image cutout unit shown in FIG.
  • FIG. 3 is an explanatory diagram for explaining a Sobel operator used in the edge extraction unit shown in FIG. 1.
  • FIG. 4 is an explanatory diagram for explaining the processing outline of the edge extraction unit shown in FIG. 1.
  • FIG. 5 is an explanatory diagram for explaining the outline of the matching determination process of the matching processing unit shown in FIG.
  • FIG. 6 is an explanatory diagram for explaining an image input to the positive / negative separated correlation determining unit according to the first embodiment.
  • FIG. 7 is an explanatory diagram for explaining a feature region and a background region generated by the positive / negative separated correlation image generation unit according to the first embodiment.
  • FIG. 8 is a flowchart of normal / negative correlation value image positive / negative separation processing according to the first embodiment.
  • FIG. 9 is a flowchart of template image positive / negative separation processing according to the first embodiment.
  • FIG. 10 is a flowchart showing a processing procedure of a positive / negative separated correlation image generation unit according to the first embodiment.
  • FIG. 11 is an explanatory diagram for explaining an image generation procedure corresponding to each region shown in FIG. 7.
  • FIG. 12 is an explanatory diagram for explaining an image mask used in the expansion processing unit according to the first embodiment.
  • FIG. 13 is a flowchart illustrating the processing procedure of the expansion processing unit according to the first embodiment.
  • FIG. 14 is an explanatory diagram for explaining an image generated by the expansion processing unit according to the first embodiment.
  • FIG. 15 is an explanatory diagram for explaining block division of an image used in the collation value calculation unit according to the first embodiment.
  • FIG. 16 is an explanatory diagram for explaining a modification example of the expansion process according to the first embodiment.
  • FIG. 17 is an explanatory diagram for explaining an image mask used in the modified example shown in FIG. 16.
  • FIG. 18 is a flowchart showing a processing procedure of the expansion processing unit in the modified example shown in FIG.
  • FIG. 19 is a functional block diagram of the configuration of the image collating device according to the second embodiment.
  • FIG. 20 is an explanatory diagram for explaining an outline of processing of the image cutout unit shown in FIG.
  • FIG. 21 is an explanatory diagram for explaining the Sobel operator used in the edge extraction unit shown in FIG.
  • FIG. 22 is an explanatory diagram for explaining the processing outline of the edge extraction unit shown in FIG. 19.
  • FIG. 23 is an explanatory diagram for explaining an outline of polar coordinate conversion processing according to the second embodiment.
  • FIG. 24 is an explanatory diagram for explaining the processing outline of the rotation angle detection unit shown in FIG.
  • FIG. 25 is an explanatory diagram for explaining each region image according to the second embodiment.
  • FIG. 26 is a flowchart of normalized correlation value image positive / negative separation processing according to the second embodiment.
  • FIG. 27 is a flowchart of template image positive / negative separation processing according to the second embodiment.
  • FIG. 28 is a flowchart showing a processing procedure of a positive / negative separated correlation image generation unit according to the second embodiment.
  • FIG. 29 is an explanatory diagram for explaining an image generation procedure corresponding to each region shown in FIG. 25.
  • FIG. 30 is an explanatory diagram for explaining an image mask used in the expansion processing unit according to the second embodiment.
  • FIG. 31 is a flowchart illustrating the processing procedure of the expansion processing unit according to the second embodiment.
  • FIG. 32 is an explanatory diagram for explaining an image generated by the expansion processing unit according to the second embodiment.
  • FIG. 33 is an explanatory diagram for explaining block division of an image used in the collation value calculation unit according to the second embodiment.
  • FIG. 34 is an explanatory diagram for explaining a modification example of the expansion process according to the second embodiment.
  • FIG. 35 is a view for explaining an image mask used in the modified example shown in FIG. 34. It is explanatory drawing of.
  • FIG. 36 is a flowchart showing the processing procedure of the expansion processing unit in the modified example shown in FIG. 34.
  • Embodiments 1 and 2 of an image matching apparatus, an image matching method, and an image matching program according to the present invention will be described in detail.
  • image collation using an orthogonal coordinate system will be described.
  • image collation using a polar coordinate system will be described.
  • FIG. 1 is a functional block diagram illustrating the configuration of the image collating device according to the first embodiment.
  • the image collating apparatus 1 includes an image input unit 10, an image cutout unit 20, an edge extraction unit 30, a matching processing unit 40, a registered image storage unit 50, and a positive / negative separation correlation determination.
  • the positive / negative separation correlation determination unit 100 includes a normal ⁇ correlation value calculation unit 110, a positive / negative separation correlation image generation unit 120, an expansion processing unit 130, and a matching value calculation unit 140. It is equipped with.
  • the image input unit 10 is an input unit for taking in an input image of a coin to be verified, and outputs the input image to the image cutout unit 20. Specifically, the image input unit 10 handles the input image as an aggregate of a predetermined number of pixels. For example, the input image is recognized as a grayscale image having a density value of 256 gradations, and is output to the image cutout unit as a rectangular image of a predetermined size.
  • the image cutout unit 20 acquires the rectangular image from the image input unit 10, and circumscribes the coin image. Only the image within the square area to be cut out is cut out, and the cut out image is output to the edge extracting unit 30.
  • FIG. 2 is an explanatory diagram for explaining the processing outline of the image cutout unit 20.
  • the image cutout unit 20 scans the input image 11 acquired from the image input unit 10 in the horizontal direction, accumulates the density values of all pixels, and generates a horizontal projection 21. Further, the input image 11 is scanned in the vertical direction, and the vertical projection 22 is generated in the same procedure. Then, the image cutout unit 20 scans the horizontal projection 21 and the vertical projection 22 and calculates the rising coordinates and falling coordinates of the accumulated density values. Then, as indicated by the four broken lines in the figure, the region surrounded by the calculated coordinates is cut out as a cutout image 23, and this cutout image 23 is output to the edge extraction unit 30.
  • the edge extraction unit 30 acquires the cut-out image 23 from the image cut-out unit 20, and changes the density (edge strength) of the cut-out image 23 in order to avoid the influence based on individual differences such as brightness and hue of the cut-out image 23. ) Is calculated. In addition, in order to suppress variation in the calculated edge strength, regularity of the edge strength is performed. Specifically, the edge intensity is calculated by performing edge extraction processing using the Sobel operator on the cut image 23, and the calculation result is normalized. In the first embodiment, the Sobel operator is used, but edge extraction can also be performed using the Roberts operator or the like.
  • FIG. 3 is an explanatory diagram for explaining the Sobel operator.
  • the edge extraction unit 30 calculates the edge strength using two Sobel operators, ie, a horizontal edge calculation 30a and a vertical edge calculation 30b. Specifically, the Sobel operators (30a and 30b) are scanned for all the pixels of the cutout image 23, and the horizontal edge calculation result Gx and the vertical edge calculation result Gy are acquired. Then, after calculating the edge strength (G) in each pixel, the strong edge strength is normalized (E).
  • the edge strength (G) in each pixel is expressed as the sum of the absolute value of the horizontal edge calculation result Gx and the absolute value of the vertical edge calculation result Gy.
  • the normal edge strength (E) in each pixel is the product of the constant c and the edge strength (G) for which a predetermined value is set for each type of coin. Divided by the sum of the edge intensities (G) across all pixels.
  • FIG. 4 is an explanatory diagram for explaining the outline of the edge extraction process (image conversion process) performed by the edge extraction unit 30.
  • the cutout image 23 is converted into an edge extracted image 31 by an edge intensity calculation process using a Sobel operator.
  • the edge extracted image 31 is converted into an edge normalized image 32 by an edge intensity normalization process using the equations (1) and (2).
  • the edge extraction unit 30 outputs the edge normal image 32 to the matching processing unit 40.
  • Each pixel value of the edge extraction image 31 shown in the figure takes a value of 0 to 255, for example, 0 corresponds to black, and 255 takes a gray scale value corresponding to white.
  • the white part is the extracted edge part
  • the black part is the background part.
  • each pixel value of the edge normal image 32 takes a value of 0 to 255, for example, 0 corresponds to black and 255 corresponds to a gray scale value corresponding to white.
  • the white portion corresponds to the edge portion and the black portion corresponds to the background, which is the same as the edge extracted image 31.
  • the matching processing unit 40 acquires the edge normal image 32 from the edge extraction unit 30 and stores it in the registered image storage unit 50.
  • the collation processing with the stored template image is performed. Specifically, the template image is rotated by a predetermined angle, and the rotation angle ( ⁇ ) that maximizes the degree of coincidence (M) between the template image and the edge normal image 32 at each rotation angle is acquired.
  • Equation (3) the degree of coincidence ⁇ ( ⁇ ) at each rotation angle ( ⁇ ) is expressed by the density value t ⁇ (X, y) of each pixel of the template image rotated by angle ⁇ and the edge
  • the product of the density value s (X, y) of each pixel of the normalized image 32 is summed over all the pixels.
  • FIG. 5 is an explanatory diagram for explaining an outline of matching determination by the matching processing unit 40.
  • the value of ⁇ ( ⁇ ) is a mountain-shaped graph having the maximum value at a certain rotation angle.
  • the matching processing unit 40 obtains the value of ⁇ at which ⁇ ( ⁇ ) is the maximum (mountain apex portion), and rotates the template image stored in the registered image storage unit 50 by an angle ⁇ . Then, the edge normal image 32 and the rotated template image are output to the positive / negative separation correlation determination unit 100.
  • FIG. 6 is an explanatory diagram for explaining an image example of the edge regularization processed image and the rotated template image output from the matching processing unit 40 to the positive / negative separation correlation determination unit 100.
  • the figure shows an example of an image when an image of the surface of a 10-yen coin is input to the image collating device 1. That is, when the above-described edge normalization processing is performed on the cut image 24, an edge normal image 33 is generated, and a rotated template image 51 is generated by rotating the template image by the above-described matching processing. .
  • a powerful edge normal image (surface) 33 is used instead of the edge normal image (back surface) 32.
  • the matching processing unit 40 has been described as obtaining the rotation angle that maximizes the degree of matching by rotating the template image, the template image is not rotated and the edge normal image 32 is rotated. By doing so, the rotation angle that maximizes the degree of coincidence may be acquired.
  • the registered image storage unit 50 stores a plurality of template images corresponding to various types of coins that have been registered in advance, and provides these template images to the matching processing unit 40. For this template image, an average image obtained by combining a plurality of images of the same type of coins is used in order to suppress variations due to individual differences in coins.
  • the correlation value between the uneven pattern part unique to each coin, such as the year of manufacture, and the corresponding part of the template image becomes the correlation value for the average image (average value).
  • the influence of becomes out it is possible to prevent a coin from being determined to be a counterfeit coin due to a different year of manufacture despite being a genuine coin.
  • Such a template image is registered in the registration storage unit 50 after being subjected to edge normalization processing in the same manner as the input image in order to collate with an input image subjected to edge normalization processing. Also, in the registration storage unit 50, a plurality of images obtained by performing edge normalization processing on the average images of the front and back surfaces of each denomination are registered.
  • the positive / negative separated correlation determination unit 100 receives from the matching processing unit 40 the edge normalized image 33 (hereinafter referred to as "input image 33”) and the rotated template image 51 (hereinafter referred to as “template image 51” shown in FIG. ”) And collating these images, the collation judgment is made as to whether or not the coin related to the input image 33 is a genuine coin, and the result of judgment is output.
  • input image 33 the edge normalized image 33
  • template image 51 shown in FIG.
  • the normalized correlation value calculation unit 110 calculates a correlation value for each corresponding pixel of the input image 33 and the template image 51, and normalizes the strong correlation value to generate a normal correlation value image. The Specifically, for each pixel whose coordinate value is (X, y), using the density value s (x, y) of the input image 33 and the density value t (X, y) of the template image 51,
  • Equation (4) To calculate the normal correlation value r (x, y) of each pixel. Note that the normal correlation value r (x, y) in each pixel shown in Equation (4) takes a value of 1.0 to +1.0, for example. Also, n in equation (4) indicates the number of pixels.
  • the normalized correlation value calculation unit 110 determines whether the positive normalized correlation value image (r + image) or the negative normalized correlation value image depends on whether the pixel value of the strong normal correlation value image is 0 or more. Separated into correlation value images (r—images). For the template image 51, a positive template image (t + image) and a negative template image (t
  • the pixel value of the r + image takes a value of, for example, 0.0 to 1.0
  • the pixel value of one image takes, for example, 0.0 by taking the absolute value of each pixel value.
  • the pixel values of the t + image and the t ⁇ image take, for example, binary values of 0 or 1. That is, the t + image and the t-one image serve as image masks used for image conversion of each normalized correlation value image.
  • the r + image shows a pixel having a correlation (similarity) between the images to be collated, and if there is a strong correlation, the pixel takes a large value. . Also, the r-image indicates that there is no correlation between the images to be collated (similar), and if there is a strong negative correlation, the pixels that are strong take a large value.
  • the t + image shows the edge portion of the template image, and the edge portion takes a value of 0 for the background portion.
  • the t-image shows the background part (non-edge part) of the template image, the background part is 1, and the edge part force SO is taken.
  • the positive / negative separated correlation image generation unit 120 generates a positive / negative separated correlation image by a combination of r + image, r one image, t + image, and t one image generated by the normalized correlation value calculation unit 110. Specifically, an A + area image from an r + image and a t + image, an A ⁇ area image from an r ⁇ image and a t + image, a B + area image from an r + image and a t ⁇ image, and an r ⁇ image and a t ⁇ image. Each B area image is generated from the image.
  • FIG. 7 is an explanatory diagram for explaining the four areas where power is applied.
  • the A + region image is a region image in which the r + image and the t + image are overlapped, and there is a correlation with the edge portion, that is, the edge should appear. This indicates that an edge has appeared on the roller, and corresponds to the normal feature region image in the claims.
  • the A-region image is a region image in which the r-image and the t + image are overlapped, and indicates that there is no correlation with the edge portion, that is, the edge does not appear where the edge should appear.
  • the B + region image is a region image in which r + image and t one image are overlapped, and shows that there is a correlation with the background part, that is, no edge appears where the edge should not appear, This corresponds to the normal background region image in the claims.
  • the B-region image is an overlapping region image of r-images and t-images, and has no correlation with the background part, that is, it should have an edge! An edge comes out! / Wow! /, which corresponds to the negative background region image in the claims.
  • the dilation processing unit 130 moves the pixels of the A ⁇ region image to the A + region image and moves the pixels of the B ⁇ region image to the B + region image using a predetermined image mask.
  • the reason why the powerful expansion process is performed is that an isolated point having a negative correlation value in the noise state appears in the normal correlation value. In other words, by performing a powerful expansion process, it is possible to suppress the influence of a powerful isolated point from affecting the judgment result of the collation value.
  • the matching value calculation unit 140 divides each of the A + area image, the A ⁇ area image, the B + area image, and the B ⁇ area image into 16 blocks, for example, 4 in the horizontal direction and 4 in the vertical direction.
  • the optimal solution is obtained by linear discriminant analysis using The block values A +, A-, B +, and B- of each area image indicate the sum of the pixel values in each block.
  • the collation value calculation unit 140 collates and determines that the coin related to the input image 33 is a genuine coin if the collation value (Z) is equal to or greater than the threshold, and is a forged coin if the coin is smaller than the threshold.
  • the collation value calculation unit 140 collates and determines that the coin related to the input image 33 is a genuine coin if the collation value (Z) is equal to or greater than the threshold, and is a forged coin if the coin is smaller than the threshold.
  • FIG. 8 is a flowchart of the normal / negative correlation value positive / negative separation process
  • FIG. 11 is an explanatory diagram for explaining an image generation procedure in the positive / negative separation correlation determination unit 100.
  • the normalized correlation value calculation unit 110 first generates a normal correlation value image 111 from the input image 33 and the template image 51. Then, the generated normalized correlation value image 111 is used as an input to perform normality ⁇ correlation value positive / negative separation processing, and this normality ⁇ correlation value image 111 is converted into a positive correlation value image r + image 11 la and a negative value. Separated into r-image 11 lb which is a correlation value image.
  • the process moves to the start point pixel of the normalized correlation value image 111 (step S501).
  • the normality correlation value r (x, y) of the active pixel is calculated using Equation (4) (step S502), and if the calculated r (x, y) is 0 or more (step S503 positive) Constant), the pixel value to be applied is set to the pixel value of the same coordinate of the r + image 11 la (step S504).
  • step S503 the absolute value of the pixel value of the pixel to be used is set as the pixel value of the same coordinate of r 1 image 11 lb (step S505).
  • step S506 If the positive / negative separation processing has not yet been completed for all the pixels of the normalized correlation value image 111 (No in step S506), the process moves to the next pixel of interest (step S507), and step S502. The following process is repeated. On the other hand, when the positive / negative separation processing has been completed for all the pixels (Yes at step S506), the processing ends.
  • the r + image 111a and the r-one image 111b are generated as images having pixels having pixel values of 0.0 to 1.0 by the normal normal correlation value positive / negative separation process.
  • the pixel value of the pixel of the r-image 111b is described as taking a pixel value of 0.0 to 1.0.
  • the pixel value to be applied is -1.0 to 0.0. You can also take the value! / ⁇ .
  • FIG. Figure 9 shows the flowchart of template image positive / negative separation processing. It is As shown in FIG. 11, in the template image positive / negative separation process, the template image 51 is separated into a positive template image t + image 5 la and a negative template image t image 5 lb. .
  • the template image 51 is moved to the start point pixel (step S601).
  • T a predetermined threshold
  • step S602 If (Yes in step S602), the pixel value of the same coordinate of the t + image 51a is set to 1 (step S603). On the other hand, if the strong concentration value is smaller than the predetermined threshold (T) (No in step S602), t
  • Step S605 If the positive / negative separation processing has not yet been completed for all the pixels of the template image 51 (No at Step S605), the process moves to the next pixel of interest (Step S606), and the processing from Step S602 is performed. repeat. On the other hand, when the positive / negative separation process is completed for all the pixels (Yes in step S605), the process is terminated.
  • t + image 51a is generated as a binary image with an edge portion of 1 and a background portion of
  • t—image 5 lb is a binary image with an edge portion of 0 and a background portion of 1. It is generated as
  • Figure 10 is a flowchart of the positive / negative separated correlation image generation process.
  • the r + image ll la, r one image ll lb, t + image 51a and t ⁇ image generated by the normalized correlation value calculation unit 110 Using 51b as an input image, an A + region image 121, an A ⁇ region image 122, a B + region image 123, and a B region image 124 are generated.
  • step S701 when the r + image 11 la and the t + image 51a are used as input images, as shown in FIG. 10, first, the image is moved to the start point pixel of each image (step S701). Then, if the pixel value of the t + image 5 la at the applied pixel is 1 (Yes at step S702), the pixel value of the A + region image 121 3 ⁇ 4 ⁇ + the pixel value of the image 111 & (step 3703). On the other hand, if the pixel value of t + image 51a is not 1 at the active pixel (i.e. If (Yes in step S702), the pixel value of the A + area image 121 is set to 0 (step S704).
  • Step S705 If the region image generation processing has not been completed for all pixels (No at Step S705), the process moves to the next pixel of interest (Step S706), and the processing from Step S702 is repeated. On the other hand, when the region image generation processing has been completed for all the pixels (Yes in step S705), the A + region image 121 is generated, and the processing ends.
  • FIG. 12 is an explanatory diagram for explaining an image mask used in the dilation process
  • FIG. 13 is a flowchart of the dilation process
  • FIG. 14 is an explanation for explaining an image generated by the dilation process.
  • noise-like isolated points (pixels) included in the negative region images (A—region image 122 and B—region image 124) are converted into positive region images (A + region image 121). And move to the B + area image 123). By performing such processing, the accuracy of the matching value can be increased.
  • each image mask has P5 and M5 and eight regions surrounding these regions.
  • M5 of the negative region image mask 130b is aligned with the target pixel of the A region image 122, and P5 of the positive region image mask 130a is the target pixel.
  • P5 of the positive region image mask 130a is the target pixel.
  • the pixel value of M5 and the pixel values of P1 to P9 are sequentially compared to perform expansion processing.
  • n is set to P. That is, when step S802 is completed, the target area of the normal area image mask 130a is P1.
  • the value of Pn is compared with the value of M5. If the value of P1 is greater than the value of M5 (Yes at step S803), the value of P5 is replaced with M5 and the value of M5 is set to 0. Set (Step S805). That is, the M5 pixel is moved to the P5 pixel. On the other hand, if the value of Pn is less than or equal to the value of M5 (No in step S803), 1 is added to the value of n (step S804), and if the value of n is 9 or less (No in step S806) ) Repeat step 803.
  • Step S807 If all the pixels in the A-region image 122 have not been processed (No at Step S807), the process moves to the next pixel of interest (Step S808), and the processing after Step S802 is performed. To do. On the other hand, when the processing is completed for all the pixels in the A-region image 122 (Yes in step S807), the powerful expansion processing is terminated.
  • the A + region image 121, the A—region image 122, the B + region image 123, and the B—region image 124 are respectively expanded by a powerful expansion process.
  • the image is converted into an expanded A—region image 132, an expanded B + region image 133, and an expanded B—region image 134. Since the isolated point on the A ⁇ region image 122 moves to the A + region image 121, the edge portion of the expanded A + region image 131 has an area larger than that of the A + region image 121. On the other hand, the area of the edge portion of the expanded A-region image 132 is smaller than that of the A-region image 122.
  • FIG. 15 is an explanatory diagram for explaining block division of the expanded region images (131 to 134).
  • the collation value calculation processing unit 140 first divides each expanded area image (131 to 134) into four blocks in the horizontal direction and four blocks in the vertical direction, for a total of 16 blocks.
  • An image block 141, an A-region image block 142, a B + region image block 143, and a B-region image block 144 are generated.
  • collation calculation section 140 calculates collation value (Z) using equation (5).
  • an optimal solution is obtained by linear discriminant analysis using a learning sample.
  • the matching value calculation unit 140 calculates the matching value (Z) using the coefficients a, b, c, and d for which the optimum value is set, and each of the image blocks (141 to 144).
  • the collation value is equal to or greater than the threshold value, it is determined to be a genuine coin, and when it is smaller than the threshold value, it is determined to be a forged coin.
  • the number of blocks may be any number.
  • the matching value (Z) can be calculated only from 41 and the A—region image block 142. If the coefficients a and b are set to 0, only the force of the B + region image block 143 and the B ⁇ region image block 144 can also calculate the collation value (Z).
  • the collation calculation unit 140 performs image collation efficiently by adjusting the number of image blocks and the values of the coefficients of Equation (5) according to the type of coin and the capability of the nodeware. Can be.
  • the collation calculation unit 140 is configured to calculate the collation value (Z) by the equation (5) after dividing each region image into blocks.
  • This method can also be configured to perform the collation determination.
  • other methods such as a multi-layer network, a support vector machine, and a secondary discriminant function may be used.
  • FIG. 16 is an explanatory diagram for explaining an image generation procedure by a powerful expansion process
  • FIG. 17 is an explanatory diagram for explaining an image mask used for the powerful expansion process
  • FIG. It is a flowchart of a process.
  • a negative region image For example, the A-region image 122 force also moved the pixel to a positive region image (eg, A + region image 121).
  • powerful expansion processing can be performed using the normalized correlation value image 111 before positive / negative separation and the template image 51 before positive / negative separation.
  • the normalized correlation value calculation unit 110 first generates a normal correlation value image 111 from the input image 33 and the template image 51. Then, intensifying expansion processing is performed by using the generated normality correlation value image 111 as an input, and an expanded normality correlation value image 135 is generated.
  • the expanded normality correlation value image 135 is separated into an expanded r + image 135a and an expanded r ⁇ image 135b.
  • the expanded r + image 135a, the expanded r ⁇ image 135b, the t + image 51a, and the t ⁇ image 51b are input, and the processing of the positive / negative separated correlation value image generation unit 120 is performed, and the expanded A + region image 131, Inflated A—region image 132, inflated B + region image 133, and inflated B—region image 134 are output.
  • each image mask has S5 and T5 and eight regions surrounding these regions.
  • S5 of the input image mask 13 Oc is matched with the target pixel of the normalized correlation value image
  • T5 of the template image mask 130d is set. To the pixel corresponding to the target pixel. Then, the pixel values in the areas S1 to S9 and T1 to T9 are referred to and compared to perform expansion processing.
  • step S901 A processing procedure of a powerful expansion process will be described with reference to FIG. First, it moves to the start point pixel of each image (111 and 51) (step S901).
  • step S905 It is determined whether or not it is greater than or equal to 0 (step S905). If the value of Sn is greater than or equal to 0 (Yes at step S905), the effective value of Sn is compared with the absolute value of S5 (step S906). And Sn If the value of is greater than the absolute value of S5 (Yes at step S906), the value of Sn is replaced with the absolute value of S5 (step S907).
  • Step S910 If there is a region (Sn) where the value is greater than or equal to 0 and the Sn value is greater than the absolute value of S5, it is determined that the pixel of S5 that is strong is an isolated point, and the value of S5 Inverts the value of S5 with the absolute value. If the dilation processing has not been completed for all the pixels of the normal correlation value image 111 (No at Step S910), the process moves to the target pixel (Step S911), and the processing from Step S902 is repeated. On the other hand, when the expansion process has been completed for all the pixels (Yes at step S910), the powerful expansion process is ended.
  • step S905 if Sn is less than or equal to the absolute value of S5 (No in step S906), 1 is added to n (step S908), and if n is 9 or less (step S909) (No), the process from step S904 is repeated. On the other hand, if n is greater than 9 (Yes at step S909), the process of step S910 is performed.
  • the expanded region images (131 to 134) can be acquired.
  • the normality correlation value image 111 before the positive / negative separation is used, the number of images to be subjected to the expansion process is reduced as compared with the expansion process after the generation of the region images (121 to 124). Therefore, a more efficient expansion process can be performed.
  • an input image that has been subjected to feature extraction by performing edge extraction processing and edge normalization processing and
  • the template image that has been subjected to the forced edge normalization process is collated to generate a normalized correlation value image, and the normalized correlation value image and the template image are determined based on whether the pixel value in each image is equal to or greater than a threshold value.
  • positive image and negative template image positive template image and negative template image
  • positive feature area image A negative feature region image, a positive background region image and a negative background region image are generated, and further, the pixel is moved from the negative feature region image to the positive feature region image, and the negative feature region image From scene area image Dilation processing is performed to move the pixels to the positive feature area image, and these dilation processing area images are divided into blocks and collation judgment is performed by calculating collation values by linear discriminant analysis etc. Therefore, all pixels of the input image and template image are targeted for collation, and the correlation value of not only the feature area but also the background area is matched to the collation value while eliminating the influence of isolated points due to correlation value calculation. Since it can be reflected, it is possible to perform image collation with high accuracy and improve the image collation rate.
  • the image collation is performed on the input image of the coin.
  • the present invention is not limited to this.
  • the image collation of banknotes or FA (Factory Automation ) Etc. it can also be applied to image verification of parts and products.
  • FIG. 19 is a functional block diagram of the configuration of the image collating device according to the second embodiment.
  • the image collating apparatus 201 includes an image input unit 210, an image cutout unit 220, an edge extraction unit 230, a matching processing unit 240, a registered image storage unit 250, and a positive / negative separation.
  • the correlation determination unit 300 includes a powerful matching processing unit 240, a polar coordinate conversion unit 240a, a rotation angle detection unit 240b, and a front / back determination unit 240c.
  • the powerful positive / negative separation correlation determination unit 300 includes The normalized correlation value calculation unit 310, the positive / negative separated correlation image generation unit 320, the expansion processing unit 330, and the matching value calculation unit 340 are provided.
  • the image input unit 210 is an input unit for taking an input image of a coin to be collated into the apparatus, and outputs the input image to the image cutout unit 220. Specifically, the image input unit 210 handles the input image as an aggregate of a predetermined number of pixels. For example, the input image is recognized as a grayscale image having a density value of 256 gradations, and is output to the image cutout unit as a rectangular image having a predetermined size.
  • the image cutout unit 220 acquires a rectangular image that is powerful from the image input unit 210, and outputs it to the coin image. Only the image within the square area in contact is cut out, and the cut out image is output to the edge extraction unit 230.
  • FIG. 20 is an explanatory diagram for explaining the processing outline of the image cutout unit 220.
  • the image cutout unit 220 scans the input image 211 acquired from the image input unit 210 in the horizontal direction, accumulates the density values of all pixels, and generates a horizontal projection 221. Further, the input image 211 is scanned in the vertical direction, and the vertical projection 222 is generated in the same procedure. Then, the image cutout unit 220 scans the horizontal direction projection 221 and the vertical direction projection 222, and calculates rising coordinates and falling coordinates of the accumulated density value. Then, as indicated by the four broken lines in the figure, the region surrounded by the calculated coordinates is cut out as a cutout image 223, and this cutout image 223 is output to the edge extraction unit 230.
  • the edge extraction unit 230 acquires the cutout image 223 from the image cutout unit 220, and in order to avoid the influence based on individual differences such as brightness and color of the cutout image 223, the density change ( Edge strength) is calculated. In addition, in order to suppress variation in the calculated edge strength, regularity of the edge strength is performed. Specifically, the edge strength is calculated by performing edge extraction processing using the Sobel operator on the cut image 223, and the calculation result is normalized. In the second embodiment, the Sobel operator is used, but edge extraction can also be performed using the Roberts operator or the like.
  • FIG. 21 is an explanatory diagram for explaining the Sobel operator.
  • the edge extraction unit 230 calculates the edge strength using two Sobel operators, a horizontal edge calculation 230a and a vertical edge calculation 230b. Specifically, the Sobel operators (230a and 230b) are scanned for all the pixels of the cutout image 223, and the horizontal edge calculation result Gx and the vertical edge calculation result Gy are acquired. Then, after calculating the edge strength (G) in each pixel, the strong edge strength is normalized (E).
  • the edge strength (G) in each pixel is expressed as the sum of the absolute value of the horizontal edge calculation result Gx and the absolute value of the vertical edge calculation result Gy.
  • the normal edge strength (E) in each pixel is the product of the constant c and the edge strength (G) for which a predetermined value is set for each type of coin. Divided by the sum of the edge intensities (G) across all pixels.
  • FIG. 22 is an explanatory diagram for explaining the outline of the edge extraction process (image conversion process) performed by the edge extraction unit 230.
  • the cut image 223 is converted into an edge extracted image 231 by an edge strength calculation process using a Sobel operator.
  • the edge extraction image 231 is image-converted into an edge normal image 232 by edge strength normalization processing using Expression (6) and Expression (7).
  • the edge extraction unit 230 outputs the edge normalized image 232 to the matching processing unit 240.
  • Each pixel value of the edge extraction image 231 shown in the figure takes a value of 0 to 255, for example, 0 corresponds to black, and 255 takes a gray scale value corresponding to white.
  • the white part is the extracted edge part
  • the black part is the background part.
  • each pixel value of the edge normal image 232 takes a value of 0 to 255, for example, 0 corresponds to black and 255 corresponds to a gray scale value corresponding to white.
  • the white portion corresponds to the edge portion and the black portion corresponds to the background, which is the same as the edge extraction image 231.
  • the matching processing unit 240 acquires the edge normal image 232 from the edge extraction unit 230, and the registered image storage unit The template image obtained by converting the edge normality and the polar coordinate from 250 is acquired. Then, the edge normal image 232 is converted into a polar coordinate, and the deviation angle between the polar coordinate-converted image and the template image is detected by the parallel movement of the template image, and the front and back are determined to determine the edge. The normal image 232 and the offset angle corrected template image are output to the positive / negative separation correlation determination unit 300.
  • the shift angle is detected by translating the template image. However, the shift angle is detected by translating an image obtained by converting the edge normal image 232 into polar coordinates. It is good to do.
  • the polar coordinate conversion unit 240a is a processing unit that converts the edge normal image 232 into polar coordinates.
  • the center point of the edge normal image 232 is calculated, and this center point is set as the origin of polar coordinates. Then, each pixel is identified by the rotation angle ⁇ and the distance p from the center point, and each pixel is moved to the P- ⁇ space to perform polar coordinate transformation. For such conversion,
  • FIG. 23 is an explanatory diagram for explaining an outline of processing of powerful polar coordinate conversion.
  • the center point of the X—y space (edge normal image 232) is the origin and the coordinates of each pixel are represented by (X, y)
  • the power X and y and the above-mentioned p and ⁇ are It has the relationship shown in (8) and Equation (9). Therefore, by converting each pixel (X, y) in the edge normal image 232 into (P, ⁇ ) that satisfies the relationship of Equations (8) and (9), the polar coordinate converter 240 a A replaced edge normalized image 233 is generated.
  • the distance p from the center point is 10 to: LOO, and the rotation angle ⁇ is a force in the range of 0 to 255.
  • the range of these values Can be set arbitrarily.
  • Rotation angle detector 240b Performs a process of detecting a deviation angle between the polar coordinate-converted edge normalized image 233 and a template image that has been previously subjected to polar coordinate conversion by a similar polar coordinate conversion process, and correcting the deviation angle between the two images.
  • FIG. 24 is an explanatory diagram for explaining an outline of processing of the rotation angle detection unit 240b.
  • the template image 251 is moved in parallel with the ⁇ coordinate axis in the ⁇ space. Then, the degree of coincidence ⁇ ( ⁇ ) between the shift angle ( ⁇ ) in the ⁇ coordinate direction and the template image 251 and the edge normal image 232 at each shift angle ( ⁇ ) is calculated. Get the maximum rotation angle ⁇ . The degree of coincidence ⁇ ( ⁇ ) is
  • the degree of coincidence ⁇ ( ⁇ ) at each shift angle ( ⁇ ) is the density value t (k of each pixel of the template image 251 when the template image 251 is shifted by ⁇ . , 0 ⁇ ) and the density value s (k, ⁇ ) of each pixel of the edge normal image 232 is the sum of each pixel.
  • k is a selected value that selects a feature-prone distance from the distance P from the center point in the edge normal image 232.
  • such k is selected by extracting 16 values that are prone to feature out of p (0 to L00) in the polar coordinate-converted edge normal image 233 shown in FIG.
  • the value of force ⁇ ( ⁇ ) is a mountain-shaped graph having a maximum value at a certain rotation angle, as shown in FIG.
  • the rotation angle detector 240b obtains the value of ⁇ at which ⁇ ⁇ ⁇ ( ⁇ ) is maximum (the peak portion of the mountain shape). As described above, the rotation angle detection unit 240b performs the polar coordinate conversion of p max
  • the amount of calculation can be reduced compared to the method of correcting the shift angle by rotating the XY image.
  • the front / back determination unit 240c maximizes the degree of coincidence M ( ⁇ ) described above between the polar template-converted front and back template images and the polar coordinate-converted edge normal image 233. Value M ( ⁇ ) And obtain the normal correlation coefficient R from this ⁇ ( ⁇ ). Specifically, this regularity ⁇ max
  • N in equation (11) indicates the number of pixels to be determined.
  • the powerful front / back determination unit 240c selects the template image with the larger normal correlation coefficient R, and outputs it to the positive / negative separation correlation determination unit 300 together with the polar coordinate-converted edge normal correlation image 233.
  • the normal correlation coefficient R between the back template image and the polar-transformed edge normal image 230 is more normal than the front template image and the polar-transformed edge normal image 233.
  • the back side template image and the polar coordinate converted edge normal image 233 are output to the positive / negative separation correlation determination unit 300.
  • the template image output to the positive / negative separated correlation determination unit 300 is a template image in which the shift angle from the polar coordinate-converted edge normal image 233 is corrected by parallel max movement by an angle ⁇ .
  • the registered image storage unit 250 stores a plurality of template images corresponding to various types of coins that have been registered in advance, and provides these template images to the matching processing unit 240.
  • a template image For such a template image, an average image obtained by combining a plurality of images of the same type of coins is used in order to suppress variations due to individual differences in coins.
  • the correlation value between the uneven pattern part unique to each coin such as the year of manufacture and the corresponding part of the template image becomes the correlation value for the average image (average value). The influence of becomes out. In other words, it is possible to prevent a coin from being determined to be a counterfeit coin due to a different year of manufacture even though it is a genuine coin.
  • the template image is subjected to polar coordinate conversion processing and edge normalization processing in the same manner as the input image in order to collate with an input image subjected to polar coordinate conversion processing and edge normalization processing.
  • Registered in Part 250 In the registered image storage unit 250, a plurality of front and back template images of each denomination are registered.
  • the positive / negative separation correlation determination unit 300 receives from the matching processing unit 240 a polar coordinate-converted edge normalized image 233 (hereinafter referred to as “input image 233”) shown in FIG. (Hereinafter referred to as “template image 251”) and collating these images to collate / determine whether or not the coin related to the input image 233 is a genuine coin, and output the judgment result.
  • input image 233 polar coordinate-converted edge normalized image 233
  • template image 251 polar coordinate-converted edge normalized image 233
  • the normality correlation value calculation unit 310 calculates the correlation value for each corresponding pixel of the input image 233 and the template image 251, and normalizes the strong correlation value to generate the normality correlation value image. Generate. Specifically, for each pixel whose coordinate value is (k, ⁇ ), the density value s (k, 0) of the input image 233 and the density value t (k, ⁇ - ⁇ ) of the template image 251 corrected for the shift angle Using
  • the normality correlation value calculation unit 310 determines whether the positive normalization correlation value image (r + image) and the negative normality correlation value depend on whether the pixel value of the strong normality correlation value image is 0 or more. ⁇ Separated into correlation value image (r— image). For template image 251, a positive template image (t + image) and a negative template image t depend on whether each pixel value is equal to or greater than a predetermined threshold value (T).
  • the pixel value of the r + image takes a value of, for example, 0.0 to 1.0
  • the pixel value of one image takes, for example, 0.0 by taking the absolute value of each pixel value. Takes a value of ⁇ 1.0.
  • the pixel values of the t + image and the t ⁇ image take a binary value of 0 or 1, for example. That is, the t + image and the t-one image serve as image masks used for image conversion of each normalized correlation value image.
  • the r + image shows a pixel that is correlated (similar) between the images to be collated, and if there is a strong correlation, the pixel takes a large value. . Also, the r-image indicates that there is no correlation between the images to be collated (similar), and if there is a strong negative correlation, the pixels that are strong take a large value.
  • the t + image shows the edge portion of the template image, and the edge portion takes a value of 0 for the background portion.
  • the t-image shows the background part (non-edge part) of the template image, the background part is 1, and the edge part force SO is taken.
  • the positive / negative separated correlation image generation unit 320 generates a positive / negative separated correlation image by a combination of r + image, r one image, t + image, and t one image generated by the normality correlation value calculation unit 310. Specifically, an A + area image from an r + image and a t + image, an A ⁇ area image from an r ⁇ image and a t + image, a B + area image from an r + image and a t ⁇ image, and an r ⁇ image and a t ⁇ image. A B-region image is generated from each image.
  • FIG. 25 is an explanatory diagram for explaining the four areas where power is applied.
  • the A + region image is a region image in which the r + image and the t + image are overlapped, and there is a correlation with the edge portion, that is, the edge appears when the edge should appear. This corresponds to the normal feature region image in the claims.
  • the A-region image is a region image in which the r-image and the t + image are overlapped, and indicates that there is no correlation with the edge portion, that is, the edge does not appear where the edge should appear.
  • the B + region image is a region image in which r + image and t one image are overlapped, and shows that there is a correlation with the background part, that is, no edge appears where the edge should not appear, This corresponds to the normal background region image in the claims.
  • the B-region image is a region image in which r-images and t-images are overlapped, and has no correlation with the background part, that is, the edges are to appear. It's a time! An edge comes out! / Wow! /, which corresponds to the negative background region image in the claims.
  • the expansion processing unit 330 moves the pixels of the A ⁇ region image to the A + region image and moves the pixels of the B ⁇ region image to the B + region image using a predetermined image mask.
  • the reason why the powerful expansion process is performed is that an isolated point having a negative correlation value in the noise state appears in the normal correlation value. In other words, by performing a powerful expansion process, it is possible to suppress the influence of a powerful isolated point from affecting the judgment result of the collation value.
  • the collation value calculation unit 340 divides each of the A + area image, the A ⁇ area image, the B + area image, and the B ⁇ area image into 64 blocks, for example, 16 in the horizontal direction and 4 in the vertical direction.
  • the optimal solution is obtained by linear discriminant analysis using The block values A +, A-, B +, and B- of each area image indicate the sum of the pixel values in each block.
  • the collation value calculation unit 340 determines that the coin according to the input image 233 is a genuine coin if the collation value (Z) is equal to or greater than the threshold, and determines that the coin is a forged coin if the coin is smaller than the threshold. After the judgment, the verification result is output.
  • FIG. 26 is a flowchart of normal correlation value positive / negative separation processing
  • FIG. 29 is an explanatory diagram for explaining an image generation procedure in the positive / negative separation correlation determination unit 300.
  • normal ⁇ correlation value calculation section 310 first generates normal ⁇ correlation value image 311 from input image 233 and template image 251. And the generated normalization phase The normal value 11 correlation value positive / negative separation processing is performed with the correlation value image 311 as an input, and the normal value ⁇ correlation value image 311 is divided into the positive correlation value image r + image 31 la and the negative correlation value image r. Separate one image into 3 l ib.
  • step S1501 the pixel moves to the start point pixel of the normalized correlation value image 311 (step S1501).
  • the normalized correlation value r (k, 0) of the active pixel is calculated using equation (12) (step S1502). If the calculated r (k, 0) is 0 or more (step SI 5 03 (Yes), the pixel value to be applied is set to the pixel value of the same coordinate of the r + image 311a (step S1504).
  • Step S1503 the absolute value of the pixel value of the pixel to be used is set as the pixel value of the same coordinate of the r image 31 lb (Step S1505).
  • step S1506 If the positive / negative separation processing has not yet been completed for all the pixels of the normalized correlation value image 311 (No in step S1506), the process moves to the next pixel of interest (step S1 507), and the step S1502 and subsequent processes are repeated. On the other hand, when the positive / negative separation processing is completed for all the pixels (Yes at step S1506), the processing is terminated.
  • the normal normal correlation value positive / negative separation process the r + image 311a and the r ⁇ image 311b are generated as images having pixels having pixel values of 0.0 to 1.0.
  • the pixel value of the pixel of the r—image 31 lb is assumed to take a pixel value of 0.0 to 1.0.
  • the pixel value to be applied is ⁇ 1.0 to 0 You can also take a value of 0! /.
  • FIG. FIG. 27 is a flowchart of the template image positive / negative separation process. As shown in FIG. 29, in the template image positive / negative separation processing, the template image 251 is separated into a positive template image t + image 251a and a negative template image t one image 25 lb. Do it.
  • the template image 251 is moved to the start point pixel (step S1601).
  • step S1602 If there is (Yes in step S1602), the pixel value of the same coordinate in the t + image 251a is set to 1 (step S1603). On the other hand, if the strong concentration value is smaller than the predetermined threshold (T) (step S1602
  • t-pixel value of the same coordinate of image 25 lb is set to 1 (step S 1604).
  • step S1605 If the positive / negative separation processing has not yet been completed for all the pixels of the template image 251 (No in step S1605), the process moves to the next pixel of interest (step S1606), Repeat the process. On the other hand, when the positive / negative separation processing is completed for all the pixels (Yes at step S1605), the processing is terminated.
  • t + image 251a is generated as a binary image with an edge portion of 1 and a background portion of 0
  • t—image 25 lb is a binary image with an edge portion of 0 and a background portion of 1. It is generated as
  • FIG. 28 is a flowchart of the positive / negative separated correlation image generation processing.
  • the r + image 311a, the r one image 311b, the t + image 251a, and the t image 251b generated by the normalized correlation value calculation unit 310 are used.
  • An A + region image 321, an A ⁇ region image 322, a B + region image 323, and a B ⁇ region image 324 are generated as input images.
  • the image is moved to the start point pixel of each image (step S1701). If the pixel value of t + image 25 la at such a pixel is 1 (Yes at step S 1702), the pixel value of A + region image 321 3 ⁇ 4 ⁇ + the pixel value of image 31 la (step S 1703) o On the other hand, when the pixel value of the t + image 251a at the active pixel is not 1 (that is, 0) (No in step S1702), the pixel value of the A + region image 321 is set to 0 (step S1704). .
  • step S1705 If the region image generation processing has not been completed for all pixels (No in step S1705), the process moves to the next pixel of interest (step S1706), and the processing from step S1702 onward is performed. repeat. On the other hand, if the region image generation processing is completed for all pixels (Yes at step S1705), the A + region image 321 is generated, and the processing ends.
  • FIG. 30 is an explanatory diagram for explaining an image mask used in the dilation process
  • FIG. 31 is a flowchart of the dilation process
  • FIG. 32 is an explanation for explaining an image generated by the dilation process.
  • noise-like isolated points (pixels) contained in the negative region images (A—region image 322 and B—region image 324) are converted into positive region images (A + region image 321). And move to the B + area image 323).
  • the accuracy of the matching value can be increased.
  • two image masks of a positive area image mask 330a and a negative area image mask 330b are used in a powerful expansion process.
  • Each image mask has P5 and M5 and eight regions surrounding these regions. For example, when dilating from the A-region image 322 to the A + region image 321, M5 of the negative region image mask 330b is aligned with the target pixel of the A region image 322, and P5 of the positive region image mask 330a is the target pixel. Set to the pixel corresponding to. Then, the pixel value of M5 and the pixel values of P1 to P9 are sequentially compared to perform expansion processing.
  • step S1801 An example of performing the expansion process from the A-region image 322 to the A + region image 321 will be described with reference to FIG. First, it moves to the start pixel of each image (321 and 322) (step S1801).
  • 1 is set to n in order to sequentially switch the nine regions (P1 to P9) of the primary region mask 330a (step S1802). That is, when step S1802 is completed, the target area of the normal area image mask 330a is P1.
  • the value of Pn is compared with the value of M5. If the value of P1 is larger than the value of M5 (Yes at step S 1803), the value of P5 is replaced with M5 and the value of M5 is set to 0. (Step S 18 05). That is, the M5 pixel is moved to the P5 pixel. On the other hand, if the value of Pn is less than or equal to the value of M5 (No at step S1803), 1 is added to the value of n (step S1804), and n If the value of is less than 9 (No at step S1806), repeat step S1803.
  • step S1807 If the processing has not been completed for all the pixels in the A-region image 322 (No in step S1807), the process moves to the next pixel of interest (step S1808), and after step S1 802 Perform processing. On the other hand, when the processing is completed for all the pixels in the A-region image 322 (Yes in step S1807), the powerful expansion processing is terminated.
  • the A + region image 321, the A—region image 322, the B + region image 323, and the B—region image 324 are respectively expanded by a powerful expansion process.
  • the image is converted into an expanded A—region image 332, an expanded B + region image 333, and an expanded B—region image 334.
  • the isolated point on the A ⁇ region image 322 moves to the A + region image 321, so that the area of the edge portion of the expanded A + region image 331 is larger than that of the A + region image 321.
  • the edge portion of the expanded A—region image 132 has a smaller area than the A—region image 322.
  • FIG. 33 is an explanatory diagram for explaining an example of block division of the expanded A + region image 331 with respect to block division of the expanded region image (331 to 334).
  • the collation value calculation processing unit 340 first divides the expanded A + region image 331 into 64 blocks of 16 in the horizontal direction and 4 in the vertical direction. Similarly, the block division is performed for the expanded A—region image 332, the expanded B + region image 333, and the expanded B—region image 334.
  • collation value calculation section 340 calculates collation value (Z) using equation (13).
  • an optimal solution is obtained by linear discriminant analysis using a learning sample. Specifically, there are coins that are likely to have an edge and coins that are difficult to eject due to the difference in the design of the uneven pattern of the coins, so these coefficients take different values for each type of coin. By optimizing these coefficients with the learning sample, accurate image matching can be performed.
  • the matching value calculation unit 340 calculates the matching value (z) using the coefficients a, b, c, and d for which the optimum value is set and each image block, and the matching value is a threshold value. If it is above, it is determined to be a genuine coin, and if it is smaller than the threshold, it is determined to be a forged coin.
  • the number of force blocks described for the case where each image is divided into 64 blocks can be any number.
  • the collation value calculation unit 340 efficiently performs image collation by adjusting the number of image blocks and the values of the coefficients of Equation (13) according to the type of coin and the capability of the nodeware. Can be performed.
  • the collation value calculation unit 340 is configured to calculate the collation value (Z) according to the equation (13) after dividing each region image into blocks.
  • other methods such as multilayer-eural network, support vector machine, secondary discriminant function may be used.
  • FIG. 34 is an explanatory diagram for explaining an image generation procedure by powerful expansion processing
  • FIG. 35 is an explanatory diagram for explaining an image mask used for powerful expansion processing
  • FIG. It is a flowchart of a process.
  • a negative region image for example, A-region image 322
  • a positive region image for example, A + region image 321.
  • powerful expansion processing can be performed using the normalized correlation value image 311 before positive / negative separation and the template image 251 before positive / negative separation.
  • normal y correlation value calculation section 310 first generates normal y correlation value image 311 from input image 233 and template image 251.
  • the powerful expansion process performs the expansion process using the generated normal correlation image 311 as an input, A correlation value image 335 is generated.
  • This expanded normal correlation image 335 is separated into an expanded r + image 335a and an expanded r ⁇ image 335b.
  • the input of the expanded r + image 335a, the expanded r ⁇ image 335b, the t + image 251a, and the t ⁇ image 251b is processed by the positive / negative separated correlation value image generation unit 320, and the expanded A + region image 33 1.
  • Expanded A—region image 332, expanded B + region image 333 and expanded B—region image 334 are output.
  • each image mask has S5 and T5 and eight regions surrounding these regions.
  • the S5 of the input image mask 33 Oc is matched with the target pixel of the normalized correlation value image, and the T5 of the template image mask 330d To the pixel corresponding to the target pixel.
  • the pixel values in the areas S1 to S9 and T1 to T9 are referred to and compared to perform expansion processing.
  • a processing procedure of a powerful expansion process will be described with reference to FIG. First, it moves to the start point pixel of each image (311 and 251) (step S1901).
  • the nine regions (S1 to S9) of the input image mask 330c and the template image mask In order to sequentially switch the nine regions 330T (T1 to T9) of 330d, ⁇ is set to 1 (step S 1903).
  • step SI 905 It is determined whether or not the force is greater than or equal to the force SO (step SI 905). If the Sn value is greater than or equal to 0 (Yes at step S1905), the force Sn value is compared with the absolute value of S5 (step S1906). ). If the value of Sn is larger than the absolute value of S5 (Yes at step S1906), the value of Sn is replaced with the absolute value of S5 (step S1907).
  • Step S 1902 If there is a region (Sn) where the value is greater than or equal to 0 and the Sn value is greater than the absolute value of S5, it is determined that the pixel of S5 that is strong is an isolated point, and the value of S5 Inverts the value of S5 with the absolute value. Then, dilation processing is performed on all the pixels of the normality correlation value image 311. If it is not finished! / No (No at Step S 1910), it moves to the target pixel (Step S 1911), and repeats the processing after Step S 1902. On the other hand, when the expansion process is completed for all the pixels (Yes in step S1910), the powerful expansion process is terminated.
  • step S1906 If the value of Sn is less than or equal to the absolute value of S5 (No in step S1906), 1 is added to n (step S1908), and if n is 9 or less (No at step S1909), the process from step S1904 is repeated. On the other hand, if n is larger than 9 (Yes at step S1909), the process of step S1910 is performed.
  • the expanded region images (331 to 334) can be acquired.
  • the normality correlation value image 311 before the positive / negative separation is used, the number of images to be subjected to the expansion process is reduced as compared with the expansion process after the generation of the region images (321 to 324). Therefore, a more efficient expansion process can be performed.
  • the polar coordinate conversion input image obtained by performing the edge extraction process and the edge normalization process and performing the feature extraction.
  • the image is compared with a polar coordinate conversion template image that has been subjected to edge normalization processing in advance, and a normalized correlation value image is generated by correcting the deviation angle between the two images.
  • the image is separated into a positive normal correlation image and a negative normal correlation image, and a positive template image and a negative template image, respectively.
  • a positive feature region image, a negative feature region image, a positive background region image, and a negative background region image are generated, and further, a negative feature region is generated.
  • Performs dilation processing to move the pixels from the area image to the positive feature area image and to move the pixels from the negative background area image to the positive feature area image, and divides these dilated area images into blocks. Since the matching value is calculated by linear discriminant analysis and the matching judgment is performed, all the pixels of the input image and the template image are targeted for matching, and the influence of isolated points due to the correlation value calculation is eliminated.
  • the correlation value not only in the feature area but also in the background area can be reflected in the matching value in a balanced manner, enabling accurate image matching.
  • the collation rate can be improved.
  • the present invention is not limited to this.
  • medals used in amusement facilities, etc. It can also be applied to image matching and image matching of circular parts and products in factory automation (FA).
  • FA factory automation
  • the present invention can also be applied to coins and parts having a point-symmetrical shape such as a regular octagon and a regular hexagon, which need not necessarily be circular.
  • the image collation device, the image collation method, and the image collation program that are useful in the present invention are useful for image collation of articles, and are particularly suitable for collation of money such as banknotes and coins.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Debugging And Monitoring (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

 入力画像およびテンプレート画像から相関値画像を生成し、該相関値画像を画素値が閾値以上であるか否かによって正相関値画像と負相関値画像とに分離し、テンプレート画像を画素値が閾値以上であるか否かによって正テンプレート画像と負テンプレート画像とに分離し、正相関値画像および負相関値画像と正テンプレート画像および負テンプレート画像との組み合わせによって複数の正負分離相関画像を生成し、該正負分離相関画像を用いて照合判定をおこなう。また、かかる入力画像およびテンプレート画像として、極座標変換済の入力画像およびテンプレート画像を用いる。

Description

明 細 書
画像照合装置、画像照合方法および画像照合プログラム
技術分野
[0001] 本発明は、照合対象物の入力画像とあらかじめ登録された複数のテンプレート画 像との間で、画像の特徴を比較することによって画像を照合する画像照合装置、画 像照合方法および画像照合プログラムに関し、特に、入力画像とテンプレート画像と の照合を効率的におこなって照合率を向上させることができる画像照合装置、画像 照合方法および画像照合プログラムに関する。
背景技術
[0002] 従来、入金された貨幣を CCD (Charge Coupled Device)カメラ等で撮影した入力画 像と、あらかじめ登録されているテンプレート画像とを照合し、力かる貨幣の真偽を判 定する画像照合装置が知られて 、る。
[0003] たとえば、特許文献 1には、硬貨の入力画像と硬貨のテンプレート画像とを対比し て相関値を算出し、対比対象となる全体画像のうち所定面積以上の部分において、 力かる相関値が閾値を超えている場合には、入力画像に係る硬貨を真正硬貨と判定 する画像照合技術が開示されている。
[0004] 特許文献 1 :特開 2003— 187289号公報
発明の開示
発明が解決しょうとする課題
[0005] し力しながら、この従来技術を用いた場合、閾値を超えた相関値のみを用いて画像 照合をおこなうので、たとえば、入力画像とテンプレート画像との照合時の画像のず れゃ画像変換にともなうノイズの発生などによって、相関値が相対的に低い値をとつ た場合には、入力された硬貨が真正硬貨であるにもかかわらず偽造硬貨と判定して しまい、画像照合の照合率を向上させることが困難であるという問題があった。
[0006] なお、かかる問題点は、硬貨の画像照合にお!、てのみ発生する問題ではなぐたと えば、紙幣の画像照合や、 FA (Factory Automation)などにおける部品や製品の画 像照合においても同様に発生する問題である。 [0007] この発明は、上記課題 (問題点)に鑑みてなされたものであり、貨幣や貨幣以外の 物品の画像照合精度を高め、画像照合の照合率を向上させることができる画像照合 装置、画像照合方法および画像照合プログラムを提供することを目的とする。
課題を解決するための手段
[0008] 上述した課題を解決し、目的を達成するために、請求項 1の発明に係る画像照合 装置は、照合対象物の入力画像とあらかじめ登録された複数のテンプレート画像と の間で、画像の特徴を比較することによって画像を照合する画像照合装置にであつ て、前記入力画像および前記テンプレート画像から相関値画像を生成し、該相関値 画像を画素値が閾値以上である力否かによって正相関値画像と負相関値画像とに 分離する相関値画像分離手段と、前記テンプレート画像を画素値が閾値以上である か否かによって正テンプレート画像と負テンプレート画像とに分離するテンプレート画 像分離手段と、前記正相関値画像および前記負相関値画像と前記正テンプレート 画像および前記負テンプレート画像との組み合わせによって複数の正負分離相関 画像を生成する正負分離相関画像生成手段と、前記正負分離相関画像を用いて照 合判定をおこなう照合判定手段とを備えたことを特徴とする。
[0009] また、請求項 2の発明に係る画像照合装置は、請求項 1の発明において、前記正 負分離相関画像生成手段は、前記正相関値画像と前記正テンプレート画像との画 素ごとの積を算出した値を画素値とする正特徴領域画像と、前記負相関値画像と前 記正テンプレート画像との画素ごとの積を算出した値を画素値とする負特徴領域画 像とを生成することを特徴とする。
[0010] また、請求項 3の発明に係る画像照合装置は、請求項 1の発明において、前記正 負分離相関画像生成手段は、前記正相関値画像と前記負テンプレート画像との画 素ごとの積を算出した値を画素値とする正背景領域画像と、前記負相関値画像と前 記負テンプレート画像との画素ごとの積を算出した値を画素値とする負背景領域画 像とを生成することを特徴とする。
[0011] また、請求項 4の発明に係る画像照合装置は、請求項 1の発明において、前記正 負分離相関画像生成手段は、前記正相関値画像と前記正テンプレート画像との画 素ごとの積を算出した値を画素値とする正特徴領域画像と、前記負相関値画像と前 記正テンプレート画像との画素ごとの積を算出した値を画素値とする負特徴領域画 像と、前記正相関値画像と前記負テンプレート画像との画素ごとの積を算出した値を 画素値とする正背景領域画像と、前記負相関値画像と前記負テンプレート画像との 画素ごとの積を算出した値を画素値とする負背景領域画像とを生成することを特徴と する。
[0012] また、請求項 5の発明に係る画像照合装置は、請求項 2、 3または 4の発明におい て、前記正負分離相関画像生成手段は、前記負相関値画像を用いて生成される負 領域画像内の注目画素と、前記正相関値画像を用いて生成される正領域画像内の 該注目画素に対応する対応画素の周囲画素とを対比して、少なくとも一つの該周囲 画素の画素値が該注目画素の画素値よりも大き!/、場合には、該注目画素を該対応 画素に移動する膨張処理をおこなうことを特徴とする。
[0013] また、請求項 6の発明に係る画像照合装置は、請求項 1の発明において、前記入 力画像および前記テンプレート画像は、エッジ抽出オペレータを用いたエッジ抽出 処理によって画像変換されたエッジ画像であることを特徴とする。
[0014] また、請求項 7の発明に係る画像照合装置は、請求項 6の発明にお 、て、前記エツ ジ画像は、抽出されたエッジのエッジ強度を正規ィ匕した正規ィ匕エッジ画像であること を特徴とする。
[0015] また、請求項 8の発明に係る画像照合装置は、請求項 1の発明にお 、て、前記テン プレート画像は、前記照合対象物の各個体につ!ヽての画像を平均した平均画像で あることを特徴とする。
[0016] また、請求項 9の発明に係る画像照合装置は、請求項 1の発明において、前記相 関値画像は、前記入力画像または前記テンプレート画像の画素ごとの相関値を正規 化した正規ィ匕相関値を画素値とする画像であることを特徴とする。
[0017] また、請求項 10の発明に係る画像照合装置は、請求項 1の発明において、前記照 合判定手段は、前記正負分離相関画像をブロック分割して各ブロック内の画素値の 総和をブロック値として算出し、該ブロック値と重み係数との積を全ての前記正負分 離相関画像について加算することによって照合値を算出して照合判定をおこなうこと を特徴とする。 [0018] また、請求項 11の発明に係る画像照合装置は、請求項 1の発明において、前記照 合判定手段は、線形判別分析によって前記重み係数の値を算出することを特徴とす る。
[0019] また、請求項 12の発明に係る画像照合装置は、請求項 1の発明において、前記照 合対象物は貨幣であることを特徴とする。
[0020] また、請求項 13の発明に係る画像照合方法は、照合対象物の入力画像とあらかじ め登録された複数のテンプレート画像との間で、画像の特徴を比較することによって 画像を照合する画像照合方法にぉ ヽて、前記入力画像および前記テンプレート画 像力 相関値画像を生成し、該相関値画像を画素値が閾値以上である力否かによつ て正相関値画像と負相関値画像とに分離する相関値画像分離工程と、前記テンプレ ート画像を画素値が閾値以上である力否かによって正テンプレート画像と負テンプレ ート画像とに分離するテンプレート画像分離工程と、前記正相関値画像および前記 負相関値画像と前記正テンプレート画像および前記負テンプレート画像との組み合 わせによって複数の正負分離相関画像を生成する正負分離相関画像生成工程と、 前記正負分離相関画像を用いて照合判定をおこなう照合判定工程とを含んだことを 特徴とする。
[0021] また、請求項 14の発明に係る画像照合プログラムは、照合対象物の入力画像とあ らカじめ登録された複数のテンプレート画像との間で、画像の特徴を比較すること〖こ よって画像を照合する画像照合方法をコンピュータに実行させるプログラムであって 、前記入力画像および前記テンプレート画像から相関値画像を生成し、該相関値画 像を画素値が閾値以上である力否かによって正相関値画像と負相関値画像とに分 離する相関値画像分離工程と、前記テンプレート画像を画素値が閾値以上であるか 否かによって正テンプレート画像と負テンプレート画像とに分離するテンプレート画 像分離工程と、前記正相関値画像および前記負相関値画像と前記正テンプレート 画像および前記負テンプレート画像との組み合わせによって複数の正負分離相関 画像を生成する正負分離相関画像生成工程と、前記正負分離相関画像を用いて照 合判定をおこなう照合判定工程とをコンピュータに実行させることを特徴とする。
[0022] また、請求項 15の発明に係る画像照合装置は、照合対象物の入力画像とあらかじ め登録された複数のテンプレート画像との間で、画像の特徴を比較することによって 画像を照合する画像照合装置であって、前記入力画像および前記テンプレート画像 を極座標変換したうえで、両画像の回転ずれを補正した p— Θ入力画像および p— Θテンプレート画像を生成する極座標変換画像生成手段と、前記 p— 0入力画像 および前記 p Θテンプレート画像力も相関値画像を生成し、該相関値画像を画素 値が閾値以上である力否かによって正相関値画像と負相関値画像とに分離する相 関値画像分離手段と、前記 p— 0テンプレート画像を画素値が閾値以上である力否 かによつて正テンプレート画像と負テンプレート画像とに分離するテンプレート画像 分離手段と、前記正相関値画像および前記負相関値画像と前記正テンプレート画 像および前記負テンプレート画像との組み合わせによって複数の正負分離相関画 像を生成する正負分離相関画像生成手段と、前記正負分離相関画像を用いて照合 判定をおこなう照合判定手段とを備えたことを特徴とする。
[0023] また、請求項 16の発明に係る画像照合装置は、請求項 15の発明において、前記 正負分離相関画像生成手段は、前記正相関値画像と前記正テンプレート画像との 画素ごとの積を算出した値を画素値とする正特徴領域画像と、前記負相関値画像と 前記正テンプレート画像との画素ごとの積を算出した値を画素値とする負特徴領域 画像とを生成することを特徴とする。
[0024] また、請求項 17の発明に係る画像照合装置は、請求項 15の発明において、前記 正負分離相関画像生成手段は、前記正相関値画像と前記負テンプレート画像との 画素ごとの積を算出した値を画素値とする正背景領域画像と、前記負相関値画像と 前記負テンプレート画像との画素ごとの積を算出した値を画素値とする負背景領域 画像とを生成することを特徴とする。
[0025] また、請求項 18の発明に係る画像照合装置は、請求項 15の発明において、前記 正負分離相関画像生成手段は、前記正相関値画像と前記正テンプレート画像との 画素ごとの積を算出した値を画素値とする正特徴領域画像と、前記負相関値画像と 前記正テンプレート画像との画素ごとの積を算出した値を画素値とする負特徴領域 画像と、前記正相関値画像と前記負テンプレート画像との画素ごとの積を算出した値 を画素値とする正背景領域画像と、前記負相関値画像と前記負テンプレート画像と の画素ごとの積を算出した値を画素値とする負背景領域画像とを生成することを特 徴とする。
[0026] また、請求項 19の発明に係る画像照合装置は、請求項 16、 17または 18の発明に おいて、前記正負分離相関画像生成手段は、前記負相関値画像を用いて生成され る負領域画像内の注目画素と、前記正相関値画像を用いて生成される正領域画像 内の該注目画素に対応する対応画素の周囲画素とを対比して、少なくとも一つの該 周囲画素の画素値が該注目画素の画素値よりも大き!、場合には、該注目画素を該 対応画素に移動する膨張処理をおこなうことを特徴とする。
[0027] また、請求項 20の発明に係る画像照合装置は、請求項 1の発明にお 、て、前記 p
Θ入力画像および前記 p Θテンプレート画像は、エッジ抽出オペレータを用い たエッジ抽出処理によって画像変換されたエッジ画像であることを特徴とする。
[0028] また、請求項 21の発明に係る画像照合装置は、請求項 20の発明にお 、て、前記 エッジ画像は、抽出されたエッジのエッジ強度を正規ィ匕した正規ィ匕エッジ画像である ことを特徴とする。
[0029] また、請求項 22の発明に係る画像照合装置は、請求項 1の発明において、前記テ ンプレート画像は、前記照合対象物の各個体につ!ヽての画像を平均した平均画像 であることを特徴とする。
[0030] また、請求項 23の発明に係る画像照合装置は、請求項 1の発明にお 、て、前記相 関値画像は、前記 P— 0入力画像および前記 p Θテンプレートの画素ごとの相 関値を正規ィ匕した正規ィ匕相関値を画素値とする画像であることを特徴とする。
[0031] また、請求項 24の発明に係る画像照合装置は、請求項 1の発明において、前記照 合判定手段は、前記正負分離相関画像をブロック分割して各ブロック内の画素値の 総和をブロック値として算出し、該ブロック値と重み係数との積を全ての前記正負分 離相関画像について加算することによって照合値を算出して照合判定をおこなうこと を特徴とする。
[0032] また、請求項 25の発明に係る画像照合装置は、請求項 1の発明において、前記照 合判定手段は、線形判別分析によって前記重み係数の値を算出することを特徴とす る。 [0033] また、請求項 26の発明に係る画像照合装置は、請求項 1の発明にお 、て、前記極 座標変換画像生成手段は、前記 P— 0入力画像または前記 p Θテンプレート画 像を平行移動させることによって、両画像の回転ずれを補正することを特徴とする。
[0034] また、請求項 27の発明に係る画像照合装置は、請求項 1の発明において、前記円 形物体は硬貨であることを特徴とする。
[0035] また、請求項 28の発明に係る画像照合方法は、照合対象物の入力画像とあらかじ め登録された複数のテンプレート画像との間で、画像の特徴を比較することによって 画像を照合する画像照合方法にぉ ヽて、前記入力画像および前記テンプレート画 像を極座標変換したうえで、両画像の回転ずれを補正した p— Θ入力画像および p Θテンプレート画像を生成する極座標変換画像生成工程と、前記 p— 0入力画 像および前記 p Θテンプレート画像力 相関値画像を生成し、該相関値画像を画 素値が閾値以上である力否かによって正相関値画像と負相関値画像とに分離する 相関値画像分離工程と、前記 p— 0テンプレート画像を画素値が閾値以上であるか 否かによって正テンプレート画像と負テンプレート画像とに分離するテンプレート画 像分離工程と、前記正相関値画像および前記負相関値画像と前記正テンプレート 画像および前記負テンプレート画像との組み合わせによって複数の正負分離相関 画像を生成する正負分離相関画像生成工程と、前記正負分離相関画像を用いて照 合判定をおこなう照合判定工程とを含んだことを特徴とする。
[0036] また、請求項 29の発明に係る画像照合プログラムは、照合対象物の入力画像とあ らカじめ登録された複数のテンプレート画像との間で、画像の特徴を比較すること〖こ よって画像を照合する画像照合方法をコンピュータに実行させるプログラムであって 、前記入力画像および前記テンプレート画像を極座標変換したうえで、両画像の回 転ずれを補正した p Θ入力画像および p Θテンプレート画像を生成する極座 標変換画像生成工程と、前記 P— 0入力画像および前記 p Θテンプレート画像 力 相関値画像を生成し、該相関値画像を画素値が閾値以上である力否かによって 正相関値画像と負相関値画像とに分離する相関値画像分離工程と、前記 p— Θテ ンプレート画像を画素値が閾値以上である力否かによって正テンプレート画像と負テ ンプレート画像とに分離するテンプレート画像分離工程と、前記正相関値画像および 前記負相関値画像と前記正テンプレート画像および前記負テンプレート画像との組 み合わせによって複数の正負分離相関画像を生成する正負分離相関画像生成ェ 程と、前記正負分離相関画像を用いて照合判定をおこなう照合判定工程とをコンビ ユータに実行させることを特徴とする。 発明の効果
[0037] 請求項 1の発明によれば、入力画像およびテンプレート画像力 相関値画像を生 成し、該相関値画像を画素値が閾値以上である力否かによって正相関値画像と負相 関値画像とに分離し、テンプレート画像を画素値が閾値以上である力否かによって 正テンプレート画像と負テンプレート画像とに分離し、正相関値画像および負相関値 画像と正テンプレート画像および負テンプレート画像との組み合わせによって複数の 正負分離相関画像を生成し、該正負分離相関画像を用いて照合判定をおこなうよう 構成したので、入力画像とテンプレート画像との相関が高い部分のみならず、相関が 低い部分の相関値も用いるとともに、テンプレート画像の特徴部分のみならず、背景 部分も用いて画像照合をおこなうことによって、精度の高い画像照合をおこなうことが でき、画像の照合率を向上させることができるという効果を奏する。
[0038] また、請求項 2の発明によれば、正相関値画像と正テンプレート画像との画素ごと の積を算出した値を画素値とする正特徴領域画像と、負相関値画像と正テンプレー ト画像との画素ごとの積を算出した値を画素値とする負特徴領域画像とを生成するよ う構成したので、特徴が出るべき部分に特徴が出て ヽる領域画像と特徴が出るべき 部分に特徴が出ていない領域画像とを用いて画像照合をおこなうことによって、精度 の高い画像照合をおこなうことができ、画像の照合率を向上させることができるという 効果を奏する。
[0039] また、請求項 3の発明によれば、正相関値画像と負テンプレート画像との画素ごと の積を算出した値を画素値とする正背景領域画像と、負相関値画像と負テンプレー ト画像との画素ごとの積を算出した値を画素値とする負背景領域画像とを生成するよ う構成したので、背景があるべき部分に背景がある領域画像と背景があるべき部分に 背景がない領域画像とを用いて画像照合をおこなうことによって、精度の高い画像照 合をおこなうことができ、画像の照合率を向上させることができるという効果を奏する。 [0040] また、請求項 4の発明によれば、正相関値画像と正テンプレート画像との画素ごと の積を算出した値を画素値とする正特徴領域画像と、負相関値画像と正テンプレー ト画像との画素ごとの積を算出した値を画素値とする負特徴領域画像と、正相関値 画像と負テンプレート画像との画素ごとの積を算出した値を画素値とする正背景領域 画像と、負相関値画像と負テンプレート画像との画素ごとの積を算出した値を画素値 とする負背景領域画像とを生成するよう構成したので、特徴が出るべき部分に特徴が 出ている領域画像と、特徴が出るべき部分に特徴が出ていない領域画像と、背景が あるべき部分に背景がある領域画像と、背景があるべき部分に背景がな 、領域画像 とを用いて画像照合をおこなうことによって、精度の高い画像画像照合をおこなうこと ができ、画像の照合率を向上させることができるという効果を奏する。
[0041] また、請求項 5の発明によれば、負相関値画像を用いて生成される負領域画像内 の注目画素と、正相関値画像を用いて生成される正領域画像内の該注目画素に対 応する対応画素の周囲画素とを対比して、少なくとも一つの該周囲画素の画素値が 該注目画素の画素値よりも大き!、場合には、該注目画素を該対応画素に移動する 膨張処理をおこなうよう構成したので、相関値算出にともなう孤立点の影響を排除し て、精度の高い画像画像照合をおこなうことができ、画像の照合率を向上させること ができるという効果を奏する。
[0042] また、請求項 6の発明によれば、入力画像およびテンプレート画像は、エッジ抽出 オペレータを用いたエッジ抽出処理によって画像変換されたエッジ画像であるよう構 成したので、抽出された各画像の特徴部分を対比することによって、精度の高い画 像画像照合をおこなうことができ、画像の照合率を向上させることができるという効果 を奏する。
[0043] また、請求項 7の発明によれば、エッジ画像は、抽出されたエッジのエッジ強度を正 規化した正規化エッジ画像であるよう構成したので、照合対象物の個体差の影響を 排除して、精度の高い画像画像照合をおこなうことができ、画像の照合率を向上させ ることができると!/、う効果を奏する。
[0044] また、請求項 8の発明によれば、テンプレート画像は、前記照合対象物の各個体に つ 、ての画像を平均した平均画像であるよう構成したので、照合対象物の個体に固 有の模様がある場合であっても、精度の高い画像画像照合をおこなうことができ、画 像の照合率を向上させることができるという効果を奏する。
[0045] また、請求項 9の発明によれば、相関値画像は、入力画像またはテンプレート画像 の画素ごとの相関値を正規ィ匕した正規ィ匕相関値を画素値とする画像であるよう構成 したので、相関値のばらつきを抑えて、精度の高い画像画像照合をおこなうことがで き、画像の照合率を向上させることができるという効果を奏する。
[0046] また、請求項 10の発明によれば、照合判定手段は、正負分離相関画像をブロック 分割して各ブロック内の画素値の総和をブロック値として算出し、該ブロック値と重み 係数との積を全ての正負分離相関画像について加算することによって照合値を算出 して照合判定をおこなうよう構成したので、特徴が出やすい領域の重みと特徴が出に くい領域の重みを調整することができるとともに、算出手順の簡素化によって、効率 的な画像照合をおこなうことができ、画像の照合率を向上させることができるという効 果を奏する。
[0047] また、請求項 11の発明によれば、照合判定手段は、線形判別分析によって前記重 み係数の値を算出するよう構成したので、学習サンプルに基づ 、た適正な重み係数 を得ることができるので、精度の高い画像画像照合をおこなうことができ、画像の照合 率を向上させることができると 、う効果を奏する。
[0048] また、請求項 12の発明によれば、照合対象物は貨幣であるよう構成したので、貨幣 の照合に関し、精度の高い画像画像照合をおこなうことができ、画像の照合率を向 上させることができると 、う効果を奏する。
[0049] また、請求項 13の発明によれば、入力画像およびテンプレート画像力 相関値画 像を生成し、該相関値画像を画素値が閾値以上であるか否かによって正相関値画 像と負相関値画像とに分離し、テンプレート画像を画素値が閾値以上であるか否か によって正テンプレート画像と負テンプレート画像とに分離し、正相関値画像および 負相関値画像と正テンプレート画像および負テンプレート画像との組み合わせによつ て複数の正負分離相関画像を生成し、該正負分離相関画像を用いて照合判定をお こなうよう構成したので、入力画像とテンプレート画像との相関が高い部分のみならず 、相関が低い部分の相関値も用いるとともに、テンプレート画像の特徴部分のみなら ず、背景部分も用いて画像照合処理をおこなうことによって、精度の高い画像照合を おこなうことができ、画像の照合率を向上させることができるという効果を奏する。
[0050] また、請求項 14の発明によれば、入力画像およびテンプレート画像力 相関値画 像を生成し、該相関値画像を画素値が閾値以上であるか否かによって正相関値画 像と負相関値画像とに分離し、テンプレート画像を画素値が閾値以上であるか否か によって正テンプレート画像と負テンプレート画像とに分離し、正相関値画像および 負相関値画像と正テンプレート画像および負テンプレート画像との組み合わせによつ て複数の正負分離相関画像を生成し、該正負分離相関画像を用いて照合判定をお こなうよう構成したので、入力画像とテンプレート画像との相関が高い部分のみならず 、相関が低い部分の相関値も用いるとともに、テンプレート画像の特徴部分のみなら ず、背景部分も用いて画像照合処理をおこなうことによって、精度の高い画像照合を おこなうことができるという効果を奏する。
[0051] また、請求項 15の発明によれば、入力画像およびテンプレート画像を極座標変換 したうえで、両画像の回転ずれを補正した p— Θ入力画像および p— Θテンプレー ト画像を生成し、 - Θ入力画像および p— Θテンプレート画像力も相関値画像を 生成し、該相関値画像を画素値が閾値以上である力否かによって正相関値画像と負 相関値画像とに分離し、 0テンプレート画像を画素値が閾値以上であるか否か によって正テンプレート画像と負テンプレート画像とに分離し、正相関値画像および 負相関値画像と正テンプレート画像および負テンプレート画像との組み合わせによつ て複数の正負分離相関画像を生成し、該正負分離相関画像を用いて照合判定をお こなうよう構成したので、入力画像とテンプレート画像との相関が高い部分のみならず 、相関が低い部分の相関値も用いるとともに、テンプレート画像の特徴部分のみなら ず、背景部分も用いて画像照合をおこなうことによって、精度の高い画像照合をおこ なうことができるという効果を奏する。
[0052] また、請求項 16の発明によれば、正相関値画像と正テンプレート画像との画素ごと の積を算出した値を画素値とする正特徴領域画像と、負相関値画像と正テンプレー ト画像との画素ごとの積を算出した値を画素値とする負特徴領域画像とを生成するよ う構成したので、特徴が出るべき部分に特徴が出て ヽる領域画像と特徴が出るべき 部分に特徴が出ていない領域画像とを用いて画像照合をおこなうことによって、精度 の高 、画像照合をおこなうことができると!/、う効果を奏する。
[0053] また、請求項 17の発明によれば、正相関値画像と負テンプレート画像との画素ごと の積を算出した値を画素値とする正背景領域画像と、負相関値画像と負テンプレー ト画像との画素ごとの積を算出した値を画素値とする負背景領域画像とを生成するよ う構成したので、背景があるべき部分に背景がある領域画像と背景があるべき部分に 背景がない領域画像とを用いて画像照合をおこなうことによって、精度の高い画像照 合をおこなうことができるという効果を奏する。
[0054] また、請求項 18の発明によれば、正相関値画像と正テンプレート画像との画素ごと の積を算出した値を画素値とする正特徴領域画像と、負相関値画像と正テンプレー ト画像との画素ごとの積を算出した値を画素値とする負特徴領域画像と、正相関値 画像と負テンプレート画像との画素ごとの積を算出した値を画素値とする正背景領域 画像と、負相関値画像と負テンプレート画像との画素ごとの積を算出した値を画素値 とする負背景領域画像とを生成するよう構成したので、特徴が出るべき部分に特徴が 出ている領域画像と、特徴が出るべき部分に特徴が出ていない領域画像と、背景が あるべき部分に背景がある領域画像と、背景があるべき部分に背景がな 、領域画像 とを用いて画像照合をおこなうことによって、精度の高い画像画像照合をおこなうこと ができるという効果を奏する。
[0055] また、請求項 19の発明によれば、負相関値画像を用いて生成される負領域画像内 の注目画素と、正相関値画像を用いて生成される正領域画像内の該注目画素に対 応する対応画素の周囲画素とを対比して、少なくとも一つの該周囲画素の画素値が 該注目画素の画素値よりも大き!、場合には、該注目画素を該対応画素に移動する 膨張処理をおこなうよう構成したので、相関値算出にともなう孤立点の影響を排除し て、精度の高い画像画像照合をおこなうことができるという効果を奏する。
[0056] また、請求項 20の発明によれば、 p Θ入力画像および p Θテンプレート画像 は、エッジ抽出オペレータを用いたエッジ抽出処理によって画像変換されたエッジ画 像であるよう構成したので、抽出された各画像の特徴部分を対比することによって、 精度の高い画像画像照合をおこなうことができるという効果を奏する。 [0057] また、請求項 21の発明によれば、エッジ画像は、抽出されたエッジのエッジ強度を 正規化した正規化エッジ画像であるよう構成したので、照合対象物の個体差の影響 を排除して、精度の高い画像画像照合をおこなうことができるという効果を奏する。
[0058] また、請求項 22の発明によれば、テンプレート画像は、前記照合対象物の各個体 につ 、ての画像を平均した平均画像であるよう構成したので、照合対象物の個体に 固有の模様がある場合であっても、精度の高 、画像画像照合をおこなうことができる という効果を奏する。
[0059] また、請求項 23の発明によれば、相関値画像は、 p Θ入力画像および p— Θテ ンプレート画像の画素ごとの相関値を正規化した正規化相関値を画素値とする画像 であるよう構成したので、相関値のばらつきを抑えて、精度の高い画像画像照合をお こなうことができると!/、う効果を奏する。
[0060] また、請求項 24の発明によれば、照合判定手段は、正負分離相関画像をブロック 分割して各ブロック内の画素値の総和をブロック値として算出し、該ブロック値と重み 係数との積を全ての正負分離相関画像について加算することによって照合値を算出 して照合判定をおこなうよう構成したので、特徴が出やすい領域の重みと特徴が出に くい領域の重みを調整することができるとともに、算出手順の簡素化によって、効率 的な画像照合をおこなうことができるという効果を奏する。
[0061] また、請求項 25の発明によれば、照合判定手段は、線形判別分析によって前記重 み係数の値を算出するよう構成したので、学習サンプルに基づ 、た適正な重み係数 を得ることができるので、精度の高い画像画像照合をおこなうことができるという効果 を奏する。
[0062] また、請求項 26の発明によれば、極座標変換画像生成手段は、 p - Θ入力画像 または P— Θテンプレート画像を平行移動させることによって、両画像の回転ずれを 補正するよう構成したので、力かる補正に伴う計算量を削減して効率の高い画像照 合をおこなうことができるという効果を奏する。
[0063] また、請求項 27の発明によれば、円形物体は硬貨であるよう構成したので、貨幣の 照合に関し、精度の高い画像画像照合をおこなうことができるという効果を奏する。
[0064] また、請求項 28の発明によれば、入力画像およびテンプレート画像を極座標変換 したうえで、両画像の回転ずれを補正した p— Θ入力画像および p— Θテンプレー ト画像を生成し、 - Θ入力画像および p— Θテンプレート画像力も相関値画像を 生成し、該相関値画像を画素値が閾値以上である力否かによって正相関値画像と負 相関値画像とに分離し、 0テンプレート画像を画素値が閾値以上であるか否か によって正テンプレート画像と負テンプレート画像とに分離し、正相関値画像および 負相関値画像と正テンプレート画像および負テンプレート画像との組み合わせによつ て複数の正負分離相関画像を生成し、該正負分離相関画像を用いて照合判定をお こなうよう構成したので、入力画像とテンプレート画像との相関が高い部分のみならず 、相関が低い部分の相関値も用いるとともに、テンプレート画像の特徴部分のみなら ず、背景部分も用いて画像照合をおこなうことによって、精度の高い画像照合をおこ なうことができるという効果を奏する。
[0065] また、請求項 29の発明によれば、入力画像およびテンプレート画像を極座標変換 したうえで、両画像の回転ずれを補正した p— Θ入力画像および p— Θテンプレー ト画像を生成し、 - Θ入力画像および p— Θテンプレート画像力も相関値画像を 生成し、該相関値画像を画素値が閾値以上である力否かによって正相関値画像と負 相関値画像とに分離し、 0テンプレート画像を画素値が閾値以上であるか否か によって正テンプレート画像と負テンプレート画像とに分離し、正相関値画像および 負相関値画像と正テンプレート画像および負テンプレート画像との組み合わせによつ て複数の正負分離相関画像を生成し、該正負分離相関画像を用いて照合判定をお こなうよう構成したので、入力画像とテンプレート画像との相関が高い部分のみならず 、相関が低い部分の相関値も用いるとともに、テンプレート画像の特徴部分のみなら ず、背景部分も用いて画像照合をおこなうことによって、精度の高い画像照合をおこ なうことができるという効果を奏する。
図面の簡単な説明
[0066] [図 1]図 1は、実施例 1に係る画像照合装置の構成を示す機能ブロック図である。
[図 2]図 2は、図 1に示した画像切出部の処理概要を説明するための説明図である。
[図 3]図 3は、図 1に示したエッジ抽出部において用いられる Sobelオペレータを説明 するための説明図である。 [図 4]図 4は、図 1に示したエッジ抽出部の処理概要を説明するための説明図である。
[図 5]図 5は、図 1に示したマッチング処理部のマッチング判定の処理概要を説明する ための説明図である。
[図 6]図 6は、実施例 1に係る正負分離相関判定部に入力される画像を説明するため の説明図である。
[図 7]図 7は、実施例 1に係る正負分離相関画像成生成部によって生成される特徴領 域および背景領域について説明するための説明図である。
[図 8]図 8は、実施例 1に係る正規ィ匕相関値画像正負分離処理のフローチャートであ る。
[図 9]図 9は、実施例 1に係るテンプレート画像正負分離処理のフローチャートである
[図 10]図 10は、実施例 1に係る正負分離相関画像成生成部の処理手順を示すフロ 一チャートである。
[図 11]図 11は、図 7に示した各領域に対応する画像生成手順を説明するための説 明図である。
[図 12]図 12は、実施例 1に係る膨張処理部にお ヽて用 ヽられる画像マスクを説明す るための説明図である。
[図 13]図 13は、実施例 1に係る膨張処理部の処理手順を示すフローチャートである。
[図 14]図 14は、実施例 1に係る膨張処理部によって生成される画像を説明するため の説明図である。
[図 15]図 15は、実施例 1に係る照合値算出部において用いられる画像のブロック分 割について説明するための説明図である。
[図 16]図 16は、実施例 1に係る膨張処理の変更例を説明するための説明図である。
[図 17]図 17は、図 16に示した変更例において用いられる画像マスクを説明するため の説明図である。
[図 18]図 18は、図 16に示した変更例における膨張処理部の処理手順を示すフロー チャートである。
[図 19]図 19は、実施例 2に係る画像照合装置の構成を示す機能ブロック図である。 [図 20]図 20は、図 19に示した画像切出部の処理概要を説明するための説明図であ る。
[図 21]図 21は、図 19に示したエッジ抽出部において用いられる Sobelオペレータを 説明するための説明図である。
[図 22]図 22は、図 19に示したエッジ抽出部の処理概要を説明するための説明図で ある。
[図 23]図 23は、実施例 2に係る極座標変換の処理概要を説明するための説明図で ある。
[図 24]図 24は、図 19に示した回転角検出部の処理概要を説明するための説明図で ある。
[図 25]図 25は、実施例 2に係る各領域画像を説明するための説明図である。
[図 26]図 26は、実施例 2に係る正規化相関値画像正負分離処理のフローチャートで ある。
[図 27]図 27は、実施例 2に係るテンプレート画像正負分離処理のフローチャートであ る。
[図 28]図 28は、実施例 2に係る正負分離相関画像成生成部の処理手順を示すフロ 一チャートである。
[図 29]図 29は、図 25に示した各領域に対応する画像生成手順を説明するための説 明図である。
[図 30]図 30は、実施例 2に係る膨張処理部において用いられる画像マスクを説明す るための説明図である。
[図 31]図 31は、実施例 2に係る膨張処理部の処理手順を示すフローチャートである。
[図 32]図 32は、実施例 2に係る膨張処理部によって生成される画像を説明するため の説明図である。
[図 33]図 33は、実施例 2に係る照合値算出部において用いられる画像のブロック分 割について説明するための説明図である。
[図 34]図 34は、実施例 2に係る膨張処理の変更例を説明するための説明図である。
[図 35]図 35は、図 34に示した変更例において用いられる画像マスクを説明するため の説明図である。
[図 36]図 36は、図 34に示した変更例における膨張処理部の処理手順を示すフロー チャートである。
符号の説明
1 画像照合装置
10 画像入力部
11 入力画像
20 画像切出部
21 水平方向射影
22 垂直方向射影
23 切出画像 (裏面)
24 切出画像 (表面)
30 エッジ抽出部
30a Sobelオペレータ(水平方向エッジ算出用)
30b Sobelオペレータ(垂直方向エッジ算出用)
31 エッジ抽出画像
32 エッジ正規化画像 (裏面)
33 エッジ正規化画像 (表面)
40 マッチング処理部
50 登録画像記憶部
51 テンプレート画像
51a t+画像
51b t—画像
100 正負分離相関判定部
110 正規化相関値算出部
111 正規化相関値画像
111a r+画像
111b r一画像 120 正負分離相関画像生成部 121 A +領域画像
122 A—領域画像
123 B+領域画像
124 B—領域画像
130 膨張処理部
130a 正領域画像マスク 130b 負領域画像マスク 130c 入力画像マスク
130d テンプレート画像マスク 131 膨張済 A+領域画像 132 膨張済 A—領域画像 133 膨張済 B+領域画像 134 膨張済 B—領域画像 135 膨張済正規化相関値画像 135a 膨張済 r+画像
135b 膨張済 r—画像
140 照合値算出部
141 ブロック分割(A -ト領域)
142 ブロック分割 (A - -領域)
143 ブロック分割(B 4 -領域)
144 ブロック分割(B- -領域)
201 画像照合装置
210 画像入力部
211 入力画像
220 画像切出部
221 水平方向射影
222 垂直方向射影 223 切出画像
230 エッジ抽出部
230a Sobelオペレータ(水平方向エッジ算出用)
230b Sobelオペレータ(垂直方向エッジ算出用)
231 エッジ抽出画像
232 エッジ正規化画像
233 極座標変換済エッジ正規化画像
240 マッチング処理部
240a 極座標変換部
240b 回転角検出部
240c 表裏判定部
250 登録画像記憶部
251 テンプレート画像
251a t +画像
251b t一画像
300 正負分離相関判定部
310 正規化相関値算出部
311 正規化相関値画像
311a r+画像
311b r一画像
320 正負分離相関画像生成部
321 A+領域画像
322 A—領域画像
33 B+領域画像
324 B—領域画像
330 膨張処理部
330a 正領域画像マスク
330b 負領域画像マスク 330c 入力画像マスク
330d テンプレート画像マスク
331 膨張済 A+領域画像
332 膨張済 A—領域画像
333 膨張済 B+領域画像
334 膨張済 B—領域画像
335 膨張済正規化相関値画像
335a 膨張済 r+画像
335b 膨張済 r—画像
340 照合値算出部
発明を実施するための最良の形態
[0068] 以下に、添付図面を参照して、本発明に係る画像照合装置、画像照合方法および 画像照合プログラムの実施例 1〜2を詳細に説明する。なお、実施例 1では直交座標 系を用いた画像照合にっ 、て、実施例 2では極座標系を用いた画像照合にっ 、て、 それぞれ説明することとする。
実施例 1
[0069] 図 1は、実施例 1に係る画像照合装置の構成を示す機能ブロック図である。同図に 示すように、この画像照合装置 1は、画像入力部 10と、画像切出部 20と、エッジ抽出 部 30と、マッチング処理部 40と、登録画像記憶部 50と、正負分離相関判定部 100と を備えており、力かる正負分離相関判定部 100は、正規ィ匕相関値算出部 110と、正 負分離相関画像生成部 120と、膨張処理部 130と、照合値算出部 140とを備えてい る。
[0070] 画像入力部 10は、照合対象となる硬貨の入力画像を装置内に取り込むための入 力部であり、入力された画像を画像切出部 20に出力する。具体的には、画像入力部 10は、入力画像を所定数の画素の集合体として取り扱う。たとえば、入力画像を 256 階調の濃度値をもつグレースケール画像として認識し、所定の大きさの矩形画像とし て画像切出部に出力する。
[0071] 画像切出部 20は、画像入力部 10からかかる矩形画像を取得し、硬貨画像に外接 する正方形の領域内の画像のみを切り出して、切り出した画像をエッジ抽出部 30に 出力する。
[0072] 図 2は、この画像切出部 20の処理概要を説明するための説明図である。同図に示 すように、画像切出部 20は、画像入力部 10から取得した入力画像 11を水平方向に 走査して全画素の濃度値を累積し、水平方向射影 21を生成する。また、入力画像 1 1を垂直方向に走査して、同様の手順で垂直方向射影 22を生成する。そして、画像 切出部 20は、水平方向射影 21および垂直方向射影 22を走査し、累積した濃度値 の立上り座標と立下り座標を算出する。そして、同図の 4本の破線で示したように、算 出された各座標に囲まれた領域を切出画像 23として切り出し、この切出画像 23をェ ッジ抽出部 30に出力する。
[0073] 図 1の説明に戻り、エッジ抽出部 30について説明する。エッジ抽出部 30は、画像 切出部 20から切出画像 23を取得し、切出画像 23の明るさや色合いなどの個体差に 基づく影響を避けるために、切出画像 23の濃度変化 (エッジ強度)を算出する。また 、算出したエッジ強度のばらつきを抑えるために、エッジ強度の正規ィ匕をおこなう。具 体的には、切出画像 23に対して Sobelオペレータを用いたエッジ抽出処理をおこな うことによってエッジ強度を算出し、算出結果を正規化する。なお、実施例 1において は、 Sobelオペレータを用いることとしたが、 Robertsオペレータなどを用いてエッジ 抽出をおこなうこともできる。
[0074] 図 3は、 Sobelオペレータを説明するための説明図である。同図に示すように、エツ ジ抽出部 30は、水平方向エッジ算出用 30aおよび垂直方向エッジ算出用 30bの二 つの Sobelオペレータを用いてエッジ強度の算出をおこなう。具体的には、切出画像 23の全画素について、各 Sobelオペレータ(30aおよび 30b)を走査し、水平方向ェ ッジ算出結果 Gxおよび垂直方向エッジ算出結果 Gyを取得する。そして、各画素に おけるエッジ強度 (G)を算出したうえで、力かるエッジ強度を正規ィ匕 (E)する。
[数 1] G = G」+ ' ( 1 )
Figure imgf000024_0001
[0075] 式(1)に示すように、各画素におけるエッジ強度 (G)は、水平方向エッジ算出結果 Gxの絶対値と垂直方向エッジ算出結果 Gyの絶対値との和としてあらわされる。また 、式(2)に示すように、各画素における正規ィ匕エッジ強度 (E)は、硬貨の種別毎に所 定の値が設定される定数 cとエッジ強度 (G)との積を、全画素にわたるエッジ強度 (G )の総和で除したものとなる。
[0076] このように、エッジ強度の正規ィ匕をおこなうことで、エッジが出やす 、新貨と、エッジ が出にくい流通貨との間で、エッジ強度のばらつきが発生することを抑えることができ るので、硬貨の新旧にかかわらず、種々の硬貨の照合を精度良くおこなうことができ る。
[0077] 図 4は、エッジ抽出部 30によっておこなわれるエッジ抽出処理 (画像変換処理)の 概要を説明するための説明図である。同図に示すように、切出画像 23は、 Sobelォ ペレータを用いたエッジ強度算出処理によって、エッジ抽出画像 31に画像変換され る。そして、エッジ抽出画像 31は、式(1)および式(2)を用いたエッジ強度正規化処 理によって、エッジ正規化画像 32に画像変換される。エッジ抽出部 30は、このエッジ 正規ィ匕画像 32をマッチング処理部 40に出力する。
[0078] 同図に示したエッジ抽出画像 31の各画素値は、たとえば、 0〜255の値をとり、 0が 黒に対応し、 255が白に対応したグレースケール値をとる。同図のエッジ抽出画像 3 1において、白い部分が抽出されたエッジ部分であり、黒い部分が背景部分である。 また、エッジ正規ィ匕画像 32の各画素値は、たとえば、 0〜255の値をとり、 0が黒に対 応し、 255が白に対応したグレースケール値をとる。なお、同図のエッジ正規ィ匕画像 において、白い部分がエッジ部分に相当し、黒い部分が背景に相当する点はエッジ 抽出画像 31と同様である。
[0079] 図 1の説明に戻って、マッチング処理部 40について説明する。マッチング処理部 4 0は、エッジ抽出部 30からエッジ正規ィ匕画像 32を取得し、登録画像記憶部 50に記 憶されているテンプレート画像との照合処理をおこなう。具体的には、テンプレート画 像を所定の角度ずつ回転させ、各回転角におけるテンプレート画像とエッジ正規ィ匕 画像 32との一致度 (M)が最大となる回転角( φ )を取得する。かかる一致度 (M)は、 [数 2] (φ) =∑∑Ιφ (χ, γ) · 5(χ, γ) … )
X y によって算出する。
[0080] 式(3)に示すように、各回転角( φ )における一致度 Μ ( φ )は、角度 φ回転させた テンプレート画像の各画素の濃度値 t φ (X, y)と、エッジ正規化画像 32の各画素の 濃度値 s (X, y)との積を全画素にわたり総和したしたものとなる。
[0081] 図 5は、マッチング処理部 40のマッチング判定の概要を説明するための説明図で ある。同図に示すように、 Μ ( φ )の値は、ある回転角において最大値をもつ山型のグ ラフとなる。マッチング処理部 40は、かかる Μ ( φ )が最大(山型の頂点部分)となる φ の値を取得し、登録画像記憶部 50に記憶していたテンプレート画像を角度 φ回転さ せる。そして、エッジ正規ィ匕画像 32および回転済のテンプレート画像を正負分離相 関判定部 100に出力する。
[0082] 図 6は、マッチング処理部 40から正負分離相関判定部 100に出力される、エッジ正 規ィ匕処理済画像および回転済テンプレート画像の画像例を説明するための説明図 である。同図では、 10円硬貨の表面の画像が画像照合装置 1に入力された場合の 画像例を示している。すなわち、切出画像 24に、上述したエッジ正規化処理を施す とエッジ正規ィ匕画像 33が生成され、上述したマッチング処理によってテンプレート画 像を回転させることによって回転済のテンプレート画像 51が生成される。以降の説明 においては、エッジ正規ィ匕画像 (裏面) 32のかわりに、力かるエッジ正規ィ匕画像 (表 面) 33を用いることとする。
[0083] なお、マッチング処理部 40は、テンプレート画像を回転させることによって、一致度 が最大となる回転角を取得すると説明したが、テンプレート画像は回転させず、エツ ジ正規ィ匕画像 32を回転させることによって、一致度が最大となる回転角を取得するよ うにしてもよい。 [0084] 図 1の説明に戻り、登録画像記憶部 50について説明する。登録画像記憶部 50は、 あら力じめ登録された各種硬貨に対応した複数のテンプレート画像を記憶し、マッチ ング処理部 40に、これらのテンプレート画像を提供する。かかるテンプレート画像に は、硬貨の個体差によるばらつきを抑えるため、同一種類の硬貨の画像を複数合成 した平均画像を用いる。力かる平均画像を用いることによって、製造年などの各硬貨 に固有の凹凸パターン部分と、テンプレート画像の対応部分との相関値は、平均画 像 (平均値)についての相関値となるため照合時の影響が出に《なる。すなわち、真 正硬貨であるにもかかわらず、製造年が異なることによって偽造硬貨であると判定す ることを防止することができる。
[0085] かかるテンプレート画像は、エッジ正規化処理を施した入力画像と照合させるため 、入力画像と同様にエッジ正規化処理が施された後に、登録記憶部 50に登録される 。また、登録記憶部 50には、各金種の表面および裏面の平均画像にエッジ正規ィ匕 処理が施された画像が複数登録される。
[0086] 正負分離相関判定部 100は、マッチング処理部 40から、図 6に示したエッジ正規 化画像 33 (以下「入力画像 33」と言う)および回転済テンプレート画像 51 (以下「テン プレート画像 51」と言う)を取得し、これらの画像を照合することによって入力画像 33 に係る硬貨が真正硬貨である力否かの照合判定をおこな 、、力かる判定結果を出力 する。
[0087] 正規化相関値算出部 110は、入力画像 33およびテンプレート画像 51の対応する 画素毎の相関値を算出し、力かる相関値を正規ィ匕して正規ィ匕相関値画像を生成す る。具体的には、座標値が (X, y)の各画素について、入力画像 33の濃度値 s (x, y) およびテンプレート画像 51の濃度値 t (X, y)を用いて、
[数 3]
rtx. v): ' (4)
Figure imgf000026_0001
によって各画素の正規ィ匕相関値 r(x, y)を算出する。なお、式 (4)に示す各画素に おける正規ィ匕相関値 r(x, y)は、たとえば、 1. 0〜+ 1. 0の値をとる。また、式 (4) 中の nは、画素数を示す。
[0088] そして、正規化相関値算出部 110は、力かる正規ィ匕相関値画像の画素値が 0以上 か否かによって、正の正規化相関値画像 (r+画像)と負の正規ィ匕相関値画像 (r— 画像)とに分離する。また、テンプレート画像 51については、各画素値が所定の閾値 (T )以上力否かによって、正のテンプレート画像 (t+画像)と負のテンプレート画像( t
t一画像)とに分離する。
[0089] なお、 r+画像の画素値は、たとえば、 0. 0〜1. 0の値をとり、 r一画像の画素値は 、各画素値の絶対値をとることによって、たとえば、 0. 0〜1. 0の値をとる。また、 t+ 画像および t—画像の画素値は、たとえば、 0か 1の二値をとる。すなわち、 t+画像お よび t一画像は、各正規化相関値画像の画像変換に用いられる画像マスクとしての 役割を有する。
[0090] ここで、それぞれの画像の意味を説明すると、 r+画像は照合対象となる画像間に 相関がある(似ている)画素を示し、強い相関があれば、かかる画素は大きい値をとる 。また、 r—画像は照合対象となる画像間に相関がない (似ていない)ことを示し、強 い負の相関があれば、力かる画素は大きい値をとる。そして、 t+画像はテンプレート 画像のエッジ部分を示し、エッジ部分が 背景部分が 0の値をとる。また、 t—画像は テンプレート画像の背景部分 (エッジでない部分)を示し、背景部分が 1、エッジ部分 力 SOの値をとる。
[0091] 正負分離相関画像生成部 120は、正規化相関値算出部 110が生成した、 r+画像 、 r一画像、 t+画像および t一画像の組み合わせによって正負分離相関画像を生成 する。具体的には、 r+画像と t+画像とから A+領域画像を、 r—画像と t+画像とか ら A—領域画像を、 r+画像と t—画像とから B+領域画像を、 r—画像と t—画像とか ら B 領域画像をそれぞれ生成する。
[0092] ここで、各領域画像の意味を説明する。図 7は、力かる 4つの領域を説明するため の説明図である。同図に示すように、 A+領域画像は、 r+画像と t+画像とを重ね合 わせた領域画像であり、エッジ部分と相関があること、すなわち、エッジが出るべきと ころにエッジが出ていることを示し、特許請求の範囲における正特徴領域画像に対 応する。 A—領域画像は、 r—画像と t+画像とを重ね合わせ領域画像であり、エッジ 部分と相関がないこと、すなわち、エッジが出るべきところにエッジが出ていないこと を示し、特許請求の範囲における負特徴領域画像に対応する。 B+領域画像は、 r +画像と t一画像とを重ね合わせた領域画像であり、背景部分と相関があること、す なわち、エッジが出るべきでないところにエッジが出ていないことを示し、特許請求の 範囲における正背景領域画像に対応する。 B—領域画像は、 r—画像と t—画像とを 重ね合わせ領域画像であり、背景部分と相関がないこと、すなわち、エッジが出るベ きでな!、ところにエッジが出て!/、な!/、ことを示し、特許請求の範囲における負背景領 域画像に対応する。
[0093] 図 1の説明に戻って、膨張処理部 130について説明する。膨張処理部 130は、所 定の画像マスクを用いて、 A—領域画像の画素を A+領域画像に移動させるとともに 、 B—領域画像の画素を B+領域画像に移動させる。力かる膨張処理をおこなうのは 、正規ィ匕相関値にはノイズ状に負の相関値をもつ孤立点があらわるためである。すな わち、力かる膨張処理をおこなうことによって、力かる孤立点の影響が照合値の判定 結果におよぶことを抑えることができる。
[0094] 照合値算出部 140は、 A+領域画像、 A—領域画像、 B+領域画像および B—領 域画像のそれぞれを、たとえば、水平方向に 4つ、垂直方向に 4つの計 16ブロックに 分割し、
Z =∑∑ ( Αί + bijAU + ; + ά,,Β … ) j=0 i=0 式(5)によって、照合値 (Z)を求める。ここで、係数 a、 b、 cおよび dは学習サンプ
1J 1J 1J 1J
ルを用いて線形判別分析によって最適解を求める。なお、各領域画像のブロック値 である A+、 A―、 B+および B—は、各ブロック内の画素値の総和を示す。
1J 1J 1J 1J
[0095] そして、照合値算出部 140は、かかる照合値 (Z)が閾値以上であれば、入力画像 3 3に係る硬貨は真正硬貨であると照合判定し、閾値より小さければ偽造硬貨であると 照合判定したうえで、力かる判定結果を出力する。
[0096] 以降では、図 1に示した正負分離相関判定部 100の処理をさらに具体的に説明す る。まず、正規化相関値算出部 110がおこなう正規化相関値正負分離処理を、図 8 および図 11を用いて説明する。図 8は、正規ィ匕相関値正負分離処理のフローチヤ一 トであり、図 11は、正負分離相関判定部 100における画像生成手順を説明するため の説明図である。
[0097] 図 11に示すように、正規化相関値算出部 110は、まず、入力画像 33とテンプレート 画像 51とから正規ィ匕相関値画像 111を生成する。そして、生成された正規化相関値 画像 111を入力として正規ィ匕相関値正負分離処理をおこない、かかる正規ィ匕相関値 画像 111を、正の相関値画像である r+画像 11 laと、負の相関値画像である r—画 像 11 lbとに分離する。
[0098] 図 8に示すように、正規ィ匕相関値正負分離処理においては、まず、正規化相関値 画像 111の始点画素に移動する (ステップ S501)。かかる始点画素は、たとえば、 X =0、 y=0の画素である。そして、力かる画素の正規ィ匕相関値 r (x, y)を式 (4)を用 いて算出し (ステップ S502)、算出した r (x, y)が 0以上であれば (ステップ S503肯 定)、力かる画素値を r+画像 11 laの同一座標の画素値とする(ステップ S504)。一 方、算出した r (x, y)が 0より小さければ (ステップ S503否定)、力かる画素の画素値 の絶対値を、 r一画像 11 lbの同一座標の画素値とする (ステップ S505)。
[0099] そして、正規化相関値画像 111の全ての画素について未だ正負分離処理が完了 していない場合には(ステップ S506否定)、次の注目画素に移動して(ステップ S50 7)、ステップ S502以下の処理を繰り返す。一方、全ての画素について正負分離処 理が終了した場合には (ステップ S506肯定)、処理を終了する。力かる正規ィ匕相関 値正負分離処理によって、 r+画像 111aおよび r一画像 111bは、 0. 0〜1. 0の画 素値をとる画素を有する画像として生成される。なお、実施例 1においては、 r—画像 111bの画素の画素値は、 0. 0〜1. 0の画素値をとるものとして説明する力 かかる 画素値は、 - 1. 0〜0. 0の値をとることとしてもよ!/ヽ。
[0100] 次に、正規ィ匕相関値算出部 110がおこなうテンプレート画像正負分離処理を、図 9 および図 11を用いて説明する。図 9は、テンプレート画像正負分離処理のフローチヤ ートである。図 11に示したように、テンプレート画像正負分離処理では、テンプレート 画像 51を、正のテンプレート画像である t +画像 5 laと、負のテンプレート画像である t 画像 5 lbとに分離する処理をおこなう。
[0101] 図 9に示すように、テンプレート画像正負分離処理においては、まず、テンプレート 画像 51の始点画素に移動する(ステップ S601)。かかる始点画素は、たとえば、 x= 0、 y=0の画素である。そして、力かる画素の濃度値が所定の閾値 (T )以上であれ
t
ば (ステップ S602肯定)、 t+画像 51aの同一座標の画素値を 1とする(ステップ S60 3)。一方、力かる濃度値が所定の閾値 (T )より小さければ (ステップ S602否定)、 t
t
—画像 5 lbの同一座標の画素値を 1とする(ステップ S604)。
[0102] そして、テンプレート画像 51の全ての画素について未だ正負分離処理が完了して いない場合には (ステップ S605否定)、次の注目画素に移動して (ステップ S606)、 ステップ S602以下の処理を繰り返す。一方、全ての画素について正負分離処理が 終了した場合には (ステップ S605肯定)、処理を終了する。かかるテンプレート画像 正負分離処理によって、 t+画像 51aは、エッジ部分が 1、背景部分が 0の二値画像 として生成され、 t—画像 5 lbは、エッジ部分が 0、背景部分が 1の二値画像として生 成される。
[0103] 次に、正負分離相関画像生成部 120がおこなう正負分離相関画像生成処理を、図 10および図 11を用いて説明する。図 10は、正負分離相関画像生成処理のフローチ ヤートである。
[0104] 図 11に示したように、正負分離相関画像生成処理においては、正規化相関値算 出部 110において生成した、 r+画像 l l la、 r一画像 l l lb、 t+画像 51aおよび t— 画像 51bを入力画像として用いて、 A+領域画像 121、 A—領域画像 122、 B+領域 画像 123および B 領域画像 124を生成する。
[0105] たとえば、 r+画像 11 laおよび t+画像 51aを入力画像として用いた場合、図 10に 示すように、まず、それぞれの画像の始点画素に移動する (ステップ S701)。そして、 力かる画素における t +画像 5 laの画素値が 1である場合には(ステップ S702肯定) 、 A+領域画像 121の画素値 ¾τ+画像 111&の画素値とする(ステップ3703)。一 方、力かる画素における t+画像 51aの画素値が 1でない場合 (すなわち、 0である場 合)には (ステップ S 702否定)、 A+領域画像 121の画素値を 0とする(ステップ S70 4)。
[0106] そして、全ての画素について領域画像生成処理が完了していない場合には (ステツ プ S705否定)、次の注目画素に移動して(ステップ S706)、ステップ S702以下の処 理を繰り返す。一方、全ての画素について領域画像生成処理が終了した場合には( ステップ S705肯定)、 A+領域画像 121が生成されるので、処理を終了する。
[0107] 同様に、 r一画像 11 lbおよび t+画像 51aから A—領域画像 122を、 r+画像 11 la および t一画像 51bから B+領域画像 123を、 r一画像 11 lbおよび t一画像 51bから B 領域画像 124を、それぞれ生成する。
[0108] 次に、膨張処理部 130がおこなう膨張処理を、図 12〜図 14を用いて説明する。図 12は、膨張処理において用いられる画像マスクを説明するための説明図であり、図 1 3は、膨張処理のフローチャートであり、図 14は、膨張処理によって生成される画像 を説明するための説明図である。
[0109] 力かる膨張処理においては、負の領域画像 (A—領域画像 122および B—領域画 像 124)に含まれるノイズ状の孤立点(画素)を、正の領域画像 (A+領域画像 121お よび B+領域画像 123)に移動する処理をおこなう。かかる処理をおこなうことで、照 合値の精度を高めることができる。
[0110] 図 12に示すように、力かる膨張処理においては、正領域画像マスク 130aおよび負 領域画像マスク 130b2枚の画像マスクを用いる。各画像マスクは、 P5および M5と、 これらの領域を取り囲む 8つの領域を有する。たとえば、 A—領域画像 122から A+ 領域画像 121への膨張処理をおこなう場合には、負領域画像マスク 130bの M5を A 領域画像 122の注目画素に合わせ、正領域画像マスク 130aの P5を注目画素に 対応する画素にあわせる。そして、 M5の画素値と、 P1〜P9の画素値とを順次比較 して膨張処理をおこなう。
[0111] 次に、 A—領域画像 122から A+領域画像 121への膨張処理をおこなう場合を例 ににして、力かる膨張処理の処理手順を、図 13を用いて説明する。まず、それぞれ の画像(121および 122)の始点画素に移動する(ステップ S801)。かかる始点画素 は、たとえば、 x=0、 y=0の画素である。そして、正領域マスク 130aの 9つの領域(P 1〜P9)を順次切替えるために、 nに 1を設定する(ステップ S802)。すなわち、ステツ プ S802が完了した時点においては、対象となる正領域画像マスク 130aの領域は P 1となる。
[0112] そして、 Pnの値と M5の値を比較して、 P1の値が M5の値よりも大きい場合には(ス テツプ S803肯定)、 P5の値を M5で置き換え M5の値を 0に設定する(ステップ S805 )。すなわち、 M5の画素を P5の画素に移動する。一方、 Pnの値が M5の値以下であ る場合には (ステップ S803否定)、 nの値に 1を加算して (ステップ S804)、 nの値が 9 以下の場合には (ステップ S806否定)、再度ステップ 803をおこなう。
[0113] このように、 P1〜P9の値のうち一つでも M5の値より大きいものがあれば、 M5の画 素を P5に移動する。一方、 P1〜P9の値のいずれもが M5の値以下である場合には (ステップ S806肯定)、画素の移動をおこなわない。
[0114] そして、 A—領域画像 122のすベての画素について処理が終了していない場合に は(ステップ S807否定)、次の注目画素に移動して(ステップ S808)、ステップ S802 以降の処理をおこなう。一方、 A—領域画像 122のすベての画素について処理が終 了した場合には (ステップ S807肯定)、力かる膨張処理を終了する。
[0115] 図 14に示したように、力かる膨張処理によって、 A+領域画像 121、 A—領域画像 122、 B+領域画像 123および B—領域画像 124は、それぞれ、膨張済 A+領域画 像 131、膨張済 A—領域画像 132、膨張済 B+領域画像 133および膨張済 B—領域 画像 134に画像変換される。なお、 A—領域画像 122上の孤立点は、 A+領域画像 121に移動するので、膨張済 A+領域画像 131のエッジ部分は、 A+領域画像 121 と比較して面積が増加している。一方、膨張済 A—領域画像 132のエッジ部分は、 A —領域画像 122と比較して面積が減少している。
[0116] 次に、照合値算出部 140がおこなう照合値算出処理を、図 15を用いて説明する。
図 15は、膨張済領域画像( 131〜 134)のブロック分割につ 、て説明するための説 明図である。照合値算出処理部 140は、まず、同図に示すように、各膨張済領域画 像(131〜134)を、水平方向に 4つ、垂直方向に 4つの計 16ブロックに分割し、 A+ 領域画像ブロック 141、 A—領域画像ブロック 142、 B+領域画像ブロック 143および B—領域画像ブロック 144を生成する。 [0117] そして、照合算出部 140は、式 (5)を用いて、照合値 (Z)の算出をおこなう。ここで、 式(5)の各係数 a、 b、 cおよび dは、学習サンプルを用いて線形判別分析などによ つて最適解を求めておくものとする。具体的には、硬貨の凹凸パターンのデザインの 相違によって、エッジが出やすい硬貨や出にくい硬貨が存在するので、これらの係数 は、硬貨の種別ごとに異なる値をとることになる。これらの係数を学習サンプルによつ て最適化することで、精度の良い画像照合をおこなうことができる。
[0118] そして、照合値算出部 140は、最適値が設定された、係数 a、 b、 cおよび dと、各 画像ブロック(141〜144)とを用いて照合値 (Z)を算出し、かかる照合値が閾値以上 である場合には、真正硬貨であると判定し、閾値より小さい場合には偽造硬貨である と判定する。なお、実施例 1においては、各画像を 16のブロックに分割する場合につ いて説明したが、ブロック数は、任意の数とすることができる。
[0119] なお、式(5)において、係数 cおよび dを 0に設定すれば、 A+領域画像ブロック 1
41および A—領域画像ブロック 142のみから照合値 (Z)を算出することができる。ま た、係数 aおよび bを 0に設定すれば、 B +領域画像ブロック 143および B—領域画 像ブロック 144のみ力も照合値 (Z)を算出することができる。
[0120] このように、照合算出部 140は、硬貨の種別やノヽードウエアの能力に応じて、画像 ブロック数や式(5)の各係数の値を調整することによって、効率良く画像照合をおこ なうことができる。
[0121] なお、実施例 1に係る照合算出部 140では、各領域画像をブロック分割したうえで、 式 (5)によって照合値 (Z)を算出するよう構成したが、これに限らず、他の方法によつ て照合判定をおこなうよう構成することもできる。たとえば、多層-ユーラルネットヮー ク、サポートベクトルマシン、二次識別関数等の他の方法を用いることとしてもよい。
[0122] 以降では、正規ィ匕相関値画像 111を正負分離する前に膨張処理をおこなう場合に ついて、図 16〜図 18を用いて説明する。図 16は、力かる膨張処理による画像生成 手順について説明した説明図であり、図 17は、力かる膨張処理に用いられる画像マ スクを説明するための説明図であり、図 18は、かかる膨張処理のフローチャートであ る。
[0123] 上述した膨張処理では、各領域画像(121〜124)の生成後に、負の領域画像 (た とえば、 A—領域画像 122)力も正の領域画像 (たとえば、 A+領域画像 121)に画素 を移動していた。しかしながら、力かる膨張処理は、正負分離前の正規化相関値画 像 111と正負分離前のテンプレート画像 51を用いておこなうことができる。
[0124] 図 16に示すように、正規化相関値算出部 110は、まず、入力画像 33とテンプレート 画像 51とから正規ィ匕相関値画像 111を生成する。そして、力かる膨張処理は、生成 された正規ィ匕相関値画像 111を入力として膨張処理をおこない、膨張済の正規ィ匕相 関値画像 135を生成する。そして、この膨張済の正規ィ匕相関値画像 135は、膨張済 の r+画像 135aと膨張済の r—画像 135bとに分離される。そして、膨張済の r+画像 135a,膨張済の r—画像 135b、 t+画像 51aおよび t—画像 51bを入力として、正負 分離相関値画像生成部 120の処理がおこなわれ、膨張済 A+領域画像 131、膨張 済 A—領域画像 132、膨張済 B +領域画像 133および膨張済 B—領域画像 134が 出力される。
[0125] 図 17に示すように、力かる膨張処理においては、入力画像マスク 130cおよびテン プレート画像マスク 130dの 2枚の画像マスクを用いる。各画像マスクは、 S5および T 5と、これらの領域を取り囲む 8つの領域を有する。たとえば、テンプレート画像 51と 正規ィ匕相関値画像 111とを用いて膨張処理をおこなう場合には、入力画像マスク 13 Ocの S5を正規化相関値画像の注目画素に合わせ、テンプレート画像マスク 130dの T5を注目画素に対応する画素にあわせる。そして、 S1〜S9および T1〜T9の領域 の画素値を参照し比較して膨張処理をおこなう。
[0126] 力かる膨張処理の処理手順を、図 18を用いて説明する。まず、それぞれの画像(1 11および 51)の始点画素に移動する (ステップ S901)。かかる始点画素は、たとえば 、 x=0、 y=0の画素である。そして、 S5の値が負の場合、すなわち、該当する画素 の正規ィ匕相関値が負の場合には (ステップ S902否定)、入力画像マスク 130cの 9つ の領域(S1〜S9)およびテンプレート画像マスク 130dの 9つの領域 (T1〜T9)を順 次切替えるために、 ηに 1を設定する (ステップ S 903)。
[0127] そして、 Τηの値が閾値 (Τ )よりも大きい場合には (ステップ S904肯定)、 Snの値が
t
0以上であるか否かを判定し (ステップ S905)、 Snの値が 0以上であれば (ステップ S 905肯定)、力かる Snの値と S5の絶対値とを比較する(ステップ S906)。そして、 Sn の値が S5の絶対値よりも大きければ (ステップ S906肯定)、 Snの値を S5の絶対値で 置き換える(ステップ S907)。
[0128] すなわち、 S5の周辺の Snにおいて、 Tnの値が閾値 (T )よりも大きぐかつ、 Snの t
値が 0以上であり、かつ、 Snの値が S5の絶対値よりも大きい領域(Sn)が存在する場 合には、力かる S5の画素が孤立点であると判定し、 S5の値の絶対値をとつて S5の 値を反転させる。そして、正規ィ匕相関値画像 111の全ての画素について膨張処理が 終了していなければ (ステップ S910否定)、注目画素に移動して (ステップ S911)、 ステップ S902以下の処理を繰り返す。一方、全ての画素について膨張処理が終了 した場合には (ステップ S910肯定)、力かる膨張処理を終了する。
[0129] 一方、 Tnの値が閾値 (T )以下であるか (ステップ S904否定)、 Snの値が負である t
か (ステップ S905否定)、 Snの値が S5の絶対値以下である(ステップ S906否定)で ある場合には、 nに 1を加算し (ステップ S908)、 nが 9以下であれば (ステップ S909 否定)、ステップ S904以下の処理を繰り返す。一方、 nが 9よりも大きければ (ステップ S909肯定)、ステップ S910の処理をおこなう。
[0130] このように、正規ィ匕相関値画像 111の正負分離前に膨張処理をおこなった場合で あっても、膨張済領域画像(131〜134)を取得することができる。かかる場合におい ては、正負分離前の正規ィ匕相関値画像 111を用いるので、領域画像(121〜124) 生成後の膨張処理と比較して、膨張処理の対象となる画像の数を削減することがで きるので、より効率的な膨張処理を行なうことができる。
[0131] 上述してきたように、実施例 1にかかる画像照合装置、画像照合方法および画像照 合プログラムでは、エッジ抽出処理とエッジ正規化処理を施して特徴抽出をおこなつ た入力画像と、あら力じめエッジ正規ィ匕処理が施されたテンプレート画像とを照合し、 正規化相関値画像を生成するとともに、正規化相関値画像およびテンプレート画像 を、各画像中の画素値が閾値以上か否かによって、それぞれ、正の正規化相関値画 像および負の正規化相関値画像と、正のテンプレート画像および負のテンプレート 画像に分離したうえで、力かる画像の組み合わせによって、正の特徴領域画像、負 の特徴領域画像、正の背景領域画像および負の背景領域画像を生成し、さらに、負 の特徴領域画像から正の特徴領域画像への画素の移動と、負の背景領域画像から 正の特徴領域画像への画素の移動をおこなう膨張処理を施し、これらの膨張処理済 みの領域画像をブロック分割して線形判別分析等によって照合値を算出して照合判 定をおこなうよう構成したので、入力画像およびテンプレート画像の全画素を照合対 象とするとともに、相関値算出に伴う孤立点の影響を排除しつつ、特徴領域のみなら ず、背景領域の相関値をもバランスよく照合値に反映することができるので、精度の よい画像照合をおこなうことができ、画像の照合率を向上させることができる。
[0132] なお、実施例 1においては、硬貨の入力画像について画像照合をおこなう場合に ついて説明したが、本発明はこれに限定されるものではなぐたとえば、紙幣の画像 照合や、 FA (Factory Automation)などにおける部品や製品の画像照合にも適用す ることがでさる。
実施例 2
[0133] さて、上述した実施例 1にお 、ては直交座標系を用いて硬貨などの画像照合をお こなう場合について説明した。本実施例 2では、かかる直交座標系のかわりに極座標 系を用いた画像照合について説明する。極座標系を用いることで、硬貨などの円形 物体の画像照合をより効率的におこなうことができる。
[0134] 図 19は、実施例 2に係る画像照合装置の構成を示す機能ブロック図である。同図 に示すように、この画像照合装置 201は、画像入力部 210と、画像切出部 220と、ェ ッジ抽出部 230と、マッチング処理部 240と、登録画像記憶部 250と、正負分離相関 判定部 300とを備えており、力かるマッチング処理部 240は、極座標変換部 240aと、 回転角検出部 240bと、表裏判定部 240cとを備えており、力かる正負分離相関判定 部 300は、正規化相関値算出部 310と、正負分離相関画像生成部 320と、膨張処理 部 330と、照合値算出部 340とを備えている。
[0135] 画像入力部 210は、照合対象となる硬貨の入力画像を装置内に取り込むための入 力部であり、入力された画像を画像切出部 220に出力する。具体的には、画像入力 部 210は、入力画像を所定数の画素の集合体として取り扱う。たとえば、入力画像を 256階調の濃度値をもつグレースケール画像として認識し、所定の大きさの矩形画 像として画像切出部に出力する。
[0136] 画像切出部 220は、画像入力部 210から力かる矩形画像を取得し、硬貨画像に外 接する正方形の領域内の画像のみを切り出して、切り出した画像をエッジ抽出部 23 0に出力する。
[0137] 図 20は、この画像切出部 220の処理概要を説明するための説明図である。同図に 示すように、画像切出部 220は、画像入力部 210から取得した入力画像 211を水平 方向に走査して全画素の濃度値を累積し、水平方向射影 221を生成する。また、入 力画像 211を垂直方向に走査して、同様の手順で垂直方向射影 222を生成する。 そして、画像切出部 220は、水平方向射影 221および垂直方向射影 222を走査し、 累積した濃度値の立上り座標と立下り座標を算出する。そして、同図の 4本の破線で 示したように、算出された各座標に囲まれた領域を切出画像 223として切り出し、この 切出画像 223をエッジ抽出部 230に出力する。
[0138] 図 19の説明に戻り、エッジ抽出部 230について説明する。エッジ抽出部 230は、画 像切出部 220から切出画像 223を取得し、切出画像 223の明るさや色合いなどの個 体差に基づく影響を避けるために、切出画像 223の濃度変化 (エッジ強度)を算出す る。また、算出したエッジ強度のばらつきを抑えるために、エッジ強度の正規ィ匕をおこ なう。具体的には、切出画像 223に対して Sobelオペレータを用いたエッジ抽出処理 をおこなうことによってエッジ強度を算出し、算出結果を正規化する。なお、実施例 2 においては、 Sobelオペレータを用いることとしたが、 Robertsオペレータなどを用い てエッジ抽出をおこなうこともできる。
[0139] 図 21は、 Sobelオペレータを説明するための説明図である。同図に示すように、ェ ッジ抽出部 230は、水平方向エッジ算出用 230aおよび垂直方向エッジ算出用 230b の二つの Sobelオペレータを用いてエッジ強度の算出をおこなう。具体的には、切出 画像 223の全画素について、各 Sobelオペレータ(230aおよび 230b)を走査し、水 平方向エッジ算出結果 Gxおよび垂直方向エッジ算出結果 Gyを取得する。そして、 各画素におけるエッジ強度 (G)を算出したうえで、力かるエッジ強度を正規ィ匕 (E)す る。
[数 5] G = |GJ + |Gy ' (6)
[0140] 式 (6)に示すように、各画素におけるエッジ強度 (G)は、水平方向エッジ算出結果 Gxの絶対値と垂直方向エッジ算出結果 Gyの絶対値との和としてあらわされる。また 、式(7)に示すように、各画素における正規ィ匕エッジ強度 (E)は、硬貨の種別毎に所 定の値が設定される定数 cとエッジ強度 (G)との積を、全画素にわたるエッジ強度 (G )の総和で除したものとなる。
[0141] このように、エッジ強度の正規ィ匕をおこなうことで、エッジが出やすい新貨と、エッジ が出にくい流通貨との間で、エッジ強度のばらつきが発生することを抑えることができ るので、硬貨の新旧にかかわらず、種々の硬貨の照合を精度良くおこなうことができ る。
[0142] 図 22は、エッジ抽出部 230によっておこなわれるエッジ抽出処理 (画像変換処理) の概要を説明するための説明図である。同図に示すように、切出画像 223は、 Sobel オペレータを用いたエッジ強度算出処理によって、エッジ抽出画像 231に画像変換 される。そして、エッジ抽出画像 231は、式 (6)および式(7)を用いたエッジ強度正規 化処理によって、エッジ正規ィ匕画像 232に画像変換される。エッジ抽出部 230は、こ のエッジ正規化画像 232をマッチング処理部 240に出力する。
[0143] 同図に示したエッジ抽出画像 231の各画素値は、たとえば、 0〜255の値をとり、 0 が黒に対応し、 255が白に対応したグレースケール値をとる。同図のエッジ抽出画像 231において、白い部分が抽出されたエッジ部分であり、黒い部分が背景部分であ る。また、エッジ正規ィ匕画像 232の各画素値は、たとえば、 0〜255の値をとり、 0が黒 に対応し、 255が白に対応したグレースケール値をとる。なお、同図のエッジ正規ィ匕 画像において、白い部分がエッジ部分に相当し、黒い部分が背景に相当する点はェ ッジ抽出画像 231と同様である。
[0144] 図 19の説明に戻って、マッチング処理部 240について説明する。マッチング処理 部 240は、エッジ抽出部 230からエッジ正規ィ匕画像 232を取得し、登録画像記憶部 250からエッジ正規ィ匕および極座標変換済のテンプレート画像を取得する。そして、 力かるエッジ正規ィ匕画像 232を極座標変換し、この極座標変換済の画像と、テンプ レート画像とのずれ角をテンプレート画像の平行移動によって検出するとともに、表 裏の判定をおこなって、エッジ正規ィ匕画像 232およびずれ角補正済テンプレート画 像を正負分離相関判定部 300に出力する。なお、実施例 2においては、テンプレート 画像を平行移動させることによってずれ角を検出する場合について説明するが、エツ ジ正規ィ匕画像 232を極座標変換した画像を平行移動させることによってずれ角を検 出することとしてもよい。
[0145] 極座標変換部 240aは、エッジ正規ィ匕画像 232を極座標変換する処理部である。
具体的には、エッジ正規ィ匕画像 232の中心点を算出して、かかる中心点を極座標の 原点とする。そして、回転角 Θおよび中心点からの距離 pによって各画素を特定し、 各画素を P— Θ空間に移動させることによって、極座標変換をおこなう。かかる変換 には、
[数 6]
X = p · cos(9 ) - - - (8) y = p■ sin(e) - - - (9) を用いる。
[0146] 図 23は、力かる極座標変換の処理概要を説明するための説明図である。 X— y空 間(エッジ正規ィ匕画像 232)の中心点を原点とし、各画素の座標を (X, y)であらわす と、力かる Xおよび yと、上述した pおよび Θとは、式(8)および式(9)に示した関係を 有する。したがって、エッジ正規ィ匕画像 232内の各画素 (X, y)を、式 (8)および(9) の関係を満たす( P , Θ )に変換することによって、極座標変換部 240aは、極座標変 換済エッジ正規化画像 233を生成する。
[0147] なお、同図においては、中心点からの距離 pは、 10〜: LOOの値をとり、回転角 Θは 、 0〜255の値をとる場合について示している力 これらの値の範囲は任意に設定す ることがでさる。
[0148] 図 19の説明に戻り、回転角検出部 240bについて説明する。回転角検出部 240b は、極座標変換済エッジ正規化画像 233と、同様の極座標変換処理によってあらか じめ極座標変換されたテンプレート画像とのずれ角を検出して、両画像のずれ角を 補正する処理をおこなう。図 24は、回転角検出部 240bの処理概要を説明するため の説明図である。
[0149] 同図に示すように、 Θ空間において、テンプレート画像 251を Θ座標軸と平行 に移動させる。そして、 Θ座標方向のずらし角( φ )と、各ずらし角( φ )におけるテン プレート画像 251とエッジ正規ィ匕画像 232との一致度 Μ ( φ )を算出し、この一致度 Μ ( )が最大となる回転角 φ を取得する。なお、かかる一致度 Μ ( φ )は、
[数 7]
Figure imgf000040_0001
によって算出する。
[0150] 式(10)に示すように、各ずらし角( φ )における一致度 Μ ( φ )は、テンプレート画像 251を φだけずらした場合において、テンプレート画像 251の各画素の濃度値 t (k, 0— φ )と、エッジ正規ィ匕画像 232の各画素の濃度値 s (k, Θ )との積を各画素にわ たり総和したしたものとなる。ここで、 kは、エッジ正規ィ匕画像 232における中心点から の距離 Pのうち、特徴の出やすい距離を選択した選択値である。たとえば、図 23〖こ 示した極座標変換済エッジ正規ィ匕画像 233の p (0〜: L00)のうち、特徴の出やすい の値を 16個抽出することによって、かかる kを選択しておく。
[0151] 力かる Μ ( φ )の値は、図 24に示したように、ある回転角において最大値をもつ山型 のグラフとなる。回転角検出部 240bは、かかる Μ ( φ )が最大(山型の頂点部分)とな る φ の値を取得する。このように、回転角検出部 240bは、極座標変換を施した p max
Θ画像の平行移動によってずれ角を補正するので、 X— y画像の回転によってず れ角を補正する方法に比べ計算量を削減することができる。
[0152] 図 19の説明に戻って、表裏判定部 240cについて説明する。まず、表裏判定部 24 Ocは、極座標変換済の表用テンプレート画像および裏用テンプレート画像と、極座 標変換済エッジ正規ィ匕画像 233との間で、上述した一致度 M ( φ )の最大値 M ( φ )を算出し、この Μ ( φ )から正規ィ匕相関係数 Rを求める。具体的には、この正規ィ匕 max
相関係数 Rは、
[数 8]
R 1^(小匪)—;^ ^
A/ ∑t2 - (∑り2 T '∑s2 - (∑s)
Figure imgf000041_0001
…(川 によって求められる。なお、式(11)中の Nは、判定対象となる画素数を示す。
[0153] そして、力かる表裏判定部 240cは、正規ィ匕相関係数 Rが大きいほうのテンプレート 画像を選択し、極座標変換済エッジ正規ィ匕画像 233とともに正負分離相関判定部 3 00に出力する。たとえば、裏用テンプレート画像と極座標変換済エッジ正規ィ匕画像 2 33との正規ィ匕相関係数 Rのほうが、表用テンプレート画像と極座標変換済エッジ正 規ィ匕画像 233との正規ィ匕相関係数 Rよりも大きい場合には、裏用テンプレート画像と 極座標変換済エッジ正規ィ匕画像 233とを正負分離相関判定部 300に出力する。ここ で、正負分離相関判定部 300に出力されるテンプレート画像は、角度 φ だけ平行 max 移動して極座標変換済エッジ正規ィ匕画像 233とのずれ角を補正したテンプレート画 像である。
[0154] 図 19の説明に戻り、登録画像記憶部 250について説明する。登録画像記憶部 25 0は、あら力じめ登録された各種硬貨に対応した複数のテンプレート画像を記憶し、 マッチング処理部 240に、これらのテンプレート画像を提供する。かかるテンプレート 画像には、硬貨の個体差によるばらつきを抑えるため、同一種類の硬貨の画像を複 数合成した平均画像を用いる。カゝかる平均画像を用いることによって、製造年などの 各硬貨に固有の凹凸パターン部分と、テンプレート画像の対応部分との相関値は、 平均画像 (平均値)についての相関値となるため照合時の影響が出に《なる。すな わち、真正硬貨であるにもかかわらず、製造年が異なることによって偽造硬貨である と判定することを防止することができる。 [0155] かかるテンプレート画像は、極座標変換処理およびエッジ正規化処理が施された 入力画像と照合させるため、入力画像と同様に極座標変換処理およびエッジ正規ィ匕 処理が施された後に、登録画像記憶部 250に登録される。また、登録画像記憶部 25 0には、各金種の表面および裏面のテンプレート画像が複数登録される。
[0156] 図 19の説明に戻って、正負分離相関判定部 300について説明する。正負分離相 関判定部 300は、マッチング処理部 240から、図 24に示した極座標変換済エッジ正 規化画像 233 (以下「入力画像 233」と言う)およびずれ角補正済みのテンプレート画 像 251 (以下「テンプレート画像 251」と言う)を取得し、これらの画像を照合すること によって入力画像 233に係る硬貨が真正硬貨である力否かを照合判定し、かかる判 定結果を出力する。
[0157] 正規ィ匕相関値算出部 310は、入力画像 233およびテンプレート画像 251の対応す る画素毎の相関値を算出し、力かる相関値を正規ィ匕して正規ィ匕相関値画像を生成 する。具体的には、座標値が(k, Θ )の各画素について、入力画像 233の濃度値 s ( k, 0 )およびずれ角補正済のテンプレート画像 251の濃度値 t (k, Θ - φ )を用い
max て、
ー(12)
Figure imgf000042_0001
によって各画素の正規ィ匕相関値!: (k, Θ )を算出する。なお、式(12)に示す各画素 における正規ィ匕相関値 r (k, 0 )は、たとえば、 1. 0〜+ 1. 0の値をとる。また、式( 12)中の nは、画素数を示す。
[0158] そして、正規ィ匕相関値算出部 310は、力かる正規ィ匕相関値画像の画素値が 0以上 か否かによって、正の正規化相関値画像 (r+画像)と負の正規ィ匕相関値画像 (r— 画像)とに分離する。また、テンプレート画像 251については、各画素値が所定の閾 値 (T )以上か否かによって、正のテンプレート画像 (t+画像)と負のテンプレート画 t
像 (t一画像)とに分離する。 [0159] なお、 r+画像の画素値は、たとえば、 0. 0〜1. 0の値をとり、 r一画像の画素値は 、各画素値の絶対値をとることによって、たとえば、 0. 0〜1. 0の値をとる。また、 t+ 画像および t—画像の画素値は、たとえば、 0か 1の二値をとる。すなわち、 t+画像お よび t一画像は、各正規化相関値画像の画像変換に用いられる画像マスクとしての 役割を有する。
[0160] ここで、それぞれの画像の意味を説明すると、 r+画像は照合対象となる画像間に 相関がある(似ている)画素を示し、強い相関があれば、かかる画素は大きい値をとる 。また、 r—画像は照合対象となる画像間に相関がない (似ていない)ことを示し、強 い負の相関があれば、力かる画素は大きい値をとる。そして、 t+画像はテンプレート 画像のエッジ部分を示し、エッジ部分が 背景部分が 0の値をとる。また、 t—画像は テンプレート画像の背景部分 (エッジでない部分)を示し、背景部分が 1、エッジ部分 力 SOの値をとる。
[0161] 正負分離相関画像生成部 320は、正規ィ匕相関値算出部 310が生成した、 r+画像 、 r一画像、 t+画像および t一画像の組み合わせによって正負分離相関画像を生成 する。具体的には、 r+画像と t+画像とから A+領域画像を、 r—画像と t+画像とか ら A—領域画像を、 r+画像と t—画像とから B+領域画像を、 r—画像と t—画像とか ら B—領域画像をそれぞれ生成する。
[0162] ここで、各領域画像の意味を説明する。図 25は、力かる 4つの領域を説明するため の説明図である。同図に示すように、 A+領域画像は、 r+画像と t+画像とを重ね合 わせた領域画像であり、エッジ部分と相関があること、すなわち、エッジが出るべきと ころにエッジが出ていることを示し、特許請求の範囲における正特徴領域画像に対 応する。 A—領域画像は、 r—画像と t+画像とを重ね合わせ領域画像であり、エッジ 部分と相関がないこと、すなわち、エッジが出るべきところにエッジが出ていないこと を示し、特許請求の範囲における負特徴領域画像に対応する。 B+領域画像は、 r +画像と t一画像とを重ね合わせた領域画像であり、背景部分と相関があること、す なわち、エッジが出るべきでないところにエッジが出ていないことを示し、特許請求の 範囲における正背景領域画像に対応する。 B—領域画像は、 r—画像と t—画像とを 重ね合わせ領域画像であり、背景部分と相関がないこと、すなわち、エッジが出るベ きでな!、ところにエッジが出て!/、な!/、ことを示し、特許請求の範囲における負背景領 域画像に対応する。
[0163] 図 19の説明に戻って、膨張処理部 330について説明する。膨張処理部 330は、所 定の画像マスクを用いて、 A—領域画像の画素を A+領域画像に移動させるとともに 、 B—領域画像の画素を B+領域画像に移動させる。力かる膨張処理をおこなうのは 、正規ィ匕相関値にはノイズ状に負の相関値をもつ孤立点があらわるためである。すな わち、力かる膨張処理をおこなうことによって、力かる孤立点の影響が照合値の判定 結果におよぶことを抑えることができる。
[0164] 照合値算出部 340は、 A+領域画像、 A—領域画像、 B+領域画像および B—領 域画像のそれぞれを、たとえば、水平方向に 16、垂直方向に 4の計 64ブロックに分 割し、
[数 10]
Ζ = Σ∑(&ϋΑΐ + h^ + + ) … ( 13) 式(13)によって、照合値 (Z)を求める。ここで、係数 a、 b、 cおよび dは学習サンプ
1J 1J 1J 1J
ルを用いて線形判別分析によって最適解を求める。なお、各領域画像のブロック値 である A+、 A―、 B+および B—は、各ブロック内の画素値の総和を示す。
ϋ ϋ ϋ ϋ
[0165] そして、照合値算出部 340は、かかる照合値 (Z)が閾値以上であれば、入力画像 2 33に係る硬貨は真正硬貨であると判定し、閾値より小さければ偽造硬貨であると判 定したうえで、照合結果を出力する。
[0166] 以降では、図 19に示した正負分離相関判定部 300の処理をさらに具体的に説明 する。まず、正規化相関値算出部 310がおこなう正規化相関値正負分離処理を、図 26および図 29を用いて説明する。図 26は、正規ィ匕相関値正負分離処理のフローチ ヤートであり、図 29は、正負分離相関判定部 300における画像生成手順を説明する ための説明図である。
[0167] 図 29に示すように、正規ィ匕相関値算出部 310は、まず、入力画像 233とテンプレ ート画像 251とから正規ィ匕相関値画像 311を生成する。そして、生成された正規化相 関値画像 311を入力として正規ィ匕相関値正負分離処理をおこない、かかる正規ィ匕相 関値画像 311を、正の相関値画像である r+画像 31 laと、負の相関値画像である r 一画像 3 l ibとに分離する。
[0168] 図 26に示すように、正規ィ匕相関値正負分離処理においては、まず、正規化相関値 画像 311の始点画素に移動する (ステップ S1501)。かかる始点画素は、たとえば、 k =0、 0 =0の画素である。そして、力かる画素の正規化相関値 r (k, 0 )を式(12)を 用いて算出し (ステップ S1502)、算出した r (k, 0 )が 0以上であれば (ステップ SI 5 03肯定)、力かる画素値を r+画像 311aの同一座標の画素値とする(ステップ S 150 4)。一方、算出した r (k, Θ )が 0より小さければ (ステップ S1503否定)、力かる画素 の画素値の絶対値を、 r 画像 31 lbの同一座標の画素値とする(ステップ S 1505)。
[0169] そして、正規化相関値画像 311の全ての画素について未だ正負分離処理が完了 していない場合には (ステップ S 1506否定)、次の注目画素に移動して (ステップ S1 507)、ステップ S 1502以下の処理を繰り返す。一方、全ての画素について正負分 離処理が終了した場合には (ステップ S1506肯定)、処理を終了する。力かる正規ィ匕 相関値正負分離処理によって、 r+画像 311aおよび r—画像 311bは、 0. 0〜1. 0 の画素値をとる画素を有する画像として生成される。なお、実施例 2においては、 r— 画像 31 lbの画素の画素値は、 0. 0〜1. 0の画素値をとるものとして説明する力 か 力る画素値は、 - 1. 0〜0. 0の値をとることとしてもよ!/、。
[0170] 次に、正規ィ匕相関値算出部 310がおこなうテンプレート画像正負分離処理を、図 2 7および図 29を用いて説明する。図 27は、テンプレート画像正負分離処理のフロー チャートである。図 29に示したように、テンプレート画像正負分離処理では、テンプレ ート画像 251を、正のテンプレート画像である t+画像 251aと、負のテンプレート画像 である t一画像 25 lbとに分離する処理をおこなう。
[0171] 図 27に示すように、テンプレート画像正負分離処理においては、まず、テンプレー ト画像 251の始点画素に移動する(ステップ S1601)。かかる始点画素は、たとえば、 k=0、 Θ =0の画素である。そして、力かる画素の濃度値が所定の閾値 (T )以上で
t
あれば (ステップ S1602肯定)、 t+画像 251aの同一座標の画素値を 1とする(ステツ プ S1603)。一方、力かる濃度値が所定の閾値 (T )より小さければ (ステップ S1602
t 否定)、 t -画像 25 lbの同一座標の画素値を 1とする (ステップ S 1604)。
[0172] そして、テンプレート画像 251の全ての画素について未だ正負分離処理が完了し ていない場合には(ステップ S1605否定)、次の注目画素に移動して (ステップ S 160 6)、ステップ S1602以下の処理を繰り返す。一方、全ての画素について正負分離処 理が終了した場合には (ステップ S1605肯定)、処理を終了する。かかるテンプレート 画像正負分離処理によって、 t+画像 251aは、エッジ部分が 1、背景部分が 0の二値 画像として生成され、 t—画像 25 lbは、エッジ部分が 0、背景部分が 1の二値画像と して生成される。
[0173] 次に、正負分離相関画像生成部 320がおこなう正負分離相関画像生成処理を、図 28および図 29を用いて説明する。図 28は、正負分離相関画像生成処理のフローチ ヤートである。
[0174] 図 29に示したように、正負分離相関画像生成処理においては、正規化相関値算 出部 310において生成した、 r+画像 311a、 r一画像 311b、 t+画像 251aおよび t —画像 251bを入力画像として用いて、 A+領域画像 321、 A—領域画像 322、 B + 領域画像 323および B—領域画像 324を生成する。
[0175] たとえば、 r+画像 31 laおよび t+画像 251aを入力画像として用いた場合、図 28 に示すように、まず、それぞれの画像の始点画素に移動する (ステップ S1701)。そし て、かかる画素における t +画像 25 laの画素値が 1である場合には (ステップ S 1702 肯定)、 A+領域画像 321の画素値 ¾τ+画像 31 laの画素値とする(ステップ S1703 ) o一方、力かる画素における t+画像 251aの画素値が 1でない場合(すなわち、 0で ある場合)には (ステップ S 1702否定)、 A+領域画像 321の画素値を 0とする (ステツ プ S 1704)。
[0176] そして、全ての画素について領域画像生成処理が完了していない場合には (ステツ プ S 1705否定)、次の注目画素に移動して(ステップ S 1706)、ステップ S 1702以下 の処理を繰り返す。一方、全ての画素について領域画像生成処理が終了した場合 には (ステップ S1705肯定)、 A+領域画像 321が生成されるので、処理を終了する
[0177] 同様に、 r一画像 31 lbおよび t+画像 251aから A—領域画像 322を、 r+画像 311 aおよび t一画像 251bから B+領域画像 323を、 r一画像 31 lbおよび t一画像 251b から B 領域画像 324を、それぞれ生成する。
[0178] 次に、膨張処理部 330がおこなう膨張処理を、図 30〜図 32を用いて説明する。図 30は、膨張処理において用いられる画像マスクを説明するための説明図であり、図 3 1は、膨張処理のフローチャートであり、図 32は、膨張処理によって生成される画像 を説明するための説明図である。
[0179] 力かる膨張処理においては、負の領域画像 (A—領域画像 322および B—領域画 像 324)に含まれるノイズ状の孤立点(画素)を、正の領域画像 (A+領域画像 321お よび B+領域画像 323)に移動する処理をおこなう。かかる処理をおこなうことで、照 合値の精度を高めることができる。
[0180] 図 30に示すように、力かる膨張処理においては、正領域画像マスク 330aおよび負 領域画像マスク 330b2枚の画像マスクを用いる。各画像マスクは、 P5および M5と、 これらの領域を取り囲む 8つの領域を有する。たとえば、 A—領域画像 322から A+ 領域画像 321への膨張処理をおこなう場合には、負領域画像マスク 330bの M5を A 領域画像 322の注目画素に合わせ、正領域画像マスク 330aの P5を注目画素に 対応する画素にあわせる。そして、 M5の画素値と、 P1〜P9の画素値とを順次比較 して膨張処理をおこなう。
[0181] 次に、 A—領域画像 322から A+領域画像 321への膨張処理をおこなう場合を例 ににして、力かる膨張処理の処理手順を、図 31を用いて説明する。まず、それぞれ の画像(321および 322)の始点画素に移動する(ステップ S1801)。かかる始点画 素は、たとえば、 k=0、 Θ =0の画素である。そして、正領域マスク 330aの 9つの領 域 (P1〜P9)を順次切替えるために、 nに 1を設定する (ステップ S1802)。すなわち 、ステップ S1802が完了した時点においては、対象となる正領域画像マスク 330aの 領域は P1となる。
[0182] そして、 Pnの値と M5の値を比較して、 P1の値が M5の値よりも大きい場合には(ス テツプ S 1803肯定)、 P5の値を M5で置き換え M5の値を 0に設定する(ステップ S 18 05)。すなわち、 M5の画素を P5の画素に移動する。一方、 Pnの値が M5の値以下 である場合には(ステップ S1803否定)、 nの値に 1をカ卩算して(ステップ S1804)、 n の値が 9以下の場合には(ステップ S1806否定)、再度ステップ S1803をおこなう。
[0183] このように、 P1〜P9の値のうち一つでも M5の値より大きいものがあれば、 M5の画 素を P5に移動する。一方、 P1〜P9の値のいずれもが M5の値以下である場合には (ステップ S 1806肯定)、画素の移動をおこなわない。
[0184] そして、 A—領域画像 322のすベての画素について処理が終了していない場合に は(ステップ S1807否定)、次の注目画素に移動して(ステップ S1808)、ステップ S1 802以降の処理をおこなう。一方、 A—領域画像 322のすベての画素について処理 が終了した場合には (ステップ S1807肯定)、力かる膨張処理を終了する。
[0185] 図 32に示したように、力かる膨張処理によって、 A+領域画像 321、 A—領域画像 322、 B+領域画像 323および B—領域画像 324は、それぞれ、膨張済 A+領域画 像 331、膨張済 A—領域画像 332、膨張済 B+領域画像 333および膨張済 B—領域 画像 334に画像変換される。なお、 A—領域画像 322上の孤立点は、 A+領域画像 321に移動するので、膨張済 A+領域画像 331のエッジ部分は、 A+領域画像 321 と比較して面積が増加している。一方、膨張済 A—領域画像 132のエッジ部分は、 A —領域画像 322と比較して面積が減少して 、る。
[0186] 次に、照合値算出部 340がおこなう照合値算出処理を、図 33を用いて説明する。
図 33は、膨張済領域画像(331〜334)のブロック分割について、膨張済 A+領域 画像 331をブロック分割する場合の例を説明するための説明図である。照合値算出 処理部 340は、まず、同図に示すように、膨張済 A+領域画像 331を、水平方向に 1 6、垂直方向に 4の計 64ブロックに分割する。同様に、膨張済 A—領域画像 332、膨 張済 B+領域画像 333および膨張済 B—領域画像 334についてもブロック分割をお こなう。
[0187] そして、照合値算出部 340は、式(13)を用いて、照合値 (Z)の算出をおこなう。ここ で、式(13)の各係数 a、 b、 cおよび dは、学習サンプルを用いて線形判別分析な どによって最適解を求めておくものとする。具体的には、硬貨の凹凸パターンのデザ インの相違によって、エッジが出やすい硬貨や出にくい硬貨が存在するので、これら の係数は、硬貨の種別ごとに異なる値をとることになる。これらの係数を学習サンプル によって最適化することで、精度の良い画像照合をおこなうことができる。 [0188] そして、照合値算出部 340は、最適値が設定された、係数 a、 b、 cおよび dと、各 画像ブロックとを用いて照合値 (z)を算出し、かかる照合値が閾値以上である場合に は、真正硬貨であると判定し、閾値より小さい場合には偽造硬貨であると判定する。 なお、実施例 2においては、各画像を 64のブロックに分割する場合について説明し た力 ブロック数は、任意の数とすることができる。
[0189] なお、式(13)において、係数 cおよび dを 0に設定すれば、 A+領域画像ブロック および A—領域画像ブロックのみ力も照合値 (Z)を算出することができる。また、係数 aおよび bを 0に設定すれば、 B +領域画像ブロックおよび B—領域画像ブロックの み力も照合値 (Z)を算出することができる。
[0190] このように、照合値算出部 340は、硬貨の種別やノヽードウエアの能力に応じて、画 像ブロック数や式(13)の各係数の値を調整することによって、効率良く画像照合を おこなうことができる。
[0191] なお、実施例 2に係る照合値算出部 340では、各領域画像をブロック分割したうえ で、式(13)によって照合値 (Z)を算出するよう構成したが、これに限らず、たとえば、 多層-ユーラルネットワーク、サポートベクトルマシン、二次識別関数等の他の方法を 用いることとしてちよい。
[0192] 以降では、正規ィ匕相関値画像 311を正負分離する前に膨張処理をおこなう場合に ついて、図 34〜図 36を用いて説明する。図 34は、力かる膨張処理による画像生成 手順について説明した説明図であり、図 35は、力かる膨張処理に用いられる画像マ スクを説明するための説明図であり、図 36は、かかる膨張処理のフローチャートであ る。
[0193] 上述した膨張処理は、各領域画像 (321〜324)の生成後に、負の領域画像 (たと えば、 A—領域画像 322)力も正の領域画像 (たとえば、 A+領域画像 321)に画素 を移動していた。しかしながら、力かる膨張処理は、正負分離前の正規化相関値画 像 311と正負分離前のテンプレート画像 251とを用 、ておこなうことができる。
[0194] 図 34に示すように、正規ィ匕相関値算出部 310は、まず、入力画像 233とテンプレ ート画像 251とから正規ィ匕相関値画像 311を生成する。そして、力かる膨張処理は、 生成された正規ィ匕相関値画像 311を入力として膨張処理をおこない、膨張済の正規 化相関値画像 335を生成する。そして、この膨張済の正規ィ匕相関値画像 335は、膨 張済の r+画像 335aと膨張済の r—画像 335bとに分離される。そして、膨張済の r+ 画像 335a、膨張済の r—画像 335b、 t+画像 251aおよび t—画像 251bを入力とし て、正負分離相関値画像生成部 320の処理がおこなわれ、膨張済 A+領域画像 33 1、膨張済 A—領域画像 332、膨張済 B+領域画像 333および膨張済 B—領域画像 334が出力される。
[0195] 図 35に示すように、力かる膨張処理においては、入力画像マスク 330cおよびテン プレート画像マスク 330dの 2枚の画像マスクを用いる。各画像マスクは、 S5および T 5と、これらの領域を取り囲む 8つの領域を有する。たとえば、テンプレート画像 251と 正規ィ匕相関値画像 311とを用いて膨張処理をおこなう場合には、入力画像マスク 33 Ocの S5を正規化相関値画像の注目画素に合わせ、テンプレート画像マスク 330dの T5を注目画素に対応する画素にあわせる。そして、 S1〜S9および T1〜T9の領域 の画素値を参照し比較して膨張処理をおこなう。
[0196] 力かる膨張処理の処理手順を、図 36を用いて説明する。まず、それぞれの画像(3 11および 251)の始点画素に移動する(ステップ S1901)。かかる始点画素は、たと えば、 k=0、 Θ =0の画素である。そして、 S5の値が負の場合、すなわち、該当する 画素の正規ィ匕相関値が負の場合には (ステップ S1902否定)、入力画像マスク 330c の 9つの領域(S1〜S9)およびテンプレート画像マスク 330dの 9つの領域 (T1〜T9 )を順次切替えるために、 ηに 1を設定する (ステップ S 1903)。
[0197] そして、 Τηの値が閾値 (Τ )よりも大きい場合には (ステップ S1904肯定)、 Snの値
t
力 SO以上である力否かを判定し (ステップ SI 905)、 Snの値が 0以上であれば (ステツ プ S1905肯定)、力かる Snの値と S5の絶対値とを比較する(ステップ S1906)。そし て、 Snの値が S5の絶対値よりも大きければ (ステップ S1906肯定)、 Snの値を S5の 絶対値で置き換える(ステップ S 1907)。
[0198] すなわち、 S5の周辺の Snにおいて、 Tnの値が閾値 (T )よりも大きぐかつ、 Snの
t
値が 0以上であり、かつ、 Snの値が S5の絶対値よりも大きい領域(Sn)が存在する場 合には、力かる S5の画素が孤立点であると判定し、 S5の値の絶対値をとつて S5の 値を反転させる。そして、正規ィ匕相関値画像 311の全ての画素について膨張処理が 終了して!/、なければ (ステップ S 1910否定)、注目画素に移動して (ステップ S 1911) 、ステップ S 1902以下の処理を繰り返す。一方、全ての画素について膨張処理が終 了した場合には (ステップ S1910肯定)、力かる膨張処理を終了する。
[0199] 一方、 Tnの値が閾値 (T )以下であるか (ステップ S1904否定)、 Snの値が負であ t
るか (ステップ SI 905否定)、 Snの値が S5の絶対値以下である(ステップ S1906否 定)である場合には、 nに 1を加算し (ステップ S1908)、 nが 9以下であれば (ステップ S 1909否定)、ステップ S 1904以下の処理を繰り返す。一方、 nが 9よりも大きければ (ステップ S 1909肯定)、ステップ S 1910の処理をおこなう。
[0200] このように、正規ィ匕相関値画像 311の正負分離前に膨張処理をおこなった場合で あっても、膨張済領域画像(331〜334)を取得することができる。かかる場合におい ては、正負分離前の正規ィ匕相関値画像 311を用いるので、領域画像(321〜324) 生成後の膨張処理と比較して、膨張処理の対象となる画像の数を削減することがで きるので、より効率的な膨張処理を行なうことができる。
[0201] 上述してきたように、実施例 2にかかる画像照合装置、画像照合方法および画像照 合プログラムでは、エッジ抽出処理とエッジ正規化処理を施して特徴抽出をおこなつ た極座標変換入力画像と、あらかじめエッジ正規ィ匕処理が施された極座標変換テン プレート画像とを照合し、両画像のずれ角を補正して正規化相関値画像を生成する とともに、正規ィ匕相関値画像およびテンプレート画像を、各画像中の画素値が閾値 以上か否かによって、それぞれ、正の正規ィ匕相関値画像および負の正規ィ匕相関値 画像と、正のテンプレート画像および負のテンプレート画像に分離したうえで、かかる 画像の組み合わせによって、正の特徴領域画像、負の特徴領域画像、正の背景領 域画像および負の背景領域画像を生成し、さらに、負の特徴領域画像から正の特徴 領域画像への画素の移動と、負の背景領域画像から正の特徴領域画像への画素の 移動をおこなう膨張処理を施し、これらの膨張処理済みの領域画像をブロック分割し て線形判別分析によって照合値を算出して照合判定をおこなうよう構成したので、入 力画像およびテンプレート画像の全画素を照合対象とするとともに、相関値算出に伴 う孤立点の影響を排除しつつ、特徴領域のみならず、背景領域の相関値をもバラン スよく照合値に反映することができるので、精度のよい画像照合をおこなうことができ 、照合率を向上させることができる。
[0202] なお、実施例 2においては、硬貨の入力画像について画像照合をおこなう場合に ついて説明したが、本発明はこれに限定されるものではなぐたとえば、遊戯施設な どで用いられるメダル類の画像照合や、 FA (Factory Automation)などにおける円形 部品や円形製品の画像照合にも適用することができる。また、照合対象物は必ずしも 円形である必要はなぐ正八角形や正十六角形などの点対称の形状を有する硬貨 や部品などにも本発明を適用することができる。
産業上の利用可能性
[0203] 以上のように、本発明に力かる画像照合装置、画像照合方法および画像照合プロ グラムは、物品の画像照合に有用であり、特に、紙幣や硬貨といった貨幣の照合に 適している。

Claims

請求の範囲
[1] 照合対象物の入力画像とあらかじめ登録された複数のテンプレート画像との間で、 画像の特徴を比較することによって画像を照合する画像照合装置であって、 前記入力画像および前記テンプレート画像力 相関値画像を生成し、該相関値画 像を画素値が閾値以上である力否かによって正相関値画像と負相関値画像とに分 離する相関値画像分離手段と、
前記テンプレート画像を画素値が閾値以上であるか否かによって正テンプレート画 像と負テンプレート画像とに分離するテンプレート画像分離手段と、
前記正相関値画像および前記負相関値画像と前記正テンプレート画像および前 記負テンプレート画像との組み合わせによって複数の正負分離相関画像を生成する 正負分離相関画像生成手段と、
前記正負分離相関画像を用いて照合判定をおこなう照合判定手段と
を備えたことを特徴とする画像照合装置。
[2] 前記正負分離相関画像生成手段は、前記正相関値画像と前記正テンプレート画 像との画素ごとの積を算出した値を画素値とする正特徴領域画像と、前記負相関値 画像と前記正テンプレート画像との画素ごとの積を算出した値を画素値とする負特徴 領域画像とを生成することを特徴とする請求項 1に記載の画像照合装置。
[3] 前記正負分離相関画像生成手段は、前記正相関値画像と前記負テンプレート画 像との画素ごとの積を算出した値を画素値とする正背景領域画像と、前記負相関値 画像と前記負テンプレート画像との画素ごとの積を算出した値を画素値とする負背景 領域画像とを生成することを特徴とする請求項 1に記載の画像照合装置。
[4] 前記正負分離相関画像生成手段は、前記正相関値画像と前記正テンプレート画 像との画素ごとの積を算出した値を画素値とする正特徴領域画像と、前記負相関値 画像と前記正テンプレート画像との画素ごとの積を算出した値を画素値とする負特徴 領域画像と、前記正相関値画像と前記負テンプレート画像との画素ごとの積を算出 した値を画素値とする正背景領域画像と、前記負相関値画像と前記負テンプレート 画像との画素ごとの積を算出した値を画素値とする負背景領域画像とを生成すること を特徴とする請求項 1に記載の画像照合装置。
[5] 前記正負分離相関画像生成手段は、前記負相関値画像を用いて生成される負領 域画像内の注目画素と、前記正相関値画像を用いて生成される正領域画像内の該 注目画素に対応する対応画素の周囲画素とを対比して、少なくとも一つの該周囲画 素の画素値が該注目画素の画素値よりも大き!、場合には、該注目画素を該対応画 素に移動する膨張処理をおこなうことを特徴とする請求項 2、 3または 4に記載の画像 照合装置。
[6] 前記入力画像および前記テンプレート画像は、エッジ抽出オペレータを用いたエツ ジ抽出処理によって画像変換されたエッジ画像であることを特徴とする請求項 1に記 載の画像照合装置。
[7] 前記エッジ画像は、抽出されたエッジのエッジ強度を正規ィ匕した正規ィ匕エッジ画像 であることを特徴とする請求項 6に記載の画像照合装置。
[8] 前記テンプレート画像は、前記照合対象物の各個体についての画像を平均した平 均画像であることを特徴とする請求項 1に記載の画像照合装置。
[9] 前記相関値画像は、前記入力画像または前記テンプレート画像の画素ごとの相関 値を正規ィ匕した正規ィ匕相関値を画素値とする画像であることを特徴とする請求項 1に 記載の画像照合装置。
[10] 前記照合判定手段は、前記正負分離相関画像をブロック分割して各ブロック内の 画素値の総和をブロック値として算出し、該ブロック値と重み係数との積を全ての前 記正負分離相関画像について加算することによって照合値を算出して照合判定をお こなうことを特徴とする請求項 1に記載の画像照合装置。
[11] 前記照合判定手段は、線形判別分析によって前記重み係数の値を算出することを 特徴とする請求項 1に記載の画像照合装置。
[12] 前記照合対象物は貨幣であることを特徴とする請求項 1に記載の画像照合装置。
[13] 照合対象物の入力画像とあらかじめ登録された複数のテンプレート画像との間で、 画像の特徴を比較することによって画像を照合する画像照合方法において、 前記入力画像および前記テンプレート画像力 相関値画像を生成し、該相関値画 像を画素値が閾値以上である力否かによって正相関値画像と負相関値画像とに分 離する相関値画像分離工程と、 前記テンプレート画像を画素値が閾値以上であるか否かによって正テンプレート画 像と負テンプレート画像とに分離するテンプレート画像分離工程と、
前記正相関値画像および前記負相関値画像と前記正テンプレート画像および前 記負テンプレート画像との組み合わせによって複数の正負分離相関画像を生成する 正負分離相関画像生成工程と、
前記正負分離相関画像を用いて照合判定をおこなう照合判定工程と
を含んだことを特徴とする画像照合方法。
[14] 照合対象物の入力画像とあらかじめ登録された複数のテンプレート画像との間で、 画像の特徴を比較することによって画像を照合する画像照合プログラムであって、 前記入力画像および前記テンプレート画像力 相関値画像を生成し、該相関値画 像を画素値が閾値以上である力否かによって正相関値画像と負相関値画像とに分 離する相関値画像分離工程と、
前記テンプレート画像を画素値が閾値以上であるか否かによって正テンプレート画 像と負テンプレート画像とに分離するテンプレート画像分離工程と、
前記正相関値画像および前記負相関値画像と前記正テンプレート画像および前 記負テンプレート画像との組み合わせによって複数の正負分離相関画像を生成する 正負分離相関画像生成工程と、
前記正負分離相関画像を用いて照合判定をおこなう照合判定工程と
をコンピュータに実行させることを特徴とする画像照合プログラム。
[15] 円形物体の入力画像とあら力じめ登録された複数のテンプレート画像との間で、画 像の特徴を比較することによって画像を照合する画像照合装置であって、
前記入力画像および前記テンプレート画像を極座標変換したうえで、両画像の回 転ずれを補正した p Θ入力画像および p Θテンプレート画像を生成する極座 標変換画像生成手段と、
前記 P— 0入力画像および前記 p - Θテンプレート画像力 相関値画像を生成し 、該相関値画像を画素値が閾値以上である力否かによって正相関値画像と負相関 値画像とに分離する相関値画像分離手段と、
前記 P— 0テンプレート画像を画素値が閾値以上であるか否かによって正テンプ レート画像と負テンプレート画像とに分離するテンプレート画像分離手段と、 前記正相関値画像および前記負相関値画像と前記正テンプレート画像および前 記負テンプレート画像との組み合わせによって複数の正負分離相関画像を生成する 正負分離相関画像生成手段と、
前記正負分離相関画像を用いて照合判定をおこなう照合判定手段と
を備えたことを特徴とする画像照合装置。
[16] 前記正負分離相関画像生成手段は、前記正相関値画像と前記正テンプレート画 像との画素ごとの積を算出した値を画素値とする正特徴領域画像と、前記負相関値 画像と前記正テンプレート画像との画素ごとの積を算出した値を画素値とする負特徴 領域画像とを生成することを特徴とする請求項 15に記載の画像照合装置。
[17] 前記正負分離相関画像生成手段は、前記正相関値画像と前記負テンプレート画 像との画素ごとの積を算出した値を画素値とする正背景領域画像と、前記負相関値 画像と前記負テンプレート画像との画素ごとの積を算出した値を画素値とする負背景 領域画像とを生成することを特徴とする請求項 15に記載の画像照合装置。
[18] 前記正負分離相関画像生成手段は、前記正相関値画像と前記正テンプレート画 像との画素ごとの積を算出した値を画素値とする正特徴領域画像と、前記負相関値 画像と前記正テンプレート画像との画素ごとの積を算出した値を画素値とする負特徴 領域画像と、前記正相関値画像と前記負テンプレート画像との画素ごとの積を算出 した値を画素値とする正背景領域画像と、前記負相関値画像と前記負テンプレート 画像との画素ごとの積を算出した値を画素値とする負背景領域画像とを生成すること を特徴とする請求項 15に記載の画像照合装置。
[19] 前記正負分離相関画像生成手段は、前記負相関値画像を用いて生成される負領 域画像内の注目画素と、前記正相関値画像を用いて生成される正領域画像内の該 注目画素に対応する対応画素の周囲画素とを対比して、少なくとも一つの該周囲画 素の画素値が該注目画素の画素値よりも大き!、場合には、該注目画素を該対応画 素に移動する膨張処理をおこなうことを特徴とする請求項 16、 17または 18に記載の 画像照合装置。
[20] 前記 p— 0入力画像および前記 p Θテンプレート画像は、エッジ抽出オペレー タを用いたエッジ抽出処理によって画像変換されたエッジ画像であることを特徴とす る請求項 15に記載の画像照合装置。
[21] 前記エッジ画像は、抽出されたエッジのエッジ強度を正規ィ匕した正規ィ匕エッジ画像 であることを特徴とする請求項 20に記載の画像照合装置。
[22] 前記テンプレート画像は、前記円形物体の各個体についての画像を平均した平均 画像であることを特徴とする請求項 15に記載の画像照合装置。
[23] 前記相関値画像は、前記 p— 0入力画像および前記 p Θテンプレート画像の 画素ごとの相関値を正規ィ匕した正規ィ匕相関値を画素値とする画像であることを特徴 とする請求項 15に記載の画像照合装置。
[24] 前記照合判定手段は、前記正負分離相関画像をブロック分割して各ブロック内の 画素値の総和をブロック値として算出し、該ブロック値と重み係数との積を全ての前 記正負分離相関画像について加算することによって照合値を算出して照合判定をお こなうことを特徴とする請求項 15に記載の画像照合装置。
[25] 前記照合判定手段は、線形判別分析によって前記重み係数の値を算出することを 特徴とする請求項 15に記載の画像照合装置。
[26] 前記極座標変換画像生成手段は、前記 p— 0入力画像または前記 p Θテンプ レート画像を平行移動させることによって、両画像の回転ずれを補正することを特徴 とする請求項 15に記載の画像照合装置。
[27] 前記円形物体は硬貨であることを特徴とする請求項 15に記載の画像照合装置。
[28] 円形物体の入力画像とあら力じめ登録された複数のテンプレート画像との間で、画 像の特徴を比較することによって画像を照合する画像照合方法において、
前記入力画像および前記テンプレート画像を極座標変換したうえで、両画像の回 転ずれを補正した p Θ入力画像および p Θテンプレート画像を生成する極座 標変換画像生成手段と、
前記 P— 0入力画像および前記 p - Θテンプレート画像力 相関値画像を生成し
、該相関値画像を画素値が閾値以上である力否かによって正相関値画像と負相関 値画像とに分離する相関値画像分離工程と、
前記 P— 0テンプレート画像を画素値が閾値以上であるか否かによって正テンプ レート画像と負テンプレート画像とに分離するテンプレート画像分離工程と、 前記正相関値画像および前記負相関値画像と前記正テンプレート画像および前 記負テンプレート画像との組み合わせによって複数の正負分離相関画像を生成する 正負分離相関画像生成工程と、
前記正負分離相関画像を用いて照合判定をおこなう照合判定工程と
を含んだことを特徴とする画像照合方法。
円形物体の入力画像とあら力じめ登録された複数のテンプレート画像との間で、画 像の特徴を比較することによって画像を照合する画像照合プログラムであって、 前記入力画像および前記テンプレート画像を極座標変換したうえで、両画像の回 転ずれを補正した P Θ入力画像および p Θテンプレート画像を生成する極座 標変換画像生成手段と、
前記 P— 0入力画像および前記 p - Θテンプレート画像力 相関値画像を生成し
、該相関値画像を画素値が閾値以上である力否かによって正相関値画像と負相関 値画像とに分離する相関値画像分離工程と、
前記 P— 0テンプレート画像を画素値が閾値以上であるか否かによって正テンプ レート画像と負テンプレート画像とに分離するテンプレート画像分離工程と、
前記正相関値画像および前記負相関値画像と前記正テンプレート画像および前 記負テンプレート画像との組み合わせによって複数の正負分離相関画像を生成する 正負分離相関画像生成工程と、
前記正負分離相関画像を用いて照合判定をおこなう照合判定工程と
をコンピュータに実行させることを特徴とする画像照合プログラム。
PCT/JP2005/011465 2004-07-13 2005-06-22 画像照合装置、画像照合方法および画像照合プログラム WO2006006356A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US11/572,070 US7856137B2 (en) 2004-07-13 2005-06-22 Apparatus and method for verifying image by comparison with template image
AT05753375T ATE460711T1 (de) 2004-07-13 2005-06-22 Bildüberprüfunganordnung, bildüberprüfungverfahren und bildüberprüfungprogramm
CN2005800237406A CN101014978B (zh) 2004-07-13 2005-06-22 图像核对装置、图像核对方法及图像核对程序
EP05753375A EP1768063B8 (en) 2004-07-13 2005-06-22 Image checking device, image checking method, and image checking program
DE602005019884T DE602005019884D1 (de) 2004-07-13 2005-06-22 Bildüberprüfunganordnung, bildüberprüfungverfahren und bildüberprüfungprogramm

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004-206169 2004-07-13
JP2004206170A JP4563741B2 (ja) 2004-07-13 2004-07-13 画像照合装置、画像照合方法および画像照合プログラム。
JP2004206169A JP4563740B2 (ja) 2004-07-13 2004-07-13 画像照合装置、画像照合方法および画像照合プログラム。
JP2004-206170 2004-07-13

Publications (1)

Publication Number Publication Date
WO2006006356A1 true WO2006006356A1 (ja) 2006-01-19

Family

ID=35783704

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/011465 WO2006006356A1 (ja) 2004-07-13 2005-06-22 画像照合装置、画像照合方法および画像照合プログラム

Country Status (5)

Country Link
US (1) US7856137B2 (ja)
EP (1) EP1768063B8 (ja)
AT (1) ATE460711T1 (ja)
DE (1) DE602005019884D1 (ja)
WO (1) WO2006006356A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009118842A1 (ja) * 2008-03-26 2009-10-01 グローリー株式会社 硬貨中心検出装置および硬貨中心検出方法

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007318597A (ja) * 2006-05-29 2007-12-06 Opt Kk 広角レンズによる撮像データの圧縮方法、圧縮装置、広角カメラ装置およびモニタシステム
US8019164B2 (en) * 2007-01-29 2011-09-13 Hitachi High-Technologies Corporation Apparatus, method and program product for matching with a template
JP4908440B2 (ja) * 2008-03-06 2012-04-04 株式会社東芝 画像処理装置及び方法
US20090295912A1 (en) * 2008-05-12 2009-12-03 Coinsecure, Inc. Coin edge imaging device
US8661889B2 (en) * 2009-07-16 2014-03-04 Duane C. Blake AURA devices and methods for increasing rare coin value
US8654119B2 (en) * 2009-08-17 2014-02-18 Mistretta Medical, Llc System and method for four dimensional angiography and fluoroscopy
WO2011091300A2 (en) 2010-01-24 2011-07-28 Mistretta Medical, Llc System and method for implementation of 4d time-energy subtraction computed tomography
US8730396B2 (en) * 2010-06-23 2014-05-20 MindTree Limited Capturing events of interest by spatio-temporal video analysis
US20120094750A1 (en) * 2010-10-18 2012-04-19 Kuo Jack C Game token verification system
KR101865415B1 (ko) * 2011-05-11 2018-06-07 삼성전자주식회사 모바일 통신기를 이용하는 위폐 감별법
EP2672882B1 (en) 2011-06-15 2018-07-25 Mistretta Medical, LLC System and method for four dimensional angiography and fluoroscopy
US8959082B2 (en) 2011-10-31 2015-02-17 Elwha Llc Context-sensitive query enrichment
US10679309B2 (en) 2011-12-30 2020-06-09 Elwha Llc Evidence-based healthcare information management protocols
US10475142B2 (en) 2011-12-30 2019-11-12 Elwha Llc Evidence-based healthcare information management protocols
US20130173298A1 (en) 2011-12-30 2013-07-04 Elwha LLC, a limited liability company of State of Delaware Evidence-based healthcare information management protocols
US10340034B2 (en) 2011-12-30 2019-07-02 Elwha Llc Evidence-based healthcare information management protocols
US10528913B2 (en) 2011-12-30 2020-01-07 Elwha Llc Evidence-based healthcare information management protocols
US10559380B2 (en) 2011-12-30 2020-02-11 Elwha Llc Evidence-based healthcare information management protocols
US10552581B2 (en) 2011-12-30 2020-02-04 Elwha Llc Evidence-based healthcare information management protocols
JP6069835B2 (ja) * 2012-01-05 2017-02-01 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
US9053595B2 (en) * 2012-02-02 2015-06-09 Jared Grove Coin identification system and method using image processing
JP5937878B2 (ja) 2012-04-24 2016-06-22 株式会社日立ハイテクノロジーズ パターンマッチング方法及び装置
US9781664B2 (en) 2012-12-31 2017-10-03 Elwha Llc Cost-effective mobile connectivity protocols
US9635605B2 (en) 2013-03-15 2017-04-25 Elwha Llc Protocols for facilitating broader access in wireless communications
US9713013B2 (en) 2013-03-15 2017-07-18 Elwha Llc Protocols for providing wireless communications connectivity maps
US9980114B2 (en) 2013-03-15 2018-05-22 Elwha Llc Systems and methods for communication management
US9876762B2 (en) 2012-12-31 2018-01-23 Elwha Llc Cost-effective mobile connectivity protocols
US9451394B2 (en) 2012-12-31 2016-09-20 Elwha Llc Cost-effective mobile connectivity protocols
US9832628B2 (en) 2012-12-31 2017-11-28 Elwha, Llc Cost-effective mobile connectivity protocols
US8965288B2 (en) 2012-12-31 2015-02-24 Elwha Llc Cost-effective mobile connectivity protocols
US20140279613A1 (en) * 2013-03-14 2014-09-18 Verizon Patent And Licensing, Inc. Detecting counterfeit items
US9843917B2 (en) 2013-03-15 2017-12-12 Elwha, Llc Protocols for facilitating charge-authorized connectivity in wireless communications
US9706382B2 (en) 2013-03-15 2017-07-11 Elwha Llc Protocols for allocating communication services cost in wireless communications
US9693214B2 (en) 2013-03-15 2017-06-27 Elwha Llc Protocols for facilitating broader access in wireless communications
US9866706B2 (en) 2013-03-15 2018-01-09 Elwha Llc Protocols for facilitating broader access in wireless communications
US9807582B2 (en) 2013-03-15 2017-10-31 Elwha Llc Protocols for facilitating broader access in wireless communications
US9596584B2 (en) 2013-03-15 2017-03-14 Elwha Llc Protocols for facilitating broader access in wireless communications by conditionally authorizing a charge to an account of a third party
US9813887B2 (en) 2013-03-15 2017-11-07 Elwha Llc Protocols for facilitating broader access in wireless communications responsive to charge authorization statuses
US9706060B2 (en) 2013-03-15 2017-07-11 Elwha Llc Protocols for facilitating broader access in wireless communications
US9781554B2 (en) 2013-03-15 2017-10-03 Elwha Llc Protocols for facilitating third party authorization for a rooted communication device in wireless communications
JP6063315B2 (ja) * 2013-03-26 2017-01-18 富士フイルム株式会社 真贋判定システム,特徴点登録装置およびその動作制御方法,ならびに照合判定装置およびその動作制御方法
WO2015009968A2 (en) 2013-07-19 2015-01-22 Google Inc. Face template balancing
SG10201609555YA (en) * 2013-08-12 2017-01-27 Caratell Pte Ltd Method and system for certification and verification of gemstones
US9805208B2 (en) 2013-09-30 2017-10-31 Elwha Llc Mobile device sharing facilitation methods and systems with recipient-dependent inclusion of a data selection
US9813891B2 (en) 2013-09-30 2017-11-07 Elwha Llc Mobile device sharing facilitation methods and systems featuring a subset-specific source identification
US9774728B2 (en) 2013-09-30 2017-09-26 Elwha Llc Mobile device sharing facilitation methods and systems in a context of plural communication records
US9740875B2 (en) 2013-09-30 2017-08-22 Elwha Llc Mobile device sharing facilitation methods and systems featuring exclusive data presentation
US9838536B2 (en) 2013-09-30 2017-12-05 Elwha, Llc Mobile device sharing facilitation methods and systems
US9826439B2 (en) 2013-09-30 2017-11-21 Elwha Llc Mobile device sharing facilitation methods and systems operable in network equipment
US9336638B2 (en) * 2014-03-25 2016-05-10 Ncr Corporation Media item validation
US10685523B1 (en) * 2014-07-09 2020-06-16 Cummins-Allison Corp. Systems, methods and devices for processing batches of coins utilizing coin imaging sensor assemblies
JP6858525B2 (ja) 2016-10-07 2021-04-14 グローリー株式会社 貨幣分類装置及び貨幣分類方法
KR102467241B1 (ko) 2017-04-14 2022-11-15 한화테크윈 주식회사 에지 값을 이용한 감시 카메라의 패닝 및 틸팅 제어 방법
KR102219890B1 (ko) * 2018-02-28 2021-02-24 서울대학교산학협력단 딥러닝을 이용한 의료영상의 공간 정규화 장치 및 그 방법
WO2019209194A1 (en) * 2018-04-27 2019-10-31 Aselsan Elektroni̇k Sanayi̇ Ve Ti̇caret Anoni̇m Şi̇rketi̇ A method for confident registration-based non-uniformity correction using spatio-temporal update mask
JP7359728B2 (ja) * 2020-03-23 2023-10-11 グローリー株式会社 貨幣情報生成装置、貨幣処理装置、貨幣情報生成システム、貨幣情報生成方法及び貨幣情報生成プログラム
DE102020004284A1 (de) * 2020-07-16 2022-01-20 Giesecke+Devrient Currency Technology Gmbh Verfahren und Vorrichtung zum Prüfen von Wertdokumenten und Verfahren und Vorrichtung zum Erzeugen von Prüfparametern zur Verwendung bei einem Verfahren zum Prüfen von Wertdokumenten
JP2022150652A (ja) * 2021-03-26 2022-10-07 キヤノン株式会社 画像処理装置及び画像処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0798669A2 (en) 1996-03-29 1997-10-01 Laurel Bank Machines Co., Ltd. Coin discriminating apparatus
JP2000322579A (ja) * 1999-05-13 2000-11-24 Sankyo Seiki Mfg Co Ltd 画像認識装置
JP2003187289A (ja) * 2001-12-21 2003-07-04 Sankyo Seiki Mfg Co Ltd 円形被検出体の識別方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5133019A (en) * 1987-12-03 1992-07-21 Identigrade Systems and methods for illuminating and evaluating surfaces
US4899392A (en) * 1987-12-03 1990-02-06 Cing Corporation Method and system for objectively grading and identifying coins
NO168615C (no) * 1989-10-17 1992-03-11 Datalab Oy Fremgangsmaate og anordning for gjenkjenning av en mynt
US5220614A (en) * 1991-02-22 1993-06-15 Professional Coin Grading Service, Inc. Automated coin grading system
JP3170147B2 (ja) * 1993-08-19 2001-05-28 ローレルバンクマシン株式会社 硬貨判別装置
JP3525360B2 (ja) * 1994-05-19 2004-05-10 ローレルバンクマシン株式会社 硬貨判別装置
JP3394984B2 (ja) * 1995-02-02 2003-04-07 沖電気工業株式会社 硬貨認識装置
JP3519235B2 (ja) * 1996-03-28 2004-04-12 ローレルバンクマシン株式会社 硬貨判別装置
JP3704551B2 (ja) * 1999-12-10 2005-10-12 日本ユニカ株式会社 固体撮像素子、種類識別装置
JP2001175912A (ja) * 1999-12-21 2001-06-29 Laurel Bank Mach Co Ltd 硬貨判別装置
US6685000B2 (en) * 2000-05-19 2004-02-03 Kabushiki Kaisha Nippon Conlux Coin discrimination method and device
EP1451780B1 (en) * 2001-12-05 2013-11-20 Outerwall Inc. Method and system for detecting coin fraud in coin-counting machines and other devices
TW564376B (en) * 2002-07-05 2003-12-01 Sunplus Technology Co Ltd Currency recognition device and the method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0798669A2 (en) 1996-03-29 1997-10-01 Laurel Bank Machines Co., Ltd. Coin discriminating apparatus
JP2000322579A (ja) * 1999-05-13 2000-11-24 Sankyo Seiki Mfg Co Ltd 画像認識装置
JP2003187289A (ja) * 2001-12-21 2003-07-04 Sankyo Seiki Mfg Co Ltd 円形被検出体の識別方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009118842A1 (ja) * 2008-03-26 2009-10-01 グローリー株式会社 硬貨中心検出装置および硬貨中心検出方法

Also Published As

Publication number Publication date
EP1768063B1 (en) 2010-03-10
ATE460711T1 (de) 2010-03-15
DE602005019884D1 (de) 2010-04-22
EP1768063B8 (en) 2010-06-02
US7856137B2 (en) 2010-12-21
EP1768063A1 (en) 2007-03-28
US20070165936A1 (en) 2007-07-19
EP1768063A4 (en) 2008-05-07

Similar Documents

Publication Publication Date Title
WO2006006356A1 (ja) 画像照合装置、画像照合方法および画像照合プログラム
KR101073944B1 (ko) 화상대조장치, 화상대조방법 및 화상대조 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
JP4932177B2 (ja) 硬貨分類装置および硬貨分類方法
Zhang et al. Face morphing detection using Fourier spectrum of sensor pattern noise
Venkatesh et al. Morphed face detection based on deep color residual noise
US7747103B2 (en) Image matching system, program, and image matching method
US7835547B2 (en) Image recognition device, image recognition method, and program for causing computer to execute the method
JP5372183B2 (ja) 硬貨分類装置および硬貨分類方法
Youn et al. Efficient multi-currency classification of CIS banknotes
CN104969268A (zh) 安全文件鉴别及执行鉴别的移动装置
US11132582B2 (en) Individual identification device
Ghosh et al. Comparison of different feature detection techniques for image mosaicing
CN106599923B (zh) 一种对印防伪特征的检测方法及装置
JP2018526754A (ja) 画像処理装置、画像処理方法及び記憶媒体
Prashanth et al. Off-line signature verification based on angular features
JP4563741B2 (ja) 画像照合装置、画像照合方法および画像照合プログラム。
US7609877B2 (en) Tactical image parameter adjustment method for stereo pair correlation
Lumini et al. Ensemble of on-line signature matchers based on overcomplete feature generation
Prashanth et al. DWT based offline signature verification using angular features
JP2007026068A (ja) 紙葉類判別方法および紙葉類判別装置
Fleck et al. Affine invariant-based classification of inliers and outliers for image matching
Iwasokun et al. Singular-minutiae points relationship-based approach to fingerprint matching
Kumar et al. Chord oriented gap feature for offline signature verification
Chhabra et al. Target identity attacks on facial recognition systems
JP4068889B2 (ja) 複合照合装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005753375

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020077000193

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2007165936

Country of ref document: US

Ref document number: 11572070

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200580023740.6

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWP Wipo information: published in national office

Ref document number: 1020077000193

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2005753375

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11572070

Country of ref document: US