WO2018173756A1 - 情報記録体 - Google Patents

情報記録体 Download PDF

Info

Publication number
WO2018173756A1
WO2018173756A1 PCT/JP2018/008783 JP2018008783W WO2018173756A1 WO 2018173756 A1 WO2018173756 A1 WO 2018173756A1 JP 2018008783 W JP2018008783 W JP 2018008783W WO 2018173756 A1 WO2018173756 A1 WO 2018173756A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
information recording
recording body
layer
transparent layer
Prior art date
Application number
PCT/JP2018/008783
Other languages
English (en)
French (fr)
Inventor
祐子 青山
佐藤 潤
俊尚 山川
Original Assignee
大日本印刷株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 大日本印刷株式会社 filed Critical 大日本印刷株式会社
Priority to JP2019507521A priority Critical patent/JP7092112B2/ja
Priority to US16/493,487 priority patent/US11164058B2/en
Priority to EP18771433.2A priority patent/EP3603989A4/en
Priority to CN201880018709.0A priority patent/CN110418720B/zh
Publication of WO2018173756A1 publication Critical patent/WO2018173756A1/ja
Priority to JP2022095692A priority patent/JP2022126726A/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B42BOOKBINDING; ALBUMS; FILES; SPECIAL PRINTED MATTER
    • B42DBOOKS; BOOK COVERS; LOOSE LEAVES; PRINTED MATTER CHARACTERISED BY IDENTIFICATION OR SECURITY FEATURES; PRINTED MATTER OF SPECIAL FORMAT OR STYLE NOT OTHERWISE PROVIDED FOR; DEVICES FOR USE THEREWITH AND NOT OTHERWISE PROVIDED FOR; MOVABLE-STRIP WRITING OR READING APPARATUS
    • B42D25/00Information-bearing cards or sheet-like structures characterised by identification or security features; Manufacture thereof
    • B42D25/30Identification or security features, e.g. for preventing forgery
    • B42D25/36Identification or security features, e.g. for preventing forgery comprising special materials
    • B42D25/378Special inks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B42BOOKBINDING; ALBUMS; FILES; SPECIAL PRINTED MATTER
    • B42DBOOKS; BOOK COVERS; LOOSE LEAVES; PRINTED MATTER CHARACTERISED BY IDENTIFICATION OR SECURITY FEATURES; PRINTED MATTER OF SPECIAL FORMAT OR STYLE NOT OTHERWISE PROVIDED FOR; DEVICES FOR USE THEREWITH AND NOT OTHERWISE PROVIDED FOR; MOVABLE-STRIP WRITING OR READING APPARATUS
    • B42D25/00Information-bearing cards or sheet-like structures characterised by identification or security features; Manufacture thereof
    • B42D25/30Identification or security features, e.g. for preventing forgery
    • B42D25/305Associated digital information

Definitions

  • the present invention relates to an information recording body.
  • Patent Document 1 needs to adjust the reading angle by holding the embedded information over a reader such as a smartphone, but it is difficult to determine the reading angle.
  • An object of the present invention is to provide an information recording body in which the reading angle of embedded information is easily determined.
  • a first invention is an information recording body comprising a composite image including a first image and a second image formed on the first image, wherein the first image, the second image, Are different pattern images generated according to a specific rule, and are configured so that the amount of reflected light differs depending on the observation angle, and the composite image is at least one of the first image and the second image depending on the observation angle.
  • An information recording body characterized in that it has an angle specifying region formed by using a material having the same amount of reflected light as that of the second image and capable of recognizing an image.
  • the angle specifying region is a second image region in which the second image is formed, and the second image region is formed by the first image.
  • a third invention is an information recording body according to the second invention, wherein the second image region constitutes a picture.
  • a fourth invention is an information recording body according to the first invention, wherein the angle specifying area is provided at a position different from the area having the composite image.
  • the angle specifying area is a second image area in which the second image is formed, and from the first image area in which the first image is formed.
  • an information recording body characterized in that at least a part thereof protrudes.
  • the second image is subjected to a conversion process corresponding to the rule, thereby generating data corresponding to the code.
  • the first image is data that inhibits the code corresponding to the second image by performing a conversion process corresponding to the rule. It is an information recording body.
  • the first image is formed of color elements having low brightness, and the second image is the first image.
  • the information recording medium is characterized in that it is formed with color elements having higher brightness than the first image.
  • the first image is formed of a bright material
  • the second image is formed of a transparent material. The information recording body characterized by the above.
  • FIG. 1 is a diagram for explaining a printed material 10 according to the present embodiment.
  • the printed matter 10 shown in FIG. 1A is a ticket such as an admission ticket, for example.
  • the printed material 10 has a monetary value in itself, but a copy product obtained by copying the printed material 10 does not have a monetary value.
  • the printed material 10 includes a sheet 11 and an information recording body 30.
  • the paper 11 is a base material that is the basis of the printed matter 10 and is formed of, for example, a white paper.
  • the paper 11 is not limited to white paper, but may be other paper as long as it has a plane capable of carrying a printed image, such as high-quality paper, coated paper, tack paper, plastic card, film, and the like.
  • the print image relates to the contents of the ticket.
  • FIG. 1B is a partial schematic diagram of a cross-section in the XX direction in FIG.
  • the information recording body 30 is a composite image including a glitter layer 31 (first image region) and a transparent layer 32 (second image region, angle specifying region) on the paper 11. Is provided.
  • the composite image is an image formed by a composite layer in which the bright layer 31 and at least a part of the transparent layer 32 are overlapped.
  • the glitter layer 31 is a layer on which a pattern image (first image) is printed with ink containing a glitter material.
  • the transparent layer 32 is a layer in which a pattern image (second image) different from the pattern image of the glitter layer 31 is printed with transparent ink.
  • the transparent layer 32 is formed on a part of the bright layer 31.
  • the glitter layer 31 and the transparent layer 32 have a square shape, and the transparent layer 32 is slightly smaller than the glitter layer 31. That is, the composite image is an image when the pattern image of the glitter layer 31 and at least a part of the pattern image of the transparent layer 32 are overlaid.
  • the paper 11 on which the contents of the ticket have been printed is prepared, and a pattern image is gravure-printed on the paper 11 as a glitter layer 31 with a glossy ink containing a glittering material.
  • the ink containing a glittering material for drawing a pattern image is, for example, a glittering material having a silvery, bluish-gold or reddish-gold color composed mainly of aluminum powder, copper powder, zinc powder, tin powder, or iron phosphide.
  • Ink containing is overlaid with a transparent ink or the like as the transparent layer 32 on the pattern image of the glitter layer 31 and is subjected to gravure printing.
  • the ink for drawing this pattern image is, for example, a matte OP varnish, a transparent varnish, an ink varnish, a transparent ink, or a medium ink.
  • These inks may be any printing ink such as ultraviolet curable ink, oxidative polymerization ink, penetrating ink, superheated drying ink, and evaporation drying ink.
  • the materials used for the bright layer 31 and the transparent layer 32 described above are examples, and other materials may be used as long as the amount of reflected light varies depending on the observation angle.
  • coat is all about 1 micrometer, for example.
  • the ink thickness is not limited to this. Further, for example, the thickness of the ink may be changed depending on the material.
  • the printing process described above is not limited to gravure printing, but may be wet offset printing, dry offset printing, relief printing, waterless planographic printing, flexographic printing, screen printing, intaglio printing, and the like.
  • the printing condition in which the area where the background can be concealed is expressed in% is the area ratio, and particularly the case where the background can be concealed with halftone dots.
  • the printing of the glitter layer 31 and the transparent layer 32 will be described as the point area ratio.
  • 2 and 3 are diagrams showing examples of pattern images of the information recording body 30 according to the present embodiment.
  • FIG. 4 is a diagram for explaining an observation mode based on the structure of the information recording body 30 according to the present embodiment.
  • FIG. 2A shows an enlarged view of the image C1 (first image) of the glitter layer 31 and the region E1 which is a part thereof.
  • the glitter layer 31 is a layer on which the image C1 is printed.
  • the image C1 is a pattern image in which the foreground portion C1a and the background portion C1b are expressed in binary as shown in the region E1.
  • the foreground part C1a is printed with a halftone dot area ratio of 100%, for example, and the background part C1b is printed with a halftone dot area ratio of 75%, for example.
  • this ratio is an example and is not limited to this.
  • the halftone dot area ratio of the foreground portion C1a may be less than 100%, and the halftone dot area ratio of the background portion C1b may be other than 75%. In that case, it is desirable that the difference in the dot area ratio between the foreground portion C1a and the background portion C1b is 15% or more and 50% or less. Further, the density of the foreground portion C1a and the background portion C1b may be reversed.
  • FIG. 2B shows an enlarged view of the image C2 (second image) of the transparent layer and the region E2 which is a part thereof.
  • the transparent layer 32 is a layer on which the image C2 is printed.
  • the image C2 is a pattern image in which the foreground portion C2a and the background portion C2b are expressed in binary as shown in the region E2.
  • the foreground part C2a is printed with a halftone dot area ratio of 100%, for example, and the background part C2b is printed with a halftone dot area ratio of 25%, for example.
  • this ratio is also an example and is not limited to this.
  • the halftone dot area ratio of the foreground portion C2a may be less than 100%, and the halftone dot area ratio of the background portion C2b may be a halftone dot area if there is a predetermined difference from the foreground portion C2a.
  • the rate may be 25% or more or the following.
  • the density of the foreground portion C2a and the background portion C2b may be reversed.
  • the density difference between the foreground part C2a and the background part C2b is larger than the density difference between the foreground part C1a and the background part C1b.
  • the image C1 of the glitter layer 31 and the image C2 of the transparent layer 32 of the information recording body 30 are pattern images, and are meaningless images at first glance.
  • the glitter layer 31 and the transparent layer 32 of the information recording body 30 are not limited to those on which a pattern image including a foreground portion and a background portion is printed.
  • FIGS. 3A and 3B show a case where the image Cx of the bright layer 31 and the image Cy of the transparent layer 32 are pattern images composed only of the foreground part.
  • the print areas Cxa and Cya of the image Cx and the image Cy are printed with a halftone dot area ratio of 100%, and a pattern image is expressed in binary by the print areas Cxa and Cya and the non-print areas Cxb and Cyb that are not printed. It will be.
  • the pattern image is an image generated according to a specific rule.
  • the pattern image can represent characteristic points and lines in a spatial frequency domain that is frequency-transformed by performing Fourier transform, for example.
  • the point expressed by performing the conversion process on the image C1 is the same as the image C2. It has a relationship that inhibits the point expressed by performing the same conversion process. That is, the point expressed by performing the conversion process on the image C2 cannot be reproduced by the point expressed by performing the conversion process on the composite image including the image C1 and the image C2.
  • the specific rule is not limited to the Fourier transform, and may be another transform process.
  • conversion processing for a barcode conversion processing for a two-dimensional code such as a QR code (registered trademark), or the like may be used.
  • FIG. 4 illustrates three positional relationships among the illumination light source 21, the viewpoint 22, and the information recording body 30 in the diffuse reflection region and the regular reflection (specular reflection) region.
  • the viewpoint 22 (22a) is at the position P1 with respect to the position of the illumination light source 21 and the information recording body 30, it is observed in the diffuse reflection region.
  • the viewpoint 22 (22b) is at the position P2 with respect to the position of the illumination light source 21 and the information recording body 30, the observation is made in the regular reflection region.
  • the image C1 and the image C2 illustrated in FIG. 2 will be described as an example.
  • the reflected light quantity greatly differs due to the density difference between the foreground portion C1a and the background portion C1b of the image C1 in FIG.
  • the foreground portion C1a and the background portion C1b can be distinguished.
  • the foreground part C1a and the background part C1b both have a large amount of reflected light, so that the difference cannot be detected, and the foreground part C1a and the background part C1b cannot be distinguished.
  • the information recording body 30 is composed of only the transparent layer 32, the foreground portion C2a and the background portion C2b in FIG.
  • the amount of reflected light changes due to the difference in density between the foreground part C2a and the background part C2b, so that the foreground part C2a and the background part C2b can be distinguished.
  • the information recording body 30 is formed by forming the transparent layer 32 on the bright layer 31, the foreground portion C1a and the background portion C1b can be distinguished in the diffuse reflection area, and the foreground portion C2a and the background portion can be distinguished. Since C2b cannot be distinguished, the foreground portion C1a and the background portion C1b are observed as a whole.
  • the foreground portion C1a and the background portion C1b cannot be distinguished, but the foreground portion C2a and the background portion C2b can be distinguished, and the foreground portion C2a and the background portion C2b are observed as a whole.
  • the glitter layer 31 and the transparent layer 32 use materials (such as ink) having different amounts of reflected light depending on the observation angle, so that the image of the glitter layer 31 and the image of the transparent layer 32 depend on the observation angle. You can make it look different, whether you can see it or not.
  • the transparent layer 32 is slightly smaller than the bright layer 31. That is, in the information recording body 30, the size of the portion provided with the glitter layer 31 and the portion provided with the transparent layer 32 are different. Therefore, it becomes easy to distinguish between the state in which the glitter layer 31 is observed and the state in which the transparent layer 32 is observed, and the angle at which the transparent layer 32 can be observed can be easily understood.
  • the pattern image included in the transparent layer 32 is used for authenticity determination, but the pattern image included in the glitter layer 31 is easier to confirm outside the regular reflection region. Therefore, the pattern image of the transparent layer 32 can maintain a state that is difficult to understand visually.
  • FIG. 5 is a diagram for explaining the positional relationship between the illumination light source 21 and the camera 23 when copying the printed material 10 according to the present embodiment.
  • 5A and 5B show the positional relationship among the illumination light source 21, the camera 23, and the printed material 10 of a copying machine such as a copying machine.
  • the information recording body 30 of the printed matter 10 has its image acquired by the camera 23 in a state where light is emitted from the illumination light source 21 shown in FIG. 5A or 5B.
  • FIG. 5A shows a case where the illumination light source 21 and the camera 23 are positioned in the direction perpendicular to the information recording body 30 and the camera 23 acquires an image.
  • FIG. 5B shows a case where the illumination light source 21 irradiates the information recording body 30 from a slightly oblique direction, and the camera 23 captures an image by capturing the information recording body 30 from the vertical direction.
  • the camera 23 can capture images of both the glitter layer 31 and the transparent layer 32 of the information recording body 30 depending on the positional relationship between the illumination light source 21 and the information recording body 30. In this way, based on the image obtained by the camera 23, a copy of the printed matter 10 is produced in the copying machine.
  • the copy product has a printed body at a position corresponding to the information recording body 30 (see FIG. 1A) of the printed material 10.
  • the printed body has a composite image of the pattern image included in the glitter layer 31 of the information recording body 30 and the pattern image included in the transparent layer 32.
  • the printed body has a layer made of black ink containing general carbon. Therefore, only when the print body is observed at an observation angle from any area (diffuse reflection area, regular reflection area, etc.), only the composite image can be seen. Therefore, the printed body cannot observe only the pattern image that the transparent layer 32 has.
  • FIG. 6 to 8 are diagrams showing specific examples of the information recording body 30 according to the present embodiment.
  • the information recording body 30 is configured by a glitter layer 31 and a transparent layer 32 on the paper 11.
  • the transparent layer 32 represents a design.
  • the transparent layer 32 represents a star pattern.
  • FIG. 6B is a partial schematic diagram of a cross section in the X1-X1 direction in FIG. As shown in FIG. 6B, the transparent layer 32 is formed on a part of the bright layer 31.
  • the region in which the bright layer 31 is formed and the region in which the transparent layer 32 is formed do not coincide with each other in plan view, and the size and shape are different. Moreover, the area
  • the information recording body 30 is configured by a glitter layer 31 and a transparent layer 32 on the paper 11. Then, as shown in FIG. 7A, the transparent layer 32 overlaps a part of the glitter layer 31 and partly protrudes from the paper 11.
  • FIG. 7B is a partial schematic view of a cross section in the X2-X2 direction in FIG. As shown in FIG. 7B, in the information recording body 30, the area where the bright layer 31 is formed and the area where the transparent layer 32 is formed do not match in plan view, and the size and position are different. . Therefore, it is easy to distinguish between the state in which the glitter layer 31 is observed and the state in which the transparent layer 32 is observed, and the angle at which the transparent layer 32 can be observed can be easily understood.
  • the information recording body 30 is configured on the paper 11 by a glitter layer 31, a transparent layer 32, and a transparent layer 33 (angle specifying region).
  • the transparent layer 33 is provided at a position different from the glitter layer and the transparent layer 32.
  • the transparent layer 33 is a layer on which a solid image is printed with a transparent ink, for example, with a dot area ratio of 100%. Since the transparent layer 33 is for enabling observation in the regular reflection region, the transparent layer 33 may have any shape, and the pattern image need not be printed.
  • FIG. 8B is a partial schematic diagram of a cross section in the X3-X3 direction in FIG. As shown in FIG.
  • the glitter layer 31 and the transparent layer 32 have the same size, and the transparent layer 32 is formed so as to overlap the glitter layer 31.
  • the transparent layer 33 can be observed when observed in the regular reflection region. Easy to understand.
  • the glitter layer 31 and the transparent layer 32 overlap with each other in the same size, there is an effect of making it difficult to observe the transparent layer 32 even in the regular reflection region. For this reason, it is possible to prevent the fact that authentic information is contained in the transparent layer 32 of the information recording body 30 and to improve the confidentiality.
  • FIG. 9 is a functional block diagram of the reading device 5 according to the present embodiment.
  • the reading device 5 is a mobile terminal represented by a smartphone, for example.
  • the reading device 5 includes a control unit 50, a storage unit 60, a reading unit 65, a touch panel display 67, and a communication interface unit 69.
  • the control unit 50 is a CPU (central processing unit) that controls the entire reading device 5.
  • the control unit 50 executes various functions in cooperation with the hardware described above by appropriately reading and executing an OS (operating system) and application programs stored in the storage unit 60.
  • the control unit 50 includes an image receiving unit 51, a recognition unit 52, an application acquisition unit 53, a conversion unit 54, and a code specifying unit 55.
  • the image receiving unit 51 receives the image data of the information recording body 30 via the reading unit 65 when the reading unit 65 reads the information recording body 30.
  • the recognizing unit 52 confirms whether or not the image data received by the image receiving unit 51 includes the specific shape stored in the shape table 62.
  • the application acquisition unit 53 connects to an application distribution server (not shown) that stores various application programs via the communication interface unit 59, and acquires the conversion application 61b. .
  • the application acquisition part 53 memorize
  • the conversion unit 54 performs predetermined conversion on the image data received by the image reception unit 51 using a control program 61a or an acquired conversion application 61b described later, and acquires data for code generation.
  • the code identification unit 55 refers to the code table 63 and identifies a code from the data acquired by the conversion unit 54.
  • the storage unit 60 is a storage area such as a hard disk or a semiconductor memory element for storing programs, data, and the like necessary for the control unit 50 to execute various processes.
  • the computer refers to an information processing device including a control unit, a storage device, and the like.
  • the reading device 5 is an information processing device including a control unit 50, a storage unit 60, and the like, and is included in the concept of a computer.
  • the storage unit 60 stores a program storage unit 61, a shape table 62, and a code table 63.
  • the program storage unit 61 is a storage area for storing various programs.
  • the program storage unit 61 stores a control program 61a and a conversion application 61b.
  • the control program 61a is a program for executing each function of the control unit 50.
  • the conversion application 61b is a dedicated application corresponding to a specific shape for reading a code.
  • the conversion application 61b is stored in the program storage unit 61 when downloaded from the application distribution server.
  • the shape table 62 is a table that stores a shape that can be observed by a predetermined transparent layer 32 and a URL (Uniform Resource Locator) of the application distribution server in association with each other.
  • the code table 63 is a table that stores codes.
  • the reading unit 65 is, for example, a camera and is a device that acquires print contents such as images and characters as an image.
  • the touch panel display 67 has a function as a display unit constituted by a liquid crystal panel or the like and a function as an input unit for detecting a touch input by a user's finger or the like.
  • the communication interface unit 69 is an interface for performing communication with, for example, a distribution server.
  • FIG. 10 is a flowchart showing the code specifying process in the reading device 5 according to the present embodiment.
  • step S (hereinafter simply referred to as “S”) 10
  • the control unit 50 of the reading device 5 activates the reading unit 65.
  • the control unit 50 (image receiving unit 51) reads an image via the reading unit 65.
  • the user can read the image from an angle at which the reading unit 65 can read only the pattern image included in the transparent layer 32 of the information recording body 30. Further, the user can read the image from an angle at which the reading unit 65 can read only the pattern image included in the glitter layer 31 of the information recording body 30.
  • the user can read the image from an angle at which the reading unit 65 can read the pattern images of both the glitter layer 31 and the transparent layer 32 of the information recording body 30.
  • the user specifies a regular reflection region where the transparent layer 32 (or the transparent layer 33) is visible and reads the image. Perform the operation.
  • the control unit 50 determines whether or not the shape of the read image is included in the specific shape stored in the shape table 62. When included in the specific shape (S12: YES), the control unit 50 moves the process to S13. On the other hand, when it is not included in the specific shape (S12: NO), the control unit 50 moves the process to S14. When not included in the specific shape, for example, the case where the glitter layer 31 and the transparent layer 32 overlap as shown in FIG. In S13, the control unit 50 refers to the shape table 62 and connects to the URL corresponding to the specific shape. And the control part 50 (application acquisition part 53) acquires the conversion application 61b from an application delivery server, and performs it.
  • the control unit 50 performs conversion processing on the read image and acquires data for code generation.
  • the conversion process is executed by the control program 61a or the conversion application 61b.
  • the control unit 50 code specifying unit 55 refers to the code table 63 and determines whether or not the code corresponding to the acquired data has been specified. If there is data that matches the acquired data in the code table 63, the code can be specified. If the code can be identified (S15: YES), the control unit 50 moves the process to S16. On the other hand, when the code cannot be specified (S15: NO), the control unit 50 moves the process to S16a.
  • control unit 50 displays on the touch panel display 67 that the code has been identified. Thereafter, the control unit 50 ends this process. Note that after the present process is completed, the control unit 50 performs a process based on the identified code. On the other hand, in S16a, the control unit 50 causes the touch panel display 67 to display an error message. Thereafter, the control unit 50 ends this process.
  • the control unit 50 obtains only the pattern image of the transparent layer 32. If the pattern image of the transparent layer 32 has a specific shape (S12: YES), the conversion application 61b corresponding to the specific shape is executed to acquire data for code generation (S14). Here, since the code corresponding to the pattern image of the transparent layer 32 is stored in the code table 63, the control unit 50 can specify the code (S15: YES). If the pattern image of the transparent layer 32 does not have a specific shape (S12: NO), data for code generation is acquired by the control program 61a (S14). Here, since the code corresponding to the pattern image of the transparent layer 32 is stored in the code table 63, the control unit 50 can specify the code (S15: YES).
  • the control unit 50 can obtain only the pattern image of the transparent layer 32. Absent. Only the code corresponding to the pattern image of the transparent layer 32 is stored in the code table 63. For example, the codes corresponding to both the pattern images of the transparent layer 32 and the glitter layer 31 are not stored. That is, by synthesizing the pattern image of the glitter layer 31 with the pattern image of the transparent layer 32, the pattern image of the glitter layer 31 inhibits the specification of the code obtained from the pattern image of the transparent layer 32.
  • the data for generating the code corresponding to the pattern image of the bright layer 31 is data that inhibits the code obtained from the pattern image of the transparent layer 32 from being specified. Therefore, even if the control part 50 acquires the data for code generation by the control program 61a (S14), it cannot specify a code (S15: NO).
  • the control unit 50 When the reading unit 65 reads an image from an angle at which only the pattern image of the bright layer 31 can be read or an angle at which both the pattern images of the transparent layer 32 and the bright layer 31 can be read, the control unit 50 Then, it is determined that the read image does not include the specific shape stored in the shape table 62 (S12: NO). Therefore, the control unit 50 performs processing for acquiring data for code generation by the control program 61a (S14).
  • the information recording body 30 forms the transparent layer 32 in a part of the bright layer 31, the image C2 of the transparent layer 32 can be easily observed.
  • the image C2 of the transparent layer 32 can be observed when observed in the regular reflection region. Therefore, if the image is read at an observation angle at which the image C2 of the transparent layer 32 can be observed, the code can be read by the conversion process.
  • the transparent layer 32 By making the transparent layer 32 constitute a picture, it can be made more visually understandable.
  • the information recording body 30 has the transparent layer 33 at a position different from the composite image when the transparent layer 32 is formed in the same size on the bright layer 31 to form a composite image. As a result, the image of the transparent layer 33 can be easily observed. Further, the transparent layer 32 of the composite image is on the bright layer 31 and has the same size, so that it can be difficult to understand visually and it is not necessary to know that information is contained in the surroundings.
  • the glitter layer 31 can be made of a glossy ink containing a glitter material
  • the transparent layer 32 can be made of a transparent ink or the like, so that switching printing can be made inexpensively.
  • the reading device 5 can read the code from the data obtained by converting the image C2.
  • the reading device 5 reads a copy of a copy product that can observe only the composite image composed of the image C1 and the image C2
  • the reading of the code corresponding to the image C2 is inhibited in the image C1. Since the data is generated, it is possible to prevent the code from being read from the data obtained by converting the composite image.
  • the conversion application 61b corresponding to the specific shape can be acquired and the conversion process can be performed. Therefore, the conversion process can be performed using the conversion application 61b that is different for each shape.
  • the glitter layer 31 has been described as having a square shape, but is not limited thereto.
  • the glitter layer 31 may have another shape such as a rectangular shape, a circular shape, or an elliptical shape.
  • the shape formed by the transparent layer 32 has been described as a star pattern, but other shapes and patterns such as a heart pattern and a triangle may be used.
  • the shape formed by the transparent layer 32 may be a QR code or the like.
  • the information recording body 30 including the bright layer 31 and the transparent layer 32 has been described as an example. However, it is not limited to this.
  • Each pattern image only needs to be formed of a bright material and a transparent material, and may not be printed on the layer. Further, the printing of the pattern image in which the code is embedded may be configured with color elements having high brightness, and the printing of the pattern image that inhibits the identification of the embedded code may be configured with color elements having low brightness.
  • the present invention is not limited to this.
  • you may have a base material like a transparent film between the brightness layer 31 and the transparent layer 32.
  • the transparent layer 32 may further have a substrate such as a transparent film. Good.
  • the portion of the glitter layer 31 that is a layer below the transparent film is less likely to be scraped.
  • an example of printing a pattern image has been described as an example, but the present invention is not limited to this.
  • a pattern image may be formed by a method other than printing such as transfer or laser drawing.
  • the printed material 10 having the information recording body 30 has been described using a ticket as an example, but the present invention is not limited to this. For example, it may be a card used in a game, a security protection label, or the like. Further, the information recording body 30 may be used for digital watermarking.
  • the reading device has been described by taking a portable terminal as an example, but the present invention is not limited to this.
  • the reading unit may be a scanner or the like.
  • processing by the reading device is determined based on whether or not the shape of the read image is included in the specific shape stored in the shape table, and is converted using a conversion application corresponding to the specific shape.
  • the present invention is not limited to this. For example, when the transparent layer forms a pattern, when the shape of the read image is included in the specific shape stored in the shape table, conversion processing is performed, and the shape of the read image is If it is not included in the specific shape stored in the shape table, the conversion process may not be performed. Further, once the image is read, the conversion process may be performed uniformly.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Printing Methods (AREA)
  • Credit Cards Or The Like (AREA)

Abstract

埋め込み情報の読取角度を判断しやすく工夫した情報記録体を提供する。 画像C1と、画像C1の上に形成される画像C2とを含む合成画像を具備した情報記録体30は、画像C1と、画像C2とが、特定の規則によって生成された異なるパターン画像であり、それぞれ観察角度によって反射光量の異なるように構成され、合成画像は、観察角度によって画像C1及び画像C2のうち少なくとも一方の画像を認識可能であり、画像C2と同じ反射光量の材料を用いて形成された角度特定領域を有する。

Description

情報記録体
 本発明は、情報記録体に関する。
 従来、画像等に特定の情報を埋め込む電子透かしの技術がある。この技術を印刷物に用いれば、人間が視覚で認識できないレベルで情報を埋め込むことができ、印刷物における美術的な効果を損なうことがない。また、印刷物に埋め込まれた情報は、読取装置で読み取ることができる。
 この埋め込まれた情報を、例えば、真贋判定に用いる場合には、複製物からは、埋め込まれた情報を推定されにくいものが望ましい。そのため、埋め込み情報を推定されにくいように工夫した情報記録体に関する技術が開示されている(例えば、特許文献1)。
特開2016-93895号公報
 特許文献1に記載のものは、埋め込み情報をスマートフォン等のリーダをかざして読取角度を調整する必要があるが、読取角度を判断しづらかった。
 本発明は、埋め込み情報の読取角度を判断しやすく工夫した情報記録体を提供することを目的とする。
 本発明は、以下のような解決手段により、前記課題を解決する。
 第1の発明は、第1画像と、前記第1画像の上に形成される第2画像とを含む合成画像を具備した情報記録体であって、前記第1画像と、前記第2画像とは、特定の規則によって生成された異なるパターン画像であり、それぞれ観察角度によって反射光量の異なるように構成され、前記合成画像は、観察角度によって前記第1画像及び前記第2画像のうち少なくとも一方の画像を認識可能であり、前記第2画像と同じ反射光量の材料を用いて形成された角度特定領域を有すること、を特徴とする情報記録体である。
 第2の発明は、第1の発明の情報記録体において、前記角度特定領域は、前記第2画像が形成された第2画像領域であり、前記第2画像領域は、前記第1画像が形成された第1画像領域の一部に形成されていること、を特徴とする情報記録体である。
 第3の発明は、第2の発明の情報記録体において、前記第2画像領域が、絵柄を構成していること、を特徴とする情報記録体である。
 第4の発明は、第1の発明の情報記録体において、前記角度特定領域は、前記合成画像を有する領域とは異なる位置に設けられていること、を特徴とする情報記録体である。
 第5の発明は、第1の発明の情報記録体において、前記角度特定領域は、前記第2画像が形成された第2画像領域であり、前記第1画像が形成された第1画像領域から少なくとも一部がはみ出していること、を特徴とする情報記録体である。
 第6の発明は、第1の発明から第5の発明までのいずれかの情報記録体において、前記第2画像は、前記規則に対応した変換処理をすることにより、コードに対応するデータが生成されるものであり、前記第1画像は、前記規則に対応した変換処理をすることにより、前記第2画像に対応した前記コードを阻害するデータが生成されるものであること、を特徴とする情報記録体である。
 第7の発明は、第1の発明から第6の発明までのいずれかの情報記録体において、前記第1画像は、明度の低い色要素で形成され、前記第2画像は、前記第1画像の観察側に配置され、前記第1画像より明度の高い色要素で形成されたものであること、を特徴とする情報記録体である。
 第8の発明は、第1の発明から第7の発明までのいずれかの情報記録体において、前記第1画像は、光輝材料で形成され、前記第2画像は、透明素材で形成されること、を特徴とする情報記録体である。
 本発明によれば、埋め込み情報の読取角度を判断しやすく工夫した情報記録体を提供することができる。
本実施形態に係る印刷物を説明するための図である。 本実施形態に係る情報記録体のパターン画像の例を示す図である。 本実施形態に係る情報記録体のパターン画像の例を示す図である。 本実施形態に係る情報記録体の構造に基づく観察態様を説明するための図である。 本実施形態に係る印刷物のコピー時の照明光源とカメラとの位置関係を説明するための図である。 本実施形態に係る情報記録体の具体例を示す図である。 本実施形態に係る情報記録体の具体例を示す図である。 本実施形態に係る情報記録体の具体例を示す図である。 本実施形態に係る読取装置の機能ブロック図である。 本実施形態に係る読取装置でのコード特定処理を示すフローチャートである。
 以下、本発明を実施するための形態について、図を参照しながら説明する。なお、これは、あくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
(実施形態)
 図1は、本実施形態に係る印刷物10を説明するための図である。
<印刷物10>
 図1(A)に示す印刷物10は、例えば、入場券等のチケットである。印刷物10は、例えば、それ自体に金銭的な価値を有するが、印刷物10をコピーしたコピー品は、金銭的な価値を有さない。印刷物10は、用紙11と、情報記録体30とを備える。
 用紙11は、印刷物10の基礎となる基材であり、例えば、白色用紙から形成される。なお、用紙11は、白色用紙に限らず、上質紙、コート紙、タック紙、プラスチックカード、フィルム等、印刷画像を担持できる平面を有していれば、他のものであってもよい。印刷画像は、この例では、チケットの内容に関するものである。
<情報記録体30の構造>
 用紙11の表面側には、情報記録体30を有する。情報記録体30は、潜像印刷によって、例えば、コード等の真贋判定に用いる情報が印刷されたものである。情報記録体30に印刷された画像は、用紙11の観察方向を変えることで変わるものである。
 図1(B)は、図1(A)におけるX-X方向断面の部分模式図である。図1(B)に示すように、情報記録体30は、用紙11上に、光輝層31(第1画像領域)と、透明層32(第2画像領域、角度特定領域)とを含む合成画像を備える。合成画像は、光輝層31と、透明層32の少なくとも一部とを重ねた合成層による画像である。光輝層31は、光輝性材料を含むインキによって、パターン画像(第1画像)が印刷された層である。また、透明層32は、透明なインキによって、光輝層31のパターン画像とは異なるパターン画像(第2画像)が印刷された層である。透明層32は、光輝層31の一部に形成される。この例では、光輝層31と、透明層32とは、正方形状であり、透明層32は、光輝層31よりひと回り小さい。つまり、合成画像は、光輝層31のパターン画像と、透明層32の少なくとも一部のパターン画像とを重ねたときの画像である。
 ここで、情報記録体30の製造方法を、簡単に説明する。
 まず、予めチケットの内容を印刷済の用紙11を用意し、用紙11の上に光輝層31として、光輝性材料を含む光沢インキ等で、パターン画像をグラビア印刷する。パターン画像を描く光輝性材料を含むインキは、例えば、アルミニウム粉末、銅粉末、亜鉛粉、錫粉、又はリン化鉄等を成分とする銀色、青味金色又は赤味金色を示す光輝性材料を含むインキである。
 次に、この光輝層31のパターン画像上に、透明層32として、透明なインキ等で別のパターン画像を重ねてグラビア印刷する。このパターン画像を描くインキは、例えば、マットOPニス、透明ニス、インキワニス、透明インキ又はメジウムインキ等である。なお、これらのインキは、紫外線硬化型インキ、酸化重合型インキ、浸透型インキ、過熱乾燥型インキ、蒸発乾燥型インキ等のいずれの印刷インキであってもよい。
 なお、上述した光輝層31及び透明層32に用いる材料は、一例であり、それぞれ観察角度によって反射光量の異なるものであれば、他の材料であってもよい。
 ここで、塗布するインキの厚さは、いずれも、例えば、1マイクロメートル程度である。なお、インキの厚さは、これに限定するものではない。また、例えば、材料によって、インキの厚さを変えてもよい。
 上述の印刷工程は、グラビア印刷に限らず、ウェットオフセット印刷、ドライオフセット印刷、凸版印刷、水無平版印刷、フレキソ印刷、スクリーン印刷及び凹版印刷等であってもよい。
 次に、情報記録体30の印刷工程で印刷される一定面積の印刷領域において、下地を隠蔽しうる面積を%で表した印刷条件を面積率とし、特に網点で下地を隠しうる場合を網点面積率として、光輝層31及び透明層32の印刷を説明する。
 図2及び図3は、本実施形態に係る情報記録体30のパターン画像の例を示す図である。
 図4は、本実施形態に係る情報記録体30の構造に基づく観察態様を説明するための図である。
 図2(A)は、光輝層31の画像C1(第1画像)及びその一部である領域E1を拡大したものを示す。光輝層31は、画像C1が印刷された層である。画像C1は、領域E1に示すように、前景部C1aと、背景部C1bとを2値で表したパターン画像である。
 前景部C1aは、例えば、網点面積率100%の印刷がされており、背景部C1bは、例えば、網点面積率75%の印刷がされている。但し、この割合は、一例であって、これに限定されない。例えば、前景部C1aの網点面積率が100%未満であってもよく、また、背景部C1bの網点面積率が75%以外であってもよい。その場合には、前景部C1aと、背景部C1bとの網点面積率の差が15%以上50%以下になるようにするのが望ましい。また、前景部C1aと、背景部C1bとの疎密が逆であってもよい。
 図2(B)は、透明層の画像C2(第2画像)及びその一部である領域E2を拡大したものを示す。透明層32は、画像C2が印刷された層である。画像C2は、領域E2に示すように、前景部C2aと、背景部C2bとを2値で表したパターン画像である。
 前景部C2aは、例えば、網点面積率100%の印刷がされており、背景部C2bは、例えば、網点面積率25%の印刷がされている。但し、この割合も一例であって、これに限定されない。例えば、前景部C2aの網点面積率は、100%未満であってもよく、また、背景部C2bの網点面積率は、前景部C2aとの間で所定の差があれば、網点面積率25%以上であっても以下であってもよい。また、前景部C2aと、背景部C2bとの疎密が逆であってもよい。
 そして、前景部C2aと背景部C2bとの疎密差は、前景部C1aと背景部C1bとの疎密差よりも大きい。
 このように、情報記録体30の光輝層31の画像C1と、透明層32の画像C2とは、パターン画像であるので、人が一見しただけでは意味のない画像である。
 ここで、情報記録体30の光輝層31及び透明層32は、前景部及び背景部からなるパターン画像が印刷されているものに限定されない。
 図3(A)及び図3(B)は、光輝層31の画像Cxと、透明層32の画像Cyとが、前景部のみからなるパターン画像である場合を示す。この場合、画像Cx及び画像Cyの印刷領域Cxa及びCyaを網点面積率100%で印刷し、印刷領域Cxa及びCyaと、印刷しない非印刷領域Cxb及びCybとによって、2値でパターン画像を表したものになる。
 次に、図2及び図3に示されるパターン画像について説明する。
 パターン画像は、特定の規則によって生成された画像である。パターン画像は、例えば、フーリエ変換を行うことで周波数変換した空間周波数領域に、特徴的な点や線を表すことができるものである。パターン画像に対して変換処理を行うことによって、例えば、特徴的な点を表すことができるものである場合、画像C1に対して変換処理をすることで表される点は、画像C2に対して同様の変換処理をすることで表される点を阻害する関係を有する。つまり、画像C2に対して変換処理をすることで表される点は、画像C1と画像C2とを含む合成画像に対して変換処理をすることで表される点では、再現できないものである。
 ここで、特定の規則は、フーリエ変換に限定されるものではなく、他の変換処理であってもよい。例えば、バーコードに対する変換処理や、QRコード(登録商標)等の二次元コードに対する変換処理等であってもよい。
 上述の情報記録体30は、観察する視点の角度(観察角度)によって、認識可能な画像が変化する。
 図4は、拡散反射領域及び正反射(鏡面反射)領域での照明光源21と、視点22と、情報記録体30との3つの位置関係を図示したものである。照明光源21と情報記録体30との位置に対して、位置P1に視点22(22a)があるとき、拡散反射領域で観察したことになる。また、照明光源21と情報記録体30との位置に対して、位置P2に視点22(22b)があるとき、正反射領域で観察したことになる。
 以下において、図2に示す画像C1及び画像C2を例に説明する。
 情報記録体30が光輝層31のみからなる場合には、拡散反射領域においては、図2(A)の画像C1の前景部C1aと背景部C1bとの疎密差により反射光量に大きく差が生じるため、前景部C1aと背景部C1bとが区別できる。他方、正反射領域においては、前景部C1aと背景部C1bとが共に反射光量が大きくなるため、その差を感知できず、前景部C1aと背景部C1bとは、区別できなくなる。
 次に、情報記録体30が透明層32のみからなる場合には、拡散反射領域においては、図2(B)の前景部C2aと背景部C2bとは、透明なため区別できない。他方、正反射領域においては、前景部C2aと背景部C2bとの疎密差で反射光量が変わるため、前景部C2aと背景部C2bとが区別できる。
 そして、情報記録体30が光輝層31上に透明層32が形成されたものである場合には、拡散反射領域においては、前景部C1aと背景部C1bとが区別でき、前景部C2aと背景部C2bとが区別できないため、全体としては、前景部C1aと背景部C1bとが観察される。また、正反射領域においては、前景部C1aと背景部C1bとは区別できないが、前景部C2aと背景部C2bとが区別でき、全体として前景部C2aと背景部C2bとが観察される。
 このように、光輝層31と、透明層32とは、観察角度によって反射光量が異なる材料(インキ等)を用いることで、光輝層31の画像と、透明層32の画像とは、観察角度によって見えたり見えなかったり、と様々な見せ方をさせることができる。
 そして、図1(B)に示すように、透明層32は、光輝層31よりひと回り小さい。つまり、情報記録体30は、光輝層31が設けられた部分と、透明層32が設けられた部分との大きさが異なる。そのため、光輝層31が観察されている状態と、透明層32が観察されている状態とを判別しやすくなり、透明層32が観察できる角度を、見た目で分かりやすいものにできる。また、透明層32が有するパターン画像は、真贋判定に用いるものであるが、正反射領域以外では、光輝層31が有するパターン画像の方が確認しやすい。そのため、透明層32が有するパターン画像は、見た目には分かりづらい状態を維持できる。
<印刷物10の複製>
 次に、印刷物10が複製された場合について説明する。
 図5は、本実施形態に係る印刷物10のコピー時の照明光源21とカメラ23との位置関係を説明するための図である。
 図5(A)及び図5(B)は、コピー機等の複製機の照明光源21とカメラ23と印刷物10との位置関係を示す。印刷物10の情報記録体30は、図5(A)又は図5(B)に示す照明光源21から光が照射された状態で、カメラ23によってその画像が取得される。
 図5(A)は、照明光源21とカメラ23とが情報記録体30に対して垂直方向に位置して、カメラ23が画像を取得する場合である。また、図5(B)は、照明光源21が情報記録体30に対してやや斜め方向から照射し、カメラ23が情報記録体30に対して垂直方向から撮影して画像を取得する場合である。いずれの場合においても、カメラ23には、照明光源21と情報記録体30との位置関係によって、情報記録体30の光輝層31と透明層32との両方の画像が捉えられる。
 このようにして、カメラ23が得た画像をもとに、複製機では、印刷物10のコピー品が作製される。
 そして、コピー品は、印刷物10の情報記録体30(図1(A)参照)に対応する位置に、印刷体を有するものになる。印刷体には、情報記録体30の光輝層31が有するパターン画像と、透明層32が有するパターン画像との合成画像を有する。また、印刷体は、一般的なカーボンを含む黒色インキからなる層を有する。よって、印刷体をいずれの領域(拡散反射領域、正反射領域等)からの観察角度で観察した場合であっても、印刷体は、合成画像のみが見えるものになる。よって、印刷体は、透明層32が有するパターン画像のみを観察できないものになる。
 次に、情報記録体30の具体例を説明する。
 図6から図8までは、本実施形態に係る情報記録体30の具体例を示す図である。
 図6は、情報記録体30が、用紙11上に、光輝層31と、透明層32とによって構成されたものである。そして、図6(A)に示すように、透明層32は、絵柄を表す。この例では、透明層32は、星の絵柄を表している。
 図6(B)は、図6(A)におけるX1-X1方向断面の部分模式図である。図6(B)に示すように、透明層32は、光輝層31の一部に形成される。
 このように、情報記録体30は、光輝層31が形成された領域と、透明層32が形成された領域とが、平面視で一致せず、大きさ及び形状が異なる。また、透明層32が形成された領域は、絵柄を構成している。そのため、光輝層31が観察されている状態と、透明層32が観察されている状態とが判別しやすくなり、透明層32が観察できる角度を、見た目で分かりやすいものにできる。
 しかも、透明層32によって表されるパターン画像を星の絵柄にすることで、正反射領域から観察すれば、星の絵柄が観察できる。そのため、絵柄によって、正反射領域であることを、より分かりやすくできる。
 図7は、情報記録体30が、用紙11上に、光輝層31と、透明層32とによって構成されたものである。そして、図7(A)に示すように、透明層32が、光輝層31の一部に重なると共に、用紙11上に一部がはみ出した状態になっている。
 図7(B)は、図7(A)におけるX2-X2方向断面の部分模式図である。図7(B)に示すように、情報記録体30は、光輝層31が形成された領域と、透明層32が形成された領域とが、平面視で一致せず、大きさ及び位置が異なる。そのため、光輝層31が観察されている状態と、透明層32が観察されている状態とが判別しやすくなり、透明層32が観察できる角度を、見た目で分かりやすいものにできる。
 図8は、情報記録体30が、用紙11上に、光輝層31と、透明層32と、透明層33(角度特定領域)とによって構成されたものである。
 図8(A)に示すように、透明層33は、光輝層及び透明層32とは異なる位置に設けられている。透明層33は、透明なインキによって、例えば、網点面積率100%でベタ刷りがされており、ベタ画像が印刷された層である。透明層33は、正反射領域において、観察可能にするためのものであるため、透明層33の形状は、どのようなものであってもよく、パターン画像が印刷されている必要はない。
 図8(B)は、図8(A)におけるX3-X3方向断面の部分模式図である。図8(B)に示すように、光輝層31と、透明層32とは同じ大きさであり、透明層32は、光輝層31に重なって形成される。
 このように、透明層33を、光輝層31及び透明層32からなる合成画像とは異なる位置に設けることで、正反射領域で観察した場合に、透明層33を観察できるため、正反射領域を分かりやすいものにできる。
 しかも、光輝層31及び透明層32が、同じ大きさで重なっているので、正反射領域においても透明層32を観察しにくくする効果がある。そのため、情報記録体30の透明層32に真贋情報が入っていることを知られることを防止でき、秘匿性にも優れたものにできる。
<読取装置5>
 次に、印刷物10の情報記録体30からコードを読み取る読取装置5について説明する。
 図9は、本実施形態に係る読取装置5の機能ブロック図である。
 読取装置5は、例えば、スマートフォンに代表される携帯端末である。
 読取装置5は、制御部50と、記憶部60と、読取部65と、タッチパネルディスプレイ67と、通信インタフェース部69とを備える。
 制御部50は、読取装置5の全体を制御するCPU(中央処理装置)である。制御部50は、記憶部60に記憶されているOS(オペレーティングシステム)やアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
 制御部50は、画像受付部51と、認識部52と、アプリ取得部53と、変換部54と、コード特定部55とを備える。
 画像受付部51は、情報記録体30を読取部65が読み取ることで、読取部65を介して情報記録体30の画像データを受け付ける。
 認識部52は、画像受付部51が受け付けた画像データに、形状テーブル62に記憶された特定形状を含むか否かを確認する。
 アプリ取得部53は、認識部52により特定形状を認識した場合に、通信インタフェース部59を介して種々のアプリケーションプログラムを記憶したアプリ配信サーバ(図示せず)に接続し、変換アプリ61bを取得する。そして、アプリ取得部53は、取得した変換アプリ61bを、後述するプログラム記憶部61に記憶する。
 変換部54は、後述する制御プログラム61a又は取得した変換アプリ61bを用いて、画像受付部51が受け付けた画像データに対して所定の変換を行い、コード生成のためのデータを取得する。
 コード特定部55は、コードテーブル63を参照して、変換部54により取得されたデータからコードを特定する。
 記憶部60は、制御部50が各種の処理を実行するために必要なプログラム、データ等を記憶するためのハードディスク、半導体メモリ素子等の記憶領域である。
 なお、コンピュータとは、制御部、記憶装置等を備えた情報処理装置をいい、読取装置5は、制御部50、記憶部60等を備えた情報処理装置であり、コンピュータの概念に含まれる。
 記憶部60は、プログラム記憶部61と、形状テーブル62と、コードテーブル63とを記憶している。
 プログラム記憶部61は、各種のプログラムを記憶する記憶領域である。プログラム記憶部61は、制御プログラム61aと、変換アプリ61bとを記憶する。制御プログラム61aは、制御部50の各機能を実行するためのプログラムである。変換アプリ61bは、コードを読み取るための特定形状に対応した専用アプリである。変換アプリ61bは、アプリ配信サーバからダウンロードした際に、プログラム記憶部61に記憶される。
 形状テーブル62は、予め決められた透明層32により観察可能な形状と、アプリ配信サーバのURL(Uniform Resource Locator)とを対応付けて記憶するテーブルである。
 コードテーブル63は、コードを記憶したテーブルである。
 読取部65は、例えば、カメラであって、画像や文字等の印刷内容を画像として取得する装置である。
 タッチパネルディスプレイ67は、液晶パネル等で構成される表示部としての機能と、ユーザの指等によるタッチ入力を検出する入力部としての機能とを有する。
 通信インタフェース部69は、例えば、配信サーバ等との間で通信を行うためのインタフェースである。
<読取装置5の処理>
 次に、読取装置5の処理について説明する。
 図10は、本実施形態に係る読取装置5でのコード特定処理を示すフローチャートである。
 ステップS(以下、単に「S」という。)10において、読取装置5の制御部50は、読取部65を起動させる。
 S11において、制御部50(画像受付部51)は、読取部65を介して画像を読み取る。
 ここで、ユーザは、読取部65を、情報記録体30の透明層32が有するパターン画像のみを読取可能な角度から、画像を読み取ることができる。また、ユーザは、読取部65を、情報記録体30の光輝層31が有するパターン画像のみを読取可能な角度から、画像を読み取ることができる。さらに、ユーザは、読取部65を、情報記録体30の光輝層31及び透明層32の両方が有するパターン画像を読取可能な角度から、画像を読み取ることができる。
 ユーザは、透明層32が有するパターン画像のみを読取可能な角度から、画像を読み取るために、透明層32(又は透明層33)が視認可能な正反射領域を特定して、画像を読み取るための操作を行う。
 S12において、制御部50(認識部52)は、読み取った画像の形状が、形状テーブル62に記憶された特定形状に含まれるか否かを判断する。特定形状に含まれる場合(S12:YES)には、制御部50は、処理をS13に移す。他方、特定形状に含まれない場合(S12:NO)には、制御部50は、処理をS14に移す。特定形状に含まれない場合には、例えば、図8に示すような、光輝層31と透明層32とが重なり合っている場合等が該当する。
 S13において、制御部50は、形状テーブル62を参照して、特定形状に対応するURLに接続する。そして、制御部50(アプリ取得部53)は、アプリ配信サーバから変換アプリ61bを取得し、実行する。
 S14において、制御部50(変換部54)は、読み取った画像に対して変換処理を行い、コード生成のためのデータを取得する。ここで、変換処理は、制御プログラム61a又は変換アプリ61bにより実行される。
 S15において、制御部50(コード特定部55)は、コードテーブル63を参照して、取得したデータに対応するコードが特定できたか否かを判断する。コードテーブル63に取得したデータに一致するものがある場合には、コードが特定できる。コードが特定できた場合(S15:YES)には、制御部50は、処理をS16に移す。他方、コードが特定できなかった場合(S15:NO)には、制御部50は、処理をS16aに移す。
 S16において、制御部50は、コードを特定できた旨を、タッチパネルディスプレイ67に表示させる。その後、制御部50は、本処理を終了する。なお、本処理を終了後、制御部50は、特定したコードに基づく処理を行う。
 他方、S16aにおいて、制御部50は、エラーである旨を、タッチパネルディスプレイ67に表示させる。その後、制御部50は、本処理を終了する。
 ここで、透明層32のパターン画像のみを読取可能な角度から読取部65が画像を読み取った場合には、制御部50は、透明層32のパターン画像のみを得る。そして、透明層32のパターン画像が特定形状である場合には(S12:YES)、特定形状に対応した変換アプリ61bを実行して、コード生成のためのデータを取得する(S14)。ここで、透明層32のパターン画像に対応するコードは、コードテーブル63に記憶されているので、制御部50は、コードが特定できる(S15:YES)。
 また、透明層32のパターン画像が特定形状ではない場合には(S12:NO)、制御プログラム61aにより、コード生成のためのデータを取得する(S14)。ここで、透明層32のパターン画像に対応するコードは、コードテーブル63に記憶されているので、制御部50は、コードが特定できる(S15:YES)。
 他方、透明層32と、光輝層31との両方のパターン画像を読取可能な角度から読取部65が画像を読み取った場合には、制御部50は、透明層32のパターン画像のみを得ることがない。コードテーブル63には、透明層32のパターン画像に対応するコードのみが記憶されており、例えば、透明層32と光輝層31との両方のパターン画像に対応するコードは、記憶されていない。つまり、透明層32のパターン画像に光輝層31のパターン画像が合成されることで、光輝層31のパターン画像が、透明層32のパターン画像から得られるコードの特定を阻害している。このように、光輝層31のパターン画像に対応するコード生成のためのデータは、透明層32のパターン画像から得られるコードを特定できないように阻害するデータである。よって、制御部50は、制御プログラム61aにより、コード生成のためのデータを取得しても(S14)、コードを特定できない(S15:NO)。
 なお、光輝層31のパターン画像のみを読取可能な角度や、透明層32及び光輝層31の両方のパターン画像を読取可能な角度から読取部65が画像を読み取った場合には、制御部50は、読み取った画像に形状テーブル62に記憶された特定形状を含まないと判断する(S12:NO)。よって、制御部50は、制御プログラム61aにより、コード生成のためのデータを取得する処理を行う(S14)。
 このように、本実施形態によれば、以下のような効果がある。
 (1)情報記録体30は、透明層32を、光輝層31の一部に形成するようにしたので、透明層32の画像C2を観察しやすくできる。そして、透明層32の画像C2を観察できるのは、正反射領域で観察した場合である。よって、透明層32の画像C2を観察できる観察角度で画像を読み取れば、変換処理によってコードを読み取ることができる。
 (2)透明層32を、絵柄を構成するようにすることで、見た目でより分かりやすいものにできる。
 (3)情報記録体30は、光輝層31上に同じ大きさで重ねて透明層32を形成して合成画像にした場合には、合成画像とは異なる位置に透明層33を有するようにすることで、透明層33の画像を観察しやすくできる。また、合成画像の透明層32は、光輝層31上にあって、同じ大きさのため、見た目で分かりにくくでき、情報が入っていることを周囲に知られずに済む。
 (4)画像C1は、光輝層31に有し、画像C2は、透明層32が有するものであるので、情報記録体30の観察角度によって、画像C1と、画像C2とを切り替えて観察できる。そして、光輝層31は、光輝性材料を含む光沢インキ等で作製でき、透明層32は、透明なインキ等で作製できるので、切り替えられる印刷が安価にできる。
 (5)読取装置5によって、画像C2のみが見える観察角度で情報記録体30を読み取ることで、読取装置5は、画像C2を変換処理して取得したデータからコードを読み取ることができる。また、読取装置5は、画像C1と画像C2とからなる合成画像のみを観察可能なコピー品の印刷体を読み取った場合には、画像C1には、画像C2に対応するコードの特定を阻害するデータを生成するものであるので、合成画像を変換処理して取得したデータからコードを読み取れないようにできる。
 (6)画像C2が特定形状を形成している場合には、特定形状に対応する変換アプリ61bを取得して変換処理を行うことができる。よって、形状ごとに異なる変換アプリ61bを用いて変換処理を行わせることができる。
 以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。また、実施形態に記載した効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載したものに限定されない。なお、上述した実施形態及び後述する変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。
(変形形態)
 (1)本実施形態では、光輝層31を正方形状であるものとして説明したが、これに限定されない。光輝層31は、長方形状や、円形状、楕円形上等、他の形状であってもよい。また、透明層32が形成する形状を、星の絵柄として説明したが、ハートの絵柄や、三角形等、他の形状や絵柄であってもよい。また、透明層32が形成する形状を、QRコード等にしてもよい。
 (2)本実施形態では、光輝層31及び透明層32からなる情報記録体30を例に説明した。しかし、これに限定されない。各パターン画像が、光輝材料と、透明材料とから形成されていればよく、層に印刷されていなくてもよい。また、コードを埋め込むパターン画像の印刷を、明度の高い色要素で構成し、埋め込んだコードの特定を阻害するパターン画像の印刷を、明度の低い色要素で構成したものであってもよい。
 (3)本実施形態では、光輝層31の上に、直接透明層32を形成したものを例に説明したが、これに限定されない。例えば、光輝層31と、透明層32との間に透明フィルムのような基材を有するものであってもよい。また、例えば、本実施形態で説明した光輝層31の上に透明層32を形成したものに対して、さらに、透明層32の上に、透明フィルムのような基材を有するものであってもよい。このように透明フィルムのような基材を有することによって、透明フィルムの下の層である光輝層31の部分が削られにくくなる。
 (4)本実施形態では、パターン画像を印刷するものを例に説明したが、これに限定されない。転写や、レーザ描画等の印刷以外の手法で、パターン画像を形成するものであってもよい。
 (5)本実施形態では、情報記録体30を有する印刷物10を、チケットを例に説明したが、これに限定されない。例えば、ゲームで使用するカード類や、セキュリティ保護のラベル等であってもよい。また、情報記録体30を、電子透かしに用いてもよい。
 (6)本実施形態では、読取装置を、携帯端末を例に説明したが、これに限定されない。例えば、パーソナルコンピュータであってもよい。そして、読取部は、スキャナ等であってもよい。
 (7)本実施形態では、読取装置による処理を、読み取った画像の形状が、形状テーブルに記憶された特定形状に含まれるか否かによって判別し、特定形状に対応した変換アプリを用いて変換するものを例に説明したが、これに限定されない。例えば、透明層が絵柄を形成している場合には、読み取った画像の形状が、形状テーブルに記憶された特定形状に含まれる場合に、変換処理を行うようにし、読み取った画像の形状が、形状テーブルに記憶された特定形状に含まれない場合に、変換処理を行わないようにしてもよい。また、画像を読み取ったら、変換処理を一律に行うようにしてもよい。
 5   読取装置
 10  印刷物
 21  照明光源
 23  カメラ
 30  情報記録体
 31  光輝層
 32,33 透明層
 50  制御部
 60  記憶部
 61a 制御プログラム
 61b 変換アプリ
 62  形状テーブル
 63  コードテーブル
 65  読取部
 C1,C2,Cx,Cy 画像

Claims (8)

  1.  第1画像と、前記第1画像の上に形成される第2画像とを含む合成画像を具備した情報記録体であって、
     前記第1画像と、前記第2画像とは、
      特定の規則によって生成された異なるパターン画像であり、
      それぞれ観察角度によって反射光量の異なるように構成され、
     前記合成画像は、観察角度によって前記第1画像及び前記第2画像のうち少なくとも一方の画像を認識可能であり、
     前記第2画像と同じ反射光量の材料を用いて形成された角度特定領域を有すること、
     を特徴とする情報記録体。
  2.  請求項1に記載の情報記録体において、
     前記角度特定領域は、前記第2画像が形成された第2画像領域であり、
     前記第2画像領域は、前記第1画像が形成された第1画像領域の一部に形成されていること、
     を特徴とする情報記録体。
  3.  請求項2に記載の情報記録体において、
     前記第2画像領域が、絵柄を構成していること、
     を特徴とする情報記録体。
  4.  請求項1に記載の情報記録体において、
     前記角度特定領域は、前記合成画像を有する領域とは異なる位置に設けられていること、
     を特徴とする情報記録体。
  5.  請求項1に記載の情報記録体において、
     前記角度特定領域は、前記第2画像が形成された第2画像領域であり、前記第1画像が形成された第1画像領域から少なくとも一部がはみ出していること、
     を特徴とする情報記録体。
  6.  請求項1から請求項5までのいずれかに記載の情報記録体において、
     前記第2画像は、前記規則に対応した変換処理をすることにより、コードに対応するデータが生成されるものであり、
     前記第1画像は、前記規則に対応した変換処理をすることにより、前記第2画像に対応した前記コードを阻害するデータが生成されるものであること、
     を特徴とする情報記録体。
  7.  請求項1から請求項6までのいずれかに記載の情報記録体において、
     前記第1画像は、明度の低い色要素で形成され、
     前記第2画像は、前記第1画像の観察側に配置され、前記第1画像より明度の高い色要素で形成されたものであること、
     を特徴とする情報記録体。
  8.  請求項1から請求項7までのいずれかに記載の情報記録体において、
     前記第1画像は、光輝材料で形成され、
     前記第2画像は、透明素材で形成されること、
     を特徴とする情報記録体。
PCT/JP2018/008783 2017-03-22 2018-03-07 情報記録体 WO2018173756A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019507521A JP7092112B2 (ja) 2017-03-22 2018-03-07 情報記録体
US16/493,487 US11164058B2 (en) 2017-03-22 2018-03-07 Information recording object
EP18771433.2A EP3603989A4 (en) 2017-03-22 2018-03-07 INFORMATION RECORDING MEDIUM
CN201880018709.0A CN110418720B (zh) 2017-03-22 2018-03-07 信息记录体
JP2022095692A JP2022126726A (ja) 2017-03-22 2022-06-14 情報記録体、媒体、読取装置、プログラム及び読取方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-055631 2017-03-22
JP2017055631 2017-03-22

Publications (1)

Publication Number Publication Date
WO2018173756A1 true WO2018173756A1 (ja) 2018-09-27

Family

ID=63584335

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/008783 WO2018173756A1 (ja) 2017-03-22 2018-03-07 情報記録体

Country Status (5)

Country Link
US (1) US11164058B2 (ja)
EP (1) EP3603989A4 (ja)
JP (2) JP7092112B2 (ja)
CN (1) CN110418720B (ja)
WO (1) WO2018173756A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020189442A (ja) * 2019-05-22 2020-11-26 大日本印刷株式会社 情報記録体、媒体及び冊子体
JP2021000751A (ja) * 2019-06-21 2021-01-07 大日本印刷株式会社 情報記録体、媒体及び冊子体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281482A (ja) * 2002-03-22 2003-10-03 Denso Wave Inc 光学的情報記録媒体及び光学的情報読取装置
US20040233463A1 (en) * 2003-05-19 2004-11-25 Hersch Roger David Reproduction of security documents and color images with metallic inks
JP2013111781A (ja) * 2011-11-25 2013-06-10 National Printing Bureau 真偽判別可能な印刷物
WO2016075999A1 (ja) * 2014-11-12 2016-05-19 大日本印刷株式会社 情報記録体、読取装置及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5786586A (en) * 1995-01-17 1998-07-28 Welch Allyn, Inc. Hand-held optical reader having a detachable lens-guide assembly
JP4403162B2 (ja) * 2006-09-29 2010-01-20 株式会社東芝 立体画像表示装置および立体画像の作製方法
GB0714141D0 (en) * 2007-07-19 2007-08-29 Rue De Int Ltd security device
US8054435B2 (en) * 2008-06-18 2011-11-08 Sharp Kabushiki Kaisha Liquid crystal panel and liquid crystal display device
US8668137B2 (en) * 2009-07-02 2014-03-11 Barcode Graphics Inc. Barcode systems having multiple viewing angles
TWI504933B (zh) * 2012-06-13 2015-10-21 Innolux Corp 可切換式二維/三維顯示裝置及其製造方法
EP3795367A1 (en) * 2015-07-13 2021-03-24 Wavefront Technology, Inc. Optical products
CN107506358A (zh) * 2016-06-14 2017-12-22 索尼公司 信息处理设备和信息处理方法
US10511831B2 (en) * 2017-01-04 2019-12-17 Innolux Corporation Display device and method for displaying
US10670778B2 (en) * 2017-07-20 2020-06-02 Htc Corporation Optical lens, optical system and method of manufacturing optical lens

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281482A (ja) * 2002-03-22 2003-10-03 Denso Wave Inc 光学的情報記録媒体及び光学的情報読取装置
US20040233463A1 (en) * 2003-05-19 2004-11-25 Hersch Roger David Reproduction of security documents and color images with metallic inks
JP2013111781A (ja) * 2011-11-25 2013-06-10 National Printing Bureau 真偽判別可能な印刷物
WO2016075999A1 (ja) * 2014-11-12 2016-05-19 大日本印刷株式会社 情報記録体、読取装置及びプログラム
JP2016093895A (ja) 2014-11-12 2016-05-26 大日本印刷株式会社 情報記録体、読取装置及びプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020189442A (ja) * 2019-05-22 2020-11-26 大日本印刷株式会社 情報記録体、媒体及び冊子体
JP7302281B2 (ja) 2019-05-22 2023-07-04 大日本印刷株式会社 情報記録体、媒体及び冊子体
JP2021000751A (ja) * 2019-06-21 2021-01-07 大日本印刷株式会社 情報記録体、媒体及び冊子体
JP7351108B2 (ja) 2019-06-21 2023-09-27 大日本印刷株式会社 情報記録体、媒体及び冊子体

Also Published As

Publication number Publication date
JP2022126726A (ja) 2022-08-30
CN110418720A (zh) 2019-11-05
JP7092112B2 (ja) 2022-06-28
EP3603989A1 (en) 2020-02-05
US11164058B2 (en) 2021-11-02
US20210158116A1 (en) 2021-05-27
EP3603989A4 (en) 2020-09-09
JPWO2018173756A1 (ja) 2020-01-23
CN110418720B (zh) 2021-05-18

Similar Documents

Publication Publication Date Title
JP7197044B2 (ja) 情報記録体、媒体及び冊子体
ES2791399T3 (es) Elemento de seguridad y método para inspeccionar la autenticidad de una impresión
JP4519940B2 (ja) 標識認証システム及び標識認証方法
KR102235215B1 (ko) 위조 방지용 2차 부호화로 바코드 보강
WO2016075999A1 (ja) 情報記録体、読取装置及びプログラム
JP2022126726A (ja) 情報記録体、媒体、読取装置、プログラム及び読取方法
EA011682B1 (ru) Способ нанесения невидимой метки на носитель данных
WO2020157567A1 (en) Authentication and tracking by hidden codes
JP2011034535A (ja) 本人確認書類真贋判定装置
JP7351108B2 (ja) 情報記録体、媒体及び冊子体
JP2022139020A (ja) 情報記録体、ラベル、読取装置、プログラム及び真贋判定方法
Berchtold et al. Fingerprinting blank paper and printed material by smartphones
JP2020047151A (ja) 画像形成装置、検査対象物照合装置、検査対象物照合システム、検査対象物照合方法
JP7302281B2 (ja) 情報記録体、媒体及び冊子体
JP2012212287A (ja) 個体識別装置、個体識別方法、及びプログラム
JP2021146568A (ja) 情報記録体、媒体、冊子体、真贋判定装置、プログラム及び真贋判定方法
Reverdy-Bruas et al. Image analysis as a tool to discriminate counterfeit from true 2D printed codes
CN116563188A (zh) 防复印处理方法、装置、设备及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18771433

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019507521

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018771433

Country of ref document: EP

Effective date: 20191022