WO2014007268A1 - レンズユニット - Google Patents

レンズユニット Download PDF

Info

Publication number
WO2014007268A1
WO2014007268A1 PCT/JP2013/068186 JP2013068186W WO2014007268A1 WO 2014007268 A1 WO2014007268 A1 WO 2014007268A1 JP 2013068186 W JP2013068186 W JP 2013068186W WO 2014007268 A1 WO2014007268 A1 WO 2014007268A1
Authority
WO
WIPO (PCT)
Prior art keywords
lens unit
lens
unit according
code
camera
Prior art date
Application number
PCT/JP2013/068186
Other languages
English (en)
French (fr)
Inventor
吉田 健治
Original Assignee
Yoshida Kenji
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2012148600A external-priority patent/JP5294100B1/ja
Priority claimed from JP2013119343A external-priority patent/JP6294012B2/ja
Application filed by Yoshida Kenji filed Critical Yoshida Kenji
Priority to EP13813445.7A priority Critical patent/EP2869235A4/en
Priority to US14/412,123 priority patent/US20150341533A1/en
Priority to CN201380045818.9A priority patent/CN104641380A/zh
Priority to JP2014523756A priority patent/JPWO2014007268A1/ja
Publication of WO2014007268A1 publication Critical patent/WO2014007268A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/023Mountings, adjusting means, or light-tight connections, for optical elements for lenses permitting adjustment
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/62Optical apparatus specially adapted for adjusting optical elements during the assembly of optical systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06046Constructional details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/10831Arrangement of optical elements, e.g. lenses, mirrors, prisms

Definitions

  • the present invention relates to a lens unit that is detachably mounted so as to surround a photographing port of a camera, and a pattern in which an ID code that is one of information codes is encoded is photographed by the camera via the lens unit, and the camera
  • the present invention relates to a technique that can be decrypted by an information processing apparatus equipped with.
  • the present invention relates to a lens unit that is detachably mounted so as to surround a photographing port of a camera, and relates to a mechanism that can adjust a focal length and an ID that is one of information codes formed on an ID medium mounted on the lens unit.
  • the present invention relates to a technique in which a code-encoded pattern is photographed with a subject through a lens unit together with a subject, and an ID code can be decoded by an information processing apparatus including the camera.
  • QR code registered trademark; hereinafter omitted
  • Patent Document 1 Patent Document 1, Patent Document 2, and Non-Patent Document 1 all disclose a technique for integrating an arbitrarily designed design with a QR code.
  • Patent Document 3 Patent Document 4
  • Patent Document 5 Patent Document 5
  • Patent Document 5 prints a dot pattern with a K component, and prints a normal print area with a design with a CMY component, thereby extracting and reading only the dot pattern printed with the K component using infrared rays. An invention that enables it is disclosed.
  • patent document 3 discloses an invention of a dot pattern reading method that makes it possible to optically distinguish a dot pattern and a normal print area in a visible light area.
  • the first problem of the present invention is that cameras attached to smartphones, mobile phones, PCs, etc. are mainly intended for general photography, and are often not suitable for photography such as dot patterns.
  • By mounting the lens unit it is possible to provide a lens unit for adapting to shooting of a dot pattern or the like, and to appropriately adjust the distance from the lens provided in the lens unit to the camera.
  • the second problem of the present invention is to photograph a lens ID at the same time as the subject at the time of photographing, identify the lens, and associate it with the image of the subject.
  • a third subject of the present invention is to provide a lens unit suitable for photographing a predetermined subject photographed by a camera is a print medium on which a dot pattern encoded with an information code is printed. It is.
  • a fourth problem of the present invention is to provide a lens unit suitable for photographing a predetermined subject photographed by a camera, and the subject image can be obtained by directing light by the color and brightness of illumination including natural light. Since it cannot be acquired correctly, it is to correct the original surface color. In particular, when photographing skin, scalp, hair, nails, eyes and other parts for inspection / analysis purposes, the original color must be acquired.
  • the present invention is a lens unit that is attached to an information processing apparatus including a camera and an analysis unit that decodes an information code, and is a lower part that is detachably attached so as to surround a photographing port of the camera
  • a cylindrical lens holder having an opening and an upper opening at both ends; a lens disposed at a predetermined position inside the cylindrical lens holder; and an upper opening of the lens holder,
  • An opening or a transparent area necessary for photographing a subject is formed so that a pattern in which an ID code, which is one of the information codes for authentication in the analysis means, is encoded can be photographed by the camera.
  • a lens unit is formed so that a pattern in which an ID code, which is one of the information codes for authentication in the analysis means, is encoded can be photographed by the camera.
  • the ID medium is attached by being attached to, inserted into, or screwed into the upper opening of the lens holder.
  • the pattern in which the ID code is encoded is formed in the vicinity of the opening of the ID medium or the periphery of the transparent region.
  • the pattern is formed of a plurality of marks arranged on a circumference of a predetermined circle, a circumference of a predetermined ellipse, or a circumference of a predetermined closed curve based on a predetermined rule. It is preferable that the ID code is a circle pattern encoded according to the following rule.
  • a pattern for making it easier to focus on the camera when the camera is photographed is printed near the periphery of the opening of the ID medium or near the center or the periphery of the transparent area of the ID medium. preferable.
  • the pattern is preferably printed with a transparent ink.
  • the ID medium is integrally formed with the lens holder.
  • the lens unit further includes an infrared filter at a predetermined position.
  • the predetermined subject is photographed in contact with an upper opening of the lens holder.
  • the apparatus further includes a lens cover provided at an upper opening of the lens holder and having an opening or a transparent area necessary for photographing the predetermined subject.
  • the predetermined subject is photographed in contact with an upper opening of the lens holder or the lens cover.
  • the ID medium is attached to the upper opening of the lens cover, fitted, screwed, or inserted between the lens cover and the lens holder. It is preferable that it is attached.
  • the lens cover is integrally formed with at least one of the lens holder and the ID medium.
  • the lens unit further includes a slip stopper attached to a lower opening of the lens holder in order to be attached to the information processing apparatus.
  • the anti-slip is attached to the lower opening of the lens holder, either by being attached, fitted, or screwed.
  • the non-slip is integrally formed with the lens holder.
  • an adjuster provided in a lower opening of the lens holder and having an opening or a transparent area necessary for photographing the predetermined subject, and adjusting the distance from the lens to the camera. It is preferable to further comprise.
  • the lens unit further includes a pedestal for stably placing the predetermined subject around the outer peripheral wall of the upper opening of the lens holder.
  • the pedestal is integrally molded with the lens holder.
  • the pedestal and a lens cover provided in an upper opening of the lens holder and having an opening or a transparent area necessary for photographing the predetermined subject are integrally molded. preferable.
  • the lens unit further includes a clip for fixing the lens unit to be attached to a camera connected to the information processing apparatus or an information processing apparatus incorporating the camera. It is preferable.
  • the arm of the clip is formed so that one end is attached to the lens holder and the other end is inserted into the back side of the information processing apparatus provided with the camera. preferable.
  • one end of the arm of the clip attached to the lens holder is a ring-shaped or U-shaped fastener, and is attached to the fastener through the lens holder.
  • a screw-like second fastener is preferably attached through the lens holder.
  • an O-ring is attached between the clip fastener and the second fastener through the lens holder.
  • the clip is integrally formed with at least one of the lens holder and the lens cover.
  • a predetermined area of the clip is in contact with the horizontal plane. It is preferably designed to face.
  • the present invention is a lens unit that is mounted on an information processing apparatus including a camera and an analysis unit that decodes an information code, and is detachably mounted so as to surround the photographing port of the camera.
  • a cylindrical lens holder having a lower opening and an upper opening at both ends, a lens disposed at a predetermined position inside the cylindrical lens holder, and a lower opening of the lens holder,
  • the lens unit includes an adjuster that has an opening or a transparent area necessary for photographing the predetermined subject and appropriately adjusts the distance from the lens to the camera.
  • one of the information codes which is attached to the upper opening of the lens holder and has an opening or a transparent area necessary for photographing a predetermined subject and is used for authentication by the analyzing means. It is preferable to further include an ID medium formed so that a pattern in which a certain ID code is encoded can be photographed by the camera.
  • the ID medium is attached by being attached to, inserted into or screwed into the upper opening of the lens holder.
  • the pattern in which the ID code is encoded is formed in the vicinity of the opening of the ID medium or the periphery of the transparent region.
  • the pattern is formed of a plurality of marks arranged on a circumference of a predetermined circle, a circumference of a predetermined ellipse, or a circumference of a predetermined closed curve based on a predetermined rule. It is preferable that the ID code is a circle pattern encoded according to the following rule.
  • a pattern is printed on the periphery of the opening of the ID medium or near the center or the periphery of the transparent area of the ID medium so that the camera can focus easily when shooting with the camera. preferable.
  • the pattern is printed with a transparent ink.
  • the ID medium is integrally formed with the lens holder.
  • the lens unit further includes an infrared filter at a predetermined position.
  • the predetermined subject is photographed in contact with an upper opening of the lens holder.
  • the apparatus further includes a lens cover provided at an upper opening of the lens holder and having an opening or a transparent area necessary for photographing the predetermined subject.
  • the predetermined subject is photographed in contact with an upper opening of the lens holder or the lens cover.
  • the lens unit further includes a slip stopper attached to a lower opening of the lens holder in order to be attached to the information processing apparatus.
  • the anti-slip is attached to the lower opening of the lens holder by being attached, fitted, or screwed.
  • the non-slip is integrally formed with the lens holder.
  • the anti-slip is attached to the adjuster by being attached, fitted, screwed, or attached between the adjuster and the lens holder. It is preferred that
  • the adjuster is integrally formed with at least one of the lens holder and the anti-slip.
  • the lens unit further includes a pedestal for stably placing the predetermined subject around the outer peripheral wall of the upper opening of the lens holder.
  • the pedestal is integrally molded with the lens holder.
  • the pedestal and a lens cover provided in an upper opening of the lens holder and having an opening or a transparent area necessary for photographing the predetermined subject are integrally molded. preferable.
  • the lens unit further includes a clip for fixing the lens unit to be attached to a camera connected to the information processing apparatus or an information processing apparatus incorporating the camera. It is preferable.
  • the arm of the clip is formed so that one end is attached to the lens holder and the other end is inserted into the back side of the information processing apparatus provided with the camera. preferable.
  • one end of the arm of the clip attached to the lens holder is a ring-shaped or U-shaped fastener, and is attached to the fastener through the lens holder.
  • a screw-like second fastener is attached through the lens holder.
  • an O-ring is attached through the lens holder between the clip fastener and the adjuster or the second fastener.
  • the clip is integrally formed with at least one of the lens holder, the lens cover, and the adjuster.
  • the lens holder is provided with a screw thread, and at least the adjuster of the pedestal, the lens cover, the second fastener, the clip, or the adjuster is detachable with a screw. It is preferable.
  • the clip when the clip is inserted into the back side of the information processing apparatus and the information processing apparatus is placed on the horizontal plane with the lens unit facing upward, the clip has a predetermined area in contact with the horizontal plane. It is preferably designed to face.
  • the camera is built in the information processing apparatus.
  • the camera is connected to the information processing apparatus by wire or wirelessly, and the information processing unit decodes the image of the predetermined subject and / or the information code decoded by the analysis unit. Preferably it is transmitted to the device.
  • the camera includes the analyzing means.
  • the predetermined subject is a print medium on which a dot pattern encoded with an information code is printed, and the analysis unit decodes the information code from the dot pattern photographed by the camera. It is preferable to do.
  • the lens holder is integrally formed with the lens.
  • the lens unit further includes a light source installed at a predetermined position on an outer peripheral wall of the lens holder so that the predetermined subject is substantially uniformly irradiated, and a power source for supplying power to the light source. It is preferable to include
  • the power is supplied from the information processing apparatus.
  • the information processing apparatus includes a storage unit that decodes an ID code from the pattern photographed by the camera and records a photographed image of the predetermined subject in association with each other.
  • the information processing apparatus includes an information processing unit that transmits a captured image of the predetermined subject associated with the ID code to a server together with the decrypted ID code recorded in the storage unit. It is preferable to provide.
  • the predetermined subject is a part of a human body.
  • the information processing apparatus is a smartphone, a mobile phone, a camera-equipped PC, or a digital camera.
  • the analyzing means further acquires predetermined information by performing image processing on an image obtained by photographing the predetermined subject, and outputs at least the predetermined information by the information processing apparatus, and / or It is preferable to transmit the predetermined information together with the ID code to the second information processing apparatus.
  • a lens unit is mounted so as to surround the photographing port of the camera of the information processing apparatus, and an image obtained by photographing a pattern in which an ID code is encoded together with a predetermined subject is transmitted.
  • the analysis unit further acquires predetermined information by performing image processing on an image obtained by photographing the predetermined subject.
  • the present invention is such that a lens unit is mounted so as to surround a photographing port of a camera of the information processing apparatus, and a dot pattern in which the information code is encoded is printed by an analysis unit provided in the information processing apparatus. Decoding the predetermined medium from the image captured by the camera into the information code and / or outputting information corresponding to the decoded information code and / or decoding the information A program that transmits a code and / or information corresponding to the decrypted information code to the second information processing apparatus.
  • the present invention is such that a lens unit is mounted so as to surround a photographing port of a camera of the information processing apparatus, and a dot pattern in which an information code is encoded is printed by an analysis unit provided in the information processing apparatus.
  • the information code and the ID code are decoded from the image obtained by photographing the pattern in which the ID code is encoded together with the predetermined medium with the camera, and / or the decoded information code and the ID code are A program that outputs corresponding information and / or transmits the decoded information code and the ID code and / or the decoded information code and the information corresponding to the ID code to the second information processing apparatus is there.
  • the present invention is an information processing apparatus with a camera that includes a lens unit and is equipped with a program.
  • the present invention is a second information processing apparatus equipped with a program.
  • the present invention is an information processing apparatus with a camera including a lens unit.
  • the present invention is an information processing system including an information processing apparatus with a camera and a second information processing apparatus communicating with the information processing apparatus.
  • an ID code which is one of the information codes, is encoded by detachably attaching a lens unit to a camera mainly intended for general photography such as a smartphone, a mobile phone, a PC, and the like.
  • the obtained pattern can be photographed with a camera via a lens unit and decoded by an information processing apparatus equipped with the camera.
  • the distance from the lens provided to the lens unit to the camera can be adjusted appropriately.
  • a lens unit suitable for photographing the print medium is provided. it can.
  • the lens unit suitable for photographing the part of the human body is provided. Can be provided.
  • FIG. (1) which shows basic embodiment of this invention.
  • FIG. (The 2) which shows basic embodiment of this invention.
  • FIG. (1) which shows the specific example of arrangement
  • FIG. (2) which shows the specific example of arrangement
  • FIG. 1 is a diagram illustrating an embodiment of an image printing system with a dot pattern of the present invention. It is a figure which shows the lens unit of this invention. It is a figure which shows the lens unit of this invention. It is a figure which shows the lens unit of this invention. It is a figure which shows the lens unit of this invention. It is a figure which shows the lens unit of this invention. It is a figure which shows the lens unit of this invention. It is a figure which shows the lens unit of this invention. It is a figure which shows the lens unit of this invention. It is a figure which shows the lens unit of this invention.
  • FIG. 4 is a diagram in which light is strongly incident from the lower right side around the lens unit of the present invention. It is a circle dot pattern of the ID medium of the lens unit of the present invention. It is a definition of the numerical information of the information dot of the circle dot pattern of the lens unit of this invention. It is a figure shown about ID medium (color correction medium) used for color correction. It is a figure shown about ID medium (color correction medium) used for color correction. It is a graph used in order to obtain
  • the “dot pattern” is an information code encoded by a plurality of dot arrangement algorithms.
  • the dot pattern 101 is printed with the K component in any embodiment of the present invention. That is, only the dot pattern 101 is printed with the K component on the print medium.
  • the dot pattern 101 is printed with black K component.
  • the black color here is within a range that can be recognized by the CPU as black when the dot pattern 101 described later is read (that is, gray having a low brightness may be used).
  • the dot pattern 101 may be printed in black (so-called composite black) using the CMY component without using the K component.
  • the dot pattern 101 may be printed with one of the CMY components with high gradation, and the graphic may be printed with one of the other components.
  • a component selected for dot pattern printing or a composite color of the component and a component selected for graphic printing may be read as dots.
  • the graphic image area is composed of multiple partial areas, and each partial area uses one of the two components other than the one selected for dot pattern printing.
  • the components may be different for each region. That is, the dot pattern can be read by reading only the component including one component selected for dot pattern printing.
  • when performing dot recognition with one component selected for dot pattern printing or black mixed with three components how do other components use two components other than the one component selected for dot pattern printing? Also good.
  • a well-known algorithm such as Grid Onput (registered trademark) of Gridmark Corporation or Anoto Pattern of Anoto Corporation can be used.
  • the encoding algorithm itself of the dot pattern 101 is common between the case of reading with visible light as in the present invention and the case of reading with infrared rays as in the known art.
  • any dot pattern can be used as long as the dot pattern 101 is not visible or can be recognized as a simple pattern.
  • the dot pattern 101 can encode different information codes depending on the reading position by defining coordinate values.
  • Image area means an area on which graphics, characters, pictograms, images, and photographs are printed.
  • the graphics and characters in the image area 102 are printed by any one of the C component, M component, Y component, CM component, MY component, and CY component.
  • CM component means superposition of C component and M component
  • MY component means superposition of M component and Y component
  • CY component means superposition of C component and Y component
  • the image area 102 may include two or more partial areas printed by any one of the C component, M component, Y component, CM component, MY component, and CY component.
  • the portion may be erroneously recognized as a black dot when the dot pattern 101 is read. Therefore, as shown in FIG. 1 and FIG. 2, it is necessary to prevent the image area 102 from providing an area where all the CMY components overlap in any partial area.
  • the dot pattern 101 may be printed on the entire surface of the print medium 103 as shown in FIG. 3, or the dot pattern 101 may be superimposed and printed only on the image area 102 as shown in FIG. Also good. Although not shown, the dot pattern 101 in FIG. 3 may be printed not on the entire surface of the print medium 103 but on an arbitrary region.
  • the dot pattern 101 When the dot pattern 101 is superimposed and printed only on the image area 102, the dot pattern 101 may be printed on the entire image area 102 as shown in FIG. 4, or the image area 102 as shown in FIG. The dot pattern 101 may be superimposed and printed on a part of the image.
  • the dot pattern 101 may be superimposed and printed on a symbol or logo (not limited to a logo using a designed character but also including a logo using a standard character) provided on the surface of the print medium 103. it can.
  • a dot pattern superimposed on a symbol or logo on the surface of the medium is printed as an “icon” in the present invention.
  • the dot pattern 101 is photographed for each image area 102 by a camera, image analysis is performed by a CPU, and a black portion is extracted as a dot pattern 101 from the photographed image. .
  • the dot pattern 101 may be printed with any one of the CMY components with high gradation, and the image area 102 may be printed with other components.
  • a component selected for dot pattern printing or a composite color (mixed color of ink) of the component selected for printing the image region 102 is extracted as the dot pattern 101.
  • the composite color of the component and the component selected for printing the image region 102 is not expressed in the image region 102, the dot pattern 101 can be easily extracted.
  • the CPU decodes the information code encoded by the dot pattern 101 according to the decoding algorithm of the information code by the dot pattern.
  • the image area 102 is designed in advance so as to be printed by any one of the C, M, Y, CM, MY, and CY components among the CMY components, or is represented by the CMY components. It is necessary to perform image processing for converting the original image so as to be printed by any one of the C component, M component, Y component, CM component, MY component, and CY component.
  • an image (illustration, photograph, etc.) expressed by a normal CMY value is displayed on the image area 102 printed by any one of the C component, M component, Y component, CM component, MY component, and CY component. A method of conversion will be described.
  • “eliminating a component” means generating print data with the value of the component being zero, transmitting the component as a signal so as not to print, and a signal for printing the component Is not transmitted to the printing means.
  • ⁇ Input an image expressed by normal CMY values and calculate CMY values for each partial area.
  • the values of the C component, M component, and Y component for each partial region are compared, and the input image is divided into the following cases, and the C component, M component, Y component, CM component, MY component, and CY component are compared.
  • the image area 102 printed by any component is converted for each partial area.
  • shown above is an arbitrary coefficient.
  • the second conversion method can be performed in a graphical user interface, and the designer can set the coefficient ⁇ while reading the dots with the optical reading means. It shall be adjustable.
  • an optimal “ ⁇ ” may be determined by simulating the imaging resolution and color gradation of the optical reading means and / or the printing accuracy and reproduction color gradation of the printed matter.
  • an image expressed by normal CMY values is converted using a table.
  • a ratio conversion table describing the ratio of CMY values after conversion corresponding to the ratio of CMY values of the original image as shown in Table 1 is created.
  • This ratio conversion table is stored in the memory of a computer or printer so that it can be referred to during conversion.
  • the ratio of the CMY values after conversion needs to be described so that at least one of C, M, and Y is zero.
  • CMY values for each partial area are calculated.
  • the ratio is converted into a ratio of CMY values corresponding to the ratio of the normal CMY values, and mapped to the portion.
  • the ratio conversion table is created in advance by simulating the imaging resolution and color gradation of the optical reading means and / or the printing accuracy and reproduction color gradation of the printed material. Alternatively, a test medium actually printed under various conditions is measured, the performance of the optical reading means is added to the preconditions, and a ratio conversion table is created in advance.
  • the fourth conversion method is to convert an image (illustration, photograph, etc.) represented by a normal CMY component into an arbitrary color tone, so that the C component, M component, Y component, CM component, MY component, CY component are converted. This is a method of converting to an image area to be printed by any one of the components.
  • an image expressed by CMY components may be temporarily converted to gray scale and mapped with an arbitrary color tone based on its brightness.
  • the intermediate value method is a method in which the maximum and minimum values of the R, G, and B values of all pixels are added and divided by 2.
  • the weighted average method is used for the R, G, and B values of all pixels.
  • a method in which weighting is performed to obtain an average value thereof, a simple averaging method is a method in which R, G, and B values are averaged, and a G channel method is a method in which G is selected from R, G, and B values. is there.
  • the relationship between the calculated brightness and the converted value may be described in advance using a tone conversion table.
  • CMY components When converting to two colors> An image expressed by normal CMY components is input, and components other than the selected component are eliminated. For example, when converting to a color tone of two CM colors, the Y component is eliminated, and the image is converted to an image area 102 printed by any one of the C component, M component, and CM component.
  • a value obtained by multiplying the value of the lost Y component by a predetermined coefficient ⁇ may be added to the value of the C component and the value of the M component for each part of the image.
  • a value obtained by multiplying the value of the Y component by different coefficients ⁇ 1 and ⁇ 2 between the value of the C component and the value of the M component may be added.
  • the fourth conversion method can be performed in a graphical user interface, and the designer can adjust the coefficients ⁇ , ⁇ 1, and ⁇ 2.
  • an image expressed by normal CMY components is input, the image is divided into predetermined areas 1021, and the C value, M value, and Y value for each predetermined area 1021 are calculated.
  • each of the predetermined areas 1021 is a component of the C component area printed by only the C component, the M component area printed by only the M component, and the Y component area printed only by the Y component among the CMY components.
  • the predetermined area 1021 may be divided into component areas 1022 of a C component area printed by only the C component and a MY component area printed only by the MY component of the CMY components, or The component area 1022 may be divided into an M component area printed only by the M component and a CY component area printed only by the CY component.
  • the Y component has little influence on the discrimination from black (dot)
  • the colors of the component regions 1022 finely divided are mixed with each other in the human eye (this is referred to as “view mix”), and the original predetermined region 1021 is obtained. Since it is recognized as a color (or its approximate color), it can be visually recognized as an image substantially similar to the original image.
  • the amount of halftone dots is small, a portion where the respective components are overlapped to prevent moire according to a predetermined rule occurs.
  • the amount of halftone dots is large, each component overlaps, and the overlapping portion is mixed in color and becomes dark brown (composite black) close to black.
  • the FM screen method dots having a uniform size are arranged at printing points arranged in a predetermined area in which the printing area is uniformly divided. The gradation of each component is determined by the number of dots arranged at a printing point in a predetermined area. If the brightness is low, the number of K component dots increases. If the saturation is high, the number of C, M, and Y component dots increases, and the number of K component dots decreases.
  • the view mix is used for both the halftone dot method and the FM screen method.
  • black is not generated if printing is performed with only the C, M, and Y components in the FM screen method, but composite black is generated even when printing is performed with only the C, M, and Y components in the halftone method. Therefore, the present invention is an invention for converting so as not to generate composite black even in a halftone method in a region including C, M, and Y components.
  • the dot pattern black is used instead of the composite black. At that time, the dot size of the dot pattern may be made variable to generate a dot pattern by controlling the size of the dot so as to have the same color influence as the generated composite black.
  • the dot size may be determined so as to be approximately equal to the area of the dots per unit area and the area of the composite black.
  • the C, M, and Y components are arranged in a predetermined region so as not to generate composite black. However, it is necessary to subtract from the respective C, M, and Y components by the area of the composite black.
  • the dot size may be set so that the color hardly affects human eyes.
  • the total area of the region where all the CMY components are superimposed is larger than the total area of the first dots and smaller than the total area of the second dots, the total area of the dots of the dot pattern printed in the partial region is , The dots are sized so that the total area of the regions where all the CMY components are superimposed is equal.
  • the dot pattern dot interval within a predetermined range
  • the size is controlled so that it is larger than the total area of the first dots and smaller than the total area of the second dots, and the total area of the dots of the dot pattern printed in the partial area and all the CMY components are superimposed.
  • the dots are sized so that the total area is equal to the total area.
  • the dot size must be within a range that can be recognized by the optical reading means.
  • predetermined area 1021 in FIG. 7 is rectangular, but may be of any shape.
  • FIG. 8 and 9 are diagrams showing specific examples of the predetermined area 1021 in FIG.
  • FIG. 8A shows a rectangular shape of the predetermined region 1021 according to an arrangement rule similar to RGB of a liquid crystal display that provides a clear image by view mixing.
  • the shape of the predetermined region 1021 is a hexagon so that the same color does not adjoin at the boundary.
  • the shape of the predetermined region 1021 is a triangle so that the same color does not adjoin at the boundary.
  • the predetermined area 1021 can have various shapes. Moreover, as shown in FIG. 9, even if it is the same shape, the shape of each pixel of C, M, and Y can be set arbitrarily.
  • the process of component division and mapping is called a view mix process so that a view mix that mixes and looks like a predetermined color is generated appropriately.
  • the viewpoint position varies depending on the use, size, shape, etc. of the print medium and the target graphic.
  • a predetermined print area is determined so that a view mix occurs when viewed at a distance of about 20 to 40 cm, and a large print medium such as a poster generates a view mix at 1 m or more.
  • an appropriate predetermined area may be determined by roughly setting the viewpoint position in advance.
  • the original dot pattern 101 of the image data recorded in the frame buffer (temporary storage medium on which the captured image data is recorded) of the information processing apparatus is recorded. Any resolution can be used as long as the arrangement can be properly recognized. Since the camera captures the reflected light of each component from the printed surface that is irradiated with some light source (natural light, artificial light, indirect light), composite black is not generated by combining the light. It is possible to take a picture separately from the area 102.
  • reflected light from the medium surface is mixed with the CMY component and the color of the medium surface on which the ink is not placed (white for white paper) and is captured by the camera element.
  • the lightness is increased by mixing a lot of light in the unit area, and the dot pattern 101 can be photographed separately from the image region 102.
  • the inventor of the present application uses a human eye that cannot recognize dots, and a printing technique and visible light that can coexist with dot pattern superposition printing by using the visual position of the camera that can recognize dots and the color appearance at the shooting position.
  • Developed dot pattern reading technology uses a human eye that cannot recognize dots, and a printing technique and visible light that can coexist with dot pattern superposition printing by using the visual position of the camera that can recognize dots and the color appearance at the shooting position.
  • C, M, and Y are arranged and printed as shown in FIG.
  • the halftone dots may be round or other shapes. Normally, the dots are black and are arranged as shown in FIG. 10B, but are printed as shown in FIG.
  • the area where C, M, and Y overlap is mixed with ink and becomes dark brown that is close to black. If only the C, M, and Y components are removed from the captured image (a) by image processing, a dark brown image close to black in the area where C, M, and Y overlap as shown in FIG.
  • the black dots are superimposed and printed, an image as shown in FIG. 11C is obtained, and it is difficult to binarize and extract only the dots from this image.
  • the dark dark brown area that is mixed with the printed ink and close to black is sufficiently small compared to the size of the dot (at least about 1/4 in the captured image). Any dot amount of Y component may be used.
  • each dot amount (halftone dot diameter) of C, M, and Y is less than about 1/2 of the dot size (diameter) and each dot amount is less than 50%. do it. If each halftone dot amount is less than 50%, the ink is mixed and the dark brown area close to black is at least about 1/4 or less of the dot size (area), and the dot can be identified.
  • FIG. 13 when halftone printing is used to express a graphic with C alone and dots are superimposed and printed, C is arranged and dots are superimposed and printed in black as shown in FIG. 13 (a). Although only black dots are extracted by image processing, if the C component is large, simple image processing may determine the same color as the dot. If simple image processing is used, the C component value to be used Is preferably less than or equal to a predetermined value. Similarly, FIG. 13 (b) and FIG. 13 (c) show a case where only M and Y are printed. However, in the case of Y even with simple image processing, it is easy to distinguish dots even if the Y component is large.
  • FIG. 14 when halftone printing is used to represent a graphic with only C and M, and dots are superimposed and printed, as shown in FIG. 14 (a), C and M are arranged, and the dots are printed in black and superimposed. Is done. Only black dots are extracted by image processing. Depending on the image processing method used, it is desirable to limit the C and M component values for dot discrimination. Similarly, FIG. 14 (b) and FIG. 14 (c) show the case where only M, Y, C, and Y are printed. Depending on the image processing method used, the component value of each component is used for dot discrimination. It is desirable to limit.
  • FIG. 15 is a diagram including a partial region including three different components and a region where the three components overlap (CMY region).
  • FIG. 16A is an enlarged view of the CMY region of FIG. 15 and a partial region in the vicinity thereof.
  • FIG. 16B is a diagram obtained by binarization and removing only the C, M, and Y components by image processing.
  • dots cannot be identified.
  • the vicinity of the boundary of the CMY area if printing is performed such that C, M, and Y overlap and ink is not mixed, it is possible to determine dots in areas other than the CMY area. If the size of the CMY area where C, M, and Y overlap and the ink is mixed (composite black) is sufficiently small compared to the dot size, the dot can be identified by performing a comparison calculation. it can.
  • the center of the dot will be displaced from the original position. If the deviation is large, there is a possibility that the arrangement of the dot pattern in which the information code is encoded may not be properly recognized. Needless to say, not only the size but also the composite black is excluded from the shape of the image processing to appropriately determine the center of the dot.
  • the server 105 stores illustrations or photographs as templates as image data.
  • This image data includes one or more partial areas printed by any one of the C, M, Y, CM, MY, and CY components among the CMY components, and all the CMY components Are pre-designed so as not to include a portion to be superimposed, or have been subjected to image processing by the conversion method described above.
  • the customer operates the customer terminal 106 to browse a catalog containing illustrations or photographs.
  • the customer selects one illustration or photo from the catalog, operates the customer terminal 106, transmits the selection result to the server 105, and generates an order.
  • an illustration or a photograph prepared by the customer may be transmitted from the customer terminal 106 to the server 105.
  • the server 105 transmits the order received from the customer terminal 106 to the provider terminal 107.
  • the service provider operates the provider terminal 107 to add the dot pattern 101 to the image data selected by the customer to generate image data with a dot pattern, and transmits the image data to the printing apparatus 108.
  • the image data selected by the customer from the catalog may be data in which dots can be discriminated by dividing into partial areas of C component, M component, Y component, CM component, MY component, CY component in advance.
  • the image may be converted with.
  • the converted image data with dot pattern is transmitted to the printing apparatus 108 and printed.
  • the K component may be automatically added depending on the color scheme of each component, and it is necessary to incorporate a driver for controlling them into the printing device 108 or to transmit a signal from the server for control.
  • the printing apparatus 108 has an image conversion function, and the original illustration or photo area is divided into C, M, Y, CM, MY, and CY component partial areas of the CMY component,
  • the dot pattern may be superimposed and printed with the K component, and the print medium 103 that is an image with a dot pattern that can identify the dots may be output.
  • the image conversion described above may be any method presented in the present invention that can distinguish dots.
  • the dot pattern printed in the partial region is set as the first dot.
  • the dot pattern printed in the partial region is set as the second dot.
  • the total area of the region where all the CMY components are superimposed is larger than the total area of the first dots and smaller than the total area of the second dots, the total area of the dots of the dot pattern printed in the partial region is , The dots are sized so that the total area of the regions where all the CMY components are superimposed is equal.
  • the size of the dot interval of the dot pattern within a predetermined range Is controlled so that the total area of the dots is larger than the total area of the first dots and smaller than the total area of the second dots, and the total area of the dots of the dot pattern printed in the partial area and the area where all the CMY components are superimposed It is good also as a dot of the magnitude
  • the size of the region where all the CMY components of the image information are superimposed is reduced to a halftone dot amount of the CMY component that can be recognized by comparison with the size of the dots constituting the dot pattern. You may compare the total area of a dot and a 2nd dot, and the total area of the difference of the halftone amount reduced to the halftone dot amount of a CMY component.
  • the dot pattern of the region where all the CMY components are superimposed is set to the first dot pattern. Dots. If the total area of the dot amount differences reduced to the dot amount of the CMY component is larger than the total area of the second dot, the dot pattern of the region where all the CMY components are superimposed is defined as the second dot. To do.
  • the dot pattern within a predetermined range
  • a dot pattern was printed using ink that can be read only by infrared rays.
  • a camera such as a mobile phone that uses a filter that blocks infrared rays to prevent photographing with infrared rays cannot read the dot code, and it is necessary to read the dot pattern using a dedicated scanner. It was.
  • a dot pattern readable by visible light is realized. Therefore, it becomes possible to read the dot pattern with a normal camera such as a mobile phone, a smartphone, a web camera, or a digital camera. This makes it possible to use dot codes more easily and in a wide range. ⁇ Example using lens unit>
  • FIGS. 18 to 38 are diagrams for explaining a case where a dot pattern which is readable by visible light and is encoded with code information is photographed using the lens unit 200 for reading a dot pattern.
  • the lens unit 200 for reading a dot pattern used in the present embodiment is assumed to be used by being attached to an information processing apparatus such as a smartphone, a tablet PC, a mobile phone with a camera (hereinafter referred to as “smart phone”).
  • the code information refers to a code value, a coordinate value, or a code value and a coordinate value.
  • a dot pattern in which an information code is encoded is read from image data photographed by a camera through the lens unit 200, and a reading means for decoding the pattern into an information code and an information code are transmitted or corresponding information is output.
  • Any information processing apparatus provided with an information processing means that can be mounted on a camera can be used.
  • the lens unit 200 includes a cylindrical lens holder 201 and a lens 202 that are provided at both ends with a lower opening that is mounted so as to surround the photographing port of the camera and an upper opening that is in contact with the print medium. Note that when the dot pattern is photographed by the camera through the lens unit 200, the inside of the cylindrical lens holder 201 is arranged so that the print medium on which the dot pattern touched to the upper opening is within the depth of field.
  • the lens 202 is disposed and designed at a predetermined position.
  • smartphones and the like are equipped with a filter that blocks infrared wavelengths including some visible light of about 700 or more so that an object such as a person cannot be photographed in the infrared region on the assumption that the consumer will use it.
  • a camera such as a smartphone has a problem that it is difficult to read a very small dot pattern.
  • the lens unit 200 it is possible to focus on the contact surface between the lens unit 200 and the print medium, and to shoot an enlarged dot pattern of the subject, with a resolution that allows the dot code to be analyzed. A dot pattern can be captured. This makes it possible to read the dot pattern with a normal smartphone or the like.
  • the lens unit 200 having a large depth of field it is possible to capture a dot pattern without contacting the print medium surface.
  • a telephoto lens unit having a large depth of field it is possible to capture a dot pattern by photographing a print medium with a dot pattern at a distant position.
  • FIG. 18 to 19 are diagrams of the lens unit 200 used in the present embodiment.
  • FIG. 18 is a perspective view
  • FIG. 19A is a side view
  • FIG. 19B is a front view (medium contact surface side)
  • FIG. ) Is a rear view (lens unit 200 mounting side).
  • the lens unit 200 has a tapered structure at the top and a columnar shape at the bottom.
  • a lens 202 (convex lens) is provided near the boundary between the upper part and the lower part.
  • an adhesive member is provided on the bottom surface and can be attached to a smartphone or the like.
  • the lens unit 200 is attached so as to surround a camera such as a smartphone in the outer peripheral wall (D) on the mounting side.
  • the lens unit 200 may have any shape such as a cylinder, a cone, or a box as long as it surrounds a camera such as a smartphone in the outer peripheral wall (D) on the mounting side.
  • at least one of the upper opening or the lower opening may have a tapered shape.
  • a single lens may be used instead of a single convex lens. Accordingly, the aberration of the lens can be suppressed, the depth of field can be increased to facilitate focusing, and the height of the lens can be reduced.
  • the material of the lens unit 200 composed of the lens holder 201 and the lens 202 is preferably transparent in order to brighten the medium surface to be photographed.
  • the lens holder 201 is for securing external light, it does not necessarily have to be transparent (semi-transparent, etc.) as long as it can secure a light amount sufficient to capture the dot pattern of the subject.
  • the lens 202 is preferably made of transparent acrylic at a low manufacturing cost, but glass may be used to improve accuracy. Further, the lens holder 201 may be transparent acrylic, and the lens 202 may be glass. When all are made of transparent acrylic, if they are spread in the direction of the opening, they can be integrally molded and can be manufactured at a lower cost.
  • FIG. 20 is a diagram for explaining various forms of the lens unit 200.
  • the lens unit 200 has a lower bottom opening (lower opening) attached to the camera, and an upper upper opening (upper opening) is in contact with the medium surface.
  • the inside of the outer peripheral wall of the lower opening needs to be large enough to cover the camera (about 1.5 cm in diameter), and for tablet PCs, it may be about 3 to 7 mm in diameter.
  • the upper opening may have various sizes as shown in (a) to (c).
  • (A) is a lens unit 200 formed in a bowl shape, with the upper diagram being a front view (medium contact surface side), the middle diagram being a side view, and the lower diagram being a rear view (lens mounting side). is there.
  • the upper opening that is, the area on the medium side is wide. Therefore, as will be described later, it is suitable when a card or a figure is placed and used.
  • a camera such as a smartphone is not located in the center of the outer peripheral wall (D) of the lower opening on the lens unit 200 mounting side, the dot pattern printed on the medium surface is shifted from the shooting range and the upper opening ( In some cases, the image is taken only in a part of the area (W).
  • (B) is a lens unit 200 formed in a columnar shape, with the upper figure being a front view (medium contact side), the middle figure being a side view, and the lower figure being a rear view (lens mounting side). is there. It is easy to make molds for manufacturing and has high cost performance.
  • (C) is a lens unit 200 formed in the shape of a truncated cone.
  • the upper diagram is a front view (medium contact surface side), the middle diagram is a side view, and the lower diagram is a rear view (lens mounting side). It is.
  • the upper opening that is, the area on the medium side is narrow. Therefore, it is suitable for reliably photographing the entire region of the print medium on which the dot pattern is printed, which can be seen from the inside of the upper opening. That is, the dot pattern printed on the medium surface is surely displayed on the upper opening (W) wherever a camera such as a smartphone is located in the outer peripheral wall (D) of the lower opening on the lens unit 200 mounting side. Designed to capture the entire area.
  • Such a design is caused by the mounting position of the lens and the focal length of the lens, and the above (a) and (b) are not as easy as (c) but can be realized.
  • the larger the upper opening and the larger the photographing area the wider the lens needs to be used.
  • a pedestal indicated by a dotted line is provided around the upper opening of the lens unit 200 so that a figure or a card can be easily placed. Good.
  • FIGS. 20A to 20C shows a lens cover 203 provided with an opening in the upper opening on the medium contact surface side of the lens unit 200 in FIGS. 20A to 20C.
  • the lens cover 203 is installed, a printing area is provided in the vicinity of the outer peripheral wall on the medium contact surface side, and an ID code and a pattern for easy focusing are printed.
  • the printing surface is preferably on the medium contact surface side of the lens cover 203 close to the medium, but may be on the lens 202 side so that the printing surface is not soiled within the depth of field.
  • An opening is provided in the center so that the dot pattern printed on the medium surface becomes difficult to read due to dust, dirt, and scratches on the lens cover 203 and has a ring shape.
  • FIG. 22 shows a case where a transparent lens cover 204 is installed in the upper opening on the medium contact surface side of the lens unit 200 of FIGS. 20 (a) to 20 (c).
  • a print area is provided in the vicinity of the outer peripheral wall on the medium contact surface side, and a pattern for making it easy to adjust the ID code and focus is printed.
  • the printing surface is preferably on the medium contact surface side of the transparent lens cover 204 close to the medium, but may be on the lens side so that the printing surface does not get dirty as long as it is within the depth of field. Furthermore, it is also effective as a dustproof device so that dust does not adhere to the lens 202.
  • the transparent lens cover 204 is transparent at a position dropped from the outer peripheral frame on the medium contact surface side of the lens unit 200 to the first lens side so that the dot pattern printed on the medium surface is not easily read due to dust, dirt, or scratches.
  • a lens cover 204 is provided.
  • FIG. 23 is a diagram in which an ID code is added to the medium contact surface side of the lens unit 200.
  • (A), (b), (c) is the figure where the notch is provided in the inner wall of the lens holder 201 on the medium contact surface side. This notch is provided according to a predetermined rule, and an ID code is added.
  • the ID code is code information for specifying the lens unit 200. By encoding the code information into the ID code, it is possible to identify which lens unit 200 was used when the user shot the dot pattern with the camera. If the ID code cannot be recognized, the software for dot pattern reading stored in a smartphone or the like does not start the software. When the ID code is recognized, the read dot pattern is analyzed. As a result, forgery and unauthorized use of the lens unit 200 can be prevented, the quality of the captured image can be guaranteed (photographed with a predetermined performance), and software corresponding to the ID code can be executed.
  • the cutout has an arbitrary shape such as a semicircle or a polygon, and an arbitrary size. By further adding a combination of shape and size to the above-mentioned predetermined rule, an ID code with more information codes can be encoded.
  • the lens cover 203 is mounted on the medium contact surface side of the lens unit 200, dots are arranged at predetermined intervals in the rotation direction around the upper opening, and the codes are defined in combination and order of the arrangement intervals. Circle pattern to do. Furthermore, although not shown, if the stream dot pattern invented by the present inventor is arranged and used in the rotation direction, more information can be used as the ID. Details of the stream dot pattern are disclosed in International Publication No. WO2011 / 007783.
  • the lens cover 203 must be of a color and material that can distinguish between dots and graphics printed on a medium and a circle pattern.
  • the area where the circle pattern is printed is milky white acrylic or white (may be printed).
  • the circle pattern does not need to be a circular dot, but is formed by a plurality of marks having an arbitrary shape and size such as a polygonal dot or a line segment, and a combination of the shape and size of the mark is predetermined. Any circle pattern in which an ID code is encoded in addition to the above rule may be used. Further, the information amount of the ID code can be further increased by combining the marks using a plurality of colors.
  • FIG. 24 is a diagram in which a lens cover 203 or a transparent lens cover 204 is mounted on the medium contacting surface side of the lens unit 200 and a pattern for focusing with autofocus is printed.
  • a pattern for focusing is added to the lens cover 203 or the transparent lens cover 204 attached to the lens unit 200. By focusing on the pattern and shooting the dots, the dot pattern can be focused and shot.
  • the lens 202 must be placed in
  • the analysis of the dot code targets a dot pattern photographed through the central opening of the lens cover 203 or a dot pattern photographed in the central portion where neither the pattern of the transparent lens cover 204 nor the ID code is printed.
  • the lens cover 203 must be a color and a material that can distinguish the dot and the ID code when the ID code is printed.
  • the ID code needs to have a certain brightness and contrast, and the area where the ID code is printed is milky white acrylic or white (may be printed). desirable.
  • (A) and (c) are a lens cover 203 provided with an opening, and (b) and (d) are a transparent lens cover 204 provided with no opening.
  • the opening inner periphery is notched, and a concentric pattern is provided on the outer periphery.
  • the notch encodes an information code as an ID code.
  • the information code may be encoded into an ID code according to a combination of color forming the pattern, the size of the area, and the order.
  • the pattern may be any pattern as long as it is in focus. However, even if a dot pattern or graphic is captured through the lens cover 203 or the transparent lens cover 204, it must be recognized as an ID code.
  • the lens cover 203 in (c) is milky white acrylic and the transparent lens cover in (d) so that the dot pattern or graphic printed on the medium can be picked up through the lens cover 203 or the transparent lens cover 204 and the circle pattern can be read.
  • the background of the area where the ID code is printed be white (printing may be performed).
  • milky white acrylic is even better. This is because, in the case of white, the light transmittance is low, and the pattern print area and the print medium surface are slightly darker than milky white acrylic.
  • acrylic can be molded at the same time as the transparent part by multi-injection and has excellent cost performance.
  • a camera that has a focusing function on the entire surface is in focus even when focused on the periphery, and thus a pattern can be arranged on the outer periphery of the lens cover 203 or the transparent lens cover 204 in this way.
  • FIG. 25 is a diagram in which a pattern printed with transparent ink for focusing is provided at the central portion of the transparent lens cover 204 provided in the lens unit 200 for a camera in which the focus function works in the central portion.
  • the medium is read through the transparent lens cover 204, and the dot and graphic and the pattern for focusing are photographed. Therefore, only the dots have to be extracted from the image where they overlap. For example, if the pattern is red (R) and the graphic is cyan (C), C emits blue (B) and green (G), and there is no red (R) component. If the red (R) pattern is black (B) and the dots are black (B), the dots cannot be identified.
  • the captured image is blue (B) if the graphic is blue (B), green (G) if the graphic is green, green (G) if yellow (Y), magenta (M) is blue (B), cyan (C) or white (W) is cyan (C), and the captured image is black (B) only when the graphic is red (G). If black is black (B), the dot cannot be identified.
  • red (R) should not be used for the graphic. That is, it is necessary to determine the pattern for focusing and the color of the graphic so as not to be the same color as the dot color. If only dots are always printed, the pattern and dots for focusing need only be determined. In addition, when dots are always printed superimposed with a graphic, the graphic is autofocused and focused, so that a pattern for focusing is not necessary. In other words, the pattern for focusing is required when only dots are printed and when graphics and superimposed printing are mixed. Note that the color used for the pattern may be yellow, which does not become dark black even if blue is used for graphics because the color temperature is low.
  • the transparent lens cover 204 may have a white base (or may be printed) in the area where the circle pattern is printed, but is preferably milky white acrylic. This is because, in the case of white, the light transmittance is low, and the pattern print area and the print medium surface are slightly darker than milky white acrylic. The brighter the shooting surface, the easier it is to focus, and it is easier to distinguish between dots and graphics.
  • acrylic can be molded at the same time as the transparent part by multi-injection and has excellent cost performance. In addition, you may pour ink at the time of shaping
  • (B) is a diagram in which a concentric pattern is formed in the center, and a notch is provided in the inner wall of the lens holder 201 on the medium contact surface side. This notch is provided according to a predetermined rule, and an ID code is encoded.
  • (C) has only a concentric pattern at the center.
  • the information code may be encoded into an ID code according to a combination of color forming the pattern, the size of the area, and the order.
  • the pattern may be any pattern as long as it is in focus. However, even if a dot pattern or graphic is captured through the transparent lens cover 204, it must be recognized as an ID code.
  • circle patterns and patterns described in FIGS. 23 to 25 may be provided by imprinting in addition to printing.
  • the engraved part is shaded and can be read. However, since the contrast is low, the recognition rate is low. For mass production, stamps can be manufactured at low cost.
  • FIG. 26 is a diagram illustrating the lens unit 200 with an irradiation function.
  • the structure of the lens unit 200 is the same as that of FIG. Battery).
  • the light source is preferably an LED with a small size and power saving. Further, since the LED is inexpensive together with the lens unit 200, the power button is not provided and the LED may be disposable.
  • the battery storage case may have any shape, and may be disposed on the side surface of the lens holder 201, or may be separated from the lens holder 201 and the battery 206 by extending the conducting wire.
  • (A) is a lens unit 200 formed in a bowl shape, with the upper figure being a front view, the middle figure being a side view, and the lower figure being a rear view.
  • (B) is a lens unit 200 formed in a cylindrical shape, with the upper figure being a front view, the middle figure being a side view, and the lower figure being a rear view.
  • (C) is a lens unit 200 formed in the shape of a truncated cone, and the upper diagram is a front view, the middle diagram is a side view, and the lower diagram is a rear view.
  • the number of light sources 205 is one.
  • the present invention is not limited to this, and the number of light sources 205 may be two, and the print medium surface may be irradiated uniformly. Therefore, three or more may be used.
  • the diffuser 209 shown in FIG. 29 is provided or when a diffuse light-emitting LED is used as the light source 205, the light can be refracted and diffused to uniformly illuminate the print medium surface. Good.
  • FIG. 27 is a diagram illustrating another form of the lens unit 200 with an irradiation function.
  • (A) is a lens unit with an irradiation function in which the power button 207 is not provided.
  • the light source 205 is an LED, the power consumption is extremely low and the lens unit 200 is inexpensive. Therefore, the light source 205 can be disposable without providing a power button.
  • (B) is a lens unit with an irradiation function in which a battery 206 is provided outside the lens holder 201.
  • the lens unit 200 and the battery 206 are connected by a conducting wire. According to this, since it is not necessary to provide a space for storing the battery 206 in the lens holder 201, the manufacturing of the lens holder 201 can be simplified.
  • FIG. 28 is a diagram in which a lens cover 204 is installed in a lens unit with an irradiation function.
  • the lens cover 204 is used in the same manner as in FIG.
  • a lens cover 203 having an opening may be installed.
  • the application in that case is the same as in FIG.
  • FIG. 29 is a diagram showing a form of a lens unit with an irradiation function. Note that it is desirable to arrange the light source 205 so that the medium surface is uniformly irradiated. Further, a diffuser 209 made of a member that refracts / diffuses and reflects light emitted from the light source 205 to the lens holder 201 in the vicinity of the light source and uniformly irradiates the surface of the print medium contacting the upper opening may be provided. A diffuse light emitting LED may be used for the light source 205.
  • (A) is a lens unit with an irradiation function using a white LED 208 as a light source 205. Even if the medium surface is so dark that dots cannot be recognized, the dot code can be read by making the medium surface brighter by irradiating with the white LED 208. Accordingly, (1) when the surrounding environment is dark, (2) when the lens holder 201 is formed of a color or material that does not transmit light, (3) even when the lens unit 200 is built in an object such as a figure, the dot code Can be read. In addition, when the program which reads a dot code with the lens unit 200 is started, displays, such as a smart phone, may become white and bright and may illuminate the medium surface.
  • FIG. 25 shows a case where a transparent lens cover 204 is installed in the same figure (a).
  • a printing area is provided in the vicinity of the outer peripheral wall on the lens side, and an ID code and a pattern for focusing are printed.
  • a pattern may be printed in the center with a transparent color.
  • (C) is a lens unit with an irradiation function, in which a transparent lens cover 204 is installed and an IR-LED 210 having a predetermined wavelength is used as the light source 205.
  • the transparent lens cover 204 is provided with a printing area in the vicinity of the inner peripheral wall on the lens 202 side, and an ID code and a pattern for focusing are printed.
  • An IR filter 211 is provided on the medium contact surface side of the transparent lens cover 204 to transmit only infrared light having a predetermined wavelength or more and block other wavelength light. Note that the IR filter 211 may be provided at any position from the transparent lens cover 204 to the lens unit 200 mounting side unless an ID code or a pattern for focusing is provided.
  • the surface of the lens 202 may be filtered.
  • the IR LED 210 irradiates a medium surface on which a dot pattern is superimposed and printed on a graphic, if dots are printed with ink that absorbs infrared rays (carbon black or the like), only the dot portion is photographed black in the captured image of the camera. Thus, the dot code can be easily read.
  • the lens unit with IR ⁇ ⁇ LED irradiation function shown in the figure is used when an infrared cut-off filter is not used in a smartphone or the like, or when infrared rays are not completely cut off even if used.
  • the number of the light sources 205 is two.
  • the present invention is not limited to this, and the case where a high performance diffuser 209 is provided or a diffused light emitting LED is used as the light source 205. In this case, since the light can be refracted and diffused to uniformly irradiate the print medium surface, only one light source 205 may be used.
  • FIG. 30 is a diagram for explaining the relationship between the white LED 208 and the wavelength and transmittance of the filter of the mobile phone or smartphone built-in camera, the infrared filter, and the IR-LED.
  • Cameras such as smartphones are provided with an infrared blocking filter.
  • the IR unit 211 visible light blocking filter
  • the infrared cut filter cuts a wavelength of 700 nm or more.
  • the IR filter cuts a wavelength of about 700 nm or less. Irradiating strong infrared light with a wavelength of about 850 nm with an IR-LED, a dot pattern printed with ink that absorbs infrared rays, even for a camera such as a smartphone using infrared rays transmitted around 5% Can be read.
  • FIG. 31 is a front view and a side view showing a state in which the lens unit 200 is attached to the camera of the tablet PC 212.
  • the lens unit 200 can be attached and detached by an adhesive member (not shown) applied to the contact surface with the tablet PC 212.
  • an adhesive member not shown
  • the lens unit 200 may be completely adhered or integrally formed with the tablet PC 212 so that it cannot be removed.
  • FIG. 32 and 33 are diagrams illustrating the form and attachment method of the lens unit 200.
  • FIG. 32 and 33 are diagrams illustrating the form and attachment method of the lens unit 200.
  • the 32A is provided with an adhesive member in the lower opening at the bottom. It can be directly attached to and detached from the camera portion of the tablet PC 212 or the smartphone 222. Of course, the lens unit 200 may be completely adhered so that it cannot be removed, or may be integrally formed with the tablet PC 212 or the smartphone 222.
  • the clip 213 and the lens unit 200 are integrated.
  • a portion of the clip 213 that is in contact with the bottom of the lens unit 200 has a hole for photographing the print medium surface or is transparent.
  • the user can easily attach and remove the lens unit 200 by sandwiching the camera portion of the tablet PC 212 or the smartphone 222 with a clip.
  • the service life is considerably longer than that of an adhesive member whose adhesive strength decreases during use.
  • the lens unit with an irradiation function described in FIG. 26 and the clip 213 are integrated.
  • the clip 213 is provided with a power supply cable (including a USB, an earphone, a cable with a dedicated portable connector, and the like).
  • a power supply cable including a USB, an earphone, a cable with a dedicated portable connector, and the like.
  • the cable connector is inserted into the connector of the tablet PC 212 or the smartphone 222. Thereby, it becomes possible to take power from the tablet PC 212 or the smartphone 222.
  • the lens unit with an irradiation function without a clip can be similarly powered by the power supply cable.
  • FIGS. 33 (a) to 33 (c) are diagrams illustrating an embodiment in which the cartridge-like case 221 and the lens unit 200 are integrated.
  • This case is used for a smartphone 222 or a mobile phone.
  • a portion of the case 221 that is in contact with the bottom of the lens unit 200 has a hole for photographing the print medium surface or is transparent.
  • the user can easily attach and detach the lens unit 200 by fitting the case into the smartphone 222 or the mobile phone so that the lens unit 200 is located on the back side (opposite the display) of the smartphone 222.
  • the service life is considerably longer than that of an adhesive member whose adhesive strength decreases during use.
  • the mounting position of the lens unit 200 is fixed, so that the lens unit 200 can be mounted accurately without being positioned each time.
  • FIG. 6B is a diagram illustrating a state where the lens unit with an irradiation function and the case 221 are integrated.
  • the case 221 is provided with a battery 206 and a switch. Note that a power supply cable may be provided as shown in FIG.
  • FIG. 5A is a diagram illustrating a lens unit with an irradiation function that receives power from a smartphone 222 or a mobile phone. According to this, since it is not necessary to provide a power source for the case 222, the case 222 can be manufactured more inexpensively and easily. Note that a power supply cable may be provided as shown in FIG. Further, as shown in FIG. 5A, it may be used as a mobile phone protective case for mounting a lens unit without LED.
  • FIG. 34 is a diagram showing an embodiment in which the dot pattern printed on the card 214 is read by the lens unit 200 attached to the camera of the tablet PC.
  • FIG. 1 is the figure explaining the case where the dot pattern was provided in the whole one surface of the card
  • FIG. The user brings the surface of the card 214 on which the dot pattern is provided into contact with the lens unit 200.
  • the dot pattern printed on the card 214 is enlarged and photographed by the lens 202.
  • a content output or operation command corresponding to the read code information is executed. Further, by rotating the placed card 214, it is possible to change the information to be output depending on the rotation angle between the direction of the dot pattern and the camera angle (camera upward direction). For example, when placed in 30 ° orientation of the card 214 to the camera, the audio of the "Hello” is output from the speaker (not shown), then was placed in the direction of 90 degrees by rotating the card 214 In this case, a voice saying “Goodbye” is output. Of course, the corresponding video content may be displayed on the display.
  • the read code information is transmitted to the dot code management server via the Internet or a mobile phone network to view or download the corresponding content, or the tablet PC is controlled by an operation command corresponding to the code information Good.
  • the code information is defined by adding the XY coordinates
  • the information to be output is changed corresponding to the input XY coordinate values depending on which part of the card 214 is placed on the lens unit 200. Can be made.
  • information corresponding to the rotation angle may be used as the selection condition.
  • a lens unit with an irradiation function using a white LED 208 is used as the light source 205, the code information can be reliably read even in an environment where the surroundings cannot read the dot pattern. Furthermore, if a lens unit with an irradiation function using an IR LED 210 as a light source 205 is used to photograph a print medium on which dots are printed with an ink that absorbs infrared rays (carbon black or the like), only the dot portion is photographed black in the captured image. As a result, the dot code can be easily read.
  • the lens unit with an IR-LED irradiation function is used when an infrared blocking filter is not used in a smartphone or the like, or when infrared rays are not completely blocked even if used.
  • FIG. (B) is a diagram illustrating a case where a guard 215 is provided on one surface of the card 214 and a dot pattern is printed only in the guard 215.
  • FIG. The guard 215 has a structure that fits into a dot pattern reading lens. When the user puts the guard 215 on the dot pattern reading lens, the dot pattern printed on the card 214 is enlarged and photographed by the lens 202.
  • FIG. 35 is a diagram for explaining an embodiment for reading a dot pattern provided in the figure 216.
  • (A) is a figure in which a figure 216 is placed on a dot pattern reading lens attached to a camera of a tablet PC.
  • a dot pattern is printed on the bottom of the figure 216, and the camera reads the dot pattern on the bottom of the figure 216 and decodes the information.
  • input / output information can be changed. For example, when placing the figure 216 is output from a speaker voice of "Hello” is not shown, when rotated 90 degrees, the sound of the "bye” is output.
  • FIG. (B) is a diagram in which the figure 216 and the dot pattern reading lens are integrated.
  • the figure 216 in the figure has a lens unit 200 attached to the lower part of the pedestal.
  • a dot pattern is provided on the back side of the pedestal.
  • the input / output information can be changed as in (a).
  • FIG. 36 is a diagram for explaining a figure 216 incorporating a lens unit 200 with a white LED irradiation function.
  • the base of the figure 216 includes a lens unit 200, a white LED 208, and a battery 206.
  • the camera reads a dot code provided on the figure 216 via the lens unit 200 of the figure 216. Even if the lens unit 200 is built in the figure 216 and light from the outside is blocked, the white LED 208 can irradiate the print medium surface and read the dot code.
  • the battery 206 of the white LED 208 is preferably built in the figure, and the power button 207 is preferably provided in an inconspicuous part of the figure.
  • a sensor-type power switch that is activated when the figure is lifted or touched may be used.
  • FIG. 37 to 38 are diagrams showing an embodiment in which a dot pattern printed on a card 214 is read by the lens unit 200 attached to the camera of the smartphone 222.
  • the card 214 is fixed, the smartphone 222 is held, and a part of the card 214 is touched to read the dot pattern.
  • the dot pattern photographed using the lens unit 200 may be displayed as it is on the display of the smartphone 222 or the tablet PC 212.
  • content corresponding to the read dot code may be displayed.
  • the content output or operation command corresponding to the read code information is executed.
  • the smartphone 222 it is possible to change the information to be output depending on the rotation angle between the direction of the dot pattern and the camera angle (camera upward direction). If the XY coordinates are defined in addition to the code information, the information to be output is changed corresponding to the input XY coordinate value depending on which part of the card 214 is photographed on the lens unit 200. be able to.
  • information corresponding to the rotation angle may be used as the selection condition.
  • 39 to 50 show the concept and examples of the circle pattern in which the ID code is encoded. These are plural on the circumference, the circumference of an ellipse, or on the circumference of a circle between adjacent marks printed or engraved on the circumference of a predetermined closed curve (hereinafter, “circumference etc.”). Or a circle pattern encoded by a combination and / or arrangement of a plurality of distances between adjacent marks (hereinafter, “distance between marks”).
  • FIG. 39 is a diagram illustrating a specific example of the circle pattern 300.
  • FIG. 5A shows a circular circle pattern
  • FIG. 5B shows an elliptical circle pattern
  • FIG. 5C shows a circle pattern formed by other closed curves.
  • the circle pattern 300 can be formed by arranging the mark 301 on an arbitrary closed curve.
  • FIG. 40 is a diagram showing another form of the circle pattern. This figure is a diagram in which one mark 301 is arranged at the centroid of a closed curve.
  • (a) is a circular circle pattern
  • (b) is an elliptical circle pattern
  • (c) is other This is the case of a circle pattern with a closed curve shape.
  • the place where the mark 301 is arranged may be the center of the closed curve in addition to the centroid of the closed curve.
  • the number of marks 300 arranged at the centroid or the center is not limited to one, but may be plural.
  • parameters such as the shape and size of the closed curve are not defined in advance, it is possible to give such information to the marks in the closed curve and to identify and decode the used code.
  • the ellipse can identify the ellipse and can easily decode the code. Note that it is desirable to change the size, shape, and color of the mark 300 in order to distinguish it from the mark 300 on the circumference.
  • 41 to 50 are diagrams for explaining still another embodiment.
  • FIG. 41 and subsequent figures describe the case where the circle pattern is circular, but it goes without saying that any of the embodiments is also applicable to an oval shape or any other closed curve shape circle pattern. .
  • FIG. 41 is a diagram illustrating a circle pattern 300 in which a start point mark 302 and an encoding mark (information dot 303) are arranged as marks.
  • a start point mark 302 for defining a start point for encoding is arranged on a predetermined circumference, and an information dot 303 is arranged as an encoding mark clockwise, and a predetermined interval between adjacent marks is set.
  • the ID code is encoded by a combination in which the intervals are aligned clockwise from the start point mark 302. Needless to say, encoding may be performed counterclockwise.
  • the predetermined interval between the marks is set to a circumferential length between information dots having a plurality of circumferential lengths between adjacent marks or a distance between information dots.
  • the combination index may be any of the perimeter length 304 between information dots and the distance 305 between information dots.
  • (A) is a mark in which the start point mark 302 is larger than the information dot 303
  • (b) is a mark in which the start point mark 302 is different from the information dot 303
  • (c) is a shape in which the start point mark 302 is the same as the information dot 303.
  • (D) is a mark in which the start point mark 302 has the same shape as the information dot 303 but is identified by color
  • (e) is a mark in which the start point mark 302 has the same shape as the information dot 303.
  • (F) is a mark in which two marks having the same shape as the information dot 303 are arranged side by side in the outer circumferential direction.
  • Both are formed so that the information dot can be identified as the start point mark 302 by the reading means of the information processing apparatus.
  • three or more (c) and (f) may be arranged to form the start point mark 302, or (e) may be arranged shifted in the inner circumferential direction.
  • (G) to (i) are examples in which two circle patterns 300 having different concentric diameters are formed. That is, similar-shaped circles having different sizes are arranged concentrically. Thereby, a larger amount of information can be defined. Of course, a plurality of circle patterns 300 may be formed to further increase the amount of information.
  • all the information dots 303 have the same shape, and a dot having a size different from that of the information dot 303 is set as the start point mark 302 in the outer circle pattern 300.
  • An information dot 303 is arranged as a start mark 302 on the inner periphery at the inner position.
  • FIG. 42 shows an example in which a total of three marks, one start point mark 302 and two information dots 303, are arranged.
  • the information dots 303 are arranged so that the interval between each mark is one to three types. If three coordinate values on the circumference are obtained, the center position and radius can be obtained, and the interval between the marks can be easily calculated.
  • the shortest interval is (1) (corresponding to the circled number 1 in the figure, the same applies hereinafter), and the second shortest interval ( 2) This is a combination when the longest interval is (3), and there are six types of combinations clockwise from the start point mark.
  • (B) is a combination in which information dots 303 are arranged with two types of intervals formed, the shortest interval being (1), and the second shortest interval being (2). There are six combinations clockwise. Thus, either (1) and (2) may be the same interval.
  • (C) is a combination where the information dots 303 are arranged with one type of interval formed, and the interval is (1), and naturally there is only one type of combination.
  • FIG. 43 is a table in which code values are assigned to combinations when the three marks 301 shown in FIG. 42 are arranged. What code value is assigned to the combination case is arbitrary.
  • FIG. 44 is a diagram for explaining a circle pattern in which one code is encoded by including a plurality of marks 301.
  • L to M marks 300 continuous to the circle pattern 300 can be arranged. Then, there are M ⁇ L + 1 types of circle patterns 300.
  • the ID code can be encoded by the combination described with reference to FIGS.
  • the ID code can be encoded by the combination described with reference to FIGS.
  • there are five marks 301, and 541 ID codes can be encoded. Therefore, when the circle pattern 300 includes 3 to 5 marks 301, 13 + 75 + 541 629 ID codes can be encoded.
  • the circle pattern 300 can encode more ID codes.
  • each information dot 303 has one to four kinds of intervals.
  • the code is encoded only by the combination of the circumference or the distance between information dots. This is because the absence of the start point mark 302 reduces the amount of information, but it can be formed with only information dots having the same shape and is visually attractive.
  • the information processing apparatus reads the start point mark 302 from the information dot 303. Can be easily decoded into an ID code. Needless to say, encoding may be performed clockwise or counterclockwise.
  • the shortest interval is (1)
  • the second shortest interval is (2)
  • the third shortest interval is (3)
  • (b) three types of intervals are formed and information dots 303 are arranged.
  • the shortest interval is (1)
  • the second shortest interval is (2)
  • the longest interval is (3).
  • any one or two of (1) to (3) may be the same interval.
  • (C) is a combination in which information dots 303 are arranged by forming two types of intervals, the shortest interval being (1), and the second shortest interval being (2). There are four types of combinations clockwise. Thus, either (1) and (2) may be the same interval.
  • FIG. 46 is a table in which code values are assigned to combinations when the four marks shown in FIG. 45 are arranged. What code value is assigned to the combination case is arbitrary.
  • FIG. 47 is a diagram for explaining an embodiment in which a plurality of the same circle patterns 300 are arranged side by side.
  • a plurality of circle patterns 300 may be arranged side by side. As a result, it is possible to arrange continuously on a medium having a certain area, such as a printed matter, so that the same information is output no matter where it is read.
  • circle patterns may be arranged with a smaller circle diameter and a gap.
  • FIG. 48 to 50 are diagrams for explaining an embodiment in which one code is encoded by a plurality of circle patterns 300.
  • FIG. 48 to 50 are diagrams for explaining an embodiment in which one code is encoded by a plurality of circle patterns 300.
  • FIG. 48 to 50 are diagrams for explaining an embodiment in which one code is encoded by a plurality of circle patterns 300.
  • one data block is composed of a plurality (9 in the figure) of circle patterns 300 arranged at different positions.
  • One data block encodes one code.
  • FIG. 48 is a diagram for explaining a method of defining a data block area.
  • the same data block can be repeatedly printed on a printed material or the like. In that case, if the CPU cannot recognize which is the area of one data block, the CPU cannot accurately analyze the circle pattern 300 and execute processing corresponding to the code. Therefore, it is necessary to define the area of the data block.
  • (A) in the figure is a diagram in which the start point mark 302 of a predetermined circle pattern 300 is different from the start point mark 302 of another circle pattern 300.
  • the upper left circle pattern 300 has a start point mark 302 having a size different from that of the information dot 303
  • the other circle pattern 300 has a start point mark 302 having a shape different from that of the information dot 303.
  • the area of the data block can be recognized with reference to the circle patterns 300 having different start point marks 302.
  • (B) is a diagram in which the shape of the mark 301 of the predetermined circle pattern 300 is different from the shape of the mark 301 of another circle pattern 300.
  • the upper left circle pattern 300 is provided with a triangular mark 301
  • the other circle pattern 300 is provided with a circular mark 301.
  • the area of the data block can be recognized with reference to the circle pattern 300 on which the triangular mark 301 is arranged.
  • FIG. (C) is a diagram in which the arrangement method of the predetermined circle pattern 300 is different from the arrangement method of the other circle patterns 300.
  • the upper left circle pattern 300 has a start point mark 302 having a circular shape and an information dot 303 having a triangular shape
  • other circle patterns 300 have a start point mark 302 having a triangular shape and the information dot 303 having a circular shape.
  • the area of the data block can be recognized based on the circle pattern 300 in which the start point mark 302 is circular and the information dot 303 is triangular.
  • the data block area can be defined by various methods.
  • FIG. 49 is a diagram illustrating a method for defining the direction of a data block.
  • (A) in FIG. 4 defines the direction of the data block by the position of the start point mark 302.
  • the start point mark 302 is located on the left. Thereby, it can be recognized that the data block is facing left.
  • (B) in the figure defines the direction of the data block by the arrangement method of the mark 301.
  • the position of the circle pattern 300 having a specific combination of mark intervals is defined as the data block direction.
  • the specific combination is not used for the circle pattern 300 other than the circle pattern 300 that defines the direction of the data block.
  • the mark 301 is arranged so that only the circle pattern 300 at the upper left is a combination of (1), (2), (3), and (4) (corresponding to the circled numbers in the figure). Combinations of (1), (2), (3), and (4) are not used for other circle patterns. Thereby, it can be recognized that the data block is upward.
  • only the circle pattern 300 at the upper left may be formed with four marks 301 and other marks 301 other than four.
  • (C) in FIG. 5 defines the direction of the data block by providing the start mark 302 only for the specific circle pattern 300.
  • the circle pattern 300 at the upper left has a start point mark 302 arranged at the top.
  • the start point mark 302 is not arranged. Thereby, it can be recognized that the data block is upward. According to this, since the direction of the data block is defined by the circle pattern 300 at the upper left, other circle patterns can encode codes without providing the start point mark 302. Therefore, the data block generation algorithm can be simplified.
  • FIG. 50 is a diagram for explaining an embodiment in which 3 ⁇ 3 circle patterns of data blocks are continuously arranged.
  • Data blocks are arranged continuously in the vertical and horizontal directions. Therefore, when reading with a camera, it is necessary to read one data block. If adjacent data blocks are the same, the same number of 3 ⁇ 3 circle patterns 300 as the data blocks around the center to be read by the camera may be read as shown by the alternate long and short dash line in FIG. However, it is necessary to recognize where each circle pattern 300 is arranged. That is, a means for defining a data block area as shown in FIG. 49 is required. In the figure, only the start point mark 302 of the upper left circle pattern 300 is different in size. This defines the area and direction of the data block.
  • the surrounding 3 ⁇ 3 circle pattern always includes a circle pattern 300 having a different size only at the start point mark 302, so that the region and direction can be understood.
  • the code of each 3 ⁇ 3 circle pattern can be decoded in accordance with a predetermined order, and one code can be read.
  • the information amount of the circle pattern 300 can be increased.
  • the distance between the information dots 303 becomes closer, the appearance becomes worse, the information dots 303 are connected due to printing accuracy and reading accuracy, and the code is read and analyzed accurately.
  • the mark 301 of the circle pattern 300 may be provided by notching in addition to printing or engraving. Specifically, those described in FIGS. 23 (a) to 23 (c).
  • a two-dimensional code such as a dot pattern is suitable for placement on a straight or rectangular plane, but it has been difficult to place it on a circular or donut-shaped medium.
  • the circle pattern 300 of the present invention it is possible to easily place a mark on a circle, an ellipse, or an irregular closed curve shape to form a two-dimensional code. Therefore, it is used as an ID code for identifying the lens cover 203 used in the lens unit 200 of the present invention.
  • it can be used as a two-dimensional code for a circular or donut-shaped medium.
  • the circle pattern 300 encodes the code by comparing the distances between the marks 301, the code can be accurately decoded even if it is arranged on a curved surface, and it has been difficult to arrange a two-dimensional code in the past. Can also be placed on curved surfaces. Furthermore, even if the dot pattern (circle pattern 300) is greatly deformed by tilting the optical reading means, the code can be correctly decoded for the above reason. ⁇ Other Examples of Lens Unit>
  • FIGS. 51 to 58 illustrate another embodiment of the lens unit 200.
  • FIG. 51 to 58 illustrate another embodiment of the lens unit 200.
  • the following lens unit 200 is not limited to the embodiments described below. Needless to say, the following lens unit 200 can be combined with any of the embodiments described above. (ID code and clip)
  • the ID code 401 is printed on the lens cover 203 or the transparent lens cover 204.
  • the ID code 401 can be provided by other methods.
  • FIG. 51 is a diagram showing a state where the ID code 401 is directly printed on the upper opening of the lens holder.
  • the circle pattern 300 is directly printed as the ID code 401, but other ID codes 401 may be printed.
  • the ID code 401 may be printed on a sticker and attached to the upper opening of the lens holder 201.
  • the ID code may be fitted between the lens cover 201 and the lens 202 or screwed.
  • 52 to 53 are diagrams for explaining a lens unit with a clip provided with a lens cover 203 capable of sandwiching a medium on which an ID code 401 is printed.
  • This clip 213 is a modification of the clip described in FIG. That is, the clip 213 for sandwiching the camera portion of the tablet PC 212 or the smartphone 222 is provided integrally with the lens unit 200. The structure of the clip 213 will be described later.
  • FIG. 52 (a) is a perspective view of a lens unit with a clip
  • FIG. 52 (b) is a front view.
  • the lens unit 200 includes a lens cover 203, a lens holder 201, and a clip 213.
  • the lens cover 203 and the lens holder 201 are separable, and an ID medium 402, which is a medium on which an ID code 401 is printed, is sandwiched between the lens cover 203 and the lens holder 201 as shown in FIG. Yes.
  • the center of the lens holder 201 is a transparent area provided with an opening 403 or a transparent sheet such as a film, and an area necessary for photographing a subject is secured.
  • the lens unit 200 having the ID code 401 can be easily manufactured. Further, the manufacturer can collect the lens unit 200 that is no longer needed by the user, remove the ID medium 402 that has been used, and sandwich the new ID medium 402 to provide it to other users. A lens unit that takes into account the global environment and economy can be realized.
  • FIG. 52 shows an example of the lens unit 200 provided with a lens cover 203 capable of sandwiching an ID medium, and it is needless to say that the present invention is not limited to this form.
  • a form without the clip 213 may be used.
  • FIG. 53 is a diagram for explaining the ID medium 402 used for the lens holder 201 of FIG.
  • the ID medium 402 is obtained by printing an ID code 401 on a circular medium.
  • the center of the medium is an opening, and an area necessary for photographing the subject is secured.
  • An ID code 401 is printed around the opening.
  • FIG. 6A shows an ID medium 402 on which a circle pattern 300 that is an ID code 401 is printed.
  • FIG. 5B shows an ID medium 402 on which a focusing pattern 404 and a circle pattern 300 for focusing with autofocus are printed.
  • the focus pattern 404 is preferably printed with ink that transmits infrared light and visible light. Accordingly, since the focusing pattern 404 is not photographed by the camera, the camera can photograph only the necessary ID code 401 and the dot pattern of the subject.
  • the center of the medium may be a transparent area provided with a transparent sheet such as a film instead of the opening 403.
  • a transparent sheet such as a film
  • the ID medium 402 may be integrally formed with the lens holder 201.
  • Adjuster and non-slip 54 to 56 are diagrams illustrating the adjuster 406 and the slip stopper 407.
  • FIG. 1 Adjuster and non-slip
  • the adjuster is a device for adjusting the height and length, and the adjuster 406 of the present invention is provided for adjusting the height of the lens unit 200.
  • FIG. 54 shows the case of the lens unit 200 having no clip
  • FIGS. 55 to 56 show the case of the lens unit 200 having a clip
  • FIG. 57 is a perspective view showing the structure of the adjuster 406.
  • the adjuster 406 has a cylindrical structure having an opening 403 at the center.
  • a plurality of grooves are provided on the inner wall of the adjuster 406.
  • the lens holder 201 is also provided with a groove so as to be fitted to the adjuster 406.
  • the lens unit 200 includes a lens-integrated lens holder 405 and an adjuster 406.
  • FIG. 6B shows the most frequently used embodiment of the present invention, which includes an ID medium 402, a lens cover 203, a lens-integrated lens holder 405, a screw-type fastener 408, an adjuster 406, and a non-slip 407. Yes.
  • the adjuster 406 is attached to the lower part of the lens-integrated lens holder 405.
  • FIG. 55 is a perspective view of the lens unit with clip 200 having the adjuster 406 and the slip stopper 407, and FIG. 55B is a front view.
  • FIG. 56 is a diagram illustrating a case where the height is adjusted by the adjuster 406 in the lens unit with clip 200.
  • the basic structure of the main body of the lens holder 201 is the same as that of the lens unit 200 of FIG.
  • Clip 213 is provided between threaded fastener 408 and adjuster 406.
  • the adjuster 406 is moved downward as shown in FIG.
  • the adjuster 406 is moved upward as shown in FIG.
  • the difference in distance between when the adjuster 406 is moved to the uppermost position and when it is moved to the lowermost position is about 2 cm.
  • the optimal focus of the camera provided on the smartphone 222 or the like may vary depending on the model. In that case, the optimum distance from the lens to the camera also differs. Therefore, depending on the structure of the lens unit 200, there is a problem that the focus is not accurately adjusted and optimal photographing cannot be performed. On the other hand, it is very expensive to manufacture individual lens units 200 for each model so that the focus is accurately adjusted.
  • the user often uses the smartphone 222 or the like with a cover (protective case) attached. Since the thickness of the cover differs depending on the product, there is a problem that the focus cannot be accurately adjusted depending on the cover to be used, and the optimum photographing cannot be performed.
  • the adjuster 406 of the present invention solves such a problem.
  • the adjuster 406 by providing the adjuster 406 in this way, the distance from the lens 202 to the camera is optimally adjusted to photograph the subject accurately regardless of what camera or cover is used. It becomes possible.
  • the photographing of the subject in addition to photographing the upper opening portion of the lens unit 200 in contact with the subject, it is also possible to photograph the lens unit 200 and the subject at a certain distance. It is determined by the size of the dot pattern of each subject or the like whether to touch the surface or how far away to shoot.
  • the center of the adjuster 406 may be a transparent region provided with a transparent sheet or the like instead of the opening 403. By providing a transparent sheet or the like, it is possible to prevent the lens 202 from becoming dirty.
  • the structure of the adjuster 406 is not limited to that described above, and may be formed integrally with the lens holder 201. Of course, any structure may be used as long as the distance from the lens 202 to the camera can be adjusted appropriately.
  • the anti-slip has a donut-shaped structure having an opening 403 at the center, and is provided at the lower part of the lens holder 201.
  • the lower end of the adjuster 406 is fitted. Further, it is made of a viscous material such as rubber.
  • the surface of the smartphone 222 or the like is made of a smooth material, there is a problem that even if the lens unit 200 is attached, it slides down. Moreover, even if it is fixed with the clip 213 or the like to prevent slipping, the lens unit 200 may slightly shake and focus may not be accurately achieved. By providing the anti-slip in this way, it is possible to prevent sliding or shaking from the smartphone 222 or the like.
  • the anti-slip 407 may be provided by being attached to the adjuster 406 or screwed into the adjuster 406 as well as being fitted to the lower portion of the adjuster 406 as in the present invention.
  • the lens unit 200 may be provided by being directly attached, fitted, or screwed into the lower portion of the lens unit 200. Further, it may be provided by being mounted between the adjuster 406 and the lens holder 201.
  • the adjuster 406 and the anti-slip 407 may be integrally formed.
  • One end of the clip 213 is attached to the lens holder 201, and the other end is formed so as to sandwich the back side where the camera is provided.
  • the clip 213 includes an arm 410 and a fastener.
  • the fastener is for attaching the lens holder 201, and is provided at one end of the arm 410.
  • the fastener includes a ring-shaped fastener 409 shown in FIG. 5A and a U-shaped fastener 411 shown in FIG.
  • the ring-shaped fastener 409 has an advantage that strength is strong although there is a problem that it is not convenient because it is necessary to first remove the ring and then remove the clip 213 when removing the lens holder 201.
  • the U-shaped fastener 411 has a problem that the strength is weak, but has an advantage that the lens holder 201 can be easily pulled out and is highly convenient.
  • the other end of the arm 410 is formed so as to sandwich the back side of the smartphone 222 or the like.
  • a second fastener may be attached to the upper portion of the fastener.
  • the second fastener is preferably a screw-like screw fastener 408, but may take other forms. By attaching the second fastener, the fasteners 409 and 411 of the clip 213 can be more firmly fixed.
  • an O-ring 412 may be attached between the fasteners 409 and 411 and the adjuster 406 or between the fasteners 409 and 411 and the second fastener. Thereby, the adjuster 406 and the second fastener can be firmly fixed.
  • the clip 213 may be integrally formed with one or more of the lens holder 201, the lens cover 203, or the adjuster 406.
  • FIG. 59 and 60 are perspective views showing each configuration of the lens unit 200.
  • FIG. 59 and 60 are perspective views showing each configuration of the lens unit 200.
  • the lens unit 200 includes a lens cover 203, an ID medium 402, a screw-type fastener 408, a lens-integrated lens holder 405, an adjuster 406, and a non-slip 407.
  • the above-described clip 213 may be provided.
  • FIG. 60 shows an example in which an O-ring 412 is further provided.
  • An O-ring 412 is inserted 406 between the threaded fastener 408 and the adjuster.
  • the lens holder 201 may be provided with a thread and the adjuster 406 may be attached and detached with a screw.
  • the lens holder 405 is not integral with the lens 202 but may be provided separately.
  • FIG. 61 shows a pedestal 413 provided around the outer peripheral wall of the upper opening of the lens-integrated lens holder 405. By providing the pedestal 413, it is possible to stably place the subject and to prevent shake during photographing.
  • the pedestal may be integrally formed with the lens holder 201, 405 or the lens cover 203.
  • the pedestal, the lens cover 203, and the lens holders 201 and 405 may be integrally molded.
  • the lens unit 200 may be provided with an IR filter as described with reference to FIG.
  • the lens unit may be provided with a light source and a power source as described with reference to FIGS.
  • FIG. 62 is a diagram for explaining the most preferable usage form of the lens unit 200 described above.
  • FIG. 54 shows a usage form of the lens unit 200 having no clip 213 shown in FIG.
  • the lens unit 200 that does not have the clip 213 is suitable for use in the tablet PC 212. This is because the tablet PC 212 is often used by being placed on a desk, and the lens unit 200 can be stably arranged.
  • (B) and (c) are usage modes of the lens unit 200 having the clip 213 shown in FIGS.
  • the lens unit 200 having the clip 213 is suitable for use in a smartphone 222 or a mobile phone. This is because the smartphone 222 and the mobile phone are often used by being held in hand, and therefore the lens unit 200 is likely to be displaced or detached simply by arranging the lens unit 200.
  • (B) in the figure is a case where the adjuster 406 is moved to the lower part. If the distance between the camera and the lens 202 is too close, the camera cannot focus accurately and an appropriate captured image cannot be obtained. Therefore, the distance between the camera and the lens is kept appropriate by moving the adjuster 406.
  • (C) in the figure is a case where the adjuster 406 is moved upward.
  • a smartphone cover 414 is provided on the smartphone 222. A certain distance has already occurred between the camera and the smartphone cover 414. Therefore, the adjuster 406 is moved upward so that the distance between the camera and the lens 202 is not increased.
  • the adjuster By using the adjuster in this way, the distance H from the surface of the camera lens to the lower end of the lens 202 of the lens unit 200 can be maintained at the optimum distance.
  • the lens unit 200 of the present invention can be used in accordance with the state of the tablet PC 212, the smartphone 22, and the mobile phone, it is very flexible and convenient.
  • the usage form of the lens unit 200 is not limited to that described above, and can be variously changed according to the user's preference and usage situation.
  • the lens unit 200 of the present invention can photograph not only a dot pattern but also a part of a human body.
  • the human body includes skin, scalp, hair, nails, eyes and the like.
  • the predetermined part is not limited to a person but can be any part of a living organism. Further, the predetermined part may be any subject or photographed image having a unique feature, and may be any subject as long as it can be associated with a unique ID code.
  • the captured skin images are taken in the shooting environment, that is, in the morning and evening in the outdoors and in the surrounding environment (sunset, cloudy, rain, snow, building color, green forest, etc.), indoor lighting and surrounding environment Since the color of light entering the lens changes due to the shooting of the color of the wall, the color, intensity, and arrangement of the lighting, it is difficult to perform proper skin diagnosis.
  • the color of the medium itself is set to white, and in the image of the ID medium 402 captured at the same time as the captured skin image, image analysis is performed to determine how the white color of the ID medium 402 is changed.
  • the correction amount is obtained, and the skin image is corrected based on the correction amount.
  • the image is based on the image of the medium in at least the surrounding 4 to 8 directions where the circle dots 300 are formed as shown in FIG. It is necessary to analyze and determine the correction amount of the skin image.
  • FIG. 63 shows an example in which light is strongly incident from the lower right. Based on these correction amounts in the 4 to 8 directions, the correction of the skin image is performed by interpolating the correction amount in the entire skin photographing region.
  • the simplest calculation method of the correction amount is that R, G, and B are 100% for white.
  • the white light of the ID medium 402 is photographed in the optimal light environment and camera for skin diagnosis, and the correction amount is set based on the photographed values of R, G, and B. It is desirable to calculate. Further, if the dot of the circle dot 300 is printed in black and the correction amount is calculated using the white color of the photographed ID medium 402 and the black dot, the accuracy is further improved.
  • the correction amount may be calculated in the same manner by setting the ID medium to black and the dots to white.
  • the skin image may be corrected by calculating a correction amount for each color using R, G, and B instead of black.
  • the second circle dot pattern shown below may be used in order to place dots at 4 to 8 positions on the ID medium around the skin imaging area.
  • the circle dot pattern is a key dot in a form in which reference dots are arranged at predetermined intervals on a circle-shaped virtual closing curve, and at least one of the reference dots can be distinguished from other dots.
  • the size of the dots is changed.
  • the dots are shifted in a predetermined direction. (4) Arranging a plurality of dots. (5) Change the dot color.
  • a key dot is expressed by at least one of the above.
  • information can be defined by whether or not dots are arranged at virtual points.
  • one dot is arranged above the reference dot, and the key dot is defined by these two dots.
  • the information dots are arranged in four directions with reference to the direction of the key dots (upward).
  • key dots are defined by arranging two dots in the normal direction of the circle so as to insert a circle (virtual closing curve).
  • the information dots are arranged in four diagonal directions with reference to the outward direction of the normal direction of the circle. Further, the information dots may be arranged in the vertical and horizontal directions with reference to the direction of the key dots (upward).
  • Numeral 65 indicates numerical information defined by the arrangement of information dots.
  • 4A shows numerical information in four directions
  • FIG. 2B shows numerical information in four directions
  • FIG. 2C shows numerical information in eight directions in four directions and four directions.
  • more information can be defined by changing the distance from the virtual point.
  • a plurality of circle dots having similar shapes and different sizes may be arranged at the same central point.
  • the skin diagnosis may not be performed by directly capturing a skin image, but may be captured using the lens unit 200 of the present invention by attaching a horny checker to the skin and collecting a horny layer from the skin.
  • the captured image is transmitted to the external database.
  • a service that performs image processing and pattern recognition on the external database side, collates with a skin image database, performs skin diagnosis, and returns the result to the user is extremely in line with the needs of the user. ⁇ About color correction>
  • the skin color differs between when it is taken in the morning and when it is taken in the evening. In the evening, the light becomes red, so it becomes reddish. That is, the color of the predetermined subject is influenced by ambient light such as natural light or illumination.
  • the color that an object originally has is called the surface color. That the color changes with light is called a light effect.
  • correction is indispensable for photographing a subject for inspection / analysis purposes.
  • FIG. 66 shows an ID medium used for color correction.
  • the outer pattern is used for color correction.
  • a circle pattern which is an ID code is printed on the inside.
  • the center is an opening or a transparent region provided with a transparent sheet such as a film.
  • the ID code does not necessarily have to be printed. In that case, a color correction medium is used.
  • FIG. 66A shows an ID medium (color correction medium) used when color correction is performed in white.
  • the pixel value of the photographed subject is RGB
  • the corrected pixel value is R'G'B '
  • R ' x ----- (1)
  • x 100R / r. If this is substituted into the equation (1), the unknown x disappears and R ′ is obtained.
  • R ′ 100R / r, and the corrected R value is obtained.
  • G 'and B' can be obtained by this calculation method.
  • the above-mentioned problem can be solved by performing the above calculation for each pixel value of the entire image obtained by photographing the subject.
  • the above equation is linear and only interpolates intermediate colors.
  • ID medium color correction medium
  • the color value is 0-100.
  • the pixel value of the photographed subject is RGB
  • the pixel value after correction is R'G'B '
  • G 'and B' can be obtained by this calculation method.
  • the above equation is linear and only interpolates intermediate colors.
  • ⁇ correction it is desirable to use ⁇ correction, other correction formulas, empirical formulas or tables obtained by experiments.
  • FIG. 66C shows an ID medium (color correction medium) used when color correction is performed in red, green, and blue printing.
  • the pixel value of the photographed subject is RGB
  • the corrected pixel value is R'G'B '
  • the red, green, and blue portions of the color correction medium are photographed.
  • R ′ 100R / r, and the corrected R value is obtained.
  • G 'and B' can be obtained by this calculation method.
  • the above-mentioned problem can be solved by performing the above calculation for each pixel value of the entire image obtained by photographing the subject.
  • the above equation is linear and only interpolates intermediate colors.
  • ID medium color correction medium
  • the pixel value of the photographed subject is RGB
  • the pixel value after correction is R'G'B '
  • G 'and B' can be obtained by this calculation method.
  • the above equation is linear and only interpolates intermediate colors.
  • ⁇ correction it is desirable to use ⁇ correction, other correction formulas, empirical formulas or tables obtained by experiments.
  • such a color correction medium is provided with white and black in a ring shape so that the change in light when the subject is photographed can be measured in detail.
  • the procedure for color-correcting the change of light is shown below.
  • white and black measurement points are provided at necessary locations (12 locations in this figure), and according to the calculation method of (Case 2: When white and black are used) Measure the rgb and r0g0b0 values at each location. For both white and black, it is desirable to provide 8 to 12 measurement points at equal intervals on the circumference.
  • each average value of the measurement results on the circumference is the rgb of the average value calculation point. Value and r0g0b0 value.
  • rgb values and r0g0b0 values at the positions of all the pixels in the circumferential direction are obtained by linear interpolation of each value.
  • not all pixels but the circumferential direction may be divided by a predetermined number, and each value of a point representing the divided section may be obtained.
  • FIG. 67 (b) white and black are alternately arranged, but the rgb value and the r0g0b0 value are measured at each of the four adjacent points in white and black, and the respective average values are obtained.
  • the values are the rgb value and the r0g0b0 value of the rgb value calculation representative point in FIG. 69 (b).
  • Subsequent color correction may be performed according to the method described above.
  • interpolation and color correction may be performed for FIGS. 67 (c) and 67 (d). Needless to say, there are various two-dimensional interpolation methods, and an appropriate method may be used.
  • the present invention is visible on postcards, stamps, greeting cards, coupons, game cards, educational cards, figures, and all print media that use conventional two-dimensional codes such as barcodes and QR codes. Industrial applicability of providing an invisible dot pattern that can be read by light is considered.
  • the present invention is considered to have industrial applicability of providing a lens unit that can be mounted on a tablet PC, smartphone, or mobile phone even from the top of a protective case.
  • the present invention provides a dot pattern as a two-dimensional code for an ID medium provided with a circle pattern, as well as a circular or donut-shaped medium, and simultaneously photographs the ID medium and the subject, and associates the ID with the subject.
  • the industrial applicability is considered.
  • the present invention can accurately inspect and analyze human skin etc. by color correction technology that corrects the color of a photographed image to the original color of the subject, so that it can be used industrially in the beauty and medical fields. It is done.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Accessories Of Cameras (AREA)
  • Lens Barrels (AREA)
  • Blocking Light For Cameras (AREA)

Abstract

 カメラに装着することで、ドットパターン等の撮影に適合させるためのレンズユニットを提供する。スマートフォン等のカメラに装着するレンズユニットであって、カメラの撮影口を囲むように装着する下部開口部と、上部開口部と、を両端に備える筒状のレンズホルダーと、筒状のレンズホルダー内部の所定位置に配置されたレンズと、レンズホルダーの上部開口部に装着される、認証のためのID媒体と、を備えたレンズユニットとした。また、カメラの撮影口を囲むように装着する下部開口部と、上部開口部と、を両端に備える筒状のレンズホルダーと、筒状のレンズホルダー内部の所定位置に配置されたレンズと、レンズホルダーの下部開口部に設けられ、レンズから前記カメラまでの距離を適正に調節するアジャスタと、を備えた、レンズユニットとした。

Description

レンズユニット
 本発明は、カメラの撮影口を囲むように着脱自在に装着するレンズユニットに関し、情報コードの1つであるIDコードが符号化されたパターンを、レンズユニットを介してカメラで撮影し、当該カメラを備えた情報処理装置で復号化できるようにした技術に関するものである。
 本発明は、カメラの撮影口を囲むように着脱自在に装着するレンズユニットに関し、焦点距離をアジャスト可能な機構と、レンズユニットに装着されるID媒体に形成された情報コードの1つであるIDコードが符号化されたパターンを、レンズユニットを介してカメラで被写体と共に撮影し、当該カメラを備えた情報処理装置でIDコードを復号化できるようにした技術に関するものである。
 本願以前より、カメラにより読み取られることにより、符号化された情報コードを復号することができる二次元コードが周知である。
 代表的な二次元コードとしては、QRコード(登録商標。以下省略)が従来周知である。
 QRコードは印刷媒体の審美性を損なうという問題点があるため、印刷媒体本来のデザインと共存させる方法が従来から提案されている。
 特許文献1、特許文献2、非特許文献1はいずれも、任意に設計したデザインをQRコードと一体化させる技術を開示している。
 しかしながら、上記の先行技術によっても、印刷媒体の審美性を損なわない二次元コードを提供するという課題は達成できておらず、印刷媒体本来のデザインに対してより自然な形により二次元コードを共存させることが要求されてきたため、QRコードとは異なり、殆ど不可視であって、デザインと重ねて印刷可能な二次元コードである、「ドットパターン」が発明され、従来周知である。
 本願の発明者は、特許文献3、特許文献4、特許文献5等の、ドットパターンを応用した様々な発明を提案してきた。
 また、特許文献5はドットパターンをK成分により印刷し、デザインが施された通常印刷領域をCMY成分により印刷することにより、赤外線を用いてK成分により印刷されたドットパターンのみを抽出して読み取り可能とする発明を開示している。
 また、同特許文献3はドットパターンと通常印刷領域を可視光領域において光学的に識別可能とするドットパターン読取方法の発明を開示している。
特開2009-259192 特開2009-230729 国際公開2004/029871号 国際公開2007/105819号 国際公開2006/040832号 オリジナルのQRコード「デザインQR」(http://d-qr.net/)
 本願発明の第一の課題は、スマートフォン、携帯電話、PC等の付属するカメラは一般撮影を主目的としたものであり、ドットパターン等の撮影に適合していないことが多く、これらのカメラに装着することで、ドットパターン等の撮影に適合させるためのレンズユニットを提供し、さらにレンズユニットが備えたレンズからカメラまでの距離を適正に調節可能とすることである。
 本願発明の第二の課題は、撮影時に被写体と同時にレンズIDを撮影し、レンズを特定して被写体の画像と関連づけることである。
 本願発明の第三の課題は、カメラで撮影する所定の被写体が、情報コードが符号化されたドットパターンが印刷された印刷媒体であり、当該印刷媒体の撮影に好適なレンズユニットを提供することである。
 本願発明の第四の課題は、カメラで撮影する所定の被写体の、撮影に好適なレンズユニットを提供することであり、自然光も含む照明の色・明るさによる光の演出性により、被写体の画像が正しく取得できないため、本来の表面色に補正することである。特に、検査・分析目的の肌、頭皮、毛、爪、目等の部位などの撮影では、本来の色を取得しなければならない。
 <1>本願発明は、カメラと、情報コードを復号化する解析手段と、を備えた情報処理装置に装着するレンズユニットであって、前記カメラの撮影口を囲むように着脱自在に装着する下部開口部と、上部開口部と、を両端に備える筒状のレンズホルダーと、前記筒状のレンズホルダー内部の所定位置に配置されたレンズと、前記レンズホルダーの上部開口部に装着され、所定の被写体を撮影するのに必要な開口部または透明領域を有し、前記解析手段において認証するための前記情報コードの1つであるIDコードが符号化されたパターンを前記カメラで撮影できるように形成されたID媒体と、を備えた、レンズユニットである。
 <2>さらに、前記ID媒体は、前記レンズホルダーの上部開口部に貼付されるか、嵌め込まれるか、または捩じ込まれるかのいずれかで装着される、ことが好ましい。
 <3>さらに、前記IDコードが符号化されたパターンは、前記ID媒体の開口部または透明領域の周縁近傍に形成された、ことが好ましい。
 <4>さらに、前記パターンは、所定の円の周上または所定の楕円の周上または所定の閉じた曲線の周上に所定の規則に基づいて配置された複数のマークで形成され、該所定の規則により前記IDコードが符号化されたサークルパターンである、ことが好ましい。
 <5>さらに、前記ID媒体の開口部の周縁近傍または、前記ID媒体の透明領域の中央近傍または周縁近傍に、前記カメラの撮影時にピントを合わせ易くするための模様が印刷された、ことが好ましい。請求項1-4のいずれか1項記載のレンズユニット。
 <6>さらに、前記模様は、透過性のインクで印刷された、ことが好ましい。
 <7>さらに、前記ID媒体は前記レンズホルダーと一体成型された、ことが好ましい。
 <8>さらに、前記レンズユニットは、さらに、所定の位置に赤外線フィルターと、を備えた、ことが好ましい。
 <9>さらに、前記所定の被写体は、前記レンズホルダーの上部開口部に接面して撮影される、ことが好ましい。
 <10>さらに、前記レンズホルダーの上部開口部に設けられ、前記所定の被写体を撮影するのに必要な開口部または透明領域を有するレンズカバーと、をさらに備えた、ことが好ましい。
 <11>さらに、前記所定の被写体は、前記レンズホルダーの上部開口部または前記レンズカバーに接面して撮影される、ことが好ましい。
 <12>さらに、前記ID媒体は、前記レンズカバーの上部開口部に貼付されるか、嵌め込まれるか、捩じ込まれるか、または該レンズカバーと前記レンズホルダーの間に挿まれるかのいずれかで装着される、ことが好ましい。
 <13>さらに、前記レンズカバーは、前記レンズホルダーと前記ID媒体の少なくともいずれかと一体成型された、ことが好ましい。
 <14>さらに、前記レンズユニットは、さらに、前記情報処理装置に装着するために、前記レンズホルダーの下部開口部に装着した滑り止めと、を備えた、ことが好ましい。
 <15>さらに、前記滑り止めは、前記レンズホルダーの下部開口部に貼付されるか、嵌め込まれるか、または捩じ込まれるかのいずれかで装着される、ことが好ましい。
 <16>さらに、前記滑り止めは前記レンズホルダーと一体成型された、ことが好ましい。
 <17>さらに、前記レンズホルダーの下部開口部に設けられ、前記所定の被写体を撮影するのに必要な開口部または透明領域を有し、前記レンズから前記カメラまでの適正な距離に調節するアジャスタと、をさらに備えた、ことが好ましい。
 <18>さらに、前記レンズユニットは、さらに、前記レンズホルダーの上部開口部の外周壁周辺に前記所定の被写体を安定して載置するための台座と、を備えた、ことが好ましい。
 <19>さらに、前記台座は、前記レンズホルダーと一体成型された、ことが好ましい。
 <20>さらに、前記台座と、前記レンズホルダーの上部開口部に設けられ、前記所定の被写体を撮影するのに必要な開口部または透明領域を有するレンズカバーと、が一体成型された、ことが好ましい。
 <21>さらに、前記レンズユニットは、さらに、前記情報処理装置に接続されたカメラまたは前記カメラが内蔵された情報処理装置に装着するために、該レンズユニットを固定するためのクリップと、を備えた、ことが好ましい。
 <22>さらに、前記クリップのアームは、一方の端部が前記レンズホルダーに取り付けられ、もう一方の端部は前記カメラが備えられた情報処理装置の裏側を挿みこむように形成された、ことが好ましい。
 <23>さらに、前記レンズホルダーに取り付けられる前記クリップのアームの一方の端部は、リング状またはU型状の留め具であり、該留め具に該レンズホルダーを通して取り付けられた、ことが好ましい。
 <24>さらに、前記クリップの留め具を固定するために、ネジ状の第2の留め具が前記レンズホルダーを通して取り付けられた、ことが好ましい。
 <25>さらに、前記クリップの留め具と前記第2の留め具との間にOリングが前記レンズホルダーを通して取り付けられた、ことが好ましい。
 <26>さらに、前記クリップは、前記レンズホルダー、前記レンズカバーの少なくともいずれかと一体成型された、ことが好ましい。
 <27>さらに、前記クリップは、前記情報処理装置の裏側を挿みこんで、前記レンズユニットを上向きに該情報処理装置を水平面に載置した場合、該クリップのアームが水平面に所定の領域が接面するよう設計された、ことが好ましい。
 <28>一方、本願発明は、カメラと、情報コードを復号化する解析手段と、を備えた情報処理装置に装着するレンズユニットであって、前記カメラの撮影口を囲むように着脱自在に装着する下部開口部と、上部開口部と、を両端に備える筒状のレンズホルダーと、前記筒状のレンズホルダー内部の所定位置に配置されたレンズと、前記レンズホルダーの下部開口部に設けられ、前記所定の被写体を撮影するのに必要な開口部または透明領域を有し、前記レンズから前記カメラまでの距離を適正に調節するアジャスタと、を備えた、レンズユニットである。
 <29>さらに、前記レンズホルダーの上部開口部に装着され、所定の被写体を撮影するのに必要な開口部または透明領域を有し、前記解析手段において認証するための前記情報コードの1つであるIDコードが符号化されたパターンを前記カメラで撮影できるように形成されたID媒体をさらに備えた、ことが好ましい。
 <30>さらに、前記ID媒体は、前記レンズホルダーの上部開口部に貼付されるか、嵌め込まれるか、または捩じ込まれるかのいずれかで装着される、ことが好ましい。
 <31>さらに、前記IDコードが符号化されたパターンは、前記ID媒体の開口部または透明領域の周縁近傍に形成された、ことが好ましい。
 <32>さらに、前記パターンは、所定の円の周上または所定の楕円の周上または所定の閉じた曲線の周上に所定の規則に基づいて配置された複数のマークで形成され、該所定の規則により前記IDコードが符号化されたサークルパターンである、ことが好ましい。
 <33>さらに、前記ID媒体の開口部の周縁近傍または、前記ID媒体の透明領域の中央近傍または周縁近傍に、前記カメラの撮影時にピントを合わせ易くするための模様が印刷された、ことが好ましい。
 <34>さらに、前記模様は、透過性のインクで印刷された、ことが好ましい。
 <35>さらに、前記ID媒体は前記レンズホルダーと一体成型された、ことが好ましい。
 <36>さらに、前記レンズユニットは、さらに、所定の位置に赤外線フィルターと、を備えた、ことが好ましい。
 <37>さらに、前記所定の被写体は、前記レンズホルダーの上部開口部に接面して撮影される、ことが好ましい。
 <38>さらに、前記レンズホルダーの上部開口部に設けられ、前記所定の被写体を撮影するのに必要な開口部または透明領域を有するレンズカバーと、をさらに備えた、ことが好ましい。
 <39>さらに、前記所定の被写体は、前記レンズホルダーの上部開口部または前記レンズカバーに接面して撮影される、ことが好ましい。
 <40>さらに、前記レンズユニットは、さらに、前記情報処理装置に装着するために、前記レンズホルダーの下部開口部に装着した滑り止めと、を備えた、ことが好ましい。
 <41>さらに、前記滑り止めは、前記レンズホルダーの下部開口部に貼付されるか、嵌め込まれるか、または捩じ込まれるかのいずれかで装着される、ことが好ましい。
 <42>さらに、前記滑り止めは前記レンズホルダーと一体成型された、ことが好ましい。
 <43>さらに、前記滑り止めは、前記アジャスタの開口部に貼付されるか、嵌め込まれるか、捩じ込まれるか、または該アジャスタと前記レンズホルダーの間に装着されるかのいずれかで装着される、ことが好ましい。
 <44>さらに、前記アジャスタは、前記レンズホルダーまたは前記滑り止めの少なくともいずれかと一体成型された、ことが好ましい。
 <45>さらに、前記レンズユニットは、さらに、前記レンズホルダーの上部開口部の外周壁周辺に前記所定の被写体を安定して載置するための台座と、を備えた、ことが好ましい。
 <46>さらに、前記台座は、前記レンズホルダーと一体成型された、ことが好ましい。
 <47>さらに、前記台座と、前記レンズホルダーの上部開口部に設けられ、前記所定の被写体を撮影するのに必要な開口部または透明領域を有するレンズカバーと、が一体成型された、ことが好ましい。
 <48>さらに、前記レンズユニットは、さらに、前記情報処理装置に接続されたカメラまたは前記カメラが内蔵された情報処理装置に装着するために、該レンズユニットを固定するためのクリップと、を備えた、ことが好ましい。
 <49>さらに、前記クリップのアームは、一方の端部が前記レンズホルダーに取り付けられ、もう一方の端部は前記カメラが備えられた情報処理装置の裏側を挿みこむように形成された、ことが好ましい。
 <50>さらに、前記レンズホルダーに取り付けられる前記クリップのアームの一方の端部は、リング状またはU型状の留め具であり、該留め具に該レンズホルダーを通して取り付けられた、ことが好ましい。
 <51>さらに、前記クリップの留め具を固定するために、ネジ状の第2の留め具が前記レンズホルダーを通して取り付けられた、ことが好ましい。
 <52>さらに、前記クリップの留め具と前記アジャスタまたは前記第2の留め具との間にOリングが前記レンズホルダーを通して取り付けられた、ことが好ましい。
 <53>さらに、前記クリップは、前記レンズホルダー、前記レンズカバー、または前記アジャスタの少なくともいずれかと一体成型された、ことが好ましい。
 <54>さらに、前記レンズホルダーにはネジ山が設けられており、前記台座、前記レンズカバー、前記第2の留め具、前記クリップ、または前記アジャスタの少なくとも該アジャスタはネジで脱着可能である、ことが好ましい。
 <55>さらに、前記クリップは、前記情報処理装置の裏側を挿みこんで、前記レンズユニットを上向きに該情報処理装置を水平面に載置した場合、該クリップのアームが水平面に所定の領域が接面するよう設計された、ことが好ましい。
 <56>さらに、前記カメラは前記情報処理装置に内蔵されている、ことが好ましい。
 <57>さらに、前記カメラは有線または無線で前記情報処理装置と接続されており、該カメラで撮影された前記所定の被写体の画像および/または前記解析手段で復号化した情報コードを前記情報処理装置に送信する、ことが好ましい。
 <58>さらに、前記カメラは前記解析手段を含む、ことが好ましい。
 <59>さらに、前記所定の被写体は、情報コードが符号化されたドットパターンが印刷された印刷媒体であって、前記解析手段は、前記カメラで撮影された前記ドットパターンから情報コードを復号化する、ことが好ましい。
 <60>さらに、前記レンズホルダーは前記レンズと一体成型された、ことが好ましい。
 <61>さらに、前記レンズユニットは、さらに、前記所定に被写体に概ね均一に照射されるように前記レンズホルダーの外周壁の所定位置に設置された光源と、前記光源に対し電力を供給する電源と、を備えた、ことが好ましい。
 <62>さらに、前記電源は、前記情報処理装置から供給される、ことが好ましい。
 <63>さらに、前記情報処理装置は、前記カメラで撮影された前記パターンからIDコードを復号化して前記所定の被写体の撮影画像を対応付けて記録する記憶手段を備えた、ことが好ましい。
 <64>さらに、前記情報処理装置は、前記記憶手段に記録された復号化されたIDコードと共に、該IDコードと対応付けられた前記所定の被写体の撮影画像をサーバに送信する情報処理手段を備えた、ことが好ましい。
 <65>さらに、前記所定の被写体は、人体の部位である、ことが好ましい。
 <66>さらに、前記情報処理装置は、スマートフォン、携帯電話、カメラ付きPC、デジカメである、ことが好ましい。
 <67>本願発明は、レンズユニットを前記情報処理装置のカメラの撮影口を囲むように装着して、該情報処理装置に備えた解析手段により、所定の被写体と共にIDコードが符号化されたパターンを該カメラで撮影した画像から該IDコードを復号化するか、該所定の被写体と共に復号化した該IDコードを第2の情報処理装置に送信する、プログラムである。
 <68>さらに、前記解析手段は、前記所定の被写体を撮影した画像を画像処理して所定の情報をさらに取得し、少なくとも該所定の情報を前記情報処理装置で出力するか、および/または前記IDコードと共に該所定の情報を第2の情報処理装置に送信する、ことが好ましい。
 <69>本願発明は、レンズユニットを前記情報処理装置のカメラの撮影口を囲むように装着して、所定の被写体と共にIDコードが符号化されたパターンを該カメラで撮影した画像が送信された第2の情報処理装置に備えた解析手段により、該画像から該IDコードを復号化する、プログラムである。
 <70>さらに、前記解析手段は、前記所定の被写体を撮影した画像を画像処理して所定の情報をさらに取得する、ことが好ましい。
 <71>本願発明は、レンズユニットを前記情報処理装置のカメラの撮影口を囲むように装着して、該情報処理装置に備えた解析手段により、前記情報コードが符号化されたドットパターンが印刷された前記所定の媒体を該カメラで撮影した画像から、該情報コードに復号化するか、および/または復号化した該情報コードに対応する情報を出力するか、および/または復号化した該情報コードおよび/または復号化した該情報コードに対応する情報を第2の情報処理装置に送信する、プログラムである。
 <72>本願発明は、レンズユニットを前記情報処理装置のカメラの撮影口を囲むように装着して、該情報処理装置に備えた解析手段により、情報コードが符号化されたドットパターンが印刷された前記所定の媒体と共にIDコードが符号化されたパターンを該カメラで撮影した画像から、該情報コードと該IDコードに復号化するか、および/または復号化した該情報コードと該IDコードに対応する情報を出力するか、および/または復号化した情報コードと該IDコード、および/または復号化した情報コードと該IDコードに対応した情報を第2の情報処理装置に送信する、プログラムである。
 <73>本願発明は、レンズユニットを備え、プログラムを搭載した、カメラ付き情報処理装置である。
 <74>本願発明は、プログラムを搭載した、第2の情報処理装置である。
 <75>本願発明は、レンズユニットを備えたカメラ付き情報処理装置である。
 <76>本願発明は、カメラ付き情報処理装置と、該情報処理装置と通信する第2の情報処理装置と、を備えた情報処理システムである。
 本件発明によれば、スマートフォン、携帯電話、PC等の付属する一般撮影を主目的としたカメラに、レンズユニットを着脱自在に装着することで、情報コードの1つであるIDコードが符号化されたパターンを、レンズユニットを介してカメラで撮影し、当該カメラを備えた情報処理装置で復号化できるようにすることできる。
 また、本件発明によれば、レンズユニットが備えたレンズからカメラまでの距離を適正に調節することができる。
 また、本件発明によれば、カメラで撮影する所定の被写体が、情報コードが符号化されたドットパターンが印刷された印刷媒体である場合にも、当該印刷媒体の撮影に好適なレンズユニットを提供できる。
 また、本件発明によれば、カメラで撮影する所定の被写体が、人体の例えば肌、頭皮、毛、爪、目等の部位である場合にも、当該人体の部位の撮影に好適なレンズユニットを提供できる。
本件発明の基本的な実施形態を示す図(その1)である。 本件発明の基本的な実施形態を示す図(その2)である。 本件発明の印刷媒体の第1の実施形態を示す図である。 本件発明の印刷媒体の第2の実施形態を示す図である。 本件発明の印刷媒体の第3の実施形態を示す図である。 本件発明のアイコンの実施形態を示す図である。 本件発明における画像処理の方法を示す図である。 本件発明におけるCMYの配置の具体例を示す図(その1)である。 本件発明におけるCMYの配置の具体例を示す図(その2)である。 本件発明における画像処理の方法を示す図である。 本件発明における画像処理の方法を示す図である。 本件発明における画像処理の方法を示す図である。 本件発明における画像処理の方法を示す図である。 本件発明における画像処理の方法を示す図である。 本件発明における画像処理の方法を示す図である。 本件発明における画像処理の方法を示す図である。 本件発明のドットパターン付き画像の印刷システムの実施形態を示す図である。 本件発明のレンズユニットを示す図である。 本件発明のレンズユニットを示す図である。 本件発明のレンズユニットを示す図である。 本件発明のレンズユニットを示す図である。 本件発明のレンズユニットを示す図である。 本件発明のレンズユニットに付加されるIDコードを示す図である。 本件発明のレンズユニットに付加される模様を示す図である。 本件発明のレンズユニットに付加される模様を示す図である。 本件発明の照射機能付きレンズユニットを示す図である。 本件発明の照射機能付きレンズユニットを示す図である。 本件発明の照射機能付きレンズユニットを示す図である。 本件発明の照射機能付きレンズユニットを示す図である。 携帯電話のカメラに用いられているフィルタ等の波長と透過率の関係について示す図である。 本件発明のレンズユニットをタブレット型PCに取り付けた状態を示す図である。 本件発明のレンズユニットをタブレット型PCに取り付けた状態を示す図である。 本件発明のレンズユニットをタブレット型PCに取り付けた状態を示す図である。 本件発明のレンズユニットを用いて、カードに設けられたドットパターンを読み取ることについて説明する図である。 本件発明のレンズユニットを用いて、フィギュアに設けられたドットパターンを読み取ることについて説明する図である。 本件発明のレンズユニットが設けられたフィギュアを示す図である。 スマートフォンにレンズユニットを取り付けて、カードに設けられたドットパターンを読み取ることについて説明する図である。 スマートフォンにレンズユニットを取り付けて、カードに設けられたドットパターンを読み取ることについて説明する図である。 本件発明のサークルパターンを示す図である。 本件発明のサークルパターンを示す図である。 本件発明のサークルパターンを示す図である。 本件発明のサークルパターンを示す図である。 本件発明のサークルパターンにおけるコード値の割り当てを示す表である。 本件発明のサークルパターンを示す図である。 本件発明のサークルパターンを示す図である。 本件発明のサークルパターンにおけるコード値の割り当てを示す表である。 本件発明のサークルパターンを示す図である。 本件発明のサークルパターンを示す図である。 本件発明のサークルパターンを示す図である。 本件発明のサークルパターンを示す図である。 本件発明のIDコードが印刷されたレンズユニットを示す図である。 本件発明のクリップ付きレンズユニットを示す図である。 本件発明のレンズユニットに装着されるID媒体を示す図である。 本件発明のレンズユニットに設けられたアジャスタについて示す図である。 本件発明のレンズユニットに設けられたアジャスタおよび滑り止めについて示す図である。 本件発明のレンズユニットに設けられたアジャスタおよび滑り止めについて示す図である。 本件発明のレンズユニットに設けられたアジャスタについて示す図である。 本件発明のレンズユニットに設けられたクリップについて示す図である。 本件発明のレンズユニットの各構成について示す図である。 本件発明のレンズユニットの各構成について示す図である。 本件発明の台座が設けられたレンズユニットを示す図である。 本件発明のレンズユニットの使用態様を示す図である。 本件発明のレンズユニット周辺右下から光が強く入射された図である。 本件発明のレンズユニットのID媒体のサークルドットパターンある。 本件発明のレンズユニットのサークルドットパターンの情報ドットの数値情報の定義である。 色補正に用いるID媒体(色補正媒体)について示す図である。 色補正に用いるID媒体(色補正媒体)について示す図である。 色補正において、補正値を求めるために用いるグラフである。 ID媒体(色補正媒体)に設けられる計測点について説明する図である。
 本発明を実施するための形態を説明する。
 <ドットパターン>
本発明において「ドットパターン」とは、複数のドットの配置アルゴリズムにより情報コードを符号化したものである。
 ドットパターン101は本発明のいずれの実施形態においても、K成分により印刷される。すなわち、印刷媒体上にはドットパターン101のみがK成分により印刷される。
 より好ましい実施形態においては、ドットパターン101はK成分の黒色により印刷される。ただし、ここでいう黒色とは後述するドットパターン101の読取の際に黒色である、とCPUが認識できる範囲のものであれば足りる(すなわち明度の低いグレー等であってもよい)。
 また、ドットパターン101はK成分を用いずに、CMY成分を用いた黒色(いわゆるコンポジットブラック)により印刷されてもよい。なお、ドットパターン101をCMY成分の内のいずれかの1成分を高階調で印刷し、グラフィックは他の成分の内の1成分で印刷してもよい。その場合は、ドットパターン印刷に選択した成分または、当該成分とグラフィック印刷用に選択した成分の合成色を、ドットとして読み取ればよい。さらに、グラフィックのイメージ領域を複数の部分領域で構成して、それらの部分領域の成分は、ドットパターン印刷に選択した1成分以外の2成分の内、いずれかの1成分を使用し、部分イメージ領域毎にその成分が異なっても構わない。つまり、ドットパターン印刷に選択した1成分を含む成分だけを読み取れば、ドットパターンを読み取ることができる。なお、ドットパターン印刷に選択した1成分または、3成分が混合した黒でドットの認識を行う場合は、他の成分はドットパターン印刷に選択した1成分以外の2成分をどのように使用してもよい。
 ドットパターンによる情報コードの符号化アルゴリズムについては、グリッドマーク社のGrid Onput(登録商標)、Anoto社のアノトパターン等の、周知のアルゴリズムを用いることができる。
 ドットパターン101の符号化アルゴリズム自体は、本発明のように可視光により読み取る場合と、周知技術のように赤外線により読み取る場合と、で共通する。
 ドットパターン101はこの他にも、視認できないか、視認できたとしても単なる模様として認識される程度のものであれば、どのようなドットパターンであっても使用することができる。
 また、ドットパターン101は座標値を定義することにより、その読み取り位置により異なる情報コードを符号化することができる。
 <イメージ領域>  
本発明において「イメージ領域」とは、図形や文字、絵文字、画像、写真が印刷された領域を意味する。
 イメージ領域102の図形、文字はC成分、M成分、Y成分、CM成分、MY成分、CY成分、のいずれかの成分により印刷される。
 「CM成分」とはC成分とM成分の重畳を、「MY成分」とはM成分とY成分の重畳を、「CY成分」とはC成分とY成分の重畳を、それぞれ意味する。
 また、イメージ領域102中には、C成分、M成分、Y成分、CM成分、MY成分、CY成分、のいずれかの成分により印刷される部分領域が2以上含まれていてもよい。
 ただし、イメージ領域102中にCMY成分すべてが重畳する部分がある場合、その部分はドットパターン101の読取時に黒色のドットとして誤認識されるおそれがある。したがって、図1および図2に示すようにイメージ領域102はいずれの部分領域においても、CMY成分すべてが重畳する領域を設けないようにする必要がある。
 <印刷媒体>
本発明においては、図3に示すように印刷媒体103の面全体にドットパターン101を印刷するものとしてもよいし、図4に示すようにイメージ領域102にのみドットパターン101を重畳印刷するものとしてもよい。図示しないが、図3においてドットパターン101は印刷媒体103の面全体でなく任意の領域に印刷してもよい。
 また、イメージ領域102にのみドットパターン101を重畳印刷する場合は、図4に示すようにイメージ領域102全体にドットパターン101を重畳印刷するものとしてもよいし、図5に示すようにイメージ領域102の一部にドットパターン101を重畳印刷するものとしてもよい。
 また、図6に示すように印刷媒体103の表面に施されたシンボルやロゴ(デザイン化された文字によるロゴに限らず、いわゆる標準文字によるロゴも含む)にドットパターン101を重畳印刷することもできる。
 このように、媒体表面に施されたシンボルやロゴにドットパターンを重畳印刷したものを本発明においては「アイコン」という。
 <光学的読み取り>
本発明のドットパターン101から情報を復号する際には、カメラによりドットパターン101をイメージ領域102ごと撮影し、CPUにより画像解析をして、撮影した画像から黒色の部分をドットパターン101として抽出する。前述のとおり、イメージ領域102において黒色が表現されることはないため、ドットパターン101を容易に抽出することができる。なお、ドットパターン101をCMY成分の内のいずれかの1成分を高階調で印刷し、イメージ領域102は他の成分で印刷してもよい。その場合は、ドットパターン印刷に選択した成分または、当該成分とイメージ領域102の印刷用に選択した成分の合成色(インクの混合色)を、ドットパターン101として抽出する。当然ながら、イメージ領域102において当該成分とイメージ領域102の印刷用に選択した成分の合成色が表現されることはないため、ドットパターン101を容易に抽出することができる。
 CPUは当該ドットパターン101により符号化された情報コードを、ドットパターンによる情報コードの復号化アルゴリズムに従って復号化する。
 <変換方法>
イメージ領域102はCMY成分のうち、C成分、M成分、Y成分、CM成分、MY成分、CY成分、のいずれかの成分により印刷されるように、予めデザインするか、CMY成分により表現された元の画像をC成分、M成分、Y成分、CM成分、MY成分、CY成分、のいずれかの成分により印刷されるように変換する画像処理を施す必要がある。
 そこで、通常のCMY値により表現された画像(イラストや写真等)を、C成分、M成分、Y成分、CM成分、MY成分、CY成分、のいずれかの成分により印刷されるイメージ領域102に変換する方法を説明する。
 <第一の変換方法>
通常のCMY値により表現された画像を入力し、部分領域ごとのCMY値を算出する。
 そして、部分領域ごとのC成分、M成分、Y成分の値を比較して、最も値の低い成分を無くすことにより、C成分、M成分、Y成分、CM成分、MY成分、CY成分、のいずれかの成分により印刷されるイメージ領域102に変換にする。
 ここで、「成分を無くす」ことは、当該成分の値をゼロとした印刷データを生成することと、当該成分を印刷しないように信号として印刷手段に送信することと、当該成分を印刷する信号を印刷手段に送信しないこと、の少なくともいずれかを意味する。
 <第二の変換方法>
第一の変換方法の変形例として、Y成分が色に与える影響が少ないことに着目した変換方法を説明する。
 通常のCMY値により表現された画像を入力し、部分領域ごとのCMY値を算出する。
 次に、部分領域ごとのC成分、M成分、Y成分の値を比較し、下記の場合分けにより入力した画像を、C成分、M成分、Y成分、CM成分、MY成分、CY成分、のいずれかの成分により印刷されるイメージ領域102に部分領域毎に変換にする。
(1)C≧Y≧Mである場合、
(1-1)かつ、Y≦αMの場合、Y成分を無くす。
(1-2)かつ、Y>αMの場合、M成分を無くす。
(2)M≧Y≧Cである場合、
(2-1)かつ、Y≦αCの場合、Y成分を無くす。
(2-2)かつ、Y>αCの場合、C成分を無くす。
(3)C>M>Yである場合、Y成分を無くす。
(4)M>C>Yである場合、Y成分を無くす。
(5)Y>C>Mである場合、
(5-1)かつ、Y≦αMの場合、Y成分を無くす。
(5-2)かつ、Y>αMの場合、M成分を無くす。
(6)Y>M>Cである場合、
(6-1)かつ、Y≦αCの場合、Y成分を無くす。
(6-2)かつ、Y>αCの場合、C成分を無くす。
 なお、上記で示した「α」は任意の係数であり、好ましくは、第二の変換方法はグラフィカルユーザインタフェースにおいて行えるものとし、光学読み取り手段で実際にドットを読みながら、設計者が係数αを調節できるものとする。もしくは、光学読み取り手段の撮像解像度や色階調、および/または印刷物の印刷精度、再現色階調をシミュレーションし、最適な「α」を定めればよい。
 <第三の変換方法>
第三の変換方法を説明する。
 第三の変換方法では通常のCMY値により表現された画像を、テーブルを用いて変換する。
 変換の前提として、表1に示すような元の画像のCMY値の比率に対応した変換後のCMY値の比率を記述した比率変換テーブルを作成する。この比率変換テーブルはコンピュータやプリンタのメモリに格納しておき、変換時に参照できるようにしておく。当然ながら変換後のCMY値の比率は、C、M、Yの少なくとも1つの値がゼロになるように記述しておく必要がある。
Figure JPOXMLDOC01-appb-T000001
 変換をする際には、通常のCMY値により表現された画像を入力し、部分領域ごとのCMY値を算出する。次に、比率変換テーブルを参照して、当該通常CMY値の比率に対応したCMY値の比率に変換して、当該部分にマッピングする。比率変換テーブルは、光学読み取り手段の撮像解像度や色階調、および/または印刷物の印刷精度、再現色階調をシミュレーションして予め作成する。または、実際に様々な条件で印刷された試験媒体を計測して、光学読み取り手段の性能も前提条件に加え、予め比率変換テーブルを作成する。
 <第四の変換方法>
第四の変換方法は、通常のCMY成分により表現された画像(イラストや写真等)を、任意の色調に変換することにより、C成分、M成分、Y成分、CM成分、MY成分、CY成分、のいずれかの成分により印刷されるイメージ領域に変換する方法である。
 <1色の色調に変換する場合>
1色の色調に変換する場合は、通常のCMY成分により表現された画像を入力し、当該画像の部分ごとの明度を算出し、当該部分ごとの明度と対応する値のC成分(またはM成分、Y成分)をマッピングすることにより、画像をC成分のみにより印刷されるイメージ領域102に変換にする。
 他の1色の色調に変換する方法としては、CMY成分により表現された画像を一旦、グレースケールに変換して、その明度で任意の色調でマッピングしてもよい。マッピングする際、グレースケールの値をK、任意の色調のスケールをCとして、C=F(K)とする、関数Fを使用してもよい。なお、画像からグレースケールへの変換方法は、中間値法、加重平均法、単純平均法、Gチャンネル法などがあり、対象の画像を表現できる最適な方法を選択すればよい。
 中間値法は全ての画素のR、G、B値のうちの最大値と最小値を加算して2で除した値とする方法、加重平均法は全ての画素のR、G、B値に重み付けをして、それらの平均値とする方法、単純平均法はR、G、B値の平均値とする方法、Gチャンネル法はR、G、B値のうちのGの値とする方法である。
 算出した明度と変換後の値との関係は、色調変換テーブルにより予め記述しておいてもよい。
 <2色の色調に変換する場合>
通常のCMY成分により表現された画像を入力し、選択した成分以外の成分を無くす。例えば、CM2色の色調に変換する場合は、Y成分を無くすことにより、C成分、M成分、CM成分、のいずれかの成分により印刷されるイメージ領域102に変換される。
 ここで、画像の部分ごとのC成分の値およびM成分の値に、無くしたY成分の値に所定の係数βを乗じた値を加算してもよい。
 また、C成分の値とM成分の値とで、異なる係数β1、β2をY成分の値に乗じた値を加算するものとしてもよい。
 好ましくは、第四の変換方法はグラフィカルユーザインタフェースにおいて行えるものとし、設計者が係数β、β1、β2を調節できるものとする。
 <第五の変換方法>
第五の変換方法では、変換後の画像の色が元の画像の色とできるだけ同じに見えるように変換する。
 まず、通常のCMY成分により表現された画像を入力し、当該画像を所定領域1021に分割し、その所定領域1021ごとのC値、M値、Y値を算出する。
 なお、所定領域1021ごとの成分値からCMY成分すべてが重畳される領域を減じたC値、M値、Y値を算出するのが望ましい。
 次に各所定領域1021を、CMY成分のうち、C成分のみにより印刷されるC成分領域、M成分のみにより印刷されるM成分領域、Y成分のみにより印刷されるY成分領域、のそれぞれの成分領域1022に分割し、それぞれの前記成分領域1022が備える成分の値に、それぞれの前記成分領域1022が備える成分のC値、M値、Y値に該成分領域1022の面積の値を乗じた合計値と、前記所定領域1021のC値、M値、Y値に当該所定領域1021の面積の値を乗じた合計値と、が等しくなるように、それぞれの前記成分領域1022のC値、M値、Y値をマッピングする。
 また、所定領域1021を、CMY成分のうち、C成分のみにより印刷されるC成分領域、MY成分のみにより印刷されるMY成分領域、のそれぞれの成分領域1022に分割するものとしてもよいし、または、M成分のみにより印刷されるM成分領域、CY成分のみにより印刷されるCY成分領域のそれぞれの成分領域1022に分割するものとしてもよい。
 Y成分は黒(ドット)との識別に与える影響が少ないため、C成分とMY成分、またはM成分とCY成分に分割することがより望ましい。どちらを選択するかは、C成分がM成分より大きい場合、C成分とMY成分に分割し、C成分がM成分より小さい場合、M成分とCY成分に分割するのが望ましい。
 このように画像を変換しても、図7に示すように人間の目には細かく分割された成分領域1022ごとの色が混ざり合って(これを「ビューミックス」という)、元の所定領域1021の色(もしくはその近似色)として認識されるため、元の画像とほぼ同様の画像として視認させることができる。なお、一般的な印刷方式として網点方式とFMスクリーン方式がある。網点方式では、C、M、Yの成分を所定の規則で配置された位置に各成分色のドットを印刷し、その成分の階調をドットの大きさ(網点量)で表現する。また、網点量が小さくても所定の規則によりモアレを防止するために各成分が重なる個所が発生する。網点量が大きいと各成分が重なり、その重複部分は色が混ざり合って黒色に近いこげ茶色(コンポジットブラック)となる。一方、FMスクリーン方式では、印刷領域が均一に分割された所定領域内に整列された印刷点に均一な大きさのドットが配置される。各成分の階調は、所定領域の印刷点に配置されるドットの数によって定まる。明度が低ければ、K成分のドットの数は多くなる。彩度が高ければC、M、Y成分のドットの数は多くなり、K成分のドットの数は少なくなる。網点方式とFMスクリーン方式のいずれであっても、ビューミックスを利用している。ただし、FMスクリーン方式でC、M、Y成分だけで印刷すれば黒色は発生しないが、網点方式ではC、M、Y成分だけで印刷してもコンポジットブラックが発生する。従って、本発明は、C、M、Y成分を含む領域において、網点方式でもコンポジットブラックが発生しないように変換する発明である。さらに、コンポジットブラックを発生させて本来の色を表現するため、コンポジットブラックの代わりにドットパターンの黒色を用いる。その際、ドットパターンのドットの大きさを可変にして、発生するコンポジットブラックと同程度の色彩影響を有するようにドットの大きさを制御してドットパターンを生成すればよい。すなわち、単位面積当たりのドットの面積とコンポジットブラックの面積と同程度になるようドットの大きさを決定すればよい。その際、コンポジットブラックを発生させないように所定領域にC、M、Y成分を配置するが、コンポジットブラックの面積分だけ、各C、M、Y成分から減じる必要がある。画像変換してコンポジットブラックが発生しないような場合は、色彩が人の目に殆ど影響ないようなドットの大きさにすればよい。
 すなわち、ドットを認識できる、最少の大きさを有する第一のドットおよび最大の大きさを有する第二のドットの合計面積と、部分領域のうちCMY成分すべてが重畳される領域の合計面積と、を比較する。CMY成分すべてが重畳される領域の合計面積が、第一のドットの合計面積より小さい場合には、部分領域に印刷されるドットパターンを第一のドットとする。CMY成分すべてが重畳される領域の合計面積が、第二のドットの合計面積より大きい場合には、部分領域に印刷されるドットパターンを第二のドットとする。CMY成分すべてが重畳される領域の合計面積が、第一のドットの合計面積より大きく、第二のドットの合計面積より小さい場合には、部分領域に印刷されるドットパターンのドットの合計面積と、CMY成分すべてが重畳される領域の合計面積と、が等しくなるような大きさのドットとする。
 この場合CMY成分すべてが重畳される領域の合計面積が、第一のドットの合計面積より小さいか、または第二のドットの合計面積より大きい場合には、所定の範囲でドットパターンのドット間隔の大きさを制御して、第一のドットの合計面積より大きく、第二のドットの合計面積より小さくし、部分領域に印刷されるドットパターンのドットの合計面積と、該CMY成分すべてが重畳される領域の合計面積と、が等しくなるような大きさのドットとする。
 ただし、ドットの大きさは、光学読取手段により認識できる大きさの範囲でなければならない。
 なお、図7の所定領域1021は矩形であるが、任意の形状でも当然構わない。
 図8および9は、図7の所定領域1021の具体例を示す図である。
 図8(a)は、ビューミックスにより鮮明な画像を提供する液晶ディスプレイのRGBと同様な配置法則で所定領域1021の形状を矩形としたものである。(b)は、境界において同色が隣り合わないように所定領域1021の形状を六角形としたものである。図8(a)および(b)は、境界において同色が隣り合わないように所定領域1021の形状を三角形としたものである。
 このように、所定領域1021は、種々の形状とすることができる。また、図9に示すように、同じ形状であっても、C、M、Yの各ピクセルの形状を任意に設定することができる。
 人が所定の印刷物を視認するのに適正な位置または所定の位置において、所定の印刷領域において分割して印刷されたC、M、Yの成分または、C、M、Yの成分とドットが、混ざって所定の色に見えるビューミックスが適正に生じるように、成分分割・マッピングする工程をビューミックス工程という。視点位置は、印刷媒体や対象とするグラフィックの用途・大きさ・形状などによって異なる。ハガキなど比較的小さな印刷媒体では、20~40cm前後離れて見る際に、ビューミックスが生じ、ポスターなどの大型の印刷媒体では、1m以上でビューミックスが生じるよう、所定の印刷領域を定める。すなわち予め視点位置を概ね定めることによって適正な所定領域を定めればよい。
 その一方で、カメラを媒体に近づけても、離れて撮影しても、情報処理装置のフレームバッファ(撮像画像データが記録される一時記憶媒体)に記録された画像データにおいて本来のドットパターン101の配置が適正に認識できる解像度であればよい。何らかの光源(自然光、人工光、間接光)により照射され印刷面より各成分の反射光をカメラが撮像することから、光が合成されてコンポジットブラックが発生することはないため、ドットパターン101をイメージ領域102と区別して撮影することができる。つまり、カメラの解像度が低い場合でもCMY成分とインクが乗っていない媒体面の色(白色の紙であれば白色)により媒体面からの反射光が混ざってカメラの素子に撮像されるが、インクが混ざって黒っぽく(コンポジットブラック)なるのとは異なり、単位面積において光が多く混ざることにより明度は高くなり、ドットパターン101をイメージ領域102と区別して撮影することができる。
 すなわち、本願の発明者はドットを認識できない人間の目と、ドットを認識できるカメラの視認位置と撮影位置における色の見え方を利用して、ドットパターンの重畳印刷と併存できる印刷技術および可視光によるドットパターン読み取り技術を開発したものである。
 本願発明のその他の実施形態について説明する。
 図10に示すように、網点印刷で、CMYでグラフィックを表現した場合は図10(a)のように、C、M、Yが配置されて印刷される。なお、網点の形状は丸またはその他の形状でもよい。通常ドットは黒色で図10(b)のように配置されるが、グラフィックと重畳印刷すると図10(c)のように印刷される。
 図11に示すように、網点で印刷された場合は、図11(a)のように、C、M、Yが重なった領域はインクが混じり、黒色に近い濃いこげ茶色となる。撮像した(a)の画像からC、M、Y成分だけを画像処理により取り除くと図11(b)のようにC、M、Yが重なった領域の黒色に近い濃いこげ茶色の画像となる。黒色のドットと重畳印刷した場合は、図11(c)のような画像となり、この画像からドットだけを2値化して抽出することは困難になる。なお、印刷されインクが混じり合い黒色に近い濃いこげ茶色の領域が、ドットの大きさと比較して十分小さく(撮像画像で少なくとも面積が1/4程度以下)ドットと判別できる場合のC、M、Y成分の網点量であればよい。なお、ドットの大きさ(直径)の少なくとも1/2程度以下のC、M、Yの各網点量(網点の直径)で且つ、各網点量が50%未満となるようグラフィックを表現すればよい。各網点量が50%未満であればインクが混じり合い黒色に近い濃いこげ茶色の領域がドットの大きさ(面積)の少なくとも1/4程度以下となり、ドットを判別できる。
 図12に示すように、網点印刷で、CMYKでグラフィックを表現しドットを重畳印刷した場合は図12(a)のように、C、M、Y、Kが配置されて、ドットが黒色で重畳印刷される。撮像した図12(a)の画像からC、M、Y成分だけを画像処理により取り除くと図12(b)のようにC、M、Yが重なった領域の黒色に近い濃いこげ茶色とKの黒色の画像となり、この画像からドットだけを2値化して抽出することは困難になる。なお、印刷されインクが混じり合い黒色に近い濃いこげ茶色の領域とKの黒色領域が、ドットの大きさと比較して十分小さく(撮像画像で少なくとも面積が1/4程度以下)ドットと判別できる場合のC、M、Y、K成分の網点量であればよい。
 図13に示すように、網点印刷で、Cだけでグラフィックを表現しドットを重畳印刷した場合は図13(a)のように、Cが配置されて、ドットが黒色で重畳印刷される。画像処理により、ドットの黒色だけを抽出するが、C成分が大きい場合、簡易な画像処理では、ドットと同色で判断されることもあり、簡易な画像処理を用いる場合は、使用するC成分値を所定値以下にするのが望ましい。同様にMだけ、Yだけで印刷した場合が、図13(b)、図13(c)である。ただし、簡易な画像処理でもYの場合は、Y成分が大きくてもドットを判別しやすい。
 図14に示すように網点印刷で、C、Mだけでグラフィックを表現しドットを重畳印刷した場合は図14(a)のように、C、Mが配置されて、ドットが黒色で重畳印刷される。画像処理により、ドットの黒色だけを抽出する。使用する画像処理の方法によって、ドットの判別にはC、Mの成分値を制限するのが望ましい。同様にM、Yだけ、C、Yだけで印刷した場合が、図14(b)、図14(c)であり、使用する画像処理の方法によって、ドットの判別には各成分の成分値を制限するのが望ましい。
 図15は、3つの異なる成分による部分領域を含み、3つの成分が重なった領域(CMY領域)を含む図である。図16(a)は、図15のCMY領域およびその近辺の部分領域の拡大図である。図16(b)は、二値化してC,M,Y成分だけを画像処理により取り除いた図である。CMY領域ではドットを判別できない。CMY領域境界付近では、C、M、Yが重なってインクが混じらないよう配置して印刷すれば、CMY領域以外はドットを判別することができる。なお、CMY領域で、C、M、Yが重なってインクが混じった領域(コンポジットブラック)の大きさがドットの大きさと比較して十分小さければ、比較計算をすることによりドットを判別することができる。
 ただし、ドットとコンポジットブラックが重なった場合、ドットの中心が本来の位置からずれてしまう。そのずれ方が大きいと情報コードが符号化されたドットパターンの配置を適切に認識できなくなる可能性があるので注意する必要がある。なお、画像処理の際に大きさだけではなく、それらの形状からコンポジットブラックを排除してドットの中心を適切に求めればよいことは言うまでもない。
 <印刷システム>
 本発明を利用したドットパターン付き画像の印刷システムについて、図17を用いて説明する。
 サーバ105にはテンプレートとしてのイラストまたは写真が画像データとして格納される。
 この画像データは、CMY成分のうち、C成分、M成分、Y成分、CM成分、MY成分、CY成分、のいずれかの成分により印刷される部分領域を1または複数含み、かつ、CMY成分すべてが重畳される部分を含まないように、予めデザインされるか、または前述の変換方法により画像処理を施されたものである。
 顧客は顧客用端末106を操作してイラストまたは写真を掲載したカタログを閲覧する。
 顧客はカタログの中からイラストまたは写真を1つ選択し、顧客端末106を操作して選択結果をサーバ105に送信してオーダーを発生させる。なお、顧客自ら用意したイラストまたは写真を顧客用端末106からサーバ105に送信してもよい。
 サーバ105は顧客端末106から受信したオーダーを提供者端末107に送信する。
 サービスの提供者は提供者端末107を操作して顧客が選択した画像データにドットパターン101を付加してドットパターン付き画像データを生成し、印刷装置108に送信する。この場合、顧客がカタログから選択した画像データは予めC成分、M成分、Y成分、CM成分、MY成分、CY成分の部分領域に分けてドットが判別できるデータであってもよいし、サーバ105で画像変換してもよい。画像変換されたドットパターン付き画像データは、印刷装置108に送信され印刷される。なお、印刷装置108によっては各成分の配色によって自動的にK成分を付加する場合があり、それらを制御するドライバーを印刷装置108に組み込むか、サーバから信号を送信し制御する必要がある。また、印刷装置108が画像変換機能を有し、元のイラストまたは写真の領域をCMY成分のうち、C成分、M成分、Y成分、CM成分、MY成分、CY成分の部分領域に分けて、ドットパターンをK成分により重畳印刷して、ドットが判別できるドットパターン付き画像である印刷媒体103を出力してもよい。なお、上記の画像変換は本発明で提示された、ドットが判別できるどのような方法であってもよい。
 なお、印刷の際には、部分領域に印刷されるドットパターンにおいて、ドットを認識できる、最少の大きさを有する第一のドットおよび最大の大きさを有する第二のドットの合計面積と、部分領域のうちCMY成分すべてが重畳される領域の合計面積と、を比較してもよい。
 この場合、CMY成分すべてが重畳される領域の合計面積が、第一のドットの合計面積より小さい場合には、部分領域に印刷されるドットパターンを第一のドットとする。CMY成分すべてが重畳される領域の合計面積が、第二のドットの合計面積より大きい場合には、部分領域に印刷されるドットパターンを第二のドットとする。CMY成分すべてが重畳される領域の合計面積が、第一のドットの合計面積より大きく、第二のドットの合計面積より小さい場合には、部分領域に印刷されるドットパターンのドットの合計面積と、CMY成分すべてが重畳される領域の合計面積と、が等しくなるような大きさのドットとする。
 CMY成分すべてが重畳される領域の合計面積が、第一のドットの合計面積より小さいか、または第二のドットの合計面積より大きい場合には、所定の範囲でドットパターンのドット間隔の大きさを制御して、第一のドットの合計面積より大きく、第二のドットの合計面積より小さくし、部分領域に印刷されるドットパターンのドットの合計面積と、該CMY成分すべてが重畳される領域の合計面積と、が等しくなるような大きさのドットとしてもよい。
 さらには、画像情報のCMY成分すべてが重畳される領域の大きさを、ドットパターンを構成するドットの大きさと比較して認識できる程度のCMY成分の網点量に減じて変換し、第一のドットおよび第二のドットの合計面積と、CMY成分の網点量まで減じた網点量の差分の合計面積と、を比較してもよい。
 この場合、CMY成分の網点量まで減じた網点量の差分の合計面積が、第一のドットの合計面積より小さい場合には、CMY成分すべてが重畳される領域のドットパターンを第一のドットとする。CMY成分の網点量まで減じた網点量の差分の合計面積が、第二のドットの合計面積より大きい場合には、該CMY成分すべてが重畳される領域のドットパターンを第二のドットとする。CMY成分の網点量まで減じた網点量の差分の合計面積が、第一のドットの合計面積より大きく、第二のドットの合計面積より小さい場合には、CMY成分すべてが重畳される領域のドットパターンのドットの合計面積と、CMY成分の網点量まで減じた網点量の差分の合計面積と、が等しくなるような大きさのドットとする。
 CMY成分の網点量まで減じた網点量の差分の合計面積が、第一のドットの合計面積より小さいか、または第二のドットの合計面積より大きい場合には、所定の範囲でドットパターンのドット間隔の大きさを制御して、第一のドットの合計面積より大きく、第二のドットの合計面積より小さくし、CMY成分すべてが重畳される領域のドットパターンのドットの合計面積と、CMY成分の網点量まで減じた網点量の差分の合計面積と、が等しくなるような大きさのドットとしてもよい。
 従来、赤外線でのみ読み取り可能なインクを用いてドットパターンを印刷していた。このため、赤外線での撮影を禁じるための赤外線を遮断するフィルタが用いられている携帯電話等のカメラでは、ドットコードを読み取ることができず、専用のスキャナを用いてドットパターンを読み取る必要があった。
 本発明では、可視光で読み取り可能なドットパターンを実現した。そのため、携帯電話、スマートフォン、ウェブカメラ、デジタルカメラ等、通常のカメラでドットパターンを読み取ることが可能となる。これにより、さらに簡易かつ広範囲にドットコードを利用することが可能となる。

<レンズユニットを使用した実施例>
 図18~38は、ドットパターン読み取り用のレンズユニット200を用いて、可視光により読み取り可能な、コード情報を符号化したドットパターンを撮影する場合について説明する図である。
 本実施例で用いるドットパターン読み取り用のレンズユニット200は、スマートフォン、タブレットPC、カメラ付き携帯電話(以下「スマートフォン等」)等の情報処理装置に装着して使用することを想定したものである。なお、コード情報は、コード値、または座標値、またはコード値および座標値を言う。
 しかしながら、このレンズユニット200を通してカメラで撮影された画像データより、情報コードが符号化されたドットパターンを読み取り、そのパターンを情報コードに復号化する読み取り手段と情報コードを送信または対応する情報を出力する情報処理手段を備えた情報処理装置であれば、どのようなものであっても、カメラに装着して使用可能である。レンズユニット200は、カメラの撮影口を囲むように装着する下部開口部と印刷媒体が接面される上部開口部を両端に備える筒状のレンズホルダー201とレンズ202を備えている。なお、レンズユニット200を通してカメラでドットパターンを撮影する際に、上部開口部に接面されたドットパターンが印刷された印刷媒体が被写界深度内となるように、筒状のレンズホルダー201内部の所定位置にレンズ202を備えるよう配置・設計されている。
 一方、スマートフォン等は消費者が使用することを前提に人物などの対象物を赤外線領域で撮影できないように、700程度以上の一部可視光を含む赤外線波長を遮断するフィルタが装着されている。
 スマートフォン等のカメラで撮影をする場合、多くの場合極小の被写体に接近(1~2cm前後)してピントを合わせて拡大して撮影するように設計されていないため、被写体から一定距離離して撮影する必要がある。そのため、QRコード等の二次元コードをスマートフォン等で撮影するときでさえ、手がぶれるなどして瞬時にピントを合わせるのが難しく拡大倍率も低い。さらに、オートフォーカスでドットにピントを合わせる際、比較的模様の大きいQRコード等の二次元コードと比較してあまりにドットが極小であるために、搭載されたオートフォーカスが作動せずピントが合わない場合が多い。仮にピントが合って撮影されたとしても、撮影解像度の限界から極小のドットからドットコードを解析できるだけの精度でドットパターンを読み取ることができない。従って、スマートフォン等のカメラでは、極小のドットパターンを読み取ることが難しいという問題があった。
 しかし、レンズユニット200を用いることにより、レンズユニット200と印刷媒体との接面でピントが合うことと、被写体のドットパターンを拡大して撮影することが可能となり、ドットコードが解析可能な解像度でドットパターンを取り込むことができる。これにより、通常のスマートフォン等でドットパターンを読み取ることが可能になった。なお、被写界深度の大きいレンズユニット200を使用することにより、印刷媒体面と接面しなくてもドットパターンを取り込むことができる。さらに、被写界深度の大きい望遠レンズユニットを使用することにより、離れた位置にあるドットパターン付き印刷媒体を撮影してドットパターンを取り込むことができる。
 図18~図19は、本実施例で用いるレンズユニット200の図であり、図18は透視図、図19(a)は側面図、(b)は正面図(媒体接面側)、(c)は背面図(レンズユニット200装着側)である。
 レンズユニット200は、上部がテーパ状、下部が円柱状の構造となっている。上部と下部の境界付近には、レンズ202(凸レンズ)が設けられている。また、底面には粘着部材が設けられており、スマートフォン等に装着できる。レンズユニット200の装着側の外周壁内(D)でスマートフォン等のカメラを囲むように取り付ける。レンズユニット200の構造は、装着側の外周壁内(D)でスマートフォン等のカメラを囲むようになっていれば、筒状、円錐上、箱状などどのような形状でも構わない。また、上部開口部または下部開口部の少なくとも一方がテーパ状の形状を呈していてもよい。図示しないが、1枚の凸レンズではなく複数枚レンズや非球面であってもよい。これらにより、レンズの収差を抑え、被写界深度を大きくしピントを合わせ易くすることや、レンズの高さを低くすることもできる。なお、レンズホルダー201およびレンズ202からなるレンズユニット200の材質は撮影する媒体面を明るくするために透明であることが望ましい。
 ただしレンズホルダー201は外部光を確保するためのものであるため、被写体のドットパターンを撮影可能な程度の光量さえ確保できれば必ずしも透明である必要はない(半透明等)。
 また、レンズ202は製造コストの廉価な透明アクリルを用いるのが望ましいが、精度を高めるためガラスを使用してもよい。さらに、レンズホルダー201を透明アクリル、レンズ202をガラスとしてもよい。全て透明アクリルで製造する場合、開口部方向に広がっていれば一体成型も可能でありさらに廉価に製造できる。
 図20は、レンズユニット200の種々の形態について説明する図である。
 レンズユニット200は、下部底面の開口部(下部開口部)がカメラに装着し、上部上端の開口部(上部開口部)が媒体面と接面する。
 携帯電話やスマートフォンでは、下部開口部の外周壁内はカメラを覆う程度(直径1.5cm程度)の大きさが必要であり、タブレットPCでは、直径3~7mm程度でよい。一方、上部開口部は、(a)~(c)のように、種々の大きさが考えられる。
 (a)は、椀状に形成されているレンズユニット200であり、上段の図が正面図(媒体接面側)、中段の図が側面図、下段の図が背面図(レンズ装着側)である。
 椀状の場合は、上部開口部、すなわち媒体側の面積が広くなっている。そのため、後述のように、カードやフィギュアを載置して使用する場合に適している。但し、レンズユニット200の装着側である下部開口部の外周壁内(D)の中央にスマートフォン等のカメラが位置しないと、撮影範囲がずれて媒体面に印刷されたドットパターンを上部開口部(W)の一部の領域でしか撮影されない場合もある。
 (b)は、円柱状に形成されているレンズユニット200であり、上段の図が正面図(媒体接面側)、中段の図が側面図、下段の図が背面図(レンズ装着側)である。製造のための金型も作り易くコストパフォーマンスが高い。
 (c)は、円錐台状に形成されているレンズユニット200であり、上段の図が正面図(媒体接面側)、中段の図が側面図、下段の図が背面図(レンズ装着側)である。
 円錐台状の場合は、上部開口部、すなわち媒体側の面積が狭くなっている。そのため、上部開口部内側から見える、ドットパターンが印刷されている印刷媒体の全領域を確実に撮影するのに適している。すなわち、レンズユニット200の装着側である下部開口部の外周壁内(D)のどこにスマートフォン等のカメラが位置しても、確実に媒体面に印刷されたドットパターンを上部開口部(W)の全領域で撮影できるよう設計されている。このような設計は、レンズの取り付け位置、レンズの焦点距離に起因するものであり、上記(a)、(b)も、(c)ほど容易でないが実現可能である。当然、上部開口部を大きくし撮影領域を大きくすればするほど、広角ぎみのレンズを使用する必要がある。
 なお、上記(a)、(b)、(c)、いずれの実施形態についても、レンズユニット200の上部開口部周辺に点線で示す台座を設け、フィギュアやカードなどを載置し易くしてもよい。
 このように、用途によって、種々の読み取り用レンズユニット200を使い分けることができる。
 図21は、図20(a)~(c)のレンズユニット200の媒体接面側の上部開口部において、開口を設けたレンズカバー203を設置したものである。
 レンズカバー203を設置して、媒体接面側の外周壁内近傍に印刷領域を設け、IDコードやピントを合わせ易くするための模様を印刷する。なお、印刷面は媒体に近いレンズカバー203の媒体接面側がよいが、被写界深度内であれば印刷面が汚れないようレンズ202側でもよい。レンズカバー203にゴミや汚れ、傷が付いて媒体面に印刷されたドットパターンが読みにくくならないように中央部に開口を設け、リング状としている。
 図22は、図20(a)~(c)のレンズユニット200の媒体接面側の上部開口部に透明レンズカバー204を設置したものである。媒体接面側の外周壁内近傍に印刷領域を設け、IDコードやピントを合わせ易くするための模様を印刷する。なお、印刷面は媒体に近い透明レンズカバー204の媒体接面側がよいが、被写界深度内であれば印刷面が汚れないようレンズ側でもよい。さらに、レンズ202にゴミが付着しないように防塵装置としても有効である。なお、透明レンズカバー204にゴミや汚れ、傷が付いて媒体面に印刷されたドットパターンが読みにくくならないようにレンズユニット200の媒体接面側の外周枠より一段レンズ側に落とした箇所に透明レンズカバー204を設けている。
 図23は、レンズユニット200の、媒体接面側にIDコードを付加した図である。(a)、(b)、(c)は、レンズホルダー201の媒体接面側の内壁に切り欠きが設けられている図である。この切り欠きは、所定の規則によって設けられており、IDコードを付加している。
 IDコードとは、レンズユニット200を特定するためのコード情報である。IDコードにコード情報を符号化することにより、ユーザがカメラでドットパターンを撮影したときに、どのレンズユニット200を用いて撮影したのかを識別することが可能となる。スマートフォン等に格納された、ドットパターン読み取り用のソフトウェアは、IDコードが認識できない場合、ソフトウェアを起動しない。IDコードを認識した場合は、読み取ったドットパターンを解析する。これにより、レンズユニット200の偽造や不正使用の防止、撮影画像の品質保証(所定の性能で撮影)、IDコードに対応するソフトウェアの実行などが可能となる。なお、切り欠きは、半円または多角形等の任意の形状、および、任意の大きさを有している。上述の所定の規則に、形状と大きさの組み合わせをさらに加えることにより、より情報コードを増やしたIDコードを符号化することもできる。
 (d)は、レンズユニット200の媒体接面側にレンズカバー203を装着し、上部開口部周辺に回転方向に所定の間隔でドットを配置して、その配置間隔の組み合わせと順番でコードを定義するサークルパターンである。さらに、図示しないが、本発明者によって発明されたストリームドットパターンを回転方向に配置して用いればさらに多くの情報をIDとして使用できる。なお、ストリームドットパターンの詳細は国際公開公報WO2011/007783に開示されている。レンズカバー203は、媒体に印刷されたドットやグラフィックとサークルパターンを判別できる色と素材でなければならない。当然、サークルパターンの撮影には一定の明るさとコントラストが必要であり、サークルパターンが印刷される領域は乳白色のアクリルか白(印刷でもよい)であるのが望ましい。なお、サークルパターンは、円形のドットである必要ではなく、多角形のドット、または線分などの任意の形状と大きさを有する複数のマークで形成され、マークの形状と大きさの組み合わせを所定の規則に加えてIDコードが符号化されたサークルパターンであればよい。さらに、マークに複数の色を使用して組み合わせることにより、さらにIDコードの情報量を増加させることができる。
 図24は、レンズユニット200の媒体接面側にレンズカバー203または透明レンズカバー204を装着し、オートフォーカスでピントを合わせるための模様を印刷した図である。携帯電話やスマートフォンのカメラではドットを撮影する場合、ドットが極小であるためピントを合わせることが難しく、正確にドットパターンを撮影することができない、という問題がある。そこで、レンズユニット200に装着したレンズカバー203または透明レンズカバー204にピントを合わせるための模様を付加する。その模様にピントを合わせてドットを撮影すれば、ドットパターンにもピントが合い撮影することが可能となる。当然、レンズカバー204の印刷媒体接面側またはレンズ側表明が前記上部開口部に接面された前記印刷媒体と共に被写界深度内となるようにピントが合うカメラおよびレンズ202の組み合わせと、適切にレンズ202が配置されなければならない。なお、ドットコードの解析は、レンズカバー203の中央の開口を通して撮影されたドットパターンか、透明レンズカバー204の模様もIDコードも印刷されていない中央部で撮影されたドットパターンを対象とする。レンズカバー203は、IDコードが印刷されている場合はドットとIDコードを判別できる色と素材でなければならない。特に、カメラでIDコードを読み取るよう撮影するには、IDコードには一定の明るさとコントラストが必要であり、IDコードが印刷される領域は乳白色のアクリルか白(印刷でもよい)であるのが望ましい。
 (a)、(c)は、開口が設けられたレンズカバー203、(b)、(d)は、開口が設けられていない透明レンズカバー204である。
 (a)は、開口内周を切り欠き、その外周に同心円状の模様が設けられている。上述のように、切り込みはIDコードとして情報コードを符号化するものである。
 (b)は、同心円状の模様のみが外周に設けられている。同心円状の模様をIDコードとして情報コードを符号化する場合は、例えば、模様を形成している色やその領域の大きさの組み合わせ、順番によって情報コードをIDコードに符号化としてもよい。なお、模様はピントが合えばどのような模様であってもよい。ただし、レンズカバー203または透明レンズカバー204を通してドットパターンやグラフィックが重なって撮像されても、IDコードとして認識されなければならない。
 (c)および(d)は、内周に所定の規則で形成されたサークルパターン、その外周に同心円状の模様が設けられている。上述のように、サークルパターンはIDコードを符号化するものである。レンズカバー203または透明レンズカバー204を通して媒体に印刷されたドットパターンやグラフィックが重なって撮像され、サークルパターンが読み取れるように、(c)のレンズカバー203は乳白色のアクリル、(d)の透明レンズカバー204はIDコードが印刷される領域の下地を白色(印刷でもよい)にするのが望ましい。しかし、乳白色のアクリルであればさらによい。なぜなら、白色の場合は光の透過率が低くなり、模様の印刷領域や印刷媒体面が乳白色のアクリルに比べ若干暗くなる。撮影面はできるだけ明るい方がピントを合わせ易く、ドットとグラフィックも判別し易い。また、アクリルであればマルチインジェクションにより透明部と同時に成形もできてコストパフォーマンスに優れている。なお、成形時にインクを流し込みアクリルに模様を付けてもよい。全面でフォーカス機能が働くカメラでは、周辺でフォーカスしてもピントが合うため、このようにレンズカバー203または透明レンズカバー204の外周に模様を配置できる。
 図25は、中央部でフォーカス機能が働くカメラ用のレンズユニット200に設けられた透明レンズカバー204の中央部にピントを合わせるための透過性のインクで印刷された模様を設けた図である。なお、グラフィック上にドットパターンが重畳印刷された媒体を読み取る場合、透明レンズカバー204を通して読み取ることになり、ドットおよびグラフィックと、ピント合わせのための模様が重なって撮影される。従って、それらが重なった画像からドットだけを抽出しなければならない。例えば、模様が赤(R)の場合、グラフィックがシアン(C)であれば、Cは青(B)と緑(G)を発光しており赤(R)の成分はないため、撮影画像は赤(R)の模様が黒(B)になりドットが黒(B)であればドットを判別できなくなる。一方、模様がシアン(C)の場合、グラフィックが青(B)であれば撮影画像は青(B)、緑であれば緑(G)、黄色(Y)であれば緑(G)、マゼンダ(M)であれば青(B)、シアン(C)または白(W)であればシアン(C)となり、グラフィックが赤(G)であるときだけが撮像画像は黒(B)になりドットが黒(B)であればドットを判別できなくなる。
 従って、ピント合わせのための模様をシアン(C)で描きドットを黒(B)で印刷した場合は、グラフィックには赤(R)を使用すべきでない。すなわち、ドットの色と同色にならないようピント合わせのための模様とグラフィックの色を決定する必要がある。なお、常に、ドットのみが印刷される場合には、ピント合わせのための模様とドットが判別されればよい。また、常に、ドットがグラフィックと重畳印刷される場合は、そのグラフィックでオートフォーカスされピントが合わせられるため、ピント合わせのための模様は必要ない。つまり、ピント合わせのための模様はドットのみが印刷される場合と、グラフィックと重畳印刷される場合が混在する際に必要とされる。なお、模様に使用する色は、色温度が低いためグラフィックに青を使用しても濃い黒にはならない黄色を用いるとよい。
 (a)は、中央部に同心円状の模様、その周辺にサークルパターンが設けられている。透明レンズカバー204はサークルパターンが印刷される領域の下地を白色(印刷でもよい)にしてもよいが、乳白色のアクリルであるのが望ましい。なぜなら、白色の場合は光の透過率が低くなり、模様の印刷領域や印刷媒体面が乳白色のアクリルに比べ若干暗くなる。撮影面はできるだけ明るい方がピントを合わせ易く、ドットとグラフィックも判別し易い。また、アクリルであればマルチインジェクションにより透明部と同時に成形もできてコストパフォーマンスに優れている。なお、成形時にインクを流し込みアクリルに模様を付けてもよい。
 (b)は、中央部に同心円状の模様、レンズホルダー201の媒体接面側の内壁に切り欠きが設けられている図である。この切り欠きは、所定の規則によって設けられており、IDコードが符号化されている。
 (c)は、中央部に同心円状の模様のみが設けられている。同心円状の模様をIDコードとして情報コードを符号化する場合は、例えば、模様を形成している色やその領域の大きさの組み合わせ、順番によって情報コードをIDコードに符号化してもよい。なお、模様はピントが合えばどのような模様であってもよい。ただし、透明レンズカバー204を通してドットパターンやグラフィックが重なって撮影されてもIDコードとして認識されなければならない。
 なお、上記図23~図25で説明したサークルパターンおよび模様は、印刷の他、刻印することにより設けてもよい。刻印された部分は陰影ができ読み取ることができる。ただし、コントラストが低いため認識率は低い。大量生産する場合、刻印は廉価で製造できる。
 図26は、照射機能付きのレンズユニット200について説明した図である。
 レンズユニット200の構造は、図20と同様であるが、上部開口部に接面した印刷媒体面に概ね均一に照射されるようにレンズホルダーの外周壁の所定位置に光源205およびバッテリー206(ボタン電池等)が設けられている。光源は大きさが小さく省電力であるLEDが望ましい。また、LEDはレンズユニット200と共に廉価であるため電源ボタンを設けず、使い捨てとしてもよい。なお、電池格納ケースはどのような形状でもよく、レンズホルダー201の側面に配置してもよいし、導線を延長してレンズホルダー201とバッテリー206と別体にしてもよい。
 (a)は、椀状に形成されているレンズユニット200であり、上段の図が正面図、中段の図が側面図、下段の図が背面図である。
 (b)は、円柱状に形成されているレンズユニット200であり、上段の図が正面図、中段の図が側面図、下段の図が背面図である。
 (c)は、円錐台状に形成されているレンズユニット200であり、上段の図が正面図、中段の図が側面図、下段の図が背面図である。
 なお、同図(a)~(c)では光源205の数は1個であるが、本発明ではこれに限らず、光源205が2個であってもよく、さらに印刷媒体面を均一に照射するため3個以上であってもよい。特に、図29に記載するディフュザー209を設けた場合や拡散発光型LEDを光源205に使用した場合は、光を屈折・拡散させ印刷媒体面を均一に照射できるため、光源205を1個としてもよい。
 図27は、照射機能付きのレンズユニット200の他の形態について説明した図である。
 (a)は、電源ボタン207が設けられていない照射機能付きレンズユニットである。上述のように、光源205をLEDにすれば、極めて省電力であり、レンズユニット200は廉価であるため、電源ボタンを設けずに使い捨てとすることができる。
 (b)は、バッテリー206がレンズホルダー201の外部に設けられている照射機能付きレンズユニットである。レンズユニット200とバッテリー206は、導線により接続されている。これによれば、レンズホルダー201に、バッテリー206を収納するためのスペースを設ける必要が無いため、レンズホルダー201の製造を簡略化することができる。
 図28は、照射機能付きレンズユニットにおいて、レンズカバー204を設置した図である。このレンズカバー204の用途は図22と同様である。なお、開口部を設けたレンズカバー203を設置してもよい。その場合の用途は図23と同様である。
 図29は、照射機能付きレンズユニットの形態を示した図である。なお、媒体面が均一に照射されるよう光源205を配置するのが望ましい。また、光源近傍のレンズホルダー201に光源205より照射された光を屈折・拡散反射させ、上部開口部に接面した印刷媒体面に均一に照射させる部材からなるディフュザー209を設けてもよいし、拡散発光型LEDを光源205に使用してもよい。
 (a)は、照射機能付きレンズユニットにおいて、光源205に白色LED208を用いたものである。ドットを認識できない程度に媒体面が暗くても白色LED208で照射することより媒体面を明るくしてドットコードを読み取ることができる。これにより、(1)周辺環境が暗い場合、(2)レンズホルダー201を光の透過しない色、材質で形成する場合、(3)レンズユニット200をフィギュアなどのオブジェクトに内蔵する場合でも、ドットコードの読み取りが可能となる。なお、レンズユニット200によりドットコードを読み取るプログラムを起動させた際に、スマートフォン等のディスプレイが白く明るくなり、媒体面を照らしてもよい。
 (b)は、同図(a)に透明レンズカバー204を設置したものであり、レンズ側の外周壁内近傍に印刷領域を設け、IDコードやピント合わせ用の模様を印刷する。なお、図25と同様に透過色で中央部に模様を印刷してもよい。
 (c)は、照射機能付きレンズユニットにおいて、透明レンズカバー204を設置し、光源205に所定の波長のIR LED210を用いたものである。透明レンズカバー204にはレンズ202側の外周壁内近傍に印刷領域を設け、IDコードやピント合わせ用の模様を印刷する。透明レンズカバー204の媒体接面側には所定の波長以上の赤外線だけを透過させ他の波長光を遮断するIRフィルタ211を設ける。なお、IDコードやピント合わせ用の模様を設けなければ、IRフィルタ211は透明レンズカバー204からレンズユニット200装着側までのどの位置に設けてもよい。レンズ202の表面にフィルタ加工してもよい。
 IR LED210でグラフィック上にドットパターンが重畳印刷された媒体面を照射すると、赤外線を吸収するインク(カーボンブラック等)でドットを印刷すれば、カメラの撮像画像ではドットの部分のみ黒く撮影されることになり、容易にドットコードを読み取ることができる。なお、同図のIR LED照射機能付きレンズユニットは、スマートフォン等に赤外線遮断フィルタが使用されていない場合か、使用されていても完全に赤外線が遮断されない場合に用いる。
 なお、同図(a)~(c)では光源205の数は2個であるが、本発明ではこれに限らず、性能の高いディフュザー209を設けた場合や拡散発光型LEDを光源205に使用した場合は、光を屈折・拡散させ印刷媒体面を均一に照射できるため、光源205が1個であってもよい。
 図30は、白色LED208と携帯電話やスマートフォン内蔵カメラのフィルタ、赤外線のフィルタ、IR LEDの波長と透過率との関係について説明する図である。
 スマートフォン等のカメラには、赤外線遮断フィルタが設けられている。一方、図26および図29(c)に示す照射機能付きレンズユニットには、IRフィルタ211(可視光遮断フィルタ)が設けられている。赤外線遮断フィルタは、700nm以上の波長をカットする。一方、IRフィルタは、700nm程度以下の波長をカットする。IR LEDで850nm程度の波長の強い赤外光を照射することにより、5%前後透過される赤外線を利用してスマートフォン等のカメラであっても、赤外線を吸収するインクで印刷されたドットパターンを読み取ることができる。
 図31はレンズユニット200をタブレット型PC212のカメラに取り付けた状態を示す正面図および側面図である。
 このように、レンズユニット200は、タブレット型PC212との接触面に塗布された図示しない粘着部材により脱着可能である。もちろん、取り外しできないように、レンズユニット200を完全に接着するか、タブレット型PC212と一体成型にしてもよい。
 なお、同図ではタブレット型PC212のカメラにレンズユニット200を取り付けた例を説明したが、スマートフォン222のカメラ部分に取り付けてもよいことはもちろんである。
 図32、図33は、レンズユニット200の形態および取付け方法について説明した図である。
 図32(a)のレンズユニット200は、底面の下部開口部に粘着部材が設けられている。そして、タブレット型PC212またはスマートフォン222のカメラ部分に直接取り付け、脱着が可能である。もちろん、取り外しできないようにレンズユニット200を完全に接着するか、タブレット型PC212またはスマートフォン222と一体成型にしてもよい。
 図32(b)では、クリップ213とレンズユニット200が一体になっている。クリップ213の、レンズユニット200の底部と接する部分は、印刷媒体面を撮影するための穴が開いているか、または、透明になっている。ユーザは、タブレット型PC212またはスマートフォン222のカメラ部分をクリップで挟むことにより、レンズユニット200の取り付け・取り外しが容易となる。また、使っているうちに粘着力が低下する粘着部材に比べ耐用期間も相当長くなる。
 図32(c)は、図26等で説明した照射機能付きレンズユニットとクリップ213が一体になっている。クリップ213には電源供給ケーブル(USBやイヤフォン、専用携帯コネクタ付きケーブル等を含む)が設けられている。クリップ213を取り付ける際に、ケーブルのコネクタをタブレット型PC212またはスマートフォン222のコネクタに挿入する。これにより、タブレット型PC212やスマートフォン222から電源を取ることが可能となる。なお、クリップが設けられていない照射機能付きレンズユニットでも同様に上記電源供給ケーブルにより電源を取ることができる。
 図33(a)~(c)は、カートリッジ状のケース221とレンズユニット200が一体になっている実施例について説明する図である。本ケースはスマートフォン222や携帯電話に用いられる。ケース221の、レンズユニット200の底部と接する部分は、印刷媒体面を撮影するための穴が開いているか、または、透明になっている。ユーザは、レンズユニット200がスマートフォン222の裏側(ディスプレイと反対側)に位置するように、スマートフォン222や携帯電話にケースをはめ込むことにより、レンズユニット200の取り付け・取り外しが容易となる。また、使っているうちに粘着力が低下する粘着部材に比べ耐用期間も相当長くなる。さらに、レンズユニット200の装着位置が固定されることにより、毎回取り付けの際に位置決めをしなくても正確に取り付けられる。
 同図(b)は、照射機能付きレンズユニットとケース221が一体になっている状態を説明する図である。この場合は、ケース221にバッテリー206およびスイッチが設けられている。なお、図32(c)のように、電源供給ケーブルが設けられていてもよい。
 同図(c)は、スマートフォン222や携帯電話から電源を取る照射機能付きレンズユニットについて説明する図である。これによれば、ケース222に電源を設ける必要がなくなるため、より安価かつ簡易にケース222を製造することが可能となる。なお、図32(c)のように、電源供給ケーブルが設けられていてもよい。また、同図(a)のように、LED無しのレンズユニット装着用として携帯電話保護ケースとして兼用してもよい。
 図34はタブレット型PCのカメラに取り付けられたレンズユニット200により、カード214に印刷されたドットパターンを読み取る実施形態を示す図である。
 (a)は、カード214の一面全体にドットパターンを設けた場合について説明した図である。ユーザは、カード214のドットパターンが設けられた面を、レンズユニット200に接面させる。カード214に印刷されたドットパターンは、レンズ202により拡大して撮影される。
 ユーザがカード214をレンズユニット200上に載置すると、読み取ったコード情報に対応するコンテンツの出力もしくは操作命令が実行される。さらに、載置したカード214を回転させることにより、ドットパターンの向きとカメラのアングル(カメラ上向き方向)との回転角によって出力する情報を変化させることができる。例えば、カード214をカメラに対して30度の向きで載置した場合には、「こんにちは」との音声が図示しないスピーカから出力され、それからカード214を回転させて90度の向きで載置した場合には、「さようなら」との音声が出力される。もちろん、対応する映像コンテンツがディスプレイに表示されてもいい。さらに、読み取ったコード情報をインターネットや携帯電話網を介して、ドットコード管理サーバに送信して対応するコンテンツを閲覧またはダウンロードしたり、コード情報に対応する操作命令によりタブレット型PCが制御されてもいい。スマートフォンを使用した場合も同様である。
 また、コード情報にXY座標も加えて定義されている場合には、カード214のどの部分をレンズユニット200上に載置するかにより、入力されるXY座標値に対応して出力する情報を変化させることができる。同時に上記回転角に対応する情報も選択条件としてよい。
 なお、光源205に白色LED208を用いた照射機能付きレンズユニットを使用すれば、周辺がドットパターンを読み取れない環境でも確実にコード情報を読み取ることができる。さらに、光源205にIR LED210を用いた照射機能付きレンズユニットを使用して赤外線を吸収するインク(カーボンブラック等)でドットを印刷した印刷媒体を撮影すれば、撮像画像ではドットの部分のみ黒く撮影されることになり、容易にドットコードを読み取ることができる。なお、IR LED照射機能付きレンズユニットは、スマートフォン等に赤外線遮断フィルタが使用されていない場合か、使用されていても完全に赤外線が遮断されない場合に用いる。
 (b)は、カード214の一面にガード215が設けられており、ガード215の中にのみドットパターンが印刷されている場合について説明した図である。ガード215は、ドットパターン読み取り用レンズにはまる構造になっている。ユーザが、ガード215をドットパターン読み取り用レンズにはめると、カード214に印刷されたドットパターンは、レンズ202により拡大して撮影される。
 ユーザがガード215をレンズユニット200にはめてからカード214を回転させることにより、入出力される情報を変化させることができる。(a)では、カード214を回転させる場合に、カード214がずれてしまい、うまく回転でないという問題がある。(b)のようにガード215を設けることにより、この問題が解決され、カード214がずれることなく回転でき、ユーザが希望する操作を行うことが容易となる。さらに、視覚障害者にもガード215を確認でき容易に操作できる。(a)および(b)で説明した、ドットパターンの読み取りにより入出力情報を変化させる技術については、特許第4465016号公報等に記載されている。また、視覚障害者にとって、このガードはドットパターンが印刷媒体に設けられていることが認識でき、容易に操作できる。
 図35はフィギュア216に設けられたドットパターンを読み取る実施形態について説明した図である。
 (a)は、タブレット型PCのカメラに取り付けられたドットパターン読み取り用レンズの上に、フィギュア216を載置した図である。このフィギュア216の底部にはドットパターンが印刷されており、カメラはフィギュア216底部のドットパターンを読み取って情報を復号する。
 なお、レンズユニット200上でフィギュア216を回転させることにより、入出力される情報を変化させることができる。例えば、フィギュア216を載置した時には「こんにちは」との音声が図示しないスピーカから出力され、90度回転した場合には、「さようなら」との音声が出力される。
 (b)は、フィギュア216とドットパターン読み取り用レンズが一体となった図である。同図のフィギュア216は、台座下部にレンズユニット200が取り付けられている。台座の裏側に、ドットパターンが設けられている。フィギュア216をタブレット型PC212のカメラの上に載置すると、カメラは、フィギュア216のレンズを介して、フィギュア216に設けられたドットコードを読み取る。
 なお、カメラ上でフィギュア216を回転させることにより、(a)と同様に入出力される情報を変化させることができる。
 (a)および(b)のような、フィギュア216の回転により出力情報を変化させる技術については、特許第4465016号公報等に記載されている。
 なお、上記の操作および読み取ったコード情報に対しての情報処理、および光源205に白色LED208やIR LED210を使用した場合に関して、図34の説明と同様な操作・処理の全てが可能である。
 図36は、白色LED照射機能付きレンズユニット200を内蔵したフィギュア216について説明する図である。
 フィギュア216の台座には、レンズユニット200と白色LED208とバッテリー206が内蔵されている。ユーザがフィギュア216をスマートフォン等のカメラに載置すると、カメラは、フィギュア216のレンズユニット200を介して、フィギュア216に設けられたドットコードを読み取る。レンズユニット200がフィギュア216に内蔵され外部からの光が遮断されても、白色LED208が印刷媒体面を照射しドットコードを読み取ることができる。また、白色LED208のバッテリー206はフィギュアに内蔵し、電源ボタン207はフィギュアの目立たない箇所に備えるのが望ましい。図示しないがフィギュアを持ち上げるか、フィギュアに触れた際に起動するようなセンサー型の電源スィッチにしてもよい。
 なお、上記の操作および読み取ったコード情報に対しての情報処理、および光源205に白色LED208やIR LED210を使用した場合に関して、図34の説明と同様な操作・処理の全てが可能である。
 図37~図38は、スマートフォン222のカメラに取り付けられたレンズユニット200により、カード214に印刷されたドットパターンを読み取る実施形態を示す図であり、図37はレンズユニット200に接面する前の状態、図38は接面している状態である。
 この場合は、カード214を固定し、スマートフォン222を持って、カード214の一部をタッチしてドットパターンを読み取る。
 また、図38に示すように、レンズユニット200を用いて撮影したドットパターンを、スマートフォン222またはタブレット型PC212のディスプレイにそのまま表示してもよい。もちろん、読み取ったドットコードに対応したコンテンツを表示してもよい。スマートフォン222を持ってカード214のドットパターンを読み取る場合、読み取ったコード情報に対応するコンテンツの出力もしくは操作命令が実行される。さらに、スマートフォン222を回転させることにより、ドットパターンの向きとカメラのアングル(カメラ上向き方向)との回転角によって出力する情報を変化させることができる。また、コード情報にXY座標が加えて定義されている場合には、カード214のどの部分をレンズユニット200上で撮影するかにより、入力されるXY座標値に対応して出力する情報を変化させることができる。同時に上記回転角に対応する情報も選択条件としてよい。
 なお、上記の操作および読み取ったコード情報に対しての情報処理、および光源205に白色LED208やIR LED210を使用した場合に関して、図34の説明と同様な操作・処理の全てが可能である。

<サークルパターン>
 図39~図50は、IDコードが符号化されたサークルパターンの概念および実例である。これらは、円周上、楕円の周上、または所定の閉じた曲線の周上(以下「円周上等」)に印刷または刻印された隣り合うマークとマークの間の円周上等の複数の長さの周長、または隣り合うマークとマークの複数の距離の直線距離(以下「マーク間の距離」)の組み合わせおよび/または並び方で符号化したサークルパターンである。
 図39は、サークルパターン300の具体例を示す図である。同図(a)は円形状のサークルパターン、(b)は楕円形状のサークルパターン、(c)はその他の閉曲線により形成されたサークルパターンである。
 このように、サークルパターン300は、任意の閉曲線上にマーク301を配置して形成することが可能である。
 図40は、サークルパターンの他の形態を示す図である。同図は、閉曲線の図心に1個のマーク301を配置した図であり(a)が円形状のサークルパターンの場合、(b)が楕円形状のサークルパターンの場合、(c)がその他の閉曲線形状のサークルパターンの場合である。
 このように、図心にマーク301を配置することにより、カメラにより撮影されたサークルパターン300をCPUが画像解析をする際に、サークルパターン300の領域を判定することが容易となる。
 なお、マーク301を配置する場所は、閉曲線の図心の他、閉曲線の中心でもよい。また、図心または中心に配置するマーク300の数は、図示しないが1個に限らず、複数でもよい。特に、閉曲線の形状や大きさ等のパラメータが予め定義されていない場合、閉曲線内のマークにそれらの情報を与えて、当該特定して使用コードを復号化することが可能となる。楕円形は、2つのマーク300を与えることによって、楕円を特定でき容易にコードを復号化できる。なお、周上のマーク300と区別するため、マーク300の大きさ、形状、色を変えるのが望ましい。
 図41~図50は、さらに他の実施例を説明する図である。
 ここで、図41以降は、サークルパターンが円形状である場合について説明しているが、いずれの実施例も、楕円形状、その他任意の閉曲線形状のサークルパターンについても適用されることはもちろんである。
 図41は、マークとして始点マーク302および符号化マーク(情報ドット303)を配置したサークルパターン300について説明する図である。
 図41に示すように、所定の円周上に符号化するための始点を定める始点マーク302を配置し、右回りに符号化マークとして情報ドット303を配置して、各隣り合うマーク間の所定の間隔が始点マーク302から右回りに並ぶ組み合わせでIDコードを符号化する。なお、左回りで符号化してもよいことはいうまでもない。また、マーク間の所定の間隔は、隣り合うマークとマークの間の円周上の複数の周長を有する情報ドット間周長、または情報ドット間距離とする。組み合わせの指標は、情報ドット間周長304、情報ドット間距離305のいずれでもよい。
 (a)は始点マーク302が情報ドット303よりも大きな形状のマーク、(b)は始点マーク302が情報ドット303とは異なる形状のマーク、(c)は始点マーク302が情報ドット303と同じ形状のマークが2個並んで配置されたマーク、(d)は始点マーク302が情報ドット303と同じ形状であるが色で識別されたマーク、(e)は始点マーク302が情報ドット303と同じ形状のマークが外周方向にずれて配置されたマーク、(f)は始点マーク302が情報ドット303と同じ形状のマークが外周方向に2個並んで配置されたマークである。いずれも、情報処理装置の読み取り手段で始点マーク302として情報ドットと判別できるように形成されている。なお、(c)および(f)は3個以上並んで始点マーク302を形成してもよいし、(e)は内周方向にずれて配置されてもよい。
 (g)~(i)は同心円の直径が異なるサークルパターン300が2個形成された例である。すなわち、大きさが異なる相似形の円を同心円状に並べて形成したものである。これにより、より多くの情報量を定義できる。もちろん、さらに情報量を増やすために複数のサークルパターン300を形成してもよい。(g)は情報ドット303が全て同一形状であり、外周のサークルパターン300に情報ドット303と大きさが異なるドットを始点マーク302としている。その内側の位置に内周の始点マーク302として情報ドット303が配置されている。(h)は外周と内周を容易に判別するため、外周と内周の情報ドット303の大きさを異ならせ、始点マーク302は情報ドット303とは異なる形状のマークとしている。(i)も外周と内周を容易に判別するため、外周と内周の情報ドット303の形状を異ならせ、始点マーク302は情報ドット303とは異なる大きさのマークとしている。
 なお、(g)~(i)の実施例において、上述のように、サークルパターン300が円形状の場合は、大きさが異なる相似形の円の中心を一致させて、小さい円を大きい円に内包させる。しかし、楕円形状や任意の閉曲線形状の場合は、大きさが異なる相似形の楕円または閉曲線の図心を一致させて、小さい方の楕円または閉曲線を、大きい方の楕円または閉曲線に内包させる。
 図42は、始点マーク302が1個と情報ドット303が2個の計3個のマークを配置した例である。各マーク間の間隔は1~3種類の間隔となるよう情報ドット303を配置している。なお、円周上の3個の座標値が求まれば、中心位置と半径が求まり各マーク間の間隔が容易に計算できる。
 (a)は3種類の間隔を形成して情報ドット303が配置されており、最も短い間隔を(1)(同図丸付き数字の1に該当、以下同様)、2番目に短い間隔を(2)、最も長い間隔を(3)とした場合の組合せであり、始点マークから右回りに6種類の組み合わせがある。
 (b)は2種類の間隔を形成して情報ドット303が配置されており、最も短い間隔を(1)、2番目に短い間隔を(2)とした場合の組合せであり、始点マーク302から右回りに6種類の組み合わせがある。このように、(1)と(2)のいずれかが同一の間隔であってもよい。
 (c)は1種類の間隔を形成して情報ドット303が配置されており、その間隔を(1)とした場合の組合せであり、当然、組み合わせは1種類しかない。上記(a)~(c)で合計の組み合わせは13種類あり、13個のIDコードが符号化できる。これを2個のサークルパターンで形成すると、13×13=169個のIDコードが符号化できる。
 図42では計3個のマークを配置したが、IDコードが符号化できるコード数は、
Nが4の場合は、
Figure JPOXMLDOC01-appb-M000002
Nが3または5の場合は、
Figure JPOXMLDOC01-appb-M000003
により求まる。
 従って、4個のマークでは75個となる。ここで、サークルパターン300に3個と4個のマーク301の両方を含むようにマーク301を配置した場合は、13+75=88個のIDコードが符号化できる。なお、5個のマーク301では541個、6個のマーク301では4683個、10個のマーク301では22174447個のIDコードが符号化できる。
 図43は、図42で示した3個のマーク301を配置した場合の組み合わせにコード値を割り当てた表である。組み合わせのケースにどのようなコード値を割り当てるかは任意である。
 図44は、複数のマーク301を含むことで1つのコードが符号化されたサークルパターンについて説明する図である。
 本実施例では、サークルパターン300に連続するL個からM個までのマーク300を配置することができる。すると、M-L+1種類のサークルパターン300を有することとなる。
 例えば同図では、(a)はマーク301を3個配置した場合、(b)はマーク301を4個配置した場合、(c)はマークを5個配置した場合を示している。つまり、L=3、M=5である。したがって、サークルパターン300の種類は5-3+1=3種類である。
 そして、3種類のそれぞれにおいて、図42~図43で説明した組み合わせにより、IDコードが符号化できる。上述のように、(a)の場合は、マーク301が3個であり、13個のIDコードが符号化できる。(b)の場合は、マーク301が4個であり、88個のIDコードが符号化できる。(c)の場合は、マーク301が5個であり、541個のIDコードが符号化できる。したがって、サークルパターン300が3個から5個までのマーク301を含むようにした場合には、13+75+541=629個のIDコードを符号化できる。
 このように、異なる個数のマーク301を配置することができるように設定することにより、サークルパターン300がより多くのIDコードを符号化できるようになる。
 図45は、始点マーク302を配置しない4個の情報ドット303の配置のみで、各情報ドット303の間隔は1~4種類の間隔となるよう情報ドット303を配置し、複数の情報ドット間円周または情報ドット間距離の組み合わせのみでコードを符号化している。これは始点マーク302がないことによって、情報量は少なくなるものの、同一形状の情報ドットのみで形成することができて見た目に美しく、情報処理装置の読み取り手段で始点マーク302と情報ドット303の判別が必要ないため容易にIDコードに復号化できる。なお、右回りまたは左回りのいずれで符号化してもよいことはいうまでもない。
 (a)は4種類の間隔を形成して情報ドット303が配置されており、最も短い間隔を(1)、2番目に短い間隔を(2)、3番目に短い間隔を(3)、最も長い間隔を(4)とした場合の組合せであり、右回りで6種類の組み合わせがある。
 (b)は3種類の間隔を形成して情報ドット303が配置されており、最も短い間隔を(1)、2番目に短い間隔を(2)、最も長い間隔を(3)とした場合の組合せであり、右回りで9種類の組み合わせがある。このように、(1)~(3)のいずれかまたは2つが同一の間隔であってもよい。
 (c)は2種類の間隔を形成して情報ドット303が配置されており、最も短い間隔を(1)、2番目に短い間隔を(2)とした場合の組合せであり、始点マーク302から右回りに4種類の組み合わせがある。このように、(1)と(2)のいずれかが同一の間隔であってもよい。
 (d)は1種類の間隔を形成して情報ドット303が配置されており、その間隔を(1)とした場合の組合せであり、当然、組み合わせは1種類しかない。上記(a)~(d)で合計の組み合わせは20種類あり、20個のIDコードが符号化できる。これを2個のサークルパターン300で形成すると、20×20=400個のIDコードが符号化できる。なお、始点マーク302が無くても、基準の方向を定めておく(例えば同図のように上向き)ことにより、図42~43と同様に順列組み合わせにより符号化することができる。
 図46は、図45で示した4個のマークを配置した場合の組み合わせにコード値を割り当てた表である。組み合わせのケースにどのようなコード値を割り当てるかは任意である。
 図47は、同一のサークルパターン300を複数並べて配置した実施例について説明する図である。
 このように、サークルパターン300は、複数並べて配置してもよい。これにより、印刷物等、一定の面積を有する媒体に連続的に配置し、どこを読み取っても同一の情報が出力されるようにすることが可能となる。
 なお、もっと円の直径を小さくして、間隔を空けてサークルパターンを配置しても良い。
 図48~図50は、複数のサークルパターン300で1つのコードを符号化する実施例について説明する図である。
 本実施例では、異なる位置に配置された複数(図では9個)のサークルパターン300で1つのデータブロックを構成する。そして、1つのデータブロックが1つのコードを符号化している。
 図48は、データブロックの領域を定義する方法について説明する図である。
 本実施例のサークルパターン300では、同一のデータブロックを、印刷物等に複数繰り返し印刷することができる。その場合、どれが1つのデータブロックの領域であるかを認識できないと、CPUはサークルパターン300を正確に解析し、コードに対応する処理を実行することができない。そこで、データブロックの領域を定義する必要がある。
 同図(a)は、所定のサークルパターン300の始点マーク302を、他のサークルパターン300の始点マーク302と異ならせた図である。同図では、左上のサークルパターン300のみ、情報ドット303と大きさの異なる始点マーク302を有しており、他のサークルパターン300は、情報ドット303と形状の異なる始点マーク302を有している。これにより、始点マーク302の異なるサークルパターン300を基準にしてデータブロックの領域を認識することができる。
 (b)は、所定のサークルパターン300のマーク301の形状を、他のサークルパターン300のマーク301の形状と異ならせた図である。同図では、左上のサークルパターン300のみ、三角形のマーク301が配置されており、他のサークルパターン300は、円形のマーク301が配置されている。これにより、三角形のマーク301が配置されているサークルパターン300を基準にしてデータブロックの領域を認識することができる。
 (c)は、所定のサークルパターン300の配置方法を、他のサークルパターン300の配置方法と異ならせた図である。同図では、左上のサークルパターン300のみ、始点マーク302が円形、情報ドット303が三角形であり、他のサークルパターン300は、始点マーク302が三角形、情報ドット303が円形である。これにより、始点マーク302が円形、情報ドット303が三角形のサークルパターン300を基準にしてデータブロックの領域を認識することができる。
 なお、(a)~(c)以外にも、種々の方法によりデータブロックの領域を定義することが可能である。
 図49は、データブロックの方向を定義する方法について説明する図である。
 同じサークルパターン300であっても、どの方向を正位、すなわちサークルパターン300を認識するための基準とするかにより、CPUの解析結果、および、実行される処理の結果が異なってくる。したがって、どの方向を基準にサークルパターン300が形成されているかを認識させるため、データブロックの方向を定義することが必要である。
 同図(a)は、始点マーク302の位置によりデータブロックの方向を定義したものである。同図では、始点マーク302が左に位置している。これにより、データブロックが左向きであることが認識できる。
 同図(b)は、マーク301の配置方法によりデータブロックの方向を定義したものである。この場合、ある特定のマーク間隔の組み合わせを有するサークルパターン300の位置をデータブロックの方向と定義する。特定の組み合わせは、データブロックの方向を定義するサークルパターン300以外のサークルパターン300には用いられない。例えば(b)では、左上のサークルパターン300のみ、(1)(2)(3)(4)(それぞれ同図の丸付き数字に該当)の組み合わせとなるようにマーク301が配置されている。他のサークルパターンに(1)(2)(3)(4)の組み合わせが用いられることはない。これにより、データブロックが上向きであることが認識できる。図示しないが、左上のサークルパターン300のみ、マーク301を4個として、他を4個以外のマーク301で形成してもよい。
 同図(c)は、特定のサークルパターン300のみ始点マーク302を設けることにより、データブロックの方向を定義したものである。同図では、左上のサークルパターン300にのみ、始点マーク302が上部に配置されている。他のサークルパターン300には、始点マーク302が配置されていない。これにより、データブロックが上向きであることが認識できる。これによれば、左上のサークルパターン300によりデータブロックの方向が定義されるため、他のサークルパターンは、始点マーク302を設けなくても、コードを符号化することが可能である。したがって、データブロックの生成アルゴリズムを簡素化することができる。
 図50は、データブロックの3×3のサークルパターンを連続的に配置した実施例について説明する図である。
 データブロックは、上下左右方向に連続して配置される。従って、カメラで読み取る場合は、1つのデータブロックを読み取る必要がある。なお、隣接する各データブロックが同一である場合は、同図の一点鎖線で示すように、カメラで読み取る中心周辺のデータブロックと同数の3×3のサークルパターン300を読み取ればよい。ただし、それぞれのサークルパターン300は、どの位置に配置されているかを認識しなければならない。すなわち、図49のようにデータブロックの領域を定義するための手段が必要である。同図では、左上のサークルパターン300の始点マーク302のみ大きさが異なっている。これにより、データブロックの領域および方向を定義している。図中の+をカメラで読み取る中心とすると、周辺の3×3のサークルパターンには、必ず始点マーク302のみ大きさが異なっているサークルパターン300が含まれており、これにより領域と方向が分かり、予め定められた順番に従って当該3×3の各サークルパターンのコードを復号化し、一つのコードを読み取ることができる。
 1個の円周上に多くの情報ドット303を配置すれば、サークルパターン300の情報量を増やすことができる。しかし、情報ドット303の数が多くなると、情報ドット303同士の間隔が密になり、見た目が悪くなり、印刷精度や読み取精度により情報ドット303が繋がってしまい、コードを正確に読み取り、解析することができないという問題が生じる。そこで、上述のように個数の異なるサークルパターン300を並べて1つのコードを符号化することにより、上述の問題を解決しながら、データブロックとしてサークルパターン300の情報量を増やすことが可能になる。
 なお、サークルパターン300のマーク301は、印刷または刻印の他、切り欠きによって設けてもよい。具体的には図23(a)~(c)に記載したものである。
 このような切り欠きを設けることによっても、図39~図50で説明したサークルパターン300を実現することが可能である。
 従来、ドットパターン等の2次元コードは、直線または矩形状の平面上に配置することに適しているが、円形状やドーナツ状の媒体に配置することは困難であった。本件発明のサークルパターン300では、円や楕円、さらには、不規則な閉曲線の形状にも容易にマークを配置し、2次元コードを形成することが可能である。したがって、本件発明のレンズユニット200に用いられるレンズカバー203を識別するためのIDコードとして用いられる。その他、円形状やドーナツ状の媒体用に2次元コードとして使用できる。また、サークルパターン300は、マーク301間の距離の比較でコードを符号化するため、曲面上に配置されていても正確にコードを復号化でき、従来2次元コードを配置することが困難であった曲面にも配置することができる。さらに、光学読取手段を傾斜して読み取ってドットパターン(サークルパターン300)が大きく変形しても、上記理由でコードの復号化が正確に実施できる。

<レンズユニットの他の実施例>
 図51~図58は、レンズユニット200の他の実施例について説明するものである。
 なお、以下のレンズユニット200は、以下で説明する実施例に限定されるものではない。以下のレンズユニット200と、上記で説明したあらゆる実施例とを組み合わせて実施できることはもちろんである。
(IDコードおよびクリップ)
 上述の実施例では、印刷されたIDコード401を使用する場合には、レンズカバー203または透明レンズカバー204にIDコード401を印刷していた。しかし、IDコード401は、それ以外の方法によっても設けることができる。
 図51は、IDコード401をレンズホルダーの上部開口部に直接印刷した状態を示す図である。同図では、IDコード401としてサークルパターン300を直接印刷しているが、他のIDコード401を印刷してもよいことはもちろんである。
 また、IDコード401をシールに印刷し、レンズホルダー201の上部開口部に貼付してもよい。
 また、IDコードは、レンズカバー201とレンズ202の間にはめ込むか、ねじ込んでもよい。
 図52~53は、IDコード401が印刷された媒体を挟み込み可能なレンズカバー203を設けた、クリップ付きレンズユニットについて説明する図である。
 本クリップ213は、図32(b)で説明したクリップの変形例である。すなわち、タブレット型PC212またはスマートフォン222のカメラ部分を挟むためのクリップ213が、レンズユニット200と一体になって設けられている。このクリップ213の構造については後述する。
 図52(a)は、クリップ付きレンズユニットの斜視図、(b)は正面図である。本レンズユニット200は、レンズカバー203、レンズホルダー201、クリップ213を備えている。レンズカバー203とレンズホルダー201は分離可能であり、(b)に示すように、レンズカバー203とレンズホルダー201上部の間に、IDコード401が印刷された媒体であるID媒体402が挟み込まれている。
 レンズホルダー201は、中央が開口部403、またはフィルム等の透明シートを設けた透明領域となっており、被写体を撮影するのに必要な領域が確保されている。
 このような構造とすることにより、IDコード401を有するレンズユニット200を簡易に製造することが可能となる。また、製造業者は、ユーザが不要になったレンズユニット200を回収して、使用されていたID媒体402を外し、新たなID媒体402を挟みこんで他のユーザに提供することができるため、地球環境および経済性に配慮したレンズユニットを実現できる。
 なお、図52は、ID媒体を挟みこみ可能なレンズカバー203を設けたレンズユニット200の一例であり、この形態に限定されないことはもちろんである。たとえば、クリップ213を有さない形態でもよい。
 図53は、図52のレンズホルダー201に用いるID媒体402について説明する図である。
 ID媒体402は、円形の媒体にIDコード401を印刷したものである。媒体中央は、開口部となっており、被写体を撮影するのに必要な領域が確保されている。開口部の周辺にIDコード401が印刷されている。同図(a)は、IDコード401であるサークルパターン300が印刷されたID媒体402である。同図(b)は、オートフォーカスでピントを合わせるためのピント合わせ用模様404とサークルパターン300が印刷されたID媒体402である。
 ピント合わせ用模様404は、赤外線および可視光を透過するインクで印刷されていることが好ましい。これにより、ピント合わせ用模様404はカメラにより撮影されないため、カメラは、必要なIDコード401および被写体のドットパターンのみを撮影することができる。
 なお、媒体中央は、開口部403に代えて、フィルム等の透明シートを設けた透明領域としてもよい。透明シートを設けることにより、レンズ202が汚れることを防止することができる。
 また、ID媒体402は、レンズホルダー201と一体成型されていてもよい。
(アジャスタおよび滑り止め)
 図54~56は、アジャスタ406および滑り止め407について説明する図である。
(アジャスタ)
 アジャスタとは、高さや長さを調節するための装置であり、本発明のアジャスタ406は、レンズユニット200の高さを調節するために設けられている。
 図54は、クリップを有さないレンズユニット200、図55~56は、クリップを有するレンズユニット200の場合である。図57は、アジャスタ406の構造を示す斜視図である。
 図57に示すように、アジャスタ406は、中央に開口部403を有する円筒状構造となっている。アジャスタ406の内壁には複数の溝が設けられている。一方、レンズホルダー201にも溝が設けられており、アジャスタ406と嵌合するようになっている。
 図54(a)に示すように、レンズユニット200は、レンズ一体型レンズホルダー405と、アジャスタ406から構成されている。同図(b)は、本発明の最もよく使用される実施例であり、ID媒体402、レンズカバー203、レンズ一体型レンズホルダー405、ネジ状留め具408、アジャスタ406、滑り止め407を備えている。レンズ一体型レンズホルダー405の上部には、ネジ状留め具408(ネジ付きキャップ)が固定して装着されている。一方、アジャスタ406は、レンズ一体型レンズホルダー405の下部に装着されている。
 図55は、アジャスタ406および滑り止め407を有するクリップ付きレンズユニット200の斜視図、(b)は正面図である。図56は、クリップ付きレンズユニット200において、アジャスタ406で高さを調節する場合について説明する図である。
 レンズホルダー201本体の基本的な構造は図54のレンズユニット200と同様である。クリップ213は、ネジ状留め具408とアジャスタ406の間に設けられる。カメラとレンズ202の距離を近くする場合には、図56(a)に示すように、アジャスタ406を下部に移動させる。距離を遠くする場合には、図56(b)に示すように、アジャスタ406を上部に移動させる。アジャスタ406を最大限上部に移動させた場合と、最大限下部に移動させた場合との距離の差は約2センチである。
 スマートフォン222等に設けられたカメラの最適なピントは、機種によって異なる場合がある。その場合、レンズからカメラまでの最適な距離も異なってくる。したがって、レンズユニット200の構造によっては、ピントが正確に合わず、最適な撮影ができないという問題があった。一方、ピントが正確に合うように、機種毎に個別のレンズユニット200を製造すると非常にコストがかかる。
 さらに、ユーザは、スマートフォン222等にカバー(保護ケース)をつけて使用する場合が多い。カバーの厚さは、製品によって異なるため、使用するカバーによっては、ピントが正確に合わなくなってしまい、最適な撮影ができないという問題があった。
 本発明のアジャスタ406は、このような問題を解決するものである。すなわち、このようにアジャスタ406を設けることにより、どのようなカメラであっても、また、どのようなカバーを用いてもレンズ202からカメラまでの距離を最適に調整し、被写体を正確に撮影することが可能となる。
 なお、被写体の撮影については、レンズユニット200の上部開口部を被写体に接面させて撮影する他、レンズユニット200と被写体を一定距離離して撮影することもできる。接面させるか、あるいは、どれだけ離して撮影するかは、各被写体のドットパターンの大きさ等によって決定することである。
 なお、アジャスタ406中央は、開口部403に代えて、透明シート等を設けた透明領域としてもよい。透明シート等を設けることにより、レンズ202が汚れることを防止することができる。
 また、アジャスタ406の構造は上記で説明したものに限られず、レンズホルダー201と一体に形成されていてもよい。また、レンズ202からカメラまでの距離を適正に調整できるものであれば、どのような構造としてもよいことはもちろんである。
(滑り止め)
 次に、滑り止め407について説明する。
 滑り止めは、中央に開口部403を有するドーナツ状の構造をしており、レンズホルダー201の下部に設けられる。本実施例では、アジャスタ406の下部に嵌合されている。また、ゴム等の粘性のある材質で形成される。
 スマートフォン222等の表面はつるつるした材質でできているため、レンズユニット200を装着しても滑り落ちてしまうという問題がある。また、滑り止め防止のためにクリップ213等で固定しても、レンズユニット200がわずかにぶれてしまい、ピントが正確に合わない場合が生じる。このように滑り止めを設けることにより、スマートフォン222等から滑り落ちたりぶれたりすることを防止することができる。
 なお、滑り止め407は、本発明のようにアジャスタ406の下部に嵌合する他、アジャスタ406に貼付するかねじ込むかによって設けてもよい。また、レンズユニット200の下部に直接貼付したりはめ込んだり、ねじ込んだりすることにより設けてもよい。また、アジャスタ406とレンズホルダー201の間に装着することにより設けてもよい。さらには、アジャスタ406と滑り止め407を一体成型してもよい。
(クリップ)
 次に、上述したクリップ213について、図58を用いて説明する。
 クリップ213の一方の端部はレンズホルダー201に取り付けられており、もう一方の端部は、カメラが備えられた側の裏側を挟みこむように形成されている。
 クリップ213は、アーム410と留め具を備えている。留め具は、レンズホルダー201を取り付けるためのものであり、アーム410の一方の端部に設けられている。留め具には、同図(a)に示すリング状留め具409、および同図(b)に示すU型状留め具411がある。リング状留め具409は、レンズホルダー201を抜き取る時に、先ず、リングを外してから、クリップ213を外す必要があるため、利便性に欠けるという問題はあるが、強度が強いという利点がある。一方、U型状留め具411は、強度が弱いという問題があるが、レンズホルダー201を簡単に抜き取ることができ、利便性が高いという利点がある。
 アーム410のもう一方の端部は、スマートフォン222等の裏側を挟みこむように形成されている。
 なお、留め具の上部には、第2の留め具を取り付けてもよい。第2の留め具は、図54,55で図示したように、ネジ状のネジ状留め具408であることが好ましいが、他の形態でもよい。第2の留め具を取り付けることにより、クリップ213の留め具409,411をよりしっかりと固定することが可能となる。
 また、留め具409、411とアジャスタ406の間、または、留め具409,411と第2の留め具との間に、Oリング412を取り付けてもよい。これにより、アジャスタ406や第2の留め具をしっかりと固定することが可能となる。
 また、クリップ213は、レンズホルダー201、レンズカバー203、またはアジャスタ406のうち一つまたは複数と一体成型されていてもよい。
 図59および60は、レンズユニット200の各構成を示す斜視図である。
 図59に示すように、レンズユニット200は、レンズカバー203、ID媒体402、ネジ状留め具408、レンズ一体型レンズホルダー405、アジャスタ406、滑り止め407から構成される。これにさらに、上述のクリップ213が設けられる場合がある。
 図60は、さらにOリング412を設けた例である。Oリング412は、ネジ状留め具408とアジャスタの間406に挿入される。
 なお、レンズホルダー201にねじ山を設け、アジャスタ406をネジで脱着するようにしてもよい。
 また、レンズホルダー405は、レンズ202と一体型ではなく、別々に設けられていてもよいことはもちろんである。
(その他の構造)
 その他、本実施例のレンズユニット200には、種々の構造が考えられる。
 図61は、レンズ一体型レンズホルダー405の上部開口部の外周壁周辺に台座413を設けたものである。台座413を設けることにより、被写体を安定して載置することができ、撮影時のぶれを防ぐことができる。
 台座は、レンズホルダー201,405またはレンズカバー203と一体成型されていてもよい。また、台座とレンズカバー203とレンズホルダー201,405が一体成型されていてもよい。
 また、レンズユニット200には、図29(c)で説明したようなIRフィルタを設けてもよい。
 また、レンズユニットには、図26~29で説明したような光源および電源を設けてもよい。
(利用形態)
 図62は、上述したレンズユニット200の最も好適な利用形態について説明する図である。
 同図(a)は、図54で示した、クリップ213を有さないレンズユニット200の利用形態である。
 クリップ213を有さないレンズユニット200は、タブレット型PC212への利用に適している。タブレット型PC212は、机に載置して利用することが多く、レンズユニット200を安定して配置できるからである。
 同図(b)(c)は、図52,55で示した、クリップ213を有するレンズユニット200の利用形態である。
 クリップ213を有するレンズユニット200は、スマートフォン222や携帯電話への利用に適している。スマートフォン222や携帯電話は、手に持って利用することが多いため、レンズユニット200をただ配置するだけでは、レンズユニット200がずれたり外れたりしてしまう可能性が高いからである。
 同図(b)は、アジャスタ406を下部に移動させた場合である。カメラとレンズ202の距離が近すぎると、ピントが正確に合わず、適切な撮影画像を得られない。そこで、アジャスタ406を移動させることにより、カメラとレンズの距離を適正に保つ。
 同図(c)は、アジャスタ406を上部に移動させた場合である。同図では、スマートフォン222にスマートフォン用カバー414が設けられている。カメラとスマートフォン用カバー414の間には、すでに一定の距離が生じている。そのため、アジャスタ406を上部に移動させ、カメラとレンズ202の距離が遠くならないようにする。
 このようにアジャスタを用いることにより、カメラのレンズの表面から本レンズユニット200のレンズ202の下端までの距離Hを最適距離に保つことができる。
 このように、本発明のレンズユニット200は、タブレット型PC212、スマートフォン22、携帯電話の状態に合わせて用いることができるため、非常に柔軟性、利便性に優れている。
 なお、レンズユニット200の利用形態は上述したものに限られず、ユーザの好みや使用状況等に応じて種々変更できることはもちろんである。
(人体部位の撮影)
 さらに本発明のレンズユニット200は、ドットパターンだけでなく、人体の部位を撮影することも可能である。
 人体の部位とは、肌、頭皮、毛、爪、目等である。人体を例示したが、所定の部位としては、人に限らず生物の部位全てが対象となり得る。さらに、所定の部位としては、固有の特徴を有する被写体または撮影画像であれば何でもよく、固有のIDコードと対応付けすることができれば、どのような被写体であってもよい。
 一例として、人体の肌を撮影する場合について説明する。
 肌のコンデションを正確に診断するには、30倍程度に拡大した高精度の肌画像が不可欠である。これまで高額な肌診断機で撮影しないと正確な肌診断は不可能とされていたが、本発明のレンズユニット200をスマートフォン222に取り付けることによって簡易に高精度の肌画像の撮影が可能となる。殆どの女性は保護ケースに入れてスマートフォン222を使用するが、ケースの上から取り付けても焦点が合うアジャスト機能を搭載することにより、保護ケースを外すことなく最適な撮影が可能となった。また、レンズ開口部にドットコードによるIDを設け、肌と共にドットコードを撮影して個人の肌診断を実施することにより、適切なエイジングケアを提供することが可能となる。ここで、撮影された肌画像は、撮影環境、つまり屋外における朝夕や周辺環境(夕焼けや曇り、雨、雪、建物の色、緑の森の中など)の撮影や、屋内における照明や周辺環境(壁の色や照明の色・強さ・配置など)の撮影によって、レンズに入り込む光色が変化するため、適正な肌診断が困難となる。なお、撮影環境以外にも、スマートフォン222の機種によって若干青っぽく、赤っぽく、白っぽく映るようにカメラの性能の差異がある。そこで、本発明では、媒体自身の色を白色とし、撮影された肌画像と同時に撮影されたID媒体402の画像において、ID媒体402の白色がどのように変化しているかを画像解析し肌画像の補正量を求め、この補正量を基に肌画像の補正を行う。また、レンズの周辺から入り込む光は均一ではなく、方向によっても差異が生じるため、図63のように、少なくともサークルドット300が形成されている周囲の4~8方向における媒体の画像を基に画像解析して肌画像の補正量を定める必要がある。図63では、右下から光が強く入射している事例である。これらの4~8方向における補正量を基に、肌撮影領域全域の補正量を補間して肌画像の補正を行う。補正量の最も簡易な計算方法は、白色はR、G、Bが100%でるため、撮影されたID媒体画像をR’、G’、B’とすると、補正量はその差分であるΔR=R-R’、ΔG=G-G’、ΔB=B-B’となり、撮影された肌画像にΔR、ΔG、ΔBを加算すればよい。さらに、画像解析の精度を高めるためには、肌診断を行うための最適な光環境とカメラにおいてID媒体402の白色を撮影し、撮影されたR、G、Bの値を基準に補正量を計算することが望ましい。また、サークルドット300のドットを黒色で印刷し、撮影されたID媒体402の白色とドットの黒色を使用して補正量を計算すればさらに精度が向上する。黒色はR、G、Bが0%でるあるため、撮影されたID媒体402上のサークルドット画像をR”、G”、B”とすると、白色を基にした補正量ΔR、ΔG、ΔBと、黒色を基にした補正量R”、G”、B”で補完される補正量(撮影された肌画像は、R、G、Bのレベルによって補正量が異なる)をR、G、Bレベルの全域で求め、肌画像を補正すればよい。このためには、肌撮影領域の周辺のID媒体402のドットが4~8方向の位置に形成されている必要がある。
 なお、ID媒体を黒色、ドットを白色とし、同様に補正量を計算してもよい。また、ドットを黒色ではなくR、G、Bを用いて、各色で補正量を計算して肌画像を補正してもよい。
 ここで、肌撮影領域の周辺のID媒体の4~8方向の位置にドットを必ず配置するには、下記に示す第2のサークルドットパターンを用いればよい。
 図64のように、サークルドットパターンは、サークル状の仮想閉鎖曲線上に所定間隔で基準ドットを配置して、基準ドットの少なくとも1個を他のドットと識別できるような形態のキードットとして、サークルドットパターンの配置方向と始点を定義し、仮想的に基準ドットにより定義されたサークル(仮想閉鎖曲線)上において、基準ドットの配置から定められる仮想点を始点とし、距離と方向の少なくともいずれか1つで定められた位置に情報ドットを配置して情報を定義する。キードットは、他の情報ドットと識別するためには、(1)ドットの大きさを変える。(2)ドットの形状を変える。(3)所定の方向にドットをずらす。(4)複数のドットを配置する。(5)ドットの色を変える。のいずれか少なくとも1以上でキードットを表現する。さらに加えて仮想点にドットを配置するか否かでも情報を定義できる。同図の(a)では、基準ドットの上方に1個のドットを配置して、この2個のドットでキードットを定義している。情報ドットはキードットの向き(上方)を基準として斜め4方向に配置している。同図の(b)では、サークル(仮想閉鎖曲線)を挿むように2個のドットをサークルの法線方向に配置してキードットを定義している。情報ドットはサークルの法線方向外向きを基準として斜め4方向に配置している。また、情報ドットは、キードットの向き(上方)を基準として上下左右方向に配置してもよい。また、サークルの法線方向を基準として上下左右方向に配置してもよい。その際、左右方向はサークルに沿って配置してもよい。もちろん、上下方向を無くしてサークル方向のみに情報ドットを配置してもよい。なお、全ての情報ドットの配置は任意の方向にしてもよいことは言うまでもない。
 同65は、情報ドットの配置で定義される数値情報を示している。同図の(a)は斜め4方向、同図の(b)は上下4方向、同図の(c)は斜め4方と上下4方向の8方向の数値情報を示している。図示しないが、仮想点からの距離を変化させることにより、さらに多くの情報を定義できる。また、さらに情報量を増やすために、相似形で大きさの異なるサークルドットを同一の中心点で複数配置してもよい。
 なお、肌診断は直接肌画像を撮影しないで、角質チェッカーを肌に貼り付け、肌より角層を採取した角質チェッカーを本発明のレンズユニット200を使用して撮影してもよい。いずれにしても、撮影画像を外部データベースに送信する。外部データベース側で画像処理及びパターン認識を行って肌画像のデータベースと照合、肌診断を行い、結果をユーザに返信するサービスは極めてユーザのニーズに合致したものである。

<色補正について>
 次に、所定の被写体の色補正について説明する。
 例えば、顔の肌の写真を撮影した場合、朝に撮影したときと夕方に撮影した場合とでは、肌の色が異なる。夕方は、光が赤くなるので、赤っぽくなる。つまり、所定の被写体は、自然光や照明などによる環境光によって、撮影した色が影響される。
 ある物が本来持っている色は表面色と言う。光によってその色が変わることを、光の演出効果と言う。
 光の演出効果によって所定の被写体の色が変わるため、調整を行わないと、本当の被写体の色が分からない。特に検査・分析目的で被写体の撮影を実施するためには、補正を行うのは必須である。
 以下、色補正の具体的な方法について、図66を用いて説明する。
 図66は、色補正に用いるID媒体である。外側の模様は、色補正に用いられる。その内側には、IDコードであるサークルパターンが印刷されている。中央は開口部になっているか、またはフィルム等の透明シートを設けた透明領域となっている。なお、ID媒体と記しているが、必ずしもIDコードが印刷されなくてもよい。その場合は色補正媒体とする。
(ケース1:白色を用いる場合)
 図66(a)は、白色で色補正を行う場合に用いるID媒体(色補正媒体)である。
 被写体をカメラで撮影した場合、その画像はRGBで撮影される。色補正媒体の完全な白色は、白色光を照射すると、各色において全部反射する。したがって、R=100,G=100,B=100である。一方、現実の環境光下で撮影した場合は、完全な白色であっても、必ずしもR=100,G=100,B=100になるとは限らない。白色を用いて色補正を行う場合は、白色を撮影した各R、G、B値を100から減じて求まる差分を、被写体を撮影した画素の各R、G、B値に加算すればよい。
 色補正媒体の外側周辺の白色の部分を撮影した際に、例えば、R=95,G=80,B=90であったとする。この場合の差分は、R=5,G=20,B=10であることから、環境光やカメラの個体差によって各光の強さが影響されている。ここで、被写体を撮影した画像全域の画素値毎にR=5,G=20,B=10を加算すれば、白色の部分については、R=100,G=100,B=100に補正したことになり、完全な白色を表現することになる。しかし、この方法では、黒色を撮影した場合でも、その領域は必ずR=5,G=20,B=10以上となり、黒色を正確に表現できない。このことは、黒色と白色の中間値のも正しく補正されていないことを意味している。
そこで、図68(a)に示すように、撮影した被写体の画素値をRGB、補正後の画素値をR'G'B'とし、色補正媒体の白色の部分を撮影した結果の画素値をrgbとすると、
補正後のR'はR=1~100を採ることから、便宜上未知数xに対して線形で変化するとして、
R' = x -----(1)
さらに、色補正媒体の撮影で得られるrと、RからR'を導く際、(1)と同一値となるxを用いて、
R = rx / 100 -----(2)
従って、
x = 100R / r となる。
これを(1)式に代入すると、未知数xが消えてR’が求まる。
R' = 100R / r  となり、補正後のR値が求まる。
 この計算方法でG’、B’も求まる。
 以上から、写体を撮影した画像全域の画素値毎に上記の計算を前述の課題が解決できる。しかし、上式は線形で中間色を補間したに過ぎない。さらに補正の精度を高めるには、γ補正やその他の補正式、実験式または実験で得られたテーブルを使用するのが望ましい。
(ケース2:白色と黒色を用いる場合)
 図66(b)は、白色と黒色の印刷で色補正を行う場合に用いるID媒体(色補正媒体)である。黒色は、光をすべて吸収するため、どんな光を当てても黒色となる。つまり、光の色に影響されずに、R=0,G=0,B=0となる。そのため、黒色は色補正の基準として用いることができる。但し、カメラの個体差による影響はその限りでない。
 本来、色の値は0~100である。しかし、色補正媒体の黒色の部分を撮影した際に、R=5,G=10,B=0、色補正媒体の白色の部分を撮影した際に、R=95,G=80,B=90であった場合、撮影した被写体の画素値は、R=5~95,G=10~80,B=0~90の範囲の値となり、これらを0~100の階調となるように補正する必要がある。
 そこで、図68(b)に示すように、撮影した被写体の画素値をRGB、補正後の画素値をR’G’B’とし、色補正媒体の黒色の部分を撮影した結果の画素値をr0g0b0、白色の部分を撮影した結果の画素値を、rgbとすると、補正後のR’はR=1~100を採ることから、便宜上未知数xに対して線形で変化するとして、
R’ = x -----(1)
 さらに、色補正媒体の撮影で得られるr、r0と、RからR’を導く際、(1)と同一値となるxを用いて、
R = (r - r0)x / 100 + r0 -----(2)
 従って、
((r - r0)/100) × x = R - r0
x = 100(R - r0) / (r - r0) となる。
これを(1)式に代入すると、未知数xが消えてR’が求まる。
R' = 100(R - r0) / (r - r0) となり、補正後のR値が求まる。
 この計算方法でG’、B’も求まる。なお、白色での補正同様、上式は線形で中間色を補間したに過ぎない。さらに補正の精度を高めるには、γ補正やその他の補正式、実験式または実験で得られたテーブルを使用するのが望ましい。
(ケース3:赤色、緑色、青色を用いる場合)
 図66(c)は、赤色、緑色、青色の印刷で色補正を行う場合に用いるID媒体(色補正媒体)である。
 被写体をカメラで撮影した場合、その画像はRGBで撮影される。色補正媒体に印刷される赤色、緑色、青色は、白色光を照射すると、各色において全部反射する。したがって、R=100,G=100,B=100となる。一方、現実の環境光下で撮影した場合は、完全な赤色、緑色、青色であっても、必ずしもR=100,G=100,B=100になるとは限らない。そこで、RGBを用いて色補正を行う場合は、赤色、緑色、青色を撮影した各R、G、B値を100から減じて求まる差分を、被写体を撮影した画素の各R、G、B値に加算すればよい。
 色補正媒体の外側周辺の赤色、緑色、青色の部分を撮影した際に、例えば、R=95,G=80,B=90であったとする。この場合の差分は、R=5,G=20,B=10であり、環境光やカメラの個体差によって各光の強さが影響されている。ここで、被写体を撮影した画像全域の画素値毎にR=5,G=20,B=10を加算すれば、赤色、緑色、青色の部分については、R=100,G=100,B=100に補正したことになり、完全な赤色、緑色、青色を表現することになる。しかし、この方法では、黒色を撮影した場合でも、その領域は必ずR=5,G=20,B=10以上となり、黒色を正確に表現できない。このことは、黒色と白色の中間値も正しく補正されていないことを意味している。
 そこで、図68(a)に示すように、撮影した被写体の画素値をRGB、補正後の画素値をR’G’B’とし、前述の色補正媒体の赤色、緑色、青色の部分を撮影した結果を、rgbとすると、補正後のR'はR=1~100を採ることから、便宜上未知数xに対して線形で変化するとして、
R' = x -----(1)
さらに、色補正媒体の撮影で得られるrと、RからR'を導く際、(1)と同一値となるxを用いて、
R = rx / 100 -----(2)
従って、
x = 100R / r となる。
これを(1)式に代入すると、未知数xが消えてR’が求まる。
R' = 100R / r  となり、補正後のR値が求まる。
 この計算方法でG’、B’も求まる。
 以上から、写体を撮影した画像全域の画素値毎に上記の計算を前述の課題が解決できる。しかし、上式は線形で中間色を補間したに過ぎない。さらに補正の精度を高めるには、γ補正やその他の補正式、実験式または実験で得られたテーブルを使用するのが望ましい。
(ケース4:赤色、緑色、青色、黒色を用いる場合)
 図66(d)は、赤色、緑色、青色、黒色の印刷で色補正を行う場合に用いるID媒体(色補正媒体)である。黒色は、光をすべて吸収するため、どんな光を当てても黒色となる。つまり、光の色に影響されずに、R=0,G=0,B=0となる。そのため、黒色は色補正の基準として用いることができる。但し、カメラの個体差による影響はその限りでない。
 本来、色の値は0~100である。しかし、色補正媒体の黒色の部分を撮影した際に、R=5,G=10,B=0、色補正媒体の赤色、緑色、青色の部分を撮影した際に、R=95,G=80, B=90であった場合、撮影した被写体の画素値は、R=5~95,G=10~80,B=0~90の範囲の値となり、これらを0~100の階調となるように補正する必要がある。
 そこで、図68(b)に示すように、撮影した被写体の画素値をRGB、補正後の画素値をR’G’B’とし、色補正媒体の黒色の部分を撮影した結果の画素値をr0g0b0、赤色、緑色、青色の部分を撮影した結果の画素値を、rgbとすると、補正後のR’はR=1~100を採ることから、便宜上未知数xに対して線形で変化するとして、
R’ = x -----(1)
さらに、色補正媒体の撮影で得られるr、r0と、RからR’を導く際、(1)と同一値となるxを用いて、
R = (r - r0)x / 100 + r0 -----(2)
従って、
((r - r0)/100) × x = R - r0
x = 100(R - r0) / (r - r0) となる。
これを(1)式に代入すると、未知数xが消えてR’が求まる。
R' = 100(R - r0) / (r - r0) となり、補正後のR値が求まる。
 この計算方法でG’、B’も求まる。なお、白色での補正同様、上式は線形で中間色を補間したに過ぎない。さらに補正の精度を高めるには、γ補正やその他の補正式、実験式または実験で得られたテーブルを使用するのが望ましい。
 以上、色補正媒体を使用しての被写体を撮影した画像の補正について説明したが、白色、赤色、緑色、青色の色補正媒体を撮影した際に、いずれかの画素値が100になった場合、本来は100を超えた画素値であり、サチレーションが発生している可能性がある。そのため、カメラの感度等の補正により、RGBいずれの画素値も100を若干下回るように調整するのが望ましい。なお、黒色についてもRGBいずれの画素値も0を若干上回るように調整するのが望ましい。
(側方から光が入る場合)
 光は必ずしも被写体に均一に照射されるのではなく、日光であっても照明であっても実際には側方から光が入射し、均一ではなく明るい側から若干暗い側に徐々に明るさや色が変化して、被写体を照射されることが多い。
 図67(a)では、このような色補正媒体にリング状に白色と黒色を設けることにより、被写体を撮影する際の光の変化を詳細に計測できるようにしている。具体的に光の変化を色補正するための手順を以下に示す。
 (1)図69(a)に示すように、白色および黒色の計測点を必要箇所に設け(本図では12か所)、(ケース2:白色と黒色を用いる場合)の算定方式に従って、当該箇所のrgb値とr0g0b0値のそれぞれを計測する。白色および黒色とも、円周上等間隔に8~12点の計測点を設けるのが望ましい。
 (2)白色および黒色について、色補正媒体の中心点(円周上の計測点の中心点)を平均値計算点として、円周上の計測結果の各平均値を当該平均値計算点のrgb値とr0g0b0値とする。
 (3)平均値計算点のrgb値とr0g0b0値から、半径方向に円周上の計測結果のrgb値とr0g0b0値までの、各値を線形補間により、半径方向の全画素の位置におけるrgb値とr0g0b0値を求める。計算を簡略化するために、全画素ではなく半径方向を所定の数で分割し、その分割区間を代表する点の各値を求めてもよい。
 (4)半径方向の補間点から、各値を線形補間により、円周方向の全画素の位置におけるrgb値とr0g0b0値を求める。もちろん、計算を簡略化するために、全画素ではなく円周方向を所定の数で分割し、その分割区間を代表する点の各値を求めてもよい。
 (5)(3)、(4)により求まったrgb値とr0g0b0値から、(ケース2:白色と黒色を用いる場合)の算定方式をもとめ、当該位置の画素の色を補正する。なお、計算を簡略化した場合は、半経方向と円周方向に分割した区間から形成される領域の補正は同一式で行う。
 以上の方法により、被写体に照射する光の変化をシミュレーションして、検査・分析目的でも使用に耐える色補間の精度が確保できる。
 図67(b)では、白色と黒色を交互に配置しているが、白色と黒色合わせて近接する4か所のそれぞれでrgb値とr0g0b0値を計測し、それぞれの平均値を求め、当該平均値を図69(b)のrgb値計算代表点のrgb値とr0g0b0値とする。これ以降の色補正は、前述の方法に従って実施すればよい。図67(c)、(d)についても同様に補間および色補正を実施すればよい。言うまでもないが、2次元的に補間する方法は様々な方法があり、適切な方法で補間すればよい。
 本発明は、はがき、切手、グリーティングカード、クーポン、ゲームカード、教育用カード、フィギュアの他、従来のバーコードやQRコード等の2次元コードが利用されている全ての印刷媒体に対して、可視光により読み取り可能な目に見えないドットパターンを付与するという、産業上の利用可能性が考えられる。
 さらに本発明は、タブレット型PC、スマートフォン、携帯電話に保護ケースの上からでも装着可能なレンズユニットを提供するという、産業上の利用可能性が考えられる。
 さらに本発明は、サークルパターンが設けられたID媒体を始め、円形状やドーナツ状の媒体用に2次元コードとしてドットパターンを提供すると共に、ID媒体と被写体を同時に撮影し、IDと被写体を関連づけるという、産業上の利用可能性が考えられる。
 さらに本発明は、撮影画像の色を被写体本来の色に補正する色補正の技術により、人体の肌等を正確に検査・分析できるため、美容、医療分野での産業上の利用可能性が考えられる。
101  ドットパターン
102  イメージ領域
1021 所定領域
1022 成分領域
103  印刷媒体
104  アイコン
105  サーバ
106  顧客端末
107  提供者端末
108  印刷装置
200  レンズユニット
201  レンズホルダー
202  レンズ
203  レンズカバー
204  透明レンズカバー
205  LED
206  バッテリー
207  電池ボタン
208  白色LED
209  ディフュザー
210  IR LED
211  IRフィルタ
212  タブレット型PC
213  クリップ
214  カード
215  ガード
216  フィギュア
221  ケース
222  スマートフォン
230  赤外線遮断フィルタ
300  サークルパターン
301  マーク
302  始点マーク
303  情報ドット
304  情報ドット間周長
305  情報ドット間距離
401  IDコード
402  ID媒体
403  開口部
404  ピント合わせ用模様
405  レンズ一体型レンズホルダー
406  アジャスタ
407  滑り止め
408  ネジ状留め具
409  リング状留め具
400  アーム
411  U字状留め具
412  Oリング
413  台座
414  スマートフォン用カバー

Claims (76)

  1.  カメラと、情報コードを復号化する解析手段と、を備えた情報処理装置に装着するレンズユニットであって、
     前記カメラの撮影口を囲むように着脱自在に装着する下部開口部と、上部開口部と、を両端に備える筒状のレンズホルダーと、
     前記筒状のレンズホルダー内部の所定位置に配置されたレンズと、
     前記レンズホルダーの上部開口部に装着され、所定の被写体を撮影するのに必要な開口部または透明領域を有し、前記解析手段において認証するための前記情報コードの1つであるIDコードが符号化されたパターンを前記カメラで撮影できるように形成されたID媒体と、
    を備えた、レンズユニット。
  2.  前記ID媒体は、前記レンズホルダーの上部開口部に貼付されるか、嵌め込まれるか、または捩じ込まれるかのいずれかで装着される、請求項1記載のレンズユニット。
  3.  前記IDコードが符号化されたパターンは、前記ID媒体の開口部または透明領域の周縁近傍に形成された、請求項1または2項記載のレンズユニット。
  4.  前記パターンは、所定の円の周上または所定の楕円の周上または所定の閉じた曲線の周上に所定の規則に基づいて配置された複数のマークで形成され、該所定の規則により前記IDコードが符号化されたサークルパターンである、請求項1-3のいずれか1項記載のレンズユニット。
  5.  前記ID媒体の開口部の周縁近傍または、前記ID媒体の透明領域の中央近傍または周縁近傍に、前記カメラの撮影時にピントを合わせ易くするための模様が印刷された、請求項1-4のいずれか1項記載のレンズユニット。
  6.  前記模様は、透過性のインクで印刷された、請求項5記載のレンズユニット。
  7.  前記ID媒体は前記レンズホルダーと一体成型された、請求項1-6のいずれか1項記載のレンズユニット。
  8. 前記レンズユニットは、さらに、所定の位置に赤外線フィルターと、を備えた、請求項1-7のいずれか1項記載のレンズユニット。
  9.  前記所定の被写体は、前記レンズホルダーの上部開口部に接面して撮影される、請求項1-8のいずれか1項記載のレンズユニット。
  10.  前記レンズホルダーの上部開口部に設けられ、前記所定の被写体を撮影するのに必要な開口部または透明領域を有するレンズカバーと、をさらに備えた、請求項1-9のいずれか1項記載のレンズユニット。
  11.  前記所定の被写体は、前記レンズホルダーの上部開口部または前記レンズカバーに接面して撮影される、請求項10記載のレンズユニット。
  12.  前記ID媒体は、前記レンズカバーの上部開口部に貼付されるか、嵌め込まれるか、捩じ込まれるか、または該レンズカバーと前記レンズホルダーの間に挿まれるかのいずれかで装着される、請求項10または11記載のレンズユニット。
  13.  前記レンズカバーは、前記レンズホルダーと前記ID媒体の少なくともいずれかと一体成型された、請求項10-12のいずれか1項記載のレンズユニット。
  14.  前記レンズユニットは、さらに、前記情報処理装置に装着するために、前記レンズホルダーの下部開口部に装着した滑り止めと、を備えた、請求項1-13のいずれか1項記載のレンズユニット。
  15.  前記滑り止めは、前記レンズホルダーの下部開口部に貼付されるか、嵌め込まれるか、または捩じ込まれるかのいずれかで装着される、請求項14記載のレンズユニット。
  16.  前記滑り止めは前記レンズホルダーと一体成型された、請求項14または15記載のレンズユニット。
  17.  前記レンズホルダーの下部開口部に設けられ、前記所定の被写体を撮影するのに必要な開口部または透明領域を有し、前記レンズから前記カメラまでの適正な距離に調節するアジャスタと、をさらに備えた、請求項1-16のいずれか1項記載のレンズユニット。
  18.  前記レンズユニットは、さらに、前記レンズホルダーの上部開口部の外周壁周辺に前記所定の被写体を安定して載置するための台座と、を備えた、請求項1-17のいずれか1項記載のレンズユニット。
  19.  前記台座は、前記レンズホルダーと一体成型された、請求項18記載のレンズユニット。
  20.  前記台座と、前記レンズホルダーの上部開口部に設けられ、前記所定の被写体を撮影するのに必要な開口部または透明領域を有するレンズカバーと、が一体成型された、請求項10に従属する請求項18記載のレンズユニット。
  21.  前記レンズユニットは、さらに、前記情報処理装置に接続されたカメラまたは前記カメラが内蔵された情報処理装置に装着するために、該レンズユニットを固定するためのクリップと、を備えた、請求項1-20のいずれか1項記載のレンズユニット。
  22.  前記クリップのアームは、一方の端部が前記レンズホルダーに取り付けられ、もう一方の端部は前記カメラが備えられた情報処理装置の裏側を挿みこむように形成された、請求項21記載のレンズユニット。
  23.  前記レンズホルダーに取り付けられる前記クリップのアームの一方の端部は、リング状またはU型状の留め具であり、該留め具に該レンズホルダーを通して取り付けられた、請求項21または22記載のレンズユニット。
  24.  前記クリップの留め具を固定するために、ネジ状の第2の留め具が前記レンズホルダーを通して取り付けられた、請求項23記載のレンズユニット。
  25.  前記クリップの留め具と前記第2の留め具との間にOリングが前記レンズホルダーを通して取り付けられた、請求項24記載のレンズユニット。
  26.  前記クリップは、前記レンズホルダー、前記レンズカバーの少なくともいずれかと一体成型された、請求項21-25のいずれか1項記載のレンズユニット。
  27.  前記クリップは、前記情報処理装置の裏側を挿みこんで、前記レンズユニットを上向きに該情報処理装置を水平面に載置した場合、該クリップのアームが水平面に所定の領域が接面するよう設計された、請求項21-26のいずれか1項記載のレンズユニット。
  28.  カメラと、情報コードを復号化する解析手段と、を備えた情報処理装置に装着するレンズユニットであって、
     前記カメラの撮影口を囲むように着脱自在に装着する下部開口部と、上部開口部と、を両端に備える筒状のレンズホルダーと、
     前記筒状のレンズホルダー内部の所定位置に配置されたレンズと、
     前記レンズホルダーの下部開口部に設けられ、前記所定の被写体を撮影するのに必要な開口部または透明領域を有し、前記レンズから前記カメラまでの距離を適正に調節するアジャスタと、を備えた、レンズユニット。
  29. 前記レンズホルダーの上部開口部に装着され、所定の被写体を撮影するのに必要な開口部または透明領域を有し、前記解析手段において認証するための前記情報コードの1つであるIDコードが符号化されたパターンを前記カメラで撮影できるように形成されたID媒体をさらに備えた、請求項28記載のレンズユニット。
  30.  前記ID媒体は、前記レンズホルダーの上部開口部に貼付されるか、嵌め込まれるか、または捩じ込まれるかのいずれかで装着される、請求項29記載のレンズユニット。
  31.  前記IDコードが符号化されたパターンは、前記ID媒体の開口部または透明領域の周縁近傍に形成された、請求項29または30記載のレンズユニット。
  32.  前記パターンは、所定の円の周上または所定の楕円の周上または所定の閉じた曲線の周上に所定の規則に基づいて配置された複数のマークで形成され、該所定の規則により前記IDコードが符号化されたサークルパターンである、請求項29-31のいずれか1項記載のレンズユニット。
  33.  前記ID媒体の開口部の周縁近傍または、前記ID媒体の透明領域の中央近傍または周縁近傍に、前記カメラの撮影時にピントを合わせ易くするための模様が印刷された、請求項29-32のいずれか1項記載のレンズユニット。
  34.  前記模様は、透過性のインクで印刷された、請求項32記載のレンズユニット。
  35.  前記ID媒体は前記レンズホルダーと一体成型された、請求項29-34のいずれか1項記載のレンズユニット。
  36. 前記レンズユニットは、さらに、所定の位置に赤外線フィルターと、を備えた、請求項29-35のいずれか1項記載のレンズユニット。
  37.  前記所定の被写体は、前記レンズホルダーの上部開口部に接面して撮影される、請求項28-36のいずれか1項記載のレンズユニット。
  38.  前記レンズホルダーの上部開口部に設けられ、前記所定の被写体を撮影するのに必要な開口部または透明領域を有するレンズカバーと、をさらに備えた、請求項29-37のいずれか1項のいずれか1項記載のレンズユニット。
  39.  前記所定の被写体は、前記レンズホルダーの上部開口部または前記レンズカバーに接面して撮影される、請求項38記載のレンズユニット。
  40.  前記レンズユニットは、さらに、前記情報処理装置に装着するために、前記レンズホルダーの下部開口部に装着した滑り止めと、を備えた、請求項29-39のいずれか1項記載のレンズユニット。
  41.  前記滑り止めは、前記レンズホルダーの下部開口部に貼付されるか、嵌め込まれるか、または捩じ込まれるかのいずれかで装着される、請求項40記載のレンズユニット。
  42.  前記滑り止めは前記レンズホルダーと一体成型された、請求項40または41記載のレンズユニット。
  43.  前記滑り止めは、前記アジャスタの開口部に貼付されるか、嵌め込まれるか、捩じ込まれるか、または該アジャスタと前記レンズホルダーの間に装着されるかのいずれかで装着される、請求項40-42記載のレンズユニット。
  44.  前記アジャスタは、前記レンズホルダーまたは前記滑り止めの少なくともいずれかと一体成型された、請求項43記載のレンズユニット。
  45.  前記レンズユニットは、さらに、前記レンズホルダーの上部開口部の外周壁周辺に前記所定の被写体を安定して載置するための台座と、を備えた、請求項29-44のいずれか1項記載のレンズユニット。
  46.  前記台座は、前記レンズホルダーと一体成型された、請求項45記載のレンズユニット。
  47.  前記台座と、前記レンズホルダーの上部開口部に設けられ、前記所定の被写体を撮影するのに必要な開口部または透明領域を有するレンズカバーと、が一体成型された、請求項45または46記載のレンズユニット。
  48.  前記レンズユニットは、さらに、前記情報処理装置に接続されたカメラまたは前記カメラが内蔵された情報処理装置に装着するために、該レンズユニットを固定するためのクリップと、を備えた、請求項29-47のいずれか1項記載のレンズユニット。
  49.  前記クリップのアームは、一方の端部が前記レンズホルダーに取り付けられ、もう一方の端部は前記カメラが備えられた情報処理装置の裏側を挿みこむように形成された、請求項48記載のレンズユニット。
  50.  前記レンズホルダーに取り付けられる前記クリップのアームの一方の端部は、リング状またはU型状の留め具であり、該留め具に該レンズホルダーを通して取り付けられた、請求項48または49記載のレンズユニット。
  51.  前記クリップの留め具を固定するために、ネジ状の第2の留め具が前記レンズホルダーを通して取り付けられた、請求項50記載のレンズユニット。
  52.  前記クリップの留め具と前記アジャスタまたは前記第2の留め具との間にOリングが前記レンズホルダーを通して取り付けられた、請求項51記載のレンズユニット。
  53.  前記クリップは、前記レンズホルダー、前記レンズカバー、または前記アジャスタの少なくともいずれかと一体成型された、請求項38に従属する請求項48記載のレンズユニット。
  54.  前記レンズホルダーにはネジ山が設けられており、前記台座、前記レンズカバー、前記第2の留め具、前記クリップ、または前記アジャスタの少なくとも該アジャスタはネジで脱着可能である、請求項38に従属する請求項45に従属する請求項48記載のレンズユニット。
  55.  前記クリップは、前記情報処理装置の裏側を挿みこんで、前記レンズユニットを上向きに該情報処理装置を水平面に載置した場合、該クリップのアームが水平面に所定の領域が接面するよう設計された、請求項48記載のレンズユニット。
  56.  前記カメラは前記情報処理装置に内蔵されている、請求項1-55のいずれか1項記載のレンズユニット。
  57.  前記カメラは有線または無線で前記情報処理装置と接続されており、該カメラで撮影された前記所定の被写体の画像および/または前記解析手段で復号化した情報コードを前記情報処理装置に送信する、請求項1-56のいずれか1項記載のレンズユニット。
  58.  前記カメラは前記解析手段を含む、請求項1-57のいずれか1項記載のレンズユニット。
  59.  前記所定の被写体は、情報コードが符号化されたドットパターンが印刷された印刷媒体であって、
     前記解析手段は、前記カメラで撮影された前記ドットパターンから情報コードを復号化する、請求項1-58のいずれか1項記載のレンズユニット。
  60.  前記レンズホルダーは前記レンズと一体成型された、請求項1-59のいずれか1項記載のレンズユニット。
  61.  前記レンズユニットは、さらに、前記所定の被写体に概ね均一に照射されるように前記レンズホルダーの外周壁の所定位置に設置された光源と、
     前記光源に対し電力を供給する電源と、を備えた、請求項1-60のいずれか1項記載のレンズユニット。
  62.  前記電源は、前記情報処理装置から供給される、請求項61記載のレンズユニット。
  63.  前記情報処理装置は、前記カメラで撮影された前記パターンからIDコードを復号化して前記所定の被写体の撮影画像を対応付けて記録する記憶手段を備えた、請求項1-27、請求項29-62のいずれか1項記載のレンズユニット。
  64.  前記情報処理装置は、前記記憶手段に記録された復号化されたIDコードと共に、該IDコードと対応付けられた前記所定の被写体の撮影画像をサーバに送信する情報処理手段を備えた、請求項63記載のレンズユニット。
  65.  前記所定の被写体は、人体の部位である、請求項1-58、60-64のいずれか1項記載のレンズユニット。
  66.  前記情報処理装置は、スマートフォン、携帯電話、カメラ付きPC、デジカメである、請求項1-65のいずれか1項記載のレンズユニット。
  67.  請求項1-27、請求項29-66のいずれか1項に記載されたレンズユニットを前記情報処理装置のカメラの撮影口を囲むように装着して、該情報処理装置に備えた解析手段により、所定の被写体と共にIDコードが符号化されたパターンを該カメラで撮影した画像から該IDコードを復号化するか、該所定の被写体と共に復号化した該IDコードを第2の情報処理装置に送信する、プログラム。
  68. 所定の被写体を画像処理
    前記解析手段は、前記所定の被写体を撮影した画像を画像処理して所定の情報をさらに取得し、少なくとも該所定の情報を前記情報処理装置で出力するか、および/または前記IDコードと共に該所定の情報を第2の情報処理装置に送信する、請求項67記載のプログラム。
  69.  請求項1-27、請求項29-66のいずれか1項に記載されたレンズユニットを前記情報処理装置のカメラの撮影口を囲むように装着して、所定の被写体と共にIDコードが符号化されたパターンを該カメラで撮影した画像が送信された第2の情報処理装置に備えた解析手段により、該画像から該IDコードを復号化する、プログラム。
  70.  前記解析手段は、前記所定の被写体を撮影した画像を画像処理して所定の情報をさらに取得する、請求項69記載のプログラム。
  71.  請求項1-66のいずれか1項に記載されたレンズユニットを前記情報処理装置のカメラの撮影口を囲むように装着して、該情報処理装置に備えた解析手段により、前記情報コードが符号化されたドットパターンが印刷された前記所定の媒体を該カメラで撮影した画像から、該情報コードに復号化するか、および/または復号化した該情報コードに対応する情報を出力するか、および/または復号化した該情報コードおよび/または復号化した該情報コードに対応する情報を第2の情報処理装置に送信する、プログラム。
  72.  請求項1-27、請求項29-66のいずれか1項に記載されたレンズユニットを前記情報処理装置のカメラの撮影口を囲むように装着して、該情報処理装置に備えた解析手段により、情報コードが符号化されたドットパターンが印刷された前記所定の媒体と共にIDコードが符号化されたパターンを該カメラで撮影した画像から、該情報コードと該IDコードに復号化するか、および/または復号化した該情報コードと該IDコードに対応する情報を出力するか、および/または復号化した情報コードと該IDコード、および/または復号化した情報コードと該IDコードに対応した情報を第2の情報処理装置に送信する、プログラム。
  73.  請求項1-請求項66のいずれか1項に記載されたレンズユニットを備え、請求項67、68、71、72のいずれか1項に記載されたプログラムを搭載した、カメラ付き情報処理装置。
  74.  請求項69または70のいずれかに記載されたプログラムを搭載した、第2の情報処理装置。
  75.  請求項1-請求項66のいずれか1項に記載されたレンズユニットを備えたカメラ付き情報処理装置。
  76.  請求項75記載のカメラ付き情報処理装置と、該情報処理装置と通信する第2の情報処理装置と、を備えた情報処理システム。
PCT/JP2013/068186 2012-07-02 2013-07-02 レンズユニット WO2014007268A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP13813445.7A EP2869235A4 (en) 2012-07-02 2013-07-02 Lens Assembly
US14/412,123 US20150341533A1 (en) 2012-07-02 2013-07-02 Lens unit
CN201380045818.9A CN104641380A (zh) 2012-07-02 2013-07-02 镜头单元
JP2014523756A JPWO2014007268A1 (ja) 2012-07-02 2013-07-02 レンズユニット

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2012148600A JP5294100B1 (ja) 2012-07-02 2012-07-02 ドットパターン読み取り用レンズユニット、ドットパターン読み取り用レンズユニットを台座に装着されたフィギュア、ドットパターン読み取り用レンズユニットに載置するカード、情報処理装置、情報処理システム
JP2012148579 2012-07-02
JP2012-148579 2012-07-02
JP2012-148600 2012-07-02
JP2013119343A JP6294012B2 (ja) 2012-07-02 2013-06-05 レンズユニット
JP2013-119343 2013-06-05

Publications (1)

Publication Number Publication Date
WO2014007268A1 true WO2014007268A1 (ja) 2014-01-09

Family

ID=52780112

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/068186 WO2014007268A1 (ja) 2012-07-02 2013-07-02 レンズユニット

Country Status (5)

Country Link
US (1) US20150341533A1 (ja)
EP (1) EP2869235A4 (ja)
JP (1) JPWO2014007268A1 (ja)
CN (1) CN104641380A (ja)
WO (1) WO2014007268A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103945125A (zh) * 2014-04-14 2014-07-23 立德高科(北京)数码科技有限责任公司 能够对点阵图形图像进行分析的摄像装置及其方法
DE102015219426A1 (de) 2015-10-07 2017-04-13 Universität Stuttgart Verfahren und Vorrichtung zur Überprüfung einer Echtheit eines Gegenstandes

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9672400B2 (en) * 2014-07-08 2017-06-06 Aila Technologies Inc. Imaging and peripheral enhancements for mobile devices
US20160366316A1 (en) * 2015-06-12 2016-12-15 Htc Corporation Skin analysis device and image capturing module thereof
CN108702400B (zh) * 2015-12-14 2021-05-28 高露洁-棕榄公司 颜色测量夹具
US10783734B2 (en) * 2018-03-26 2020-09-22 Verifyme, Inc. Device and method for authentication
CN109815768B (zh) * 2019-01-31 2023-02-21 福州符号信息科技有限公司 一种条码识读设备
CN111736286B (zh) * 2019-03-25 2022-03-29 宁波舜宇光电信息有限公司 光学镜头、摄像模组及其生产管理方法
JP7323787B2 (ja) * 2019-07-31 2023-08-09 日亜化学工業株式会社 照明装置及び赤外線カメラ付き照明装置

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07311811A (ja) * 1994-05-17 1995-11-28 Olympus Optical Co Ltd 情報再生装置
JPH11312214A (ja) * 1998-04-30 1999-11-09 Toshiba Tec Corp シンボル読取装置
JP2000011083A (ja) * 1998-06-18 2000-01-14 Denso Corp 光学情報読取装置
JP2004029871A (ja) 2002-06-21 2004-01-29 Hitachi Ltd 交通情報システム
JP2006040832A (ja) 2004-07-30 2006-02-09 Yokowo Co Ltd 電気コネクタ
JP2007105819A (ja) 2005-10-12 2007-04-26 Denso Corp ねじ切り工具、ねじ加工装置及びねじ加工方法
JP2007310894A (ja) * 2007-05-22 2007-11-29 Kenji Yoshida ドットパターン読取ユニット及びこれを備えたマウス
JP2009230729A (ja) 2008-03-21 2009-10-08 Akiba Soft:Kk ビジュアルなqrコード
JP2009259192A (ja) 2008-03-27 2009-11-05 Denso Wave Inc 二次元コード、二次元コード生成方法、二次元コードを表示させるコンピュータ読み取り可能なプログラム、二次元コードを利用した認証方法、及び二次元コードを利用した情報提供方法
WO2010016277A2 (ja) * 2008-08-08 2010-02-11 Yoshida Kenji 読取ユニット
JP4465016B2 (ja) 2005-04-01 2010-05-19 健治 吉田 情報再生装置及び情報入力装置
WO2011007783A1 (ja) 2009-07-13 2011-01-20 Yoshida Kenji ストリームドットパターン、ストリームドットパターンの形成方法、ストリームドットパターンを用いた情報入出力方法およびドットパターン

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57105623U (ja) * 1980-12-18 1982-06-29
CN1160869A (zh) * 1995-04-14 1997-10-01 三星航空产业株式会社 用条形码检测更换镜头的最大/最小光圈调节值的检测器
JP2001033712A (ja) * 1999-07-16 2001-02-09 Masaaki Sunaga 拡大鏡
JP4216523B2 (ja) * 2002-04-25 2009-01-28 スカラ株式会社 ユニット
JP2004102315A (ja) * 2002-05-27 2004-04-02 Oki Electric Ind Co Ltd レンズ
JP2004286776A (ja) * 2003-03-19 2004-10-14 Mitsui & Associates Telepark Corp 接写用ルーペ、接写用デジタルカメラ、携帯電話装置及び肌診断用サーバ
WO2005106769A2 (en) * 2004-04-26 2005-11-10 Direct Measurements Inc. Concentric-ring circular bar code
US7270277B1 (en) * 2004-05-21 2007-09-18 Koziol Jeffrey E Data encoding mark for placement in a compact area and an object carrying the data encoding mark
JP2006208857A (ja) * 2005-01-28 2006-08-10 Scalar Corp カメラ付き携帯電話またはデジタルカメラ用アタッチメント
JP4433303B2 (ja) * 2005-02-15 2010-03-17 ソニー株式会社 レンズユニット及び撮像装置
AU2007254626A1 (en) * 2007-12-21 2009-07-09 Canon Kabushiki Kaisha Data encoding and decoding using circular configurations of marks
RU2546570C2 (ru) * 2009-06-30 2015-04-10 Санофи-Авентис Дойчланд Гмбх Круговой штрихкод для контейнера для лекарств
CN101707735A (zh) * 2009-11-20 2010-05-12 天津市阿波罗信息技术有限公司 一种适于手机点读播放多媒体的代码生成方法
JP6294012B2 (ja) * 2012-07-02 2018-03-14 グリッドマーク株式会社 レンズユニット

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07311811A (ja) * 1994-05-17 1995-11-28 Olympus Optical Co Ltd 情報再生装置
JPH11312214A (ja) * 1998-04-30 1999-11-09 Toshiba Tec Corp シンボル読取装置
JP2000011083A (ja) * 1998-06-18 2000-01-14 Denso Corp 光学情報読取装置
JP2004029871A (ja) 2002-06-21 2004-01-29 Hitachi Ltd 交通情報システム
JP2006040832A (ja) 2004-07-30 2006-02-09 Yokowo Co Ltd 電気コネクタ
JP4465016B2 (ja) 2005-04-01 2010-05-19 健治 吉田 情報再生装置及び情報入力装置
JP2007105819A (ja) 2005-10-12 2007-04-26 Denso Corp ねじ切り工具、ねじ加工装置及びねじ加工方法
JP2007310894A (ja) * 2007-05-22 2007-11-29 Kenji Yoshida ドットパターン読取ユニット及びこれを備えたマウス
JP2009230729A (ja) 2008-03-21 2009-10-08 Akiba Soft:Kk ビジュアルなqrコード
JP2009259192A (ja) 2008-03-27 2009-11-05 Denso Wave Inc 二次元コード、二次元コード生成方法、二次元コードを表示させるコンピュータ読み取り可能なプログラム、二次元コードを利用した認証方法、及び二次元コードを利用した情報提供方法
WO2010016277A2 (ja) * 2008-08-08 2010-02-11 Yoshida Kenji 読取ユニット
WO2011007783A1 (ja) 2009-07-13 2011-01-20 Yoshida Kenji ストリームドットパターン、ストリームドットパターンの形成方法、ストリームドットパターンを用いた情報入出力方法およびドットパターン

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2869235A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103945125A (zh) * 2014-04-14 2014-07-23 立德高科(北京)数码科技有限责任公司 能够对点阵图形图像进行分析的摄像装置及其方法
DE102015219426A1 (de) 2015-10-07 2017-04-13 Universität Stuttgart Verfahren und Vorrichtung zur Überprüfung einer Echtheit eines Gegenstandes

Also Published As

Publication number Publication date
US20150341533A1 (en) 2015-11-26
JPWO2014007268A1 (ja) 2016-06-02
CN104641380A (zh) 2015-05-20
EP2869235A4 (en) 2016-01-20
EP2869235A1 (en) 2015-05-06

Similar Documents

Publication Publication Date Title
JP6995272B2 (ja) 印刷用データの生成方法
WO2014007268A1 (ja) レンズユニット
JP5094972B2 (ja) パーソナルケア製品を推奨するための方法及びそのためのツール
KR102146561B1 (ko) 모바일 초분광 카메라 시스템 및 모바일 초분광 카메라 시스템을 이용한 인간 피부 모니터링
US9338379B2 (en) System, device, and method for obtaining an image of a person's skin
CN106163384B (zh) 信息处理装置、信息处理方法和程序
EP3134850A2 (en) System and method for controlling a camera based on processing an image captured by other camera
US10712203B2 (en) Color calibration device, color calibration system, color calibration hologram, color calibration method, and program
US20110001843A1 (en) Image processing apparatus, image processing method, and electronic camera
JP7106688B2 (ja) 薬剤識別システム、薬剤識別装置、薬剤識別方法及びプログラム
JP2016202286A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2007094535A (ja) 認証システム及び認証方法
JP2016142988A (ja) 表示装置及び表示制御プログラム
JP2010272097A (ja) 緑視率測定装置、方法及びプログラム
JP5294100B1 (ja) ドットパターン読み取り用レンズユニット、ドットパターン読み取り用レンズユニットを台座に装着されたフィギュア、ドットパターン読み取り用レンズユニットに載置するカード、情報処理装置、情報処理システム
JP2011133877A (ja) 画像表示装置、および画像処理装置
US9473670B2 (en) Peripheral with image processing function
JP2007133560A (ja) 近赤外線顔画像作成装置、近赤外線顔画像作成方法、及び顔画像照合装置
JP2013141200A (ja) 画像処理装置、プログラム、画像処理方法及び撮像装置
JP5598045B2 (ja) 画像処理装置、画像処理プログラム、撮像装置及び画像表示装置
JP2014180284A (ja) 分析用肌画像生成システムおよび分析用肌画像生成方法
KR20160095958A (ko) 렌즈 유닛
JP2012104879A (ja) 画像撮像装置、画像表示装置、画像処理方法、画像処理プログラム、および画像撮像表示装置
JP2006109005A (ja) 画像出力装置および撮像装置
CN108701700A (zh) 被配置用于双模式操作的图像传感器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13813445

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14412123

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2014523756

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2013813445

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2013813445

Country of ref document: EP