WO2016043342A2 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
WO2016043342A2
WO2016043342A2 PCT/JP2015/077225 JP2015077225W WO2016043342A2 WO 2016043342 A2 WO2016043342 A2 WO 2016043342A2 JP 2015077225 W JP2015077225 W JP 2015077225W WO 2016043342 A2 WO2016043342 A2 WO 2016043342A2
Authority
WO
WIPO (PCT)
Prior art keywords
image
information processing
information
processing apparatus
screen
Prior art date
Application number
PCT/JP2015/077225
Other languages
English (en)
French (fr)
Other versions
WO2016043342A3 (ja
Inventor
吉田 健治
Original Assignee
株式会社I・Pソリューションズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社I・Pソリューションズ filed Critical 株式会社I・Pソリューションズ
Publication of WO2016043342A2 publication Critical patent/WO2016043342A2/ja
Publication of WO2016043342A3 publication Critical patent/WO2016043342A3/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means

Definitions

  • the present invention relates to an information processing apparatus that performs processing based on an image photographed by a photographing means, an optical apparatus combined with a photographing means provided in the information processing apparatus, an information processing system including the information processing apparatus and the optical apparatus, and photographing by the photographing means.
  • the present invention relates to a program used for processing based on a processed image and an object used therewith.
  • Patent Document 1 discloses an information output device that photographs a card placed on a stage surface with a camera disposed below the stage surface and identifies the position of the card.
  • a projector is disposed under the stage surface, and projects an image corresponding to the position of the card onto the stage surface.
  • the card functions as an interface for giving an instruction regarding video projection to the information output device. An instruction can be given to the information output device by an intuitive operation of moving the card.
  • Patent Document 1 the information output device of Patent Document 1 is designed and manufactured exclusively for an expensive optical system for specifying the position of a display or card for projecting an image in order to realize the excellent interface as described above.
  • An object of the present invention is to provide an information processing apparatus that realizes an excellent interface that can use components that are easily available in the market.
  • the objective of this invention is providing the simple optical apparatus combined with the information processing apparatus which concerns on this invention.
  • Another object of the present invention is to provide an information processing system that realizes an excellent interface at a low cost by combining the information processing apparatus according to the present invention with a simple optical device.
  • Another object of the present invention is to provide a program that uses the information processing apparatus according to the present invention. It is providing the target object used with the information processing apparatus which concerns on this invention, an optical apparatus, an information processing system, or a program.
  • An information processing apparatus includes: An image display unit arranged on one side; An imaging unit that is provided at a predetermined position on the one surface and that captures a direction in which the one surface faces; An information processing apparatus comprising: An optical device that guides light to the photographing means so that at least a part of the image of the image display unit is photographed is attached; An image including an object positioned on the screen of the image display unit, or an image including an object positioned on the screen and an object positioned in the vicinity of the screen; Processing is performed based on the captured image.
  • An information processing apparatus includes: Based on the photographed image, the type of the object, the position of the object located on the screen of the image display unit, the direction of the object located on the screen, and the amount of movement of the object located on the screen Identifying at least one of the amount of rotation of the object located on the screen and the contour of the object located on the screen; Process based on information on the identified object.
  • the object is provided with an index including at least one of a graphic, a mark, an arrangement of marks, and a pattern of an automatic recognition code, An object is specified based on the index image included in the captured image, and processing is performed based on the specified object.
  • the automatic recognition code includes at least one of a bar code, a two-dimensional code, and a dot code.
  • the object is provided with a dot pattern, The dot pattern has one or more blocks including one or more information dots, Information expressed by one or more information dots included in each block includes position information and / or code value of the block in the object.
  • For each information dot basic information is defined based on at least one of the arrangement, size, shape, and color of the information dot.
  • the indicator has a characteristic of absorbing light of a predetermined wavelength, a characteristic of reflecting light of a predetermined wavelength, and a characteristic of emitting light having characteristics different from the light in response to light having the predetermined characteristic. At least one of the following.
  • the processing includes control of the image display unit.
  • the optical device includes at least one of a prism, a mirror, and an optical fiber.
  • the object includes at least one of a print medium, a thin plate-like medium, and a figure.
  • the information processing apparatus is plate-shaped.
  • An information processing apparatus includes: The indicator indicating the predetermined area of the object and the predetermined area of the object, or the indicator in contact with the predetermined area of the object and the predetermined area of the object are further specified based on the captured image. , Processing is performed based on the predetermined area of the identified object or based on the predetermined area of the identified object and the indicator.
  • the object is provided with a dot pattern,
  • the dot pattern has one or more blocks including one or more information dots, Information expressed by one or more information dots included in each block includes position information of the block in the object, When the predetermined area is specified based on the captured image, the predetermined area is specified based on block position information on the object.
  • An information processing apparatus includes: The image display unit or a detection unit that detects a position on the screen of the indicator that is in contact with the object; Processing is performed based on the detected position of the indicator on the screen and the information of the identified object, or the detected position of the indicator on the screen and the information of the identified object A predetermined area of the target object with which the indicator is brought into contact is specified based on the information, and processing is performed based on the specified predetermined target object area and information on the specified target object.
  • the detection means is a capacitive touch panel.
  • the photographed image forms a still image or a moving image.
  • a moving body video is shot by the shooting means, When further identifying and processing the action of the action body based on the moving image, the action body is further based on the action of the identified action body.
  • the indicator is a finger.
  • the optical device can change a photographing region photographed by the photographing means.
  • the change of the shooting area includes at least one of movement, enlargement, and reduction of the shooting area.
  • a calibration image including a plurality of identification images that can be distinguished from each other is displayed on the screen of the image display unit, and a reference point on the screen is designated by each of the plurality of identification images, Identifying each identification image included in the photographed image based on the photographed image photographed by the photographing means, specifying a photographed image reference position indicating a position of a reference point designated by the identified identification image; From the identification image included in the display image displayed on the screen of the image display unit, the same identification image as the identified identification image is identified, and the position of the reference point specified by the identification image identified as the same is determined.
  • the calibration image represents a grid line, a symbol array, or a dot pattern, and includes an image formed by the plurality of identification images.
  • the identification image forming the image representing the grid line is identified based on at least one of the line type, line color, line thickness, and line spacing.
  • the plurality of identification images forming an image representing the grid lines respectively represent rectangular lines surrounding a plurality of grid areas partitioned by the grid lines, The identification image is identified based on a ratio of rectangular sides.
  • the identification image forming the image representing the symbol arrangement is identified based on at least one of a symbol shape, a symbol size, a symbol color, and a symbol arrangement pattern.
  • An image including a dot pattern is displayed on the screen of the image display unit, The dot pattern has one or more blocks including one or more information dots, Information expressed by one or more information dots included in each block includes information including a position where the block is displayed.
  • the information processing device Based on the photographed image photographed by the photographing means, specify part or all of the outline of the image on the screen of the image display unit included in the photographed image, Based on a part or all of the specified contour, a position correspondence relationship indicating a correspondence between a position in a captured image photographed by the photographing unit and a position in a display image displayed on the screen of the image display unit is obtained. Information on the object is specified based on the positional correspondence and the captured image.
  • the optical device is provided with an irradiating unit that irradiates an imaging region imaged by the imaging unit.
  • the irradiation unit irradiates light having a predetermined wavelength.
  • the optical device is provided with a filter that transmits light of the first wavelength and blocks light of the second wavelength, and the imaging region is imaged through the filter.
  • the optical device according to one aspect of the present invention is combined with the information processing device according to any of the first to thirty-first aspects.
  • An information processing system according to one aspect of the present invention is combined with the information processing apparatus according to the first to thirty-first aspects, the optical apparatus according to the one aspect, and the information processing apparatus according to the first to thirty-first aspects. Equipped with a target object.
  • a program according to an aspect of the present invention is combined with the information processing system according to the above aspect, and causes the information processing apparatus to execute the processing.
  • the object according to one aspect of the present invention is combined with the information processing apparatus according to the first to thirty-first aspects.
  • an excellent interface can be realized using components that can be easily obtained on the market.
  • FIG. 1 is a plan view of an information processing system according to an embodiment of the present invention.
  • FIG. 2 is a side view of the information processing system according to the embodiment of the present invention.
  • FIG. 3 is a perspective view of an optical device according to an embodiment of the present invention, and FIG. 3A is a view showing a state where a cover is removed.
  • B is a figure which shows the state which attached the cover.
  • C is a figure which shows the state which attached the irradiation means.
  • FIG. 4 is a perspective view of an optical device including a prism according to another embodiment of the present invention.
  • FIG. 5 is a perspective view of an optical device including an optical fiber module according to still another embodiment of the present invention.
  • FIG. 6 is a view showing an optical device according to still another embodiment of the present invention
  • FIG. 6A is a perspective view of the optical device having a mounting portion for sandwiching the information processing device.
  • B is a side view of the optical device showing a state in which an optical device having an attachment portion for holding the information processing device is attached to the information processing device.
  • C is a perspective view of an optical device having a concave mirror.
  • D is a perspective view of an optical device having a prism having a light incident surface formed in a convex shape.
  • FIG. 7A shows an object according to an embodiment of the present invention that is located on the screen of the image display unit and an object according to an embodiment of the present invention that is located outside the screen.
  • FIG. 8 is a block diagram of the information processing apparatus according to the first embodiment of the present invention.
  • FIG. 9 is a flowchart showing the operation of the information processing apparatus according to the first embodiment of the present invention.
  • FIG. 10 is a diagram illustrating an example of an image displayed on an image display unit controlled based on information on an object.
  • FIG. 11 is a block diagram of an information processing apparatus according to the second embodiment of the present invention.
  • FIG. 12 is a diagram illustrating an example of a dot pattern.
  • FIG. 13 is a diagram showing the correspondence between the arrangement of information dots and information values, and
  • FIG. 13A is a diagram showing the correspondence in an example where information dots can be arranged in eight ways.
  • B is a figure showing correspondence in an example in which information dots can be arranged in four ways.
  • (C) is a figure showing correspondence in another example in which information dots can be arranged in four ways.
  • FIG. 14 is a diagram illustrating correspondence between information dot arrangement and information values in an example in which information dots can be arranged in 16 ways.
  • FIG. 15 is a diagram showing the correspondence between the arrangement of information dots and information values in an example in which 0 to 8 information dots can be arranged at eight predetermined positions.
  • FIG. 15A shows two positions. The figure which shows the value of the information corresponding to the arrangement
  • FIG. 7B is a diagram illustrating an arrangement in which information dots are positioned at four positions and information values corresponding to the arrangement.
  • (C) is a figure which shows the value of the information corresponding to the arrangement
  • FIG. 15A shows two positions. The figure which shows the value of the information corresponding to the arrangement
  • FIG. 7B is a diagram illustrating an arrangement in which information dots are positioned at
  • FIG. 16A is a plan view showing a state in which an example of a calibration image including a grid line image is displayed on the screen of the information processing apparatus according to the fourth embodiment of the present invention.
  • FIG. 7B is a diagram illustrating a captured image of the information processing apparatus captured by the imaging unit in a state where an example of a calibration image including a grid line image is displayed on the screen.
  • FIG. 17A is a diagram illustrating an example of a reference point in a display image.
  • (B) is a figure which shows an example of the reference point in a picked-up image.
  • (C) is a figure which shows an example of the table which determines a positional correspondence.
  • FIG. 18A is a diagram showing a reference point in a captured image and an image of a card placed on the screen.
  • (B) is a figure which shows the positional relationship of the reference point in a display image, and the representative point of the card
  • FIG. 19A is a diagram illustrating an example of an arrangement of symbols included in a calibration image.
  • (B) is a figure which shows an example of the position which arrange
  • FIG. 20A is a diagram illustrating an example of a captured image.
  • FIG. 5B is a diagram illustrating an image obtained by converting a captured image with a function.
  • FIG. 1 is a plan view of the information processing system.
  • FIG. 2 is a side view of the information processing system.
  • FIG. 3A and FIG. 3B are perspective views of the optical device 130.
  • the optical device 130 is combined with the information processing device 100.
  • the information processing system includes an information processing device 100 and an optical device 130.
  • the information processing apparatus 100 includes an image display unit 110 that displays an image, a photographing unit 120 that captures an image, and an optical device 130.
  • the image display unit 110 includes, for example, a liquid crystal display.
  • the photographing unit 120 includes, for example, a CCD camera or a C-MOS camera.
  • the photographed image photographed by the photographing means 120 forms a still image or a moving image.
  • the photographing unit 120 is provided with an image storage unit that stores a photographed image photographed by the photographing unit 120.
  • the image display unit 110 and the photographing unit 120 are stored in a plate-shaped housing 140.
  • the information processing apparatus 100 is plate-shaped.
  • the image display unit 110 is disposed on one surface side of the information processing apparatus 100 (the upper surface 142 side of the housing 140).
  • the screen 111 of the image display unit 110 is exposed.
  • the screen 111 faces in the direction in which the one surface of the information processing apparatus 100 faces.
  • the imaging unit 120 is provided at a predetermined position on the one surface of the information processing apparatus 100 and images the direction in which the one surface is facing.
  • the photographing means 120 is disposed on the periphery of the plate-shaped housing 140.
  • the housing 140 is provided with a photographing hole 141, and the photographing means 120 performs photographing through the photographing hole 141.
  • the optical device 130 guides light to the photographing unit 120 so that at least a part of the image on the screen 111 of the image display unit is photographed.
  • the optical device 130 is attached to the housing 140 of the information processing apparatus 100.
  • the optical device 130 is placed on the upper surface 142 of the housing 140 via the base 131b.
  • the portion 131a of the base 131b is formed so as to avoid the photographing hole 141 of the housing 140.
  • a support portion 131c that supports the base 131b is provided on the lower surface of the base 131b.
  • the support part 131c can change the inclination of the base 131b.
  • the base 131b and the support portion 131c constitute an attachment portion 131.
  • the optical device 130 is attached to the housing 140 by the attachment portion 131.
  • means different from the attachment portion 131 shown in FIGS. 1, 2, 3A, and 3B are used as the optical device 130 and information. You may provide in at least one with the processing apparatus 100.
  • the support unit 131c may be omitted, and the optical device 130 may be provided with means for detachably fixing the base 131b to the upper surface 142 of the housing 140.
  • the optical device 130 may not be detachably attached to the information processing apparatus 100.
  • the optical device 130 may be fixed to the information processing apparatus 100 by a predetermined method.
  • a column 132 is rotatably attached to the attachment portion 131.
  • the longitudinal direction of the support column 132 is a direction that intersects the upper surface 142 of the housing 140.
  • the support column 132 can be rotated around the longitudinal direction.
  • a support portion 133 is attached to the support column 132 to rotatably support the mirror 134.
  • the mirror 134 guides light to the photographing means 120 for photographing.
  • the rotation axis of the mirror 134 is parallel to the screen 111 of the image display unit 110.
  • the support part 133 is slidable in the longitudinal direction of the support column 132.
  • the mirror 134 can rotate in two axial directions and can slide in the longitudinal direction of the support column 132. That is, three degrees of freedom are realized.
  • the optical device 130 can change the imaging region of the imaging unit 120. Using the biaxial rotation and the longitudinal slide, the optical device 130 can change the imaging area so that at least one of movement, enlargement, and reduction of the imaging area is performed.
  • the degree of freedom for moving the mirror can be set arbitrarily. Zero or more degrees of freedom can be set. An optical device that realizes such a degree of freedom can be realized by using a well-known mechanism.
  • the mirror may be provided with a mechanism that can rotate around an axis parallel to the screen and that can slide in a direction perpendicular to the screen. In this case, two degrees of freedom are realized.
  • a cover 135 that covers the mirror 134 is attached to the support portion 133. Since the cover 135 is disposed so as to cover the photographing hole 141, it is possible to prevent light from external illumination or the like from directly entering the photographing unit 120.
  • the cover 135 and the support part 133 may be integrally formed.
  • an irradiation unit 136 that irradiates the imaging region of the imaging unit 120 may be attached to the support unit 133.
  • the optical device 130 may include a prism 134b shown in FIG. 4 or an optical fiber module 134c having an optical fiber shown in FIG.
  • a clip that holds the information processing apparatus 100 may be used.
  • the attachment portion 131 has an abutment portion 131d that abuts against the lower surface of the housing 140 instead of the support portion 131c.
  • the contact portion 131d extends from the base 131b, and the contact portion 131d and the base 131b sandwich the housing 140.
  • FIG. 6C shows an optical device 130b having a concave mirror.
  • the concave mirror of the optical device 130b is designed so that the entire screen 111 is photographed when the optical device 130b is placed at a predetermined position on the upper surface 142 of the housing 140 in a predetermined direction.
  • FIG. 6D shows an optical device 130c having a prism with a light incident surface formed in a convex shape. Similar to the optical device 130b, the convex surface of the optical device 130c is designed so that the entire screen 111 is photographed when the optical device 130b is placed at a predetermined position on the upper surface 142 of the housing 140 in a predetermined direction. ing.
  • the optical devices 130b and 130c realize a wide field of view when photographing the screen 111.
  • the orientation and position of optical elements such as mirrors and prisms are adjusted in order to photograph a desired region.
  • the optical devices 130b and 130c since no means for adjusting the orientation and position of the optical element is required, the structure is simple.
  • the optical devices 130 b and 130 c may be attached to the upper surface 142.
  • an adhesive that can easily peel off the optical devices 130b and 130c from the upper surface 142 and can be attached again can be used.
  • the image capturing unit 120 captures an image including an object located on the screen 111 of the image display unit 110 and / or an object located outside the screen 111.
  • the object located outside the screen 111 is preferably located near the screen.
  • FIG. 7A shows a state where an object according to an embodiment of the present invention is photographed.
  • the imaging unit 120 captures images of the objects 153 a and 153 b located on the screen 111 of the image display unit 110 and / or the objects 153 c and 153 d located outside the screen 111.
  • the object 153a is a card.
  • the card is a print medium, and is a thin plate-like medium.
  • the object 153b is a coin.
  • the object 153c is a figure.
  • the object 153d is a glass.
  • FIGS. 7C and 7D are examples of images taken by the photographing unit 120.
  • FIG. 7B If the function of the optical device 130 that changes the shooting area of the shooting means 120 is used, images of various areas can be shot.
  • FIG. 7B even if the photographing unit 120 expands the photographing region to the outside of the screen 111 so that the indicator pointing to the object (for example, the card 153a) on the screen 111 can be photographed from outside the screen 111.
  • a user's finger 154 may be used as the indicator, or a touch pen may be used.
  • FIG. 8 is a block diagram of the information processing apparatus 100.
  • the information processing apparatus 100 includes an image analysis unit 161, a control unit 162, a storage unit 163, and an audio reproduction unit 164.
  • the storage unit 163 stores a program that causes the information processing apparatus 100 to execute image analysis performed by the image analysis unit 161 and control performed by the control unit 162.
  • the storage unit 163 further includes image data and / or moving image data displayed on the image display unit 110, image data and / or moving image data used for analyzing the captured image by the image analyzing unit 161, and audio reproduction. Audio data to be reproduced by the unit 164 is stored.
  • the program, image data, moving image data, and audio data can be downloaded from a predetermined server using a communication means (not shown).
  • FIG. 9 is a flowchart showing the operation of the information processing apparatus 100.
  • the information processing apparatus 100 causes the image capturing unit 120 to capture an image including the object, and processes information related to the captured image based on the captured image. For example, at least one of the image display unit 110 and the audio reproduction unit 164 is controlled based on the captured image.
  • the program is read from the storage unit 163, and information processing is performed by the control unit 162 based on the program.
  • Image data, moving image data, and audio data are appropriately read from the storage unit 163 and used by the control unit 162 and the image analysis unit 161.
  • the control unit 162 causes the photographing unit 120 to capture an image including the objects 153a and 153b positioned on the screen 111 of the image display unit 110 and / or the objects 153c and 153d (FIG. 7A) positioned outside the screen 111. Photographing is performed (step 171). An image including the objects 153a and 153b located on the screen 111 may always be taken.
  • the control unit 162 causes the image analysis unit 161 to analyze the image. Based on the image of the object photographed by the photographing unit 120 (the image stored in the image storage unit 121), the image analysis unit 161 includes the type, position, orientation, movement amount, rotation amount, and contour of the object. Information on an object including at least one of the items is specified (step 172). Examples of the types of objects include cards, figures, and coins. When the type of the object is specified, it is specified whether the object is a card or a figure.
  • the photographing unit 120 When the photographing unit 120 always captures an image including the objects 153a and 153b located on the screen 111 in step 171, the type of the object (the object located on the screen 111 is obtained in step 172.
  • the photographing unit 120 When both of the objects 153a and 153b and the objects 153c and 153d located outside the screen 111 are photographed, at least one kind of the objects 153a, 153b, 153c and 153d, only the objects 153a and 153b are photographed.
  • At least one kind of the objects 153a and 153b. At least one position of the objects 153a and 153b located on the screen 111, at least one direction of the objects 153a and 153b, and the objects 153a and 153b At least one movement amount, at least one rotation amount of the objects 153a and 153b, and the object 15 a, information of the object comprising at least one of the at least one contour of 153b are identified.
  • the control unit 162 controls at least one of the image display unit 110 and the audio reproduction unit 164 based on the information on the target specified by the image analysis unit 161 (Step 173). As described above, the captured image can form a moving image.
  • step 172 the position of the object that changes from moment to moment is analyzed based on the moving image.
  • the amount of rotation is specified, the direction of the object that changes from moment to moment is analyzed based on the moving image. For example, when the card 153a on which a tank picture is drawn is placed at a predetermined position on the screen 111, the control unit 162 controls the audio reproduction unit 164 so that the audio reproduction unit 164 reproduces the start sound of the tank engine. .
  • the image display unit 110 is controlled so that an image in which soil smoke rises around the card 153a is displayed. As shown in FIG.
  • An image 156a may be displayed, or an image 156b may be displayed in which a tank drawn on the card 156 fires toward the vehicle 157 displayed on the screen 111 as a moving image.
  • a predetermined area 151 in the example of FIG. 1, an area where a star mark “ ⁇ ” is drawn
  • an indicator 154 for example, a user's finger
  • a pen may be used instead of a finger.
  • the indicator 154 may contact the predetermined area 151.
  • a predetermined area 151 (an area near the tank cannon) indicated by the indicator 154 is specified based on the captured image.
  • the control unit 162 can control at least one of the image display unit 110 and the audio reproduction unit 164. For example, control is performed so that a sound like a cannon firing is reproduced and a spark image is displayed in the vicinity of the area 151.
  • the image analysis unit 161 can specify whether the indicator 154 points to the predetermined region 151 from a position away from the predetermined region 151 or whether the indicator 154 is in contact with the predetermined region 151.
  • the image analysis unit 161 specifies based on the shadow of the indicator 154 included in the captured image.
  • the image analysis unit 161 specifies (in reality) the direction in which the indicator 154 points to the predetermined area 151,
  • the predetermined area 151 is specified based on the direction.
  • the image analysis unit 161 analyzes the captured image and (in reality) is determined to be positioned directly below the indicator 154. This area is specified as the predetermined area 151.
  • a detection unit that detects the position on the screen 111 of the indicator 154 that contacts the object 153 located on the screen 111 of the image display unit 110 is used. May be.
  • the detection means is provided on the screen 111 and includes a capacitive touch panel. If the position of the indicator 154 on the screen 111 is detected by the detection means, the indicator 154 is specified to come into contact. If no position is detected, the indicator 154 is identified as being away.
  • the image analysis unit 161 can specify not only the predetermined area 151 of the card 153 but also the indicator 154 based on the photographed image photographed by the photographing unit 120.
  • the predetermined area 151 can be specified in the same manner as described above.
  • the image analysis unit 161 specifies the indicator 154 by comparing the image data and / or moving image data stored in the storage unit 163 with the image of the indicator 154. For example, the image analysis unit 161 compares the image of the indicator 154 with the image data of the user's finger or the pen image data stored in the storage unit 163 and determines that the indicator 154 is the user's finger. To do. This comparison / collation may be determined by extracting feature points between the image of the indicator 154 and the stored image data.
  • the control unit 162 can control at least one of the image display unit 110 and the audio reproduction unit 164 based on the specified predetermined area 151 and the indicator 154.
  • the control unit 162 performs a certain control (for example, a control in which a spark image is displayed in the vicinity of the region 151), and the specified indicator is a blue touch pen.
  • a certain control for example, a control in which a spark image is displayed in the vicinity of the region 151
  • another control for example, a control that displays an image showing the number of remaining cannons in the vicinity of the area 151
  • a pen or a user's hand can be used as the operating body.
  • the image analysis unit 161 adds information on the target object (information including at least one of the type, position, orientation, movement amount, rotation amount, and outline of the target object) based on the captured image forming the moving image.
  • the control unit 162 can control at least one of the image display unit 110 and the audio reproduction unit 164 based on the action of the specified operating body. For example, a circle is drawn clockwise or counterclockwise with the moving object, the moving object is moved along the screen 111, or the moving object is moved away from or closer to the screen 111.
  • the image analysis unit 161 compares the image data and / or moving image data stored in the storage unit 163 with the moving image of the photographed moving body to identify the movement of the moving body.
  • the speed of the moving body and the trajectory of the moving body can be specified.
  • the control unit 162 can perform control based on the speed of the operating body and the trajectory of the operating body.
  • the control may be performed based on the movement of the soap (for example, change from goo to par).
  • the trajectory of the moving body may be specified by extracting feature points that characterize the motion.
  • the information processing apparatus 200 further includes detection means for detecting the position on the screen 111 of the indicator 154 (user's finger) that contacts the object 153 located on the screen 111 of the image display unit 110 (FIG.
  • the detection means is not shown in FIGS. 1 and 2).
  • the detection means is provided on the screen 111 and includes a capacitive touch panel.
  • the detection means detects the position on the screen 111 of the object 153 and / or the indicator 154 that contacts the object 153 or the screen 111 such as an optical touch panel and a pressure-sensitive touch panel in addition to the capacitive touch panel. If possible, any means may be used.
  • FIG. 11 is a block diagram of the information processing apparatus 200.
  • the image analysis unit 161 can specify information on the card 153 including at least one of the type, position, orientation, movement amount, rotation amount, and contour of the card 153 based on the captured image. For example, information including the position of the card 153, that is, the position on the screen 111 and the orientation of the card 153 is specified. Next, the image analysis unit 161 applies the finger of the user based on the information on the card 153 (position and orientation on the screen 111) and the position of the user's finger on the screen 111 detected by the detection unit 265. The area 151 of the card 153 in contact is specified.
  • the control unit 162 controls at least one of the image display unit 110 and the audio reproduction unit 164 based on the identified area 151 of the card 153 and information on the card 153 (position and orientation on the screen 111). For example, when the user places a finger on the area 151 of the card 153 (an area in the vicinity of the tank cannon), a sound is reproduced as if the cannon fired, and a spark image is displayed in the vicinity of the area 151. Is made.
  • the indicator 154 contacts an area on the screen 111 in the vicinity of the object 153 (the indicator 154 is not in contact with the object 153), the information processing apparatus 200 operates as follows.
  • the image analysis unit 161 identifies information on the card 153 (information including the position and orientation on the screen 111) based on the captured image.
  • the control unit 162 controls at least one of the image display unit 110 and the audio reproduction unit 164 based on the information on the specified card 153 and the position of the user's finger on the screen 111 detected by the detection unit 265. For example, when the user places a finger on the area on the screen 111 near the area 151 of the card 153 (the area near the tank cannon), a sound like a cannon firing is reproduced, and a spark is generated near the area 151. Control is performed so that an image is displayed.
  • the object of the present embodiment is provided with an index for specifying the object.
  • the indicator includes at least one of a graphic, a mark, a mark arrangement, and a pattern of an automatic recognition code.
  • the information processing apparatus performs processing based on the identified object. For example, a card (object) provided with a cat graphic index is placed at the center of the screen 111 of the image display unit 110, and a card (object) provided with a dog graphic index is the end of the screen 111. It is assumed that it is mounted on. A predetermined ID number for identifying the card, for example, “1” is set for the cat card. The dog card has an ID number “2”.
  • the storage unit 163 (FIG. 8) stores an ID number, index (graphic) image data, and a correspondence relationship between the ID number and the index.
  • the image analysis unit 161 compares the index image included in the photographed image with the index image data stored in the storage unit 163, and the image of the screen 111 in the photographed image is compared. It is specified that the image of the graphic index of the cat stored in the storage unit 163 is included in the image of the card located at the center. Similarly, the image analysis unit 161 identifies that the image of the card graphic positioned at the edge of the image on the screen 111 in the captured image includes the image of the dog graphic index stored in the storage unit 163. .
  • the image analysis unit 161 Based on the correspondence between the ID number and the index stored in the storage unit 163, the image analysis unit 161 has the ID number of the center card of the screen 111 as “1” and the ID number of the card at the end of the screen 111 is “1”. 2 ”. In this way, the object is specified.
  • the storage unit 163 stores a program associated with the card ID number, image data, moving image data, audio data, and the like.
  • the control unit 162 performs control based on a program corresponding to the card ID number. For example, the character “cat” is displayed in the area of the screen 111 near the card with the ID number “1” (cat card), and the card near the card with the ID number “2” (dog card).
  • Control is performed such that the character “dog” is displayed in the area of the screen 111.
  • an object can be specified in the same manner as when a graphic is used as an index.
  • the mark is, for example, a heart shape or a diamond shape.
  • the object can be specified by the difference in the marks.
  • an array of marks can be used as an index.
  • the array of marks is, for example, a polygon, and marks are arranged at the positions of the vertices of the polygon. The vertex of the polygon coincides with a point representing the mark, for example, the centroid of the mark. It is assumed that an array of marks is provided on two cards (objects).
  • One card is provided with three marks, and the three marks are respectively arranged at the positions of the assumed vertices of an equilateral triangle.
  • the other card is also provided with three marks, and the three marks are respectively arranged at the positions of the vertices of the assumed isosceles triangle.
  • the equilateral triangle arrangement card is placed at the center of the screen 111, and the isosceles triangle arrangement card is placed at the end of the screen 111.
  • the image analysis unit 161 specifies a card based on the mark shape and the mark arrangement (in this case, a polygonal shape). An ID number “3” is set for an equilateral triangle arrangement card, and an ID number “4” is set for an isosceles triangle arrangement card.
  • the storage unit 163 stores an ID number, mark shape data, mark array data, and a correspondence between them.
  • the image analysis unit 161 identifies the mark shape and mark arrangement provided on each card based on the photographed image.
  • the image analysis unit 161 compares the specified mark shape and mark arrangement with the mark shape data and mark arrangement data stored in the storage unit 163, and determines the correspondence stored in the storage unit 163. Based on this, it is specified that the ID number of the card at the center of the screen 111 is “3” and the ID number of the card at the end of the screen 111 is “4”.
  • the control unit 162 performs control based on a program corresponding to the card ID number.
  • an assumed polygon (hereinafter referred to as an assumed polygon) is disturbed when photographed.
  • the photographed assumed polygon shape (polygon shape having a vertex representing the photographed mark) is different from the actual assumed polygon shape.
  • the shape of the photographed equilateral triangle is an isosceles triangle.
  • the image analysis unit 161 estimates the actual assumed polygonal shape from the captured image using the contour shape of the captured screen 111 and the like. The image analysis unit 161 uses the estimated actual assumed polygonal shape when specifying the mark arrangement based on the captured image.
  • the arrangement of points representing the mark (hereinafter referred to as representative point arrangement) is preferably unique. That is, when two cards are arbitrarily selected, the representative point arrangement of one card is enlarged, moved in parallel, and rotated, the representative point arrangement cannot be superimposed on the representative point arrangement of the other card. Is desirable.
  • the indicator can be printed using ink that is invisible on the object. As the ink used for printing the index, a second characteristic that is different from the first light in response to the first light having the characteristic that reacts to the light having the predetermined wavelength and the first light having the predetermined characteristic. An ink having at least one of the characteristics of emitting light may be used.
  • an index may be provided on the object using a material having such characteristics instead of ink.
  • ink having a characteristic of absorbing light of a predetermined wavelength
  • light of a predetermined wavelength is absorbed in the target index portion, and light of the predetermined wavelength is diffusely reflected in other portions. Is done.
  • the object is photographed through a filter that transmits at least light of a predetermined wavelength. That is, the index can be specified by not capturing light of a predetermined wavelength only for the pixel corresponding to the index portion of the object.
  • the indicator is printed with invisible ink having a characteristic of emitting a second light having a characteristic different from the first light in response to the first light having a predetermined characteristic.
  • the index is photographed by emitting visible light having a wavelength different from the color of the object, and the index is specified.
  • the automatic recognition code used for the indicator includes at least one of a bar code, a two-dimensional code, and a dot code.
  • a dot pattern which is a pattern used for a dot code will be described with reference to FIGS.
  • a dot pattern consists of a plurality of dots.
  • the line segments and curves drawn in FIGS. 12 to 15 are given for convenience of explanation, and are not included in the dot pattern.
  • FIG. 12 is a diagram showing a dot pattern according to the present embodiment.
  • the dot pattern shown in FIG. 12 is called GRID1. As shown in FIG.
  • the optical device 130 can be provided with an irradiation means 136 for irradiating the imaging region.
  • an LED capable of irradiating light having a predetermined wavelength onto an object on which a dot pattern has been applied can be used.
  • the photographing means 120 can photograph with light of a predetermined wavelength.
  • the optical device 130 can be provided with a filter 137 that transmits light of the first wavelength and blocks light of the second wavelength.
  • the filter 137 can be provided in the portion 131 a so as to cover the imaging hole 141 of the housing 140. The shooting area is shot through the filter 137.
  • the dots may be printed with a color scheme that can identify the dots, and the dot pattern may be photographed without providing the irradiation means 136 and the filter 137.
  • the dot pattern 1 is generated by arranging fine dots, that is, key dots 2, information dots 3, and reference grid point dots 4 according to a predetermined rule by a dot code generation algorithm. As shown in FIG. 12, on the medium (object) on which the dot pattern 1 is provided, a plurality of line segments extending in one direction and parallel to each other and a plurality of line segments extending in a direction orthogonal to this direction and parallel to each other. A lattice formed by is assumed. Various dots are arranged based on this lattice. These dots constitute one block.
  • Reference grid point dots 4 are arranged at the grid points. Key dots 2 are arranged at positions shifted from the grid points. In the example of FIG. 12, the key dots 2 are arranged at the corners of the block, but may be arranged anywhere in the block. Reference grid point dots 4 are arranged in each of the four corners of a rectangular grid area partitioned by lines forming the grid. A virtual lattice point is set at the center of each lattice region (intersection of rectangular diagonal lines). Information dots 3 are arranged around the virtual grid point with the virtual grid point as a reference.
  • FIG. 12 shows four blocks arranged in close proximity. The grid frame that forms the basis of each block is indicated by a bold line. Adjacent blocks share the reference grid point dot 4 and the key dot 2 on the grid frame.
  • the photographed reference grid point dots 4 are regularly arranged. However, due to distortion of the lens of the photographing unit 120, deformation of the medium provided with the reference grid point dots 4, the array of the captured reference grid point dots 4 is deformed. The deformation of the arrangement of the reference grid point dots 4 causes an error in the analysis of the dot pattern 1. In particular, when four reference lattice point dots arranged at the four corners of the lattice region (located at the corners of the rectangle) are photographed from an oblique direction, the lattice region surrounded by these reference lattice point dots depending on the photographing angle. The degree of deformation increases. Such deformation can be corrected by converting the captured image using a predetermined function f.
  • the function f In order to obtain the function f, first, four reference grid point dots estimated to be arranged at the four corners of the grid area are selected from the photographed reference grid point dots. The positions of the four reference grid point dots are converted, and a function f is obtained so that these are positioned at the corners of the square.
  • the reference grid point dot 4 is used, even if the lens of the photographing unit 120 is distorted or the angle at which the dot pattern is photographed is large, the error in analyzing the dot pattern 1 can be reduced. Can do.
  • the key dots 2 are arranged at positions shifted from the lattice points in a predetermined direction. By extracting the key dot 2 from the captured image, the direction and size of the block can be specified. When the dot pattern 1 is photographed and the direction of displacement of the key dot 2 is specified in the photographed image, the direction or the related direction is specified as the block direction.
  • the amount of shift of the key dot 2 is, for example, about 20% of the interval between adjacent reference grid point dots.
  • Key dot 2 is a dot representing a block.
  • the position of the block on the medium on which the dot pattern 1 is provided can be included in the information (in this embodiment, an ID number for specifying the object is included) ).
  • the information dot 3 is a dot for expressing various information.
  • One or more information dots 3 are included in the block.
  • Each information dot 3 individually defines basic information such as numerical information.
  • Various information, for example, the coordinate value of the position of the block is expressed by the basic information defined in the one or more information dots 3 included in one block.
  • the basic information of the information dot 3 is defined based on at least one of the arrangement, size, shape, and color of the information dot 3.
  • the basic information is numerical information, the basic information has a value.
  • the information dots 3 are arranged with reference to virtual lattice points.
  • the virtual lattice point is set at the center of a rectangular lattice region divided by lines forming the lattice. Assume a vector having a virtual grid point as a start point and an information dot 3 position as an end point.
  • the basic information defined in the information dot 3 is specified based on the direction and length of the vector.
  • the vector direction is specified with reference to a predetermined reference direction.
  • the direction of displacement of the key dots 2 (block direction) is used.
  • a vector that is, an information value (binary value) corresponding to the arrangement of the information dots 3 is determined in advance.
  • the information dot 3 may be positioned only at some predetermined positions.
  • the information dots 3 can be positioned only at eight positions with the virtual lattice point 5 as a reference.
  • the virtual lattice point 5 is drawn with a white circle mark “ ⁇ ”.
  • the virtual lattice point 5 is a virtual point, and the mark “ ⁇ ” is not included in the dot pattern 1. Since the information dot 3 can take eight states, 3-bit information can be expressed.
  • FIG. 13A the virtual lattice point 5 is drawn with a white circle mark “ ⁇ ”.
  • the virtual lattice point 5 is a virtual point, and the mark “ ⁇ ” is not included in the dot pattern 1. Since the information dot 3 can take eight states, 3-bit information can be expressed.
  • FIG. 13A the virtual lattice point 5 is drawn with
  • the number of states that the information dot 3 can take is not limited to eight. For example, as shown in FIG. 13B and FIG. Since the information dot 3 can take four states, 2-bit information can be expressed.
  • the number of states that the information dot 3 can take may be 16. In the example of FIG. 13, the length of the vector (distance from the virtual dot 5 of the information dot 3) is constant. In the example of FIG. 14, the information dot 3 can take two states, that is, whether the length of the vector is long or short.
  • the length of the longer vector is preferably about 25% of the interval between adjacent reference grid point dots 4, and the length of the shorter vector is preferably about 15% of the interval between adjacent reference grid point dots 4. .
  • it is desirable that the length value of the long and short vectors is larger than the diameter value of the information dot 3.
  • FIG. 15A shows a state in which two information dots are arranged.
  • FIG. 15B shows a state in which four information dots are arranged.
  • FIG. 15C shows a state in which five information dots are arranged. Another embodiment of the object to which the index is applied will be described.
  • a dot pattern is used as an index.
  • the dot number information dot information used as the index includes an ID number for identifying the target object.
  • the information dot information of the dot pattern provided on the object includes position information and / or code values on the object.
  • As a code value for example, an ID number for specifying an object can be used.
  • a dot pattern and a graphic are overlaid and printed on two cards (objects). Print the same cat graphic on the two cards. If a dot pattern is used, cards on which the same graphic is printed can be distinguished. “1” is set as the ID number for one card, and “2” is set as the ID number for the other card.
  • the code value of one card is “1”, and the code value of the other card is “2”.
  • the characters “Twin Brothers” are displayed in the area of the screen 111 near the card whose ID number is “1”, and the card whose ID number is “2”.
  • Control is performed such that the characters “Twin Brothers” are displayed in the area of the nearby screen 111.
  • One or more blocks are printed on the surface of the card (object) to which the dot pattern is applied, and the information represented by the information dot 3 included in each block includes the position information of the block on the card. Can be made.
  • the information on the information dot 3 included in the block can include the coordinates of any reference grid point dot 4 included in the block on the card.
  • the position of the predetermined area on the card can be specified based on the dot pattern image applied to the predetermined area of the photographed card.
  • the image analysis unit 161 acquires, from the image, information represented by the information dot included in the block applied to the predetermined area, that is, the position information of the block on the card.
  • a predetermined area is specified based on the information.
  • a predetermined area of the card using the dot pattern for example, the predetermined area 151 of the card with which the indicator 154 (user's finger) is in contact (see FIGS. 1 and 2).
  • the dot pattern is not shown. ) Can be specified.
  • the information processing apparatus according to the fourth embodiment includes a detection unit 265 (FIG. 11) that detects the position of the indicator 154 on the screen 111.
  • the dot pattern is given to the target object similarly to 3rd Embodiment.
  • the predetermined area on the object indicated by the indicator can be specified by using the detection unit 265 or the dot pattern.
  • an information processing apparatus 500 according to the fifth embodiment of the present invention will be described. Most of the configuration of the information processing apparatus according to the fifth embodiment is the same as that of the information processing apparatus 100 according to the first embodiment. Components having the same configuration and function as the components of the information processing apparatus 100 according to the first embodiment are denoted by the same reference numerals.
  • the card placed on the screen 111 is photographed by the photographing unit 120 together with the screen 111, for example, the corner of the card is identified from the photographed photographed image, and an action image is displayed around the corner. Is done.
  • an action image is displayed around the corner of the card, it is necessary to determine which of the pixels constituting the display image to be displayed on the screen 111 should be displayed. In order to determine this, it is necessary to determine which pixel of the captured image corresponds to which pixel of the display image. In order to obtain this correspondence, a calibration image is used. A calibration image is displayed on the screen 111 (FIGS. 1 and 2) of the image display unit 110.
  • the calibration image is photographed by the photographing unit 120 together with the object 153 located on the screen 111 and stored in the image storage unit 121 (FIG. 8).
  • the calibration image associates the position in the display image displayed on the screen 111 (the position of the pixel in the display image) with the position in the captured image stored in the image storage unit 121 (the position of the pixel in the captured image). Used for.
  • the calibration image includes a plurality of identification images that can be distinguished from each other.
  • the calibration image can include an image representing a grid line.
  • the grid line refers to a plurality of lines including a plurality of lines extending in one direction and arranged in parallel and a plurality of lines extending in another direction intersecting with the one direction and arranged in parallel.
  • FIG. 16A shows a state in which a calibration image including an image representing a grid line is displayed on the screen 111 as a display image.
  • An image representing a cross line passing through the lattice points is an identification image.
  • Each of the plurality of identification images designates a reference point on the screen 111.
  • the reference point on the screen 111 is a virtual point geometrically set on the screen 111.
  • the reference point is a point that serves as a reference for specifying an arbitrary position on the screen 111 shown in FIG.
  • each identification image specifies an intersection of vertical and horizontal lines represented by the identification image, that is, a lattice point as a reference point.
  • An identification image is set for each grid point.
  • the identification image is identified based on at least one of a line type, a line color, a line thickness, and a line interval.
  • the calibration image is formed by a collection of such identification images.
  • the identification image captured by the imaging unit 120 and included in the captured image stored in the image storage unit 121 is identified based on the type of line and the thickness of the line.
  • the horizontal line and the vertical line are arranged at equal intervals. There are no lines of the same type and thickness. If the type (for example, dotted line, chain line, broken line, solid line, double line) and the thickness are specified, the horizontal line (for example, the horizontal line 512a of the thin two-dot chain line) can be specified. The position where each horizontal line is displayed is determined in advance.
  • the vertical position of the region on the image 111a of the screen 111 on which the horizontal line is displayed can be specified based on the type and thickness of the horizontal line.
  • the vertical lines Based on the type and thickness of the vertical line (for example, a thin solid vertical line 513a), the horizontal position of the area on the image 111a of the screen 111 on which the vertical line is displayed can be specified. If this is used, the position of the reference point on the image 111a of the screen 111 on which the grid point 514a is displayed can be specified based on the type and thickness of the vertical line 513a and the horizontal line 512a passing through the grid point 514a. . In this way, the position of each reference point can be specified.
  • the position and orientation of the object on the screen 111 can be identified.
  • the amount of movement and the amount of rotation of the object can be specified.
  • FIG. 16B the portion of the screen 111 closer to the photographing means 120 becomes larger and the portion farther away becomes smaller. Therefore, although the grid lines are deformed, the position of each reference point in FIG. 17B in the captured image (the pixel address of the reference point shooting frame buffer) is specified based on the type and thickness of the grid lines. be able to.
  • the image analysis unit 161 (FIG.
  • the screen image 111a included in the captured image includes an image representing a thin two-dot chain horizontal line 512a and a thin solid vertical line 513a.
  • the image analysis unit 161 identifies the horizontal line 512a based on the type of line and the thickness of the line, and specifies that the horizontal line 512a is a thin two-dot chain horizontal line.
  • the image analysis unit 161 identifies the vertical line 513a based on the type of line and the thickness of the line, and specifies that the vertical line 513a is a thin solid vertical line.
  • the identification image formed by the horizontal line 512a and the vertical line 513a is identified.
  • the image analysis unit 161 determines the position (captured image reference position (xr1, yr1)) in the captured image of the reference point designated by the identified identification image, that is, the lattice point that is the intersection of the horizontal line 512a and the vertical line 513a. Identify.
  • the image analysis unit 161 identifies the same identification image as the identified identification image from the identification images included in the display image displayed on the screen 111.
  • the image display unit 110 displays an image on the screen 111 based on the display image data.
  • the display image data includes identification image display information for displaying a plurality of identification images.
  • the display image data includes information on the position of the reference point (grid point) designated by each identification image in the display image (information on the position of the pixel displaying the image of the area around the lattice point).
  • the identification image display information of each identification image includes information for specifying the identification image, for example, information on the type of line and the thickness of the line.
  • the image analysis unit 161 uses the horizontal line 512 and the vertical line having the same line type and line thickness as the specified horizontal line 512a and vertical line 513a (the captured image in FIG. 16B) based on the display image data. 513 (the display image in FIG. 16A) is specified.
  • the identification image display information of the identification image formed from the horizontal line 512 and the vertical line 513 is specified from the identification image display information of the plurality of identification images. That is, the same identification image (formed by the horizontal line 512 and the vertical line 513 in the display image) as the identified identification image (formed by the horizontal line 512a and the vertical line 513a in the captured image) is specified.
  • the image analysis unit 161 displays the position (display image reference position (Xr1, Yr1)) in the display image of the reference point (lattice point 514a) designated by the identification image (horizontal line 512a, vertical line 513a) identified as the same. Specify based on image data.
  • the image analysis unit 161 obtains a reference correspondence relationship indicating the correspondence between the specified captured image reference position (xr1, yr1) shown in FIG. 17B and the specified display image reference position (Xr1, Yr1).
  • any identification image by comparing the identification image in the captured frame buffer with the identification image in the display frame buffer, the pixel address of the reference point in the captured frame buffer (captured image reference position) And a correspondence relationship (reference correspondence relationship) between the pixel address of the reference point in the display frame buffer (display image reference position).
  • the position is handled with coordinate values.
  • the xy coordinates are set for the captured image in the imaging frame buffer, and the XY coordinates are set for the display image in the display frame buffer.
  • a conversion function associating the xy coordinates of the captured image reference position with the XY coordinates of the display image reference position or a conversion table as shown in FIG. 17C is obtained and used to determine which pixel of the captured image in the captured frame buffer. It is possible to specify which pixel address (position coordinate) of the display image in the display frame buffer corresponds to the address (position coordinate). In other words, when an object placed on the screen 111, for example, a card is photographed, the position coordinates of the image of the object in the photographing frame buffer are specified, so that the display frame buffer corresponding to the specified position coordinates is stored. The position coordinates in the display image (the position of the card on the screen 111) can be specified.
  • the rotation angle of the card relative to the vertical row or horizontal row of reference points is specified, or the positions of at least two points on the card are specified.
  • the card direction on the screen 111 can be specified.
  • the position on the screen 111 of the geometrically characteristic point of the card placed on the screen 111 for example, the point forming the center or the frame (contour) can be specified as follows. In the following, the center position of the card is specified.
  • FIG. 18A shows a reference point extracted from the photographed image and an image of the card placed on the screen 111.
  • the position coordinates of the four reference points A1, A2, A3, A4 of the photographing frame buffer of FIG. 18A and the four reference points B1, B2, B3, B4 of the display frame buffer of FIG. Based on the position coordinates and the position coordinates (xc, yc) of the center of the card in the captured image in the captured frame buffer of FIG. 18A, the display of FIG.
  • the card coordinate values (Xc, Yc) in the display image in the frame buffer can be accurately obtained.
  • Such a conversion function includes a method of mapping from a predetermined coordinate system (coordinates of the captured image) to another coordinate system (coordinates of the display image), a method of obtaining the coordinates of the display image by normalizing the captured image, and the like. Use it to find out.
  • the card coordinate value (Xc, Yc) is obtained using the conversion function
  • the card coordinate value (xc, yc) is obtained by performing image processing or pattern recognition on the captured image, and the card coordinate value is obtained using the conversion function.
  • (Xc, yc) may be converted into card coordinate values (Xc, Yc).
  • the captured image is converted by a conversion function (the coordinate system of the pixels forming the captured image is converted from the xy coordinate system shown in FIG.
  • the center of the card may be obtained by performing image processing or pattern recognition, and the card coordinate value (Xc, Yc) may be acquired.
  • the representative point may be set at a predetermined position on the screen 111 corresponding to the position of the graphic drawn on the card (for example, the position ahead of the arrow of the arrow graphic).
  • a card is extracted from the captured image stored in the captured frame buffer using image recognition, and it is determined whether or not an image similar to a previously recorded arrow exists in the graphic drawn on the card.
  • the image is processed by image processing and pattern recognition, and the arrow is recognized.
  • the target graphic may be directly specified by the image obtained by converting the photographed image (FIG. 18B) without extracting the card.
  • a predetermined position (representative point) of the graphic may be indicated by an indicator.
  • the position of the indicator 154 and the predetermined area 151 on the screen 111 can also be specified using a conversion table or a conversion function.
  • the locus on the screen 111 of the point set on the card can also be specified. If the trajectory of a plurality of points is specified, the amount of movement and the amount of rotation can be specified.
  • the conversion from the coordinates of the captured image to the coordinates of the display image will be described in more detail. Pixels that form an image of the area around the lattice point 514a in the captured image and pixels that form an image of the area around the lattice point 514 in the display image Corresponds one-to-one.
  • the image analysis unit 161 obtains a position correspondence indicating the correspondence between the position (x, y) in the captured image and the position (X, Y) in the display image based on the reference correspondence.
  • a function F defined by is obtained.
  • the function F determines the position correspondence. If the predetermined algorithm as described above is used, the function F can be obtained.
  • the position correspondence By combining the position correspondence and the captured image stored in the image storage unit 121, at least one of the type, position, orientation, movement amount, rotation amount, and contour of the object can be specified.
  • a table may be used instead of the function F in order to determine the position correspondence.
  • An original display image as shown in FIG. 20B can be obtained by converting the photographed image as shown in FIG. 20A using the function F or a table.
  • 20A and 20B show a card and a coin placed on the screen 111, an indicator (user's finger) indicating the card, and a car image displayed on the screen 111. Yes.
  • a symbol (graphic) as shown in FIG. 19A may be used as an identification image of the calibration image instead of the grid lines (in this case, the calibration image includes an image of an array of symbols).
  • the image of each symbol is used as an identification image.
  • the reference point designated by the identification image can be set, for example, at the center of gravity of the symbol.
  • the identification image is identified based on at least one of a symbol shape, a symbol size, a symbol color, and a symbol arrangement pattern.
  • the symbols are arranged on lattice points (not shown). The symbols are arranged at equal intervals.
  • the identification image is identified based on the symbol size and the symbol shape. There are no symbols of the same type and size.
  • the position where each symbol is displayed may be arranged at the position of the lattice point of the lattice as shown in FIG. Based on the symbol type and the symbol size, the position coordinates of the reference point on the screen 111 on which the identification image is displayed can be specified.
  • a highly accurate algorithm such as the above-described interpolation method, mapping method, and method of obtaining the coordinates of the display image by normalizing the captured image from the symbols arranged in a grid pattern at the position of the reference point.
  • the original display image can be roughly reproduced.
  • FIG. 19B only dots are arranged at the positions of the reference points arranged in a grid pattern, but when these dots are used as a calibration image, if all the dots are imaged, those images are captured.
  • the correspondence relationship between the coordinate value of the captured image reference position and the coordinate value of the display image reference position can be easily recognized by the arrangement order of the reference points.
  • the symbol interval does not have to be constant.
  • the identification image can be identified based on the symbol arrangement pattern. In order to obtain the position correspondence relationship indicating the correspondence between the position in the captured image and the position in the display image, an image including the dot pattern shown in FIG. 12 may be displayed on the screen 111 of the image display unit 110.
  • the dot pattern has one or more blocks including information dots representing information.
  • the information represented by the information dots included in each block includes information including the position where the block is displayed. Based on the captured image, the position of a certain block in the captured image is specified. The position where the block is displayed can be acquired from the information represented by the information dot included in the block. As a result, it is possible to acquire a position correspondence relationship indicating the correspondence between the position of the block in the captured image and the position in the display image.
  • the dot pattern placement accuracy (dot spacing and dot size) used here is naturally within the resolution of the display image and the captured image. It is desirable that the dot interval is about several cm and the dot size is about 1 mm to about several mm.
  • a highly accurate conversion table can be created by interpolation calculation as described in International Publication No. 2010/061584.
  • the shape of the contour of the screen 111 of the captured image display unit 110 can be used. Based on the captured image, a part or all of the contour of the image on the screen 111 of the image display unit 110 included in the captured image is specified. Based on a part or all of the specified contour, a position correspondence relationship indicating a correspondence between the position in the captured image and the position in the display image displayed on the screen of the image display unit can be obtained.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

市場にて容易に入手できるコンポーネントを利用できる優れたインターフェースを実現する。情報処理装置は、一面側に配置された画像表示部110と、一面の所定の位置に設けられ、一面が向く方向を撮影する撮影手段120とを備える。撮影手段120には、画像表示部110の少なくとも一部の画像を撮影するよう光を導く光学装置130が載置される。画像表示部110の画面111上に位置する対象物153a,153bおよび/または画面111近傍に位置する対象物153c,153dを含む画像を、撮影手段120に撮影させる。撮影させた撮影画像に基づいて、対象物の種類、位置、向き、移動量、回転量、および輪郭の内の少なくとも1つを特定し、特定した対象物の情報に基づいて画像表示部110を制御する。

Description

情報処理装置
 本発明は、撮影手段により撮影された画像に基づいて処理する情報処理装置、情報処理装置に設けられる撮影手段と組み合わされる光学装置、情報処理装置と光学装置を含む情報処理システム、撮影手段により撮影された画像に基づく処理に用いられるプログラム、及びこれらとともに用いられる対象物に関する。
 従来、画面上に載置されたカードなどの位置や動きに応じて処理する情報処理装置が知られている。
 特許文献1には、ステージ面に載置されたカードをステージ面の下に配置されたカメラで撮影してカードの位置を特定する情報出力装置が開示されている。ステージ面の下にはプロジェクタが配置されており、カードの位置に応じた画像をステージ面に投影する。ユーザがカードを移動させると、例えばユーザが所望する映像がステージ面に投影される。
 カードは、情報出力装置に映像の投影に関する指示を与えるためのインターフェースとして機能する。カードを動かすという直感的な動作により、情報出力装置に指示を与えることができる。
特開2008−212697号公報
 しかしながら、特許文献1の情報出力装置では、上記のような優れたインターフェースを実現するために、映像を投影するためのディスプレイやカードの位置を特定するための高価な光学系を専用に設計・製造する必要がある。市場にて容易に入手できるコンポーネントを適用することが難しい。
 本発明の目的は、このような点に鑑みてなされたものであり、市場にて容易に入手できるコンポーネントを利用できる優れたインターフェースを実現する情報処理装置を提供することである。また、本発明の目的は、本発明に係る情報処理装置と組み合わされる簡便な光学装置を提供することである。また、本発明の目的は、本発明に係る情報処理装置を簡便な光学装置と組み合わせることで、優れたインターフェースを安価に実現する情報処理システムを提供することである。また、本発明の目的は、本発明に係る情報処理装置を利用するプログラムを提供することである。本発明に係る情報処理装置、光学装置、情報処理システム、又はプログラムとともに用いられる対象物を提供することである。
 本発明の第1の態様に係る情報処理装置は、
一面側に配置された画像表示部と、
前記一面の所定の位置に設けられ、該一面が向く方向を撮影する撮影手段と、
を備える情報処理装置であって、
前記画像表示部の少なくとも一部の画像が撮影されるよう光を前記撮影手段に導く光学装置が取り付けられ、
前記画像表示部の画面上に位置する対象物を含む画像、又は、画面上に位置する対象物と画面近傍に位置する対象物とを含む画像を前記撮影手段に撮影させ、
前記撮影させた撮影画像に基づいて処理する。
 本発明の第2の態様に係る情報処理装置は、
前記撮影画像に基づいて、対象物の種類、前記画像表示部の前記画面上に位置する対象物の位置、前記画面上に位置する対象物の向き、前記画面上に位置する対象物の移動量、前記画面上に位置する対象物の回転量、及び前記画面上に位置する対象物の輪郭の内の少なくとも1つを特定し、
特定した対象物の情報に基づいて処理する。
 本発明の第3の態様に係る情報処理装置では、
前記対象物には、グラフィック、マーク、マークの配列、自動認識コードのパターンの内の少なくとも1つを含む指標が設けられており、
前記撮影画像に含まれる該指標の画像に基づいて対象物を特定し、該特定した対象物に基づいて処理する。
 本発明の第4の態様に係る情報処理装置では、
前記自動認識コードは、バーコード、2次元コード、ドットコードの内の少なくとも1つを含む。
 本発明の第5の態様に係る情報処理装置では、
前記対象物には、ドットパターンが設けられており、
前記ドットパターンは、1以上の情報ドットを含む1以上のブロックを有し、
各ブロックに含まれる1以上の情報ドットで表現される情報は、前記対象物における該ブロックの位置情報及び/又はコード値を含んでいる。
 本発明の第6の態様に係る情報処理装置では、
前記情報ドットの各々には、該情報ドットの配置、大きさ、形状、色の内の少なくとも1つに基づいて基礎情報が定義される。
 本発明の第7の態様に係る情報処理装置では、
前記指標は、所定の波長の光を吸収する特性、所定の波長の光を反射する特性、及び、所定の特性をもった光に反応して該光とは異なる特性をもつ光を発する特性の内の少なくとも1つをもつ。
 本発明の第8の態様に係る情報処理装置では、
前記処理は、前記画像表示部の制御を含む。
 本発明の第9の態様に係る情報処理装置では、
前記光学装置は、プリズム、ミラー、及び光ファイバの内の少なくとも1つを含む。
 本発明の第10の態様に係る情報処理装置では、
前記対象物は、印刷媒体、薄板状の媒体、及びフィギアの内の少なくとも1つを含む。
 本発明の第11の態様に係る情報処理装置は、板状である。
 本発明の第12の態様に係る情報処理装置は、
前記対象物の所定領域を示す指示体と該対象物の所定領域、又は、前記対象物の所定領域に当接した指示体と該対象物の所定領域を、前記撮影画像に基づいてさらに特定し、
特定した対象物の所定領域に基づいて、又は、特定した対象物の所定領域及び該指示体に基づいて処理する。
 本発明の第13の態様に係る情報処理装置では、
前記対象物には、ドットパターンが設けられており、
前記ドットパターンは、1以上の情報ドットを含む1以上のブロックを有し、
各ブロックに含まれる1以上の情報ドットで表現される情報は、前記対象物における該ブロックの位置情報を含んでおり、
前記撮影画像に基づいて前記所定領域を特定する際、前記対象物におけるブロックの位置情報に基づいて特定する。
 本発明の第14の態様に係る情報処理装置は、
前記画像表示部又は前記対象物に当接された指示体の画面上の位置を検知する検知手段をさらに有しており、
検知された該指示体の画面上の位置と前記特定された対象物の情報とに基づいて処理する、又は、検知された該指示体の画面上の位置と前記特定された対象物の情報とに基づいて該指示体が当接された対象物の所定領域を特定し、該特定した所定対象物の領域と前記特定された対象物の情報とに基づいて処理する。
 本発明の第15の態様に係る情報処理装置では、
前記検知手段は、静電容量タッチパネルである。
 本発明の第16の態様に係る情報処理装置では、
前記撮影画像は、静止画又は動画を形成する。
 本発明の第17の態様に係る情報処理装置では、
前記撮影手段により動作体の動画が撮影され、
該動画に基づいて動作体の動作をさらに特定し、処理する際、該特定した動作体の動作にさらに基づく。
 本発明の第18の態様に係る情報処理装置では、
前記指示体は、指である。
 本発明の第19の態様に係る情報処理装置では、
前記光学装置は、前記撮影手段が撮影する撮影領域を変更できる。
 本発明の第20の態様に係る情報処理装置では、
前記撮影領域の変更は、前記撮影領域の移動、拡大、縮小の内の少なくとも1つを含む。
 本発明の第21の態様に係る情報処理装置では、
互いに識別可能な複数の識別画像を含むキャリブレーション画像を前記画像表示部の画面に表示させて、複数の識別画像によりそれぞれ画面上の基準点を指定させ、
前記撮影手段に撮影させた撮影画像に基づいて該撮影画像に含まれた各識別画像を識別し、該識別した識別画像により指定される基準点の位置を示す撮影画像基準位置を特定し、
前記画像表示部の画面に表示された表示画像に含まれる識別画像から、該識別した識別画像と同一のものを特定して、該同一と特定された識別画像により指定される基準点の位置を示す表示画像基準位置を特定し、
前記特定した撮影画像基準位置と、前記特定した表示画像基準位置との対応を示す基準対応関係を求め、
前記基準対応関係に基づいて、撮影画像における位置と表示画像における位置との対応を示す位置対応関係を求め、
該位置対応関係と前記撮影画像に基づいて対象物の情報を特定する。
 本発明の第22の態様に係る情報処理装置では、
前記撮影画像における位置(x,y)と、前記表示画像における位置(X,Y)との対応を示す前記位置対応関係を求める際、
(X,Y)=F(x,y)
で定義される、前記位置対応関係を決める関数F、又は前記位置対応関係を決めるテーブルを求める。
 本発明の第23の態様に係る情報処理装置では、
前記キャリブレーション画像は、格子線、シンボルの配列又はドットパターンを表し、前記複数の識別画像で形成される画像を含む。
 本発明の第24の態様に係る情報処理装置では、
前記格子線を表す画像を形成する前記識別画像は、線の種類、線の色、線の太さ、線の間隔の内の少なくとも1つに基づいて識別される。
 本発明の第25の態様に係る情報処理装置では、
前記格子線を表す画像を形成する前記複数の識別画像は、該格子線で区切られた複数の格子領域を囲む矩形の線をそれぞれ表しており、
該識別画像は、矩形の辺の比に基づいて識別される。
 本発明の第26の態様に係る情報処理装置では、
前記シンボルの配列を表す画像を形成する前記識別画像は、シンボルの形状、シンボルの大きさ、シンボルの色、シンボルの配置パターンの内の少なくとも1つに基づいて識別される。
 本発明の第27の態様に係る情報処理装置では、
ドットパターンを含む画像を前記画像表示部の画面に表示させ、
前記ドットパターンは、1以上の情報ドットを含む1以上のブロックを有し、
各ブロックに含まれる1以上の情報ドットで表現される情報は、該ブロックが表示される位置を含む情報を含んでいる。
 本発明の第28の態様に係る情報処理装置では、
前記撮影手段により撮影された撮影画像に基づいて、該撮影画像に含まれた前記画像表示部の画面の画像の輪郭の一部又は全部を特定し、
前記特定した輪郭の一部又は全部に基づいて、前記撮影手段により撮影される撮影画像における位置と前記画像表示部の画面に表示される表示画像における位置との対応を示す位置対応関係を求め、
該位置対応関係と前記撮影画像に基づいて対象物の情報を特定する。
 本発明の第29の態様に係る情報処理装置では、
前記光学装置には、前記撮影手段により撮影される撮影領域を照射する照射手段が設けられる。
 本発明の第30の態様に係る情報処理装置では、
前記照射手段は、所定の波長の光を照射する。
 本発明の第31の態様に係る情報処理装置では、
前記光学装置には、第1の波長の光を透過し、第2の波長の光を遮断するフィルタが設けられ、該フィルタを介して前記撮影領域が撮影される。
 本発明の一態様に係る光学装置は、上記第1乃至第31の態様に係る情報処理装置と組み合わされる。
 本発明の一態様に係る情報処理システムは、上記第1乃至第31の態様に係る情報処理装置、上記一態様に係る光学装置、及び上記第1乃至第31の態様に係る情報処理装置と組み合わされる対象物を備える。
 本発明の一態様に係るプログラムは、上記一態様に係る情報処理システムと組み合わされ、前記処理を情報処理装置に実行させる。
 本発明の一態様に係る対象物は、上記第1乃至第31の態様に係る情報処理装置と組み合わされる。
 撮影手段を備える本発明の情報処理装置、光学装置、情報処理システム、プログラム、及び対象物を用いれば、市場にて容易に入手できるコンポーネントを利用して優れたインターフェースを実現できる。
 図1は本発明の一実施の形態に係る情報処理システムの平面図。
 図2は本発明の一実施の形態に係る情報処理システムの側面図。
 図3は本発明の一実施の形態に係る光学装置の斜視図であり、(a)は、カバーを取り外した状態を示す図。(b)は、カバーを取り付けた状態を示す図。(c)は、照射手段を取り付けた状態を示す図。
 図4は本発明の別の実施の形態に係る、プリズムを含む光学装置の斜視図。
 図5は本発明のまた別の実施の形態に係る、光ファイバモジュールを含む光学装置の斜視図。
 図6は本発明のさらに別の実施の形態に係る光学装置を示す図であり、(a)は、情報処理装置を挟持する取付部を有する光学装置の斜視図。(b)は、情報処理装置を挟持する取付部を有する光学装置が情報処理装置に取り付けられた状態を示す光学装置の側面図。(c)は、凹面鏡を有する光学装置の斜視図。(d)は、光の入射面が凸形状に形成されたプリズムを有する光学装置の斜視図。
 図7は(a)は、画像表示部の画面上に位置する、本発明の一実施の形態に係る対象物、及び、画面外に位置する、本発明の一実施の形態に係る対象物の画像を撮影する様子を示す本発明の一実施の形態に係る情報処理システムの斜視図。(b)は、画像表示部の画面上に位置する、本発明の一実施の形態に係る対象物の画像を撮影する様子を示す本発明の一実施の形態に係る情報処理システムの斜視図。(c)は、撮影手段により撮影された撮影画像の一例を示す図。(d)は、撮影手段により撮影された撮影画像の別の例を示す図。
 図8は本発明の第1の実施の形態に係る情報処理装置のブロック図。
 図9は本発明の第1の実施の形態に係る情報処理装置の動作を表すフローチャート。
 図10は対象物の情報に基づいて制御された画像表示部に表示される画像の例を示す図。
 図11は本発明の第2の実施の形態に係る情報処理装置のブロック図。
 図12はドットパターンの一例を示す図。
 図13は情報ドットの配置と情報の値との対応を示す図であり、(a)は、情報ドットが8通りに配置できる例における対応を示す図。(b)は、情報ドットが4通りに配置できる例における対応を示す図。(c)は、情報ドットが4通りに配置できる別の例における対応を示す図。
 図14は情報ドットが16通りに配置できる例における、情報ドットの配置と情報の値との対応を示す図。
 図15は0個~8つの情報ドットを予め定められた8つの位置に配置できる例における、情報ドットの配置と情報の値との対応を示す図であり、(a)は、ある2つの位置にそれぞれ情報ドットを位置させる配置とその配置に対応する情報の値を示す図。(b)は、ある4つの位置にそれぞれ情報ドットを位置させる配置とその配置に対応する情報の値を示す図。(c)は、ある5つの位置にそれぞれ情報ドットを位置させる配置とその配置に対応する情報の値を示す図。
 図16は(a)は、本発明の第4の実施の形態に係る情報処理装置の画面に格子線の画像を含むキャリブレーション画像の一例が表示されている様子を示す平面図。(b)は、画面に格子線の画像を含むキャリブレーション画像の一例が表示されている状態で撮影手段により撮影された情報処理装置の撮影画像を示す図。
 図17は(a)は、表示画像中の基準点の一例を示す図。(b)は、撮影画像中の基準点の一例を示す図。(c)は、位置対応関係を決めるテーブルの一例を示す図。
 図18は(a)は、撮影画像中の基準点と画面に載置されたカードの画像を示す図。(b)は、表示画像中の基準点と画面に載置されたカードの代表点の位置関係を示す図であり、また、撮影画像を関数で変換した画像の基準点も示す。
 図19は(a)は、キャリブレーション画像に含まれるシンボルの配列の一例を示す図。(b)は、(a)のシンボルを配置する位置の一例を示す図であり、また、キャリブレーション画像に含まれるドットの配列の一例も示す。
 図20は(a)は、撮影画像の一例を示す図。(b)は、撮影画像を関数で変換した画像を示す図。
 本発明の第1の実施の形態に係る情報処理装置100、一実施の形態に係る光学装置130、及び一実施の形態に係る情報処理システムを説明する。図1は、情報処理システムの平面図である。図2は、情報処理システムの側面図である。図3(a)及び図3(b)は、光学装置130の斜視図である。光学装置130は、情報処理装置100と組み合わされる。情報処理システムは、情報処理装置100と光学装置130を含んでいる。情報処理装置100は、画像を表示する画像表示部110と画像を撮影する撮影手段120と光学装置130を有している。画像表示部110は、例えば液晶ディスプレイを含んでいる。撮影手段120は、例えばCCDカメラ又はC−MOSカメラを含んでいる。撮影手段120により撮影された撮影画像は、静止画又は動画を形成する。撮影手段120には、撮影手段120により撮影された撮影画像が記憶される画像記憶手段が設けられている。画像表示部110と撮影手段120は板状の筐体140に格納されている。情報処理装置100は板状である。画像表示部110は情報処理装置100の一面側(筐体140の上面142側)に配置されている。画像表示部110の画面111は露出している。画面111は、情報処理装置100の上記一面が向く方向に向いている。撮影手段120は、情報処理装置100の上記一面の所定の位置に設けられ、上記一面が向く方向を撮影する。撮影手段120は板状の筐体140の周縁に配置されている。筐体140には撮影孔141が穿たれており、撮影手段120は撮影孔141を介して撮影を行う。
 光学装置130は、画像表示部の画面111の少なくとも一部の画像が撮影されるよう、撮影手段120に光を導く。光学装置130は、情報処理装置100の筐体140に取り付けられている。光学装置130は、ベース131bを介して筐体140の上面142に載置されている。ベース131bの部分131aは、筐体140の撮影孔141を避けるように形成されている。ベース131bの下面には、ベース131bを支持する支持部131cが設けられている。支持部131cはベース131bの傾きを変更することができる。ベース131bと支持部131cは取付部131を構成する。取付部131により光学装置130は筐体140に取り付けられる。
 光学装置130を情報処理装置100に着脱可能に取り付けるために、図1、図2、図3(a)及び図3(b)に示した取付部131とは別の手段を光学装置130と情報処理装置100との少なくとも一方に設けてもよい。例えば、支持部131cを省略し、ベース131bを筐体140の上面142に着脱可能に固定する手段を光学装置130に設けてもよい。この場合、ベース131bの傾きを変更する手段は不要になり、光学装置130の構成をより簡便にすることができる。光学装置130を情報処理装置100に着脱可能に取り付けなくてもよい。例えば、光学装置130を情報処理装置100に所定の方法で固定してもよい。
 取付部131には支柱132が回動自在に取り付けられている。光学装置130が載置されたとき、支柱132の長手方向は、筐体140の上面142と交差する方向になる。支柱132は長手方向周りに回動できる。支柱132には、ミラー134を回動自在に支持する支持部133が取り付けられている。ミラー134は、撮影のために撮影手段120に光を導く。ミラー134の回動軸は、画像表示部110の画面111と平行である。支持部133は、支柱132の長手方向にスライド可能である。
 ミラー134は2軸方向で回動可能であり、支柱132の長手方向にスライド可能である。即ち3自由度が実現される。これにより、光学装置130は、撮影手段120の撮影領域を変更することができる。2軸方向の回動と長手方向のスライドを利用すれば、光学装置130は、撮影領域の移動、拡大、縮小の内の少なくとも1つが行われるよう撮影領域を変更できる。ミラーを動かすことに関する自由度は、任意に設定することができる。0以上の自由度を設定することができる。このような自由度を実現する光学装置は、よく知られた機構を用いれば実現することができる。ミラーは、画面と平行な軸周りに回動可能で、画面に垂直な方向にスライド可能にするような機構を光学装置に設けてもよい。この場合、2自由度が実現される。
 支持部133には、ミラー134を覆うカバー135が取り付けられる。カバー135は撮影孔141を覆うように配置されるので、外部の照明などからの光が撮影手段120に直接入射することを防止することができる。カバー135と支持部133は一体的に形成してもよい。
 支持部133には、図3(c)に示すように、撮影手段120の撮影領域を照射する照射手段136を取り付けてもよい。対象を撮影するのに必要な光量を十分に確保できないときに、照射により対象を鮮明に撮影できる。
 光学装置130は、ミラー134の代わりに、図4に示すプリズム134b又は図5に示す光ファイバを有する光ファイバモジュール134cを含んでもよい。
 光学装置を情報処理装置100に着脱可能に取り付けるために、情報処理装置100を挟持するクリップを用いてもよい。取付部131は、図6(a)及び図6(b)に示すように、支持部131cの代わりに筐体140の下面に当接する当接部131dを有する。当接部131dはベース131bから延びており、当接部131dとベース131bは、筐体140を挟持する。図6(c)には、凹面鏡を有する光学装置130bが示されている。光学装置130bの凹面鏡は、光学装置130bを筐体140の上面142の所定の位置に所定の向きで載置したときに画面111の全体が撮影されるように設計されている。図6(d)には、光の入射面が凸形状に形成されたプリズムを有する光学装置130cが示されている。光学装置130cの凸面は、光学装置130bと同様に、光学装置130bを筐体140の上面142の所定の位置に所定の向きで載置したときに画面111の全体が撮影されるように設計されている。光学装置130b,130cは、画面111を撮影するに際して、広い視野を実現する。このため、所定の位置に所定の向きで載置するだけで所望の領域を容易に撮影することができる。図3、図4、図5、図6(a)及び図6(b)に示された光学装置では、所望の領域を撮影するためにミラー、プリズムなどの光学素子の向き及び位置を調整する必要があるが、光学装置130b,130cでは、調整する必要がない。また、光学素子の向き及び位置を調整する手段を必要としないので、構造が簡便である。光学装置130b,130cを情報処理装置100に取り付けるために、光学装置130b,130cを上面142に貼着してもよい。その場合、光学装置130b,130cを上面142から容易に剥がすことができ、また再度貼着することが可能な接着剤を用いることができる。また、図6(a)及び図6(b)に示された取付部131と同様のクリップを用いてもよい。以上、様々な光学装置の実施の形態を記載したが、画面111の少なくとも一部又は全部が、撮影手段120の撮影領域に含まれるように光を導くことができれば、どのような構造であってもよい。
 撮影手段120は、画像表示部110の画面111上に位置する対象物及び/又は画面111外に位置する対象物を含む画像を撮影する。画面111外に位置する対象物は、画面近傍に位置することが望ましい。画面111上に位置する対象物と画面111外に位置する対象物との両方が同時に撮影されるときには、特に望ましい。対象物は、印刷媒体、薄板状の媒体、及びフィギアの内の少なくとも1つを含む。図7(a)には、本発明の一実施の形態に係る対象物を撮影する様子が示されている。図7(a)に示す例では、撮影手段120は、画像表示部110の画面111上に位置する対象物153a,153b及び/又は画面111外に位置する対象物153c,153dの画像を撮影することができる。対象物153aはカードである。カードは印刷媒体であり、薄板状の媒体である。対象物153bはコインである。対象物153cはフィギアである。対象物153dはグラスである。図7(c)及び図7(d)は、撮影手段120により撮影された画像の例である。撮影手段120の撮影領域を変更する光学装置130の機能を利用すれば、様々な領域の画像を撮影できる。
 図7(b)に示すように撮影手段120が、画面111の外から画面111上の対象物(例えばカード153a)を指し示す指示体も撮影できるように、画面111外まで撮影領域を広げてもよい。指示体にはユーザの指154を用いてもよいし、タッチペンを用いてもよい。撮影領域を変更するには、光学装置130の向きを変更してもよいし、広範な領域を撮影できるように、光を集光する構造をもつ光学装置及び/又は光を集光する材料で形成された光学装置を予め用意してもよい。
 情報処理装置100を利用する本発明の一実施の形態に係るプログラムを説明する。
図8は、情報処理装置100のブロック図である。情報処理装置100は、画像解析部161と制御部162と記憶部163と音声再生部164とを有する。記憶部163には、画像解析部161にてなされる画像の解析と、制御部162にてなされる制御を情報処理装置100に実行させるプログラムが記憶されている。記憶部163には、さらに画像表示部110にて表示される画像データ及び/又は動画データと、画像解析部161により撮影画像の解析のために用いられる画像データ及び/又は動画データと、音声再生部164にて再生される音声データが記憶されている。プログラム、画像データ、動画データ及び音声データは、図示しない通信手段を用いて所定のサーバーよりダウンロードすることができる。
 図9は、情報処理装置100の動作を表すフローチャートである。情報処理装置100は、対象物を含む画像を撮影手段120に撮影させ、撮影させた撮影画像に基づいて撮影画像に関連する情報を処理する。例えば、撮影画像に基づいて画像表示部110と音声再生部164の少なくとも一方を制御する。プログラムは、記憶部163から読み出され、プログラムに基づいて制御部162にて情報処理が行われる。画像データ、動画データ及び音声データは、適宜に記憶部163から読み出され、制御部162や画像解析部161にて利用される。制御部162は、画像表示部110の画面111上に位置する対象物153a,153b及び/又は画面111外に位置する対象物153c,153d(図7(a))を含む画像を撮影手段120に撮影させる(工程171)。画面111上に位置する対象物153a,153bを含む画像が常に撮影されるようにしてもよい。その場合、画面111上に位置する対象物153a,153bを含む画像、又は、画面111上に位置する対象物153a,153bと画面111近傍に位置する対象物153c,153dとを含む画像が撮影される。次に、制御部162は、画像解析部161に画像の解析を行わせる。画像解析部161は、撮影手段120により撮影された対象物の画像(画像記憶手段121に記憶されている画像)に基づいて、対象物の種類、位置、向き、移動量、回転量、及び輪郭の内の少なくとも1つを含む対象物の情報を特定する(工程172)。対象物の種類には、例えば、カード類、フィギア類、コイン類がある。対象物の種類が特定されると、対象物がカードなのか、フィギアなのかが特定される。工程171にて、画面111上に位置する対象物153a,153bを含む画像を撮影手段120が常に撮影される場合には、工程172にて、対象物の種類(画面111上に位置する対象物153a,153bと画面111外に位置する対象物153c,153dの両方が撮影される場合には、対象物153a,153b,153c,153dの少なくとも1つの種類。対象物153a,153bだけが撮影される場合には対象物153a,153bの少なくとも1つの種類。)、画面111上に位置する対象物153a,153bの少なくとも1つの位置、対象物153a,153bの少なくとも1つの向き、対象物153a,153bの少なくとも1つの移動量、対象物153a,153bの少なくとも1つの回転量、及び対象物153a,153bの少なくとも1つの輪郭の内の少なくとも1つを含む対象物の情報が特定される。制御部162は、画像解析部161により特定された対象物の情報に基づいて画像表示部110と音声再生部164の少なくとも一方を制御する(工程173)。上述したように、撮影画像は動画を形成することができる。工程172にて対象物の移動量が特定される場合には、動画に基づいて、時々刻々変化する対象物の位置が解析される。回転量が特定される場合には、動画に基づいて、時々刻々変化する対象物の向きが解析される。
 例えば、戦車の絵が描かれたカード153aを画面111上の所定の位置に配置すると、制御部162は、音声再生部164が戦車のエンジンの始動音を再生するよう音声再生部164を制御する。同時に、カード153aの周りで土煙が上がるような画像が表示されるよう画像表示部110を制御する。図10に示すように、戦車の絵が描かれたカード156を画面111上で移動及び/又は回転をさせたときに、これに応じて、カード156の軌跡に沿って無限軌道の走行跡の画像156aを表示させたり、カード156に描かれた戦車が、動画として画面111に表示される車両157に向けて発砲するような画像156bを表示させたりしてもよい。
 図1に示すように、指示体154(例えば、ユーザの指)でカード153(対象物)の所定領域151(図1の例では、星のしるし「☆」が描かれている領域)を示す(所定領域151から離れた位置から所定領域151を指し示す)と、それに応じて制御部162は所定の制御を行う。指の代わりにペンを用いてもよい。指示体154は所定領域151に当接してもよい。撮影された撮影画像に基づいて、指示体154で示された所定領域151(戦車の大砲の近傍の領域)を特定する。特定された領域に基づいて制御部162は画像表示部110と音声再生部164の少なくとも一方を制御できる。例えば、大砲が発砲したような音が再生され、領域151の近傍に火花の画像が表示されるよう制御を行う。
 画像解析部161は、指示体154が所定領域151から離れた位置から所定領域151を指し示しているか、指示体154が所定領域151に当接しているかを特定できる。画像解析部161は、特定する際、撮影画像に含まれた指示体154の影などに基づいて特定する。指示体154が所定領域151から離れた位置から所定領域151を指し示していると特定された場合、画像解析部161は、(現実に)指示体154が所定領域151を指し示す方向を特定し、その方向に基づいて所定領域151を特定する。指示体154が所定領域151に当接していると特定された場合、画像解析部161は、撮影画像を解析し、(現実に)指示体154の直下に位置していると判断される対象物の領域を所定領域151として特定する。指示体154が離れているか当接しているかの特定のために、画像表示部110の画面111上に位置する対象物153に当接する指示体154の画面111上の位置を検知する検知手段を用いてもよい。検知手段は画面111に設けられていて、静電容量タッチパネルを含んでいる。検知手段により指示体154の画面111上の位置が検知されれば、指示体154は当接すると特定される。位置が検知されなければ、指示体154は離れていると特定される。
 画像解析部161は、撮影手段120により撮影された撮影画像に基づいて、カード153の所定領域151だけでなく指示体154も特定することができる。所定領域151の特定は上述と同様に行うことができる。指示体154を特定する際には、画像解析部161は、記憶部163に記憶された画像データ及び/又は動画データと指示体154の画像とを比較して指示体154を特定する。例えば、画像解析部161は、指示体154の画像と、記憶部163に記憶されたユーザの指の画像データやペンの画像データとを比較照合し、指示体154がユーザの指であると判断する。この比較照合は、指示体154の画像と記憶された画像データとの特徴点を抽出して判断してもよい。制御部162は、特定された所定領域151と指示体154に基づいて画像表示部110と音声再生部164の少なくとも一方を制御できる。この場合、特定された指示体が赤いタッチペンであれば制御部162はある制御(例えば、領域151の近傍に火花の画像が表示されるような制御)を行い、特定された指示体が青いタッチペンだった場合には別の制御(例えば、領域151の近傍に大砲の残弾数を示す画像が表示されるような制御)を行う、といった処理が可能である。
 動きを表現する動作体の動作に基づいて制御してもよい。動作体として、ペンやユーザの手を用いることができる。画像解析部161は、動画を形成する撮影画像に基づいて、対象物の情報(対象物の種類、位置、向き、移動量、回転量、及び輪郭の内の少なくとも1つを含む情報)に加えて、撮影手段120により撮影された動作体の動作をさらに特定することができる。制御部162は、特定された動作体の動作に基づいて画像表示部110と音声再生部164の少なくとも一方を制御できる。例えば、動作体で右回りか左回りに円を描いたり、動作体を画面111に沿って動かしたり、画面111から遠ざかる向きか近づく向きに動かしたりする。画像解析部161は、記憶部163に記憶された画像データ及び/又は動画データと、撮影された動作体の動画とを比較して動作体の動作を特定する。特定の際、動作体の速度や動作体の軌跡を特定できる。制御部162は、動作体の速度や動作体の軌跡に基づいて制御できる。動作体としてユーザの手を用いる場合、じゃんけんの動作(例えば、グーからパーへの変化)に基づいて制御してもよい。動作体の軌跡は、動作を特徴付ける特徴点を抽出して特定してもよい。
 次に、本発明の第2の実施の形態に係る情報処理装置200を説明する。第2の実施の形態の情報処理装置200の構成の大部分は、第1の実施の形態の情報処理装置100と同様である。第1の実施の形態の情報処理装置100の構成要素と同じ構成と機能を有する構成要素には、同じ参照符号を付す。
 図1及び図2を参照して情報処理装置200の構成を説明する。情報処理装置200は、画像表示部110の画面111上に位置する対象物153に当接する指示体154(ユーザの指)の画面111上の位置を検知する検知手段をさらに有している(図1及び図2では検知手段は図示されていない)。検知手段は画面111に設けられていて、静電容量タッチパネルを含んでいる。なお、検知手段は、静電容量タッチパネルの他、光学式タッチパネル、感圧式タッチパネルなど、対象物153、及び/又は、対象物153又は画面111に当接する指示体154の画面111上の位置を検知できれば、どのような手段であってもよい。
 図11は、情報処理装置200のブロック図である。画像解析部161は、撮影された撮影画像に基づいてカード153の種類、位置、向き、移動量、回転量、及び輪郭の内の少なくとも1つを含むカード153の情報を特定できる。例えば、カード153の位置、即ち画面111上の位置と、カード153の向きを含む情報が特定される。次に、画像解析部161は、カード153の情報(画面111上の位置と向き)と、検知手段265により検知されたユーザの指の画面111上の位置とに基づいて、ユーザの指が当接しているカード153の領域151を特定する。制御部162は、特定したカード153の領域151とカード153の情報(画面111上の位置と向き)に基づいて画像表示部110と音声再生部164の少なくとも一方を制御する。例えば、ユーザがカード153の領域151(戦車の大砲の近傍の領域)に指を載せると、大砲が発砲したような音が再生され、領域151の近傍に火花の画像が表示されるような制御がなされる。
 指示体154が対象物153の近傍の画面111上の領域に当接する(指示体154は対象物153に接していない)場合には、情報処理装置200は以下のように動作する。画像解析部161は、撮影された撮影画像に基づいて、カード153の情報(画面111上の位置と向きを含む情報)を特定する。制御部162は、特定したカード153の情報と、検知手段265により検知されたユーザの指の画面111上の位置とに基づいて画像表示部110と音声再生部164の少なくとも一方を制御する。例えば、ユーザがカード153の領域151(戦車の大砲の近傍の領域)の近傍の画面111上の領域に指を載せると、大砲が発砲したような音が再生され、領域151の近傍に火花の画像が表示されるような制御がなされる。
 次に、本発明の第3の実施の形態に係る情報処理装置及びこれとともに用いられる本発明の一実施の形態に係る対象物を説明する。第3の実施の形態の情報処理装置の構成の大部分は、第1の実施の形態の情報処理装置100と同様である。第1の実施の形態の情報処理装置100の構成要素と同じ構成と機能を有する構成要素には、同じ参照符号を付す。
 本実施の形態の対象物には、対象物を特定するための指標が設けられている。指標は、グラフィック、マーク、マークの配列、自動認識コードのパターンの内の少なくとも1つを含む。撮影手段120により指標が設けられた対象物が撮影されたとき、情報処理装置は、撮影画像に含まれる指標の画像に基づいて対象物を特定する。情報処理装置は、特定した対象物に基づいて処理する。
 例えば、猫のグラフィックの指標が設けられたカード(対象物)が画像表示部110の画面111の中央に載置され、犬のグラフィックの指標が設けられたカード(対象物)が画面111の端に載置されているとする。猫のカードにはカードを特定するための所定のID番号、例えば「1」が設定されている。犬のカードにはID番号として「2」が設定されている。記憶部163(図8)には、ID番号、指標(グラフィック)の画像データ、及びID番号と指標の対応関係が記憶されている。これらのカードが撮影されたとき、画像解析部161は、撮影画像に含まれる指標の画像と記憶部163に記憶されている指標の画像データとを比較して、撮影画像において画面111の画像の中央に位置するカードの画像に、記憶部163に記憶されている猫のグラフィックの指標の画像が含まれていることを特定する。同様に、画像解析部161は、撮影画像において画面111の画像の端に位置するカードの画像に、記憶部163に記憶されている犬のグラフィックの指標の画像が含まれていることを特定する。画像解析部161は、記憶部163に記憶されたID番号と指標の対応関係に基づいて画面111の中央のカードのID番号が「1」であり、画面111の端のカードのID番号が「2」であることを特定する。このようにして対象物は特定される。記憶部163には、カードのID番号と対応付けられたプログラム、画像データ、動画データ、音声データ等が記憶されている。カードのID番号が特定されると、制御部162は、カードのID番号に対応したプログラムに基づいて制御を行う。例えば、ID番号が「1」であるカード(猫のカード)の近くの画面111の領域に「猫」の文字を表示し、ID番号が「2」であるカード(犬のカード)の近くの画面111の領域に「犬」の文字を表示するといった制御を行う。
 指標としてマークが用いられている場合も、指標としてグラフィックが用いられている場合と同様に対象物を特定できる。マークは、例えばハート形や、ダイヤ形である。マークの違いによって対象物を特定することができる。
 上述したように指標としてマークの配列を用いることができる。マークの配列は、例えば多角形を想定し、その多角形の頂点の位置にマークを配置したものである。多角形の頂点はマークを代表する点、例えばマークの図心と一致している。2枚のカード(対象物)にマークの配列が設けられているとする。一方のカードには3つのマークが設けられており、3つのマークは、想定された正三角形の頂点の位置にそれぞれ配置されている。他方のカードにも3つのマークが設けられており、3つのマークは、想定された2等辺三角形の頂点の位置にそれぞれ配置されている。正三角形配置のカードは画面111の中央に載置されており、2等辺三角形配置のカードは画面111の端に載置されている。画像解析部161は、マークの形状とマークの配列(この場合には多角形の形状)に基づいてカードを特定する。正三角形配置のカードにはID番号として「3」が設定されており、2等辺三角形配置のカードにはID番号として「4」が設定されている。記憶部163には、ID番号、マークの形状のデータ、マークの配列のデータ、及びこれらの対応関係が記憶されている。これらのカードが撮影されたとき、画像解析部161は、撮影画像に基づいて、それぞれのカードに設けられたマークの形状及びマークの配列を特定する。画像解析部161は、特定したマークの形状及びマークの配列と、記憶部163に記憶されたマークの形状のデータ及びマークの配列のデータとを比較し、記憶部163に記憶された対応関係に基づいて画面111の中央のカードのID番号が「3」であり、画面111の端のカードのID番号が「4」であることを特定する。カードのID番号が特定されると、制御部162は、カードのID番号に対応したプログラムに基づいて制御を行う。
 想定された多角形(以下、想定多角形という)の形状は、撮影されると乱れる。マークの配列を斜めから撮影すると、撮影された想定多角形の形状(撮影されたマークを代表する点を頂点とする多角形の形状)は、実際の想定多角形の形状とは異なるものになる。例えば正三角形を斜めから撮影すると、撮影された正三角形の形状は2等辺三角形になる。画像解析部161は、撮影された画面111の輪郭の形状などを利用して、撮影画像から実際の想定多角形の形状を推定する。画像解析部161は、撮影画像に基づいてマークの配列を特定する際、この推定された実際の想定多角形の形状を利用する。
 このようにしてマークの配列を用いることによって、複数のカード(対象物)を互いに識別することができる。マークを代表する点の配置(以下、代表点配置という)はユニークであることが望ましい。即ち、2枚のカードを任意に選択し、一方のカードの代表点配置を拡大し、並行移動し、回転したときに、その代表点配置を他方のカードの代表点配置に重ねることができないことが望ましい。
 指標は、対象物に不可視のインクを用いて印刷することができる。指標を印刷するのに使用するインクとして、所定の波長の光に反応する特性、及び、所定の特性をもった第1の光に反応して第1の光とは異なる特性をもつ第2の光を発する特性の内の少なくとも1つをもつインクを用いてもよい。また、インクの代わりにこのような特性をもつ材料を用いて指標を対象物に設けてもよい。例えば所定の波長の光を吸収する特性をもつインクで指標が印刷されると、対象物の指標の部分では、所定の波長の光が吸収され、他の部分では所定の波長の光が拡散反射される。対象物は、少なくとも所定の波長の光を透過するフィルタを介して撮影される。つまり、対象物の指標の部分に対応する画素のみ所定の波長の光が撮影されないことにより、指標を特定することができる。さらに、所定の特性をもった第1の光に反応して第1の光とは異なる特性をもつ第2の光を発する特性をもつ不可視のインクで指標が印刷される。指標は、対象物の色とは異なる色の波長の可視光を発し撮影され、指標が特定される。
 指標に用いる自動認識コードは、バーコード、2次元コード、ドットコードの内の少なくとも1つを含む。ドットコードに用いるパターンであるドットパターンについて図12乃至図15を参照して説明する。ドットパターンは複数のドットからなる。図12乃至図15にて描かれている線分及び曲線は、説明の便宜のために付したものであり、ドットパターンには含まれない。
 図12は、本実施の形態のドットパターンを示す図である。図12に示すドットパターンは、GRID1と呼ばれる。図3(c)に示すように、光学装置130には撮影領域を照射する照射手段136を取り付けることができる。照射手段136には、ドットパターンが施された対象物に所定の波長の光を照射できるLEDを用いることができる。撮影手段120は所定の波長の光で撮影できる。光学装置130には、第1の波長の光を透過させ、第2の波長の光を遮断するフィルタ137を設けることができる。フィルタ137は、筐体140の撮影孔141を覆うように、部分131aに設けることができる。撮影領域はフィルタ137を介して撮影される。もちろん、ドットを特定できる配色でドットを印刷し、照射手段136やフィルタ137を設けないでドットパターンを撮影してもよい。
 ドットパターン1は、ドットコード生成アルゴリズムにより、微細なドット、即ち、キードット2、情報ドット3、基準格子点ドット4を所定の規則に則って配列することにより生成される。図12に示すように、ドットパターン1が設けられる媒体(対象物)上には、一方向に延び、並列する複数の線分と、この方向と直行する方向に延び、並列する複数の線分とにより形成される格子が想定される。この格子に基づいて各種のドットが配置される。これらのドットで1つのブロックが構成される。格子点には基準格子点ドット4が配置される。格子点からずれた位置にキードット2が配置される。図12の例では、キードット2はブロックのコーナーに配置されているが、ブロック内のどこに配置されてもよい。格子を形成する線により区切られた矩形の格子領域の四つ角のそれぞれには基準格子点ドット4が配置される。それぞれの格子領域の中心(矩形の対角線の交点)には仮想格子点が設定される。仮想格子点を基準として仮想格子点の周囲に情報ドット3が配置される。図12には、近接して配列された4つのブロックが示されている。それぞれのブロックの基礎となる格子の枠は太線で示されている。隣り合うブロックは、格子の枠上の基準格子点ドット4とキードット2を共有する。
 基準格子点ドット4は格子状に配列されているので、撮影された基準格子点ドット4は規則的に配列する。しかしながら、撮影手段120のレンズの歪み、基準格子点ドット4が設けられた媒体の変形などにより、撮影された基準格子点ドット4の配列が変形する。基準格子点ドット4の配列の変形は、ドットパターン1の解析のエラーの原因になる。特に、格子領域の四つ角に配置されている(矩形の角に位置する)4つの基準格子点ドットを斜めから撮影すると、撮影する角度に応じてこれらの基準格子点ドットに囲まれた格子領域の変形の度合いが大きくなる。このような変形は、所定の関数fを用いて撮影画像を変換することにより、補正することができる。関数fを求めるには、まず、撮影された基準格子点ドットから、格子領域の四つ角に配置されていると推定される4つの基準格子点ドットを選択する。4つの基準格子点ドットの位置を変換し、これらが正方形の角に位置するようになるような関数fを求める。撮影画像における変換前の基準格子点ドットの位置を(Xi’,Yi’)(i=1,2,3,4)、撮影画像における変換後の基準格子点ドットの位置(正方形の角に位置する基準格子点ドットの位置)を(Xi,Yi)(i=1,2,3,4)とすると、関数fは(Xi,Yi)=f(Xi’,Yi’)
で定義される。
 このように、基準格子点ドット4を利用すれば、撮影手段120のレンズに歪みが生じている場合でも、ドットパターンを撮影する角度が大きい場合でも、ドットパターン1の解析のエラーを少なくすることができる。
 キードット2は、図12に示すように、格子点から所定方向にずれた位置に配置されている。撮影画像からキードット2を抽出することにより、ブロックの向きと大きさを特定することができる。ドットパターン1を撮影し、撮影画像においてキードット2のずれの方向が特定されたとき、その方向又は、関連する方向がブロックの向きとして特定される。キードット2のずれの量は例えば、隣り合う基準格子点ドット間の間隔の20%程度である。ずれの量はこれに限定されず、ブロックの寸法に応じて可変し得るものである。キードット2は、ブロックを代表するドットである。ブロックに情報を定義するとき、ドットパターン1が設けられた媒体上のブロックの位置を情報に含ませることができる(本実施の形態では、対象物を特定するためのID番号が含まれている)。
 情報ドット3は種々の情報を表現するためのドットである。ブロックには1以上の情報ドット3が含まれる。各情報ドット3には個別に数値情報などの基礎情報が定義される。1つのブロックに含まれるこれら1以上の情報ドット3に定義された基礎情報で種々の情報、例えばブロックの位置の座標値等を表現する。情報ドット3の基礎情報は、その情報ドット3の配置、大きさ、形状、色の内の少なくとも1つに基づいて定義される。基礎情報が数値情報である場合、基礎情報は値をもつ。
 基礎情報が情報ドット3の配置に基づいて定義される場合について説明する。情報ドット3は、仮想格子点を基準として配置される。仮想格子点は、格子を形成する線により区切られた矩形の格子領域の中心に設定されている。仮想格子点を始点、情報ドット3の位置を終点とするベクトルを想定する。情報ドット3に定義された基礎情報は、ベクトルの方向と長さに基づいて特定される。ベクトルの方向は、所定の基準方向を基準として特定される。基準方向として、キードット2のずれの方向(ブロックの向き)が用いられる。ベクトル、即ち情報ドット3の配置に対応する情報の値(2進値)が予め決められている。情報ドット3の位置の特定を容易にするために、情報ドット3を予め決められた幾つかの位置にだけ位置させることができるようにしてもよい。図13(a)に示す例では、情報ドット3は、仮想格子点5を基準として8つの位置にだけ位置させることができる。図13(a)では、仮想格子点5は白抜きの丸のしるし「○」で描かれている。仮想格子点5は仮想的な点であり、ドットパターン1にはしるし「○」は含まれない。
 情報ドット3は8通りの状態をとることができるので、3ビットの情報を表現することができる。図13(a)には、各状態に対応する情報の値が2進値で示されている。1つのブロックには16個の情報ドットが含まれている(図12)ので、1つのブロックは、3ビット×16個=48ビットの情報を表現することができる。
 情報ドット3がとり得る状態の数は、8つに限られない。例えば、図13(b)、図13(c)に示すように、4つでもよい。情報ドット3は4通りの状態をとることができるので、2ビットの情報を表現することができる。1つのブロックでは、2ビット×16個=32ビットの情報を表現することができる。情報ドット3がとり得る状態の数は、16でもよい。
 図13の例では、ベクトルの長さ(情報ドット3の仮想格子点5からの距離)が一定である。図14の例では、ベクトルの長さが長いか短いかの2通りの状態を情報ドット3にとらせることができる。情報ドット3は予め決められた8つの方向に配置することができる。即ち、図14の例では、情報ドット3は2×8=16通りの状態をとることができ、4ビットを表現することができる。長い方のベクトルの長さは、隣り合う基準格子点ドット4の間隔の25%前後、短い方のベクトルの長さは、隣り合う基準格子点ドット4の間隔の15%前後であることが望ましい。ただし、長短のベクトルの長さの値は、情報ドット3の径の値よりも大きいことが望ましい。
 図15(a)は、2つの情報ドットが配置された状態を示す。図15(b)は、4つの情報ドットが配置された状態を示す。図15(c)は、5つの情報ドットが配置された状態を示す。
 指標を施した対象物の別の実施の形態を説明する。指標としてドットパターンを用いる。上述した、指標を施した対象物の実施の形態では、指標として用いたドットパターンの情報ドットの情報には、対象物を特定するためのID番号が含まれていたが、本実施の形態の対象物に設けたドットパターンの情報ドットの情報には、対象物における位置情報及び/又はコード値を含ませる。
 コード値として、例えば対象物を特定するためのID番号を用いることができる。2枚のカード(対象物)にドットパターンとグラフィック(例えば、猫のグラフィック)を重ねて印刷する。2枚のカードには同じ猫のグラフィックを印刷する。ドットパターンを用いれば、同じグラフィックが印刷されたカードを区別することができる。一方のカードにID番号として「1」を設定し、他方のカードにID番号として「2」を設定する。即ち、一方のカードのコード値は「1」であり、他方のカードのコード値は「2」である。これらのカードが撮影されたときに、例えば、ID番号が「1」であるカードの近くの画面111の領域に「双子の兄」の文字を表示し、ID番号が「2」であるカードの近くの画面111の領域に「双子の弟」の文字を表示するといった制御を行う。
 ドットパターンが施されたカード(対象物)の表面には、1以上のブロックが印刷されており、各ブロックに含まれる情報ドット3が表現する情報には、カード上のブロックの位置情報を含ませることができる。例えば、ブロックに含まれる情報ドット3がもつ情報に、そのブロックに含まれるいずれかの基準格子点ドット4のカード上の座標を含ませることができる。これを利用して、撮影されたカードの所定領域に施されたドットパターンの画像に基づいて所定領域のカード上の位置を特定できる。このとき、画像解析部161(図8)は、その画像から、所定領域に施されたブロックに含まれる情報ドットが表現する情報、即ちカード上のそのブロックの位置情報を取得して、この位置情報に基づいて所定領域を特定する。このように、ドットパターンを利用してカードの所定領域、例えば指示体154(ユーザの指)が当接しているカードの所定領域151(図1及び図2を参照。ドットパターンは図示せず。)を特定できる。領域の特定のために、微細なドットの位置を利用しているので、領域の特定を極めて高精度で行うことができる。
 上記指標を施した対象物の実施の形態では、光学装置130を用いて、撮影領域を拡大して撮影することができる。これにより、微細なドットをより確実に撮影できる。
 次に、本発明の第4の実施の形態に係る情報処理装置を説明する。第4の実施の形態の情報処理装置の構成の大部分は、第2の実施の形態の情報処理装置200と同様である。第2の実施の形態の情報処理装置200の構成要素と同じ構成と機能を有する構成要素には、同じ参照符号を付す。
 第4の実施の形態の情報処理装置は、指示体154の画面111上の位置を検知する検知手段265(図11)を有している。また、第3の実施の形態と同様に、対象物にはドットパターンが施されている。上述したように、検知手段265を利用しても、ドットパターンを利用しても指示体で指示された対象物上の所定領域を特定できる。
 次に、本発明の第5の実施の形態に係る情報処理装置500を説明する。第5の実施の形態の情報処理装置の構成の大部分は、第1の実施の形態の情報処理装置100と同様である。第1の実施の形態の情報処理装置100の構成要素と同じ構成と機能を有する構成要素には、同じ参照符号を付す。
 情報処理システムでは、画面111上に載置されたカードを画面111とともに撮影手段120により撮影し、撮影された撮影画像から例えばカードの角を特定し、その角の周囲にアクション画像を表示するといったことが行われる。カードの角の周囲にアクション画像を表示する際、画面111に表示する表示画像を構成する画素のどれにアクション画像を表示すればよいかを決める必要がある。これを決めるには、撮影画像のどの画素が表示画像のどの画素に対応するのかを求めることが必要である。この対応関係を求めるために、キャリブレーション画像が利用される。
 画像表示部110の画面111(図1及び図2)には、キャリブレーション画像が表示される。キャリブレーション画像は、画面111上に位置する対象物153とともに撮影手段120により撮影され、画像記憶手段121(図8)に記憶される。キャリブレーション画像は、画面111に表示される表示画像における位置(表示画像の画素の位置)と、画像記憶手段121に記憶されている撮影画像における位置(撮影画像の画素の位置)とを対応付けるために用いられる。キャリブレーション画像は、互いに識別可能な複数の識別画像を含む。
 キャリブレーション画像は、格子線を表す画像を含むことができる。ここで、格子線は、一方向に延び、並列する複数の線と、この一方向と交差する他の方向に延び、並列する複数の線とを含む複数の線を指すものとする。並列する線の間隔は一定でもよいし、一定でなくてもよい。
 図16(a)には、格子線を表す画像を含むキャリブレーション画像が、画面111に表示画像として表示されている様子が示されている。格子点を通る十字の線を表す画像が識別画像である。複数の識別画像はそれぞれ画面111上の基準点を指定する。画面111上の基準点は、画面111上に幾何学的に設定された仮想的な点である。基準点は、図17(a)で示される画面111上の任意の位置を特定するための基準となる点である。図16(a)の例では、各識別画像は、この識別画像が表す縦横の線の交点、即ち格子点を基準点として指定する。各格子点について識別画像が設定されている。識別画像は、線の種類、線の色、線の太さ、線の間隔の内の少なくとも1つに基づいて識別される。キャリブレーション画像はこのような識別画像の集まりで形成されている。
 撮影手段120で撮影され、画像記憶手段121に記憶されている撮影画像に含まれる識別画像は、図16(b)の例では、線の種類と線の太さに基づいて識別される。横線及び縦線は等間隔に並んでいる。同じ種類で同じ太さの線はない。種類(例えば、点線、鎖線、破線、実線、2重線)と太さを指定すれば横線(例えば細い2点鎖線の横線512a)を特定することができる。各横線が表示される位置は予め決められている。したがって、横線の種類と太さに基づいてその横線が表示された画面111の画像111a上の領域の縦の位置を特定することができる。縦線についても同様である。縦線(例えば、細い実線の縦線513a)の種類と太さに基づいてその縦線が表示された画面111の画像111a上の領域の横の位置を特定することができる。これを利用すれば、格子点514aを通る縦線513aと横線512aの種類と太さに基づいて、格子点514aが表示された画面111の画像111a上の基準点の位置を特定することができる。このようにして、各基準点の位置を特定することができる。各基準点と、画面111上に位置する対象物との位置関係が特定できれば、対象物の画面111上の位置及び向きを特定することができる。同様に対象物の移動量と回転量を特定することができる。
 なお、図16(b)では、撮影手段120により近い画面111の部分は大きくなり、より遠い部分は小さくなる。このため、格子線は変形しているが、格子線の種類と太さに基づいて撮影画像における図17(b)の各基準点の位置(基準点の撮影フレームバッファの画素アドレス)を特定することができる。画像解析部161(図8)は、撮影画像に基づいてこの撮影画像に含まれた各識別画像を識別し、識別した識別画像により指定される基準点の位置を示す撮影画像基準位置を特定する。撮影画像に含まれる画面の画像111aには、細い2点鎖線の横線512aと細い実線の縦線513aを表す画像が含まれている。画像解析部161は、線の種類と線の太さに基づいて横線512aを識別して、横線512aが細い2点鎖線の横線であると特定する。また、画像解析部161は、線の種類と線の太さに基づいて縦線513aを識別して、縦線513aが細い実線の縦線であると特定する。即ち、横線512aと、縦線513aで形成された識別画像が識別される。次に、画像解析部161は、識別した識別画像により指定される基準点、即ち横線512aと縦線513aの交点である格子点の撮影画像における位置(撮影画像基準位置(xr1,yr1))を特定する。次に、画像解析部161は、画面111に表示された表示画像に含まれる識別画像から、識別した識別画像と同一のものを特定する。
 画像表示部110は、表示画像データに基づいて画面111に画像を表示する。表示画像データには複数の識別画像を表示するための識別画像表示情報がそれぞれ含まれている。また、表示画像データには各識別画像により指定される基準点(格子点)の表示画像における位置の情報(格子点周りの領域の画像を表示する画素の位置の情報)が含まれている。各識別画像の識別画像表示情報には、この識別画像を特定するための情報、例えば線の種類と線の太さの情報が含まれている。画像解析部161は、表示画像データに基づいて、特定した横線512a及び縦線513a(図16(b)の撮影画像)の線の種類と線の太さと同一のものをもつ横線512及び縦線513(図16(a)の表示画像)を特定する。この際、横線512及び縦線513(表示画像)から形成される識別画像の識別画像表示情報を複数の識別画像の識別画像表示情報の中から特定する。即ち、特定した識別画像(撮影画像中の横線512aと縦線513aで形成)と同一の識別画像(表示画像中の横線512と縦線513で形成)が特定される。画像解析部161は、同一と特定された識別画像(横線512a、縦線513a)により指定される基準点(格子点514a)の表示画像における位置(表示画像基準位置(Xr1,Yr1))を表示画像データに基づいて特定する。
 画像解析部161は、図17(b)に示す特定した撮影画像基準位置(xr1,yr1)と、特定した表示画像基準位置(Xr1,Yr1)との対応を示す基準対応関係を求める。基準対応関係を各識別画像について求める。即ち、撮影画像基準位置(xri,yri)と表示画像基準位置(Xri,Yri)(i=1,2,3,・・・)との対応を示す基準対応関係を求める。
 なお、特殊な光学装置130を使用して歪の無い、表示画像と同程度のアスペクト比の撮影画像を取得することもできる。さらに、どのような識別画像であっても、撮影フレームバッファ内の識別画像と表示フレームバッファ内の識別画像とを対比することにより、撮影フレームバッファ内の基準点の画素アドレス(撮影画像基準位置)と表示フレームバッファ内の基準点の画素アドレス(表示画像基準位置)との対応関係(基準対応関係)を求めることができる。位置は座標値で取り扱われる。撮影フレームバッファ内の撮影画像にxy座標が設定され、表示フレームバッファ内の表示画像にXY座標が設定される。一旦、基準位置xy座標−XY座標の対応関係を求めれば、その後、キャリブレーション画像を画面111に表示させる必要はない。
 撮影画像基準位置のxy座標と表示画像基準位置のXY座標とを対応付ける変換関数又は図17(c)のような変換テーブルを求め、これを用いることにより、撮影フレームバッファ内の撮影画像のどの画素アドレス(位置座標)が、表示フレームバッファ内の表示画像のどの画素アドレス(位置座標)に対応するかを特定することができる。即ち、画面111に載置された対象物、例えばカードが撮影された場合、撮影フレームバッファ内の対象物の画像の位置座標を特定することにより、特定された位置座標に対応する表示フレームバッファ内の表示画像中の位置座標(画面111上のカードの位置)を特定することができる。さらに、カードが載置された方向について言えば、例えば、撮影画像において基準点の縦の列又は横の列に対するカードの回転角を特定するか、カード上の少なくとも2点の位置を特定すれば、画面111上でのカードの方向を特定することができる。
 画面111に載置されたカードの幾何学的に特徴的な点、例えば中心や枠(輪郭)を形成する点の画面111上の位置は、以下のようにして特定することができる。以下ではカードの中心の位置を特定する。図18(a)は、撮影画像から抽出された基準点と画面111に載置されたカードの画像を示している。撮影フレームバッファ内の撮影画像において、カードの中心を示す撮影画像におけるカード座標値(xc,yc)を所定の画像処理又はパターン認識により求め、カード座標値(xc,yc)を囲む4つの基準点A1,A2,A3,A4の位置座標を選択する。次に、これらの4つの基準点A1,A2,A3,A4に対応する表示フレームバッファ内の表示画像中の図18(b)に示す4つの基準点B1,B2,B3,B4の位置座標を、図17(c)の変換テーブルで特定する。表示フレームバッファの4つの基準点B1,B2,B3,B4は、画面111に載置された、表示フレームバッファにおけるカードの中心を囲む。そこで、図18(a)の撮影フレームバッファの4つの基準点A1,A2,A3,A4の位置座標と、図18(b)の表示フレームバッファの4つの基準点B1,B2,B3,B4の位置座標と、図18(a)の撮影フレームバッファ内の撮影画像中のカードの中心の位置座標(xc,yc)とに基づいて、内挿法などを用いて、図18(b)の表示フレームバッファ内の表示画像中のカード座標値(Xc,Yc)を正確に求めることができる。一方、変換テーブルを基に、変換関数X=fx(x,y)、Y=fy(x,y)を求めておけば、内挿法などを使用しなくともダイレクトにカード座標値(Xc,Yc)を求めることができる。そのような変換関数は、所定の座標系(撮影画像の座標)から異なる他の座標系(表示画像の座標)に写像する方法や、撮影画像を正規化して表示画像の座標を求める方法などを用いて求めればよい。変換関数を用いてカード座標値(Xc,Yc)を求める場合、撮像画像に対して画像処理又はパターン認識を施すことによりカード座標値(xc,yc)を求め、変換関数を用いてカード座標値(xc,yc)をカード座標値(Xc,Yc)に変換してもよい。また、撮像画像を変換関数で変換(撮像画像を形成する画素の座標系を図18(a)に示すxy座標系から図18(b)に示すXY座標系に変換)し、変換した画像に対して画像処理又はパターン認識を施すことによりカードの中心を求めて、カード座標値(Xc,Yc)を取得してもよい。
 対象物(カード)の画面111上の位置を特定するために、撮影画像中のカードの所定の位置に代表点を設定する場合、カードの中心や枠などの幾何学的に特徴的な部分だけではなく、カードに描かれたグラフィックの位置に対応する画面111上の所定の位置(例えば、矢印のグラフィックの矢の先の位置)に代表点を設定してもよい。この場合、画像認識を用いて撮影フレームバッファに記憶された撮影画像内からカードを抽出し、そのカードに描かれたグラフィックに、予め記録された矢印と同様の画像が存在していないかを所定の画像処理やパターン認識で検索し、矢印が認識される。もちろん、カードを抽出することなく、撮影画像を変換した画像(図18(b))で対象のグラフィックを直接的に特定してもよい。グラフィックの所定の位置(代表点)は指示体で示してもよい。同様に、指示体154や所定領域151の画面111上の位置(図1)も変換テーブルや変換関数を使用して特定することができる。カードを画面111上で移動させた場合の、カード上に設定した点の画面111上の軌跡も特定することができる。複数の点の軌跡を特定すれば、移動量と回転量を特定することができる。
 撮影画像の座標から表示画像の座標の変換に関して、さらに詳しく説明すると、撮影画像における格子点514a周りの領域の画像を形成する画素と、表示画像における格子点514周りの領域の画像を形成する画素とは、一対一に対応している。画像解析部161は、基準対応関係に基づいて、撮影画像における位置(x,y)と、表示画像における位置(X,Y)との対応を示す位置対応関係を求める。位置対応関係を求める際、
(X,Y)=F(x,y)
で定義される関数Fを求める。関数Fは位置対応関係を決める。上述したような所定のアルゴリズムを用いれば関数Fを求めることができる。位置対応関係と画像記憶手段121に記憶させた撮影画像を組み合わせれば、対象物の種類、位置、向き、移動量、回転量及び輪郭の内の少なくとも1つを特定することができる。特定した対象物の情報に基づいて画像表示部110と音声再生部164の少なくとも一方を制御できる。例えば、位置対応関係を決める関数Fを利用して、撮影画像に含まれた対象物の画像の周囲の画素((xai,yai)(i=1,2,3,・・・)に位置する画素)に対応する、表示画像の画素((Xai,Yai)(i=1,2,3,・・・)に位置する画素)を求め((Xai,Yai)=F(xai,yai)(i=1,2,3,・・・))、対象物の周囲に所定の画像を表示するような制御を行うことができる。位置対応関係を決めるために、関数Fの代わりにテーブルを用いてもよい。図20(a)に示すような撮影画像を、関数Fやテーブルを用いて変換することにより、図20(b)に示すような元の表示画像を得ることができる。図20(a)及び図20(b)には、画面111に載置されたカードとコイン、カードを示す指示体(ユーザの指)、及び画面111に表示された車の画像が示されている。実際には元の表示画像には車の画像のみが表示される。
 格子線の代わりにキャリブレーション画像の識別画像として図19(a)に示すようなシンボル(図形)を用いてもよい(この場合、キャリブレーション画像はシンボルの配列の画像を含む)。各シンボルの画像は識別画像として用いられる。識別画像が指定する基準点は、例えばシンボルの重心に設定することができる。識別画像は、シンボルの形状、シンボルの大きさ、シンボルの色、シンボルの配置パターンの内の少なくとも1つに基づいて識別される。シンボルは図示しない格子点上に配置されている。シンボルは等間隔に配置されている。図19(a)の例では、識別画像は、シンボルの大きさとシンボルの形状に基づいて識別される。同じ種類で同じ大きさのシンボルはない。各シンボルが表示される位置は、図19(b)に示されているような格子の格子点の位置に配置されていてもよい。シンボルの種類とシンボルの大きさに基づいて、識別画像が表示された画面111上の基準点の位置座標を特定することができる。これにより、基準点の位置に格子状に配置されたシンボルから、前述した内挿法、写像法や、撮影画像を正規化して表示画像の座標を求める方法など精度の高いアルゴリズムを使用すれば、撮像画像の変形が線型的な変形の場合、キャリブレーション時に少なくとも表示画像の四隅にシンボルを配置(撮影画像中の画面の四隅にシンボルが配置される)しても、変形した撮影画像を変換して元の表示画像を概ね再現できる。
 図19(b)は、格子状に配置された基準点の位置にドットを並べているだけであるが、これらのドットをキャリブレーション画像として用いた場合、全てのドットを撮像すれば、それらの撮像された基準点の配置順番によって、撮影画像基準位置の座標値と表示画像基準位置の座標値との対応関係が容易に認識できる。
 なお、図示しないがシンボルの間隔は一定でなくてもよい。識別画像は、シンボルの配置パターンに基づいて識別することができる。
 撮影画像における位置と表示画像における位置との対応を示す位置対応関係を求めるために、図12で示したドットパターンを含む画像を画像表示部110の画面111に表示させてもよい。ドットパターンは、情報を表現する情報ドットを含む1以上のブロックを有している。各ブロックに含まれる情報ドットが表現する情報は、ブロックが表示される位置を含む情報を含んでいる。撮影画像に基づいて、撮影画像におけるあるブロックの位置を特定する。そのブロックに含まれる情報ドットが表現する情報からそのブロックが表示される位置を取得できる。この結果、そのブロックの撮影画像における位置と表示画像における位置との対応を示す位置対応関係を取得することができる。なお、ここで使用するドットパターンの配置精度(ドット間隔及びドットサイズ)は、表示画像及び撮像画像の解像度以内に収めることが当然であるが、所定の関数を作成する場合は、数mm前後~数cm程度のドット間隔及び1mm前後~数mm程度のドットサイズであることが望ましい。また、国際公開第2010/061584号で記載されたような補間計算によって高精度の変換テーブルを作成することもできる。
 また、撮影画像における位置と表示画像における位置との対応を示す位置対応関係を求めるために、撮影された画像表示部110の画面111の輪郭の形を利用することができる。撮影画像に基づいて、撮影画像に含まれた画像表示部110の画面111の画像の輪郭の一部又は全部を特定する。特定した輪郭の一部又は全部に基づいて、撮影画像における位置と画像表示部の画面に表示される表示画像における位置との対応を示す位置対応関係を求めることができる。
1 ドットパターン
2 キードット
3 情報ドット
4 基準格子点ドット
5 仮想格子点
100,200,500 情報処理装置
110 画像表示部
111 画面
120 撮影手段
121 画像記憶手段
130 光学装置
140 筐体
141 撮影孔
142 筐体の上面
153,153a,153b,153c,153d 対象物
151 対象物の所定領域
161 画像解析部
162 制御部
163 記憶部
164 音声再生部
265 検知手段

Claims (31)

  1. 一面側に配置された画像表示部と、
    前記一面の所定の位置に設けられ、該一面が向く方向を撮影する撮影手段と、
    を備える情報処理装置であって、
    前記画像表示部の少なくとも一部の画像が撮影されるよう光を前記撮影手段に導く光学装置が取り付けられ、
    前記画像表示部の画面上に位置する対象物を含む画像、又は、画面上に位置する対象物と画面近傍に位置する対象物とを含む画像を前記撮影手段に撮影させ、
    前記撮影させた撮影画像に基づいて前記対象物を特定する処理を行い、
    前記情報処理装置には、複数の識別画像を含むキャリブレーション画像が記憶されており、
    該キャリブレーション画像は、前記画像表示部の画面に表示画像として表示され、前記撮影手段により撮影されて撮影画像として記憶され、
    前記複数の識別画像を用いて、前記撮影画像における所定の位置と前記表示画像における該所定の位置との対応関係を求め、該対応関係に基づいて、前記表示画像における前記対象物の位置情報を特定する
    ことを特徴とする情報処理装置。
  2. 前記複数の識別画像によりそれぞれ画面上の基準点を指定させ、
    前記撮影画像に基づいて該撮影画像に含まれた各識別画像を識別し、該識別した識別画像により指定される基準点の位置を示す撮影画像基準位置を特定し、
    前記表示画像に含まれる識別画像から、該識別した識別画像と同一のものを特定して、該同一と特定された識別画像により指定される基準点の位置を示す表示画像基準位置を特定し、
    前記特定した撮影画像基準位置と、前記特定した表示画像基準位置との対応を示す基準対応関係を求め、
    前記基準対応関係に基づいて、前記対応関係を求め、
    該対応関係と前記撮影画像に基づいて対象物の情報を特定することを特徴とする請求項1記載の情報処理装置。
  3. 前記撮影画像における所定の位置(x,y)と、前記表示画像における所定の位置(X,Y)との前記対応関係を求める際、
    (X,Y)=F(x,y)
    で定義される、前記対応関係を決める関数F、又は前記対応関係を決めるテーブルを求めることを特徴とする請求項1又は請求項2に記載の情報処理装置。
  4. 前記キャリブレーション画像は、格子線、シンボルの配列又はドットパターンを表し、前記複数の識別画像で形成される画像を含むことを特徴とする請求項1乃至請求項3のいずれか1項に記載の情報処理装置。
  5. 前記格子線を表す画像を形成する前記識別画像は、線の種類、線の色、線の太さ、線の間隔の内の少なくとも1つに基づいて識別されることを特徴とする請求項4に記載の情報処理装置。
  6. 前記格子線を表す画像を形成する前記複数の識別画像は、該格子線で区切られた複数の格子領域を囲む矩形の線をそれぞれ表しており、
    該識別画像は、矩形の辺の比に基づいて識別されることを特徴とする請求項4に記載の情報処理装置。
  7. 前記シンボルの配列を表す画像を形成する前記識別画像は、シンボルの形状、シンボルの大きさ、シンボルの色、シンボルの配置パターンの内の少なくとも1つに基づいて識別されることを特徴とする請求項4に記載の情報処理装置。
  8. 一面側に配置された画像表示部と、
    前記一面の所定の位置に設けられ、該一面が向く方向を撮影する撮影手段と、
    を備える情報処理装置であって、
    前記画像表示部の少なくとも一部の画像が撮影されるよう光を前記撮影手段に導く光学装置が取り付けられ、
    前記画像表示部の画面上に位置する対象物を含む画像、又は、画面上に位置する対象物と画面近傍に位置する対象物とを含む画像を前記撮影手段に撮影させ、
    前記撮影させた撮影画像に基づいて前記対象物を特定する処理を行い、
    前記撮影手段により撮影された撮影画像に基づいて、該撮影画像に含まれた前記画像表示部の画面の画像の輪郭の一部又は全部を特定し、
    前記特定した輪郭の一部又は全部に基づいて、前記撮影手段により撮影される撮影画像における所定の位置と前記画像表示部の画面に表示される表示画像における該所定の位置との対応関係を求め、
    該対応関係と前記撮影画像に基づいて、前記表示画像における対象物の位置情報を特定することを特徴とする情報処理装置。
  9. 前記撮影画像に基づいて、対象物の種類、前記画像表示部の前記画面上に位置する対象物の位置、前記画面上に位置する対象物の向き、前記画面上に位置する対象物の移動量、前記画面上に位置する対象物の回転量、及び前記画面上に位置する対象物の輪郭の内の少なくとも1つを特定し、
    特定した対象物の情報に基づいて処理することを特徴とする請求項1乃至請求項8のいずれか1項に記載の情報処理装置。
  10. 前記対象物には、グラフィック、マーク、マークの配列、自動認識コードのパターンの内の少なくとも1つを含む指標が設けられており、
    前記撮影画像に含まれる該指標の画像に基づいて対象物を特定し、
    該特定した対象物に基づいて処理することを特徴とする請求項1乃至請求項9のいずれか1項に記載の情報処理装置。
  11. 前記自動認識コードは、バーコード、2次元コード、ドットコードの内の少なくとも1つを含むことを特徴とする請求項10に記載の情報処理装置。
  12. 前記対象物には、ドットパターンが設けられており、
    前記ドットパターンは、1以上の情報ドットを含む1以上のブロックを有し、
    各ブロックに含まれる1以上の情報ドットで表現される情報は、前記対象物における該ブロックの位置情報及び/又はコード値を含んでいることを特徴とする請求項1乃至請求項11のいずれか1項に記載の情報処理装置。
  13. 前記情報ドットの各々には、該情報ドットの配置、大きさ、形状、色の内の少なくとも1つに基づいて基礎情報が定義されることを特徴とする請求項12に記載の情報処理装置。
  14. 前記指標は、所定の波長の光を吸収する特性、所定の波長の光を反射する特性、及び、所定の特性をもった光に反応して該光とは異なる特性をもつ光を発する特性の内の少なくとも1つをもつことを特徴とする請求項10又は請求項11に記載の情報処理装置。
  15. 前記画像表示部を制御する処理をさらに含むことを特徴とする請求項1乃至請求項14のいずれか1項に記載の情報処理装置。
  16. 前記光学装置は、プリズム、ミラー、及び光ファイバの内の少なくとも1つを含むことを特徴とする請求項1乃至請求項15のいずれか1項に記載の情報処理装置。
  17. 前記対象物は、印刷媒体、薄板状の媒体、及びフィギアの内の少なくとも1つを含むことを特徴とする請求項1乃至請求項16のいずれか1項に記載の情報処理装置。
  18. 前記情報処理装置は、板状であることを特徴とする請求項1乃至請求項17のいずれか1項に記載の情報処理装置。
  19. 前記対象物の所定領域を示す指示体と該対象物の所定領域、又は、前記対象物の所定領域に当接した指示体と該対象物の所定領域を、前記撮影画像に基づいてさらに特定し、
    特定した対象物の所定領域に基づいて、又は、特定した対象物の所定領域及び該指示体に基づいて処理することを特徴とする請求項1乃至請求項18のいずれか1項に記載の情報処理装置。
  20. 前記対象物には、ドットパターンが設けられており、
    前記ドットパターンは、1以上の情報ドットを含む1以上のブロックを有し、
    各ブロックに含まれる1以上の情報ドットで表現される情報は、前記対象物における該ブロックの位置情報を含んでおり、
    前記撮影画像に基づいて前記所定領域を特定する際、前記対象物におけるブロックの位置情報に基づいて特定することを特徴とする請求項19に記載の情報処理装置。
  21. 前記画像表示部又は前記対象物に当接された指示体の画面上の位置を検知する検知手段をさらに有しており、
    検知された該指示体の画面上の位置と特定された対象物の情報とに基づいて処理する、又は、検知された該指示体の画面上の位置と前記特定された対象物の情報とに基づいて該指示体が当接された対象物の所定領域を特定し、該特定した対象物の所定領域と前記特定された対象物の情報とに基づいて処理することを特徴とする請求項1乃至請求項20のいずれか1項に記載の情報処理装置。
  22. 前記検知手段は、静電容量タッチパネルであることを特徴とする請求項21に記載の情報処理装置。
  23. 前記撮影画像は、静止画又は動画を形成することを特徴とする請求項1乃至請求項22のいずれか1項に記載の情報処理装置。
  24. 前記撮影手段により動作体の動画が撮影され、
    該動画に基づいて動作体の動作をさらに特定し、処理する際、該特定した動作体の動作にさらに基づくことを特徴とする請求項23に記載の情報処理装置。
  25. 前記指示体は、指であることを特徴とする請求項19乃至請求項22のいずれか1項に記載の情報処理装置。
  26. 前記光学装置は、前記撮影手段が撮影する撮影領域を変更できることを特徴とする請求項1乃至請求項25のいずれか1項に記載の情報処理装置。
  27. 前記撮影領域の変更は、前記撮影領域の移動、拡大、縮小の内の少なくとも1つを含むことを特徴とする請求項26に記載の情報処理装置。
  28. ドットパターンを含む画像を前記画像表示部の画面に表示させ、
    前記ドットパターンは、1以上の情報ドットを含む1以上のブロックを有し、
    各ブロックに含まれる1以上の情報ドットで表現される情報は、該ブロックが表示される位置を含む情報を含んでいることを特徴とする請求項1乃至請求項27のいずれか1項に記載の情報処理装置。
  29. 前記光学装置には、前記撮影手段により撮影される撮影領域を照射する照射手段が設けられることを特徴とする請求項1乃至請求項28のいずれか1項に記載の情報処理装置。
  30. 前記照射手段は、所定の波長の光を照射することを特徴とする請求項29に記載の情報処理装置。
  31. 前記光学装置には、第1の波長の光を透過し、第2の波長の光を遮断するフィルタが設けられ、該フィルタを介して、前記撮影手段により撮影領域が撮影されることを特徴とする請求項1乃至請求項30のいずれか1項に記載の情報処理装置。
PCT/JP2015/077225 2014-09-16 2015-09-16 情報処理装置 WO2016043342A2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-187536 2014-09-16
JP2014187536A JP5756215B1 (ja) 2014-09-16 2014-09-16 情報処理装置

Publications (2)

Publication Number Publication Date
WO2016043342A2 true WO2016043342A2 (ja) 2016-03-24
WO2016043342A3 WO2016043342A3 (ja) 2016-05-19

Family

ID=53759629

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/077225 WO2016043342A2 (ja) 2014-09-16 2015-09-16 情報処理装置

Country Status (2)

Country Link
JP (1) JP5756215B1 (ja)
WO (1) WO2016043342A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017189445A (ja) * 2016-04-14 2017-10-19 株式会社ソニー・インタラクティブエンタテインメント 処理装置および投影画像生成方法
CN113038070A (zh) * 2019-12-25 2021-06-25 浙江宇视科技有限公司 一种设备调焦方法、装置和云平台

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104548586B (zh) * 2005-08-03 2020-03-03 株式会社Ip舍路信 信息输出装置、媒体及信息输入/输出装置
JP2008501490A (ja) * 2006-08-02 2008-01-24 健治 吉田 情報出力装置、媒体および情報入出力装置
JP2008110206A (ja) * 2006-10-05 2008-05-15 Kenji Yoshida 情報処理装置
JP5408816B2 (ja) * 2010-11-22 2014-02-05 健治 吉田 情報入力システム、プログラム、媒体
JP2012208926A (ja) * 2011-03-15 2012-10-25 Nikon Corp 検出装置、入力装置、プロジェクタ、及び電子機器
JP5784721B2 (ja) * 2011-06-10 2015-09-24 オリンパス株式会社 アタッチメント
JP5325311B2 (ja) * 2012-03-23 2013-10-23 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法、ならびに、プログラム
JP5294100B1 (ja) * 2012-07-02 2013-09-18 健治 吉田 ドットパターン読み取り用レンズユニット、ドットパターン読み取り用レンズユニットを台座に装着されたフィギュア、ドットパターン読み取り用レンズユニットに載置するカード、情報処理装置、情報処理システム
JP6294012B2 (ja) * 2012-07-02 2018-03-14 グリッドマーク株式会社 レンズユニット
JP5299547B1 (ja) * 2012-08-27 2013-09-25 富士ゼロックス株式会社 撮影装置及び鏡
JP5583741B2 (ja) * 2012-12-04 2014-09-03 株式会社バンダイ 携帯端末装置、端末プログラムおよび玩具
JP5939469B2 (ja) * 2013-02-20 2016-06-22 富士ゼロックス株式会社 閲覧装置及び閲覧システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017189445A (ja) * 2016-04-14 2017-10-19 株式会社ソニー・インタラクティブエンタテインメント 処理装置および投影画像生成方法
CN113038070A (zh) * 2019-12-25 2021-06-25 浙江宇视科技有限公司 一种设备调焦方法、装置和云平台
CN113038070B (zh) * 2019-12-25 2022-10-14 浙江宇视科技有限公司 一种设备调焦方法、装置和云平台

Also Published As

Publication number Publication date
JP5756215B1 (ja) 2015-07-29
JP2016062144A (ja) 2016-04-25
WO2016043342A3 (ja) 2016-05-19

Similar Documents

Publication Publication Date Title
KR101187500B1 (ko) 광 투영 장치, 조명 장치
JP6153564B2 (ja) カメラとマーク出力とによるポインティング装置
KR100953606B1 (ko) 화상 표시 장치, 화상 표시 방법 및 명령 입력 방법
EP3288259B1 (en) Array detector for depth mapping
CN109416744A (zh) 改进的相机校准***、目标和过程
JP2014102246A (ja) 位置姿勢検出システム
US20110304548A1 (en) Mouse provided with a dot pattern reading function
US10326894B1 (en) Self stabilizing projector
JP2000357055A (ja) 投写画像の校正方法及びその装置、並びに機械可読媒体
JP3690581B2 (ja) 位置検出装置及びその方法、平面姿勢検出装置及びその方法
JP2016114963A (ja) 入力操作検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、及びプロジェクタシステム
JP6528964B2 (ja) 入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法
JP5756215B1 (ja) 情報処理装置
WO2005096130A1 (ja) 撮像装置の指示位置検出方法および装置、撮像装置の指示位置検出用プログラム
CN109644248A (zh) 投射型影像显示装置和投射影像的调整方法
JP2005267257A (ja) 手書き情報入力システム
JP5248027B2 (ja) インターリーブされた十字ナビゲーションフレームを使用するアクティブ基準化方法
JP5883688B2 (ja) 設置状態検出システム、設置状態検出装置、及び設置状態検出方法
JP2016062589A (ja) 情報処理装置、光学装置、情報処理システム、プログラム、及びこれらとともに用いられる対象物
US10403002B2 (en) Method and system for transforming between physical images and virtual images
US20110044544A1 (en) Method and system for recognizing objects in an image based on characteristics of the objects
JP2011071746A (ja) 映像出力装置及び映像出力方法
US8963835B2 (en) Method for displaying an item on a display unit
JP4167453B2 (ja) デジタイザおよび座標認識用シート
US20230239442A1 (en) Projection device, display system, and display method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15842242

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase in:

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15842242

Country of ref document: EP

Kind code of ref document: A2