WO2011021285A1 - 携帯装置、方法およびプログラム - Google Patents

携帯装置、方法およびプログラム Download PDF

Info

Publication number
WO2011021285A1
WO2011021285A1 PCT/JP2009/064511 JP2009064511W WO2011021285A1 WO 2011021285 A1 WO2011021285 A1 WO 2011021285A1 JP 2009064511 W JP2009064511 W JP 2009064511W WO 2011021285 A1 WO2011021285 A1 WO 2011021285A1
Authority
WO
WIPO (PCT)
Prior art keywords
specific
portable device
specific operation
user
detection unit
Prior art date
Application number
PCT/JP2009/064511
Other languages
English (en)
French (fr)
Inventor
浅見俊宏
内島誠
城後新
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to PCT/JP2009/064511 priority Critical patent/WO2011021285A1/ja
Priority to JP2011527518A priority patent/JP5413461B2/ja
Publication of WO2011021285A1 publication Critical patent/WO2011021285A1/ja
Priority to US13/399,349 priority patent/US9364752B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/44Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/46Computing the game score
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/204Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5573Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history player location

Definitions

  • the present invention relates to a portable device, a method, and a program.
  • GPS Global Positioning System
  • the mobile phone terminal displays a map using the acquired location information.
  • the user relies on the map to move to the actual event spot and plays a quiz or game.
  • a service for acquiring points when a quiz or game is cleared is known (for example, Patent Document 1).
  • the mobile device acquires regional information provided according to the acquired location information.
  • a portable device is known that outputs regional information only when a user performs a predetermined input operation on a game program (for example, Patent Document 2).
  • This mobile device, method, and program have been made in view of the above-described problems, and an object thereof is to provide an attractive service rich in change.
  • a position detection unit that detects the position of a portable device, an operation instruction unit that instructs a user to perform a specific operation when the position detection unit detects a specific position, and the specific operation of the user
  • An operation detection unit a determination unit that determines whether or not the specific operation has been performed at the specific position, and the determination unit that determines that the specific operation has been performed at the specific position
  • a portable device including a state change unit that changes the state of the portable device is used.
  • a step of detecting a position of the mobile device a step of instructing a user to perform a specific operation when the detected position of the mobile device is a specific position, and a step of detecting the specific operation of the user And when detecting the specific operation, determining whether or not the specific operation has been performed at the specific position, and determining that the specific operation has been performed at the specific position, Changing the state of the portable device.
  • a step of detecting a position of the portable device to a computer, a step of instructing a user to perform a specific operation when the detected position of the portable device is a specific position, and a specific operation of the user are performed.
  • a step of detecting, a step of determining whether or not the specific operation has been performed at the specific position, and a determination that the specific operation has been performed at the specific position when the specific operation is detected A program for executing the step of changing the state of the portable device.
  • This mobile device, method and program can provide a variety of attractive services.
  • FIG. 1 is a diagram illustrating a system in which the portable device according to the embodiment is used.
  • FIG. 2 is a block diagram of the portable device according to the first embodiment.
  • FIG. 3 is a functional block diagram of the mobile device according to the first embodiment.
  • FIG. 4 is a flowchart illustrating the operation of the mobile device according to the first embodiment.
  • FIG. 5A to FIG. 5C are diagrams showing display screens of the display unit.
  • FIG. 6 is a flowchart illustrating the operation of the mobile device according to the second embodiment.
  • FIG. 7 is a block diagram of the portable device according to the third embodiment.
  • FIG. 8 is a functional block diagram of the portable device according to the third embodiment.
  • FIG. 9 is a flowchart (part 1) illustrating the operation of the mobile device according to the third embodiment.
  • FIG. 10 is a flowchart (part 2) illustrating the operation of the mobile device according to the third embodiment.
  • FIG. 11A and FIG. 11B are examples of images displayed on the display unit in step S44 of FIG.
  • FIG. 12 is a block diagram of a portable device according to the fourth embodiment.
  • FIG. 13 is a flowchart illustrating the operation of the mobile device according to the fourth embodiment.
  • FIG. 14 is an example of an image displayed on the display unit in step S64 of FIG.
  • FIG. 15 is a block diagram of a portable device according to the fifth embodiment.
  • FIG. 16 is a block diagram of the center according to the fifth embodiment.
  • FIG. 17 is a flowchart illustrating the operation of the mobile device according to the fifth embodiment.
  • FIG. 18 is a flowchart illustrating the operation of the center according to the fifth embodiment.
  • FIG. 19 is a block diagram of a portable device according to the sixth embodiment.
  • FIG. 20 is a flowchart illustrating the operation of the mobile device according to the sixth embodiment.
  • FIG. 21 is a flowchart illustrating the operation of the center according to the sixth embodiment.
  • FIG. 22 is a flowchart illustrating the operation of the mobile device according to the seventh embodiment.
  • FIG. 23 is a flowchart illustrating the operation of the center according to the seventh embodiment.
  • Example 1 is an example of a game in which points can be added or items can be obtained when a user performs a specific operation at a specific position.
  • FIG. 1 is a diagram illustrating a system in which the portable device according to the embodiment is used.
  • the system includes a mobile device 100, a GPS satellite 102, a base station 104, a network 106 and a remote center 110.
  • the portable device 100 can receive the radio wave of the GPS satellite 102 and recognize its own position.
  • the mobile device 100 and the base station 104 can perform wireless communication.
  • the base station 104 is connected to the center 110 via the network 106.
  • the mobile device 100 is, for example, a mobile phone terminal, and the center 110 is, for example, a server.
  • the portable device 100 and the center can transmit and receive data via the base station 104 and the network 106.
  • FIG. 2 is a block diagram of the portable device according to the first embodiment.
  • a portable device 100 includes a CPU (Central Processing Unit) 10, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 14, an acceleration sensor 16, a GPS receiving unit 18, a display unit 20, an amplifier 22, a speaker 24, and the like.
  • a bus 11 to be connected is provided.
  • the ROM 12 stores programs, map data, and the like.
  • the RAM 14 temporarily stores various information.
  • the RAM 14 can also be a non-volatile memory.
  • the acceleration sensor 16 detects acceleration applied to the portable device 100. For example, when the user jumps or walks with the portable device 100, the acceleration sensor 16 detects the acceleration.
  • the display unit 20 is, for example, a liquid crystal panel or an organic EL (Electroluminescence) panel.
  • the amplifier 22 amplifies the audio signal.
  • the speaker 24 outputs the amplified audio signal as audio.
  • the CPU 10 controls these functions.
  • FIG. 3 is a functional block diagram of the mobile device according to the first embodiment.
  • the CPU 10 or the computer functions as a position detection unit 50, an operation detection unit 52, an operation instruction unit 54, a determination unit 56, and a state change unit 58 by executing a program.
  • the position detector 50 detects the current position of the portable device 100 from the GPS signal received by the GPS receiver 18.
  • the operation instruction unit 54 instructs the user to perform a specific operation using the display unit 20 or the speaker.
  • the operation detection unit 52 receives a signal from the acceleration sensor 16 and detects whether the user has performed a specific operation.
  • the determination unit 56 determines whether or not a specific operation performed by the user has been performed at a specific position.
  • the state changing unit 58 changes the state of the portable device when the determining unit 56 determines that the user's specific operation is performed at a specific position. For example, points are added. Or get items on the game.
  • FIG. 4 is a flowchart illustrating the operation of the mobile device according to the first embodiment.
  • FIG. 5A to FIG. 5C are diagrams showing display screens of the display unit 20.
  • the position detector 50 detects the current position of the portable device 100 from the GPS signal received by the GPS receiver 18 (step S10). For example, the display unit 20 displays the current position 98 and the specific position 99 of the mobile device 100 on a map as shown in FIG. One or a plurality of specific positions 99 may be determined in advance and stored in the RAM 14 or the like. The latitude and longitude may be displayed at the current position 98.
  • the position detection unit 50 determines whether the detected position is a specific position (step S12).
  • the position detection unit 50 can determine that the detected position is the specific position. In No, it returns to step S10. In the case of Yes, the operation instruction unit 54 instructs the user to perform a specific operation (step S14). For example, the operation instruction unit 54 instructs the user to jump on the spot as shown in FIG.
  • the operation instruction unit 54 may instruct the user by voice using the speaker 24.
  • Determination unit 56 starts a timer (step S16).
  • the timer time may be determined in advance, for example, 1 minute.
  • the display unit 20 may display the remaining time of the timer.
  • the operation detection unit 52 detects a user operation from the output of the acceleration sensor 16 (step S18).
  • the operation detection unit 52 determines whether the user operation is a specific operation (step S20). For example, the operation detection unit 52 determines that the user's operation is a specific operation when the output signal of the acceleration sensor 16 matches or approximates a predetermined signal pattern of the acceleration sensor 16.
  • the signal pattern of the acceleration sensor 16 is stored in the RAM 14. In the case of No, the operation instruction unit 54 instructs the operation again to the user (step S26).
  • the determination unit 56 determines whether the predetermined time set in the timer has been reached, that is, whether a time-out has occurred (step S28). In No, it returns to step S18. In the case of Yes, the determination part 56 outputs the failure of operation to the display part 20 or the speaker 24 (step S30). Then, the process ends.
  • the determination unit 56 outputs a successful operation to the display unit 20 or the speaker 24 (step S22).
  • the state changing unit 58 changes the state of the mobile device 100. For example, points are added. The points are stored in the RAM 14, for example, and the points can be added when the user performs a specific operation at a specific position. As shown in FIG. 5C, it can be displayed on the display unit 20 that points have been acquired. Moreover, you may display a total point. The state changing unit 58 can acquire items used in the game in addition to the points. Then exit.
  • the determination unit 56 determines whether a specific operation of the user has been performed within a predetermined time. If a specific operation is performed within a predetermined time after the operation instruction unit 54 instructs the user to perform a specific operation, it is considered that the specific operation has been performed at the specific position detected by the position detection unit 50 in step S12. It is done. As described above, when the determination unit 56 determines whether or not the user's specific operation has been performed at the specific position, and the determination unit 56 determines that the specific operation has been performed at the specific position, Step S24. As described above, the state changing unit 58 changes the state of the portable device 100. Thereby, the user can acquire points etc., for example by performing specific operation in an actual position, and can heighten the game sense of a game participant. In this way, a variety of attractive services can be provided.
  • the determination unit 56 performs the specific operation at the specific position based on the time from when the operation instruction unit 54 instructs the user to perform the specific operation until the operation detection unit 52 detects the specific operation. It is determined whether or not it has been done. As a result, for example, compared to determining a specific position by installing a QR (Quick Response) code or a non-contact IC card reader or writer at a specific position, the determination unit 56 can easily specify a specific position. It can be determined whether the operation has been performed at a specific position. Therefore, the user can enjoy a game feeling more.
  • QR Quality of Response
  • Example 2 is an example in which position detection is performed again after detecting a user's specific operation.
  • the block diagram and functional block diagram of the second embodiment are the same as those in FIG. 2 and FIG.
  • FIG. 6 is a flowchart illustrating the operation of the mobile device according to the second embodiment.
  • the position detection unit 50 detects the current position of the portable device 100 again (step S32).
  • the determination unit 56 determines whether the position detected by the position detection unit 50 is a specific position (step S34). In No, it progresses to step S30. In the case of Yes, it progresses to step S22.
  • Other steps are the same as those of the first embodiment shown in FIG.
  • the position detection unit 50 detects the position of the mobile device 100 again when the operation detection unit 52 detects a user's specific operation as in step S32 of FIG.
  • the determination unit 56 determines whether or not a specific operation has been performed at a specific position based on the position of the portable device that has been detected again.
  • the user is instructed to perform a specific operation.
  • the determination unit 56 determines that the specific operation has been performed at the specific position. Thereby, it can be determined more accurately that the specific operation is performed at the specific position.
  • Example 3 is an example in which a specific position is presented to the user.
  • FIG. 7 is a block diagram of the portable device according to the third embodiment. As shown in FIG. 7, the portable device 100 includes a geomagnetic sensor 26. The geomagnetic sensor 26 detects geomagnetism. Other configurations are the same as those of the first embodiment shown in FIG.
  • FIG. 8 is a functional block diagram of the portable device according to the third embodiment.
  • the CPU 10 or the computer functions as the position detection unit 50.
  • the position detection unit 50 can recognize the orientation of the portable device 100 from the output of the geomagnetic sensor.
  • the position display unit 59 displays the current position and the specific position of the mobile device 100 on the display unit 20 based on the position and orientation detected by the position detection unit 50.
  • the position detection unit 50 detects the position of the mobile device 100 (step S ⁇ b> 10).
  • the position detection unit 50 determines whether the detected position is a specific position (step S12). In No, the position detection part 50 detects the azimuth
  • the position detection unit 50 calculates the distance to the specific position and the azimuth of the specific position based on the detected position and azimuth of the mobile device 100 (step S42).
  • the position display unit 59 outputs the distance to the specific position and the direction based on the calculation result to the display unit 20 (step S44). If Yes in step S12, the process proceeds to A in FIG. Referring to FIG. 10, the steps after step S14 are the same as steps S14 to S30 in FIG.
  • FIG. 11A and FIG. 11B are examples of images displayed on the display unit in step S44 of FIG.
  • the current position 98 of the mobile device 100 is indicated by a triangle.
  • a concentric circle centered on a triangle is displayed, and a specific position 99 is displayed as an asterisk in the concentric circle.
  • the distance and direction from the current position 98 to the specific position 99 can be known.
  • the distance to the specific position (described as a target in FIG. 11A) may be displayed as a number.
  • a plurality of specific positions may be displayed.
  • the distance to the specific position is indicated by a number, and the azimuth is displayed by a compass.
  • the top of the display unit 20 of the mobile device 100 is the north direction.
  • presentation to the user at a specific position may use audio information using the speaker 24 or both audio information and image display.
  • the position display unit 59 displays a specific position to the user based on the position of the mobile device detected by the position detection unit 50 and the specific position, as in step S44 of FIG. Thereby, the user can recognize a specific position and can enjoy a game sense more.
  • Example 4 is an example in which an image near a specific position and an image indicating the specific position are superimposed and displayed.
  • FIG. 12 is a block diagram of a portable device according to the fourth embodiment. As shown in FIG. 12, the portable device 100 includes a camera 28. For example, the camera 28 can take a picture around the portable device 100. Other configurations are the same as those of the third embodiment shown in FIG. The functional block diagram is the same as FIG.
  • FIG. 13 is a flowchart showing the operation of the mobile device of the fourth embodiment.
  • the position detection unit 50 determines whether the detected position of the mobile device 100 is around the specific position (step S50). For example, when the specific position is within a certain distance from the current position, the position detection unit 50 can determine that the position of the mobile device 100 is around the specific position. In No, it progresses to Step S40.
  • the camera 28 starts (step S52). The user uses the camera 28 to display a peripheral image on the screen.
  • the position detection unit 50 acquires a peripheral image from the camera 28 (step S54).
  • the geomagnetic sensor 26 measures the orientation of the portable device 100 (step S56).
  • the acceleration sensor 16 measures the inclination of the portable device 100 (step S58).
  • the position detection unit 50 calculates a specific position in the peripheral image from the position, orientation, and tilt of the portable device 100 when the camera 28 displays the peripheral image. A peripheral image and an image indicating a specific position are superimposed. Thereby, the position detection part 50 produces the image which displays a specific position (step S60).
  • the position display unit 59 displays the created image on the display unit 20 (step S64). Then, it returns to step S10.
  • the other steps are the same as those in FIGS. 9 and 10 of the third embodiment, and a description thereof will be omitted.
  • FIG. 14 is an example of an image displayed on the display unit 20 in step S64 of FIG.
  • the display unit 20 displays an image of a church and a bakery that are peripheral images of the portable device 100.
  • the specific position 99 is superimposed on the peripheral image and displayed.
  • the position display unit 59 displays an image indicating the specific position 99 on the image around the portable device 100 on the display unit 20. Thereby, the user can recognize a specific position more like a game.
  • the image indicating the specific position may be a game character or character in addition to the star.
  • Example 5 is an example in which an image near a specific position and an image indicating a specific position are superimposed at a remote center.
  • FIG. 15 is a block diagram of a portable device according to the fifth embodiment. As illustrated in FIG. 15, the portable device 100 includes, for example, a communication IF (interface) 30 as a communication unit. The communication IF 30 transmits and receives information to and from the remote center 110 via the base station 104 and the network 106 in FIG. Other configurations are the same as those of the fourth embodiment shown in FIG. The functional block diagram is the same as FIG.
  • FIG. 16 is a block diagram of the center.
  • the remote center 110 includes a CPU 80, a ROM 82, a RAM 84, an HDD (Hard Disk Disk Drive) 86, a communication IF 90, and a bus 81 for connecting them.
  • the remote center 110 is a server, for example.
  • the ROM 82 stores programs, map data, and the like.
  • the RAM 84 temporarily stores various information.
  • the RAM 84 can also be a non-volatile memory.
  • the HDD 86 stores various information for a long time.
  • the communication IF 90 transmits and receives information to and from the portable device 100 via the network 106 and the base station 104 in FIG.
  • the CPU 80 controls these functions.
  • FIG. 17 is a flowchart illustrating the operation of the mobile device according to the fifth embodiment.
  • the communication IF 30 transmits the position of the mobile device 100 detected by the position detection unit 50 to the center 110 (step S55).
  • the geomagnetic sensor 26 measures the orientation of the portable device 100 (step S56).
  • Communication IF30 transmits the information regarding the measured azimuth
  • the acceleration sensor 16 measures the inclination of the portable device 100 (step S58).
  • the communication IF 30 transmits information regarding the measured inclination to the center 110 (step S59).
  • the communication IF 30 receives image information from the center 110 (step S62).
  • the position display unit 59 displays the received image on the display unit 20. Thereafter, the process returns to step S10.
  • Other steps are the same as those of the fifth embodiment shown in FIG.
  • FIG. 18 is a flowchart illustrating the operation of the center according to the fifth embodiment.
  • communication IF 90 receives information regarding the position of portable device 100 transmitted by portable device 100 in step S55 of FIG. 17 (step S80).
  • the communication IF 90 receives the information regarding the azimuth transmitted by the portable device 100 in step S57 of FIG. 17 (step S82).
  • the communication IF 90 receives the information regarding the tilt transmitted by the portable device 100 in step S59 in FIG. 17 (step S84).
  • the CPU 80 acquires an image around the portable device 100 from the HDD 86 based on the information regarding the position, orientation, and tilt of the portable device 100 received by the communication IF 90. This image may be an actually taken image or an image synthesized by computer graphics.
  • An image at a specific position is superimposed on an image around portable device 100. Images around the portable device 100 can be stored in the HDD 86 in advance. Thereby, an image displaying the specific position is generated (step S86).
  • the communication IF 90 transmits the image created by the CPU 80 to the portable device 100 (step S88).
  • the portable device 100 receives the image transmitted by the communication IF 90 in step S62 of FIG. Then exit.
  • the portable device 100 preferably reduces the burden of information processing from the viewpoint of power consumption reduction and miniaturization.
  • the center 110 creates an image in which an image indicating a specific position is superimposed on an image around the portable device 100.
  • the communication IF 30 receives an image created by the center 110.
  • the position display unit 59 displays the received image on the display unit 20.
  • the center creates an image in which an image indicating a specific position is superimposed on an image around the portable device 100, so that the burden on the CPU 10 of the portable device 100 can be reduced.
  • Example 6 is an example in which the center determines an operation instruction.
  • FIG. 19 is a block diagram of a portable device according to the sixth embodiment.
  • the mobile device 100 includes, for example, a communication IF (interface) 30 as a communication unit.
  • the communication IF 30 transmits and receives information to and from the remote center 110 via the base station 104 and the network 106 in FIG.
  • Other configurations are the same as those of the first embodiment shown in FIG.
  • the functional block diagram is the same as FIG.
  • the block diagram of the center 110 is the same as that of FIG.
  • FIG. 20 is a flowchart illustrating the operation of the mobile device according to the sixth embodiment.
  • position detection unit 50 detects the position of portable device 100 (step S10).
  • the communication IF 30 transmits information related to the position detected by the position detection unit 50 to the center 110 (step S66).
  • the position detection unit 50 determines whether the communication IF 30 has received map image information from the center 110 (step S68). In the case of Yes, the position display unit 59 displays the received map image on the display unit 20 (step S72). Then, it returns to step S10.
  • step S68 the operation instruction unit 54 determines whether information related to the operation instruction has been received from the center 110 (step S70).
  • the information related to the operation instruction is, for example, image information displayed on the display unit 20 by the operation instruction unit 54 in step S14 of FIG. Or it is the information which shows the content of the specific operation urged to the user. In No, it returns to step S10.
  • the operation detection part 52 determines whether the information regarding the pattern of the acceleration sensor 16 was received from the center 110 (step S72).
  • the information regarding the pattern of the acceleration sensor 16 is, for example, an output pattern of the acceleration sensor 16 for the operation detection unit 52 to determine that a specific operation has been performed in step S20 of FIG. In No, it returns to step S72.
  • the subsequent steps are the same as those in FIG.
  • FIG. 21 is a flowchart showing the operation of the center according to the sixth embodiment.
  • communication IF 90 receives information regarding the position of portable device 100 transmitted by portable device 100 in step S66 of FIG. 20 (step S90).
  • the CPU 80 determines whether the received position of the mobile device 100 is a specific position (step S92). In No, CPU80 produces the image of the map which displayed the position and specific position of the portable apparatus 100 (step S97).
  • the communication IF 90 transmits the created map image information to the portable device 100.
  • the portable device 100 receives the map image information in step S68 of FIG.
  • step S92 the communication IF 90 transmits information related to an operation instruction that prompts the user to perform a specific operation (step S94).
  • step S70 of FIG. 20 the portable device 100 receives information related to the operation instruction.
  • the communication IF transmits the pattern of the acceleration sensor 16 to the portable device 100 (step S96).
  • step S ⁇ b> 72 of FIG. 20 the mobile device 100 receives information regarding the pattern of the acceleration sensor 16.
  • the communication IF 30 transmits information regarding the position of the mobile device 100 detected by the position detection unit 50 to the center 110 as in step S66 of FIG.
  • the communication IF 30 receives information regarding a specific operation that the operation instruction unit 54 instructs the user from the center 110.
  • the center 110 determines a specific operation to be urged by the user, the portable device 100 may not store information related to the specific operation in advance.
  • the center 110 determines whether or not the position is a specific position, so that the mobile device 100 does not have to store information on the specific position in advance.
  • the center 110 transmits the pattern of the acceleration sensor to the portable device 100, so that the portable device 100 may not store the pattern information.
  • information regarding a specific operation, information regarding a specific position, and an acceleration sensor pattern can be stored in the HDD of the center 110 or the like. Thereby, the capacity of the RAM 14 of the mobile device 100 can be reduced, and the power consumption and size of the mobile device 100 can be reduced.
  • Example 7 is an example in which the center determines the content of the change in the state of the mobile device.
  • the block diagram of the portable device according to the seventh embodiment is the same as FIG. 19 of the sixth embodiment, and the block diagram of the center is the same as FIG.
  • the functional block diagram of the portable device 100 is the same as that of FIG.
  • FIG. 22 is a flowchart illustrating the operation of the mobile device according to the seventh embodiment.
  • the communication IF 30 transmits to the center 110 that the user's specific operation has been completed (step S74).
  • the communication IF 30 receives information regarding points from the center 110 (step S76).
  • the state change unit 58 displays the received point on the display unit 20 (step S78).
  • Other steps are the same as those of the first embodiment shown in FIG.
  • FIG. 23 is a flowchart showing processing performed by the CPU 80 of the center 110 or a computer.
  • communication IF 90 determines whether or not portable device 100 has received the completion of the specific operation transmitted in step S74 of FIG. 22 (step S100). In No, it returns to step S100. In the case of Yes, the CPU 80 adds a new point to the point stored in the HDD 86 (step S102).
  • Communication IF90 transmits the information regarding a point to the portable apparatus 100 (step S104). The portable device 100 receives information regarding points in step S78 of FIG.
  • the communication IF 30 when the determination unit 56 determines that the specific operation is performed at the specific position as in step S20 of FIG. 22, the communication IF 30 performs the specific operation as in step S74. It transmits to the center 110 what has been done at a specific location. As in steps S76 and S78, the state changing unit 58 changes the state of the portable device 100 based on an instruction from the center 110. Thereby, for example, the center 110 can store points, and the resources of the portable device 100 can be reduced.
  • the center 110 in the fifth embodiment, an example is shown in which the center 110 superimposes an image near a specific position and an image indicating the specific position.
  • the operation instruction to the user is determined as the center 110 is shown.
  • the center 110 determines the content of the state change of the mobile device 100 has been described. All of these may be performed by the center 110, or a part may be performed by the center.
  • the operation detection unit 52 has been described as detecting the user's specific operation by detecting the acceleration applied to the mobile device 100.
  • the case where the user jumps has been described as an example of the user's specific operation.
  • the user can make the body movement a specific operation. Thereby, the user can play a game using a body and can enjoy a game more.
  • Table 1 shows examples of specific operations performed by the user for operations that can be detected by the acceleration sensor 16.
  • Table 1 shows examples of operations that the acceleration sensor 16 can detect. From Table 1, the actions “walking” and “running” can both be detected by the acceleration sensor 16. Further, the number of steps can be counted by the acceleration sensor 16. For example, an operation such as “walking 10 steps” can also be detected. The actions “standing” and “sitting” can also be detected. The acceleration sensor 16 can also detect the actions of “standing up from the chair”, “sitting (or squatting)”, “repetitive jumping”, and “jumping”. As an operation “jump”, the acceleration sensor 16 can also detect an operation “jump with a reaction while holding the hand”.
  • Table 2 shows an example of a specific operation that the user performs an operation of moving the portable device 100 by hand, which can be detected by the acceleration sensor 16.
  • the acceleration sensor 16 can detect an operation of “lifting or lowering” the portable device 100.
  • the acceleration sensor 16 can detect a difference between when the portable device 100 is raised and when it is lowered. It is also possible to detect the height at which the portable device is lifted or the height at which the portable device is lowered. When detecting the height, the height can be divided into a plurality of sections, and the height of which section can be detected.
  • the acceleration sensor 16 can also detect an operation of “throwing up and receiving” the portable device 100.
  • the acceleration sensor 16 can also detect an operation of “moving the mobile device 100 left and right”.
  • the acceleration sensor 16 can also determine whether the mobile device 100 has been moved to the right or left. It is also possible to detect the width moved left and right. The width can be detected by dividing the width into a plurality of sections.
  • the acceleration sensor 16 can also detect an operation of “writing letters or numbers” with the portable device 100.
  • Table 3 shows a function capable of detecting a specific position, a function capable of detecting a specific operation performed by the user, and an operation or information detectable by the function.
  • the operation detection unit 52 detects an operation or information using a function for detecting a human motion. As shown in Table 1 and Table 2, using the acceleration sensor, the operation detection unit 52 can detect the user's movement. The operation detection unit 52 uses a pedometer to detect the number of steps the user has walked or has run. be able to. The operation detection unit 52 can detect a user's exercise amount using an activity meter. The operation detection unit 52 can detect characters or numbers input by the user using a key. It is also possible to detect whether a particular letter or number has been entered. The operation detection unit 52 can detect a user's voice or the like using a microphone. It is also possible to detect whether a specific voice is emitted.
  • the operation detection unit 52 can detect coordinates touched by the user using a touch panel.
  • the operation detection unit 52 can detect a user's pulse using a pulse checker.
  • the operation detection unit 52 can detect a user's fingerprint using a fingerprint sensor.
  • the portable device 100 can perform biometric authentication using a fingerprint input from a fingerprint sensor and release the lock.
  • the operation detection unit 52 can detect the angular velocity received by the portable device 100 using a gyro sensor.
  • the position detection unit 50 or the operation detection unit 52 detects information using a function of detecting environmental information.
  • the position detector 50 can detect longitude and latitude information using a GPS receiver.
  • the position detection unit 50 or the operation detection unit 52 can detect time using a clock.
  • the position detection unit 50 or the operation detection unit 52 can detect an image or a QR code using a camera.
  • the position detection unit 50 or the operation detection unit 52 can detect illuminance using an optical sensor.
  • the position detection unit 50 or the operation detection unit 52 can detect an atmospheric pressure, an altitude, or an altitude difference using a barometer.
  • the position detection unit 50 or the operation detection unit 52 can detect the temperature using a thermometer.
  • the position detection unit 50 can detect the azimuth using a geomagnetic sensor.
  • the operation detection unit 52 can detect the voice of the telephone using a telephone function. It is also possible to detect whether a specific phone number has been called or a call has been received from a specific phone number.
  • the position detection unit 50 can detect the presence / absence of radio waves from the mobile phone by using the within-range or out-of-range detection function.
  • the operation detection unit 52 can detect transmission / reception of mail including characters or images using a mail function. It is also possible to detect whether a mail is sent to a specific mail address or whether a mail is received from a specific mail address.
  • the operation detection unit 52 can detect whether or not the website has been accessed using the Internet function. It is also possible to detect whether a specific website has been accessed. For example, the operation detection unit 52 can detect whether information is received from a contactless card or whether information is received using radio such as BlueTooth.
  • the position detection unit 50 or the operation detection unit 52 can detect a specific position or a specific operation of the user by combining a plurality of functions shown in Table 3. For example, when the position detection unit 50 or the operation detection unit 52 detects “jump and make a shout at 15:00 on the top of Mt. Fuji” as a specific operation performed at a specific position, it is as follows.
  • the position detection unit 50 uses a GPS reception unit to detect that it is Mt. Fuji.
  • the position detection unit 50 detects the top using a barometer.
  • the operation detection unit 52 uses the mail function to detect that a mail has been received.
  • the operation detection unit 52 detects that it is 15:00 using a clock.
  • the operation detection unit 52 detects a jump of one rotation using an acceleration sensor and a gyro sensor. Detecting screaming using a microphone.
  • the position detection unit 50 detects whether the air temperature is 25 ° C. or less using a thermometer.
  • the operation detection unit 52 detects whether the user has walked 5000 steps or more.
  • the position detection unit 50 detects whether the location is out of the service area using the service area or out of service area detection function.
  • the operation detection unit 52 uses the keys to detect whether 1 to 9 have been hit in order.
  • the operation detection unit 52 uses a pulse checker to detect whether the pulse has become 100 times / minute or more.
  • the operation detection unit 52 uses an acceleration sensor to detect whether squatting has occurred.
  • the operation detection unit 52 uses a camera to detect whether a photograph has been taken.
  • the position detection unit 50 uses a geomagnetic sensor to detect whether it is facing north.
  • the operation detection unit 52 uses a fingerprint sensor to detect whether the lock is released.
  • the operation detection unit 52 uses an acceleration sensor and an activity meter to detect whether 100 kcal has been exercised.
  • the position detection unit 50 detects whether it is a shadow of a building using a GPS reception unit and an optical sensor.
  • the operation detection unit 52 uses the touch panel to detect whether the center of the screen has been hit twice.
  • the operation detection unit 52 uses an acceleration sensor to detect whether the mobile phone has been thrown up and caught.
  • the operation detection unit 52 uses a telephone function to detect whether a telephone call has been made.
  • the position detection unit 50 can detect a specific position based on information from a plurality of sensors or the like.
  • the operation detection unit 52 can detect a specific operation based on information from a plurality of sensors and the like. Also, a plurality of specific positions can be combined. Also, a plurality of specific operations can be combined.
  • the state change of the portable device can be, for example, display of an image, output of music, free download of an image or music from a site, and the like.
  • a mobile phone terminal has been described as an example of the mobile device 100.
  • the portable device 100 may be a portable game device or the like.
  • information can be transmitted to and received from the center 110 as in the fifth to seventh embodiments.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Environmental & Geological Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

携帯装置の位置を検出する位置検出部50と、前記位置検出部50が特定の位置を検出した場合、ユーザに特定の操作を指示する操作指示部54と、前記ユーザの前記特定の操作を検出する操作検出部52と、前記特定の操作が前記特定の位置で行なわれたか否かを判定する判定部56と、前記判定部56が、前記特定の操作が前記特定の位置で行なわれたと判定した場合、前記携帯装置の状態を変化させる状態変化部58と、を具備する携帯装置。

Description

携帯装置、方法およびプログラム
 本発明は、携帯装置、方法およびプログラムに関する。
 携帯電話等の携帯装置においてGPS(Global Positioning System)等の位置情報を取得できるものが多く普及している。携帯装置が取得した位置情報を用い、ゲーム等を行なうサービスが知られている。
 例えば、携帯電話端末は取得した位置情報を用い地図を表示する。ユーザは地図を頼りに実際のイベントスポットに移動し、クイズやゲームを行なう。クイズやゲームをクリアするとポイントを獲得するサービスが知られている(例えば特許文献1)。
 また、例えば、携帯装置は取得した位置情報に応じて提供される地域情報を取得する。携帯装置は、ユーザがゲームプログラム上において所定の入力操作が行なわれた場合のみ地域情報を出力するサービスが知られている(例えば特許文献2)。
特開2002-49681号公報 特開2004-334649号公報
 しかしながら、例えば特許文献1および2のサービスでは、ユーザが特定の位置でゲーム等を行ったかいなか判断されていない。このため、ゲーム参加者のゲーム感覚を高めることができない。位置情報を用い変化に富んだ魅力的なサービスが求められている。
 本携帯装置、方法およびプログラムは、上記課題に鑑みなされたものであり、変化に富んだ魅力的なサービスを提供することを目的とする。
 例えば、携帯装置の位置を検出する位置検出部と、前記位置検出部が特定の位置を検出した場合、ユーザに特定の操作を指示する操作指示部と、前記ユーザの前記特定の操作を検出する操作検出部と、前記特定の操作が前記特定の位置で行なわれたか否かを判定する判定部と、前記判定部が、前記特定の操作が前記特定の位置で行なわれたと判定した場合、前記携帯装置の状態を変化させる状態変化部と、を具備する携帯装置を用いる。
 また、例えば、携帯装置の位置を検出するステップと、検出した前記携帯装置の位置が特定の位置の場合、ユーザに特定の操作を指示するステップと、前記ユーザの前記特定の操作を検出するステップと、前記特定の操作を検出した場合、前記特定の操作が前記特定の位置で行なわれたか否かを判定するステップと、前記特定の操作が前記特定の位置で行なわれたと判定した場合、前記携帯装置の状態を変化させるステップと、を具備する方法を用いる。
 また、例えば、コンピュータに、携帯装置の位置を検出するステップと、検出した前記携帯装置の位置が特定の位置の場合、ユーザに特定の操作を指示するステップと、前記ユーザの前記特定の操作を検出するステップと、前記特定の操作を検出した場合、前記特定の操作が前記特定の位置で行なわれたか否かを判定するステップと、前記特定の操作が前記特定の位置で行なわれたと判定した場合、前記携帯装置の状態を変化させるステップと、を実行させるプログラムを用いる。
 本携帯置、方法およびプログラムによれば、変化に富んだ魅力的なサービスを提供することができる。
図1は、実施例に係る携帯装置が用いられるシステムを示す図である。 図2は、実施例1に係る携帯装置のブロック図である。 図3は、実施例1に係る携帯装置の機能ブロック図である。 図4は、実施例1に係る携帯装置の動作を示すフローチャートである。 図5(a)から図5(c)は表示部の表示画面を示す図である。 図6は、実施例2に係る携帯装置の動作を示すフローチャートである。 図7は、実施例3に係る携帯装置のブロック図である。 図8は、実施例3に係る携帯装置の機能ブロック図である。 図9は、実施例3に係る携帯装置の動作を示すフローチャート(その1)である。 図10は、実施例3に係る携帯装置の動作を示すフローチャート(その2)である。 図11(a)および図11(b)は、図9のステップS44における表示部に表示された画像の例である。 図12は、実施例4に係る携帯装置のブロック図である。 図13は、実施例4に係る携帯装置の動作を示すフローチャートである。 図14は、図13のステップS64において、表示部に表示される画像の例である。 図15は、実施例5に係る携帯装置のブロック図である。 図16は、実施例5に係るセンターのブロック図である。 図17は、実施例5に係る携帯装置の動作を示すフローチャートである。 図18は、実施例5に係るセンターの動作を示すフローチャートである。 図19は、実施例6に係る携帯装置のブロック図である。 図20は、実施例6に係る携帯装置の動作を示すフローチャートである。 図21は、実施例6に係るセンターの動作を示すフローチャートである。 図22は、実施例7に係る携帯装置の動作を示すフローチャートである。 図23は、実施例7に係るセンターの動作を示すフローチャートである。
 以下、図面を参照に、携帯電話端末を例とした方法およびプログラムの実施例について説明する。
 実施例1は、特定の位置でユーザが特定の操作を行なうと、ポイントが加算されたり、アイテムを得ることができるゲームの例である。図1は、実施例に係る携帯装置が用いられるシステムを示す図である。図1のように、システムは、携帯装置100、GPS衛星102、基地局104、ネットワーク106および遠隔センター110を含んでいる。携帯装置100はGPS衛星102の電波を受信し、自己の位置を認識することができる。携帯装置100と基地局104とは、無線通信を行なうことができる。基地局104はネットワーク106を介しセンター110と接続される。携帯装置100は、例えば携帯電話端末であり、センター110は例えばサーバである。携帯装置100とセンターとは、基地局104およびネットワーク106を介しデータの送受信を行なうことができる。
 図2は、実施例1に係る携帯装置のブロック図である。携帯装置100は、CPU(Central Processing Unit)10、ROM(Read Only Memory)12、RAM(Random Access Memory)14、加速度センサ16、GPS受信部18、表示部20、アンプ22、スピーカ24およびこれらを接続するバス11を備えている。ROM12は、プログラムおよび地図データ等を格納する。RAM14は、各種情報を一時格納する。また、RAM14は不揮発性メモリとすることもできる。加速度センサ16は、携帯装置100に加わる加速度を検出する。例えば、ユーザが携帯装置100を携えジャンプや歩行等を行なうと、加速度センサ16は、その加速度を検出する。表示部20は、例えば液晶パネルまたは有機EL(Electroluminescence)パネルである。アンプ22は音声信号を増幅する。スピーカ24は増幅された音声信号を音声として出力する。CPU10はこれらの機能を制御する。
 図3は、実施例1に係る携帯装置の機能ブロック図である。CPU10またはコンピュータは、プログラムを実行することにより、位置検出部50、操作検出部52、操作指示部54、判定部56および状態変化部58として機能する。位置検出部50は、GPS受信部18が受信したGPS信号より携帯装置100の現在位置を検出する。操作指示部54は、位置検出部50が特定の位置を検出した場合、表示部20やスピーカを用い、ユーザに特定の操作を指示する。操作検出部52は、加速度センサ16の信号を受信し、ユーザが特定の操作を行なったかを検出する。判定部56は、ユーザが行なった特定の操作が特定の位置で行なわれたか否かを判定する。状態変化部58は、判定部56が、ユーザの特定の操作が特定の位置で行なわれたと判定した場合、携帯装置の状態を変化させる。例えば、ポイントを加算する。またはゲーム上のアイテムを取得する。
 図4は、実施例1に係る携帯装置の動作を示すフローチャートである。図5(a)から図5(c)は表示部20の表示画面を示す図である。位置検出部50は、GPS受信部18が受信したGPS信号より携帯装置100の現在位置を検出する(ステップS10)。例えば、表示部20は図5(a)のように携帯装置100の現在位置98と特定の位置99を地図上に表示する。特定の位置99は予め1つまたは複数定め、RAM14等に記憶しておいてもよい。現在位置98に緯度経度を表示してもよい。位置検出部50は、検出した位置が特定の位置かを判定する(ステップS12)。位置検出部50は、例えば検出した位置が特定の位置を含むある範囲内の場合、検出した位置が特定の位置と判定することができる。Noの場合、ステップS10に戻る。Yesの場合、操作指示部54は、ユーザに特定の操作を促す指示を行なう(ステップS14)。例えば、操作指示部54は、表示部20に図5(b)のようにその場でジヤンプするようにユーザに指示する。なお、操作指示部54は、スピーカ24を用い音声でユーザに指示してもよい。
 判定部56はタイマをスタートさせる(ステップS16)。タイマの時間は例えば1分等予め定めておいてもよい。図5(b)のように、表示部20は、タイマの残り時間を表示してもよい。操作検出部52は加速度センサ16の出力からユーザの操作を検出する(ステップS18)。操作検出部52は、ユーザの操作が特定の操作かを判定する(ステップS20)。例えば、操作検出部52は、加速度センサ16の出力信号が予め定めた加速度センサ16の信号パターンと一致または近似した場合、ユーザの操作が特定の操作であると判定する。例えば、加速度センサ16の信号パターンはRAM14に記憶されている。Noの場合、操作指示部54は、再度、ユーザに操作を指示する(ステップS26)。判定部56は、タイマに設定した所定の時間となったか、つまりタイムアウトか否かを判定する(ステップS28)。Noの場合、ステップS18に戻る。Yesの場合、判定部56は、操作の失敗を表示部20またはスピーカ24に出力する(ステップS30)。その後、終了する。
 ステップS20においてYesの場合、判定部56は、操作の成功を表示部20またはスピーカ24に出力する(ステップS22)。状態変化部58は、携帯装置100の状態を変化させる。例えば、ポイントを加算する。ポイントは、例えばRAM14に記憶されており、ユーザが特定位置で特定の操作を行なうことにより、ポイントを加算することができる。図5(c)のように、表示部20にポイントを獲得できたことを表示することもできる。また、トータルのポイントを表示してもよい。状態変化部58は、ポイント以外にもゲームで用いるアイテムを獲得することもできる。その後終了する。
 実施例1によれば、図4のステップS28のように、判定部56は、所定の時間内でユーザの特定の操作が行われたかを判定する。操作指示部54がユーザに特定の操作の指示を行なってから、一定時間以内に特定の操作が行なわれれば、ステップS12において位置検出部50が検出した特定位置で特定の操作が行われたと考えられる。このように、判定部56が、ユーザの特定の操作が特定の位置で行なわれたか否かを判定し、判定部56が、特定の操作が特定の位置で行なわれたと判定した場合、ステップS24のように、状態変化部58が携帯装置100の状態を変化させる。これにより、ユーザは、実際の位置で特定の操作を行なうことにより、例えばポイント等を獲得することができ、ゲーム参加者のゲーム感覚を高めることができる。このように、変化に富んだ魅力的なサービスを提供することができる。
 このように、判定部56は、操作指示部54がユーザに特定の操作を指示してから操作検出部52が特定の操作を検出するまでの時間に基づき、特定の操作が特定の位置で行なわれたか否かを判定する。これにより、例えば、特定の位置にQR(Quick Response)コードや非接触ICカードのリーダまたはライタを設置しておき、特定の位置を判定するのに比べ、判定部56は、簡単に、特定の操作が特定の位置で行なわれたか否かを判定することができる。よって、ユーザはよりゲーム感覚を楽しめる。
 実施例2は、ユーザの特定の操作を検出後、再度位置検出を行なう例である。実施例2のブロック図および機能ブロック図は、それぞれ図2および図3と同じであり説明を省略する。
 図6は、実施例2に係る携帯装置の動作を示すフローチャートである。ステップS20においてYesの後、位置検出部50は、再度携帯装置100の現在位置を検出する(ステップS32)。判定部56は、位置検出部50が検出した位置が、特定の位置かを判定する(ステップS34)。Noの場合、ステップS30に進む。Yesの場合、ステップS22に進む。その他のステップは実施例1の図4と同じであり、説明を省略する。
 実施例2によれば、図6のステップS32のように、位置検出部50は、操作検出部52がユーザの特定の操作を検出した場合、携帯装置100の位置を再度検出する。ステップS34にように判定部56は、再度検出した携帯装置の位置に基づき、特定の操作が特定の位置で行なわれたか否かを判定する。このように、携帯装置100の位置が特定位置であることを検出した後、ユーザに特定の操作を指示する。ユーザが特定の操作を行なった後、再度携帯装置100の位置が特定位置であった場合、判定部56は、特定の操作が特定の位置で行なわれたと判定する。これにより、より正確に、特定の操作が特定の位置で行われたことを判定することができる。
 実施例3は、ユーザに特定位置を提示する例である。図7は、実施例3に係る携帯装置のブロック図である。図7のように、携帯装置100は、地磁気センサ26を備えている。地磁気センサ26は地磁気を検出する。その他の構成は実施例1の図2と同じであり説明を省略する。
 図8は、実施例3に係る携帯装置の機能ブロック図である。図8のように、CPU10またはコンピュータは、位置検出部50として機能する。位置検出部50は、地磁気センサの出力より携帯装置100の方位を認識することができる。位置表示部59は、位置検出部50が検出した位置と方位により、表示部20に携帯装置100の現在位置と特定の位置を表示する。
 図9および図10は、実施例3に係る携帯装置の動作を示すフローチャートである。図9を参照し、位置検出部50は、携帯装置100の位置を検出する(ステップS10)。位置検出部50は、検出した位置が特定の位置か判定する(ステップS12)。Noの場合、位置検出部50は、地磁気センサ26の出力から携帯装置100の方位を検出する(ステップS40)。例えば、携帯装置100の表示部20の上が東西南北のいずれの方向を向いているかを検出する。位置検出部50は、検出した携帯装置100の位置と、方位に基づき、特定の位置までの距離と、特定位置の方位を算出する(ステップS42)。位置表示部59は、算出結果に基づき、特定位置までの距離と方位を表示部20に出力する(ステップS44)。ステップS12においてYesの場合、図10のAに進む。図10を参照し、ステップS14以降のステップは、実施例1の図4のステップS14からS30と同じであり説明を省略する。
 図11(a)および図11(b)は、図9のステップS44における表示部に表示された画像の例である。図11(a)の例では、携帯装置100の現在の位置98が三角で示されている。三角を中心とした同心円が表示され、同心円内に特定位置99が星印で表示されている。星印の位置で、現在位置98から特定位置99までの距離と方位を知ることができる。また、特定位置(図11(a)では目標と記載されている)までの距離を数字でも表示してもよい。表示される特定位置は複数であってもよい。図11(b)の例では、特定位置までの距離を数字で示し、方位をコンパスで表示している。この例では、携帯装置100の表示部20の上が北方向である。なお、特定の位置のユーザへの提示は、スピーカ24を用いた音声情報または音声情報と画像表示の両方を用いてもよい。
 実施例3によれば、図9のステップS44のように、位置表示部59は、位置検出部50が検出した携帯装置の位置と特定の位置とに基づき、ユーザに特定の位置を表示する。これにより、ユーザは、特定の位置を認識することができ、ゲーム感覚をより楽しむことができる。
 実施例4は、特定の位置付近の画像と特定の位置を示す画像を重畳させ表示する例である。図12は、実施例4に係る携帯装置のブロック図である。図12のように、携帯装置100は、カメラ28を備えている。カメラ28は、例えば、携帯装置100周辺の写真を撮影することができる。その他の構成は実施例3の図7と同じであり説明を省略する。機能ブロック図は実施例3の図8と同じであり説明を省略する。
 図13は、実施例4の携帯装置の動作を示すフローチャートである。実施例3の図9のステップS12においてNoの場合、位置検出部50は、検出した携帯装置100の位置が特定位置周辺か判定する(ステップS50)。例えば、位置検出部50は、特定位置が現在の位置から一定距離以内の場合、携帯装置100の位置が特定位置周辺と判定することができる。Noの場合、ステップS40に進む。Yesの場合、カメラ28が起動する(ステップS52)。ユーザはカメラ28を用いて画面内に周辺画像を表示させる。位置検出部50はカメラ28より周辺画像を取得する(ステップS54)。地磁気センサ26は、携帯装置100の方位を測定する(ステップS56)。加速度センサ16は、携帯装置100の傾きを測定する(ステップS58)。位置検出部50は、カメラ28が周辺画像を表示しているときの携帯装置100の位置、方位および傾きから、周辺画像内の特定の位置を計算する。周辺画像と特定位置を示す画像とを重畳させる。これにより、位置検出部50は、特定位置を表示させる画像を作成する(ステップS60)。位置表示部59は、表示部20に作成した画像を表示する(ステップS64)。その後、ステップS10に戻る。その他のステップは、実施例3の図9および図10と同じであり、説明を省略する。
 図14は、図13のステップS64において、表示部20表示された画像の例である。表示部20には、携帯装置100の周辺画像である教会およびパン屋の画像が表示されている。周辺画像に特定位置99が星印で重畳し表示されている。
 実施例4によれば、位置表示部59は、携帯装置100周辺の画像に特定の位置99を示す画像を重ね合わせ表示部20に表示する。これにより、ユーザは、よりゲーム感覚で特定の位置を認識することができる。なお、特定の位置を示す画像は星印以外にもゲームのキャラクタまたは文字等とすることもできる。
 実施例5は、特定の位置付近の画像と特定の位置を示す画像を遠隔センターで重畳させる例である。図15は、実施例5に係る携帯装置のブロック図である。図15のように、携帯装置100は、通信部として例えば通信IF(インターフェース)30を備えている。通信IF30は、図1の基地局104およびネットワーク106を介し、遠隔センター110と情報の送受信を行なう。その他の構成は、実施例4の図12と同じであり説明を省略する。機能ブロック図は実施例3の図8と同じであり説明を省略する。
 図16は、センターのブロック図である。図16のように、遠隔センター110は、CPU80、ROM82、RAM84、HDD(Hard Disk Drive)86、通信IF90およびこれらを接続するバス81を備えている。遠隔センター110は例えばサーバである。ROM82は、プログラムおよび地図データ等を格納する。RAM84は、各種情報を一時格納する。また、RAM84は不揮発性メモリとすることもできる。HDD86は、各種情報を長時間格納する。通信IF90は、図1のネットワーク106および基地局104を介し、携帯装置100と情報の送受信を行なう。CPU80はこれらの機能を制御する。
 図17は、実施例5に係る携帯装置の動作を示すフローチャートである。図17を参照し、ステップS50においてYesの場合、通信IF30は、位置検出部50が検出した携帯装置100の位置をセンター110に送信する(ステップS55)。地磁気センサ26は、携帯装置100の方位を測定する(ステップS56)。通信IF30は、測定された方位に関する情報をセンター110に送信する(ステップS57)。加速度センサ16は、携帯装置100の傾きを測定する(ステップS58)。通信IF30は測定された傾きに関する情報をセンター110に送信する(ステップS59)。通信IF30は、センター110から画像情報を受信する(ステップS62)。位置表示部59は、受信した画像を表示部20に表示する。その後ステップS10に戻る。その他のステップは、実施例5の図13と同じであり説明を省略する。
 図18は、実施例5に係るセンターの動作を示すフローチャートである。図18を参照し、通信IF90は、携帯装置100が図17のステップS55で送信した携帯装置100の位置に関する情報を受信する(ステップS80)。通信IF90は、携帯装置100が図17のステップS57で送信した方位に関する情報を受信する(ステップS82)。通信IF90は、携帯装置100が図17のステップS59で送信した傾きに関する情報を受信する(ステップS84)。CPU80は、通信IF90が受信した携帯装置100の位置、方位および傾きに関する情報に基づき、HDD86から携帯装置100周辺の画像を取得する。この画像は実際に撮影した画像でもよいが,コンピュータグラフィックスで合成した画像でもよい。携帯装置100周辺の画像に特定位置の画像を重畳する。携帯装置100周辺の画像は予めHDD86に記憶させておくことができる。これにより、特定位置を表示する画像を生成する(ステップS86)。通信IF90は、CPU80が作成した画像を携帯装置100に送信する(ステップS88)。携帯装置100は、図17のステップS62において、通信IF90が送信した画像を受信する。その後終了する。
 携帯装置100は消費電力削減および小型化の観点から情報処理の負担を低減させることが好ましい。実施例5によれば、図18のステップS86のように、センター110において、携帯装置100周辺の画像に特定の位置を示す画像を重ね合わせた画像を作成する。図17のステップS62のように、通信IF30はセンター110が作成した画像を受信する。ステップS64のように、位置表示部59は、受信した画像を表示部20に表示する。このように、携帯装置100周辺の画像に特定の位置を示す画像を重ね合わせた画像をセンターが作成することにより、携帯装置100のCPU10の負担を低減させることができる。
 実施例6は、操作指示をセンターが決定する例である。図19は、実施例6に係る携帯装置のブロック図である。図19のように、携帯装置100は、通信部として例えば通信IF(インターフェース)30を備えている。通信IF30は、図1の基地局104およびネットワーク106を介し、遠隔センター110と情報の送受信を行なう。その他の構成は、実施例1の図2と同じであり説明を省略する。機能ブロック図は実施例1の図3と同じであり説明を省略する。センター110のブロック図は、実施例5の図16と同じであり、説明を省略する。
 図20は、実施例6に係る携帯装置の動作を示すフローチャートである。図20を参照し、位置検出部50は、携帯装置100の位置を検出する(ステップS10)。通信IF30は、位置検出部50が検出した位置に関する情報をセンター110に送信する(ステップS66)。位置検出部50は、通信IF30がセンター110から地図の画像情報を受信したか判定する(ステップS68)。Yesの場合、位置表示部59は受信した地図の画像を表示部20に表示する(ステップS72)。その後、ステップS10に戻る。
 ステップS68においてNoの場合、操作指示部54は、センター110から操作指示に関する情報を受信したか判定する(ステップS70)。操作指示に関する情報は、例えば図10のステップS14において操作指示部54が表示部20に表示する画像の情報である。または、ユーザに促す特定の操作の内容を示す情報である。Noの場合、ステップS10に戻る。Yesの場合、操作検出部52は、センター110から加速度センサ16のパターンに関する情報を受信したか判定する(ステップS72)。加速度センサ16のパターンに関する情報は、例えば図10のステップS20において操作検出部52が特定の操作が行なわれたと判断するための加速度センサ16の出力のパターンである。Noの場合、ステップS72に戻る。Yesの場合、図10のステップS14に進む。以降のステップは、実施例3の図10と同じであり説明を省略する。
 図21は、実施例6に係るセンターの動作を示すフローチャートである。図21を参照し、通信IF90は、携帯装置100が図20のステップS66で送信した携帯装置100の位置に関する情報を受信する(ステップS90)。CPU80は、受信した携帯装置100の位置が特定の位置かを判定する(ステップS92)。Noの場合、CPU80は、携帯装置100の位置と特定位置とを表示した地図の画像を作成する(ステップS97)。通信IF90は、作成した地図の画像情報を携帯装置100に送信する。携帯装置100は、図20のステップS68において、地図の画像情報を受信する。
 ステップS92においてYesの場合、通信IF90は、ユーザに特定の操作を促す操作指示に関する情報を送信する(ステップS94)。携帯装置100は、図20のステップS70において、携帯装置100は操作指示に関する情報を受信する。通信IFは、加速度センサ16のパターンを携帯装置100に送信する(ステップS96)。図20のステップS72において、携帯装置100は加速度センサ16のパターンに関する情報を受信する。
 実施例6によれば、図20のステップS66のように、通信IF30は位置検出部50が検出した携帯装置100の位置に関する情報をセンター110に送信する。ステップS70のように、通信IF30は、センター110から操作指示部54がユーザに指示する特定の操作に関する情報を受信する。このように、ユーザに促す特定の操作をセンター110が決定することにより、携帯装置100は予め特定の操作に係る情報を記憶しておかなくともよい。また、図21のステップS90のように、特定の位置か否かをセンター110が判定することにより、携帯装置100は予め特定の位置に係る情報を記憶しておかなくともよい。さらに、図21のステップS96のように、センター110が加速度センサのパターンを携帯装置100に送信することにより、携帯装置100はパターンの情報を記憶しておかなくともよい。以上のように、特定の操作に関する情報、特定の位置に関する情報、加速度センサのパターンはセンター110のHDD等に記憶しておくことができる。これにより、携帯装置100のRAM14の容量を削減し、携帯装置100の消費電力の削減および小型化が可能となる。
 実施例7は、携帯装置の状態の変化の内容をセンターが決定する例である。実施例7に係る携帯装置のブロック図は実施例6の図19と同じであり、センターのブロック図は実施例5の図16と同じであり、説明を省略する。携帯装置100の機能ブロック図は実施例3の図8と同じであり説明を省略する。
 図22は、実施例7に係る携帯装置の動作を示すフローチャートである。ステップS20においてYesの場合、通信IF30は、センター110にユーザの特定の操作が完了したことを送信する(ステップS74)。通信IF30は、センター110からポイントに関する情報を受信する(ステップS76)。状態変化部58は、表示部20に受信したポイントを表示する(ステップS78)。その他のステップは、実施例1の図4と同じであり説明を省略する。
 図23は、センター110のCPU80またはコンピュータが行なう処理を示すフローチャートである。図23を参照し、通信IF90は、携帯装置100が図22のステップS74で送信した特定操作の完了を受信したか判定する(ステップS100)。Noの場合、ステップS100に戻る。Yesの場合、CPU80は、HDD86に記憶していたポイントに新たなポイントを加算する(ステップS102)。通信IF90は、携帯装置100にポイントに関する情報を送信する(ステップS104)。携帯装置100は、図22のステップS78において、ポイントに関する情報を受信する。
 実施例7によれば、図22のステップS20のように、判定部56が、特定の操作が特定の位置で行なわれたと判定した場合、ステップS74のように、通信IF30は、特定の操作が特定の位置で行われたことをセンター110に送信する。ステップS76およびS78のように、状態変化部58は、センター110の指示に基づき携帯装置100の状態を変化させる。これにより、例えば、ポイントの記憶をセンター110が行なうことができ、携帯装置100のリソースを低減することができる。
 実施例5では、特定位置付近の画像と特定位置を示す画像との重畳をセンター110が行なう例を示した。実施例6では、ユーザへの操作指示をセンター110か決定する例を示した。実施例7では、携帯装置100の状態変化の内容をセンター110が決定する例を示した。これらは、全てセンター110が行なってもよいし、一部をセンターが行ってもよい。
 実施例1から実施例7において、操作検出部52は、携帯装置100に加わる加速度を検知することにより、ユーザの特定の操作を検出する例を説明した。ユーザの特定の操作として、ユーザがジャンプする場合を例に説明した。このように、携帯装置100に加わる加速度を検出することにより、ユーザが体の動きを特定の操作とすることができる。これにより、ユーザは、体を用いてゲームを行なうことができ、よりゲームを楽しむことができる。
 表1に、加速度センサ16で検出可能な動作をユーザが行なう特定の操作の例として示す。
Figure JPOXMLDOC01-appb-T000001
 表1に加速度センサ16が検出可能な動作の例を示した。表1より、「歩行」および「走行」という動作は、ともに加速度センサ16で検出可能である。また、加速度センサ16で歩数のカウントをすることもできる。例えば、「10歩歩く」といった動作も検出可能である。「立っている」および「座っている」という動作も検出可能である。「イスから立ち上がる」、「座る(または、しゃがむ)」、「反復横とび」および「ジャンプ」という動作も加速度センサ16で検出可能である。「ジャンプ」という動作として、「手に持ったまま反動をつけてジャンプする」という動作も加速度センサ16で検出可能である。
 表2には、加速度センサ16で検出可能な、手で携帯装置100を動かす動作をユーザが行なう特定の操作の例として示す。
Figure JPOXMLDOC01-appb-T000002
 加速度センサ16は、携帯装置100を「持ち上げるまたは下ろす」という動作を検出することができる。加速度センサ16は、携帯装置100を用い上げた場合、下げた場合の違いを検出することができる。また、携帯装置を持ち上げる高さ、または携帯装置を下げる高さの検出も行なうことができる。なお、高さの検出の際は、高さは複数に区分し、どの区分の高さかを検出することもできる。
 加速度センサ16は、携帯装置100を「上に投げて受け取る」という動作を検出することもできる。加速度センサ16は、携帯装置100を「左右に動かす」という動作を検出することもできる。加速度センサ16は、携帯装置100を右に動かしたか、左に動かしたかを判定することもできる。また、左右に動かした幅を検出することもできる。幅を複数の区分に別け、幅を検出することもできる。加速度センサ16は、携帯装置100を持って「文字または数字を書く」という動作を検出することもできる。
 表3は、特定の位置を検出することが可能な機能とユーザが行なう特定の操作を検出することが可能な機能と、その機能で検出可能な操作または情報を示す表である。
Figure JPOXMLDOC01-appb-T000003
 操作検出部52が人間の動作を検出する機能を用い操作または情報を検出する例を説明する。表1および表2のように加速度センサを用い、操作検出部52は、ユーザの動作を検出することができる操作検出部52は、歩数計を用い、ユーザが歩いたまたは走った歩数を検出することができる。操作検出部52は、活動量計を用い、ユーザの運動量を検出することができる。操作検出部52は、キーを用い、ユーザが入力した文字または数字を検出することができる。特定の文字または数字が入力されたかを検出することもできる。操作検出部52は、マイクを用い、ユーザの声等を検出することができる。特定の音声が発せられたかを検出することもできる。操作検出部52は、タッチパネルを用い、ユーザがタッチした座標を検出することができる。操作検出部52は、パルスチェッカを用い、ユーザの脈拍を検出することができる。操作検出部52は、指紋センサを用い、ユーザの指紋を検出することができる。例えば、携帯装置100は指紋センサから入力された指紋を用い生体認証を行い、ロックを解除することができる。操作検出部52は、ジャイロセンサを用い、携帯装置100が受けた角速度を検出することができる。
 位置検出部50または操作検出部52が環境の情報を検出する機能を用い情報を検出する例を説明する。位置検出部50は、GPS受信部を用い、経度および緯度の情報を検出することができる。位置検出部50または操作検出部52は、時計を用い、時間を検出することができる。位置検出部50または操作検出部52は、カメラを用い、画像またはQRコードを検出することができる。位置検出部50または操作検出部52は、光センサを用い、照度を検出することができる。位置検出部50または操作検出部52は、気圧計を用い、気圧、標高または高度差を検出することができる。位置検出部50または操作検出部52は、温度計を用い、温度を検出することができる。位置検出部50は、地磁気センサを用い、方位を検出することができる。
 操作検出部52が通信機能を用い情報を検出する例を説明する。操作検出部52は、電話機能を用い、電話の音声を検出することができる。特定の電話番号に電話をしたか、特定の電話番号から電話がかかってきたかを検出することもできる。位置検出部50は、圏内または圏外検出機能を用い、携帯電話の電波の有無を検出することができる。操作検出部52は、メール機能を用い、文字または画像を含むメールの送受信を検出することができる。特定のメールアドレスにメールを送信したか、特定のメールアドレスからメールを受信したかを検出することもできる。操作検出部52は、インターネット機能を用い、ウエブサイトにアクセスしたかを検出することができる。特定のウエブサイトにアクセスしたかも検出することができる。操作検出部52は、その他の通信機能を用い、例えば、非接触カードから情報を受信したか、BlueTooth等の無線を用い情報を受信したかを検出することもできる。
 位置検出部50または操作検出部52は、表3で示した機能を複数組み合わせ、特定の位置またはユーザの特定の操作を検出することができる。例えば、位置検出部50または操作検出部52が特定の位置で行なう特定の操作として、「富士山の頂上でメールを受けて15時に一回転ジャンプして叫ぶ」を検出する場合は以下である。位置検出部50は、GPS受信部を用い、富士山であることを検出する。位置検出部50は、気圧計を用い頂上であることを検出する。操作検出部52は、メール機能を用い、メールを受信したことを検出する。操作検出部52は、時計を用い15時であることを検出する。操作検出部52は、加速度センサおよびジャイロセンサを用い一回転ジャンプしたことを検出する。マイクを用い叫んだことを検出する。
 また、例えば、位置検出部50または操作検出部52が特定の位置で行なう特定の操作として、「気温が25℃以下のときに5000歩以上歩いて圏外の場所に行き、キーを1から9まで順に打った後、その場で動いて脈拍を100回/分まで上げた後、しゃがんで写真を撮影する」を検出する場合は以下である。位置検出部50は、温度計を用い気温が25℃以下であるか検出する。歩数計を用い、操作検出部52は、5000歩以上歩いたか検出する。位置検出部50は、圏内または圏外検出機能を用い、圏外の場所かを検出する。操作検出部52は、キーを用い、1から9まで順番に打たれたか検出する。操作検出部52は、パルスチェッカを用い、脈拍が100回/分以上になったかを検出する。操作検出部52は、加速度センサを用い、しゃがんだかを検出する。操作検出部52は、カメラを用い、写真を撮影したかを検出する。
 また、例えば、位置検出部50または操作検出部52が特定の位置で行なう特定の操作として、「北を向いてロックを解除し100kcal以上の運動をした後に、建物の影で画面の中央を2回叩いて携帯電話を上に放り投げてキャッチした後に電話をかける」を検出する場合は以下である。位置検出部50は、地磁気センサを用い、北を向いているかを検出する。操作検出部52は、指紋センサを用い、ロックを解除したかを検出する。操作検出部52は、加速度センサおよび活動量計を用い、100kcalの運動をしたかを検出する。位置検出部50は、GPS受信部および光センサを用い、建物の影かを検出する。操作検出部52は、タッチパネルを用い、画面の中央を2回叩いたかを検出する。操作検出部52は、加速度センサを用い、携帯電話を上に放り投げてキャッチしたかを検出する。操作検出部52は、電話機能を用い、電話をかけたかを検出する。
 表3のように、位置検出部50は、複数のセンサ等からの情報に基づき、特定の位置を検出することができる。また操作検出部52は、複数のセンサ等からの情報に基づき、特定の操作を検出することができる。また、複数の特定の位置を組み合わせることもできる。また、複数の特定の操作を組み合わせることもできる。
 さらに、実施例1から実施例7において、携帯装置の状態変化の例として、ポイントの加算、ゲームで用いるアイテムの追加を例に説明した。携帯装置の状態変化としては、例えば、画像の表示、音楽の出力、サイトからの画像または音楽の無料ダウンロード等とすることもできる。
 携帯装置100の例として携帯電話端末を例に説明した。携帯装置100は携帯型ゲーム装置等でもよい。携帯装置100が携帯電話端末の場合、実施例5から実施例7のように、センター110との情報の送受信を行なうことができる。
 以上、本発明の実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
  10    CPU
  16    加速度センサ16
  18    GPS
  20    表示部
  50    位置検出部
  52    操作検出部
  54    操作指示部
  56    判定部
  58    状態変化部
  59    位置表示部
  100   携帯装置
  110   センター

Claims (11)

  1.  携帯装置の位置を検出する位置検出部と、
     前記位置検出部が特定の位置を検出した場合、ユーザに特定の操作を指示する操作指示部と、
     前記ユーザの前記特定の操作を検出する操作検出部と、
     前記特定の操作が前記特定の位置で行なわれたか否かを判定する判定部と、
     前記判定部が、前記特定の操作が前記特定の位置で行なわれたと判定した場合、前記携帯装置の状態を変化させる状態変化部と、
    を具備する携帯装置。
  2.  前記判定部は、前記操作指示部が前記ユーザに前記特定の操作を指示してから前記操作検出部が前記特定の操作を検出するまでの時間に基づき、前記特定の操作が前記特定の位置で行なわれたか否かを判定する請求項1記載の携帯装置。
  3.  前記位置検出部は、前記操作検出部が前記ユーザの前記特定の操作を検出した場合、前記携帯装置の位置を再度検出し、
     前記判定部は、再度検出した携帯装置の位置に基づき、前記特定の操作が前記特定の位置で行なわれたか否かを判定する請求項1記載の携帯装置。
  4.  前記操作検出部は、前記携帯装置に加わる加速度を検知することにより、前記ユーザの前記特定の操作を検出する請求項1から3のいずれか一項記載の携帯装置。
  5.  前記位置検出部が検出した前記携帯装置の位置と、前記特定の位置とに基づき、表示部に前記携帯装置の位置と前記特定の位置とを表示する位置表示部を具備する請求項1から4のいずれか一項記載の携帯装置。
  6.  位置表示部は、前記携帯装置周辺の画像に前記特定の位置を示す画像を重ね合わせ表示部に表示する請求項5記載の携帯装置。
  7.  センターが作成した前記携帯装置周辺の画像に前記特定の位置を示す画像を重ね合わせた画像を受信する通信部を具備し、
     前記位置表示部は、前記通信部が受信した画像を表示する請求項6記載の携帯装置。
  8.  前記位置検出部が検出した前記携帯装置の位置に関する情報をセンターに送信し、前記センターから前記操作指示部が前記ユーザに指示する前記特定の操作の内容を受信する通信部を具備する請求項1から7のいずれか一項記載の携帯装置。
  9.  前記判定部が、前記特定の操作が前記特定の位置で行なわれたと判定した場合、前記特定の操作が前記特定の位置で行われたことをセンターに送信する通信部を具備し、
     前記状態変化部は、前記センターの指示に基づき前記携帯装置の状態を変化させる請求項1から8のいずれか一項記載の携帯装置。
  10.  携帯装置の位置を検出するステップと、
     検出した前記携帯装置の位置が特定の位置の場合、ユーザに特定の操作を指示するステップと、
     前記ユーザの前記特定の操作を検出するステップと、
     前記特定の操作を検出した場合、前記特定の操作が前記特定の位置で行なわれたか否かを判定するステップと、
     前記特定の操作が前記特定の位置で行なわれたと判定した場合、前記携帯装置の状態を変化させるステップと、
    を具備する方法。
  11.  コンピュータに、
     携帯装置の位置を検出するステップと、
     検出した前記携帯装置の位置が特定の位置の場合、ユーザに特定の操作を指示するステップと、
     前記ユーザの前記特定の操作を検出するステップと、
     前記特定の操作を検出した場合、前記特定の操作が前記特定の位置で行なわれたか否かを判定するステップと、
     前記特定の操作が前記特定の位置で行なわれたと判定した場合、前記携帯装置の状態を変化させるステップと、
     を実行させるプログラム。
PCT/JP2009/064511 2009-08-19 2009-08-19 携帯装置、方法およびプログラム WO2011021285A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2009/064511 WO2011021285A1 (ja) 2009-08-19 2009-08-19 携帯装置、方法およびプログラム
JP2011527518A JP5413461B2 (ja) 2009-08-19 2009-08-19 携帯装置、方法およびプログラム
US13/399,349 US9364752B2 (en) 2009-08-19 2012-02-17 Mobile device, and method and computer readable storage medium therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/064511 WO2011021285A1 (ja) 2009-08-19 2009-08-19 携帯装置、方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/399,349 Continuation US9364752B2 (en) 2009-08-19 2012-02-17 Mobile device, and method and computer readable storage medium therefor

Publications (1)

Publication Number Publication Date
WO2011021285A1 true WO2011021285A1 (ja) 2011-02-24

Family

ID=43606750

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/064511 WO2011021285A1 (ja) 2009-08-19 2009-08-19 携帯装置、方法およびプログラム

Country Status (3)

Country Link
US (1) US9364752B2 (ja)
JP (1) JP5413461B2 (ja)
WO (1) WO2011021285A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140027486A (ko) * 2011-06-21 2014-03-06 퀄컴 인코포레이티드 관련 콘텐츠 전달
JP2014523767A (ja) * 2011-06-07 2014-09-18 ナイキ インターナショナル リミテッド 仮想パフォーマンスシステム
JP5636598B1 (ja) * 2014-04-18 2014-12-10 株式会社gloops ゲームサーバ、ゲーム制御方法、ゲームプログラム及びゲームプログラム記録媒体
JP2016212760A (ja) * 2015-05-12 2016-12-15 京セラ株式会社 電子機器、制御方法及び制御プログラム
JP2017076382A (ja) * 2011-03-14 2017-04-20 株式会社ニコン 装置およびプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011055250A (ja) * 2009-09-02 2011-03-17 Sony Corp 情報提供方法及び装置、情報表示方法及び携帯端末、プログラム、並びに情報提供システム
US20140213333A1 (en) * 2013-01-29 2014-07-31 Puzzling Commerce, LLC Puzzle-Based Interaction System For Eliciting A Desired Behavior
US9940663B2 (en) * 2013-08-15 2018-04-10 Frank Daly Ward Indoor location mapping and wayfinding system
WO2015115967A1 (en) * 2014-01-30 2015-08-06 Telefonaktiebolaget L M Ericsson (Publ) Pre-configuration of devices supporting national security and public safety communications
WO2018186178A1 (ja) * 2017-04-04 2018-10-11 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000126464A (ja) * 1998-09-01 2000-05-09 Snk:Kk ゲ―ム装置、ゲ―ム方法、携帯用機器及び測定ユニット
JP2002049681A (ja) * 2000-08-03 2002-02-15 Avex Network Inc ネットワークを利用したエンターテインメントシステム
JP2004334649A (ja) * 2003-05-09 2004-11-25 Fujitsu Ltd 情報提供システム、情報提供方法及びプログラム
JP2008073265A (ja) * 2006-09-21 2008-04-03 Square Enix Co Ltd ビデオゲーム制御システム、及びビデオゲーム制御サーバ
JP2009125077A (ja) * 2007-11-19 2009-06-11 Taito Corp 携帯端末、ゲームプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7366522B2 (en) * 2000-02-28 2008-04-29 Thomas C Douglass Method and system for location tracking
US6587782B1 (en) * 2000-03-14 2003-07-01 Navigation Technologies Corp. Method and system for providing reminders about points of interests while traveling
JP2002245077A (ja) 2001-02-14 2002-08-30 Hitachi Ltd 情報配信サービスシステムおよび移動体データ送受信装置
US6756882B2 (en) * 2002-09-09 2004-06-29 Motorola, Inc. Method and controller for providing a location-based game associated with a plurality of mobile stations
US20040093274A1 (en) * 2002-11-08 2004-05-13 Marko Vanska Method and apparatus for making daily shopping easier
US6954697B1 (en) * 2003-08-04 2005-10-11 America Online, Inc. Using a corridor search to identify locations of interest along a route
JP2005210663A (ja) 2003-12-24 2005-08-04 East Japan Railway Co 運行情報提供システム、情報提供システムおよび携帯通信端末
US20070060358A1 (en) * 2005-08-10 2007-03-15 Amaitis Lee M System and method for wireless gaming with location determination
US8606516B2 (en) * 2004-11-30 2013-12-10 Dash Navigation, Inc. User interface system and method for a vehicle navigation device
JP2006209214A (ja) 2005-01-25 2006-08-10 Yamaha Corp スタンプラリーシステム
US8428614B2 (en) * 2006-07-10 2013-04-23 Jason H. Wolfe Mobile phone mediated treasure hunt game
US7649454B2 (en) * 2006-09-28 2010-01-19 Ektimisi Semiotics Holdings, Llc System and method for providing a task reminder based on historical travel information
US20090036186A1 (en) * 2007-08-03 2009-02-05 Lucent Technologies Inc. Interactive real world gaming supported over internet protocol multimedia subsystem
US8050690B2 (en) * 2007-08-14 2011-11-01 Mpanion, Inc. Location based presence and privacy management
US8353749B2 (en) * 2007-09-04 2013-01-15 Dean Sanders Vehicle tracking system, method and game
US20090270743A1 (en) * 2008-04-17 2009-10-29 Dugan Brian M Systems and methods for providing authenticated biofeedback information to a mobile device and for using such information
US20090287411A1 (en) * 2008-05-19 2009-11-19 Embarq Holdings Company, Llc System and Method for Managing Messages in a Network Data Processing System Using a Check-In Policy
US8818396B2 (en) * 2008-07-11 2014-08-26 Qualcomm Incorporated Apparatus and methods for associating a location fix having a quality of service with an event occuring on a wireless device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000126464A (ja) * 1998-09-01 2000-05-09 Snk:Kk ゲ―ム装置、ゲ―ム方法、携帯用機器及び測定ユニット
JP2002049681A (ja) * 2000-08-03 2002-02-15 Avex Network Inc ネットワークを利用したエンターテインメントシステム
JP2004334649A (ja) * 2003-05-09 2004-11-25 Fujitsu Ltd 情報提供システム、情報提供方法及びプログラム
JP2008073265A (ja) * 2006-09-21 2008-04-03 Square Enix Co Ltd ビデオゲーム制御システム、及びビデオゲーム制御サーバ
JP2009125077A (ja) * 2007-11-19 2009-06-11 Taito Corp 携帯端末、ゲームプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017076382A (ja) * 2011-03-14 2017-04-20 株式会社ニコン 装置およびプログラム
JP2014523767A (ja) * 2011-06-07 2014-09-18 ナイキ インターナショナル リミテッド 仮想パフォーマンスシステム
KR20140027486A (ko) * 2011-06-21 2014-03-06 퀄컴 인코포레이티드 관련 콘텐츠 전달
JP2014517433A (ja) * 2011-06-21 2014-07-17 クアルコム,インコーポレイテッド 関連したコンテンツの配送
US9483779B2 (en) 2011-06-21 2016-11-01 Qualcomm Incorporated Relevant content delivery
KR101706829B1 (ko) 2011-06-21 2017-02-14 퀄컴 인코포레이티드 관련 콘텐츠 전달
JP5636598B1 (ja) * 2014-04-18 2014-12-10 株式会社gloops ゲームサーバ、ゲーム制御方法、ゲームプログラム及びゲームプログラム記録媒体
JP2016212760A (ja) * 2015-05-12 2016-12-15 京セラ株式会社 電子機器、制御方法及び制御プログラム
US9733144B2 (en) 2015-05-12 2017-08-15 Kyocera Corporation Electronic device, control method, and control program

Also Published As

Publication number Publication date
US20120149395A1 (en) 2012-06-14
JPWO2011021285A1 (ja) 2013-01-17
JP5413461B2 (ja) 2014-02-12
US9364752B2 (en) 2016-06-14

Similar Documents

Publication Publication Date Title
JP5413461B2 (ja) 携帯装置、方法およびプログラム
CN108619721B (zh) 虚拟场景中的距离信息显示方法、装置及计算机设备
US6957088B2 (en) Electronic apparatus
US10062212B2 (en) Method and device for providing augmented reality output
JP5666457B2 (ja) 動きセンサを使用して、バーチャルボタンを生成すること
US8090535B2 (en) Azimuth processing device, azimuth processing method, azimuth processing program, direction finding device, tilt offset correcting method, azimuth measuring method, compass sensor unit, and portable electronic device
US20060031014A1 (en) Azimuth processing device, azimuth processing method, azimuth processing program, direction finding device, tilt offset correcting method, azimuth measuring method, compass sensor unit, and portable electronic device
JP2017146749A (ja) 制御プログラム、制御方法およびコンピュータ
US20070139366A1 (en) Sharing information between devices
US20120113285A1 (en) Overlaying Data in an Augmented Reality User Interface
JP5727416B2 (ja) 情報処理システム、ゲームシステム、情報処理装置、情報処理プログラム及び情報処理方法
US11181376B2 (en) Information processing device and information processing method
TW200407025A (en) Pocket terminal device
US20170151499A1 (en) Mobile terminal, and a control method for a mobile terminal
JP5915334B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2007068775A (ja) プログラム、情報記憶媒体及びゲーム装置
US20140329543A1 (en) Radio communication device, radio communication system, and position estimation method
CN113906371A (zh) 根据锻炼环境提供锻炼信息的电子装置及操作该电子装置的方法
JP5684618B2 (ja) 撮影装置および仮想情報表示プログラム
JP2005234137A (ja) 携帯情報端末
JP4095658B2 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
JP6094431B2 (ja) 携帯端末、およびその制御方法とプログラム
JP4609151B2 (ja) 携帯端末装置および携帯端末装置の制御方法
CN102371069A (zh) 具有游戏功能的电子装置及其运动控制方法
JP6416368B2 (ja) 情報処理システム、ゲームシステム、情報処理装置、情報処理プログラム及び情報処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09848484

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011527518

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09848484

Country of ref document: EP

Kind code of ref document: A1