WO2011010414A1 - ゲーム装置 - Google Patents

ゲーム装置 Download PDF

Info

Publication number
WO2011010414A1
WO2011010414A1 PCT/JP2010/001827 JP2010001827W WO2011010414A1 WO 2011010414 A1 WO2011010414 A1 WO 2011010414A1 JP 2010001827 W JP2010001827 W JP 2010001827W WO 2011010414 A1 WO2011010414 A1 WO 2011010414A1
Authority
WO
WIPO (PCT)
Prior art keywords
operation object
control unit
input device
player character
collision
Prior art date
Application number
PCT/JP2010/001827
Other languages
English (en)
French (fr)
Inventor
水谷崇
山田裕司
高橋智之
Original Assignee
株式会社ソニー・コンピュータエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2009170157A external-priority patent/JP2011024612A/ja
Priority claimed from JP2009170158A external-priority patent/JP5453006B2/ja
Application filed by 株式会社ソニー・コンピュータエンタテインメント filed Critical 株式会社ソニー・コンピュータエンタテインメント
Priority to US13/382,041 priority Critical patent/US8721444B2/en
Publication of WO2011010414A1 publication Critical patent/WO2011010414A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/577Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • A63F13/235Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • A63F2300/643Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car by determining the impact between objects, e.g. collision detection

Definitions

  • the present invention relates to a game control technique, and more particularly to a game apparatus in which a user operates a game character using an input device.
  • Input devices and games have a close relationship, and when new input devices appear, game applications that take advantage of the features of the input devices are developed.
  • the present inventor has come up with a new game application linked to an input device that is moved by the user in order to satisfy the diversified demands of the user.
  • an object of the present invention is to provide a technique for reflecting the movement of an input device by a user in the operation of a game object.
  • an aspect of the present invention includes an image acquisition unit that acquires a captured image of an input device having a light emitter, a device information derivation unit that derives position information of the input device from the captured image, A receiving unit that acquires posture information of the input device, an operation object control unit that controls the operation of the operation object according to the position information and posture information of the input device, and a non-operation object control unit that controls the operation of the non-operation object
  • the present invention also relates to a game apparatus comprising: an image generation unit that generates a display screen according to an operation object operation and a non-operation object operation; and a collision control unit that detects a collision between the operation object and the non-operation object.
  • the collision control unit determines at least one motion of the operation object or the non-operation object according to the collision mode between the operation object and the non-operation object.
  • a game device includes a receiving unit that acquires posture information of an input device having a light emitter, an operation object control unit that controls the operation of an operation object in the virtual space, and a non-operation object in the virtual space.
  • a non-operation object control unit that controls the movement of the operation object, a search direction determination unit that determines the search direction of the non-operation object from the position of the operation object and the attitude information of the input device, and whether there is a non-operation object in the search direction
  • the determination unit includes a determination unit, and a lighting control unit that controls lighting of the light emitter when the determination unit determines that a non-operation object exists.
  • the embodiment of the present invention provides a game apparatus capable of acquiring position information and / or posture information in the real space of an input device functioning as a game controller and executing game software based on the information.
  • FIG. 1 shows a use environment of a game system 1 according to an embodiment of the present invention.
  • the game system 1 includes a game device 10 that executes game software, a display device 12 that outputs a processing result by the game device 10, an input device 20, and an imaging device 14 that images the input device 20.
  • the input device 20 is an operation input device for a user to give an operation instruction, and the game apparatus 10 processes a game application based on the operation instruction in the input device 20 and an image signal indicating a processing result of the game application.
  • the input device 20 has a function of transmitting an operation instruction by the user to the game apparatus 10, and is configured as a wireless controller capable of wireless communication with the game apparatus 10 in this embodiment.
  • the input device 20 and the game apparatus 10 may establish a wireless connection using a Bluetooth (registered trademark) protocol.
  • the input device 20 is not limited to the wireless controller, and may be a wired controller connected to the game apparatus 10 via a cable.
  • the input device 20 is driven by a battery and is configured to have a plurality of buttons for operating instructions to advance the game.
  • the operation instruction is transmitted to the game apparatus 10 by radio.
  • the game apparatus 10 receives an operation instruction from the input device 20, controls the game progress in accordance with the operation instruction, and generates a game image signal.
  • the generated game image signal is output from the display device 12.
  • the imaging device 14 is a video camera composed of a CCD image sensor, a CMOS image sensor, or the like, and images a real space with a predetermined period to generate a frame image for each period.
  • the imaging speed of the imaging device 14 may be 30 frames / second so as to match the frame rate of the display device 12.
  • the imaging device 14 is connected to the game device 10 via a USB (Universal Serial Bus) or other interface.
  • the display device 12 is a display that outputs an image, and displays a game screen in response to an image signal generated in the game device 10.
  • the display device 12 may be a television having a display and a speaker, or may be a computer display.
  • the display device 12 may be connected to the game device 10 by a wired cable, or may be wirelessly connected by a wireless LAN (Local Area Network) or the like.
  • the input device 20 has a light emitter.
  • the light emitter emits light in a predetermined color and is imaged by the imaging device 14.
  • the imaging device 14 images the input device 20, generates a frame image, and supplies the frame image to the game device 10.
  • the game apparatus 10 acquires a frame image, and derives position information of the light emitter in real space from the position and size of the image of the light emitter in the frame image.
  • the game apparatus 10 treats the position information as a game operation instruction and reflects it in the game process such as controlling the movement of the player character.
  • the game apparatus 10 according to the present embodiment has a function of processing a game application using not only an operation input such as a button of the input device 20 but also the positional information of the acquired light emitter image.
  • the light emitter of the input device 20 is configured to emit light in a plurality of colors.
  • the light emitter can change the light emission color in accordance with a light emission instruction from the game apparatus 10.
  • the input device 20 has an acceleration sensor and a gyro sensor.
  • the detection value of the sensor is transmitted to the game apparatus 10 at a predetermined cycle, and the game apparatus 10 acquires the detection value of the sensor and acquires the posture information of the input device 20 in the real space.
  • the game apparatus 10 handles the posture information as a game operation instruction and reflects it in the game processing.
  • the game apparatus 10 according to the present embodiment has a function of processing a game application using the acquired posture information of the input device 20.
  • FIG. 2 shows an external configuration of the input device 20.
  • FIG. 2A shows the top surface configuration of the input device 20, and
  • FIG. 2B shows the bottom surface configuration of the input device 20.
  • the input device 20 has a light emitter 22 and a handle 24.
  • the light emitter 22 is formed into a sphere with a light-transmitting resin on the outside, and has a light emitting element such as a light emitting diode or a light bulb on the inside. When the inner light emitting element emits light, the entire outer sphere glows.
  • Operation buttons 30, 32, 34, 36, and 38 are provided on the upper surface of the handle 24, and an operation button 40 is provided on the lower surface.
  • the user operates the operation buttons 30, 32, 34, 36, and 38 with the thumb and the operation button 40 with the index finger while holding the end of the handle 24 by hand.
  • the operation buttons 30, 32, 34, 36, and 38 are configured to be pressed, and the user operates by pressing them.
  • the operation button 40 may be capable of inputting an analog amount.
  • the imaging device 14 Since the imaging device 14 needs to image the light emitter 22 during execution of the game application, the imaging device 14 is preferably arranged so that the imaging range faces the same direction as the display device 12. In general, since a user often plays a game in front of the display device 12, the imaging device 14 is arranged so that the direction of the optical axis thereof coincides with the front direction of the display device 12. Specifically, the imaging device 14 is preferably arranged in the vicinity of the display device 12 so that the imaging range includes a position where the user can visually recognize the display screen of the display device 12. Thereby, the imaging device 14 can image the input device 20.
  • FIG. 3 shows the internal configuration of the input device 20.
  • the input device 20 includes a wireless communication module 48, a processing unit 50, a light emitting unit 62, and operation buttons 30, 32, 34, 36, 38, and 40.
  • the wireless communication module 48 has a function of transmitting / receiving data to / from the wireless communication module of the game apparatus 10.
  • the processing unit 50 executes intended processing in the input device 20.
  • the processing unit 50 includes a main control unit 52, an input receiving unit 54, a triaxial acceleration sensor 56, a triaxial gyro sensor 58, and a light emission control unit 60.
  • the main control unit 52 transmits and receives necessary data to and from the wireless communication module 48.
  • the input receiving unit 54 receives input information from the operation buttons 30, 32, 34, 36, 38, 40 and sends it to the main control unit 52.
  • the triaxial acceleration sensor 56 detects acceleration components in the XYZ triaxial directions.
  • the triaxial gyro sensor 58 detects angular velocities in the XZ plane, the ZY plane, and the YX plane.
  • the width direction of the input device 20 is set as the X axis
  • the height direction is set as the Y axis
  • the longitudinal direction is set as the Z axis.
  • the triaxial acceleration sensor 56 and the triaxial gyro sensor 58 are preferably disposed in the handle 24 of the input device 20 and are disposed in the vicinity of the center in the handle 24.
  • the wireless communication module 48 transmits detection value information from the three-axis acceleration sensor 56 and detection value information from the three-axis gyro sensor 58 together with input information from the operation buttons to the wireless communication module of the game apparatus 10 at a predetermined cycle.
  • This transmission cycle is set to 11.25 milliseconds, for example.
  • the light emission control unit 60 controls the light emission of the light emitting unit 62.
  • the light emitting unit 62 includes a red LED 64a, a green LED 64b, and a blue LED 64c, and enables light emission of a plurality of colors.
  • the light emission control unit 60 adjusts the light emission of the red LED 64a, the green LED 64b, and the blue LED 64c, and causes the light emitting unit 62 to emit light in a desired color.
  • the wireless communication module 48 When the wireless communication module 48 receives the light emission instruction from the game apparatus 10, the wireless communication module 48 supplies the light emission instruction to the main control unit 52, and the main control unit 52 supplies the light emission control unit 60 with the light emission instruction.
  • the light emission control unit 60 controls the light emission of the red LED 64a, the green LED 64b, and the blue LED 64c so that the light emitting unit 62 emits light in the color specified by the light emission instruction.
  • the light emission control unit 60 may perform lighting control of each LED by PWM (pulse width modulation) control.
  • FIG. 4 shows the configuration of the game apparatus 10.
  • the game apparatus 10 includes a frame image acquisition unit 80, an image processing unit 82, a device information deriving unit 84, a wireless communication module 86, an input receiving unit 88, an output unit 90, and an application processing unit 100.
  • the processing function of the game apparatus 10 in the present embodiment is realized by a CPU, a memory, a program loaded in the memory, and the like, and here, a configuration realized by cooperation thereof is illustrated.
  • the program may be built in the game apparatus 10 or may be supplied from the outside in a form stored in a recording medium. Accordingly, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof. Note that the game apparatus 10 may have a plurality of CPUs due to the hardware configuration.
  • the wireless communication module 86 establishes wireless communication with the wireless communication module 48 of the input device 20.
  • the input device 20 can transmit operation button state information, detection value information of the triaxial acceleration sensor 56 and triaxial gyro sensor 58 to the game apparatus 10 at a predetermined cycle.
  • the wireless communication module 86 receives the operation button state information and the sensor detection value information transmitted from the input device 20 and supplies them to the input receiving unit 88.
  • the input receiving unit 88 separates the button state information and the sensor detection value information and delivers them to the application processing unit 100.
  • the application processing unit 100 receives button state information and sensor detection value information as game operation instructions.
  • the application processing unit 100 handles sensor detection value information as posture information of the input device 20.
  • the frame image acquisition unit 80 is configured as a USB interface, and acquires a frame image from the imaging device 14 at a predetermined imaging speed (for example, 30 frames / second).
  • the image processing unit 82 extracts a light emitter image from the frame image.
  • the image processing unit 82 specifies the position and size of the light emitter image in the frame image.
  • the image processing unit 82 can extract the light emitter image from the frame image with high accuracy.
  • the image processing unit 82 may binarize the frame image data using a predetermined threshold value to generate a binarized image.
  • the image processing unit 82 can specify the position and size of the illuminant image from the binarized image. For example, the image processing unit 82 specifies the barycentric coordinates of the illuminant image in the frame image and the radius of the illuminant image.
  • the device information deriving unit 84 derives the position information of the input device 20 as viewed from the imaging device 14 from the position and size of the illuminant image specified by the image processing unit 82.
  • the device information deriving unit 84 derives position coordinates in the camera coordinates from the barycentric coordinates of the light emitter image, and derives distance information from the imaging device 14 from the radius of the light emitter image.
  • the position coordinates and distance information constitute position information of the input device 20.
  • the device information deriving unit 84 derives the position information of the input device 20 for each frame image and passes it to the application processing unit 100.
  • the application processing unit 100 receives the position information of the input device 20 as a game operation instruction.
  • the application processing unit 100 advances the game from the position information and posture information of the input device 20 and the button state information, and generates an image signal indicating the processing result of the game application.
  • the image signal is sent from the output unit 90 to the display device 12 and output as a display image.
  • FIG. 5 shows the configuration of the application processing unit 100.
  • the application processing unit 100 includes an operation instruction receiving unit 102, a control unit 110, a parameter holding unit 150, a three-dimensional data holding unit 152, and an image generation unit 154.
  • the operation instruction receiving unit 102 receives the position information of the input device 20 from the device information deriving unit 84 and the posture information and button state information of the input device 20 from the input receiving unit 88 as operation instructions.
  • the control unit 110 executes the game program based on the operation instruction received by the operation instruction receiving unit 102 and advances the game.
  • the parameter holding unit 150 holds parameters necessary for the progress of the game.
  • the three-dimensional data holding unit 152 holds three-dimensional data such as objects constituting the game world.
  • the image generation unit 154 sets the viewpoint position and the line-of-sight direction of the camera in the game space, renders the three-dimensional data, and displays the game world controlled by the control unit 110, that is, the operation of the operation object and A display screen corresponding to the operation of the non-operation object is generated.
  • the control unit 110 includes an operation object control unit 112, an item determination unit 114, a non-operation object control unit 116, a collision control unit 118, a search control unit 120, and a display control unit 122.
  • the operation object control unit 112 controls the operation of the operation object in accordance with the operation instruction received by the operation instruction receiving unit 102.
  • the operation object is an object that can be operated by the user, and typically includes a player character.
  • items used by the player character are also included in the operation object.
  • the item determination unit 114 determines an item used by the player character in accordance with button state information from the user. As will be described later, search radar, capture tools, strike weapons, throwing weapons, and the like are prepared as items used by the player character.
  • the non-operation object control unit 116 controls the operation of the non-operation object.
  • the non-operation object is an object that is not operated by the user, and typically includes a non-player character.
  • the player character operated by the user searches for a non-operation object existing in the game world three-dimensionally modeled using a search radar that is one of the items. .
  • a non-operation object is found, the player character locks on the non-operation object and tracks it.
  • the non-operation object is controlled so as to escape when it is tracked by the player character.
  • the player character strikes with a strike weapon or captures with a capture tool. The player character can also damage the non-operational object using the throwing weapon.
  • the collision control unit 118 performs a collision determination between the operation object and the non-operation object in the game space. This collision determination is performed, for example, when the player character strikes a non-player character using a strike weapon, when the player character captures a non-player character using a capture tool, and when the player character uses a throwing weapon as a non-player character. It is executed in various game scenes such as when thrown.
  • the search control unit 120 determines whether a non-operation object exists in the search direction in the game space. This search process is executed when the player character searches for a non-operation object using the search radar.
  • the display control unit 122 controls the camera for rendering the three-dimensional game world according to the movement of the player character, and causes the image generation unit 154 to generate a display screen. Details of the operation of each component will be described below.
  • the input reception unit 54 receives an operation instruction, and the wireless communication module 48 transmits the button state information to the game apparatus 10.
  • the wireless communication module 86 receives the button state information, and the input receiving unit 88 supplies the application processing unit 100.
  • the operation instruction receiving unit 102 receives a pressing operation of the operation button 34 as an operation instruction for search processing.
  • the item determination unit 114 determines the search radar as an item used by the player character based on the button state information indicating that the operation button 34 has been pressed.
  • FIG. 6 shows an example of a display screen during use of the search radar.
  • a player character 200, a search radar 202, a non-player character 204, and an obstacle 206 are displayed.
  • the player character 200 and the search radar 202 are operation objects that can be operated by the user
  • the non-player character 204 is a non-operation object that cannot be operated by the user.
  • the non-player character 204 is operated by the non-operation object control unit 116.
  • the obstacle 206 is a stationary non-operation object, and the position in the three-dimensional space is determined by the data held in the three-dimensional data holding unit 152.
  • the display control unit 122 determines the line-of-sight direction and viewpoint position of the virtual camera in the game space expressed in world coordinates, according to the movement direction and movement amount of the player character 200 according to the operation instruction input from the user. .
  • the image generation unit 154 arranges the virtual camera at the determined viewpoint position, directs the optical axis of the virtual camera in the determined line-of-sight direction, renders the three-dimensional data held in the three-dimensional data holding unit 152, A display screen corresponding to the operation of the operation object and the operation of the non-operation object is generated.
  • FIG. 7 shows the configuration of the search control unit 120.
  • the search control unit 120 includes a search direction determination unit 210, a non-player character (hereinafter also referred to as “NPC”) determination unit 212, a lock-on processing unit 214, and a lighting control unit 216.
  • the search control unit 120 executes a search process for searching for a non-player character while button state information indicating that the operation button 34 is pressed is being transmitted. Therefore, the user can start the search process by pressing the operation button 34, and can end the search process by releasing the press of the operation button 34.
  • NPC non-player character
  • the search direction determination unit 210 acquires posture information of the input device 20 from the operation instruction reception unit 102 and determines a direction for searching for a non-player character.
  • the search direction is determined using the attitude of the input device 20 in the game space with reference to the position of the player character 200 and the viewing direction of the virtual camera.
  • the reference posture of the input device 20 is registered in advance before execution of the game application. For example, a posture in which the longitudinal direction of the input device 20 is perpendicular to the display is registered as a reference posture in the actual three-dimensional space. Keep it. By registering the reference posture of the input device 20 in this way, the direction of the input device 20 in the real space can be substantially matched with the viewing direction of the virtual camera in the game space. And the search direction in the game space can be matched.
  • the search direction determination unit 210 detects the attitude of the input device 20 from the detection value information of the triaxial acceleration sensor 56 and the triaxial gyro sensor 58.
  • the posture of the input device 20 is detected as a change amount with respect to the reference posture, and is represented by a vector in a real three-dimensional space.
  • the search direction determination unit 210 determines the search direction at the position of the player character 200 from the detected attitude of the input device 20 and the viewing direction of the camera in the virtual three-dimensional space of the game world. Specifically, the search direction is determined by processing the amount of change with respect to the reference posture as the amount of change with respect to the line-of-sight vector of the camera.
  • the detected attitude of the input device 20 may be used as it is as a direction for searching for a non-player character in the virtual three-dimensional space of the game world.
  • the NPC determination unit 212 determines whether a non-player character exists in the detected search direction.
  • FIG. 8 is a diagram for explaining the non-player character detection function of the NPC determination unit 212.
  • FIG. 8 shows a virtual two-dimensional space for convenience of illustration, but the NPC determination unit 212 actually detects a non-player character in the virtual three-dimensional space.
  • the display screen shown in FIG. 6 is formed in an area cut out by the frame area 220.
  • the direction indicated by the arrow is the reference direction specified by the reference posture.
  • the non-player character 204 In the display screen shown in FIG. 6, only the non-player character 204 is displayed, but in the virtual space shown in FIG. 8, the non-player character 208 exists behind the obstacle 206 and the non-player character 200 is behind the player character 200. A player character 218 exists.
  • the NPC determination unit 212 can detect not only the non-player character 204 visible from the player character 200 but also the non-player characters 208 and 218 that are not visible from the player character 200.
  • the NPC determination unit 212 determines whether there is a non-player character in the search direction. For example, the NPC determination unit 212 sets a box (boundary box) that surrounds non-player characters existing in the game space, and uses the position of the player character 200 as a starting point as an infinite length vector indicating the search direction. The presence / absence of a non-player character is determined by determining whether the boxes intersect.
  • the boundary box may be a virtual sphere arranged around the non-player character. The size of the boundary box to be set is determined in proportion to the distance from the position of the player character 200.
  • the NPC determination unit 212 may calculate the distance between the infinite length vector indicating the search direction and the non-player character, and may determine the presence of the non-player character when the calculated distance is within the threshold. This threshold value is set to be large according to the distance from the player character 200.
  • the NPC determination unit 212 sets a virtual cone with the player character 200 as a vertex and the search direction as a central axis, and determines the presence of the non-player character when the non-player character is included in the virtual cone. Also good.
  • the NPC determination unit 212 may change the search range according to the elevation angle in the search direction in the game space expressed in world coordinates. For example, the search range when searching the upward direction from the player character 200 may be wider than the search range in the same plane as the player character 200.
  • the NPC determination unit 212 widens the search range by setting the boundary box larger than that set at the time of horizontal, for example, so that the non-player character can be easily found. Good.
  • the search direction has an angle from the horizontal plane, it is possible to effectively utilize the characteristics of the three-dimensional game space that is not in the two-dimensional space by expanding the search range beyond the horizontal plane. .
  • the NPC determination unit 212 When the NPC determination unit 212 detects the presence of a non-player character, the NPC determination unit 212 notifies the lighting control unit 216 to that effect. Upon receiving the notification, the lighting control unit 216 controls lighting of the light emitter 22 of the input device 20. Specifically, the lighting control unit 216 generates a light emission instruction for changing the light emission color of the light emitter 22 and transmits the light emission instruction from the wireless communication module 86 to the input device 20. In normal times, if the light emitter 22 emits light in blue, for example, the lighting control unit 216 generates a light emission instruction in a color different from blue.
  • the NPC determination unit 212 While the non-player character exists in the search direction, the NPC determination unit 212 continues to notify the lighting control unit 216 to that effect, and the lighting control unit 216 receives a light emission instruction from the wireless communication module 86 while receiving the notification. To send.
  • the light emission color designated by the light emission instruction is red to call the user's attention.
  • the NPC determination unit 212 may instruct a color different from the color included in the imaging range of the imaging device 14 as the emission color.
  • the NPC determination unit 212 may select a color with the highest image recognition accuracy from a plurality of light emission color candidates, specifically, a color that is not included in the frame image of the imaging device 14 and generate a light emission instruction. Good.
  • the main control unit 52 supplies the light emission control unit 60.
  • the light emission control unit 60 controls the light emission of the light emitting unit 62 so that the light emission color designated by the light emission instruction is obtained. Thereby, the light emission part 62 light-emits by the designated color.
  • the lock-on processing unit 214 determines the end of the search process and locks on the found non-player character.
  • “lock-on” means that the player character 200 is automatically directed toward the non-player character, and if the user continues to operate the operation button 40 even if the non-player character runs away, The character 200 can follow the locked non-player character. If the NPC determination unit 212 determines that there is no non-player character in the search direction when the operation button 34 is released, the lock-on processing unit 214 cannot lock on the non-player character. . If it is determined by the search process that there are a plurality of non-player characters in the search range, the lock-on processing unit 214 locks on the non-player character closest to the player character 200. Also good.
  • the image processing unit 82 receives a light emission instruction of the light emitter 22 from the lighting control unit 216, and always grasps the light emission color of the light emitter 22. Thereby, the image processing unit 82 resets the threshold value for each of the RGB pixels when binarizing the frame image according to the emission color, and binarizes the frame image based on the reset threshold value. By processing, even if the emission color changes, the position and size of the illuminant image can be specified continuously.
  • FIG. 9 is a flowchart showing processing of the search control unit 120.
  • the search control unit 120 starts the search process.
  • the search direction determination unit 210 determines the search direction of the non-player character from the position of the player character 200 in the virtual three-dimensional space, the posture information of the input device 20, and the line-of-sight vector of the virtual camera (S12).
  • the NPC determination unit 212 determines whether or not a non-player character exists in the determined search direction (S14), and when a non-player character is detected (Y in S14), notifies the lighting control unit 216 of the detection.
  • the NPC determination unit 212 may set the NPC detection flag to ON and notify the lighting control unit 216 of this flag value. Note that the NPC detection flag is set to OFF if no non-player character is detected.
  • the lighting control unit 216 controls the lighting of the light emitter 22 of the input device 20 to change the emission color (S16). If a non-player character is not detected in the search direction (N in S14), the light emission color of the light emitter 22 does not change.
  • the operation instruction receiving unit 102 receives button state information indicating that the operation button 34 has been pressed (N in S18), the processes in S12 to S16 are repeatedly executed.
  • the lock-on processing unit 214 refers to the NPC detection flag value (S20). If the NPC detection flag value is ON (Y in S20), a lock-on process is executed for the non-player character detected to be present in the search direction (S22). If the NPC detection flag value is OFF (N in S20), the lock-on process is not executed. Above, the search process of the search control part 120 is complete
  • the lighting control unit 216 When the lighting control unit 216 finds a non-player character, the lighting control unit 216 changes the light emission color of the light emitter 22 of the input device 20. At this time, the lighting control unit 216 determines the light emission color according to the status information of the found non-player character. May be.
  • the non-operation object control unit 116 determines non-player character status information. For example, information indicating whether or not the non-player character is aware of the presence of the player character 200 is set as the status information.
  • the non-player character is aware of the presence of the player character 200 as a condition that the player character 200 is included in the viewing angle of the non-player character and that the distance between the non-player character and the player character 200 is predetermined. Is less than or equal to the value.
  • the non-operation object control unit 116 manages whether or not this condition is satisfied for each non-player character, and sets it as a state flag value. If the condition is satisfied, the status flag value is set to ON, and if not satisfied, it is set to OFF. Since the player character 200 and the non-player character are moving with each other, the state flag value needs to be updated at a predetermined cycle.
  • the NPC determination unit 212 detects the presence of a non-player character in the search direction, the NPC determination unit 212 acquires the status flag value of the non-player character and notifies the lighting control unit 216 of it.
  • the lighting control unit 216 determines the light emission color of the light emitter 22 according to the state flag value. Accordingly, the user can recognize whether or not the discovered non-player character is aware of the player character 200 by looking at the light emission color of the light emitter 22, and thus can determine how to follow the non-player character. For example, if a non-player character that is aware of the player character 200 is locked on and then chased normally, the non-operation object control unit 116 slowly chases the non-player character so that the non-player character runs away with a furious dash. This makes it easier to capture non-player characters.
  • the non-operation object control unit 116 controls the movement of the non-player character by switching the movement pattern based on the state flag value set for the non-player character.
  • the state flag value of a certain non-player character is set to ON
  • the non-operation object control unit 116 detects that the player character 200 approaches the non-player character at a normal speed.
  • the movement pattern is switched, and the non-player character is controlled to move away from the player character 200 at high speed.
  • the non-operation object control unit 116 does not change the motion pattern and changes the non-operation object in the normal motion pattern. Control the movement of the player character.
  • the NPC determination unit 212 may determine the emission color based on other status information. Good. For example, distance information between the discovered non-player character and the player character 200 may be set as the status information, or information on the number of non-player characters found in the search range may be set. Further, the NPC determination unit 212 may generate a blinking instruction for repeatedly turning on and off, in addition to changing the emission color in accordance with the status information, or generate a multicolor switching instruction for periodically switching a plurality of colors. May be.
  • the user character 200 follows the locked-on non-player character by operating the operation button 40. This process is performed by the operation object control unit 112.
  • the item determination unit 114 determines an item used before using the search radar as an item used by the player character. For example, if the capture tool is used before using the search radar, the capture tool is determined as an item after the search process is completed.
  • FIG. 10 shows an example of a display screen when the trap is being used.
  • a player character 200 On the display screen, a player character 200, a non-player character 222, and a catcher 224 are displayed.
  • the catch catch 224 is one mode of the catch tool, and the catch is completed by putting the non-player character 222 into the catch catch 224 and pressing the ring ring portion (filled frame) against the floor or wall.
  • the non-player character 222 disappears in the capture screen 224.
  • FIG. 11 is a diagram showing a capturing process of the non-player character 222.
  • FIG. 11A shows a state in which the non-player character 222 is put in the catching net 224.
  • FIG. If the player is left for a predetermined time in a state where it is placed in the catch catch 224, the non-player character 222 can escape from the catch catch 224.
  • the operation button 32 when the user presses the operation button 32 in a state where the non-player character 222 is in the capture screen 224, the non-player character 222 can be released from the capture screen 224.
  • various ways of enjoying are provided to the user.
  • FIG. 11B shows a state in which the ring portion of the catching trout 224 is pressed against the floor 226.
  • the capture is completed by pressing the ring portion of the capture catch 224 against the floor 226 within a predetermined time from when the non-player character 222 is placed in the catch catch 224. At this time, the non-player character 222 disappears from the captured catch 224.
  • the target for pressing the ring portion is not limited to the floor 226, but may be an object fixed in the game world such as a wall.
  • FIG. 12 shows the configuration of the collision control unit 118.
  • the collision control unit 118 includes a collision determination unit 230, a collision mode determination unit 232, and an operation determination unit 234.
  • the collision control unit 118 executes collision control between the operation object and the non-operation object.
  • the collision determination unit 230 performs collision determination between the operation object and the non-operation object and detects a collision
  • the collision mode determination unit 232 determines the mode of the collision.
  • the action determining unit 234 determines at least one action of the operation object or the non-operation object according to the collision mode.
  • the operation object control unit 112 causes the player character 200 to track the locked-on non-player character 222 based on the button state information indicating that the operation button 40 has been operated. When the player character 200 approaches the non-player character 222, the user releases the pressing of the operation button 40. Thereafter, the operation object control unit 112 controls the movements of the player character 200 and the capture catch 224 based on the position information and posture information of the input device 20. Specifically, the operation object control unit 112 determines the movement of the player character 200 in the front-rear direction based on distance information derived from the size of the light emitter image in the frame image, and determines the movement in the left-right direction in the frame image. It is determined by the position coordinates of the light emitter image.
  • each movement is determined by the distance information and the difference value from the position coordinates when the operation button 40 is released.
  • the operation object control unit 112 determines the movement of the capture catch 224 based on the posture information.
  • the operation object control unit 112 controls the movement of the capture letter 224 in the same manner as the movement of the input device 20 by the user. Thereby, a user's motion and the motion of the player character 200 can be linked.
  • the collision determination unit 230 performs a collision determination between the captured catch 224 and the non-player character 222.
  • the collision determination unit 230 performs a collision determination between the non-player character 222 and a plane formed inside the ring portion of the capture catch 224 using a known collision determination algorithm.
  • the collision mode determination unit 232 determines the mode of the collision.
  • the operation object control unit 112 derives the movement speed of the capture catch 224 from the sensor detection value information transmitted from the input device 20 and moves it. As described above, the operation object control unit 112 may detect the moving speed of the capture catch 224 using the acceleration sensor detection value information. In addition, the operation object control unit 112 may derive the moving speed of the capture net 224 from the position information of the input device 20 for each frame derived by the device information deriving unit 84.
  • the collision mode determination unit 232 acquires the moving speed of the captured catch 224 at the time of the collision. At this time, the collision mode determination unit 232 determines whether or not the moving speed of the capture catch 224 is equal to or lower than a predetermined speed, determines the collision mode according to the determination result, and notifies the operation determination unit 234 of the collision mode.
  • the action determining unit 234 determines that the action of the non-player character 222 is not allowed to escape from the capture area 224 for a predetermined time when the determined collision mode indicates that the movement speed of the capture area 224 is equal to or lower than the predetermined speed. .
  • the determined operation is notified to the non-operation object control unit 116, and the non-operation object control unit 116 receives this notification and controls to move the non-player character 222 within the capture area 224 for a predetermined time. To do.
  • the action determination unit 234 disappears the action of the non-player character 222 as soon as it enters the capture spot 224. Decide to do.
  • the determined operation is notified to the non-operation object control unit 116, and the non-operation object control unit 116 receives this notification and controls to disappear as soon as the non-player character 222 enters the capture area 224. .
  • the collision mode is determined according to the sensor detection value information and / or the position information of the input device 20, and the action of the non-player character 222 is determined based on the collision mode, thereby utilizing the characteristics of the input device 20.
  • a game can be realized.
  • the action of the player character 200 may be determined according to the collision mode.
  • the collision mode is determined based on the moving speed, the collision mode may be determined based on the acceleration.
  • the collision determination unit 230 performs a collision determination between the ring portion of the capture catch 224 and the floor or wall.
  • the collision mode determination unit 232 determines the collision mode according to the angle between the plane formed on the ring portion and the floor plane. The angle between the planes is determined by the angle between the perpendiculars of each plane.
  • the collision mode determination unit 232 determines whether the angle between the planes is equal to or greater than a predetermined angle, determines a collision mode according to the determination result, and notifies the motion determination unit 234 of the determination.
  • This collision mode may be determined by collision determination, but may be determined from the positional relationship between the world coordinates of the floor or wall in the game space and the world coordinates of the ring portion of the catching net 224.
  • the action determining unit 234 determines that the action of the non-player character 222 can escape from the captured catch 224 when the determined collision mode indicates that the angle between the planes is equal to or greater than a predetermined value.
  • the determined operation is notified to the non-operation object control unit 116, and the non-operation object control unit 116 receives the notification, and when a predetermined time elapses from when the non-player character 222 enters the capture area 224, the capture is performed. Control to escape from Ami 224.
  • the motion determination unit 234 determines the motion of the non-player character 222 to disappear.
  • the determined operation is notified to the non-operation object control unit 116, and the non-operation object control unit 116 receives this notification and controls the non-player character 222 in the capture catch 224 to disappear.
  • the non-operation object control unit 116 determines the capture screen 224 from the posture information of the input device 20.
  • the non-player character 222 is emitted in a direction perpendicular to the plane formed in the ring portion. In this way, in this game, various variations can be made to the action of the non-player character 222 in accordance with the collision mode between the capture catch 224 and the non-player character 222.
  • FIG. 13 is a flowchart showing the process of the collision control unit 118.
  • the collision determination unit 230 performs collision determination between the operation object and the non-operation object (S30). If no collision is detected (N in S30), the collision control process does not proceed.
  • the collision mode determination unit 232 determines the collision mode (S32).
  • the action determining unit 234 determines at least one action of the operation object or the non-operation object according to the collision mode (S34).
  • the capture tool is set as the default item, and the capture tool is always determined as the item after the end of the search process, but the user changes the item used by the player character 200 by pressing the operation button 36. it can.
  • the item determination unit 114 determines the strike weapon as an item used by the player character.
  • Harisen is a form of strike weapon. Realistic Harisen is made by folding paper into a bellows shape, winding one side with tape to make a grip, and opening the other side into a fan shape.
  • the player character 200 can hit a non-player character with a harsen.
  • the direction of the Harrison is determined by the attitude information of the input device 20.
  • the collision determination unit 230 determines the collision between the Harrison and the non-player character.
  • the operation object control unit 112 derives the movement speed of the harsen from the sensor detection value information transmitted from the input device 20 and moves it.
  • the collision determination unit 230 determines the collision between the Harrison and the non-player character
  • the action determination unit 234 determines the direction and speed of the non-player character 222 to blow from the movement direction and movement speed of the Harrisen at the time of the collision. .
  • the determined operation is notified to the non-operation object control unit 116, and the non-operation object control unit 116 operates the non-player character 222 in response to the notification.
  • Harisen is used as a strike weapon, but it may also be used to generate wind with the bellows portion like a fan.
  • the operation object control unit 112 determines the direction in which the harness is moved based on the posture information of the input device 20, and operates the harness with either a strike weapon or a fan.
  • the item determination unit 114 may determine the throwing weapon as an item used by the player character.
  • FIG. 14A shows an example of a display screen of a pachinko that is one aspect of a throwing weapon.
  • the operation object control unit 112 puts the pachinko 240 on the player character 200.
  • illustration of the player character 200 is omitted.
  • the operation object control unit 112 acquires position information and posture information of the input device 20 at the time when the operation button 40 is operated as initial state information.
  • the operation object control unit 112 determines the direction of the pachinko 240 from the posture information.
  • FIG. 14B shows an example of a display screen when the input device 20 moves in a direction away from the imaging device 14.
  • the pachinko rubber string is pulled according to the amount of movement from the position when the operation button 40 is operated.
  • the operation object control unit 112 may determine the bullet flight distance according to the amount of movement from the initial position and the pressing time of the operation button 40.
  • the items prepared in this game are shown below.
  • 1) Tongs When the user simultaneously presses the operation button 30 and the operation button 40, the player character 200 can grab a non-operation object using the tongs.
  • 2) Otama The player character 200 can scoop water or hot water using the Otama and put it on a non-player character.
  • the non-operation object control unit 116 changes the motion of the non-player character according to the temperature of water or hot water.
  • Other items that make use of the characteristics of the input device 20 may be prepared.
  • item determination Part 116 ... non-operational object Control unit, 118 ... collision control unit, 120 ... search control unit, 122 ... display control unit, 150 ... parameter holding unit, 152 ... three-dimensional data holding unit, 154 ... Image generation unit 210 ... Search direction determination unit 212 ... NPC determination unit 214 ... Lock-on processing unit 216 ... Lighting control unit 230 ... Collision determination unit 232 ... Collision mode determination unit, 234... Operation determination unit.
  • the present invention can be applied to the field of games.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

フレーム画像取得部が、発光体を有する入力デバイスの撮像画像を取得する。デバイス情報導出部は、撮像画像から、入力デバイスの位置情報を導出する。入力受付部は、入力デバイスの姿勢情報を取得する。操作オブジェクト制御部(112)は、入力デバイスの位置情報および姿勢情報に応じて、操作オブジェクトの動作を制御する。非操作オブジェクト制御部(116)は、非操作オブジェクトの動作を制御する。画像生成部(154)は、操作オブジェクトの動作および非操作オブジェクトの動作に応じて表示画面を生成する。衝突制御部(118)は、操作オブジェクトと非操作オブジェクトとの衝突を検出する。衝突制御部(118)は、操作オブジェクトと非操作オブジェクトとの衝突態様に応じて、操作オブジェクトまたは非操作オブジェクトの少なくとも一方の動作を決定する。

Description

ゲーム装置
 本発明は、ゲーム制御技術に関し、とくに、ユーザが入力デバイスを利用してゲームキャラクタを動作させるゲーム装置に関する。
 ゲーム装置の処理能力の向上に伴い、3次元的にモデリングされたゲームフィールド内でプレイヤーキャラクタおよびノンプレイヤーキャラクタを動作させるゲームが数多く登場している。また近年では、ゲームの入力デバイスとしてワイヤレス型のゲームコントローラが普及し、また、従来式のボタン操作による入力だけでなく、ユーザが動かすオブジェクトをカメラで撮像して、カメラ画像におけるオブジェクトの動きをゲームの入力として利用する技術も提案されている。
特開2002-140705号公報
 入力デバイスとゲームは密接な関係をもち、新しい入力デバイスが登場すると、その入力デバイスの特徴を活かしたゲームアプリケーションが開発される。本発明者は、ユーザの多様化した要求を満足させるべく、ユーザが動かす入力デバイスに連動する新たなゲームアプリケーションを想到するに至った。
 そこで本発明は、ユーザによる入力デバイスの動きを、ゲームのオブジェクトの動作に反映させる技術を提供することを目的とする。
 上記課題を解決するために、本発明のある態様は、発光体を有する入力デバイスの撮像画像を取得する画像取得部と、撮像画像から、入力デバイスの位置情報を導出するデバイス情報導出部と、入力デバイスの姿勢情報を取得する受付部と、入力デバイスの位置情報および姿勢情報に応じて、操作オブジェクトの動作を制御する操作オブジェクト制御部と、非操作オブジェクトの動作を制御する非操作オブジェクト制御部と、操作オブジェクトの動作および非操作オブジェクトの動作に応じて表示画面を生成する画像生成部と、操作オブジェクトと非操作オブジェクトとの衝突を検出する衝突制御部と、を備えたゲーム装置に関する。衝突制御部は、操作オブジェクトと非操作オブジェクトとの衝突態様に応じて、操作オブジェクトまたは非操作オブジェクトの少なくとも一方の動作を決定する。
 また本発明の別の態様のゲーム装置は、発光体を有する入力デバイスの姿勢情報を取得する受付部と、仮想空間において操作オブジェクトの動作を制御する操作オブジェクト制御部と、仮想空間において非操作オブジェクトの動作を制御する非操作オブジェクト制御部と、操作オブジェクトの位置と、入力デバイスの姿勢情報から、非操作オブジェクトの探索方向を決定する探索方向決定部と、探索方向に非操作オブジェクトが存在するか判定する判定部と、判定部により非操作オブジェクトが存在することが判定されると、発光体の点灯を制御する点灯制御部とを備える。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
 本発明によると、ユーザによる入力デバイスの動きを、ゲームのキャラクタの動作に反映させる技術を提供することができる。
本発明の実施例にかかるゲームシステムの使用環境を示す図である。 入力デバイスの外観構成を示す図である。 入力デバイスの内部構成を示す図である。 ゲーム装置の構成を示す図である。 アプリケーション処理部の構成を示す図である。 探索レーダ使用中の表示画面例を示す図である。 探索制御部の構成を示す図である。 NPC判定部のノンプレイヤーキャラクタ検出機能を説明するための図である。 探索制御部の処理を示すフローチャートである。 捕獲具使用中の表示画面例を示す図である。 ノンプレイヤーキャラクタの捕獲過程を示す図である。 衝突制御部の構成を示す図である。 衝突制御部の処理を示すフローチャートである。 パチンコの表示画面例を示す図である。
 本発明の実施例は、ゲームコントローラとして機能する入力デバイスの実空間における位置情報および/または姿勢情報を取得し、その情報をもとにゲームソフトウェアを実行可能なゲーム装置を提供する。
 図1は、本発明の実施例にかかるゲームシステム1の使用環境を示す。ゲームシステム1は、ゲームソフトウェアを実行するゲーム装置10と、ゲーム装置10による処理結果を出力する表示装置12と、入力デバイス20と、入力デバイス20を撮像する撮像装置14を備える。
 入力デバイス20は、ユーザが操作指示を行うための操作入力装置であり、ゲーム装置10は、入力デバイス20における操作指示をもとにゲームアプリケーションを処理して、ゲームアプリケーションの処理結果を示す画像信号を生成する処理装置である。
 入力デバイス20は、ユーザによる操作指示をゲーム装置10に伝送する機能をもち、本実施例ではゲーム装置10との間で無線通信可能な無線コントローラとして構成される。入力デバイス20とゲーム装置10は、Bluetooth(ブルートゥース)(登録商標)プロトコルを用いて無線接続を確立してもよい。なお入力デバイス20は、無線コントローラに限らず、ゲーム装置10とケーブルを介して接続される有線コントローラであってもよい。
 入力デバイス20はバッテリにより駆動され、ゲームを進行させる操作指示を行うための複数のボタンを有して構成される。ユーザが入力デバイス20のボタンを操作すると、その操作指示が無線によりゲーム装置10に送信される。ゲーム装置10は、入力デバイス20から操作指示を受信し、操作指示に応じてゲーム進行を制御して、ゲーム画像信号を生成する。生成されたゲーム画像信号は、表示装置12より出力される。
 撮像装置14は、CCD撮像素子またはCMOS撮像素子などから構成されるビデオカメラであり、実空間を所定の周期で撮像して、周期ごとのフレーム画像を生成する。たとえば、撮像装置14の撮像速度は30枚/秒として、表示装置12のフレームレートと一致させてもよい。撮像装置14は、USB(Universal Serial Bus)あるいはその他のインタフェースを介してゲーム装置10と接続する。
 表示装置12は画像を出力するディスプレイであって、ゲーム装置10において生成された画像信号を受けて、ゲーム画面を表示する。表示装置12は、ディスプレイおよびスピーカを有するテレビであってよく、またコンピュータディスプレイであってもよい。表示装置12は、ゲーム装置10に有線ケーブルで接続されてよく、また無線LAN(Local Area Network)などにより無線接続されてもよい。
 本実施例のゲームシステム1において、入力デバイス20は発光体を有する。ゲーム中、発光体は所定色で発光し、撮像装置14により撮像される。撮像装置14は入力デバイス20を撮像し、フレーム画像を生成してゲーム装置10に供給する。ゲーム装置10はフレーム画像を取得して、フレーム画像における発光体の画像の位置および大きさから、実空間における発光体の位置情報を導出する。ゲーム装置10は、位置情報をゲームの操作指示として取り扱い、プレイヤーキャラクタの動作を制御するなど、ゲームの処理に反映させる。本実施例のゲーム装置10は、入力デバイス20のボタンなどの操作入力だけでなく、取得した発光体画像の位置情報も用いてゲームアプリケーションを処理する機能をもつ。
 入力デバイス20の発光体は、複数色で発光可能に構成される。発光体は、ゲーム装置10からの発光指示により、発光色を変更できる。
 また入力デバイス20は加速度センサおよびジャイロセンサを有する。センサの検出値は、所定周期でゲーム装置10に送信され、ゲーム装置10は、センサの検出値を取得して、実空間における入力デバイス20の姿勢情報を取得する。ゲーム装置10は、姿勢情報をゲームの操作指示として取り扱い、ゲームの処理に反映させる。このように本実施例のゲーム装置10は、取得した入力デバイス20の姿勢情報も用いてゲームアプリケーションを処理する機能をもつ。
 図2は、入力デバイス20の外観構成を示す。図2(a)は、入力デバイス20の上面構成を示し、図2(b)は、入力デバイス20の下面構成を示す。入力デバイス20は、発光体22およびハンドル24を有する。発光体22は、その外側を光透過性を有する樹脂で球体に形成され、内側に発光ダイオードや電球などの発光素子を有する。内側の発光素子が発光すると、外側の球体全体が光る。ハンドル24の上面には、操作ボタン30、32、34、36、38が設けられ、下面には操作ボタン40が設けられる。ユーザはハンドル24の端部を手で把持した状態で、操作ボタン30、32、34、36、38を親指で操作し、操作ボタン40を人差し指で操作する。操作ボタン30、32、34、36、38は、押下式に構成され、ユーザは押下することで操作する。操作ボタン40は、アナログ量を入力できるものであってよい。
 ユーザは表示装置12に表示されるゲーム画面を見ながらゲームを行う。撮像装置14は、ゲームアプリケーションの実行中に発光体22を撮像する必要があるため、その撮像範囲が表示装置12と同じ方向を向くように配置されることが好ましい。一般にユーザは表示装置12の正面でゲームをプレイすることが多いため、撮像装置14は、その光軸の方向が表示装置12の正面方向と一致するように配置される。具体的に、撮像装置14は、表示装置12の近傍において、表示装置12の表示画面をユーザが視認可能な位置を撮像範囲に含むように配置されることが好ましい。これにより、撮像装置14は、入力デバイス20を撮像できる。
 図3は、入力デバイス20の内部構成を示す。入力デバイス20は、無線通信モジュール48、処理部50、発光部62および操作ボタン30、32、34、36、38、40を備える。無線通信モジュール48は、ゲーム装置10の無線通信モジュールとの間でデータを送受信する機能をもつ。処理部50は、入力デバイス20における所期の処理を実行する。
 処理部50は、メイン制御部52、入力受付部54、3軸加速度センサ56、3軸ジャイロセンサ58および発光制御部60を有する。メイン制御部52は、無線通信モジュール48との間で必要なデータの送受を行う。
 入力受付部54は、操作ボタン30、32、34、36、38、40からの入力情報を受け付け、メイン制御部52に送る。3軸加速度センサ56は、XYZの3軸方向の加速度成分を検出する。3軸ジャイロセンサ58は、XZ平面、ZY平面、YX平面における角速度を検出する。なお、ここでは、入力デバイス20の幅方向をX軸、高さ方向をY軸、長手方向をZ軸と設定する。3軸加速度センサ56および3軸ジャイロセンサ58は、入力デバイス20のハンドル24内に配置され、ハンドル24内の中心近傍に配置されることが好ましい。無線通信モジュール48は、操作ボタンからの入力情報とともに、3軸加速度センサ56による検出値情報、および3軸ジャイロセンサ58による検出値情報を、所定の周期でゲーム装置10の無線通信モジュールに送信する。この送信周期は、たとえば11.25m秒に設定される。
 発光制御部60は、発光部62の発光を制御する。発光部62は、赤色LED64a、緑色LED64b、青色LED64cを有し、複数色の発光を可能とする。発光制御部60は、赤色LED64a、緑色LED64b、青色LED64cの発光を調整して、発光部62を所望の色に発光させる。
 無線通信モジュール48はゲーム装置10から発光指示を受け取ると、メイン制御部52に供給し、メイン制御部52は、発光制御部60に発光指示を供給する。発光制御部60は、発光部62が発光指示により指定された色で発光するように、赤色LED64a、緑色LED64b、青色LED64cの発光を制御する。たとえば発光制御部60は、各LEDをPWM(パルス幅変調)制御で点灯制御してもよい。
 図4は、ゲーム装置10の構成を示す。ゲーム装置10は、フレーム画像取得部80、画像処理部82、デバイス情報導出部84、無線通信モジュール86、入力受付部88、出力部90およびアプリケーション処理部100を備える。本実施例におけるゲーム装置10の処理機能は、CPU、メモリ、メモリにロードされたプログラムなどによって実現され、ここではそれらの連携によって実現される構成を描いている。プログラムは、ゲーム装置10に内蔵されていてもよく、また記録媒体に格納された形態で外部から供給されるものであってもよい。したがってこれらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者に理解されるところである。なおハードウェアの構成上、ゲーム装置10は複数のCPUを有してもよい。
 無線通信モジュール86は、入力デバイス20の無線通信モジュール48との間で無線通信を確立する。これにより入力デバイス20は、操作ボタンの状態情報、3軸加速度センサ56および3軸ジャイロセンサ58の検出値情報を、ゲーム装置10に所定の周期で送信できるようになる。
 無線通信モジュール86は、入力デバイス20から送信される操作ボタンの状態情報、およびセンサ検出値情報を受信し、入力受付部88に供給する。入力受付部88は、ボタン状態情報およびセンサ検出値情報を分離し、アプリケーション処理部100に引き渡す。アプリケーション処理部100は、ボタン状態情報およびセンサ検出値情報を、ゲームの操作指示として受け取る。アプリケーション処理部100は、センサ検出値情報を、入力デバイス20の姿勢情報として取り扱う。
 フレーム画像取得部80はUSBインタフェースとして構成され、撮像装置14から所定の撮像速度(たとえば30フレーム/秒)でフレーム画像を取得する。画像処理部82は、フレーム画像から発光体画像を抽出する。画像処理部82は、フレーム画像中の発光体画像の位置、および大きさを特定する。入力デバイス20の発光体22が、たとえばユーザ環境内で使われそうにない色で点灯することで、画像処理部82は、フレーム画像から高精度に発光体画像を抽出できる。画像処理部82は、フレーム画像データを所定の閾値を用いて2値化処理し、2値化された画像を生成してもよい。この2値化処理により、所定の閾値より大きい輝度を保持する画素の画素値が“1”に符号化され、所定の閾値以下の輝度を保持する画素の画素値が“0”に符号化される。この所定の閾値を超える輝度で発光体22を点灯させることで、画像処理部82は、2値化された画像から、発光体画像の位置および大きさを特定できる。たとえば画像処理部82は、フレーム画像における発光体画像の重心座標と、発光体画像の半径を特定する。
 デバイス情報導出部84は、画像処理部82で特定された発光体画像の位置および大きさから、撮像装置14からみた入力デバイス20の位置情報を導出する。デバイス情報導出部84は、発光体画像の重心座標からカメラ座標における位置座標を導出し、また発光体画像の半径から、撮像装置14からの距離情報を導出する。この位置座標および距離情報は、入力デバイス20の位置情報を構成する。デバイス情報導出部84は、フレーム画像ごとに入力デバイス20の位置情報を導出し、アプリケーション処理部100に引き渡す。アプリケーション処理部100は、入力デバイス20の位置情報を、ゲームの操作指示として受け取る。
 アプリケーション処理部100は、入力デバイス20の位置情報および姿勢情報と、ボタン状態情報とからゲームを進行させて、ゲームアプリケーションの処理結果を示す画像信号を生成する。画像信号は出力部90から表示装置12に送られ、表示画像として出力される。
 図5は、アプリケーション処理部100の構成を示す。アプリケーション処理部100は、操作指示受付部102、制御部110、パラメータ保持部150、3次元データ保持部152および画像生成部154を備える。
 操作指示受付部102は、デバイス情報導出部84から入力デバイス20の位置情報を、入力受付部88から入力デバイス20の姿勢情報およびボタン状態情報を、それぞれ操作指示として受け付ける。制御部110は、操作指示受付部102が受け付けた操作指示にもとづいてゲームプログラムを実行し、ゲームを進行させる。パラメータ保持部150は、ゲームの進行に必要なパラメータを保持する。3次元データ保持部152は、ゲーム世界を構成するオブジェクトなどの3次元データを保持する。画像生成部154は、ゲーム空間内のカメラの視点位置と視線方向を設定し、3次元データをレンダリングして、制御部110により制御されるゲーム世界を表現した表示画面、すなわち操作オブジェクトの動作および非操作オブジェクトの動作に応じた表示画面を生成する。
 制御部110は、操作オブジェクト制御部112、アイテム決定部114、非操作オブジェクト制御部116、衝突制御部118、探索制御部120および表示制御部122を含む。
 操作オブジェクト制御部112は、操作指示受付部102で受け付けた操作指示に応じて、操作オブジェクトの動作を制御する。ここで操作オブジェクトは、ユーザが操作可能なオブジェクトであり、代表的にはプレイヤーキャラクタを含む。なお、ここでは、プレイヤーキャラクタが使用するアイテムも、操作オブジェクトに含まれる。アイテム決定部114は、ユーザからのボタン状態情報にしたがって、プレイヤーキャラクタが使用するアイテムを決定する。後述するが、プレイヤーキャラクタが利用するアイテムとして、探索レーダ、捕獲具、殴打武器、投擲武器などが用意されている。
 非操作オブジェクト制御部116は、非操作オブジェクトの動作を制御する。非操作オブジェクトは、ユーザが操作しないオブジェクトであり、代表的にはノンプレイヤーキャラクタを含む。
 実施例のゲーム装置10が実行するゲームでは、ユーザが操作するプレイヤーキャラクタが、アイテムの1つである探索レーダを用いて、3次元的にモデリングされたゲーム世界に存在する非操作オブジェクトを探索する。非操作オブジェクトを発見すると、プレイヤーキャラクタは、その非操作オブジェクトをロックオンして、追跡する。非操作オブジェクトは、プレイヤーキャラクタからの追跡をうけると、逃げるように動作制御される。プレイヤーキャラクタは、非操作オブジェクトに近づくと、殴打武器を用いて殴打したり、また捕獲具を用いて捕獲する。また、プレイヤーキャラクタは、投擲武器を用いて非操作オブジェクトにダメージを与えることもできる。
 衝突制御部118は、ゲーム空間において、操作オブジェクトと非操作オブジェクトとの衝突判定を行う。この衝突判定は、たとえばプレイヤーキャラクタが殴打武器を用いてノンプレイヤーキャラクタを殴打する際、またプレイヤーキャラクタが捕獲具を用いてノンプレイヤーキャラクタを捕獲する際、またプレイヤーキャラクタが投擲武器をノンプレイヤーキャラクタに投げた際など、様々なゲームシーンにおいて実行される。
 探索制御部120は、ゲーム空間において、探索方向に非操作オブジェクトが存在するか判定する。この探索処理は、プレイヤーキャラクタが探索レーダを用いて非操作オブジェクトを探索する際に実行される。表示制御部122は、プレイヤーキャラクタの移動に応じて、3次元のゲーム世界をレンダリングするためのカメラを制御し、画像生成部154に表示画面を生成させる。以下、各構成の動作の詳細を説明する。
 ユーザが入力デバイス20の操作ボタン34を押下すると、入力受付部54が操作指示を受け付け、無線通信モジュール48が、ボタン状態情報としてゲーム装置10に送信する。ゲーム装置10において、無線通信モジュール86がボタン状態情報を受信し、入力受付部88が、アプリケーション処理部100に供給する。アプリケーション処理部100において操作指示受付部102は、操作ボタン34の押下操作を、探索処理の操作指示として受け付ける。アイテム決定部114は、操作ボタン34が押下されたことを示すボタン状態情報をもとに、探索レーダを、プレイヤーキャラクタが使用するアイテムとして決定する。
 図6は、探索レーダ使用中の表示画面例を示す。表示画面には、プレイヤーキャラクタ200、探索レーダ202、ノンプレイヤーキャラクタ204および障害物206が表示されている。ここでプレイヤーキャラクタ200および探索レーダ202は、ユーザが操作可能な操作オブジェクトであり、ノンプレイヤーキャラクタ204は、ユーザが操作不能な非操作オブジェクトである。ゲーム空間において、ノンプレイヤーキャラクタ204は、非操作オブジェクト制御部116により動作される。障害物206は静止した非操作オブジェクトであり、3次元空間における位置は、3次元データ保持部152に保持されたデータにより定められている。表示制御部122は、ワールド座標で表現されるゲーム空間において、ユーザから入力される操作指示に応じたプレイヤーキャラクタ200の移動方向や移動量に応じて、仮想カメラの視線方向と視点位置を決定する。画像生成部154は、決定された視点位置に仮想カメラを配置し、決定された視線方向に仮想カメラの光軸を向けて、3次元データ保持部152に保持された3次元データをレンダリングし、操作オブジェクトの動作および非操作オブジェクトの動作に応じた表示画面を生成する。
 図7は、探索制御部120の構成を示す。探索制御部120は、探索方向決定部210、ノンプレイヤーキャラクタ(以下、「NPC」とも呼ぶ)判定部212、ロックオン処理部214および点灯制御部216を有する。探索制御部120は、操作ボタン34が押下されていることを示すボタン状態情報が送信されている間、ノンプレイヤーキャラクタを探索する探索処理を実行する。したがって、ユーザは、操作ボタン34を押下することで探索処理を開始させ、操作ボタン34の押下を解除することで、探索処理を終了させることができる。
 探索方向決定部210は、操作指示受付部102から入力デバイス20の姿勢情報を取得し、ノンプレイヤーキャラクタを探索する方向を決定する。探索方向は、ゲーム空間において、プレイヤーキャラクタ200の位置および仮想カメラの視線方向を基準として、入力デバイス20の姿勢を用いて定められる。入力デバイス20の基準姿勢は、ゲームアプリケーションの実行前に予め登録されており、たとえば、入力デバイス20の長手方向を、ディスプレイに対して垂直とした姿勢を、実3次元空間における基準姿勢として登録しておく。このように入力デバイス20の基準姿勢を登録しておくことで、実空間における入力デバイス20の向きを、ゲーム空間における仮想カメラの視線方向に実質的に一致させることができ、入力デバイス20の向きと、ゲーム空間における探索方向とを合わせることが可能となる。
 探索方向決定部210は、3軸加速度センサ56および3軸ジャイロセンサ58の検出値情報から、入力デバイス20の姿勢を検出する。入力デバイス20の姿勢は、基準姿勢に対する変化量として検出され、実3次元空間におけるベクトルで表現される。探索方向決定部210は、検出した入力デバイス20の姿勢と、ゲーム世界の仮想3次元空間におけるカメラの視線方向から、プレイヤーキャラクタ200の位置における探索方向を決定する。具体的には、基準姿勢に対する変化量を、カメラの視線ベクトルに対する変化量として処理することで、探索方向が決定される。また、検出された入力デバイス20の姿勢は、ゲーム世界の仮想3次元空間において、ノンプレイヤーキャラクタを探索する方向としてそのまま利用されてもよい。NPC判定部212は、検出された探索方向にノンプレイヤーキャラクタが存在するか判定する。
 図8は、NPC判定部212のノンプレイヤーキャラクタ検出機能を説明するための図である。図8は、図示の都合上、仮想2次元空間を示しているが、NPC判定部212は、実際には仮想3次元空間においてノンプレイヤーキャラクタを検出する。図8に示す空間において、フレーム領域220で切り出された領域で、図6に示す表示画面が形成されている。なお、図8に示す2次元空間では、矢印で示す方向が、基準姿勢により特定される基準方向である。
 図6に示す表示画面では、ノンプレイヤーキャラクタ204のみが表示されているが、図8に示す仮想空間においては、障害物206の裏側にノンプレイヤーキャラクタ208が存在し、プレイヤーキャラクタ200の背後にノンプレイヤーキャラクタ218が存在している。NPC判定部212は、プレイヤーキャラクタ200から見えるノンプレイヤーキャラクタ204だけでなく、プレイヤーキャラクタ200から見えないノンプレイヤーキャラクタ208、218も検出できる。
 NPC判定部212は、探索方向にノンプレイヤーキャラクタが存在するか判定する。たとえば、NPC判定部212は、ゲーム空間内に存在するノンプレイヤーキャラクタを囲むボックス(バウンダリーボックス)を設定し、プレイヤーキャラクタ200の位置を始点として、探索方向を示す無限長のベクトルに、バウンダリーボックスが交わるか判定することで、ノンプレイヤーキャラクタの存在の有無を判定する。バウンダリーボックスは、ノンプレイヤーキャラクタを中心に配置する仮想球体であってよい。設定するバウンダリーボックスの大きさは、プレイヤーキャラクタ200の位置からの距離に比例して定められる。つまり、プレイヤーキャラクタ200とノンプレイヤーキャラクタとの距離が小さければ、そのノンプレイヤーキャラクタに設定されるバウンダリーボックスは小さく、距離が大きければバウンダリーボックスは大きく設定される。これにより、探索方向に、視野角のような角度をもたせることができ、ノンプレイヤーキャラクタの存在確認を効果的に実行できる。なお、NPC判定部212は、探索方向を示す無限長のベクトルとノンプレイヤーキャラクタとの距離を計算し、計算した距離が閾値内である場合に、ノンプレイヤーキャラクタの存在を判定してもよい。この閾値は、プレイヤーキャラクタ200からの距離に応じて大きく設定される。
 またNPC判定部212は、プレイヤーキャラクタ200を頂点とし、探索方向を中心軸とする仮想円錐を設定し、この仮想円錐内にノンプレイヤーキャラクタが含まれる場合に、ノンプレイヤーキャラクタの存在を判定してもよい。
 NPC判定部212は、ワールド座標で表現されるゲーム空間における探索方向の仰角に応じて、探索範囲を変化させてもよい。たとえば、プレイヤーキャラクタ200と同一面における探索範囲よりも、プレイヤーキャラクタ200から上向き方向を探索したときの探索範囲を広げてもよい。NPC判定部212は、入力デバイス20が水平よりも上向きにされたとき、たとえば水平時に設定するよりもバウンダリーボックスを大きく設定することで探索範囲を広げ、ノンプレイヤーキャラクタを発見しやすくしてもよい。このように、3次元仮想空間において、探索方向が水平面から角度をもつ場合に、探索範囲を水平面よりも広げることで、2次元空間にはない3次元ゲーム空間の特徴を有効活用することができる。
 NPC判定部212は、ノンプレイヤーキャラクタが存在することを検出すると、その旨を点灯制御部216に通知する。点灯制御部216は、その通知を受けると、入力デバイス20の発光体22の点灯を制御する。具体的に点灯制御部216は、発光体22の発光色を変更させる発光指示を生成し、無線通信モジュール86から入力デバイス20に送信させる。通常時、発光体22がたとえば青色で発光していれば、点灯制御部216は、青色とは異なる色での発光指示を生成する。NPC判定部212は、探索方向にノンプレイヤーキャラクタが存在する間、その旨を点灯制御部216に通知し続け、点灯制御部216は、その通知を受けている間、無線通信モジュール86から発光指示を送信させる。たとえば、発光指示により指定される発光色は、ユーザの注意を喚起する赤色とされる。なお、発光体22の画像認識精度を高めるために、NPC判定部212は、撮像装置14の撮像範囲に含まれる色とは異なる色を発光色として指示してもよい。たとえばNPC判定部212は、複数の発光色の候補から、最も画像認識精度の高い色、具体的には撮像装置14のフレーム画像に含まれない色を選択して、発光指示を生成してもよい。
 入力デバイス20において、無線通信モジュール48が発光指示を受信すると、メイン制御部52が、発光制御部60に供給する。発光制御部60は、発光指示で指定された発光色となるように、発光部62の発光を制御する。これにより、発光部62は、指定された色で発光する。
 ユーザは、発光体22の色の変化を見て、ノンプレイヤーキャラクタを発見できたことを認識する。このときユーザが操作ボタン34の押下操作を解除すると、ロックオン処理部214が、探索処理の終了を判定して、発見したノンプレイヤーキャラクタをロックオンする。ここで「ロックオン」とは、プレイヤーキャラクタ200の進行方向を自動的にノンプレイヤーキャラクタに向けることであり、ノンプレイヤーキャラクタが逃げ回っても、ユーザが操作ボタン40を操作し続けていれば、プレイヤーキャラクタ200が、ロックオンしたノンプレイヤーキャラクタを追いかけることができる。なお、操作ボタン34の押下操作の解除時に、NPC判定部212が探索方向にノンプレイヤーキャラクタが存在していないことを判定していれば、ロックオン処理部214は、ノンプレイヤーキャラクタをロックオンできない。なお探索処理により、探索範囲に複数のノンプレイヤーキャラクタが存在していることが判定されている場合、ロックオン処理部214は、プレイヤーキャラクタ200から最も近い距離にいるノンプレイヤーキャラクタをロックオンしてもよい。
 なお、画像処理部82は、点灯制御部216から発光体22の発光指示を受け取り、発光体22の発光色を常に把握しておく。これにより、画像処理部82は、フレーム画像を2値化処理する際の、RGB画素のそれぞれに対する閾値を発光色に応じて再設定し、再設定した閾値をもとにフレーム画像を2値化処理することで、発光色が変化しても、発光体画像の位置および大きさの特定を継続して実行できる。
 図9は、探索制御部120の処理を示すフローチャートである。操作指示受付部102が操作ボタン34の押下を示すボタン状態情報を受け付けると(S10)、探索制御部120が探索処理を開始する。探索方向決定部210は、仮想3次元空間のプレイヤーキャラクタ200の位置、入力デバイス20の姿勢情報、および仮想カメラの視線ベクトルから、ノンプレイヤーキャラクタの探索方向を決定する(S12)。NPC判定部212は、決定された探索方向にノンプレイヤーキャラクタが存在するか判定し(S14)、ノンプレイヤーキャラクタを検出すると(S14のY)、検出したことを点灯制御部216に通知する。このときNPC判定部212は、NPC検出フラグをONに設定し、このフラグ値を点灯制御部216に通知してもよい。なお、NPC検出フラグは、ノンプレイヤーキャラクタが検出されなければOFFに設定されている。点灯制御部216は、フラグON値を受け取ると、入力デバイス20の発光体22を点灯制御して、発光色を変化させる(S16)。ノンプレイヤーキャラクタが探索方向に検出されなければ(S14のN)、発光体22の発光色は変化しない。操作指示受付部102が、操作ボタン34の押下を示すボタン状態情報を受け付ける間(S18のN)、S12~S16の処理は繰り返し実行される。
 操作指示受付部102が、操作ボタン34の押下操作が解除されたことを示すボタン状態情報を受け付けると(S18のY)、ロックオン処理部214は、NPC検出フラグ値を参照する(S20)。NPC検出フラグ値がONであれば(S20のY)、探索方向に存在することが検出されたノンプレイヤーキャラクタにロックオン処理を実行する(S22)。なお、NPC検出フラグ値がOFFであれば(S20のN)、ロックオン処理は実行されない。以上で、探索制御部120の探索処理は終了する。
 点灯制御部216は、ノンプレイヤーキャラクタを発見したときに、入力デバイス20の発光体22の発光色を変化させるが、このとき、発見したノンプレイヤーキャラクタのステータス情報に応じて、発光色を決定してもよい。
 非操作オブジェクト制御部116は、ノンプレイヤーキャラクタのステータス情報を決定する。たとえばステータス情報として、ノンプレイヤーキャラクタが、プレイヤーキャラクタ200の存在に気づいているか否かの情報が設定される。ノンプレイヤーキャラクタがプレイヤーキャラクタ200の存在に気づいていることの条件としては、ノンプレイヤーキャラクタの視野角にプレイヤーキャラクタ200が含まれていること、且つ、ノンプレイヤーキャラクタとプレイヤーキャラクタ200との距離が所定値以下であること、である。非操作オブジェクト制御部116は、ノンプレイヤーキャラクタごとに、この条件が満足されているか否かを管理し、状態フラグ値として設定しておく。条件を満足していれば、状態フラグ値はONに設定され、満足していなければOFFに設定される。なお、プレイヤーキャラクタ200およびノンプレイヤーキャラクタは、互いに動いているため、この状態フラグ値は、所定の周期で更新される必要がある。
 NPC判定部212は、探索方向にノンプレイヤーキャラクタが存在することを検出すると、そのノンプレイヤーキャラクタの状態フラグ値を取得して、点灯制御部216に通知する。点灯制御部216は、状態フラグ値に応じて、発光体22の発光色を決定する。これによりユーザは、発光体22の発光色を見ることで、発見したノンプレイヤーキャラクタが、プレイヤーキャラクタ200に気づいているか否かを認識できるため、ノンプレイヤーキャラクタの追いかけ方を決めることができる。たとえば、プレイヤーキャラクタ200に気づいているノンプレイヤーキャラクタをロックオンした後、普通に追いかけると、非操作オブジェクト制御部116が、そのノンプレイヤーキャラクタを猛ダッシュで逃げ回るように動作させる場合、ゆっくりと追いかけるようにすることで、ノンプレイヤーキャラクタを捕獲しやすくできる。
 このとき非操作オブジェクト制御部116は、ノンプレイヤーキャラクタに設定された状態フラグ値をもとに、動作パターンを切り替えて、ノンプレイヤーキャラクタの動作を制御する。上記したように、あるノンプレイヤーキャラクタの状態フラグ値がONに設定されている場合、そのノンプレイヤーキャラクタにプレイヤーキャラクタ200が通常の速度で近づいてくることを検出すると、非操作オブジェクト制御部116が、動作パターンの切替を行い、ノンプレイヤーキャラクタを、プレイヤーキャラクタ200から高速で離れるように動作制御する。一方、この場合に、プレイヤーキャラクタ200がノンプレイヤーキャラクタに通常よりも遅い速度で近づいてくることを検出すると、非操作オブジェクト制御部116は、動作パターンを変更せずに、通常の動作パターンでノンプレイヤーキャラクタを動作制御する。
 なお、ノンプレイヤーキャラクタが、プレイヤーキャラクタ200の存在に気づいているか否かを特定するステータス情報について説明したが、NPC判定部212は、他のステータス情報をもとに、発光色を決定してもよい。たとえば、ステータス情報として、発見したノンプレイヤーキャラクタとプレイヤーキャラクタ200との距離情報を設定してもよく、また探索範囲で発見したノンプレイヤーキャラクタの数情報を設定してもよい。またNPC判定部212は、ステータス情報に応じて発光色を変化させるほか、たとえば点灯と消灯を繰り返させる点滅指示を生成してもよく、また複数色を周期的に切り替える多色切替指示を生成してもよい。
 以上のようにノンプレイヤーキャラクタをロックオンすると、ユーザが、操作ボタン40を操作することで、プレイヤーキャラクタ200が、ロックオンしたノンプレイヤーキャラクタを追いかける。この処理は、操作オブジェクト制御部112により行われる。このとき、アイテム決定部114は、探索レーダを使用する前に使っていたアイテムを、プレイヤーキャラクタが使用するアイテムとして決定する。たとえば、探索レーダを使用する前に捕獲具を使用していれば、探索処理の終了後、捕獲具がアイテムとして決定される。
 図10は、捕獲具使用中の表示画面例を示す。表示画面には、プレイヤーキャラクタ200、ノンプレイヤーキャラクタ222および捕獲アミ224が表示されている。捕獲アミ224は捕獲具の1つの態様であり、ノンプレイヤーキャラクタ222を捕獲アミ224に入れて、床や壁にアミのリング部分(アミ枠)を押しつけることで、捕獲が完了する。なお、捕獲が完了すると、そのノンプレイヤーキャラクタ222は捕獲アミ224の中で消滅する。
 図11は、ノンプレイヤーキャラクタ222の捕獲過程を示す図である。図11(a)は、捕獲アミ224の中にノンプレイヤーキャラクタ222を入れた状態を示す。捕獲アミ224に入れた状態で所定時間放置すると、ノンプレイヤーキャラクタ222は、捕獲アミ224から逃げ出すことができる。また、ノンプレイヤーキャラクタ222が捕獲アミ224に入った状態で、ユーザが操作ボタン32を押下すると、ノンプレイヤーキャラクタ222を捕獲アミ224から放出することができる。このように、本ゲームアプリケーションでは、ユーザに様々な楽しみ方が提供される。
 図11(b)は、捕獲アミ224のリング部分を床226に押しつけた状態を示す。捕獲アミ224にノンプレイヤーキャラクタ222を入れた時点から所定時間内に捕獲アミ224のリング部分を床226に押しつけることで、捕獲が完了する。このときノンプレイヤーキャラクタ222は、捕獲アミ224内から消滅する。なお、リング部分を押しつける対象は、床226に限らず、壁など、ゲーム世界において固定されたオブジェクトであればよい。
 図12は、衝突制御部118の構成を示す。衝突制御部118は、衝突判定部230、衝突態様決定部232および動作決定部234を有する。衝突制御部118は、操作オブジェクトと、非操作オブジェクトとの衝突制御を実行する。衝突判定部230は、操作オブジェクトと非操作オブジェクトとの衝突判定を行い、衝突を検出すると、衝突態様決定部232が、衝突の態様を決定する。動作決定部234は、衝突態様に応じて、操作オブジェクトまたは非操作オブジェクトの少なくとも一方の動作を決定する。
 操作オブジェクト制御部112は、操作ボタン40が操作されたことを示すボタン状態情報をもとに、プレイヤーキャラクタ200に、ロックオンしたノンプレイヤーキャラクタ222を追跡させる。プレイヤーキャラクタ200がノンプレイヤーキャラクタ222に近づくと、ユーザは操作ボタン40の押下を解除する。以後、操作オブジェクト制御部112は、入力デバイス20の位置情報および姿勢情報をもとに、プレイヤーキャラクタ200および捕獲アミ224の動作を制御する。具体的に、操作オブジェクト制御部112は、プレイヤーキャラクタ200の前後方向の動きを、フレーム画像中の発光体画像の大きさから導出される距離情報により決定し、左右方向の動きを、フレーム画像中の発光体画像の位置座標により決定する。さらに具体的には、操作ボタン40の押下が解除された時点の距離情報および位置座標からの差分値で、それぞれの動きが決定される。また操作オブジェクト制御部112は、捕獲アミ224の動きを、姿勢情報により決定する。ユーザが入力デバイス20をアミに見立てて動かすと、操作オブジェクト制御部112が、捕獲アミ224の動きを、ユーザによる入力デバイス20の動きと同じように制御する。これにより、ユーザの動きとプレイヤーキャラクタ200の動きとを連動させることができる。
 衝突判定部230は、捕獲アミ224とノンプレイヤーキャラクタ222の衝突判定を行う。衝突判定部230は、既知の衝突判定アルゴリズムを用いて、捕獲アミ224のリング部分の内側に形成される平面と、ノンプレイヤーキャラクタ222との衝突判定を行う。衝突が検出されたとき、衝突態様決定部232は、衝突の態様を決定する。
 操作オブジェクト制御部112は、入力デバイス20から送信されるセンサ検出値情報から捕獲アミ224の移動速度を導出し、移動させる。このように操作オブジェクト制御部112は、加速度センサ検出値情報を用いて捕獲アミ224の移動速度を検出してもよい。また操作オブジェクト制御部112は、デバイス情報導出部84で導出された、フレームごとの入力デバイス20の位置情報から、捕獲アミ224の移動速度を導出してもよい。衝突判定部230が、捕獲アミ224のリング部分に形成される平面と、ノンプレイヤーキャラクタ222との衝突を判定すると、衝突態様決定部232は、衝突時の捕獲アミ224の移動速度を取得する。このとき衝突態様決定部232は、捕獲アミ224の移動速度が所定速度以下であるか判定して、その判定結果に応じて衝突態様を決定し、動作決定部234に通知する。
 動作決定部234は、決定された衝突態様が捕獲アミ224の移動速度が所定速度以下であることを示す場合、ノンプレイヤーキャラクタ222の動作を、捕獲アミ224内から所定時間脱出できないものとして決定する。この決定された動作は非操作オブジェクト制御部116に通知され、非操作オブジェクト制御部116は、この通知を受けて、所定時間の間は、捕獲アミ224内でノンプレイヤーキャラクタ222を動かすように制御する。一方、動作決定部234は、決定された衝突態様が捕獲アミ224の移動速度が所定速度を超えていることを示す場合に、ノンプレイヤーキャラクタ222の動作を、捕獲アミ224に入ったらすぐに消滅するように決定する。この決定された動作は非操作オブジェクト制御部116に通知され、非操作オブジェクト制御部116は、この通知を受けて、捕獲アミ224内にノンプレイヤーキャラクタ222が入ったらすぐに消滅するように制御する。
 このように、センサ検出値情報および/または入力デバイス20の位置情報に応じて衝突態様を決定し、その衝突態様によりノンプレイヤーキャラクタ222の動作を決定することで、入力デバイス20の特徴を活かしたゲームを実現できる。なお、衝突態様によりプレイヤーキャラクタ200の動作を決定してもよい。また移動速度により衝突態様を決定したが、加速度により衝突態様を決定してもよい。
 なお、ノンプレイヤーキャラクタ222の動作が、捕獲アミ224内に所定時間とどまるように決定された場合、プレイヤーキャラクタ200が、捕獲アミ224を床や壁に押しつけることで、ノンプレイヤーキャラクタ222を消滅させることができる。衝突判定部230は、捕獲アミ224のリング部分と床や壁との衝突判定を行う。衝突が検出されたとき、衝突態様決定部232は、リング部分に形成される平面と、床平面との角度に応じて、衝突態様を決定する。平面同士の角度は、各平面の垂線同士の角度により求められる。衝突態様決定部232は、平面同士の角度が所定角度以上であるか判定して、その判定結果に応じて衝突態様を決定し、動作決定部234に通知する。
 なお、この衝突態様は、衝突判定により決定されてもよいが、ゲーム空間内の床や壁のワールド座標と、捕獲アミ224のリング部分のワールド座標の位置関係から決定されてもよい。
 動作決定部234は、決定された衝突態様が平面同士の角度が所定値以上であることを示す場合、ノンプレイヤーキャラクタ222の動作を、捕獲アミ224内から脱出できるものとして決定する。この決定された動作は非操作オブジェクト制御部116に通知され、非操作オブジェクト制御部116は、この通知を受けて、捕獲アミ224にノンプレイヤーキャラクタ222が入った時点から所定時間が経過すると、捕獲アミ224から脱出するように制御する。一方、動作決定部234は、決定された衝突態様が平面同士の角度が所定値より小さいことを示す場合、ノンプレイヤーキャラクタ222の動作を、消滅するように決定する。この決定された動作は非操作オブジェクト制御部116に通知され、非操作オブジェクト制御部116は、この通知を受けて、捕獲アミ224内のノンプレイヤーキャラクタ222を消滅するように制御する。
 なお、ノンプレイヤーキャラクタ222が捕獲アミ224に捕らえられた状態で、ユーザが入力デバイス20の操作ボタン40を操作すると、非操作オブジェクト制御部116が、入力デバイス20の姿勢情報から、捕獲アミ224のリング部分に形成される平面に垂直な方向に、ノンプレイヤーキャラクタ222を放出する。このように、本ゲームでは、捕獲アミ224とノンプレイヤーキャラクタ222との衝突態様に応じて、ノンプレイヤーキャラクタ222の動作に様々なバリエーションをもたせることができる。
 図13は、衝突制御部118の処理を示すフローチャートである。衝突判定部230は、操作オブジェクトと非操作オブジェクトとの衝突判定を行う(S30)。衝突が検出されなければ(S30のN)、この衝突制御処理は進行しない。衝突が検出されると(S30のY)、衝突態様決定部232が、衝突態様を決定する(S32)。動作決定部234は、衝突態様に応じて、操作オブジェクトまたは非操作オブジェクトの少なくとも一方の動作を決定する(S34)。
 本ゲームにおいて、捕獲具はデフォルトアイテムとして設定され、探索処理の終了後は、常に捕獲具がアイテムとして決定されるが、ユーザは操作ボタン36を押下することで、プレイヤーキャラクタ200の使用アイテムを変更できる。アイテム決定部114は、殴打武器を、プレイヤーキャラクタが使用するアイテムとして決定する。
 ハリセンは殴打武器の1つの態様である。現実のハリセンは、紙を蛇腹状に折り、一方をテープなどで巻いて握りを作り、反対側を扇子状に開いて作られる。プレイヤーキャラクタ200は、ハリセンでノンプレイヤーキャラクタを叩くことができる。ハリセンの向きは、入力デバイス20の姿勢情報により定められる。衝突判定部230は、ハリセンとノンプレイヤーキャラクタの衝突判定を行う。
 操作オブジェクト制御部112は、入力デバイス20から送信されるセンサ検出値情報からハリセンの移動速度を導出し、移動させる。衝突判定部230が、ハリセンと、ノンプレイヤーキャラクタとの衝突を判定すると、動作決定部234が、衝突時のハリセンの移動方向および移動速度から、ノンプレイヤーキャラクタ222が吹っ飛ぶ方向と速さを決定する。この決定された動作は非操作オブジェクト制御部116に通知され、非操作オブジェクト制御部116は、この通知を受けて、ノンプレイヤーキャラクタ222を動作させる。
 なおハリセンは、殴打武器として利用されるが、蛇腹部分を団扇のようにして風を起こすように利用されてもよい。操作オブジェクト制御部112は、入力デバイス20の姿勢情報によりハリセンを動かす向きを定め、殴打武器または団扇のいずれかでハリセンを動作させる。
 またユーザが操作ボタン36を押下すると、アイテム決定部114が、投擲武器を、プレイヤーキャラクタが使用するアイテムとして決定してもよい。
 図14(a)は、投擲武器の1つの態様であるパチンコの表示画面例を示す。ユーザが操作ボタン40を操作すると、操作オブジェクト制御部112は、パチンコ240をプレイヤーキャラクタ200にもたせる。ここでは、プレイヤーキャラクタ200の図示を省略している。操作オブジェクト制御部112は、操作ボタン40が操作された時点の入力デバイス20の位置情報および姿勢情報を、初期状態情報として取得する。操作オブジェクト制御部112は、姿勢情報から、パチンコ240の方向を定める。
 図14(b)は、入力デバイス20が撮像装置14から離れる方向に移動したときの表示画面例を示す。この例では、パチンコのゴム紐は、操作ボタン40を操作がされた時の位置からの移動量に応じて、引っ張られる。ゴム紐には弾がセットされ、操作ボタン40の押下操作が解除されると、図14(c)に示すように弾が投擲される。操作オブジェクト制御部112は、弾の飛距離を、初期位置からの移動量と、また操作ボタン40の押下時間に応じて定めてもよい。
 以下、本ゲームにおいて用意されるアイテムを示す。
1)トング
 ユーザが操作ボタン30と操作ボタン40を同時に押すことで、プレイヤーキャラクタ200が、トングを使って非操作オブジェクトをつかむことができる。
2)おたま
 プレイヤーキャラクタ200が、おたまを使って水やお湯をすくい、ノンプレイヤーキャラクタにかけることができる。非操作オブジェクト制御部116は、水やお湯の温度により、ノンプレイヤーキャラクタの動作を変化させる。
 なお、入力デバイス20の特徴を活かした他のアイテムが用意されてもよい。
 以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
1・・・ゲームシステム、10・・・ゲーム装置、12・・・表示装置、14・・・撮像装置、20・・・入力デバイス、22・・・発光体、24・・・ハンドル、48・・・無線通信モジュール、50・・・処理部、52・・・メイン制御部、54・・・入力受付部、56・・・3軸加速度センサ、58・・・3軸ジャイロセンサ、60・・・発光制御部、62・・・発光部、80・・・フレーム画像取得部、82・・・画像処理部、84・・・デバイス情報導出部、86・・・無線通信モジュール、88・・・入力受付部、90・・・出力部、100・・・アプリケーション処理部、102・・・操作指示受付部、110・・・制御部、112・・・操作オブジェクト制御部、114・・・アイテム決定部、116・・・非操作オブジェクト制御部、118・・・衝突制御部、120・・・探索制御部、122・・・表示制御部、150・・・パラメータ保持部、152・・・3次元データ保持部、154・・・画像生成部、210・・・探索方向決定部、212・・・NPC判定部、214・・・ロックオン処理部、216・・・点灯制御部、230・・・衝突判定部、232・・・衝突態様決定部、234・・・動作決定部。
 本発明は、ゲームの分野に適用できる。

Claims (10)

  1.  発光体を有する入力デバイスの撮像画像を取得する画像取得部と、
     前記撮像画像から、入力デバイスの位置情報を導出するデバイス情報導出部と、
     入力デバイスの姿勢情報を取得する受付部と、
     入力デバイスの位置情報および姿勢情報に応じて、操作オブジェクトの動作を制御する操作オブジェクト制御部と、
     非操作オブジェクトの動作を制御する非操作オブジェクト制御部と、
     操作オブジェクトの動作および非操作オブジェクトの動作に応じて表示画面を生成する画像生成部と、
     操作オブジェクトと非操作オブジェクトとの衝突を検出する衝突制御部と、を備え、
     前記衝突制御部は、操作オブジェクトと非操作オブジェクトとの衝突態様に応じて、操作オブジェクトまたは非操作オブジェクトの少なくとも一方の動作を決定することを特徴とするゲーム装置。
  2.  前記衝突制御部は、衝突時の操作オブジェクトの動きにより、衝突態様を決定することを特徴とする請求項1に記載のゲーム装置。
  3.  前記衝突制御部は、衝突時の操作オブジェクトの速度または加速度により、衝突態様を決定することを特徴とする請求項1または2に記載のゲーム装置。
  4.  前記非操作オブジェクト制御部は、非操作オブジェクトに、前記衝突制御部により決定された動作をさせることを特徴とする請求項1から3のいずれかに記載のゲーム装置。
  5.  コンピュータに、
     発光体を有する入力デバイスの撮像画像を取得する機能と、
     撮像画像から、入力デバイスの位置情報を導出する機能と、
     入力デバイスの姿勢情報を取得する機能と、
     入力デバイスの位置情報および姿勢情報に応じて、操作オブジェクトの動作を制御する機能と、
     非操作オブジェクトの動作を制御する機能と、
     操作オブジェクトの動作および非操作オブジェクトの動作に応じて表示画面を生成する機能と、
     操作オブジェクトと非操作オブジェクトとの衝突を検出する機能と、
     操作オブジェクトと非操作オブジェクトとの衝突態様を決定する機能と、
     衝突態様に応じて、操作オブジェクトまたは非操作オブジェクトの少なくとも一方の動作を決定する機能と、
     を実現させるためのプログラム。
  6.  請求項5に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
  7.  発光体を有する入力デバイスの姿勢情報を取得する受付部と、
     仮想空間において操作オブジェクトの動作を制御する操作オブジェクト制御部と、
     仮想空間において非操作オブジェクトの動作を制御する非操作オブジェクト制御部と、
     操作オブジェクトの位置と、入力デバイスの姿勢情報から、非操作オブジェクトの探索方向を決定する探索方向決定部と、
     探索方向に非操作オブジェクトが存在するか判定する判定部と、
     前記判定部により非操作オブジェクトが存在することが判定されると、発光体の点灯を制御する点灯制御部と、
     を備えることを特徴とするゲーム装置。
  8.  前記判定部は、非操作オブジェクトが存在することを判定すると、非操作オブジェクトのステータス情報を取得し、
     前記点灯制御部は、ステータス情報にもとづいて、発光体の点灯を制御することを特徴とする請求項7に記載のゲーム装置。
  9.  コンピュータに、
     発光体を有する入力デバイスの姿勢情報を取得する機能と、
     仮想空間において操作オブジェクトの動作を制御する機能と、
     仮想空間において非操作オブジェクトの動作を制御する機能と、
     操作オブジェクトの位置と、入力デバイスの姿勢情報から、非操作オブジェクトの探索方向を決定する機能と、
     探索方向に非操作オブジェクトが存在するか判定する機能と、
     非操作オブジェクトが存在することが判定されると、発光体の点灯を制御する機能と、
     を実現させるためのプログラム。
  10.  請求項9に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2010/001827 2009-07-21 2010-03-15 ゲーム装置 WO2011010414A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/382,041 US8721444B2 (en) 2009-07-21 2010-03-15 Game device for performing operation object control and non-operation object control

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009-170158 2009-07-21
JP2009170157A JP2011024612A (ja) 2009-07-21 2009-07-21 ゲーム装置
JP2009170158A JP5453006B2 (ja) 2009-07-21 2009-07-21 ゲーム装置
JP2009-170157 2009-07-21

Publications (1)

Publication Number Publication Date
WO2011010414A1 true WO2011010414A1 (ja) 2011-01-27

Family

ID=43498895

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/001827 WO2011010414A1 (ja) 2009-07-21 2010-03-15 ゲーム装置

Country Status (2)

Country Link
US (1) US8721444B2 (ja)
WO (1) WO2011010414A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4374942A3 (en) * 2015-08-04 2024-07-10 Google LLC Input via context sensitive collisions of hands with objects in virtual reality
WO2019032967A1 (en) 2017-08-10 2019-02-14 Google Llc HAND INTERACTION SENSITIVE TO THE CONTEXT
KR102122600B1 (ko) 2018-03-07 2020-06-12 매직 립, 인코포레이티드 주변 디바이스들의 시각적 추적

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0850661A (ja) * 1994-08-05 1996-02-20 Casio Comput Co Ltd 画像制御装置
JP2003208263A (ja) * 2002-01-12 2003-07-25 Sega Corp コントロール装置及びその取付け体を有する画像処理装置
JP2006510424A (ja) * 2002-12-18 2006-03-30 シルビアス 表示された仮想オブジェクトの動き制御を改善したゲームシステム
JP2006318136A (ja) * 2005-05-11 2006-11-24 Nintendo Co Ltd 画像処理プログラムおよび画像処理装置
JP2007289529A (ja) * 2006-04-26 2007-11-08 Sony Computer Entertainment Inc ゲームコントローラ
JP2008000345A (ja) * 2006-06-22 2008-01-10 Nintendo Co Ltd ゲーム装置およびゲームプログラム
JP2008040800A (ja) * 2006-08-07 2008-02-21 Konami Digital Entertainment:Kk シミュレーション装置、シミュレーション方法、ならびに、プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5755620A (en) * 1995-04-03 1998-05-26 Kabushiki Kaisha Sega Enterprises Game system and data processing method thereof
JP2000200361A (ja) * 1998-08-07 2000-07-18 Sega Enterp Ltd 画像処理装置及び情報記録媒体
US6795068B1 (en) 2000-07-21 2004-09-21 Sony Computer Entertainment Inc. Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program
US10279254B2 (en) * 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US8287373B2 (en) * 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
US8323106B2 (en) * 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
JP4673570B2 (ja) * 2004-03-31 2011-04-20 株式会社セガ 画像生成装置、画像表示方法及びプログラム
US8157651B2 (en) * 2005-09-12 2012-04-17 Nintendo Co., Ltd. Information processing program
WO2007117418A2 (en) * 2006-03-31 2007-10-18 Wms Gaming Inc. Portable wagering game with vibrational cues and feedback mechanism
JP4821436B2 (ja) * 2006-05-25 2011-11-24 株式会社セガ プレーヤ交代操作機能を有するゲーム装置
US8368753B2 (en) * 2008-03-17 2013-02-05 Sony Computer Entertainment America Llc Controller with an integrated depth camera
JP5005627B2 (ja) * 2008-07-10 2012-08-22 任天堂株式会社 情報処理プログラムおよび情報処理装置
US9399167B2 (en) * 2008-10-14 2016-07-26 Microsoft Technology Licensing, Llc Virtual space mapping of a variable activity region
US8142288B2 (en) * 2009-05-08 2012-03-27 Sony Computer Entertainment America Llc Base station movement detection and compensation

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0850661A (ja) * 1994-08-05 1996-02-20 Casio Comput Co Ltd 画像制御装置
JP2003208263A (ja) * 2002-01-12 2003-07-25 Sega Corp コントロール装置及びその取付け体を有する画像処理装置
JP2006510424A (ja) * 2002-12-18 2006-03-30 シルビアス 表示された仮想オブジェクトの動き制御を改善したゲームシステム
JP2006318136A (ja) * 2005-05-11 2006-11-24 Nintendo Co Ltd 画像処理プログラムおよび画像処理装置
JP2007289529A (ja) * 2006-04-26 2007-11-08 Sony Computer Entertainment Inc ゲームコントローラ
JP2008000345A (ja) * 2006-06-22 2008-01-10 Nintendo Co Ltd ゲーム装置およびゲームプログラム
JP2008040800A (ja) * 2006-08-07 2008-02-21 Konami Digital Entertainment:Kk シミュレーション装置、シミュレーション方法、ならびに、プログラム

Also Published As

Publication number Publication date
US20120157201A1 (en) 2012-06-21
US8721444B2 (en) 2014-05-13

Similar Documents

Publication Publication Date Title
JP5089060B2 (ja) エンタテインメントシステムおよびゲームコントローラ
JP5089078B2 (ja) ゲーム装置
JP5389162B2 (ja) ゲーム装置、ゲーム制御方法、及びゲーム制御プログラム
US9199166B2 (en) Game system with virtual camera controlled by pointing device
JP4906391B2 (ja) ゲームコントローラ
US10994200B2 (en) Information processing apparatus, information processing system, information processing method, program and information recording medium
JP2011024612A (ja) ゲーム装置
JP5453006B2 (ja) ゲーム装置
WO2011010414A1 (ja) ゲーム装置
EP2441503B1 (en) Game device, game control method, system, and game control program
JP5241789B2 (ja) プログラム、オブジェクト制御方法およびゲーム装置
JP5600033B2 (ja) ゲーム装置、ゲーム制御方法、及びゲーム制御プログラム
EP3912696A1 (en) Method of interacting with virtual creature in virtual reality environment and virtual object operating system
JP5551675B2 (ja) ゲーム装置および仮想オブジェクト制御方法
JP5276055B2 (ja) ゲーム装置、ゲーム制御方法、及びゲーム制御プログラム
JP2012000154A (ja) ゲーム装置、ゲーム制御方法、及びゲーム制御プログラム
JP2013090941A (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10802036

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13382041

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 10802036

Country of ref document: EP

Kind code of ref document: A1