WO2007023592A1 - ゲーム装置、ゲーム装置の制御方法及び情報記憶媒体 - Google Patents

ゲーム装置、ゲーム装置の制御方法及び情報記憶媒体 Download PDF

Info

Publication number
WO2007023592A1
WO2007023592A1 PCT/JP2006/306504 JP2006306504W WO2007023592A1 WO 2007023592 A1 WO2007023592 A1 WO 2007023592A1 JP 2006306504 W JP2006306504 W JP 2006306504W WO 2007023592 A1 WO2007023592 A1 WO 2007023592A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual camera
posture
virtual
camera control
state
Prior art date
Application number
PCT/JP2006/306504
Other languages
English (en)
French (fr)
Inventor
Yasuhiro Kawabata
Original Assignee
Konami Digital Entertainment Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co., Ltd. filed Critical Konami Digital Entertainment Co., Ltd.
Priority to EP06730452A priority Critical patent/EP1925347B1/en
Priority to US12/064,736 priority patent/US8246455B2/en
Priority to DE602006014698T priority patent/DE602006014698D1/de
Publication of WO2007023592A1 publication Critical patent/WO2007023592A1/ja

Links

Classifications

    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6669Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera using a plurality of virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character change rooms
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6676Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera by dedicated player input

Definitions

  • the present invention relates to a game device, a game device control method, and an information storage medium.
  • a game apparatus in which a virtual camera is installed in a virtual three-dimensional space, and an image obtained by viewing the virtual three-dimensional space from the virtual camera is displayed as a game image.
  • a player it is generally performed that a player can change the position and posture of a virtual camera by operating, for example, a direction key or an operation stick.
  • Patent Document 1 Japanese Patent Laid-Open No. 7-116343
  • the present invention has been made in view of the above problems, and an object thereof is to enable a player to point a virtual camera in a desired direction in a virtual three-dimensional space with a relatively simple operation. It is to provide a device, a control method of a game device, and an information storage medium. Means for solving the problem
  • a game device is a game device that arranges a virtual camera in a virtual three-dimensional space and displays the virtual three-dimensional space as viewed from the virtual camera. Then, based on the operation state of the operation means, the change direction of the posture of the virtual camera is determined, and the posture of the virtual camera is changed to a posture in which the change direction is changed from the current direction by a given angle.
  • First virtual camera control means to be changed, and a second virtual camera that determines a direction in the virtual three-dimensional space based on an operation state of the operation means, and changes the attitude of the virtual camera to an attitude that faces the direction Control means, a state in which the virtual camera is controlled by the first virtual force camera control means, and the second virtual camera control.
  • a virtual camera control switching means for switching the state in which the virtual camera is controlled by the means according to a predetermined switching operation.
  • the game device control method is a game device control method in which a virtual camera is arranged in a virtual three-dimensional space, and a state in which the virtual three-dimensional space is viewed from the virtual camera is displayed. Then, based on the operation state of the operation means, the change direction of the posture of the virtual camera is determined, and the posture of the virtual camera is changed to a posture in which the change direction is changed from the current direction by a given angle.
  • a first virtual camera control step to be changed and a second virtual camera that determines a direction in the virtual three-dimensional space based on the operation state of the operation means and changes the posture of the virtual camera to a posture facing the direction A control step, a state in which the virtual camera is controlled by the first virtual camera control step, and a state in which the virtual camera is controlled by the second virtual camera control step.
  • a virtual camera control switching step that switches according to a constant switching operation.
  • the program according to the present invention is a game device that arranges a virtual camera in a virtual three-dimensional space and displays the virtual three-dimensional space as viewed from the virtual camera.
  • This is a program for causing a computer such as a game machine, a portable game machine, a mobile phone, a personal computer, or a server computer to function, and determines the change direction of the attitude of the virtual camera based on the operation state of the operation means.
  • a first virtual camera control means for changing the posture of the virtual camera to a posture that faces the direction in which the current direction force has changed by a given angle in the changing direction, and the virtual device based on the operating state of the operating device.
  • a second virtual camera control means for determining a direction in a three-dimensional space and changing the posture of the virtual camera to a posture facing the direction; and the first virtual camera.
  • Virtual camera control switching means for switching between a state in which the virtual camera is controlled by a camera control means and a state in which the virtual camera is controlled by the second virtual camera control means in accordance with a predetermined switching operation.
  • An information storage medium is a computer-readable information storage medium storing the above-described program.
  • a program distribution apparatus is a program distribution apparatus that includes an information storage medium storing the program, reads the program from the information storage medium, and distributes the program.
  • program distribution according to the present invention The method is a program distribution method that includes an information storage medium that records the program, reads the program from the information storage medium, and distributes the program.
  • the present invention relates to a game apparatus that arranges a virtual camera in a virtual three-dimensional space and displays a state in which the virtual three-dimensional space is viewed from the virtual camera.
  • the change direction of the posture of the virtual camera is determined based on the operation state of the operation means, and the posture of the virtual camera is changed to a posture that changes from the current direction by a given angle in the change direction.
  • Changed first virtual camera control state
  • the direction in the virtual three-dimensional space is determined based on the operation state of the operation means, and the posture of the virtual camera is changed to the posture that faces the direction (second virtual camera control state).
  • the first virtual camera control state and the second virtual camera control state are switched according to a predetermined switching operation. According to the present invention, the player can point the virtual camera in a desired direction in the virtual three-dimensional space with a relatively simple operation.
  • the first virtual camera control means is configured to control the second virtual camera from a state in which the virtual camera is controlled by the first virtual camera control means by the virtual camera control switching means.
  • the storage unit stores the posture specifying information for specifying the posture of the virtual camera at that time, and the virtual camera control switching unit.
  • the posture specification stored in the storage means And a means for setting the attitude of the virtual camera based on the information.
  • the second virtual camera control means stores means for storing direction history related information relating to a history of directions set by the second virtual camera control means so that the virtual camera faces.
  • the direction in the virtual three-dimensional space is determined based on the direction history related information, and the posture of the virtual camera is set to the posture facing the direction.
  • a means for changing the posture In this way, it is possible to reduce the time and effort of the player who tries to point the virtual camera in the “direction in which the virtual camera has been directed by the second virtual camera control means”.
  • the present invention includes an operation value acquisition unit that acquires an operation value according to an operation state of the operation unit, and the second virtual camera control unit includes a plurality of operation value ranges that do not overlap each other.
  • a deviation of the plurality of operation value ranges The operation The plurality of operation value ranges are changed so that the value range is expanded and other operation value ranges of the plurality of operation value ranges are narrowed, and the operation value acquired by the operation value acquisition means is the plurality of operation values. Whether or not the range is included in the deviation may be determined based on the plurality of operation value ranges after the change. If the operation value corresponding to the operation state of the operation means changes near the boundary between the operation value ranges, the virtual camera posture may change frequently, but this prevents the occurrence of such problems. become able to.
  • the first virtual camera control means determines a change direction of the posture of the virtual camera based on a tilt direction of an operation stick included in the operation means, and the change direction. Changing the attitude of the virtual camera to an attitude that is changed from the current direction by a given angle, and the second virtual camera control means is configured to change the virtual 3D based on the tilt direction of the operation stick.
  • the direction in the space is determined, the posture of the virtual camera is changed to a posture facing the direction, and the predetermined switching operation may be a pressing operation in the axial direction of the operation stick. In this way, the operation for changing the attitude of the virtual camera and the predetermined switching operation can be suitably performed with one operation member.
  • FIG. 1 is a diagram showing a hardware configuration of a game device according to the present embodiment.
  • FIG. 2 is a diagram illustrating an example of a controller.
  • FIG. 3 is a perspective view showing an example of a virtual three-dimensional space.
  • FIG. 4 is a diagram showing rotation in the Yw-axis direction of the line-of-sight direction vector.
  • FIG. 5 is a diagram illustrating a posture determination criterion for the right operation stick.
  • FIG. 6 is a diagram showing data representing a correspondence relationship between a posture of a right operation stick and a direction in a virtual three-dimensional space.
  • FIG. 7 is a perspective view showing an example of a virtual three-dimensional space.
  • FIG. 8 is a diagram showing posture determination criteria for the right operation stick.
  • FIG. 9 is a functional block diagram of the game device according to the present embodiment.
  • FIG. 10 is a diagram showing an example of direction history data.
  • FIG. 11 is a flowchart showing processing executed by the game device.
  • FIG. 12 is a flowchart showing processing executed on the game device.
  • FIG. 13 is a flowchart showing processing executed by the game device.
  • FIG. 14 is a flowchart showing processing executed on the game device.
  • FIG. 15 is a diagram showing an overall configuration of a program distribution system according to another embodiment of the present invention.
  • FIG. 1 is a diagram showing a hardware configuration of the game device according to the embodiment of the present invention.
  • a game apparatus 10 shown in FIG. 1 is configured by attaching a DVD-ROM 25 and a memory card 28 as information storage media to a consumer game machine 11 and further connecting a monitor 18 and a speaker 22.
  • a home television receiver is used for the monitor 18, and its built-in speaker is used for the speaker power 22.
  • the consumer game machine 11 includes a bus 12, a microprocessor 14, an image processing unit 16, an audio processing unit 20, a DVD-ROM playback unit 24, a main memory 26, an input / output processing unit 30, and a controller 32. It is a known computer game system. Components other than the controller 32 are accommodated in the housing. [0018]
  • the node 12 is used for exchanging addresses and data among the units of the consumer game machine 11.
  • the microprocessor 14, the image processing unit 16, the main memory 26, and the input / output processing unit 30 are connected by a bus 12 so that mutual data communication is possible.
  • the microprocessor 14 controls each unit of the consumer game machine 11 based on an operating system stored in a ROM (not shown), a program read from the DVD-ROM 25, and data read from the memory card 28.
  • the main memory 26 includes, for example, RAM, and the program read from the DVD-ROM 25 and the data read from the memory card 28 are written as necessary.
  • the main memory 26 is also used for the work of the microphone processor 14.
  • the image processing unit 16 includes a VRAM and draws a game screen on the VRAM based on image data sent from 14 microprocessors. Then, the content is converted into a video signal and output to the monitor 18 at a predetermined timing.
  • the input / output processing unit 30 is an interface for the microprocessor 14 to access the audio processing unit 20, the DVD-ROM playback unit 24, the memory card 28, and the controller 32.
  • An audio processing unit 20, a DVD-ROM playback unit 24, a memory card 28, and a controller 32 are connected to the input / output processing unit 30.
  • the audio processing unit 20 includes a sound buffer, and reproduces various audio data such as game music, game sound effects, and messages read from the DVD-ROM 25 and stored in the sound buffer. Output from speaker 22.
  • the DVD-ROM playback unit 24 reads a program recorded on the DVD-ROM 25 in accordance with an instruction from the microprocessor 14. It should be noted that any other information storage medium such as a CD-ROM or ROM card may be used here in order to supply the program to the consumer game machine 11 using a DVD-ROM 25. Further, a remote geopower program may be supplied to the consumer game machine 11 via a data communication network such as the Internet.
  • the memory card 28 includes a nonvolatile memory (for example, EEPROM).
  • the home game machine 11 has a plurality of memory card slots for installing memory cards 28, and a plurality of memory cards 28 can be installed at the same time.
  • Memory card 28 The memory card slot is detachable and used for storing various game data such as save data.
  • the controller 32 is a general-purpose operation input means for the player to input various game operations.
  • the input / output processing unit 30 scans the state of each unit of the controller 32 at regular intervals (for example, every 1Z60 seconds), and passes an operation signal representing the scan result to the microprocessor 14 via the bus 12.
  • the microprocessor 14 determines the game operation of the player based on the operation signal.
  • the home-use game machine 11 is configured so that a plurality of controllers 32 can be connected, and based on an operation signal input from each controller 32, the micro-port processor 14 controls the game!
  • FIG. 2 is a diagram illustrating an example of the controller 32.
  • the controller 32 is connected to the consumer game machine 11 by a controller cable 48, and a direction button group 46 and a left operation stick 40 are provided on the left side of the surface 32a, and a button on the right side. Group 44 and right operation stick 42 are provided.
  • buttons 34L and 34R are provided on the left and right sides of the front surface 32a, respectively, and buttons 36L and 36R are provided on the left and right sides of the back side. Yes.
  • the left thumb is positioned on the direction button group 46 and the left operation stick 40
  • the right thumb is positioned on the button group 44 and the right operation stick 42.
  • at least one of the right index finger or middle finger is positioned on the button 34R, 36R
  • at least one of the left index finger or middle finger is positioned on the button 34L, 36L.
  • the direction button group 46, the button group 44, and the buttons 34L, 34R, 36L, and 36R are configured as pressure-sensitive buttons and include a pressure sensor.
  • 256 levels of digital values having values of 0 to 255 are input to the home game machine 11 according to the pressing force.
  • the button is not pressed in the case of the digital value input from the controller 32, and in the case of 255, the button is pressed at the maximum pressing force. Etc., so that the digital value can be judged.
  • the left operation stick 40 and the right operation stick 42 stand upright on the housing surface of the controller 32.
  • the stick-shaped operation member is tilted by a predetermined angle in all directions from this upright state.
  • the longitudinal direction of the housing of the controller 32 is the X-axis direction (the right direction is the positive direction in Fig. 2 (a)), and the housing depth direction is perpendicular to the X-axis direction.
  • the direction is the Y-axis direction (the front force is also the back direction in the figure (a) and the direction is the positive direction)
  • the posture of the left operation stick 40 (operating state) is tilted in the X-axis direction and the Y-axis direction.
  • the right operation stick 42 is the same as the left operation stick 40.
  • the home game machine 11 can grasp the current tilt state (posture) of the left operation stick 40 and the right operation stick 42.
  • the left operation stick 40 and the right operation stick 42 are also configured as pressure-sensitive buttons similar to the direction button group 46, the button group 44, etc., and can be pressed in the axial direction of the stick.
  • FIG. 3 is a diagram schematically showing this three-dimensional space.
  • a field object 51 is arranged in the virtual three-dimensional space 50 in parallel with the Xw-Zw plane.
  • a player object 52 is placed on the field object 51.
  • the player object 52 is an object that is an operation target of the player, and is an object whose position and posture change according to an operation signal input from the controller 32.
  • the player object 52 moves according to the operation content.
  • the player object 52 performs an action corresponding to the operation content.
  • objects other than the player object 52 are also arranged in the virtual three-dimensional space 50, but are omitted in the figure.
  • a virtual camera 54 is installed in the virtual 3D space 50.
  • a view of the space 50 is displayed on the monitor 18. That is, a state in which the direction indicated by the line-of-sight direction vector 58 is viewed from the viewpoint position 56 is displayed on the monitor 18.
  • the virtual camera 54 indicates that the distance from the reference position 53 (the distance on the Xw-Zw plane) is the predetermined distance r and the height from the field object 51 is the predetermined distance h. It is installed on the camera trajectory 59.
  • the reference position 53 is a position determined based on the position of the player object 52, for example, the foot position of the player object 52.
  • the position and posture of the virtual camera 54 can be changed by the player performing an operation on the right operation stick 42.
  • the operation mode for the virtual camera 54 a normal operation mode and a direction instruction operation mode are prepared! While the right operation stick 42 is pushed down in the axial direction, the direction instruction operation mode is set, and during the other times, the normal operation mode is set.
  • the normal operation mode when the right operation stick 42 is tilted left and right, the virtual camera 54 (viewpoint position 56) moves on the camera trajectory 59.
  • the virtual camera 54 is directed toward the player object 52 in the right direction (in FIG. 3) on the camera trajectory 59.
  • Move in the R direction For example, when the right operation stick 42 is tilted to the left (X-axis negative direction in FIG. 2A), the virtual camera 54 is directed on the camera trajectory 59 toward the player agitator 52 to the left (see FIG. Move in direction L in 3).
  • the line-of-sight direction vector 58 matches the direction vector from the viewpoint position 56 to the given gaze position (for example, the reference position 53).
  • the posture of the virtual camera 54 gaze direction vector 58
  • the line-of-sight vector 58 rotates about the viewpoint position 56 in the positive or negative direction of the Yw axis.
  • the gaze direction vector 58 is centered on the viewpoint position 56 and the Yw-axis positive direction as shown in FIG. Rotate to.
  • the line-of-sight vector 58 rotates about the viewpoint position 56 in the Yw-axis negative direction. In this case, the line-of-sight vector 58 rotates more than a predetermined angle in the positive or negative direction of the Yw axis. There are no restrictions.
  • the direction vector from the viewpoint position 56 to the reference position 53 is referred to as a reference line-of-sight direction vector 57
  • the angle between the line-of-sight direction vector 58 and the reference line-of-sight direction vector 57 is described as a vertical angle ⁇ yw.
  • the vertical angle ⁇ yw is “+10 degrees”.
  • the right operation stick 42 is tilted downward, and the line-of-sight vector 58 is 10 in the negative direction of the Yw axis around the viewpoint 56.
  • the vertical angle 0 yw is “-10 degrees”.
  • the direction instruction operation mode In the direction instruction operation mode, the position and posture of the virtual camera 54 are updated so as to face the direction of the virtual three-dimensional space 50 corresponding to the posture data input from the right operation stick 42.
  • FIG. 5 is a diagram showing determination criteria for posture data input by the right operation stick 42.
  • FIG. 6 shows determination results of posture data input by the right operation stick 42 in the virtual three-dimensional space 50. It is a figure which shows the correspondence with a direction.
  • the posture data input from the right operation stick 42 is classified into nine posture states. That is, the figure shows the XY plane.
  • the posture data (X, Y) is input by the right operation stick 42, it is in any region from “0” to “8” on the same plane. Is determined.
  • the “0” region is a circular region having a predetermined radius centered on the origin in the XY plane, and corresponds to the upright state of the right operation stick 42.
  • the “1” to “8” regions are the same size region.
  • the “1” region is defined as a “0” region from a 45-degree fan-shaped region that extends in the 0-degree direction on the XY plane (the Y-axis direction is 0 degree, and the clockwise direction is the positive direction, and so on). It corresponds to the state where the right operation stick 42 is tilted in the 0 degree direction.
  • the “2” region is a region obtained by removing the “0” region from the 45 ° fan-shaped region spreading in the 45 ° direction on the XY plane, and corresponds to the state in which the right operation stick 42 is tilted in the 45 ° direction.
  • the “3” region is the “0” region from the 45-degree fan-shaped region that extends 90 degrees in the XY plane. This corresponds to the state where the right operation stick 42 is tilted 90 degrees.
  • the “4” area is an area obtained by removing the “0” area from the 45-degree fan-shaped area extending in the 135-degree direction on the XY plane, and corresponds to the state in which the right operation stick 42 is tilted in the 135-degree direction.
  • the “5” area is an area obtained by removing the “0” area from the 45-degree fan-shaped area extending in the 180-degree direction on the XY plane, and corresponds to the state in which the right operation stick 42 is tilted in the 180-degree direction.
  • the “6” area is an area obtained by removing the “0” area from the 45-degree fan-shaped area that extends in the 225-degree direction on the XY plane, and corresponds to the state in which the right operation stick 42 is tilted in the 225-degree direction.
  • the “7” area is an area obtained by removing the “0” area from the 45 degree fan-shaped area that extends in the 270-degree direction on the XY plane, and corresponds to the state in which the right operation stick 42 is tilted in the 270-degree direction.
  • the "8" area is the area obtained by removing the "0" area from the 45 degree fan-shaped area that extends in the 315 degree direction across the XY plane, and corresponds to the state where the right operation stick 42 is tilted in the 315 degree direction.
  • n a state in which the posture data input by the right operation stick 42 is located in the “n” region on the XY plane.
  • each of the regions “1" to “8” includes directions “north”, “northeast”, “east”, “southeast”, “south”, “Southwest”, “West”, and “Northwest” are associated with each other.
  • the positive direction of the Zw axis is “north” and the positive direction of the Xw axis is “east”.
  • the virtual camera 54 is set to face “west” (FIG. 7). That is, the viewpoint position 56 is changed to “a position on the camera trajectory 59 and a position“ east ”from the reference position 53”.
  • the line-of-sight vector 58 is “rotates the direction vector from the viewpoint position 56 to the reference position 53 in the Yw axis direction around the viewpoint position 56 by the vertical angle 0 yw set in the normal operation mode. To match the “vector”. In this way, in the direction instruction operation mode, the player can instruct the virtual camera 54 to face a desired direction with a relatively simple operation.
  • FIG. 8 shows the determination criteria when the right operation stick 42 is tilted in the 270-degree direction (the state data input by the right operation stick 42 is included in the “7” region).
  • the “7” area is larger than each of the “1” to “6” and “8” areas, and the “1” to “6” and “8” areas are the same size. It is an area of the size.
  • the “7” region corresponding to the posture state of the right operation stick 42 is a region obtained by removing the “0” region from the 45 ° + ⁇ X2 fan-shaped region extending in the 270-degree direction on the XY plane. It is.
  • the area other than the “7” and “0” areas is an area obtained by removing the “0” area from the 45 °-( ⁇ X2) Z7 fan-shaped area.
  • Virtual camera 54 is set to face in the direction.
  • T1 and T2 may be the same time or different times. Below, T1 and T2 Are the same time.
  • the virtual camera 54 is directed to the direction instructed in the past by the player without tilting the right operation stick 42 by the player. This reduces the time and effort of the player trying to point the virtual camera 54 in the direction indicated in the past!
  • the virtual camera 54 is set based on the above information stored in the main memory 26. It has become so. In this way, the game apparatus 10 can smoothly return from the direction instruction operation mode to the normal operation mode.
  • FIG. 9 is a functional block diagram mainly showing functions related to the present invention among the functions realized in the game apparatus 10.
  • the game device 10 functionally includes a first virtual camera control unit 60, a second virtual camera control unit 62, a virtual camera control switching unit 64, a virtual camera state information storage unit 68, and display control. Part 70 is included. These functions are realized by the microprocessor 14 executing a program read from the DVD-ROM 25.
  • the virtual camera state information storage unit 68 is realized mainly with the main memory 26.
  • the virtual camera state information storage unit 68 stores information indicating the current position (viewpoint position 56) and posture (line-of-sight direction vector 58) of the virtual camera 54.
  • the virtual camera state information storage unit 68 stores information indicating the vertical angle ⁇ yw set in the normal operation mode.
  • the virtual camera control switching unit 64 is realized mainly by the microprocessor 14.
  • the virtual camera control switching unit 64 responds to a predetermined switching operation between a state in which the virtual camera 54 is controlled by the first virtual camera control unit 60 and a state in which the virtual camera 54 is controlled by the second virtual camera control unit 62. To switch. That is, the virtual camera control switching unit 64 is in the normal operation mode.
  • the angle instruction operation mode is switched according to a predetermined switching operation.
  • the “predetermined switching operation” in the present embodiment is a pressing operation of the right operation stick 42 in the axial direction.
  • the “predetermined switching operation” may be another operation. For example, the button 34R or the like may be pressed.
  • the first virtual camera control unit 60 is realized mainly by the microprocessor 14.
  • the first virtual force camera control unit 60 controls the virtual camera 54 in the normal operation mode.
  • the first virtual camera control unit 60 determines the orientation change direction of the virtual camera 54 based on the operation state of the controller 32, and aims to change the change direction from the current direction by a given angle.
  • the posture of the virtual camera 54 is changed to the target posture.
  • the first virtual camera control unit 60 determines the change direction of the posture of the virtual camera 54 based on the operation state of the right operation stick 42.
  • the first virtual camera control unit 60 starts from the state in which the virtual camera control switching unit 64 controls the virtual camera 54 by the first virtual camera control unit 60 (normal operation mode).
  • the camera control unit 62 switches to a state in which the virtual camera 54 is controlled (direction instruction operation mode)
  • information for specifying the viewpoint position 56 and the line-of-sight direction vector 58 at that time is stored in the main memory 26.
  • the first virtual camera control unit 60 is moved from the state in which the virtual camera 54 is controlled by the second virtual camera control unit 62 by the virtual camera control switching unit 64 (direction instruction operation mode).
  • the viewpoint position 56 and the line-of-sight direction vector 58 are set based on the above information stored in the main memory 26.
  • the second virtual camera control unit 62 is realized mainly by the microprocessor 14.
  • the second virtual force camera control unit 62 executes control of the virtual camera 54 in the direction instruction operation mode.
  • the second virtual camera control unit 62 determines the direction in the virtual three-dimensional space 50 based on the operation state of the controller 32, and changes the posture of the virtual camera 54 to a target posture that faces the direction.
  • the first virtual camera control unit 60 is based on the operation state of the right operation stick 42. Next, the direction in the virtual three-dimensional space 50 is determined.
  • the second virtual camera control unit 62 stores determination reference data indicating a determination reference for posture data input from the right operation stick 42.
  • determination reference data basic determination reference data
  • determination reference data when the posture data input from the right operation stick 42 is included in the area is stored. That is, for example, determination criterion data indicating the determination criterion as shown in FIG. 8 is stored for each of the regions “1” to “8”.
  • the second virtual camera control unit 62 determines the direction of the virtual three-dimensional space 50 corresponding to the posture data as the basis determination. Obtain based on reference data.
  • the second virtual camera control unit 62 uses the virtual three-dimensional space 50 corresponding to the posture data. Is obtained based on the judgment reference data corresponding to the area. Then, the second virtual camera control unit 62 changes the attitude of the virtual camera 54 so as to face the acquired direction.
  • the second virtual camera control unit 62 stores only the basic determination reference data, and sets the determination reference data corresponding to each of the areas “1” to “8” as the basic determination reference data. You can generate it based on the data.
  • the second virtual camera control unit 62 includes a direction history related information storage unit 66.
  • the direction history related information storage unit 66 is realized mainly by the main memory 26.
  • the direction history related information storage unit 66 stores direction history related information related to the history of “the direction of the virtual three-dimensional space 50 set so that the virtual camera 54 faces the second virtual camera control unit 62”.
  • direction history data (array data) as shown in FIG. 10 is stored.
  • This direction history data stores the past N directions instructed by the player tilting the right operation stick 42 in the direction instruction operation mode.
  • the direction instructed by the player is stored in the order of the direction instructed recently.
  • the second virtual camera control unit 62 makes a determination based on the direction history data according to a predetermined operation.
  • the posture of the virtual camera 54 is changed to the target posture that faces the direction in the virtual three-dimensional space 50 to be generated.
  • the display control unit 70 is realized mainly by the microprocessor 14 and the image processing unit 16.
  • the display control unit 70 sets the virtual camera 54 based on the contents stored in the virtual camera state information storage unit 68, and displays a game screen representing the virtual three-dimensional space 50 viewed from the virtual camera 54 on the monitor 18. Display.
  • the display control unit 70 reads, “From the viewpoint position 56 stored in the virtual camera state information storage unit 68 in the virtual three-dimensional space 50, the gaze direction vector 58 stored in the virtual camera state information storage unit 68.
  • a game screen indicating “looking at the direction shown” is displayed on the monitor 18.
  • FIG. 11 to FIG. 14 are flowcharts showing the processes related to the present invention among the processes executed every predetermined time in the game apparatus 10. The processing shown in the figure is realized by the program stored in the DVD-ROM 25 being executed by the microprocessor 14.
  • the virtual camera control switching unit 64 determines whether or not the right operation stick 42 is pressed in the axial direction (S101). That is, it is determined whether or not an operation signal indicating a pressing operation of the right operation stick 42 is input from the controller 32.
  • processing in the direction instruction operation mode (S102 to S121) is executed.
  • the processing in the normal operation mode (S122 to S127, S115) is executed.
  • the operation mode flag is information indicating whether the current operation mode of the virtual camera 54 is the normal operation mode or the direction instruction operation mode, and is stored in the main memory 26.
  • the operation mode flag takes a value of “0” or “1”, and is “0” in the normal operation mode and “1” in the direction instruction operation mode.
  • the state in which the right operation stick 42 is pressed and the operation mode flag is "0" is a state immediately after the right operation stick 42 is pressed. Initialization processing (S103 to S106) is executed.
  • variables t and i are initialized to “0” (S103).
  • the variable t is for measuring the time during which the right operation stick 42 is kept upright in the direction instruction operation mode (see S116 and S117).
  • the variable i is a numerical value serving as a basis for reading the direction from the direction history data (see FIG. 10) in S119 described later.
  • the current region ID is initialized to “0” (S 104).
  • the current area ID is the area ID of the area corresponding to the current tilting state of the right operation stick 42 and is stored in the main memory 26.
  • the current region ID is “0” to “8”, and it takes one of the values! /, (See FIGS. 5 and 8).
  • the viewpoint position 56 and the line-of-sight direction vector 58 (the position and orientation of the virtual camera 54) at that time are read from the virtual camera state information storage unit 68, and the viewpoint position 56 and the line-of-sight direction when the normal mode is resumed.
  • the vector 58 is stored in the main memory 26 (S105).
  • the operation mode flag is updated to “1” (S106).
  • the second virtual camera control is performed.
  • the control unit 62 determines whether or not the right operation stick 42 is in the upright state (S107). That is, it is determined whether or not the posture state force S of the right operation stick 42 is “0”.
  • the second virtual camera control unit 62 initializes the variables t and i to “0” (S108).
  • the second virtual camera control unit 62 acquires determination reference data corresponding to the current region ID (S109). For example, when the current region ID is “0”, determination criterion data indicating the criterion as shown in FIG. 5 is acquired. For example, when the current region ID is “7”, determination criterion data indicating the determination criterion as shown in FIG. 8 is acquired.
  • the second virtual camera control unit 62 acquires an area ID corresponding to the tilted state of the right operation stick 42 based on the determination reference data acquired in S109 (S110). That is, the second virtual camera control unit 62 determines whether the right operation stick 42 is tilted from the “1” state to the “8” state based on the attitude data of the right operation stick 42 output from the controller 32. Z Determine if it belongs to it.
  • the second virtual camera control unit 62 sets the current area ID stored in the main memory 26 in S110. Update to the acquired area ID (S112). Further, the second virtual camera control unit 62 acquires the direction corresponding to the area ID acquired in S110 based on the data shown in FIG. 6, and additionally registers it in the direction history data (see FIG. 10) (S113). . When N directions are already stored in the direction history data, the second virtual camera control unit 62 deletes the direction stored most recently, and additionally registers the direction obtained in S110.
  • the second virtual camera control unit 62 updates the viewpoint position 56 and the line-of-sight direction vector 58 (the position and orientation of the virtual camera 54) so as to face the direction corresponding to the current region ID (S11 4 ).
  • the second virtual camera control unit 62 calculates the viewpoint position 56. Specifically, the second virtual camera control unit 62 sets a position on the camera trajectory 59 that is a position “a direction opposite to the direction corresponding to the current region ID” from the reference position 53 as the viewpoint position 56. calculate.
  • the second virtual camera control unit 62 calculates a gaze direction vector 58. Specifically, the second virtual camera control unit 62 calculates a direction vector (reference gaze direction vector 57) from the calculated viewpoint position 56 to the reference position 53.
  • the second virtual camera control unit 62 reads the vertical angle 0 yw stored in the virtual camera state information storage unit 68. Then, the second virtual camera control unit 62 calculates, as the gaze direction vector 58, a vector obtained by rotating the reference gaze direction vector 57 about the calculated viewpoint position 56 by the vertical adjustment angle ⁇ y in the Yw axis direction. . The second virtual camera control unit 62 updates the viewpoint position 56 and the line-of-sight direction vector 58 stored in the virtual camera state information storage unit 68 to the viewpoint position 56 and the line-of-sight direction vector 58 calculated as described above.
  • the second virtual camera control unit 62 increments the variable t (S116). If the variable t is equal to or greater than T (Y in S117), the second virtual camera control unit 62 increments the variable i (S118), and the i-th of N directions stored in the direction history data. The direction is acquired (S119). Then, the second virtual camera control unit 62 updates the viewpoint position 56 and the line-of-sight direction vector 58 (position and orientation of the virtual camera 54) so as to face the direction acquired in S119 (S120). This Step processing is performed in the same manner as S114. Thereafter, the variable t is initialized to “0” (S121).
  • the viewpoint position 56 and the line-of-sight direction vector 58 stored as the viewpoint position 56 and the line-of-sight direction vector 58 at the time of resuming the normal operation mode when shifting from the normal operation mode to the direction instruction operation mode (see S 105). Is acquired from the main memory 26 (S123). Then, the first virtual camera control unit 60 updates the viewpoint position 56 and the line-of-sight direction vector 58 stored in the virtual camera state information storage unit 68 to the viewpoint position 56 and the line-of-sight direction vector 58 acquired in S123. (S124). Thereafter, the operation mode flag is updated to “0” (S 125).
  • the first virtual camera control unit 60 determines the right operation stick based on the posture data of the right operation stick 42 output from the controller 32. The 42 tilted state is acquired (S 126). Then, the first virtual camera control unit 60 updates the viewpoint position 56 and the line-of-sight direction vector 58 (the position and orientation of the virtual camera 54) based on the tilted state of the right operation stick 42 (S127).
  • the first virtual camera control unit 60 sets the current viewpoint position 56 to the virtual camera. Read from status information storage unit 68. Then, the first virtual camera control unit 60 reads “the position on the camera trajectory 59 and from the current viewpoint position 56 to the reference position 53 in the right direction (every 1 Z 60 seconds of the virtual camera 54). Is calculated as a new viewpoint position 56. Next, the first virtual camera control unit 60 calculates a gaze direction vector 58 at the new viewpoint position 56. First, the first virtual camera control unit 60 calculates a direction vector (reference gaze direction vector 57) from the new viewpoint position 56 to the reference position 53.
  • the first virtual camera control unit 60 is stored in the virtual camera state information storage unit 68.
  • the obtained vertical angle ⁇ yw is read out, and a vector obtained by rotating the reference visual direction vector 57 around the new viewpoint position 56 in the Yw axis direction by the vertical angle ⁇ yw is calculated as a new visual direction vector 58.
  • the first virtual camera control unit 60 updates the viewpoint position 56 and the line-of-sight direction vector 58 stored in the virtual camera state information storage unit 68 to the viewpoint position 56 and the line-of-sight direction vector 58 calculated as described above.
  • the same processing is executed when the right operation stick 42 is tilted leftward (X-axis negative direction in FIG. 2 (a)).
  • the first virtual camera control unit 60 displays the current virtual camera 54 current.
  • the vertical angle ⁇ yw is read from the virtual camera state information storage unit 68, and the vertical angle ⁇ yw stored in the virtual camera state information storage unit 68 is updated to ⁇ yw + ⁇ yw.
  • the first virtual camera control unit 60 reads the current viewpoint position 56 and the line-of-sight direction vector 58 of the virtual camera 54 from the virtual camera state information storage unit 68, and the current line-of-sight direction vector 5 8 around the viewpoint position 56.
  • a vector obtained by rotating the image by the vertical angle ⁇ yw in the Yw axis direction is calculated as a new gaze direction vector 58.
  • the first virtual camera control unit 60 updates the line-of-sight direction vector 58 stored in the virtual camera state information storage unit 68 to the newly calculated line-of-sight direction vector 58.
  • ⁇ yw indicates a predetermined increase / decrease angle every 1Z60 seconds. The same process is also performed when the right operation stick 42 is tilted downward (Y-axis negative direction in FIG. 2 (a)).
  • the display control unit 70 reads the viewpoint position 56 and the line-of-sight direction vector 58 from the virtual camera state information storage unit 68, and viewed the direction indicated by the line-of-sight direction vector 58 from the viewpoint position 56 in the virtual three-dimensional space 50.
  • a game screen representing the state is drawn on the VRAM (S115;).
  • the game screen drawn in the VRAM is displayed on the monitor 18 at a predetermined timing.
  • the player can place the right operation stick 42 in the desired direction when the desired direction in the virtual three-dimensional space 50 is lost.
  • the virtual camera 54 can be directed in a desired direction. That is, the player can point the virtual camera 54 in a desired direction in the virtual three-dimensional space 50 with a relatively simple operation. Note that the present invention is not limited to the embodiment described above.
  • the direction history data may store the vertical angle 0 yw set at that time along with the direction. Then, in the processing of S119 and S120, the second virtual camera control unit 62 may obtain the vertical angle ⁇ yw along with the direction, and update the viewpoint position 56 and the line-of-sight direction vector 58 based on these. ,.
  • the virtual camera 54 may be directed in the direction to be directed.
  • the virtual camera is set in the direction determined based on the direction history data when the number of times instructed by the player is the second largest. 54 may be directed.
  • the virtual camera 54 is directed in turn in the direction force determined based on the direction history data when the number of times instructed by the player is large. Please do it.
  • the direction history related information stored in the direction history related information storage unit 66 includes the direction and the total time that the virtual camera 54 was directed to that direction in the direction instruction operation mode.
  • the information may be associated with each other.
  • the direction instruction operation mode when the upright state of the right operation stick 42 continues for a predetermined time, the virtual camera 54 may be directed to the direction having the longest total time. Further, from this state, if the upright state of the right operation stick 42 continues for a predetermined time, the virtual camera 54 may be directed in the direction of the next longest total time. In this way, each time the right operation stick 42 is in the upright state for a predetermined time, the virtual camera 54 may be directed toward the direction force having a longer total time.
  • the present invention can be applied to a so-called first-person game.
  • the program is supplied from the DVD-ROM 25 serving as an information storage medium to the consumer game machine 11, but the program may be distributed to a home or the like via a communication network.
  • Figure 15 shows a program distribution system using a communication network. It is a figure which shows the whole structure of a system.
  • the program distribution method according to the present invention will be described with reference to FIG.
  • the program distribution system 100 includes a game database 102, a server 104, a communication network 106, a personal computer 108, a consumer game machine 110, and a PDA (personal digital assistant) 112.
  • the game database 102 and the server 104 constitute a program distribution device 114.
  • the communication network 106 includes, for example, the Internet and a cable television network.
  • a game database (information storage medium) 102 stores a program similar to the storage content of the DVD-ROM 25. Then, when a consumer makes a game distribution request using the personal computer 108, the home game machine 110, the PDA 112, or the like, it is transmitted to the server 104 via the communication network 106. Then, the server 104 reads the program from the game database 102 in response to the game distribution request, and transmits it to the game distribution request source such as the personal computer 108, the home game machine 110, the PDA 112 or the like.
  • the power server 104 configured to deliver a game in response to a game delivery request may be unilaterally transmitted.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

 プレイヤが比較的簡易な操作で仮想カメラを仮想3次元空間の所望の方角に向けさせることが可能になるゲーム装置を提供する。  本発明は仮想3次元空間に仮想カメラを配置し、仮想3次元空間を仮想カメラから見た様子を表示するゲーム装置に関するものである。第1仮想カメラ制御部(60)は、操作手段の操作状態に基づいて仮想カメラの姿勢の変化方向を判断し、その変化方向に所与の角度だけ現在の方向から変化した方向を向く姿勢に、仮想カメラの姿勢を変更する。第2仮想カメラ制御部(62)は、操作手段の操作状態に基づいて仮想3次元空間における方角を判断し、その方角を向く姿勢に、仮想カメラの姿勢を変更する。仮想カメラ制御切替部(64)は、第1仮想カメラ制御部(60)によって仮想カメラが制御される状態と、第2仮想カメラ制御部(62)によって仮想カメラが制御される状態と、を所定切替操作に応じて切り替える。

Description

明 細 書
ゲーム装置、ゲーム装置の制御方法及び情報記憶媒体
技術分野
[0001] 本発明はゲーム装置、ゲーム装置の制御方法及び情報記憶媒体に関する。
背景技術
[0002] 仮想 3次元空間に仮想カメラを設置し、この仮想カメラから仮想 3次元空間を見た様 子をゲーム画像として表示するゲーム装置が知られて 、る。このようなゲーム装置で は、プレイヤが例えば方向キーや操作スティック等を操作することによって、仮想カメ ラの位置や姿勢を変更できるようにすることが一般的に行われている。
特許文献 1 :特開平 7— 116343号公報
発明の開示
発明が解決しょうとする課題
[0003] し力しながら、以上のようなゲーム装置では、仮想カメラが仮想 3次元空間のどの方 角を向いて 、るのかをプレイヤが分力もなくなってしまう場合がある。その結果として 、プレイヤは仮想カメラを所望の方角に向けることが困難になってしまう場合がある。
[0004] 本発明は上記課題に鑑みてなされたものであって、その目的は、プレイヤが比較的 簡易な操作で仮想カメラを仮想 3次元空間の所望の方角に向けさせることが可能に なるゲーム装置、ゲーム装置の制御方法及び情報記憶媒体を提供することにある。 課題を解決するための手段
[0005] 上記課題を解決するために、本発明に係るゲーム装置は、仮想 3次元空間に仮想 カメラを配置し、前記仮想 3次元空間を前記仮想カメラから見た様子を表示するゲー ム装置において、操作手段の操作状態に基づいて前記仮想カメラの姿勢の変化方 向を判断し、その変化方向に所与の角度だけ現在の方向から変化した方向を向く姿 勢に、前記仮想カメラの姿勢を変更する第 1仮想カメラ制御手段と、前記操作手段の 操作状態に基づいて前記仮想 3次元空間における方角を判断し、その方角を向く姿 勢に、前記仮想カメラの姿勢を変更する第 2仮想カメラ制御手段と、前記第 1仮想力 メラ制御手段によって前記仮想カメラが制御される状態と、前記第 2仮想カメラ制御 手段によって前記仮想カメラが制御される状態と、を所定切替操作に応じて切り替え る仮想カメラ制御切替手段と、を含むことを特徴とする。
[0006] また、本発明に係るゲーム装置の制御方法は、仮想 3次元空間に仮想カメラを配置 し、前記仮想 3次元空間を前記仮想カメラから見た様子を表示するゲーム装置の制 御方法において、操作手段の操作状態に基づいて前記仮想カメラの姿勢の変化方 向を判断し、その変化方向に所与の角度だけ現在の方向から変化した方向を向く姿 勢に、前記仮想カメラの姿勢を変更する第 1仮想カメラ制御ステップと、前記操作手 段の操作状態に基づいて前記仮想 3次元空間における方角を判断し、その方角を 向く姿勢に、前記仮想カメラの姿勢を変更する第 2仮想カメラ制御ステップと、前記第 1仮想カメラ制御ステップによって前記仮想カメラが制御される状態と、前記第 2仮想 カメラ制御ステップによって前記仮想カメラが制御される状態と、を所定切替操作に 応じて切り替える仮想カメラ制御切替ステップと、を含むことを特徴とする。
[0007] また、本発明に係るプログラムは、仮想 3次元空間に仮想カメラを配置し、前記仮想 3次元空間を前記仮想カメラから見た様子を表示するゲーム装置として、例えば家庭 用ゲーム機、業務用ゲーム機、携帯用ゲーム機、携帯電話機、パーソナルコンビュ ータ、サーバコンピュータ等のコンピュータを機能させるためのプログラムであって、 操作手段の操作状態に基づいて前記仮想カメラの姿勢の変化方向を判断し、その 変化方向に所与の角度だけ現在の方向力 変化した方向を向く姿勢に、前記仮想 カメラの姿勢を変更する第 1仮想カメラ制御手段、前記操作手段の操作状態に基づ いて前記仮想 3次元空間における方角を判断し、その方角を向く姿勢に、前記仮想 カメラの姿勢を変更する第 2仮想カメラ制御手段、及び、前記第 1仮想カメラ制御手 段によって前記仮想カメラが制御される状態と、前記第 2仮想カメラ制御手段によつ て前記仮想カメラが制御される状態と、を所定切替操作に応じて切り替える仮想カメ ラ制御切替手段、として前記コンピュータを機能させるためのプログラムである。
[0008] また、本発明に係る情報記憶媒体は、上記プログラムを記録したコンピュータ読み 取り可能な情報記憶媒体である。また、本発明に係るプログラム配信装置は、上記プ ログラムを記録した情報記憶媒体を備え、当該情報記憶媒体から上記プログラムを 読み出し、配信するプログラム配信装置である。また、本発明に係るプログラム配信 方法は、上記プログラムを記録した情報記憶媒体を備え、当該情報記憶媒体から上 記プログラムを読み出し、配信するプログラム配信方法である。
[0009] 本発明は、仮想 3次元空間に仮想カメラを配置し、前記仮想 3次元空間を前記仮想 カメラから見た様子を表示するゲーム装置に関するものである。本発明では、操作手 段の操作状態に基づいて仮想カメラの姿勢の変化方向を判断し、その変化方向に 所与の角度だけ現在の方向から変化した方向を向く姿勢に、仮想カメラの姿勢が変 更される (第 1仮想カメラ制御状態)。また、本発明では、操作手段の操作状態に基 づいて仮想 3次元空間における方角を判断し、その方角を向く姿勢に、仮想カメラの 姿勢が変更される (第 2仮想カメラ制御状態)。そして、本発明では、第 1仮想カメラ制 御状態と第 2仮想カメラ制御状態とが所定切替操作に応じて切り替えられる。本発明 によれば、プレイヤが比較的簡易な操作で仮想カメラを仮想 3次元空間の所望の方 角に向けさせることが可能になる。
[0010] 本発明の一態様では、前記第 1仮想カメラ制御手段は、前記仮想カメラ制御切替 手段によって、前記第 1仮想カメラ制御手段によって前記仮想カメラが制御される状 態から、前記第 2仮想カメラ制御手段によって前記仮想カメラが制御される状態に切 り替えられる場合、その時点における前記仮想カメラの姿勢を特定する姿勢特定情 報を記憶手段に記憶させる手段と、前記仮想カメラ制御切替手段によって、前記第 2 仮想カメラ制御手段によって前記仮想カメラが制御される状態から、前記第 1仮想力 メラ制御手段によって前記仮想カメラが制御される状態に切り替えられる場合、前記 記憶手段に記憶される姿勢特定情報に基づいて前記仮想カメラの姿勢を設定する 手段と、を含むようにしてもよい。こうすれば、第 2仮想カメラ制御手段によって仮想力 メラが制御される状態から、第 1仮想カメラ制御手段によって仮想カメラが制御される 状態に復帰した場合に、プレイヤが力かる状態の下でのゲームを速やかに開始でき るよつになる。
[0011] 本発明の一態様では、前記第 2仮想カメラ制御手段は、該第 2仮想カメラ制御手段 によって前記仮想カメラが向くように設定された方角の履歴に関する方角履歴関連 情報を記憶する手段と、所定操作に応じて、前記仮想 3次元空間における方角を前 記方角履歴関連情報に基づいて判断し、その方角を向く姿勢に、前記仮想カメラの 姿勢を変更する手段と、を含むようにしてもよい。こうすれば、「第 2仮想カメラ制御手 段によって仮想カメラが向けられたことがある方角」に仮想カメラを向けようとするプレ ィャの手間を軽減できるようになる。
[0012] 本発明の一態様では、前記操作手段の操作状態に応じた操作値を取得する操作 値取得手段を含み、前記第 2仮想カメラ制御手段は、互いに重複しない複数の操作 値範囲の各々に、前記仮想 3次元空間における複数の方角のいずれかを対応づけ て記憶する手段と、前記操作値取得手段によって取得された操作値が前記複数の 操作値範囲のいずれかに含まれるカゝ否かを判定する判定手段と、を含み、前記操作 値取得手段によって取得された操作値が前記複数の操作値範囲のいずれかに含ま れると判定された場合、該操作値範囲に対応づけられた方角を向く姿勢に、前記仮 想カメラの姿勢を変更し、前記判定手段は、前記操作値取得手段によって取得され た操作値が前記複数の操作値範囲の!/、ずれかに含まれると判定した場合、該操作 値範囲を広げるとともに前記複数の操作値範囲のうちの他の操作値範囲を狭めるよ う前記複数の操作値範囲を変更し、前記操作値取得手段によって取得された操作 値が前記複数の操作値範囲の 、ずれかに含まれるか否かを、変更後の前記複数の 操作値範囲に基づいて判定するようにしてもよい。操作手段の操作状態に応じた操 作値が操作値範囲間の境界付近で変化する場合、仮想カメラの姿勢変更が頻発し てしまうおそれがあるが、こうすることにより、かかる不具合の発生を抑止できるように なる。
[0013] 本発明の一態様では、前記第 1仮想カメラ制御手段は、前記操作手段に含まれる 操作スティックの傾倒方向に基づ 、て前記仮想カメラの姿勢の変化方向を判断し、 その変化方向に所与の角度だけ現在の方向から変化した方向を向く姿勢に、前記 仮想カメラの姿勢を変更し、前記第 2仮想カメラ制御手段は、前記操作スティックの傾 倒方向に基づいて前記仮想 3次元空間における方角を判断し、その方角を向く姿勢 に、前記仮想カメラの姿勢を変更し、前記所定切替操作は、前記操作スティックの軸 方向への押下操作であってもよい。こうすれば、仮想カメラの姿勢を変更するための 操作と上記所定切替操作とを一つの操作部材で好適に行えるようになる。
図面の簡単な説明 [0014] [図 1]本実施の形態に係るゲーム装置のハードウ ア構成を示す図である。
[図 2]コントローラの一例を示す図である。
[図 3]仮想 3次元空間の一例を示す斜視図である。
[図 4]視線方向ベクトルの Yw軸方向の回転について示す図である。
[図 5]右操作スティックの姿勢判定基準を示す図である。
[図 6]右操作スティックの姿勢と仮想 3次元空間における方角との対応関係を表すデ ータを示す図である。
[図 7]仮想 3次元空間の一例を示す斜視図である。
[図 8]右操作スティックの姿勢判定基準を示す図である。
[図 9]本実施の形態に係るゲーム装置の機能ブロック図である。
[図 10]方角履歴データの一例を示す図である。
[図 11]ゲーム装置で実行される処理について示すフロー図である。
[図 12]ゲーム装置で実行される処理について示すフロー図である。
[図 13]ゲーム装置で実行される処理について示すフロー図である。
[図 14]ゲーム装置で実行される処理について示すフロー図である。
[図 15]本発明の他の実施形態に係るプログラム配信システムの全体構成を示す図で ある。
発明を実施するための最良の形態
[0015] 以下、本発明の実施形態の一例について図面に基づき詳細に説明する。
[0016] 図 1は、本発明の実施形態に係るゲーム装置のハードウェア構成を示す図である。
同図に示すゲーム装置 10は、家庭用ゲーム機 11に情報記憶媒体たる DVD—RO M25及びメモリカード 28が装着され、さらにモニタ 18及びスピーカ 22が接続される ことによって構成される。例えば、モニタ 18には家庭用テレビ受像機が用いられ、ス ピー力 22にはその内蔵スピーカが用いられる。
[0017] 家庭用ゲーム機 11は、バス 12、マイクロプロセッサ 14、画像処理部 16、音声処理 部 20、 DVD— ROM再生部 24、主記憶 26、入出力処理部 30及びコントローラ 32を 含んで構成される公知のコンピュータゲームシステムである。コントローラ 32以外の 構成要素は筐体内に収容される。 [0018] ノ ス 12はアドレス及びデータを家庭用ゲーム機 11の各部でやり取りするためのも のである。マイクロプロセッサ 14、画像処理部 16、主記憶 26及び入出力処理部 30 は、バス 12によって相互データ通信可能に接続される。
[0019] マイクロプロセッサ 14は、図示しない ROMに格納されるオペレーティングシステム 、 DVD—ROM25から読み出されるプログラムや、メモリカード 28から読み出される データに基づいて、家庭用ゲーム機 11の各部を制御する。主記憶 26は、例えば RA Mを含んで構成されるものであり、 DVD—ROM25から読み出されたプログラムゃメ モリカード 28から読み出されたデータが必要に応じて書き込まれる。主記憶 26はマ イク口プロセッサ 14の作業用としても用いられる。
[0020] 画像処理部 16は VRAMを含んで構成されており、マイクロプロセッサ 14カゝら送ら れる画像データに基づいて VRAM上にゲーム画面を描画する。そして、その内容を ビデオ信号に変換して所定のタイミングでモニタ 18に出力する。
[0021] 入出力処理部 30は、音声処理部 20、 DVD— ROM再生部 24、メモリカード 28及 びコントローラ 32にマイクロプロセッサ 14がアクセスするためのインタフェースである。 入出力処理部 30には、音声処理部 20、 DVD— ROM再生部 24、メモリカード 28及 びコントローラ 32が接続される。
[0022] 音声処理部 20はサウンドバッファを含んで構成されており、 DVD— ROM25から 読み出され、該サウンドバッファに記憶されたゲーム音楽、ゲーム効果音、メッセージ 等の各種音声データを再生してスピーカ 22から出力する。
[0023] DVD— ROM再生部 24は、マイクロプロセッサ 14からの指示に従って DVD—RO M25に記録されたプログラムを読み取る。なお、ここではプログラムを家庭用ゲーム 機 11に供給するために DVD— ROM25を用いることとする力 CD— ROMや ROM カード等、他のあらゆる情報記憶媒体を用いるようにしてもよい。また、インターネット 等のデータ通信網を介して遠隔地力 プログラムを家庭用ゲーム機 11に供給するよ うにしてもよい。
[0024] メモリカード 28は、不揮発性メモリ(例えば EEPROM等)を含んで構成される。家 庭用ゲーム機 11は、メモリカード 28を装着するための複数のメモリカードスロットを備 えており、複数のメモリカード 28を同時に装着可能となっている。メモリカード 28は、 このメモリカードスロットに対して脱着可能に構成され、例えばセーブデータなどの各 種ゲームデータを記憶させるために用いられる。
[0025] コントローラ 32は、プレイヤが各種ゲーム操作の入力をするための汎用操作入力手 段である。入出力処理部 30は一定周期ごと(例えば 1Z60秒ごと)にコントローラ 32 の各部の状態をスキャンし、そのスキャン結果を表す操作信号をバス 12を介してマイ クロプロセッサ 14に渡す。マイクロプロセッサ 14は、その操作信号に基づいてプレイ ャのゲーム操作を判定する。家庭用ゲーム機 11は複数のコントローラ 32を接続可能 に構成されており、各コントローラ 32から入力される操作信号に基づいて、マイクロプ 口セッサ 14がゲーム制御を行うようになって!/、る。
[0026] 図 2は、コントローラ 32の一例を示す図である。同図(a)に示すように、コントローラ 3 2は、コントローラケーブル 48によって家庭用ゲーム機 11に接続され、表面 32aの左 側に方向ボタン群 46及び左操作スティック 40が設けられ、右側にボタン群 44及び右 操作スティック 42が設けられている。また、同図(b)に示すように、コントローラ 32の奥 側側面には、表面 32a側左右にボタン 34L, 34Rがそれぞれ設けられており、裏面 側左右にボタン 36L, 36Rがそれぞれ設けられている。そして、コントローラ 32の筐 体左右をプレイヤが両手で持つと、左手親指が方向ボタン群 46及び左操作ステイツ ク 40に位置し、右手親指がボタン群 44及び右操作スティック 42に位置するようにな つており、右手人指し指又は中指のいずれか少なくとも一方がボタン 34R, 36Rに位 置し、左手人指し指又は中指のいずれか少なくとも一方がボタン 34L, 36Lに位置 するようになっている。
[0027] 方向ボタン群 46、ボタン群 44、ボタン 34L, 34R, 36L, 36Rは感圧ボタンとして構 成されており、圧力センサを備えている。そして、これらのボタンをプレイヤが押下す ると、その押圧力に応じて 0〜255の値を有する 256段階のディジタル値が家庭用ゲ ーム機 11に入力されるようになっている。つまり、家庭用ゲーム機 11では、コントロー ラ 32から入力されるディジタル値力^の場合にはそのボタンが押下されておらず、 25 5の場合には最大押圧力でボタンが押下されていること等を該ディジタル値力 判断 できるようになつている。
[0028] 左操作スティック 40及び右操作スティック 42は、コントローラ 32の筐体表面に直立 したスティック状の操作部材であり、この直立状態から全方位に所定角度だけ傾倒自 在となっている。図 2 (a)に示すように、コントローラ 32の筐体長手方向を X軸方向(同 図(a)において右方向を正方向とする。)とし、この X軸方向に直交する筐体奥行き方 向を Y軸方向(同図(a)において手前力も奥に向力 方向を正方向とする。 )とすると 、左操作スティック 40の姿勢 (操作状態)は、 X軸方向及び Y軸方向の傾き(姿勢デ ータ(X, Y) )として、それぞれ— 127〜+ 128のディジタル値が家庭用ゲーム機 11 に入力されるようになっている。具体的には、 X=0は、左操作スティック 40が X軸方 向に傾いていないことを示す。また、 X= + 128は、左操作スティック 40が X軸の正方 向(同図(a)において右方向)に限界まで倒れていることを示す。さらに、 X=— 127 は、左操作スティック 40が X軸の負方向(同図(a)において左方向)に限界まで倒れ ていることを示す。 Y軸方向についても同様である。また、右操作スティック 42につい ても左操作スティック 40の場合と同様である。こうして、家庭用ゲーム機 11では、左 操作スティック 40及び右操作スティック 42の現在の傾き状態(姿勢)を把握できるよう になっている。また、左操作スティック 40及び右操作スティック 42は、方向ボタン群 4 6やボタン群 44等と同様の感圧ボタンとしても構成されており、スティックの軸方向に 押下できるようになって 、る。
[0029] 以上のハードウェア構成を有するゲーム装置 10では、仮想 3次元空間(3次元ゲー ム空間)が主記憶 26に構築される。図 3は、この 3次元空間を模式的に示す図である 。同図に示すように、仮想 3次元空間 50にはフィールドオブジェクト 51が Xw—Zw平 面に平行に配置される。フィールドオブジェクト 51上にはプレイヤオブジェクト 52が 配置される。プレイヤオブジェクト 52はプレイヤの操作対象であるオブジェクトであり、 コントローラ 32から入力される操作信号に応じて位置や姿勢が変化するオブジェクト である。本実施の形態では、プレイヤが方向ボタン群 46や左操作スティック 40に対 する操作を行うと、その操作内容に応じてプレイヤオブジェクト 52が移動するようにな つている。また、プレイヤがボタン群 44に対する操作を行うと、その操作内容に応じた 動作をプレイヤオブジェクト 52が行うようになっている。なお、仮想 3次元空間 50には プレイヤオブジェクト 52以外のオブジェクトも配置されるが、同図では省略している。
[0030] 仮想 3次元空間 50には仮想カメラ 54が設置され、この仮想カメラ 54から仮想 3次元 空間 50を見た様子がモニタ 18に表示される。すなわち、視点位置 56から視線方向 ベクトル 58の示す方向を見た様子がモニタ 18に表示される。本実施の形態では、仮 想カメラ 54は、「基準位置 53からの距離 (Xw—Zw平面上の距離)が所定距離 rであ り、かつ、フィールドオブジェクト 51からの高さが所定距離 hである」ようなカメラ軌道 5 9上に設置される。ここで、基準位置 53はプレイヤオブジェクト 52の位置に基づいて 決定される位置であり、例えばプレイヤオブジェクト 52の足元位置である。
[0031] 本実施の形態では、プレイヤが右操作スティック 42に対する操作を行うことによって 、仮想カメラ 54の位置や姿勢を変更できるようになつている。本実施の形態では、仮 想カメラ 54に対する操作モードとして、通常操作モードと方角指示操作モードとが用 意されて!、る。右操作スティック 42が軸方向に押下されて ヽる間は方角指示操作モ ードとなり、それ以外の間は通常操作モードとなるようになつている。
[0032] まず、通常操作モードにつ!、て説明する。通常操作モードでは、右操作スティック 4 2が左右に傾倒されると、仮想カメラ 54 (視点位置 56)がカメラ軌道 59上を移動する 。例えば、右操作スティック 42が右方向(図 2 (a)における X軸正方向)に傾倒される と、仮想カメラ 54は、カメラ軌道 59上をプレイヤオブジェクト 52に向力つて右方向(図 3における R方向)に移動する。また例えば、右操作スティック 42が左方向(図 2 (a)に おける X軸負方向)に傾倒されると、仮想カメラ 54は、カメラ軌道 59上をプレイヤォブ ジヱタト 52に向力つて左方向(図 3における L方向)に移動する。この場合、仮想カメ ラ 54の位置 (視点位置 56)が変化するのに伴って、視線方向ベクトル 58が視点位置 56から所与の注視位置(例えば基準位置 53)への方向ベクトルに一致するように、 仮想カメラ 54の姿勢 (視線方向ベクトル 58)が変化するようになって!/、る。
[0033] また、通常操作モードでは、右操作スティック 42が上下に傾倒されると、視線方向 ベクトル 58が視点位置 56を中心として Yw軸の正又は負方向に回転する。例えば、 右操作スティック 42が上方向(図 2 (a)における Y軸正方向)に傾倒されると、図 4に 示すように、視線方向ベクトル 58が視点位置 56を中心として Yw軸の正方向に回転 する。同様に、右操作スティック 42が下方向(図 2 (a)における Y軸負方向)に傾倒さ れると、視線方向ベクトル 58が視点位置 56を中心として Yw軸の負方向に回転する 。この場合、視線方向ベクトル 58は Yw軸の正又は負の方向に所定角度以上回転し ないように制限される。
[0034] 以下では、視点位置 56から基準位置 53への方向ベクトルを基準視線方向ベクトル 57と記載し、視線方向ベクトル 58と基準視線方向ベクトル 57との間の角度を上下角 Θ ywと記載する。例えば、視線方向ベクトル 58が基準視線方向ベクトル 57に一致 する状態において、右操作スティック 42が上方向に傾倒され、視線方向ベクトル 58 が視点位置 56を中心として Yw軸の正方向に 10度だけ回転された場合には、上下 角 Θ ywは「 + 10度」となる。また例えば、視線方向ベクトル 58が基準視線方向べタト ル 57に一致する状態において、右操作スティック 42が下方向に傾倒され、視線方向 ベクトル 58が視点位置 56を中心として Yw軸の負方向に 10度だけ回転された場合 には、上下角 0 ywは「— 10度」となる。
[0035] 次に、方角指示操作モードについて説明する。方角指示操作モードでは、右操作 スティック 42から入力される姿勢データに対応する仮想 3次元空間 50の方角を向く ように、仮想カメラ 54の位置及び姿勢が更新される。
[0036] 図 5は、右操作スティック 42によって入力される姿勢データの判定基準を示す図で あり、図 6は、右操作スティック 42によって入力される姿勢データの判定結果と仮想 3 次元空間 50における方角との対応関係を示す図である。
[0037] 図 5に示すように、右操作スティック 42から入力される姿勢データが 9つの姿勢状態 に分類される。すなわち、同図は XY平面を示しており、右操作スティック 42により姿 勢データ(X, Y)が入力されると、それが同平面において「0」〜「8」のいずれの領域 内であるかが判断される。ここで、 「0」領域は、 XY平面において原点を中心とする所 定半径の円形領域であり、右操作スティック 42の直立状態に対応する。また、「1」〜 「8」領域は同じ大きさの領域になっている。
[0038] 「1」領域は、 XY平面において 0度方向(Y軸方向を 0度とし、時計回りを正方向とす る。以下同様。 )に広がる 45度の扇状領域から「0」領域を除いた領域であり、右操作 スティック 42を 0度方向に倒した状態に対応する。
「2」領域は、 XY平面において 45度方向に広がる 45度の扇状領域から「0」領域を 除いた領域であり、右操作スティック 42を 45度方向に傾倒させた状態に対応する。 「3」領域は、 XY平面において 90度方向に広がる 45度の扇状領域から「0」領域を 除いた領域であり、右操作スティック 42を 90度方向に傾倒させた状態に対応する。 「4」領域は、 XY平面にぉ 、て 135度方向に広がる 45度の扇状領域から「0」領域 を除いた領域であり、右操作スティック 42を 135度方向に傾倒させた状態に対応す る。
「5」領域は、 XY平面にぉ 、て 180度方向に広がる 45度の扇状領域から「0」領域 を除いた領域であり、右操作スティック 42を 180度方向に傾倒させた状態に対応す る。
「6」領域は、 XY平面にぉ 、て 225度方向に広がる 45度の扇状領域から「0」領域 を除いた領域であり、右操作スティック 42を 225度方向に傾倒させた状態に対応す る。
「7」領域は、 XY平面にぉ 、て 270度方向に広がる 45度の扇状領域から「0」領域 を除いた領域であり、右操作スティック 42を 270度方向に傾倒させた状態に対応す る。
「8」領域は、 XY平面にぉ 、て 315度方向に広がる 45度の扇状領域から「0」領域 を除 、た領域であり、右操作スティック 42を 315度方向に傾倒させた状態に対応す る。
以下では、右操作スティック 42により入力される姿勢データが XY平面において「n」 領域に位置する状態を「n」状態と記載する。
[0039] また図 6に示すように、「1」〜「8」の各領域には仮想 3次元空間 50における方角「 北」、「北東」、「東」、「南東」、「南」、「南西」、「西」、「北西」がそれぞれ対応づけられ ている。なお、本実施の形態では Zw軸の正方向を「北」とし、 Xw軸の正方向を「東」 とする。
[0040] 例えば、プレイヤが右操作スティック 42を 270度方向に傾倒させると、仮想カメラ 54 は「西」を向くように設定される(図 7)。すなわち、視点位置 56は、「カメラ軌道 59上の 位置であって、かつ、基準位置 53から『東』の位置」に変更される。また、視線方向べ タトル 58は、「視点位置 56から基準位置 53への方向ベクトルを、視点位置 56を中心 として Yw軸方向に、通常操作モード時において設定された上下角 0 ywだけ回転さ せてなるベクトル」に一致するように変更される。 [0041] このように、方角指示操作モードでは、プレイヤが比較的簡易な操作で仮想カメラ 5 4に所望の方角を向くように指示することが可能になって 、る。
[0042] なお、右操作スティック 42がある方向に傾倒された状態では、右操作スティック 42 によって入力される姿勢データの判定基準が変化するようになっている。具体的には 、右操作スティック 42の姿勢状態に対応する領域が広がり、他の領域が狭まるよう〖こ なっている。図 8は、右操作スティック 42が 270度方向に傾倒された状態 (右操作ス ティック 42によって入力される姿勢データが「7」領域に含まれる状態)における判定 基準を示している。同図に示すように、「7」領域は「1」〜「6」, 「8」領域の各々よりも 大きい領域となっており、「1」〜「6」, 「8」領域は同じ大きさの領域となっている。具体 的には、右操作スティック 42の姿勢状態に対応する「7」領域は、 XY平面において 2 70度方向に広がる 45度 + Δ θ X 2の扇状領域から「0」領域を除いた領域となって いる。また、「7」及び「0」領域以外の領域は、 45度—(Δ θ X 2) Z7の扇状領域から 「0」領域を除いた領域となっている。この状態において、右操作スティック 42によって 入力される姿勢データが「0」及び「7」領域以外の領域に含まれるように、右操作ステ イツク 42が傾倒されると、その領域に対応づけられた方角を向くように仮想カメラ 54 が設定される。
[0043] 右操作スティック 42によって入力される姿勢データが領域間の境界付近で変化す ると、仮想カメラ 54の位置及び姿勢の変更が頻発してしまうおそれがある。この点、 方角指示操作モードでは以上のようになって!/、ることにより、そのような不具合の発生 が抑止されるようになって!/、る。
[0044] また、方角指示操作モードでは、プレイヤによって指示された方角の履歴が記憶さ れるようになっている。そして、右操作スティック 42の直立状態が所定時間 (T1)継続 されると、一番最後に指示された方角に仮想カメラ 54が向けられるようになって!/、る。 また、右操作スティック 42の直立状態がさらに所定時間 (T2)継続されると、一番最 後に指示された方角の前に指示された方角に仮想カメラ 54が向けられるようになつ ている。以降、右操作スティック 42の直立状態が所定時間 (T2)継続されるごとに、 一つ前に指示された方角に仮想カメラ 54が向けられるようになつている。ここで、 T1 と T2は同じ時間であってもよいし、異なる時間であってもよい。以下では、 T1と T2と は同じ時間であることとする。
[0045] このように、方角指示操作モードでは、プレイヤが右操作スティック 42を傾倒させな くても、プレイヤによって過去に指示された方角に仮想カメラ 54が向けられるようにな つている。このため、過去に指示した方角に仮想カメラ 54を向けようとするプレイヤの 手間が軽減されるようになって!/、る。
[0046] また、通常操作モードから方角指示操作モードに移行する際には、その時点にお ける視点位置 56及び視線方向ベクトル 58を示す情報が主記憶 26に記憶されるよう になっている。そして、右操作スティック 42の軸方向への押下が解除され、方角指示 操作モードから通常操作モードに復帰する場合には、主記憶 26に記憶される上記 情報に基づいて、仮想カメラ 54が設定されるようになっている。このようにして、ゲー ム装置 10では、方角指示操作モードから通常操作モードへの復帰が円滑に行われ るようになっている。
[0047] 次に、ゲーム装置 10の機能的構成について説明する。図 9は、ゲーム装置 10にお いて実現される機能のうち、本発明に関連するを主として示す機能ブロック図である 。同図に示すように、ゲーム装置 10には、機能的に第 1仮想カメラ制御部 60、第 2仮 想カメラ制御部 62、仮想カメラ制御切替部 64、仮想カメラ状態情報記憶部 68及び 表示制御部 70が含まれる。これらの機能は、 DVD—ROM25から読み出されたプロ グラムがマイクロプロセッサ 14によって実行されることによって実現される。
[0048] [1.仮想カメラ状態情報記憶部]
仮想カメラ状態情報記憶部 68は主記憶 26を主として実現される。仮想カメラ状態 情報記憶部 68には、現在の仮想カメラ 54の位置 (視点位置 56)及び姿勢 (視線方 向ベクトル 58)を示す情報が記憶される。また、仮想カメラ状態情報記憶部 68には、 通常操作モード時において設定された上下角 Θ ywを示す情報が記憶される。
[0049] [2.仮想カメラ制御切替部]
仮想カメラ制御切替部 64はマイクロプロセッサ 14を主として実現される。仮想カメラ 制御切替部 64は、第 1仮想カメラ制御部 60によって仮想カメラ 54が制御される状態 と、第 2仮想カメラ制御部 62によって仮想カメラ 54が制御される状態と、を所定切替 操作に応じて切り替える。すなわち、仮想カメラ制御切替部 64は通常操作モードと方 角指示操作モードとを所定切替操作に応じて切り替える。本実施の形態における「所 定切替操作」は、右操作スティック 42の軸方向への押下操作となっている。なお、「 所定切替操作」は他の操作であってもよい。例えばボタン 34R等の押下操作であつ てもよい。
[0050] [3.第 1仮想カメラ制御部]
第 1仮想カメラ制御部 60はマイクロプロセッサ 14を主として実現される。第 1仮想力 メラ制御部 60は通常操作モード時の仮想カメラ 54の制御を実行する。第 1仮想カメ ラ制御部 60は、コントローラ 32の操作状態に基づいて仮想カメラ 54の姿勢の変化方 向を判断し、その変化方向に所与の角度だけ現在の方向から変化した方向を向く目 標姿勢に、仮想カメラ 54の姿勢を変更する。本実施の形態では、第 1仮想カメラ制御 部 60は、右操作スティック 42の操作状態に基づ 、て仮想カメラ 54の姿勢の変化方 向を判断する。
[0051] なお、第 1仮想カメラ制御部 60は、仮想カメラ制御切替部 64によって、第 1仮想カメ ラ制御部 60によって仮想カメラ 54が制御される状態 (通常操作モード)から、第 2仮 想カメラ制御部 62によって仮想カメラ 54が制御される状態 (方角指示操作モード)に 切り替えられる場合、その時点における視点位置 56及び視線方向ベクトル 58を特定 する情報 (姿勢特定情報)を主記憶 26に記憶させる。そして、第 1仮想カメラ制御部 6 0は、仮想カメラ制御切替部 64によって、第 2仮想カメラ制御部 62によって仮想カメラ 54が制御される状態 (方角指示操作モード)から、第 1仮想カメラ制御部 60によって 仮想カメラ 54が制御される状態 (通常操作モード)に切り替えられる場合、主記憶 26 に記憶された上記情報に基づ 、て、視点位置 56及び視線方向ベクトル 58を設定す る。
[0052] [4.第 2仮想カメラ制御部]
第 2仮想カメラ制御部 62はマイクロプロセッサ 14を主として実現される。第 2仮想力 メラ制御部 62は、方角指示操作モード時の仮想カメラ 54の制御を実行する。第 2仮 想カメラ制御部 62は、コントローラ 32の操作状態に基づいて仮想 3次元空間 50にお ける方角を判断し、その方角を向く目標姿勢に、仮想カメラ 54の姿勢を変更する。本 実施の形態では、第 1仮想カメラ制御部 60は、右操作スティック 42の操作状態に基 づいて仮想 3次元空間 50における方角を判断する。
[0053] 第 2仮想カメラ制御部 62は、右操作スティック 42から入力される姿勢データの判定 基準を示す判定基準データを記憶する。本実施の形態では、図 5に示すような判定 基準を示す判定基準データ (基礎判定基準データ)が記憶される。また、「1」領域〜 「8」領域の各領域ごとに、右操作スティック 42から入力される姿勢データがその領域 に含まれる場合の判定基準データが記憶される。すなわち、例えば図 8に示すような 判定基準を示す判定基準データが「1」領域〜「8」領域の各領域ごとに記憶される。
[0054] 第 2仮想カメラ制御部 62は、右操作スティック 42から入力される姿勢データが「0」 領域に含まれる場合、該姿勢データに対応する仮想 3次元空間 50の方角を上記基 礎判定基準データに基づいて取得する。一方、第 2仮想カメラ制御部 62は、右操作 スティック 42から入力される姿勢データが「1」領域〜「8」領域のいずれかに含まれる 場合、該姿勢データに対応する仮想 3次元空間 50の方角を、該領域に対応する判 定基準データに基づいて取得する。そして、第 2仮想カメラ制御部 62は、取得した方 角を向くように仮想カメラ 54の姿勢を変更する。
[0055] なお、第 2仮想カメラ制御部 62は上記基礎判定基準データだけを記憶しておき、「 1」領域〜「8」領域の各領域に対応する判定基準データを、上記基礎判定基準デー タに基づ ヽて生成するようにしてもょ 、。
[0056] [5.方角履歴関連情報記憶部]
第 2仮想カメラ制御部 62は方角履歴関連情報記憶部 66を含んで 、る。方角履歴 関連情報記憶部 66は主記憶 26を主として実現される。方角履歴関連情報記憶部 6 6は、「第 2仮想カメラ制御部 62によって仮想カメラ 54が向くように設定された仮想 3 次元空間 50の方角」の履歴に関連する方角履歴関連情報を記憶する。
[0057] 本実施の形態では、例えば図 10に示すような方角履歴データ (配列データ)が記 憶される。この方角履歴データには、方角指示操作モードにおいて、プレイヤが右操 作スティック 42を傾倒させることによって指示した方角が過去 N個分記憶されるように なっている。なお、この方角履歴データには、プレイヤに指示された方角が最近指示 されたもの力 順に格納されて ヽることとする。
[0058] 第 2仮想カメラ制御部 62は、所定操作に応じて、方角履歴データに基づいて判断 される仮想 3次元空間 50における方角を向く目標姿勢に、仮想カメラ 54の姿勢を変 更する。
[0059] [6.表示制御部]
表示制御部 70はマイクロプロセッサ 14及び画像処理部 16を主として実現される。 表示制御部 70は、仮想カメラ状態情報記憶部 68の記憶内容に基づ 、て仮想カメラ 54を設定し、該仮想カメラ 54から仮想 3次元空間 50を見た様子を表すゲーム画面を モニタ 18に表示させる。言い換えれば、表示制御部 70は「仮想 3次元空間 50にお いて、仮想カメラ状態情報記憶部 68に記憶される視点位置 56から、仮想カメラ状態 情報記憶部 68に記憶される視線方向ベクトル 58の示す方向を見た様子」を表すゲ ーム画面をモニタ 18に表示させる。
[0060] 次に、ゲーム装置 10において所定時間(本実施の形態では 1Z60秒)ごとに実行 される処理について説明する。図 11乃至図 14は、ゲーム装置 10において所定時間 ごとに実行される処理のうち、本発明に関連する処理を示すフロー図である。同図に 示す処理は、 DVD—ROM25に格納されたプログラムがマイクロプロセッサ 14によ つて実行されること〖こよって実現される。
[0061] 図 11に示すように、右操作スティック 42が軸方向に押下されている力否かが仮想 カメラ制御切替部 64によって判定される(S101)。すなわち、右操作スティック 42の 押下操作を示す操作信号がコントローラ 32から入力されたか否かが判定される。右 操作スティック 42が軸方向に押下されている場合には、方角指示操作モード時の処 理 (S102乃至 S121)が実行される。一方、右操作スティック 42が軸方向に押下され ていない場合には、通常操作モード時の処理 (S 122乃至 S 127, S 115)が実行され る。
[0062] 右操作スティック 42が押下されて 、る場合、操作モードフラグが「0」である力否かが 判定される(S102)。操作モードフラグは、仮想カメラ 54の現在の操作モードが通常 操作モードである力、或いは方角指示操作モードであるかを示す情報であり、主記 憶 26に記憶される。操作モードフラグは「0」又は「1」の 、ずれかの値をとるようになつ ており、通常操作モードの場合には「0」となり、方角指示操作モードの場合に「1」と なる。 [0063] 右操作スティック 42が押下されており、かつ、操作モードフラグが「0」である状態は 、右操作スティック 42の押下が行われた直後の状態であるため、方角指示操作モー ドの初期化処理 (S 103乃至 S 106)が実行される。
[0064] すなわち、変数 t及び iが「0」に初期化される(S103)。変数 tは、方角指示操作モ ード時において右操作スティック 42の直立状態が継続した時間を計るためのもので ある(S 116及び S 117参照)。また、変数 iは、後述の S119において方角履歴データ (図 10参照)から方角を読み出す際の基礎となる数値である。
[0065] また、現在領域 IDが「0」に初期化される(S 104)。現在領域 IDは、現在の右操作 スティック 42の傾倒状態に対応する領域の領域 IDであり、主記憶 26に記憶される。 現在領域 IDは「0」〜「8」の!、ずれかの値をとるようになって!/、る(図 5及び 8参照)。
[0066] また、その時点の視点位置 56及び視線方向ベクトル 58 (仮想カメラ 54の位置及び 姿勢)が仮想カメラ状態情報記憶部 68から読み出され、通常モード再開時の視点位 置 56及び視線方向ベクトル 58として主記憶 26に記憶される(S105)。また、操作モ ードフラグが「 1」に更新される(S 106)。
[0067] 方角指示操作モードの初期化処理 (S103乃至 S106)の実行が完了した場合、又 は、操作モードフラグが「0」でないと判定された場合 (S102の N)、第 2仮想カメラ制 御部 62は右操作スティック 42が直立状態である力否かを判定する(S107)。すなわ ち、右操作スティック 42の姿勢状態力 S「0」状態であるか否かを判定する。
[0068] 右操作スティック 42が直立状態でな 、場合、第 2仮想カメラ制御部 62は変数 t及び iを「0」に初期化する(S108)。
[0069] また、第 2仮想カメラ制御部 62は、現在領域 IDに対応する判定基準データを取得 する(S109)。例えば現在領域 IDが「0」である場合、図 5に示すような判定基準を示 す判定基準データが取得される。また例えば現在領域 IDが「7」である場合、図 8に 示すような判定基準を示す判定基準データが取得される。
[0070] 次に、第 2仮想カメラ制御部 62は、 S109で取得した判定基準データに基づいて、 右操作スティック 42の傾倒状態に対応する領域 IDを取得する(S110)。すなわち、 第 2仮想カメラ制御部 62は、コントローラ 32から出力される右操作スティック 42の姿 勢データに基づ 、て、右操作スティック 42の傾倒状態が「1」状態〜「8」状態の 、ず れかに属するかを判断する。
[0071] 次に、第 2仮想カメラ制御部 62は、 S110で取得した領域 IDと現在領域 IDとが異な る場合(SI 11の Y)、主記憶 26に記憶される現在領域 IDを S110で取得した領域 ID に更新する(S112)。また、第 2仮想カメラ制御部 62は、 S 110で取得した領域 IDに 対応する方角を図 6に示すデータに基づいて取得し、方角履歴データ(図 10参照) に追加登録する(S 113)。なお、 N個の方角が方角履歴データにすでに記憶されて いる場合、第 2仮想カメラ制御部 62は最も過去に記憶された方角を消去した後、 S1 10で取得した方角を追加登録する。
[0072] 次に、第 2仮想カメラ制御部 62は、現在領域 IDに対応する方角を向くように、視点 位置 56及び視線方向ベクトル 58 (仮想カメラ 54の位置及び姿勢)を更新する(S11 4)。まず、第 2仮想カメラ制御部 62は視点位置 56を算出する。具体的には、第 2仮 想カメラ制御部 62は、カメラ軌道 59上の位置であって、基準位置 53から「現在領域 I Dに対応する方角とは正反対の方角」の位置を視点位置 56として算出する。次に、 第 2仮想カメラ制御部 62は視線方向ベクトル 58を算出する。具体的には、第 2仮想 カメラ制御部 62は、上記算出した視点位置 56から基準位置 53への方向ベクトル (基 準視線方向ベクトル 57)を算出する。また、第 2仮想カメラ制御部 62は、仮想カメラ状 態情報記憶部 68に記憶された上下角 0 ywを読み出す。そして、第 2仮想カメラ制御 部 62は、上記算出した視点位置 56を中心として、基準視線方向ベクトル 57を Yw軸 方向に上下調整角度 Θ yだけ回転してなるベクトルを視線方向ベクトル 58として算出 する。第 2仮想カメラ制御部 62は、仮想カメラ状態情報記憶部 68に記憶された視点 位置 56及び視線方向ベクトル 58を、以上のようにして算出された視点位置 56及び 視線方向ベクトル 58に更新する。
[0073] なお、右操作スティック 42が直立状態であると判定された場合 (S 107の Y)、第 2仮 想カメラ制御部 62は変数 tをインクリメントする(S116)。そして、変数 tが T以上である 場合 (S117の Y)、第 2仮想カメラ制御部 62は変数 iをインクリメントし (S118)、方角 履歴データに記憶される N個の方角のうちの i番目の方角を取得する(S 119)。そし て、第 2仮想カメラ制御部 62は、 S119で取得された方角を向くように、視点位置 56 及び視線方向ベクトル 58 (仮想カメラ 54の位置及び姿勢)を更新する(S120)。この ステップの処理は S114の処理と同様に行われる。その後、変数 tが「0」に初期化さ れる(S121)。
[0074] また、右操作スティック 42が軸方向に押下されていないと判定された場合 (S101の N)、操作モードフラグが「1」である力否かが判定される(S122)。右操作スティック 4 2が軸方向に押下されておらず、かつ、操作モードフラグ力「l」である状態は、右操 作スティック 42の押下が解除された直後の状態であるため、通常操作モードの初期 化処理 (S123乃至 S125)が実行される。
[0075] すなわち、通常操作モードから方角指示操作モードに移行する際に通常操作モー ド再開時の視点位置 56及び視線方向ベクトル 58として記憶された視点位置 56及び 視線方向ベクトル 58 (S 105参照)を、第 1仮想カメラ制御部 60は主記憶 26から取得 する(S123)。そして、第 1仮想カメラ制御部 60は、仮想カメラ状態情報記憶部 68に 記憶される視点位置 56及び視線方向ベクトル 58を、 S 123で取得された視点位置 5 6及び視線方向ベクトル 58に更新する(S124)。その後、操作モードフラグが「0」に 更新される(S 125)。
[0076] 一方、操作モードフラグ力「l」でない場合 (S 122の N)、第 1仮想カメラ制御部 60 は、コントローラ 32から出力される右操作スティック 42の姿勢データに基づいて、右 操作スティック 42の傾倒状態を取得する(S 126)。そして、第 1仮想カメラ制御部 60 は、視点位置 56及び視線方向ベクトル 58 (仮想カメラ 54の位置及び姿勢)を右操作 スティック 42の傾倒状態に基づ 、て更新する(S 127)。
[0077] 例えば、右操作スティック 42が右方向(図 2 (a)における X軸正方向)に傾倒されて いる場合には、第 1仮想カメラ制御部 60は、現在の視点位置 56を仮想カメラ状態情 報記憶部 68から読み出す。そして、第 1仮想カメラ制御部 60は、「カメラ軌道 59上の 位置であって、現在の視点位置 56から、基準位置 53に向かって右方向に、所定距 離 (仮想カメラ 54の 1Z60秒ごとの移動距離)だけ移動してなる位置」を、新たな視点 位置 56として算出する。次に、第 1仮想カメラ制御部 60は、その新たな視点位置 56 における視線方向ベクトル 58を算出する。まず、第 1仮想カメラ制御部 60は、その新 たな視点位置 56から基準位置 53への方向ベクトル (基準視線方向ベクトル 57)を算 出する。そして、第 1仮想カメラ制御部 60は、仮想カメラ状態情報記憶部 68に記憶さ れた上下角 Θ ywを読み出し、上記新たな視点位置 56を中心として、基準視線方向 ベクトル 57を Yw軸方向に上下角 Θ ywだけ回転してなるベクトルを新たな視線方向 ベクトル 58として算出する。第 1仮想カメラ制御部 60は、仮想カメラ状態情報記憶部 68に記憶された視点位置 56及び視線方向ベクトル 58を、以上のようにして算出され た視点位置 56及び視線方向ベクトル 58に更新する。なお、右操作スティック 42が左 方向(図 2 (a)における X軸負方向)に傾倒されている場合にも同様の処理が実行さ れる。
[0078] また例えば、右操作スティック 42が上方向(図 2 (a)における Y軸正方向)に傾倒さ れている場合には、第 1仮想カメラ制御部 60は、仮想カメラ 54の現在の上下角 Θ yw を仮想カメラ状態情報記憶部 68から読み出し、仮想カメラ状態情報記憶部 68に記 憶される上下角 Θ ywを Θ yw+ Δ Θ ywに更新する。また、第 1仮想カメラ制御部 60 は、仮想カメラ 54の現在の視点位置 56及び視線方向ベクトル 58を仮想カメラ状態 情報記憶部 68から読み出し、視点位置 56を中心として、現在の視線方向ベクトル 5 8を Yw軸方向に上下角 Δ Θ ywだけ回転してなるベクトルを新たな視線方向ベクトル 58として算出する。そして、第 1仮想カメラ制御部 60は、仮想カメラ状態情報記憶部 68に記憶される視線方向ベクトル 58を、この新たに算出した視線方向ベクトル 58に 更新する。なお、 Δ Θ ywは 1Z60秒ごとの所定の増減角度を示している。また、右 操作スティック 42が下方向(図 2 (a)における Y軸負方向)に傾倒されている場合にも 同様の処理が実行される。
[0079] 表示制御部 70は、仮想カメラ状態情報記憶部 68から視点位置 56及び視線方向 ベクトル 58を読み出し、仮想 3次元空間 50において該視点位置 56から該視線方向 ベクトル 58の示す方向を見た様子を表すゲーム画面を VRAM上に描画する(S115 ;)。 VRAMに描画されたゲーム画面は所定のタイミングでモニタ 18に表示される。
[0080] 以上説明したように、ゲーム装置 10によれば、プレイヤは仮想 3次元空間 50におけ る所望の方角が分力もなくなってしまった場合等において、右操作スティック 42を所 望の方角に対応する方向に傾けることにより、仮想カメラ 54を所望の方角に向けさせ ることが可能になる。すなわち、プレイヤは比較的簡易な操作で仮想カメラ 54を仮想 3次元空間 50の所望の方角に向けさせることが可能になる。 [0081] なお、本発明は以上に説明した実施の形態に限定されるものではない。
[0082] 例えば、方角履歴データ(図 10参照)には、方角とともに、その時点において設定 されていた上下角 0 ywが記憶されるようにしてもよい。そして、 S119及び S120の処 理において、第 2仮想カメラ制御部 62は方角とともに上下角 Θ ywを取得し、これらに 基づ 、て視点位置 56及び視線方向ベクトル 58を更新するようにしてもょ 、。
[0083] また例えば、方角指示操作モードにお!、て、右操作スティック 42の直立状態が所 定時間継続した場合には、プレイヤによって指示された回数が最も多いと方角履歴 データに基づいて判断される方角に、仮想カメラ 54が向けられるようにしてもよい。ま た、その状態から、右操作スティック 42の直立状態がさらに所定時間継続した場合に は、プレイヤによって指示された回数が 2番目に多いと方角履歴データに基づいて 判断される方角に、仮想カメラ 54が向けられるようにしてもよい。このように、右操作ス ティック 42の直立状態が所定時間継続するごとに、プレイヤによって指示された回数 が多いと方角履歴データに基づいて判断される方角力も順に、仮想カメラ 54が向け られるようにしてちょい。
[0084] また例えば、方角履歴関連情報記憶部 66に記憶される方角履歴関連情報は、方 角と、方角指示操作モード時において仮想カメラ 54がその方角に向けられていた延 ベ時間と、を対応づけてなる情報としてもよい。そして、方角指示操作モードにおい て、右操作スティック 42の直立状態が所定時間継続した場合には、延べ時間の最も 長い方角に仮想カメラ 54が向けられるようにしてもよい。また、その状態から、右操作 スティック 42の直立状態がさらに所定時間 «続した場合には、延べ時間が次に長い 方角に仮想カメラ 54が向けられるようにしてもよい。このように、右操作スティック 42の 直立状態が所定時間継続するごとに、延べ時間が長い方角力も順に仮想カメラ 54 が向けられるようにしてもょ 、。
[0085] また例えば、本発明はいわゆる一人称視点のゲームにも適用することが可能である
[0086] また、以上の説明では、プログラムを情報記憶媒体たる DVD— ROM25から家庭 用ゲーム機 11に供給するようにしたが、通信ネットワークを介してプログラムを家庭等 に配信するようにしてもよい。図 15は、通信ネットワークを用いたプログラム配信シス テムの全体構成を示す図である。同図に基づ ヽて本発明に係るプログラム配信方法 を説明する。同図に示すように、このプログラム配信システム 100は、ゲームデータべ ース 102、サーバ 104、通信ネットワーク 106、パソコン 108、家庭用ゲーム機 110、 PDA (携帯情報端末) 112を含んでいる。このうち、ゲームデータベース 102とサー バ 104とによりプログラム配信装置 114が構成される。通信ネットワーク 106は、例え ばインターネットやケーブルテレビネットワークを含んで構成されて 、る。このシステム では、ゲームデータベース(情報記憶媒体) 102に、 DVD— ROM25の記憶内容と 同様のプログラムが記憶されている。そして、パソコン 108、家庭用ゲーム機 110又 は PDA112等を用いて需要者がゲーム配信要求をすることにより、それが通信ネット ワーク 106を介してサーバ 104に伝えられる。そして、サーバ 104はゲーム配信要求 に応じてゲームデータベース 102からプログラムを読み出し、それをパソコン 108、家 庭用ゲーム機 110、 PDA112等、ゲーム配信要求元に送信する。ここではゲーム配 信要求に応じてゲーム配信するようにした力 サーバ 104から一方的に送信するよう にしてもよい。また、必ずしも一度にゲームの実現に必要な全てのプログラムを配信( 一括配信)する必要はなぐゲームの局面に応じて必要な部分を配信 (分割配信)す るようにしてもょ 、。このように通信ネットワーク 106を介してゲーム配信するようにす れば、プログラムを需要者は容易に入手することができるようになる。

Claims

請求の範囲
[1] 仮想 3次元空間に仮想カメラを配置し、前記仮想 3次元空間を前記仮想カメラから 見た様子を表示するゲーム装置にお!、て、
操作手段の操作状態に基づいて前記仮想カメラの姿勢の変化方向を判断し、その 変化方向に所与の角度だけ現在の方向力 変化した方向を向く姿勢に、前記仮想 カメラの姿勢を変更する第 1仮想カメラ制御手段と、
前記操作手段の操作状態に基づ!ヽて前記仮想 3次元空間における方角を判断し 、その方角を向く姿勢に、前記仮想カメラの姿勢を変更する第 2仮想カメラ制御手段 と、
前記第 1仮想カメラ制御手段によって前記仮想カメラが制御される状態と、前記第 2 仮想カメラ制御手段によって前記仮想カメラが制御される状態と、を所定切替操作に 応じて切り替える仮想カメラ制御切替手段と、
を含むことを特徴とするゲーム装置。
[2] 請求の範囲第 1項に記載のゲーム装置において、
前記第 1仮想カメラ制御手段は、
前記仮想カメラ制御切替手段によって、前記第 1仮想カメラ制御手段によって前記 仮想カメラが制御される状態から、前記第 2仮想カメラ制御手段によって前記仮想力 メラが制御される状態に切り替えられる場合、その時点における前記仮想カメラの姿 勢を特定する姿勢特定情報を記憶手段に記憶させる手段と、
前記仮想カメラ制御切替手段によって、前記第 2仮想カメラ制御手段によって前記 仮想カメラが制御される状態から、前記第 1仮想カメラ制御手段によって前記仮想力 メラが制御される状態に切り替えられる場合、前記記憶手段に記憶される姿勢特定 情報に基づいて前記仮想カメラの姿勢を設定する手段と、を含む、
ことを特徴とするゲーム装置。
[3] 請求の範囲第 1項に記載のゲーム装置において、
前記第 2仮想カメラ制御手段は、
該第 2仮想カメラ制御手段によって前記仮想カメラが向くように設定された方角の履 歴に関する方角履歴関連情報を記憶する手段と、 所定操作に応じて、前記仮想 3次元空間における方角を前記方角履歴関連情報 に基づいて判断し、その方角を向く姿勢に、前記仮想カメラの姿勢を変更する手段と 、を含む、
ことを特徴とするゲーム装置。
[4] 請求の範囲第 1項に記載のゲーム装置において、
前記操作手段の操作状態に応じた操作値を取得する操作値取得手段を含み、 前記第 2仮想カメラ制御手段は、
互いに重複しない複数の操作値範囲の各々に、前記仮想 3次元空間における複 数の方角の!、ずれかを対応づけて記憶する手段と、
前記操作値取得手段によって取得された操作値が前記複数の操作値範囲のいず れかに含まれるか否かを判定する判定手段と、を含み、
前記操作値取得手段によって取得された操作値が前記複数の操作値範囲のいず れかに含まれると判定された場合、該操作値範囲に対応づけられた方角を向く姿勢 に、前記仮想カメラの姿勢を変更し、
前記判定手段は、前記操作値取得手段によって取得された操作値が前記複数の 操作値範囲のいずれかに含まれると判定した場合、該操作値範囲を広げるとともに 前記複数の操作値範囲のうちの他の操作値範囲を狭めるよう前記複数の操作値範 囲を変更し、前記操作値取得手段によって取得された操作値が前記複数の操作値 範囲のいずれかに含まれる力否かを、変更後の前記複数の操作値範囲に基づいて 判定する、
ことを特徴とするゲーム装置。
[5] 請求の範囲第 1項に記載のゲーム装置において、
前記第 1仮想カメラ制御手段は、前記操作手段に含まれる操作スティックの傾倒方 向に基づいて前記仮想カメラの姿勢の変化方向を判断し、その変化方向に所与の 角度だけ現在の方向力 変化した方向を向く姿勢に、前記仮想カメラの姿勢を変更 し、
前記第 2仮想カメラ制御手段は、前記操作スティックの傾倒方向に基づ!/ヽて前記仮 想 3次元空間における方角を判断し、その方角を向く姿勢に、前記仮想カメラの姿勢 を変更し、
前記所定切替操作は、前記操作スティックの軸方向への押下操作である、 ことを特徴とするゲーム装置。
[6] 仮想 3次元空間に仮想カメラを配置し、前記仮想 3次元空間を前記仮想カメラから 見た様子を表示するゲーム装置の制御方法において、
操作手段の操作状態に基づいて前記仮想カメラの姿勢の変化方向を判断し、その 変化方向に所与の角度だけ現在の方向力 変化した方向を向く姿勢に、前記仮想 カメラの姿勢を変更する第 1仮想カメラ制御ステップと、
前記操作手段の操作状態に基づ!ヽて前記仮想 3次元空間における方角を判断し 、その方角を向く姿勢に、前記仮想カメラの姿勢を変更する第 2仮想カメラ制御ステツ プと、
前記第 1仮想カメラ制御ステップによって前記仮想カメラが制御される状態と、前記 第 2仮想カメラ制御ステップによって前記仮想カメラが制御される状態と、を所定切替 操作に応じて切り替える仮想カメラ制御切替ステップと、
を含むことを特徴とするゲーム装置の制御方法。
[7] 仮想 3次元空間に仮想カメラを配置し、前記仮想 3次元空間を前記仮想カメラから 見た様子を表示するゲーム装置としてコンピュータを機能させるためのプログラムを 記録したコンピュータ読み取り可能な情報記憶媒体であって、
操作手段の操作状態に基づいて前記仮想カメラの姿勢の変化方向を判断し、その 変化方向に所与の角度だけ現在の方向力 変化した方向を向く姿勢に、前記仮想 カメラの姿勢を変更する第 1仮想カメラ制御手段、
前記操作手段の操作状態に基づ!ヽて前記仮想 3次元空間における方角を判断し 、その方角を向く姿勢に、前記仮想カメラの姿勢を変更する第 2仮想カメラ制御手段 、及び、
前記第 1仮想カメラ制御手段によって前記仮想カメラが制御される状態と、前記第 2 仮想カメラ制御手段によって前記仮想カメラが制御される状態と、を所定切替操作に 応じて切り替える仮想カメラ制御切替手段、
として前記コンピュータを機能させるためのプログラムを記録したコンピュータ読み 取り可能な情報記憶媒体。
PCT/JP2006/306504 2005-08-26 2006-03-29 ゲーム装置、ゲーム装置の制御方法及び情報記憶媒体 WO2007023592A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP06730452A EP1925347B1 (en) 2005-08-26 2006-03-29 Game machine, control method of game machine and information storage medium
US12/064,736 US8246455B2 (en) 2005-08-26 2006-03-29 Video game with player directed discrete and free camera modes
DE602006014698T DE602006014698D1 (de) 2005-08-26 2006-03-29 Spielautomat, spielautomatsteuerverfahren und informationsspeichermedium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005246303A JP4247218B2 (ja) 2005-08-26 2005-08-26 ゲーム装置、ゲーム装置の制御方法及びプログラム
JP2005-246303 2005-08-26

Publications (1)

Publication Number Publication Date
WO2007023592A1 true WO2007023592A1 (ja) 2007-03-01

Family

ID=37771345

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/306504 WO2007023592A1 (ja) 2005-08-26 2006-03-29 ゲーム装置、ゲーム装置の制御方法及び情報記憶媒体

Country Status (5)

Country Link
US (1) US8246455B2 (ja)
EP (1) EP1925347B1 (ja)
JP (1) JP4247218B2 (ja)
DE (1) DE602006014698D1 (ja)
WO (1) WO2007023592A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011244965A (ja) * 2010-05-25 2011-12-08 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム
WO2013099347A1 (ja) * 2011-12-27 2013-07-04 株式会社コナミデジタルエンタテインメント ゲーム装置、制御装置、ゲーム制御方法、プログラム、及び情報記憶媒体
JP6957712B1 (ja) * 2020-10-08 2021-11-02 エヌエイチエヌ コーポレーション プログラムおよび視野制御方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4376650B2 (ja) * 2004-02-09 2009-12-02 任天堂株式会社 ゲーム装置およびゲームプログラム
US9327191B2 (en) * 2006-05-08 2016-05-03 Nintendo Co., Ltd. Method and apparatus for enhanced virtual camera control within 3D video games or other computer graphics presentations providing intelligent automatic 3D-assist for third person viewpoints
US9329743B2 (en) * 2006-10-04 2016-05-03 Brian Mark Shuster Computer simulation method with user-defined transportation and layout
US7931811B2 (en) 2006-10-27 2011-04-26 Regents Of The University Of Minnesota Dielectric barrier reactor having concentrated electric field
WO2008063390A2 (en) * 2006-11-09 2008-05-29 Wms Gaming Inc. Wagering game with 3d gaming environment using dynamic camera
JP5829020B2 (ja) * 2010-12-22 2015-12-09 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
JP6085411B2 (ja) 2011-06-02 2017-02-22 任天堂株式会社 画像処理装置、画像処理方法、および画像処理装置の制御プログラム
JP5987931B2 (ja) 2015-02-09 2016-09-07 株式会社リコー 映像表示システム、情報処理装置、映像表示方法、映像表示プログラム、映像処理装置、映像処理方法および映像処理プログラム
CN107517372B (zh) * 2017-08-17 2022-07-26 腾讯科技(深圳)有限公司 一种vr内容拍摄方法、相关设备及***
JP6603375B2 (ja) * 2018-08-08 2019-11-06 任天堂株式会社 情報処理システム及び情報処理プログラム
JP6830473B2 (ja) * 2018-12-13 2021-02-17 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、及びビデオゲーム処理プログラム
CN110941998B (zh) * 2019-11-07 2024-02-02 咪咕互动娱乐有限公司 姿势调整方法、装置及计算机存储介质
CN111632380A (zh) * 2020-05-28 2020-09-08 腾讯科技(深圳)有限公司 虚拟姿态切换方法、装置、存储介质及电子装置
JP7233399B2 (ja) * 2020-06-23 2023-03-06 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07116343A (ja) 1992-06-12 1995-05-09 Sega Enterp Ltd 電子遊戯機器
JP2000245955A (ja) * 1999-03-01 2000-09-12 Square Co Ltd ゲーム装置、データ編集方法、コンピュータ読取可能な記録媒体及びコンピュータデータ信号
JP2001195608A (ja) * 2000-01-14 2001-07-19 Artdink:Kk Cgの三次元表示方法
JP2002024860A (ja) * 2000-07-11 2002-01-25 Sony Corp 画像編集システム及び画像編集方法、並びに記憶媒体
JP2002243485A (ja) * 2001-02-16 2002-08-28 Mitsubishi Motors Corp ナビゲーション用操作装置
JP2005176933A (ja) * 2003-12-16 2005-07-07 Taito Corp オープニング映像を作成できるゲーム機

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6155926A (en) * 1995-11-22 2000-12-05 Nintendo Co., Ltd. Video game system and method with enhanced three-dimensional character and background control
US6267673B1 (en) * 1996-09-20 2001-07-31 Nintendo Co., Ltd. Video game system with state of next world dependent upon manner of entry from previous world via a portal
JPH11128533A (ja) * 1997-10-30 1999-05-18 Nintendo Co Ltd ビデオゲーム装置およびその記憶媒体
JP3046578B2 (ja) * 1998-06-11 2000-05-29 株式会社ナムコ 画像生成装置及び情報記憶媒体
US6612930B2 (en) * 1998-11-19 2003-09-02 Nintendo Co., Ltd. Video game apparatus and method with enhanced virtual camera control
JP2001046736A (ja) 1999-08-05 2001-02-20 Copcom Co Ltd ビデオゲーム装置および記録媒体
US6734855B2 (en) * 2000-07-11 2004-05-11 Sony Corporation Image editing system and method, image processing system and method, and recording media therefor
JP3762750B2 (ja) * 2003-01-07 2006-04-05 コナミ株式会社 画像表示制御プログラム
JP2004246877A (ja) * 2003-01-24 2004-09-02 Sega Corp ゲームのキャラクタに画像を投影するプログラム、そのプログラムが組み込まれたゲーム機、及びそのプログラムが格納された記録媒体
US7470195B1 (en) * 2003-01-28 2008-12-30 Microsoft Corporation Camera control for third-person console video game
JP4297804B2 (ja) * 2004-02-19 2009-07-15 任天堂株式会社 ゲーム装置及びゲームプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07116343A (ja) 1992-06-12 1995-05-09 Sega Enterp Ltd 電子遊戯機器
JP2000245955A (ja) * 1999-03-01 2000-09-12 Square Co Ltd ゲーム装置、データ編集方法、コンピュータ読取可能な記録媒体及びコンピュータデータ信号
JP2001195608A (ja) * 2000-01-14 2001-07-19 Artdink:Kk Cgの三次元表示方法
JP2002024860A (ja) * 2000-07-11 2002-01-25 Sony Corp 画像編集システム及び画像編集方法、並びに記憶媒体
JP2002243485A (ja) * 2001-02-16 2002-08-28 Mitsubishi Motors Corp ナビゲーション用操作装置
JP2005176933A (ja) * 2003-12-16 2005-07-07 Taito Corp オープニング映像を作成できるゲーム機

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"AutoCAD de 3 Jigen o Hajimeyo Kisohen", GEKKAN CAD & CDG MAGAJIN, X-KNOWLEDGE CO., LTD., vol. 5, no. 8, 1 August 2003 (2003-08-01), pages 56 - 63, XP003008689 *
See also references of EP1925347A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011244965A (ja) * 2010-05-25 2011-12-08 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム
US9492747B2 (en) 2010-05-25 2016-11-15 Nintendo Co., Ltd. Using handheld controller attitude to select a desired object displayed on a screen
WO2013099347A1 (ja) * 2011-12-27 2013-07-04 株式会社コナミデジタルエンタテインメント ゲーム装置、制御装置、ゲーム制御方法、プログラム、及び情報記憶媒体
JP2013132486A (ja) * 2011-12-27 2013-07-08 Konami Digital Entertainment Co Ltd ゲーム装置、制御装置、ゲーム制御方法、及びプログラム
JP6957712B1 (ja) * 2020-10-08 2021-11-02 エヌエイチエヌ コーポレーション プログラムおよび視野制御方法

Also Published As

Publication number Publication date
US8246455B2 (en) 2012-08-21
EP1925347A4 (en) 2008-09-03
EP1925347A1 (en) 2008-05-28
US20090131167A1 (en) 2009-05-21
JP2007054520A (ja) 2007-03-08
EP1925347B1 (en) 2010-06-02
DE602006014698D1 (de) 2010-07-15
JP4247218B2 (ja) 2009-04-02

Similar Documents

Publication Publication Date Title
WO2007023592A1 (ja) ゲーム装置、ゲーム装置の制御方法及び情報記憶媒体
JP5700758B2 (ja) ゲーム装置、ゲームプログラム、ゲームシステム、およびゲーム処理方法
JP6755224B2 (ja) ゲームシステム、ゲームプログラム、ゲーム装置、および、ゲーム処理方法
JP2008154778A (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
US20100248804A1 (en) Game machine, game machine control method, and information storage medium
US20210370178A1 (en) Storage medium storing game program, game apparatus, game system, and game processing method
JP2006271692A (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
JP7232223B2 (ja) ゲームプログラム、ゲームシステム、情報処理装置、および、情報処理方法
JP7233399B2 (ja) ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
JP5210228B2 (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP7344716B2 (ja) 情報処理システム、情報処理プログラム、情報処理装置および情報処理方法
JP3481230B2 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
JP7469378B2 (ja) ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
JP7168713B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP3720340B2 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
US11285387B2 (en) Storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method
JP2022146055A (ja) ゲームプログラム、ゲームシステム、ゲーム装置およびゲーム制御方法
JP3707739B2 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
CN102498455A (zh) 信息处理装置、信息处理装置的控制方法、程序以及信息存储介质
JP6714564B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2006068267A (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
JP7166219B2 (ja) ゲームプログラム、ゲームシステム、ゲーム装置制御方法、およびゲーム装置
JP2023166053A (ja) 情報処理プログラム、情報処理システム、および情報処理方法
JP2023166043A (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2020113314A (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006730452

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12064736

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE