WO2011105087A1 - コンピュータ装置、記録媒体、及び制御方法 - Google Patents

コンピュータ装置、記録媒体、及び制御方法 Download PDF

Info

Publication number
WO2011105087A1
WO2011105087A1 PCT/JP2011/001058 JP2011001058W WO2011105087A1 WO 2011105087 A1 WO2011105087 A1 WO 2011105087A1 JP 2011001058 W JP2011001058 W JP 2011001058W WO 2011105087 A1 WO2011105087 A1 WO 2011105087A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
game
operation unit
display color
image
Prior art date
Application number
PCT/JP2011/001058
Other languages
English (en)
French (fr)
Inventor
武 手塚
善行 石川
Original Assignee
株式会社カプコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社カプコン filed Critical 株式会社カプコン
Priority to JP2011538773A priority Critical patent/JP4937421B2/ja
Priority to CN2011800204268A priority patent/CN102844733A/zh
Priority to KR1020127025020A priority patent/KR20120135281A/ko
Priority to US13/581,277 priority patent/US20130038623A1/en
Priority to EP11747054.2A priority patent/EP2541377A4/en
Publication of WO2011105087A1 publication Critical patent/WO2011105087A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04895Guidance during keyboard input operation, e.g. prompting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/204Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows

Definitions

  • the present invention when a user operates a character that moves in a virtual space displayed on a touch screen via an operation element image displayed on the display, another character that overlaps behind the operation element image.
  • the present invention relates to a computer apparatus, a recording medium, and a control method for making it easier for a user to grasp the image.
  • a user operates a predetermined operation element (button or the like) to cause a character to move in a virtual game space to advance a game.
  • a predetermined operation element button or the like
  • Different types of computer programs are provided.
  • a computer device that employs a touch screen for the purpose of securing a display screen as large as possible.
  • a touch screen replaces part or all of a conventional physical operation element.
  • the touch screen includes a display serving as a display unit and an external input receiving unit such as a touch panel capable of detecting a contact position with the display.
  • Patent Document 1 discloses a touch screen provided in a computer device that displays an operator image that replaces a physical operator in order to indicate an indication of a position for receiving a user operation. That is, the user can cause the computer device to execute a function associated with the operator image by performing a predetermined operation of bringing the fingertip into contact with the operator image on the touch screen. Further, in Patent Document 1, it is possible to change the display position, size, and shape of the operation element image before the start of the game in order to improve the operability of the operation element image during the game. Is disclosed.
  • An object of the present invention is to provide a computer device, a recording medium, and a control method.
  • a computer apparatus includes a virtual operation unit display module that displays a virtual operation unit that receives a user operation on a touch screen, and a display color change module that changes display color information of the virtual operation unit based on a user operation. .
  • the display color information may include at least one of transparency, hue, brightness, and saturation.
  • the display color information is transparency
  • the display color change module displays the virtual operation unit when the virtual operation unit is operated by a user in a state where the transparency is set to a predetermined value or more.
  • the color information may be changed to a content different from the setting content for a predetermined period.
  • a display position changing module that changes a display position of the virtual operation unit on the touch screen based on a user operation may be further provided.
  • a shape change module for changing the shape of the virtual operation unit based on a user operation may be further provided.
  • the display color changing module further includes a game control module that advances a game in response to an operation of the virtual operation unit by a user, and the display color changing module interrupts the progress of the game while the game is in progress. It may be configured to accept a user operation relating to a change in information.
  • a game control module that progresses the game in accordance with an operation of the virtual operation unit by the user is further provided, and the display color change module is configured to accept a user operation related to the change of the display color information during the progress of the game.
  • the display color changing operation unit may be displayed on a part of the game-in-progress image displayed on the display.
  • Patent Document 1 discloses an invention in which a manipulator image that replaces a physical manipulator is displayed on a touch screen included in a computer apparatus.
  • This Patent Document 1 discloses that the display position, size, and shape of an operator image can be changed before the game is started in order to improve the operability of the operator image during the game. What has been done is as described above.
  • This computer apparatus includes an operation position detection module (operation position detection means) that detects a user's operation position with respect to the touch screen, and a virtual that receives a user's operation input to a predetermined operation recognition area defined on the touch screen.
  • An operation position detection module operation position detection means
  • a virtual operation unit display module virtual operation unit display means
  • an operation unit position shape change module that changes at least one of the position and shape of the operation recognition area based on a user operation.
  • Operaation part position shape change means and a function execution module (function execution means) for executing a predetermined function associated with the operation input received by the virtual operation part, the operation part position shape change module,
  • a part of each of the operation recognition areas overlaps each other.
  • the operation execution module can change the position or shape of the operation recognition area
  • the function execution module can detect the operation position detection module when an operation on a plurality of the operation recognition areas overlapping each other is detected. Is configured to determine that there are simultaneous operation inputs to the plurality of virtual operation units having overlapping operation recognition areas and to execute a predetermined function associated with the simultaneous operation inputs. .
  • the “shape” of the operation recognition area that can be changed by the operation unit position shape change module may include the concepts of “direction” and “size” of the operation recognition area. That is, the operation part position shape change module can change the direction by rotating the operation recognition area.
  • the operation unit position shape change module can change the shape of the operation recognition area to a similar shape having different dimensions.
  • the computer apparatus mentioned above can also be comprised so that the function of each module mentioned above may be implement
  • the virtual operation unit display module includes an operator image that is visible to a user in the operation recognition area corresponding to each virtual operation unit. It may be configured to display an area smaller than the operation recognition area.
  • the virtual operation unit display module displays a new operator image in the overlapping area. It may be made as much as possible.
  • This computer apparatus includes an operation position detection module (operation position detection means) that detects a user's operation position with respect to the touch screen, and a virtual that accepts a user's operation input to a predetermined operation recognition area defined on the touch screen.
  • a virtual operation unit display module virtual operation unit display unit
  • a function execution module function execution unit
  • executes a predetermined function associated with an operation input received by the virtual operation unit when there is a region where a plurality of the operation recognition regions overlap each other, a new operation for determining whether to set the overlap region as a new operation recognition region based on a user instruction
  • a recognition area setting module new operation recognition area setting means.
  • This computer apparatus includes an operation position detection module (operation position detection means) that detects a user's operation position with respect to the touch screen, and a virtual that receives a user's operation input to a predetermined operation recognition area defined on the touch screen.
  • a virtual operation unit display module virtual operation unit display unit
  • a function execution module (function execution unit) that executes a predetermined function associated with an operation input received by the virtual operation unit
  • New operation recognition area setting module (new operation recognition area setting means) assigned based on That.
  • the new operation recognition area setting module performs an operation on each operation recognition area forming the overlap area with respect to the new operation recognition area. It may be configured to be able to assign a function different from the existing function executed by.
  • the new operation recognition area setting module is configured to simultaneously input an operation to each operation recognition area forming the overlap area with respect to the new operation recognition area. It may be configured to be able to assign an associated predetermined function.
  • an operation unit position shape change module (operation that changes at least one of a position and a shape of the operation recognition area based on a user operation.
  • the position and shape of the operation recognition area such that a part of each of the operation recognition areas overlaps each other with respect to the plurality of virtual operation sections.
  • the new operation recognition area setting module is configured to be able to set an overlapping area formed by being changed by the operation portion position shape change module as the new operation recognition area. It may be.
  • the new operation recognition area set by the new operation recognition area setting module includes at least a position on the touch screen and the new operation recognition area. You may enable it to change by the said operation part position shape change module independently from the several operation recognition area
  • the virtual operation unit display module recognizes an operation element image visible to a user as an operation recognition including the new operation recognition area. It may be configured to display in the area.
  • the image overlaps behind the virtual operation unit (particularly, the operator image). It is possible to provide a computer device, a recording medium, and a control method that make it easy for the user to grasp the above.
  • FIG. 1 is a schematic external view showing a portable video game machine as an example of a computer device according to an embodiment of the present invention. It is a block diagram which shows the internal structure of the game machine shown in FIG. It is a block diagram which shows the functional structure of the control part with which the game machine shown in FIG. 1 is provided. It is a schematic drawing which illustrates the game screen when the player character and enemy character are fighting in this game. It is a schematic diagram which illustrates the configuration screen in this game.
  • FIG. 4 is a schematic diagram showing an image of an operation screen displayed on a touch screen when changing display color information of an operator image before starting a game, in which (a) and (b) are the first and second operations. Each screen image is shown.
  • FIG. 4 is a schematic diagram showing an image of an operation screen displayed on a touch screen when changing display color information of an operator image before starting a game, in which (a) and (b) are the first and second operations. Each screen image is shown.
  • FIG. 6 is a schematic diagram showing an image of an operation screen displayed on the touch screen 2 when changing display color information of an operator image before the game starts.
  • FIGS. Operation screen images are shown respectively.
  • FIG. 7 is a schematic diagram showing an image of an operation screen displayed on the touch screen 2 when changing display color information of an operator image before starting a game.
  • FIGS. Operation screen images are shown respectively. It is a flowchart which shows operation
  • FIG. 1 is a schematic external view showing a portable video game machine as an example of a computer device according to an embodiment of the present invention.
  • This portable video game machine (hereinafter referred to as “game machine”) 1 includes a touch screen 2 having a color liquid crystal panel and a touch panel in the center.
  • the game machine 1 does not include a physical operator such as a tangible button that is operated for the progress of the game.
  • the user can play the game by downloading the game program 5a and the game data 5b via wireless or wired communication and executing the game program 5a.
  • the game exemplified in the game machine 1 is an action game.
  • the player character When the user operates the action of the player character located in the virtual game space, the player character battles against the enemy character located in the virtual game space.
  • FIG. 2 is a block diagram showing an internal configuration of the game machine 1 shown in FIG.
  • the game machine 1 includes a control unit 30.
  • the control unit 30 includes a CPU 11, a drawing data generation processor 12, a RAM (Random Access Memory) 13, a ROM (Read Only Memory) 14, a drawing processing processor 15, and an audio processing processor 16.
  • the game machine 1 includes a VRAM (Video-RAM) 20, a virtual operation unit input interface 21, the touch screen 2, the amplifier 22, the speaker 23, the earphone terminal 24, and a USB (Universal Serial Bus) interface 26. , And a wireless communication module 27.
  • VRAM Video-RAM
  • the CPU 11, the drawing data generation processor 12, the RAM 13, the ROM 14, the drawing processing processor 15, the voice processing processor 16, the virtual operation unit input interface 21, the USB interface 26, and the wireless communication module 27 are connected via the bus 10. They are connected so as to be able to transmit data to each other.
  • the USB interface 26 provided in the game machine 1 connects the game machine 1 and another computer device via a USB cable. Thereby, the game machine 1 can load the game program 5a and the game data 5b from the connected computer device.
  • the game program 5a is a program that causes the game machine 1 to execute an action game having a content in which the player character and the enemy character battle in the virtual game space as described above.
  • the game data 5b includes data necessary for executing the game. Examples of the game data 5b include various kinds of data such as background image data constituting the virtual game space, image data for displaying information such as status, sound data such as sound effects or BGM, message data using characters or symbols, and the like. included.
  • the wireless communication module 27 performs data communication with other server devices on the Internet by wireless communication complying with a communication standard such as HSPA (High Speed Packet Access).
  • the wireless communication module 27 can download the game program 5a and the game data 5b from another server device, and can communicate with another game machine 1.
  • the game machine 1 according to the present embodiment can execute an action game based on the game program 5a and the game data 5b loaded through the USB interface 26 or the wireless communication module 27 as described above. It is also possible to play against characters operated by other users by communicating with other game machines 1 via the Internet using the wireless communication module 27.
  • the RAM 13 has a load area for storing the game program 5a and game data 5b loaded via the USB interface 26 or the wireless communication module 27, and a work area used when the CPU 11 executes the game program 5a. Is set.
  • the ROM 14 stores a basic program of the game apparatus 1 such as a loading function via the USB interface 26 or the wireless communication module 27.
  • the CPU 11 executes the game program 5a loaded in the RAM 13 in accordance with a user operation on a virtual operation unit 42 (see FIG. 4) described later, and controls the progress of the game. More specifically, when an operation signal is input from the virtual operation unit 42 by being operated by the user, the CPU 11 performs a predetermined game progress process corresponding to the operation signal in accordance with the game program 5a. Then, the CPU 11 displays the processing result on the touch screen 2 as an image indicating the progress of the game (hereinafter, “game image”). Further, the CPU 11 outputs an audio signal indicating the progress of the game (hereinafter referred to as “game audio”) to the speaker 23 or the earphone terminal 24.
  • game audio an audio signal indicating the progress of the game
  • the drawing processor 15 draws the game image in accordance with an instruction from the CPU 11. That is, the CPU 11 determines the content of the game image to be displayed on the touch screen 2 based on the operation signal input by the user.
  • the drawing data generation processor 12 generates necessary drawing data for the contents. Then, the CPU 11 transfers the drawing data to the drawing processor 15.
  • the drawing processor 15 generates a game image every 1/60 seconds based on the drawing data, and writes the generated game image in the VRAM 20.
  • the touch screen 2 has a transflective color liquid crystal display and a backlight LED (Light Emitting Diode), and displays a game image written in the VRAM 20.
  • the touch screen 2 has input means such as a touch panel disposed on the liquid crystal display in addition to the liquid crystal display and the backlight LED. Therefore, when the user touches the touch screen 2 with a fingertip or the like of the hand, information related to the contact position is input to the CPU 11 via the virtual operation unit input interface 21 and the bus 10. Further, as will be described later, an operator image 43 imitating a physical operator such as a button or a lever is displayed on the touch screen 2 (see FIG. 4). The user can perform a predetermined operation input via the operator image 43 by touching the touch screen 2 in such a manner as to operate the operator image 43.
  • input means such as a touch panel disposed on the liquid crystal display in addition to the liquid crystal display and the backlight LED. Therefore, when the user touches the touch screen 2 with a fingertip or the like of the hand, information related to the contact position is input to the CPU 11 via the virtual operation unit input interface 21 and the bus 10. Further, as will be described later, an operator image 43 imitating a physical operator such as a button
  • the CPU 11 determines sound effects such as sound effects and BGM to be output from the speaker 23 as the game progresses.
  • the CPU 11 reads out voice data for generating the voice from the RAM 13 and inputs the voice data to the voice processor 16. That is, when a sound generation event occurs with the progress of the game, the CPU 11 reads out sound data (sound data included in the game data 5b) corresponding to the sound generation event from the RAM 13 and inputs it to the sound processing processor 16.
  • the audio processor 16 is configured by a DSP (Digital Signal Processor).
  • the audio processor 16 gives a predetermined effect (for example, reverb, chorus, etc.) to the audio data input by the CPU 11, converts it to an analog signal, and outputs it to the amplifier 22.
  • the amplifier 22 amplifies the audio signal input from the audio processor 16 and then outputs the amplified audio signal to the speaker 23 and the earphone terminal 24.
  • FIG. 3 is a block diagram illustrating a functional configuration of the control unit 30 included in the game machine 1 described above.
  • FIG. 4 is a schematic diagram illustrating a game screen when a player character and an enemy character are fighting in this game (while the game is in progress).
  • FIG. 5 is a schematic diagram illustrating a configuration screen in this game.
  • the functional configuration of the control unit 30 will be described with reference to FIGS. 3 to 5.
  • the control unit 30 executes the loaded game program 5a.
  • the game machine 1 includes a game space generation means (game space generation module) 31, a character generation means (character generation module) 32, a virtual operation section display means (virtual operation section display module) 33, an operation position detection means (operation). It functions as a position detection module) 34, a function execution unit (function execution module) 35, a game control unit (game control module) 36, and a virtual operation unit setting unit (virtual operation unit setting module) 37.
  • the virtual operation unit setting means 37 includes a display color changing means (display color changing module) 37a and a display position changing means (display position changing module) 37b.
  • the game space generation means 31 generates data indicating the virtual game space 41 in which the player character C1 acts as shown in FIG. 4, and outputs an image of the virtual game space 41 to the touch screen 2 based on the data.
  • the virtual game space 41 displayed on the touch screen 2 is not limited to a three-dimensional image with a sense of depth captured by a virtual camera as shown in FIG. That is, the virtual game space 41 may be a two-dimensional image, or may be a single-color background image in which nothing is drawn.
  • the character generation means 32 generates data of characters that move in the virtual game space 41, such as the player character C1 and the enemy character C2, and based on the data, an image of each character is displayed on the touch screen 2 as shown in FIG. Output (display).
  • the images of the player character C1 and the enemy character C2 are displayed in front of the image of the virtual game space 41. Then, as shown in FIG. 4, the images of the respective characters are arranged so as to overlap before the image of the virtual game space 41.
  • the virtual operation unit display means 33 outputs (displays) the function of generating data indicating the virtual operation unit 42 operated by the user and the image of the virtual operation unit 42 on the touch screen 2 based on the data as shown in FIG. ).
  • the virtual operation unit 42 according to the present embodiment includes an operation element image 43, an input operation recognition area 44, and a setting operation recognition area 45.
  • the operation element image 43 is an image imitating a physical operation element such as a button and a lever.
  • the user can control the operation of the player character C1 by performing an operation input to the operator image 43 during the game. Therefore, the operator image 43 is displayed on the touch screen 2 so as to be visible to the user while the game is in progress (that is, during the battle between the player character C1 and the enemy character C2). As a result, the operator image 43 is displayed in the foreground in preference to the virtual game space 41 and the characters C1 and C2.
  • a plurality of operation element images 43 are displayed corresponding to the plurality of virtual operation units 42 (42a to 42f).
  • a lever-type operation element image 43a represented as an operation element image in a plan view of a lever having a spherical shape at the upper end is displayed at the left corner of the screen.
  • eight button-type operator images 43b having a right isosceles triangle shape are arranged at substantially equal intervals (45 degree intervals) on concentric circles centering on the previous operator image 43a. It is displayed.
  • four button-type operator images 43c to 43f which are represented by operator images like a circular button in plan view, are displayed in close proximity.
  • the input operation recognition area 44 is an operation input to the operation element image 43 when the user inputs an operation to the operation element image 43 in “game in progress” as shown in FIG. This is a range set to determine whether or not. If the position of the operation input is within this range, the game machine 1 determines that there has been an operation input to the corresponding operation element image 43.
  • Such an input operation recognition area 44 is provided individually for each of the operation element images 43a to 43f.
  • an input operation is performed within substantially the same range with respect to each of the operation element images 43a and 43b.
  • Recognition areas 44a and 44b are set.
  • a rectangular input operation recognition area 44c is set so as to include the operation element image 43c and to have a wider range than the operation element image 43c.
  • rectangular input operation recognition areas 44d to 44f are set.
  • the game machine 1 recognizes that the operator image 43c has been operated. Note that the line representing the input operation recognition area 44 shown in FIG. 4 is not displayed on the touch screen 2 of the actual game machine 1.
  • the setting operation recognition area 45 is an operation input to the operation element image 43 when the user inputs an operation to the operation element image 43 in “under configuration (setting)” as shown in FIG. This is a range set to determine whether or not there is. If the position of the operation input is within this range, the game machine 1 determines that there is an operation input (selected) to the corresponding operation element image 43.
  • the setting operation recognition area 45 is individually provided for each of the operation element images 43a to 43f.
  • one set operation recognition area 45a (one point for each of these operation element images 43a and 43b is provided. (Shown by a chain line) is set.
  • the setting operation recognition area 45a is a wide rectangular area that includes all of the operation element images 43a and 43b.
  • a rectangular setting operation recognition area 45c (shown by a one-dot chain line) having substantially the same range as the input operation recognition area 44c corresponding thereto is set.
  • quadrangular setting operation recognition areas 45d to 45f (shown by alternate long and short dash lines) having substantially the same range as the input operation recognition areas 44d to 44f are set. Yes.
  • the user can move the fingertip on the configuration screen as shown in FIG. 5 while touching (selecting) the setting operation recognition area 45 on the screen with the fingertip or the like. As a result, the user can move the touched setting operation recognition area 45 together with the corresponding operation element image 43 and input operation recognition area 44. Then, the user can change the installation location of the operation element image 43 and the like at the desired position by separating the fingertip from the surface of the touch screen 2.
  • the touch panel included in the touch screen 2 employs a multi-touch type.
  • the multi-touch type touch screen is a touch panel that can individually recognize an operation input to each contact point when a fingertip or the like simultaneously contacts a plurality of locations (for example, two locations) on the touch screen 2. Therefore, on the configuration screen, for example, the user can make a state where the left end and the right end of any one operation recognition area 45 are simultaneously in contact with each other with two fingertips, and the distance between the two fingertips can be approached or separated from this state.
  • the horizontal dimension of the corresponding manipulator image 43 and / or input operation recognition area 44 can be changed to a dimension corresponding to the distance between both fingertips.
  • the vertical dimension can also be changed by the same operation.
  • the virtual operation unit 42 as described above is operated in the following manner while the game is in progress (as shown in FIG. 4) as shown in FIG. 4 and can input an instruction to execute a predetermined action on the player character C1.
  • the user touches the spherical operation element image 43a with the fingertip, and the user moves the fingertip along the surface of the touch screen 2 in this contact state.
  • the operator image 43a can be moved following the fingertip movement direction.
  • the user can move the lever-type operation element image 43a up, down, left, and right as if operating a real physical lever.
  • the operator image 43a is an interface for inputting an instruction for executing an action for changing the orientation or position of the player character C1. That is, the user can instruct to change the orientation or position of the player character C1 in the direction in which the operator image 43a is moved by operating the operator image 43a as described above. Therefore, when an operation input for moving the operation element image 43a is made in this way, the control unit 30 detects the movement direction. Thereby, the player character C1 changes its direction or moves in a direction corresponding to the detected moving direction. Note that the change and movement of the orientation of the player character C1 is performed by the character generation means 32 generating an image representing the movement process and sequentially rendering the image at a predetermined rate (for example, 60 frames per second). It is displayed on the touch screen 2 as a moving image.
  • a predetermined rate for example, 60 frames per second
  • the manipulator image 43b is different from the manipulator image 43a in terms of operation mode, but it is possible to input an instruction with the same content.
  • the operator image 43b is a button type, and when the user touches this, the operation is input to the control unit 30. Further, the control unit 30 recognizes that the operation state is maintained until the user releases the fingertip after contacting the operator image 43b. Therefore, the user can operate the operation element image 43b as if operating an actual physical button.
  • the direction associated with the operation element image 43b in advance (specifically, the operation element image 43b exists with reference to the spherical operation element image 43a).
  • the user can change the orientation or position of the player character C1 regardless of which of the lever-type operator image 43a and the button-type operator image 43b described above, and selects the user-friendly one. Can be used.
  • buttons-type controller images 43c to 43f Similarly to the operation element image 43b, it can be input to the control unit 30 that these are operated by bringing a fingertip or the like into contact therewith. Furthermore, by holding the contact state, it can be input to the control unit 30 that the operation state is held. Then, by manipulating these manipulator images 43c to 43f, it is possible to cause the player character C1 to execute a predetermined action previously associated with each manipulator image 43c to 43f. Examples of such actions include a punch action and a kick action related to an attack, a defense action, and a jump action, and each action is assigned to one of the operator images 43c to 43f.
  • the operation position detection unit 34 detects the operation position (contact point position).
  • the touch screen 2 is provided with input means such as a touch panel on the surface thereof, and when a fingertip comes into contact therewith, a contact surface (contact area) is detected.
  • Data indicating the contact surface is input to the CPU 11 via the virtual operation unit input interface 21.
  • CPU11 acquires the gravity center position of a contact surface based on the input data, and detects the position on the display 2 corresponding to this gravity center position as an operation position.
  • the game apparatus 1 displays the operation element image 43c based on the position of the center of gravity of the contact surface. Judge that it was operated. As already described, the player character C1 executes the action associated with the operator image 43c. For example, on the configuration screen as shown in FIG. 5, when the user's fingertip touches the setting operation recognition area 45c corresponding to the operation element image 43c, the game apparatus 1 recognizes the setting operation based on the position of the center of gravity of the contact surface. It is determined that the area 45c has been selected.
  • the setting operation recognition area 45c can be moved together with the corresponding operator image 43c and input operation recognition area 44c as described above. Note that such an operation position detection method is merely an example, and other methods may be adopted as long as the operation position of the user with respect to the touch screen 2 can be detected.
  • the function execution means 35 executes a predetermined function (including the action of the player character C1 described above) associated with the operation input in response to a user operation on the virtual operation unit 42. That is, as described above, when the lever-type virtual operation unit 42a or the button-type virtual operation unit 42b is operated, the function execution unit 35 performs an action associated with the player-like character C1. Change orientation or position. When the button-type virtual operation units 42c to 42f are operated, the player character C1 executes any one of the actions associated with them, such as punch, kick, defense, and jump.
  • the game control means 36 advances this game according to the operation of the virtual operation unit 42 by the user. Specifically, in the state where the game is in progress as shown in FIG. 4, when the user operates the virtual operation unit 42 to move the player character C1, the game control means 36 responds according to the action of the player character C1. The action (action) of the character C2 is determined. Then, the enemy character C2 executes the action determined by the game control means 36. In addition, when the attack of the player character C1 hits an enemy character, the game control means 36 performs an effect process such as generating a spark in order to visually emphasize and express the hit.
  • the game control unit 36 changes the image of the background virtual game space 41 by scrolling in the horizontal direction.
  • the game control means 36 performs various processes necessary for progressing the game according to the operation of the virtual operation unit 42 by the user.
  • the virtual operation unit setting unit 37 executes various change settings for the above-described virtual operation unit 42 (42a to 42f) according to the user's preference.
  • the virtual operation unit setting unit 37 includes a display color changing unit 37a and a display position changing unit 37b.
  • the display color changing means 37a changes the display color information of the operation element image 43 (43a to 43f) displayed on the touch screen 2 while the game is in progress.
  • the display color information is the transparency (display density) of the display color of the operator image 43.
  • the display color changing unit 37a arbitrarily changes the transparency between 0% (completely opaque) and 100% (completely transparent) using, for example, known blending ⁇ blending.
  • the display color changing unit 37a can change the ⁇ value in accordance with an operation to be described later by the user.
  • the display color changing unit 37a displays the operation element image 43 with transparency corresponding to the changed ⁇ value.
  • the display position changing unit 37b changes the display position of the operator image 43 on the touch screen 2 together with the corresponding input operation recognition area 44. This is as already described, and since it is a known technique, only a brief description will be given.
  • the display position changing unit 37b recognizes that the touched setting operation recognition area 45 has been selected when the user touches any setting operation recognition area 45 on the configuration screen as shown in FIG. Next, when the user moves the fingertip in the selected state (touched state), the display position changing unit 37b moves the selected setting operation recognition area 45 along with this movement.
  • the display position changing unit 37b keeps the operator image 43 and the like together with the setting operation recognition area 45 at the position, The display position of the operator image 43 is changed.
  • the determination of which setting operation recognition area 45 has been selected, the determination of the moving direction and the moving speed, and the determination of deselection are the detection results of the operation position detecting means 34. Based on.
  • 6 to 8 are schematic diagrams showing images of the operation screen displayed on the touch screen 2 when the display color information of the operation element image 43 is changed before the game is started.
  • 6A and 6B show the first and second operation screen images
  • FIG. 7A and FIG. 7B show the third and fourth operation screen images
  • FIG. a) and (b) show the fifth and sixth operation screen images, respectively.
  • the operation screen image 101 includes icons 50a to 50d for individually specifying a plurality of play modes (single player, two player play, etc.), an icon 50e for selecting an option, and a help reference.
  • An icon 50f and an icon 50g for selecting past battle record confirmation are included.
  • these icons 50a to 50g when the user touches the icon image with the fingertip, the operation position is specified by the operation position detecting means 34, and the selected icon is detected. Then, any of the above-described processes corresponding to the detected icon is executed by the control unit 30 (hereinafter, the same applies to the operation of the icon).
  • any of the icons 50a to 50g can be selected.
  • the game can be started by one player. Further, as described later, when performing various settings for the virtual operation unit 42, the user needs to select the icon 50e.
  • the third operation screen image 103 shown in FIG. 7A is changed to the second operation screen image 102. Is displayed on the touch screen 2 instead.
  • the operation screen image 103 is a screen for selecting setting items related to various elements during the game.
  • the third operation screen image 103 includes an icon 51a for selecting setting of the command list, an icon 51b for selecting setting of the virtual operation unit 42, and other icons 51c to 51e for selecting various settings. ing.
  • a return icon 51r is provided in the upper right part of the third operation screen image 103. By operating the return icon 51r, the user can redisplay the previous operation screen image 102 in place of the currently displayed third operation screen image 103.
  • a fourth operation screen image (configuration screen) 104 shown in FIG. 7B is a screen for the user to make various settings for the virtual operation unit 42.
  • the transparency of the operator image 43 can be adjusted.
  • the virtual game space 41, the player character C1, and the enemy character C2 are displayed in the same manner as the display during actual game progress.
  • the operator image 43 is displayed on these front faces in the same manner as in the display during the game.
  • a numerical value 52a indicating the transparency (%) of the current operation element image 43 (before adjustment) is displayed in the upper center of the touch screen 2 (0% in FIG. 7B).
  • An icon 52b that is operated when lowering the transparency is provided on the left side of the numerical value 52a
  • an icon 52c that is operated when increasing the transparency is provided on the right side of the numerical value 52a.
  • the control unit 30 (more specifically, the display color changing unit 37a) changes the display color transparency of the operator image 43 as follows when any of the icons 52b and 52c is operated.
  • FIG. 9 is a flowchart showing the operation of the control unit 30 when the transparency changing process is performed on the display color of the operator image 43.
  • the control unit 30 detects which of the icons 52b and 52c has been operated, in other words, which of the instruction to lower transparency and the instruction to increase has been input. (Step S1).
  • step S1 when it is determined that the left icon 52b is operated and an instruction to lower the transparency (make it opaque) is input (step S1: “lower”), the number of times the user touches the icon 52b or the contact time.
  • the ⁇ value of the operation element image 43 is increased (see Equation 1) (step S2).
  • the numerical value 52a indicating the transparency (%) displayed in the upper center of the touch screen 2 is reduced and displayed between 0% and 100% in accordance with the change of the ⁇ value (step S3). ).
  • the operation element image 43 displayed on the touch screen 2 is changed to an opaque image so as to correspond to the increased ⁇ value (step S4).
  • step S1 “up”
  • the ⁇ value of the operation element image 43 is decreased according to the number of times or the contact time of the user touching the icon 52c (step S5).
  • the numerical value 52a indicating the transparency (%) displayed in the upper center of the touch screen 2 is displayed by increasing or decreasing between 0% and 100% in accordance with the change of the ⁇ value (step S6).
  • the operation element image 43 displayed on the touch screen 2 is changed to a transparent image so as to correspond to the reduced ⁇ value (step S7).
  • the user can visually recognize the transparency of the displayed operator image 43 while operating the icons 52b and 52c.
  • the fourth operation screen image 104 shown in FIG. 7B the virtual game space 41 and the characters C1 and C2 are displayed behind the operation element image 43. That is, the fourth operation screen image 104 is the same image as the actual game-in-progress image. Therefore, when the transparency of the operation element image 43 is changed, the user can specifically confirm how much the image behind the operation element image 43 can be visually recognized during the actual game progress.
  • the operator image 43 changes from the opaque state to the fifth operation in FIG. 8A.
  • the screen image (configuration screen) 105 the numerical value 52a indicating the transparency increases.
  • the transparency of the operator image 43 displayed on the touch screen 2 also increases.
  • the numerical value 52a indicating the transparency is decreased.
  • the transparency of the operator image 43 also decreases toward the state (opaque state) shown in FIG. In this way, the transparency of the operator image 43 can be adjusted.
  • a return icon 52 r is provided in the upper right part of the fourth operation screen image 104 and the fifth operation screen image 105.
  • the case where the user operates the return icon 52r is different from the case of the return icon 51r described above. That is, in this case, the previous operation screen image 103 is not displayed again immediately in the next step, but the sixth operation screen image 106 shown in FIG. 8B is temporarily displayed.
  • This operation screen image 106 indicates to the user whether or not to save the adjustment result (setting contents after change) when the transparency is adjusted in the fourth or fifth operation screen images 104 and 105. This is a screen for inquiring.
  • the operation screen image 106 includes an icon 53a displayed as “Yes” for selection when saving, and an icon 53b displayed as “No” for selection when not saving.
  • the third operation screen image 103 (see FIG. 7A) is displayed again.
  • the third operation screen image 103 is displayed again.
  • the sixth operation screen image 106 is also provided with a return icon 53r in the upper right part thereof. When the user operates the return icon 53r, the configuration screen immediately before switching to the sixth operation screen image 106 is displayed again instead of the sixth operation screen image 106. Thereby, the operator image 43 can be changed again.
  • the user can change the transparency of the operation element image 43 to suit his / her preference. And a game is started by performing predetermined operation further.
  • a controller image 43 is displayed on the screen image of the game in progress with the changed transparency.
  • the user can control the movement of the player character C1 by operating the operator image 43 with a fingertip, and can play a game against the enemy character C2.
  • FIG. 10A is a schematic diagram showing a screen image in progress of the game.
  • the screen image 111 in progress of the game shown in FIG. 10A has the same configuration as that of FIG. 4 described above.
  • the screen image 111 includes an image in which the player character C1 and the enemy character C2 are located in the virtual game space 41.
  • images of the operation element images 43 (43a to 43f) are displayed in front of these images.
  • physical strength gauges 54a and 54b which are indicators indicating the physical strength consumption of the player character C1 and the enemy character C2, are provided. It is displayed.
  • the physical strength gauges 54a and 54b are bar-shaped gauges extending in the left-right direction.
  • the physical strength gauge 54a corresponding to the player character C1 located on the left side is disposed on the upper left side of the touch screen 2.
  • the physical strength gauge 54b corresponding to the enemy character C2 located on the right side is arranged on the upper right side of the touch screen 2.
  • a pause icon 54c is provided.
  • the third operation screen image 103 shown in FIG. 7A is displayed on the touch screen 2 in place of the screen image 111 during the game. The Therefore, the transparency of the operator image 43 can be changed by operating the third to sixth operation screen images 103 to 106 according to the procedure already described.
  • the sixth operation screen image 106 is displayed, so the user selects whether or not to save the changed setting.
  • the screen image 111 at the time of interruption (see FIG. 10 (a)) is displayed again, and the user can proceed from the state at the time of interruption again.
  • the display color information of the operation element image 43 is changed, the changed content is reflected in the display color of the operation element image 43 in the redisplayed screen image 111.
  • the display 54d arranged immediately above the pose icon 54c displays the remaining time of the battle between the player character C1 and the enemy character C2. In the example shown in FIG. 10A, a symbol representing infinity is displayed as the display 54d. This means that there is no time limit for this match.
  • the user can change the transparency as the display color information of the operator image 43. Therefore, by setting the transparency high, it is possible to make it easy to visually recognize the image overlapping the operation element image 43 while the game is in progress. Further, the transparency of the operator image 43 can be changed in the operation screen images 104 and 105 (see FIGS. 7 and 8) similar to the screen image 111 (FIG. 10A) during the actual game. Therefore, it is possible to more reliably set the transparency that matches the user's preference.
  • the display color changing unit 37a can change the transparency of the operator image 43, but the display color information to be changed is not limited to transparency. That is, the display color information may include one or more of hue, brightness, saturation, luminance, and RGB.
  • the operation element image 43 may be changed so as to be drawn with a hue obtained by inverting the hue of an image overlapping behind the operation element image 43.
  • the operator image 43 drawn in the reverse color can be distinguished and recognized from the background image, and the approximate state of the background portion overlapping with the operator image 43 can be visually recognized based on the hue.
  • the brightness or saturation of the operation element image 43 may be changed so as to correspond to the lightness or saturation of the background image overlapping behind the operation element image 43. Further, display color information obtained by appropriately combining the transparency, hue, brightness, and saturation may be changed for the operator image 43.
  • the color parameters can be adjusted by a conventionally known method such as operation of a parameter gauge or numerical input of parameters.
  • the display color information such as the transparency ⁇ value may be directly input by the user as a numerical value.
  • a plurality of operation element images 43 set in advance to have a predetermined transparency are prepared with different transparency, and the user can set the configuration screen. By selecting from these, the transparency may be designated.
  • the display color information of all the operation element images 43 is collectively changed.
  • the operation element images 43 can be individually selected, and the display color information of the selected operation element image 43 is displayed. It may be possible to change only.
  • FIG. 10B is a schematic diagram showing a screen image during the game.
  • the screen image 112 shown here is an example when the transparency of the physical strength gauges 54a and 54b, the pause icon 54c, and the display 54d indicating the remaining time, which are UIs (user interfaces), is increased. Others are the same as the screen image 111 shown to Fig.10 (a). It goes without saying that the display colors including hue, lightness, and saturation may be changed in addition to the transparency of the physical strength gauges 54a and 54b, the pause icon 54c, and the display 54d indicating the remaining time.
  • the display colors of all the images displayed on the touch screen can be changed.
  • the user can specify a UI whose transparency is to be changed on the option setting screen, and then change the transparency of the UI. It is also possible to change the transparency of all UIs at once.
  • the work for changing the transparency of the UI is the same as the work for changing the transparency of the virtual operation unit 43. For example, if the transparency of the physical strength gauges 54a and 54b is set to 100% and the user battles in a state where the physical strength gauges 54a and 54b are not visible, the remaining physical strength is not known. can do.
  • the transparency of the virtual operation unit 43 is set to a predetermined value. You may set so that it may become below a predetermined value only for a period (for example, several seconds). Thereby, even if the transparency is set high, the user can confirm which operator image 43 has been operated after the operation. In this case, instead of setting the transparency of the operated operator image 43 to a predetermined value or less, any one or more of hue, lightness, and saturation are changed and displayed for a predetermined period. Also good. Further, the operated operator image 43 may be different from the operator image 43 for changing the display color information for a predetermined time. For example, in FIG. 4, when the lever-type operation element image 43a is operated in a certain direction, the display color information of one operation element image 43b positioned in that direction may be changed for a predetermined time.
  • buttons corresponding to the icons 52a and 52b used for adjusting the transparency shown in FIG. 7B can be provided in a part of the screen image 111 in progress of the game shown in FIG. In this case, when the user operates this icon, display color information such as transparency can be changed without interrupting the progress of the game.
  • control unit 30 of the game machine 1 includes display position changing means 37b.
  • the operation screen images (configuration screens) 104 and 105 shown in FIGS. 7B and 8A the setting operation recognition area 45 corresponding to each virtual operation unit 42 is displayed. Therefore, as described above, when the user moves the fingertip that is in contact with the setting operation recognition area 45, the display position of the operator image 43 on the touch screen 2 is changed to the position of the fingertip after the movement. can do. Therefore, in addition to the change in display color information as described above, the operator image 43 is moved to a position (for example, the lower right corner or the lower left corner of the touch screen 2) that does not interfere with the user viewing the characters C1 and C2. Thus, the visibility of the characters C1, C2, etc. during the progress of the game can be further improved.
  • the touch screen 2 is a multi-touch touch screen as already described.
  • the user can touch the left end and the right end of any one operation recognition area 45 simultaneously with two fingertips, and the distance between the two fingertips can be approached or separated from this state. It is possible to change the horizontal dimension of the input operation recognition area 44 of the operator image 43 to a dimension corresponding to the distance between both fingertips. Therefore, in addition to the change in the display color information and / or the change in the display position as described above, the visibility of the characters C1, C2, etc. during the game progress is further improved by changing the shape of the operator image 43. be able to.
  • the operator image 43 that can change the display color information is determined in advance, but the present invention is not limited to this. That is, the user can select the operator image 43 whose display color information is to be changed, and only the display color information of the selected operator image 43 can be changed.
  • the game machine 1 has been illustrated with a configuration that does not include a physical operation element in addition to the touch screen 2, it is not limited thereto.
  • a game machine having a tangible physical operator such as a button may be used. That is, even if a physical operation element is provided, the present invention can be applied to any computer device that displays a virtual operation unit on a touch screen. The same applies to the second and third embodiments described below.
  • the game machine 1 can change the position and shape of the input operation recognition area 44 of the virtual operation unit 42. Therefore, in this game machine 1, the user can easily perform simultaneous operations on the plurality of virtual operation units 42 by appropriately changing the input operation recognition area 44.
  • the change of the input operation recognition area 44 for facilitating simultaneous operation in this way will be described. Note that the configuration of the game machine 1 according to the second embodiment is the same as that described in the first embodiment, and a description thereof will be omitted here.
  • FIG. 11 is a schematic diagram showing a configuration screen image of the game machine 1, and the contents shown here are the same as the fourth operation screen image 104 of FIG. 7B.
  • the input operation recognition areas 44c and 44d corresponding to these virtual operation parts 42c and 44d respectively overlap with each other (hereinafter referred to as “overlap recognition area”). 44g ”) (indicated by hatching in FIG. 11).
  • overlap recognition areas 44h, 44i, and 44j exist between the input operation recognition areas 44d and 44e, the input operation recognition areas 44e and 44f, and the input operation recognition areas 44f and 44c, respectively. .
  • overlap recognition areas 44g to 44j can be changed in accordance with the user's preference by appropriately changing the positions and / or shapes of the input operation recognition areas 44c to 44f by the user. For example, when the user moves the input operation recognition area 44c leftward from the state shown in FIG. 11 or reduces the size thereof, the overlap recognition area 44g, which overlaps with the input operation recognition areas 44d and 44f, The area and shape of 44j can be changed small. Further, the above-described overlap recognition areas 44g and 44j can be eliminated by further moving the input operation recognition area 44c to the left or reducing its size.
  • FIG. 12 is a flowchart showing the operation of the control unit 30 when an operation input is made to the input operation recognition areas 44c to 44f.
  • the operation of the control unit 30 in this case will be described with reference to FIG.
  • step S10 when a touch input is made to any of the input operation recognition areas 44c to 44f on the touch screen 2, the control unit 30 acquires the coordinates of the input point (step S10), and performs a virtual operation.
  • the flags set in the units 42c to 42f are set to “OFF” (step S11).
  • step S11 the control unit 30 sequentially determines in which of the input operation recognition areas 44c to 44f the coordinates acquired in step S10 are included. That is, the control unit 30 determines whether or not the acquired coordinates are included in the input operation recognition area 44c (step S12).
  • step S12 If the coordinates are included in the input operation recognition area 44c (step S12: YES), the control unit 30 changes the flag of the virtual operation unit 42c from “OFF” to “ON” (step S13). If it is not included in the input operation recognition area 44c (step S12: NO), the flag of the virtual operation unit 42c is kept “OFF”.
  • control unit 30 determines whether or not the acquired coordinates are included in the input operation recognition area 44d (step S14). If the coordinates are included in the input operation recognition area 44d (step S14: YES), the control unit 30 changes the flag of the virtual operation unit 42d to “ON” (step S15), and the coordinates are in the input operation recognition area. If it is not included in 44d (step S14: NO), the flag of the virtual operation unit 42d is kept “OFF”. Further, the control unit 30 determines whether or not the acquired coordinates are included in the input operation recognition area 44e (step S16).
  • step S16: YES If the coordinate is included in the input operation recognition area 44e (step S16: YES), the control unit 30 changes the flag of the virtual operation unit 42e to “ON” (step S17), and the coordinate is in the input operation recognition area. If it is not included in 44e (step S16: NO), the flag of the virtual operation unit 42e is kept “OFF”. Further, the control unit 30 determines whether or not the acquired coordinates are included in the input operation recognition area 44f (step S18). If the coordinates are included in the input operation recognition area 44f (step S18: YES), the control unit 30 changes the flag of the virtual operation unit 42f to “ON” (step S19), and the coordinates are in the input operation recognition area. If it is not included in 44f (step S18: NO), the flag of the virtual operation unit 42f is kept “OFF”.
  • the control unit 30 determines whether or not the acquired coordinates are included in all of the input device recognition areas 44c to 44f (steps S12, S14, S16, and S18), and based on the result.
  • a flag is set (steps S13, S15, S17, S19).
  • the combination of the flags of the virtual operation units 42c to 42f is determined depending on where the coordinates of the input point exist. For example, when there is a coordinate in the overlap recognition area 44g, the flags of the virtual operation units 42c and 42d are “ON” and the flags of the virtual operation units 42e and 42f are “OFF”. Therefore, the control unit 30 executes an action set in advance so as to correspond to the combination of the flags determined in this way (step S20).
  • the user's operation input is the virtual operation unit 42c, It means that it was a simultaneous operation input to 42d. Therefore, as an action associated with the combination of the flags, for example, an action such as a special technique different from the action executed when each of the virtual operation units 42c to 42f is operated alone is used. Will run.
  • a plurality of virtual operation units 42 can be arranged adjacent to each other so as to overlap the input operation recognition areas 44. Then, when the user operates the overlapping portion (the overlapping recognition areas 44g to 44j), the control unit 30 determines that the virtual operation units 42 belonging to the overlapping portion are operated simultaneously. Therefore, for example, when the user intends to operate the two virtual operation units 42c and 42d at the same time, it is not necessary to operate each of them with two fingertips simultaneously, and by operating the overlap recognition area 44g with one fingertip. That's it. Therefore, the user can perform the same operation as the simultaneous pressing operation with one fingertip on the physical operation elements arranged in proximity to the operation element image 43 displayed in proximity. In other words, the user can perform the intuitive simultaneous pressing operation similar to the case of the physical operation element also on the operation element image 43 displayed in proximity.
  • a plurality of virtual operation units 42 can be simultaneously operated with one fingertip, a plurality of virtual operation units 42 can be simultaneously operated even on a single touch type touch screen.
  • the input operation recognition area 44 having various shapes may be prepared in advance, and the shape may be changed by the user selecting one of the shapes on the configuration screen. Further, when the user arranges a plurality of input operation recognition areas 44 in an overlapping manner, the virtual operation unit display means 33 may display a new operator image in the overlap recognition area.
  • the two input operation recognition areas 44 are overlapped as exemplified above, three or more input operation recognition areas 44 may be overlapped.
  • the operator image 43 and the input operation recognition area 44 may be set in the same range.
  • an overlap recognition area may be set in a portion where a plurality of operation element images 43 themselves overlap each other.
  • the user may be able to select whether or not to set the overlapping portion as an overlap recognition area. For example, when the user has selected to set the overlapping portion as an overlap recognition area, it is possible to operate the plurality of virtual operation units 42 simultaneously by operating the overlapping portion. On the other hand, when the user selects not to set as the overlap recognition area, only the virtual operation unit 42 can be arranged in close proximity.
  • both the change of the virtual operation unit 42 according to the first embodiment described above and the mode of the simultaneous operation according to the second embodiment are directed to the virtual operation unit 42 operated while the game is in progress. It is not limited.
  • the display color information of the icons 51a to 51e displayed on the third operation screen image 103 shown in FIG. 7A may be changed, or the display color information of other icons may be changed. It may be.
  • the present invention can be applied to devices other than game machines. For example, when the operator image is displayed in front of the background image on a touch screen such as a ticket vending machine, the display color information of the operator image can be changed.
  • the user may be allowed to select a function to be assigned to the operation input to the overlapped portion.
  • a function for example, punch and kick
  • each function for example, punch and kick
  • the user may be able to select whether to execute or to execute a new function (for example, a special move) different from the above functions. Therefore, hereinafter, a configuration in which the user can select the function to be assigned to the overlap recognition area will be described.
  • FIG. 13 is a block diagram illustrating a functional configuration of the control unit 30 included in the game machine 1 according to the third embodiment.
  • the internal configuration of the game machine 1 according to the present embodiment is the same as that shown in FIG.
  • the control unit 30 of the game machine 1 according to the third embodiment has a new operation recognition area setting means (new) compared to FIG. 3 showing the configuration of the control unit 30 of the first and second embodiments.
  • the operation recognition area setting module 38) is additionally provided, but the other configurations are the same.
  • the virtual operation unit setting means 37 that is, to provide a function capable of changing the display color, position, and shape of the operation element image 43, and this is omitted. be able to.
  • the game machine 1 does not include the display position changing unit 37b, and the positions of the input operation recognition areas 44 of the plurality of virtual operation units 42 are fixedly determined by the initial setting. Even in this case, when a plurality of input operation recognition areas overlap each other and have an overlap recognition area, the user can select a function to be assigned to the overlap recognition area.
  • the game machine 1 can change the position and / or shape of the input operation recognition area 44, and by changing these, an overlap recognition area in which a plurality of input operation recognition areas 44 overlap is formed. In this case, the user can select the function to be assigned to the overlap recognition area.
  • the game machine 1 provided with this virtual operation part setting means 37 in the control part 30 is demonstrated to an example.
  • the configuration screen image of FIG. 11 includes overlapping recognition areas 44g to 44j in which a plurality of input operation recognition areas (operation recognition areas) 44 overlap each other.
  • the new operation recognition area setting means 38 instructs the user what kind of function is to be executed in response to an operation input to each of the overlap recognition areas 44g to 44j which are these new operation recognition areas. It can be set based on this.
  • the specific function of the new operation recognition area setting means 38 will be described in detail with a focus on the overlap recognition area 44g, which is an overlapping portion of the input operation recognition areas 44c and 44d. The same applies to the overlapping portions of the other input operation recognition areas 44.
  • the input operation recognition areas 44c and 44d have overlapping recognition areas 44g that overlap each other.
  • a function selection screen shown in FIG. 14 is displayed. The user can select a function to be assigned to the overlap recognition area 44g by operating this function selection screen.
  • the function 1 is a function for executing “punch” and “kick” at the same time, and the functions 2 to 4 are different from each other, “special technique A”, “special technique B”, and “special technique C”. ”Is shown.
  • the virtual operation unit 42c corresponding to the input operation recognition area 44c is operated alone, the player character C1 executes a “punch” action.
  • the virtual operation unit 42d corresponding to the input operation recognition area 44d is operated alone, the player character C1 executes a “kick” action. Therefore, the function 1 simultaneously executes the functions assigned to the virtual operation units 42c and 42d.
  • the functions 2 to 4 are functions stored in the game program 5a in advance and are different from existing functions (punch, kick) individually assigned to the virtual operation units 42c and 42d. is there.
  • the user can select any one of the functions 1 to 4 displayed on the touch screen 2 by touching the corresponding one of the icons 61 to 64. That is, when the user performs a touch operation on any icon, the new operation recognition area setting unit 38 accepts selection of any one of the corresponding functions 1 to 4 (function selection acceptance process). Subsequently, the new operation recognition area setting unit 38 assigns the selected function as a function to be executed when the overlap recognition area 44g is operated and input (selected function registration process).
  • the new operation recognition area setting unit 38 simultaneously executes the functions (punch and kick) assigned to the virtual operation units 42c and 42d (function 1), or The user can select whether to execute a different new function (for example, any one of the special moves A to C) (any one of the functions 2 to 4).
  • a different new function for example, any one of the special moves A to C
  • the configuration screen shown in FIG. 11 is displayed again on the touch screen 2, and other overlap recognition areas 44h to 44j are selected. Can do.
  • a return icon 65 is provided in the upper right part of the function selection screen. By operating this icon 65, the function setting in the overlap recognition area 44g is canceled and the function selection screen shown in FIG. You can return to the configuration screen.
  • FIG. 15 shows the operation of the new operation recognition area setting means 38 when assigning the function selected by the user to the overlap recognition area 44g, including the process of determining whether or not to set the overlap recognition area 44g as a new operation recognition area. It is a flowchart explaining these.
  • the new operation recognition area setting means 38 first displays the configuration screen shown in FIG. 11 (step S30).
  • step S31 When the user touches and selects this overlap recognition area 44g displayed there (step S31), it is necessary to make the user select whether or not to set the selected overlap recognition area 44g as a new operation recognition area.
  • a selection screen image (not shown) is displayed on the touch screen 2. In this screen image, for example, an icon displayed as “Yes” and an icon displayed as “No” are displayed together with a telop content “Set as a new operation recognition area?”.
  • step S32: YES When the user touches the “Yes” icon (step S32: YES), the control unit 30 receives an instruction to set the overlap recognition area 44g as a new operation recognition area. And the control part 30 performs the process of step S33, S34 of the same content as the function selection reception process and selection function registration process which were mentioned above.
  • step S33, S34 of the same content as the function selection reception process and selection function registration process which were mentioned above.
  • step S32: NO the control unit 30 receives an instruction not to set the overlap recognition area 44g as a new operation recognition area. And the control part 30 complete
  • the user can select whether or not to set the overlap recognition area 44g as a new operation recognition area. Only when the setting is selected, the function further selected by the user can be assigned to a new operation recognition area. Accordingly, it is possible to expand the user's choices as to what setting is to be made for the overlap recognition area 44g.
  • a return icon is also provided in the upper right part of the above-described setting necessity selection screen image, and the user can return to the configuration screen of FIG. 11 by operating this icon.
  • the player character C1 performs an action of “punch + kick”, “special move A”, “special move B”, and “special move C”. (FIG. 14), of course, but not limited to this.
  • the user can select a function that preferentially executes one of the functions (punch and kick) assigned to each of the virtual operation units 42c and 42d so that the function can be assigned to the overlap recognition area 44g. Also good.
  • specific functions are not initially set in the icon 61 of FIG. 14, and when the icon 61 is touched, the configuration screen shown in FIG. 11 is displayed, where the user can set a new function. You may do it.
  • the downward virtual operation unit 42b and the rightward virtual operation unit 42b among the triangular virtual operation units 42b are touched in order, and then the “punch” function displayed as “C” in the figure.
  • the virtual operation unit 42c By touching the virtual operation unit 42c corresponding to, a new function of “squatting and punching rightward” can be set in the icon 61 for the player character C1.
  • a function for activating a special effect or the like may be selectable by the user.
  • Special effects include an effect of restoring the physical strength value of the player character C1 by a certain amount, an effect of increasing the defense power or attack power of the player character C1, and an effect of reducing the defense power of the enemy character C2.
  • the user may be allowed to select a function that does not execute any action or activate a special effect. For example, if it is selected to assign this function to the overlap recognition area 44g, even if the user touches the overlap recognition area 44g while the game is in progress, the operation input by such fingertip contact is substantially Are ignored and no special functions are performed.
  • a new operator image may be displayed in the overlap recognition area.
  • the display color and / or shape of the operator image may be determined according to the function assigned to the overlap recognition area.
  • the action function and the special effect function as described above may be displayed in different colors.
  • the position, shape, and display color of the newly displayed operator image may be changed by a user operation on the configuration screen as shown in FIG.
  • the function assigned to the operation recognition area is “punch + kick” (function 1 in FIG. 14A)
  • priority priority indicating which action is given priority between punch and kick. If the degree is determined in advance, it is possible to set so that a continuous technique of kicking out immediately after punching by pressing down the virtual operation unit is delivered. This priority may also be set in advance when the game program 5a is created, or may be set as appropriate by user operation.
  • the present invention is a computer that makes it easy for a user to grasp an image overlapping behind an operation unit when the user operates the character displayed on the touch screen via the operation unit displayed on the display.
  • An apparatus, a recording medium, and a control method can be provided.
  • Game machine 1 (computer device) 2 Touch screen 5a Game program 30 Control unit 31 Game space generation unit 32 Character generation unit 33 Virtual operation unit generation unit 34 Operation position detection unit 35 Function execution unit 36 Game control unit 37 Virtual operation unit setting unit 37a Display color change unit 37b Display Position changing means C1 Player character C2 Enemy character

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 タッチスクリーンに表示されたキャラクタを、該ディスプレイに表示された操作部を介してユーザが操作する場合において、操作部の背後に重複する画像をユーザが把握しやすくすることのできるコンピュータ装置を提供する。ゲーム機1は、ユーザの操作を受け付ける仮想操作部42をタッチスクリーン2に表示する仮想操作部表示モジュール(仮想操作部表示手段)33、及びユーザの操作に基づいて仮想操作部42の表示色情報を変更する表示色変更モジュール(表示色変更手段)37aを備えている。

Description

コンピュータ装置、記録媒体、及び制御方法
 本発明は、タッチスクリーンに表示された仮想空間内で動作するキャラクタを、該ディスプレイに表示された操作子画像を介してユーザが操作する場合において、操作子画像の背後に重複して位置する別の画像をユーザが把握しやすくするためのコンピュータ装置、記録媒体、及び制御方法に関する。
 近年、携帯型の小型ゲーム装置及び携帯電話機などのコンピュータ装置においても、ユーザが所定の操作子(ボタン等)を操作することにより、仮想ゲーム空間内でキャラクタを動作させてゲームを進行させていく種類のコンピュータプログラムが提供されている。また、このような小型のコンピュータ装置において、できるだけ表示画面を大きく確保するため等の理由から、タッチスクリーンを採用したコンピュータ装置がある。このコンピュータ装置では、タッチスクリーンが、従来の物理的な操作子の一部又は全部を代替している。なお、タッチスクリーンは、表示手段であるディスプレイと、該ディスプレイへの接触位置を検出可能なタッチパネル等の外部入力受付手段とを備える。
 例えば、特許文献1には、コンピュータ装置が備えるタッチスクリーンにおいて、ユーザの操作を受け付ける位置の目安を示すために、物理的な操作子を代替する操作子画像を表示したものが開示されている。即ち、ユーザは、タッチスクリーン上の操作子画像に指先を接触させる所定の操作をすることにより、コンピュータ装置に対して、この操作子画像に関連付けられた機能を実行させることができる。また、この特許文献1には、ゲーム中における操作子画像の操作性を向上させるために、ゲーム開始前に、操作子画像の表示位置、大きさ、及び形状を変更することを可能とすることが開示されている。
特許第4243553号公報
 ところで、上記のようにタッチスクリーンに操作子画像を表示すると、仮想ゲーム空間又はキャラクタの一部が、操作子画像の背後に隠れて視認できなくなってしまう可能性がある。ここで、特許文献1に開示された技術により、例えば操作子画像の位置を変更して、少なくともキャラクタと重複しないように配置することが考えられる。しかしながら、特に携帯型のコンピュータ装置又は携帯電話機などのように小型のコンピュータ装置の場合、タッチスクリーンの面積には限界がある。そのため、タッチスクリーン上にキャラクタと重複しないスペースを確保するのは困難である。
 また、特許文献1に開示されたもう一つの技術により、操作子画像の表示寸法を小さく変更することで、操作子画像による視認不能領域を極力小さくすることが考えられる。しかしながら、操作子画像の表示を小さくするほど、必然的にユーザによる操作性が低下してしまうという傾向がある。
 そこで本発明は、タッチスクリーンに表示されたキャラクタを、該タッチスクリーンに表示された操作子画像を介してユーザが操作する場合において、操作子画像の背後に重複する画像をユーザが把握しやすくすることのできるコンピュータ装置、記録媒体、及び制御方法を提供することを目的とする。
 本発明に係るコンピュータ装置は、ユーザの操作を受け付ける仮想操作部をタッチスクリーンに表示する仮想操作部表示モジュール、及びユーザの操作に基づいて前記仮想操作部の表示色情報を変更する表示色変更モジュール、を備える。
 このような構成とすることにより、表示色を変更することで、操作部の背後に位置する画像(例えば、仮想空間及び/又はキャラクタなど)を視認可能とすることができる。これにより、ユーザによる操作部の操作性の低下も抑制することができる。
 また、前記表示色情報には、透明度、色相、明度、及び彩度のうち、少なくとも1つを含むように成してあってもよい。
 また、前記表示色情報は透明度であって、前記表示色変更モジュールは、前記透明度が所定値以上に設定されている状態でユーザにより前記仮想操作部が操作された場合、前記仮想操作部の表示色情報を、前記設定内容とは異なる内容に所定期間だけ変更するように成してあってもよい。
 また、ユーザの操作に基づいて前記仮想操作部の前記タッチスクリーンでの表示位置を変更する表示位置変更モジュールを更に備えていてもよい。
 また、ユーザの操作に基づいて前記仮想操作部の形状を変更する形状変更モジュールを更に備えていてもよい。
 また、ユーザによる前記仮想操作部の操作に応じてゲームを進行させるゲーム制御モジュールを更に備え、前記表示色変更モジュールは、前記ゲームの進行中には該ゲームの進行を中断して、前記表示色情報の変更に関するユーザの操作を受け付けるべく成してあってもよい。
 また、ユーザによる前記仮想操作部の操作に応じてゲームを進行させるゲーム制御モジュールを更に備え、前記表示色変更モジュールは、前記ゲームの進行中に前記表示色情報の変更に関するユーザの操作を受け付けるべく、前記ディスプレイに表示されたゲーム進行中の画像の一部に、表示色変更操作部を表示すべく成してあってもよい。
 ところで、近年、既に説明したように、携帯型の小型ゲーム装置及び携帯電話機などのコンピュータ装置においても、ユーザが所定の操作子(ボタン等)を操作することにより、仮想ゲーム空間内でキャラクタを動作させてゲームを進行させていく種類のコンピュータプログラムが提供されている。また、タッチスクリーンが従来の物理的な操作子の一部又は全部を代替するコンピュータも存在している。
 そして、例えば上記特許文献1には、コンピュータ装置が備えるタッチスクリーンに、物理的な操作子を代替する操作子画像を表示した発明が開示されている。この特許文献1には、ゲーム中における操作子画像の操作性を向上させるために、ゲーム開始前に、操作子画像の表示位置、大きさ、及び形状を変更することを可能とすることが開示されていることは、上述の通りである。
 ところで、従来、近接して配設された2つの操作子を同時に押すことで、各操作子を単独で押した場合とは異なる機能(アクション)を実行できるようにしたゲームがある。例えば、人型のプレイヤキャラクタが敵キャラクタと対戦するアクションゲームにおいて、操作子Aを押すことでキャラクタが「パンチ」のアクションを実行し、操作子Bを押すことでキャラクタが「キック」のアクションを実行する場合に、操作子A,Bを同時に押すことで「必殺技」が発動する、などである。
 従来の物理的な操作子を操作する場合には、2つの操作子を同時押しする際に、例えば右手親指1本で2つの操作子を同時に押すといった操作を行うユーザが存在する。一方、上記のようなタッチスクリーンに表示した操作子画像を操作する場合には、物理的な2つの操作子を指1本で同時押しするような操作ができない。すなわち、マルチタッチ式のタッチスクリーンの場合には、2つの操作子画像を夫々1本ずつの計2本の指で操作する必要がある。
 具体的に説明すると、タッチスクリーンでは、指先などが接触した場合、この1つの接触箇所(1つの閉じた接触領域)に対して1点の操作位置を検出し、この1点の操作位置へ操作入力があったと判定している。例えば、1つの閉じた接触領域からその重心位置(1点)を検出し、この位置を、操作入力のあった操作位置と判定している。従って、2つの操作子画像が近接配置されていたとしても、これらを1本の指先で同時押しすることはできない。そのため、ユーザは、同時押しをするために2本の指先で同時に操作する必要がある。
 このような場合、物理的な操作子と同様の操作が行えないことから、ユーザに対して操作性に違和感を生じさせる可能性がある。また、2本の指先で正確に同時押しをしなければならないため、ユーザの思うように同時押しができない可能性もある。なお、上記のように2本の指先での同時押し操作は、マルチタッチ式のタッチスクリーンの場合に可能である。しかしながら、シングルタッチ式のタッチスクリーンの場合は、そもそも2点を同時に押して入力することができないため、同時押しという行為自体が不可能である。
 そこで以下に、タッチスクリーンに複数の操作子画像が配設されている場合に、2以上の操作子画像を容易に同時押しすることが可能なコンピュータ装置について開示する。
 (1)このコンピュータ装置は、タッチスクリーンに対するユーザの操作位置を検出する操作位置検出モジュール(操作位置検出手段)、前記タッチスクリーンに画定された所定の操作認識領域へのユーザの操作入力を受け付ける仮想操作部を前記タッチスクリーンに複数表示する仮想操作部表示モジュール(仮想操作部表示手段)、ユーザの操作に基づき、前記操作認識領域の位置及び形状のうち少なくとも一方を変更する操作部位置形状変更モジュール(操作部位置形状変更手段)、及び前記仮想操作部が受け付けた操作入力に関連づけられた所定の機能を実行する機能実行モジュール(機能実行手段)、を備え、前記操作部位置形状変更モジュールは、複数の前記仮想操作部について、夫々の前記操作認識領域の一部が互いに重複するような該操作認識領域の位置又は形状の変更が可能であり、前記機能実行モジュールは、前記操作位置検出モジュールによって、複数の前記操作認識領域の互いに重複する領域への操作が検出された場合には、重複する各操作認識領域を有する複数の前記仮想操作部に対して同時に操作入力があったものと判定し、該同時の操作入力に関連付けられた所定の機能を実行すべく成してある。
 なお、上記操作部位置形状変更モジュールが変更可能な操作認識領域の「形状」には、該操作認識領域の「向き」及び「大きさ」の概念を含んでいてもよい。即ち、操作部位置形状変更モジュールは、操作認識領域を回転させて向きを変更することができる。また、操作部位置形状変更モジュールは、操作認識領域の形状を寸法の異なる相似の形状に変更することができる。また、上述したコンピュータ装置は、コンピュータプログラムを実行することによって上述した各モジュールの機能を実現するように構成することもできる。以下においても同様である。
 (2)また、上記(1)に記載のコンピュータ装置において、前記仮想操作部表示モジュールは、ユーザに視認可能な操作子画像を、夫々の前記仮想操作部に対応する前記操作認識領域内に、該操作認識領域より小さい面積で表示すべく成してあってもよい。
 (3)また、上記(2)に記載のコンピュータ装置において、前記仮想操作部表示モジュールは、複数の前記操作認識領域が互いに重複する場合に、重複する領域内に新たな操作子画像を表示すべく成してあってもよい。
 以上の構成によれば、タッチスクリーンに複数の仮想操作部が配設されている場合に、2以上の仮想操作部を容易に同時押しすることが可能なコンピュータプログラム、及びコンピュータ装置を提供することができる。
 また、上記では1本の指先で「同時押し」ができないという課題について説明したが、これに先立ち、従来、ユーザは予め設定された操作子画像しか操作することができず、ユーザの好み等に応じて新たな機能を実行することができる新たな操作子画像を新規に設定することができない、という課題がある。
 そこで以下に、タッチスクリーンに複数の操作子画像が配設されている場合に、ユーザが操作入力することによって新たな機能を実行させることのできる新たな仮想操作部を新規に設定することが可能なコンピュータ装置について開示する。
 (4)このコンピュータ装置は、タッチスクリーンに対するユーザの操作位置を検出する操作位置検出モジュール(操作位置検出手段)、前記タッチスクリーンに画定された所定の操作認識領域へのユーザの操作入力を受け付ける仮想操作部を前記タッチスクリーンに複数表示する仮想操作部表示モジュール(仮想操作部表示手段)、及び前記仮想操作部が受け付けた操作入力に関連づけられた所定の機能を実行する機能実行モジュール(機能実行手段)、を備え、更に、複数の前記操作認識領域が互いに重複する領域が存在する場合に、該重複領域を新たな操作認識領域に設定するか否かをユーザの指示に基づいて決定する新規操作認識領域設定モジュール(新規操作認識領域設定手段)、を備える。
 (5)このコンピュータ装置は、タッチスクリーンに対するユーザの操作位置を検出する操作位置検出モジュール(操作位置検出手段)、前記タッチスクリーンに画定された所定の操作認識領域へのユーザの操作入力を受け付ける仮想操作部を前記タッチスクリーンに複数表示する仮想操作部表示モジュール(仮想操作部表示手段)、及び前記仮想操作部が受け付けた操作入力に関連づけられた所定の機能を実行する機能実行モジュール(機能実行手段)、を備え、更に、複数の前記操作認識領域が互いに重複する領域である新たな操作認識領域が存在する場合に、該新たな操作認識領域に対する操作入力によって実行される機能をユーザの指示に基づいて割り当てる新規操作認識領域設定モジュール(新規操作認識領域設定手段)、を備える。
 (6)上記(4)又は(5)に記載のコンピュータ装置において、前記新規操作認識領域設定モジュールは、前記新たな操作認識領域に対して、前記重複領域を形成する各操作認識領域への操作によって実行される既存の機能とは異なる機能を割り当てることができるように構成されていてもよい。
 (7)上記(6)に記載のコンピュータ装置において、前記新規操作認識領域設定モジュールは、前記新たな操作認識領域に対して、前記重複領域を形成する各操作認識領域への同時の操作入力に関連付けられた所定の機能を割り当てることができるように構成されていてもよい。
 (8)上記(4)乃至(7)の何れかに記載のコンピュータ装置において、ユーザの操作に基づき、前記操作認識領域の位置及び形状のうち少なくとも一方を変更する操作部位置形状変更モジュール(操作部位置形状変更手段)を更に備え、該操作部位置形状変更モジュールは、複数の前記仮想操作部について、夫々の前記操作認識領域の一部が互いに重複するような該操作認識領域の位置又は形状の変更が可能であり、前記新規操作認識領域設定モジュールは、前記操作部位置形状変更モジュールにより変更されて形成された重複領域を、前記新たな操作認識領域として設定することができるように構成されていてもよい。
 (9)上記(8)に記載のコンピュータ装置において、前記新規操作認識領域設定モジュールにより設定された前記新たな操作認識領域は、少なくとも前記タッチスクリーン上での位置を、該新たな操作認識領域を形成する複数の操作認識領域から独立して、前記操作部位置形状変更モジュールによって変更できるようにしてあってもよい。
 (10)上記(4)乃至(9)の何れかに記載のコンピュータ装置において、前記仮想操作部表示モジュールは、ユーザに視認可能な操作子画像を、前記新たな操作認識領域を含む各操作認識領域内に表示すべく成してあってもよい。
 以上の構成によれば、ユーザが操作入力することによって新たな機能を実行させることのできる新たな仮想操作部を新規に設定することが可能なコンピュータ装置を提供することができる。
 本発明によれば、タッチスクリーンに表示されたキャラクタを、該ディスプレイに表示された仮想操作部を介してユーザが操作する場合において、仮想操作部(特に、操作子画像)の背後に重複する画像をユーザが把握しやすくすることのできるコンピュータ装置、記録媒体、及び制御方法を提供することができる。
本発明の実施の形態に係るコンピュータ装置の一例としての携帯型ビデオゲーム機を示す模式的外観図である。 図1に示すゲーム機の内部構成を示すブロック図である。 図1に示すゲーム機が備える制御部の機能的な構成を示すブロック図である。 本ゲームにおいてプレイヤキャラクタと敵キャラクタとが対戦しているときのゲーム画面を例示する模式的図面である。 本ゲームにおけるコンフィグ画面を例示する模式的図面である。 ゲーム開始前に操作子画像の表示色情報を変更する際に、タッチスクリーンに表示される操作画面の画像を示す模式図であって、(a),(b)は第1及び第2の操作画面画像を夫々示している。 ゲーム開始前に操作子画像の表示色情報を変更する際に、タッチスクリーン2に表示される操作画面の画像を示す模式図であって、(a),(b)は第3及び第4の操作画面画像を夫々示している。 ゲーム開始前に操作子画像の表示色情報を変更する際に、タッチスクリーン2に表示される操作画面の画像を示す模式図であって、(a),(b)は第5及び第6の操作画面画像を夫々示している。 操作子画像の表示色について透明度の変更処理を行う際のゲーム機の動作を示すフローチャートである。 ゲーム進行中の画面画像を示す模式図である。 本ゲーム機のコンフィグ画面画像を示す模式図である。 入力操作認識エリアに操作入力がされた場合の制御部の動作を示すフローチャートである。 実施の形態3に係るゲーム機が備える制御部の機能的な構成を示すブロック図である。 本ゲーム機の機能選択画面画像を示す模式図である。 重複認識エリアを新たな操作認識エリアとして設定するか否かを選択した上で、重複認識エリアに機能を割り当てる場合の、制御部の動作を示すフローチャートである。
 (実施の形態1)
 以下、本発明の実施の形態に係るコンピュータ装置、記録媒体、及び制御方法について、図面を参照しつつ説明する。
 [ハードウェアの構成]
 図1は、本発明の実施の形態に係るコンピュータ装置の一例としての携帯型ビデオゲーム機を示す模式的外観図である。この携帯型ビデオゲーム機(以下、「ゲーム機」)1は、中央にカラー液晶パネルとタッチパネルとを有するタッチスクリーン2を備える。一方、ゲーム機1は、ゲーム進行のために操作する有形のボタン等の物理的な操作子は備えていない。そして、無線又は有線による通信を介してゲームプログラム5a及びゲームデータ5bをダウンロードし、このゲームプログラム5aを実行することで、ユーザは本ゲームをプレイすることができる。
 なお、本実施の形態に係るゲーム機1で例示するゲームはアクションゲームである。ユーザが、仮想ゲーム空間内に位置するプレイヤキャラクタの動作を操作することで、プレイヤキャラクタが仮想ゲーム空間内に位置する敵キャラクタと対戦する。
 図2は、図1に示すゲーム機1の内部構成を示すブロック図である。図2に示すようにゲーム機1は制御部30を備える。該制御部30には、CPU11、描画データ生成プロセッサ12、RAM(Random Access Memory)13、ROM(Read Only Memory)14、描画処理プロセッサ15、及び音声処理プロセッサ16が含まれている。また、ゲーム機1はこの他にも、VRAM(Video-RAM)20、仮想操作部入力インタフェース21、前述のタッチスクリーン2、アンプ22、スピーカ23、イヤホン端子24、USB(Universal Serial Bus)インタフェース26、及び無線通信モジュール27を備えている。そして、これらのうちCPU11、描画データ生成プロセッサ12、RAM13、ROM14、描画処理プロセッサ15、音声処理プロセッサ16、仮想操作部入力インタフェース21、USBインタフェース26、及び無線通信モジュール27が、バス10を介して相互にデータ伝送可能に接続されている。
 ゲーム機1が備えるUSBインタフェース26は、USBケーブルを介してゲーム機1と他のコンピュータ装置とを接続する。これにより、ゲーム機1は、接続されたコンピュータ装置からゲームプログラム5a及びゲームデータ5bをロードすることが可能である。ゲームプログラム5aは、上述したようにプレイヤキャラクタと敵キャラクタとが仮想ゲーム空間にて対戦する内容のアクションゲームを、ゲーム機1に実行させるプログラムである。また、ゲームデータ5bには、上記ゲームを実行する上で必要なデータが含まれている。このゲームデータ5bとしては、例えば、仮想ゲーム空間を構成する背景の画像データ、ステータスなどの情報表示用の画像データ、効果音又はBGMなどの音声データ、文字又は記号によるメッセージデータ等の各種データが含まれる。
 また、無線通信モジュール27は、HSPA(High Speed Packet Access)などの通信規格に準拠した無線通信によってインターネット上の他のサーバ装置との間でデータ通信を行う。無線通信モジュール27により、他のサーバ装置からゲームプログラム5a及びゲームデータ5bをダウンロードすること、並びに、他のゲーム機1との間で通信を行うことが可能である。本実施の形態に係るゲーム機1は、このようにUSBインタフェース26又は無線通信モジュール27を介してロードしたゲームプログラム5a及びゲームデータ5bに基づき、アクションゲームを実行できる。また、無線通信モジュール27によりインターネットを介して他のゲーム機1との間で通信することにより、他のユーザが操作するキャラクタと対戦することも可能である。
 一方、RAM13には、USBインタフェース26又は無線通信モジュール27を介してロードしたゲームプログラム5a及びゲームデータ5bを格納するロードエリア、並びに、CPU11がゲームプログラム5aを実行する際に使用するためのワークエリアが設定されている。ROM14には、USBインタフェース26又は無線通信モジュール27を介するローディング機能などのゲーム装置1の基本プログラムが記憶されている。
 CPU11は、RAM13にロードしたゲームプログラム5aを、後述する仮想操作部42(図4参照)に対するユーザの操作に応じて実行し、ゲーム進行を制御する。より具体的には、ユーザに操作されることによって仮想操作部42から操作信号が入力されると、CPU11は、ゲームプログラム5aに従ってその操作信号に対応する所定のゲーム進行処理を行う。そしてCPU11は、その処理結果を、ゲーム進行を示す画像(以下、「ゲーム画像」)としてタッチスクリーン2に表示する。また、CPU11は、ゲーム進行を示す音声信号(以下、「ゲーム音声」)をスピーカ23又はイヤホン端子24に出力する。
 ゲーム画像の描画は、CPU11の指示により、描画処理プロセッサ15が行う。即ち、CPU11は、ユーザにより入力された操作信号に基づき、タッチスクリーン2に表示すべきゲーム画像の内容を決定する。描画データ生成プロセッサ12は、その内容に対して必要な描画データを生成する。そして、CPU11は、その描画データを描画処理プロセッサ15に転送する。描画処理プロセッサ15は、描画データに基づいて1/60秒毎にゲーム画像を生成し、生成したゲーム画像をVRAM20に書き込む。タッチスクリーン2は、半透過型カラー液晶ディスプレイとバックライトLED(Light Emitting Diode)とを有し、VRAM20に書き込まれたゲーム画像を表示する。
 また、タッチスクリーン2は、液晶ディスプレイ及びバックライトLEDの他に、該液晶ディスプレイ上に配設されたタッチパネル等の入力手段を有している。従って、ユーザが手の指先などでタッチスクリーン2上に接触すると、その接触位置に関する情報が、仮想操作部入力インタフェース21及びバス10を介してCPU11へ入力される。また、後述するようにタッチスクリーン2にはボタン又はレバー等の物理操作子を模した操作子画像43が表示される(図4参照)。ユーザは、この操作子画像43を操作するような態様でタッチスクリーン2に触れることで、該操作子画像43を介して所定の操作入力を行うことができる。
 また、CPU11は、ゲームの進行に応じて、スピーカ23から出力すべき効果音及びBGM等の音声を決定する。CPU11は、その音声を発音するための音声データをRAM13から読み出して音声処理プロセッサ16に入力する。即ち、CPU11は、ゲームの進行に伴って発音イベントが発生すると、その発音イベントに応じた音声データ(ゲームデータ5bに含まれる音声データ)をRAM13から読み出して音声処理プロセッサ16に入力する。音声処理プロセッサ16は、DSP(Digital Signal Processor)で構成されている。そして音声処理プロセッサ16は、CPU11によって入力された音声データに対して所定の効果(例えば、リバーブ、コーラスなど)を付与したのちアナログ信号に変換して、アンプ22に出力する。アンプ22は、音声処理プロセッサ16から入力された音声信号を増幅したのち、スピーカ23及びイヤホン端子24に出力する。
 [制御部の機能的構成]
 図3は、上述したゲーム機1が備える制御部30の機能的な構成を示すブロック図である。図4は、本ゲームにおいてプレイヤキャラクタと敵キャラクタとが対戦しているとき(ゲーム進行中)のゲーム画面を例示する模式的図面である。また、図5は、本ゲームにおけるコンフィグ画面を例示する模式的図面である。以下、これら図3~図5を参照しつつ、制御部30の機能的な構成について説明する。
 図3に示すように、制御部30は、ロードしたゲームプログラム5aを実行する。これにより、ゲーム機1は、ゲーム空間生成手段(ゲーム空間生成モジュール)31、キャラクタ生成手段(キャラクタ生成モジュール)32、仮想操作部表示手段(仮想操作部表示モジュール)33、操作位置検出手段(操作位置検出モジュール)34、機能実行手段(機能実行モジュール)35、ゲーム制御手段(ゲーム制御モジュール)36、及び仮想操作部設定手段(仮想操作部設定モジュール)37として機能する。また、仮想操作部設定手段37には、表示色変更手段(表示色変更モジュール)37a、及び表示位置変更手段(表示位置変更モジュール)37bが含まれている。
 <ゲーム空間生成手段>
 上記のうちゲーム空間生成手段31は、図4に示すようにプレイヤキャラクタC1が行動する仮想ゲーム空間41を示すデータを生成し、該データに基づいて仮想ゲーム空間41の画像をタッチスクリーン2に出力(表示)する。なお、タッチスクリーン2に表示される仮想ゲーム空間41は、図4に示すように仮想カメラで撮影した奥行き感のある三次元的な画像に限られない。すなわち、仮想ゲーム空間41は、二次元的な画像でもよく、あるいは特に何も描画しない単一色の背景画像であってもよい。
 <キャラクタ生成手段>
 キャラクタ生成手段32は、プレイヤキャラクタC1及び敵キャラクタC2など、仮想ゲーム空間41内で動作するキャラクタのデータを生成し、該データに基づいて各キャラクタの画像を図4に示すようにタッチスクリーン2に出力(表示)する。これらプレイヤキャラクタC1及び敵キャラクタC2の画像は、仮想ゲーム空間41の画像の前面に表示されている。そして、図4に示すように仮想ゲーム空間41の画像の手前に各キャラクタの画像が重ねて配置される。
 <仮想操作部表示手段>
 仮想操作部表示手段33は、ユーザが操作する仮想操作部42を示すデータを生成する機能と、該データに基づいて仮想操作部42の画像を図4に示すようにタッチスクリーン2に出力(表示)する機能とを備える。ここで、本実施の形態に係る仮想操作部42は、操作子画像43と入力操作認識エリア44と設定操作認識エリア45とを有している。
 このうち操作子画像43は、ボタン及びレバー等のような物理操作子を模した画像である。ユーザは、ゲームの進行中にこの操作子画像43に対して操作入力することにより、プレイヤキャラクタC1の動作を制御することができる。従って、操作子画像43は、ゲームの進行中(即ち、プレイヤキャラクタC1と敵キャラクタC2との対戦の最中)に、ユーザに視認できるようにタッチスクリーン2に表示される。これにより操作子画像43は、仮想ゲーム空間41及びキャラクタC1,C2より優先して最前面に表示される。
 なお、図4に示すように、本実施の形態に係るゲーム画面には、複数の仮想操作部42(42a~42f)に対応して複数の操作子画像43(43a~43f)が表示される。例えば、上端が球形状を成すレバーを平面視したような操作子画像で表されたレバー型の操作子画像43aが画面の左隅に表示される。該操作子画像43aの周囲には、直角二等辺三角形状を成す8つのボタン型の操作子画像43bが、先の操作子画像43aを中心とする同心円上に略等間隔(45度間隔)で表示されている。また、画面の右隅には、円形ボタンを平面視したような操作子画像で表された、ボタン型の4つの操作子画像43c~43fが近接して表示されている。
 一方、入力操作認識エリア44は、図4に示すような「ゲーム進行中」において、ユーザが操作子画像43に対して操作入力した場合に、この操作子画像43への操作入力であるか否かを判断するために設定された範囲である。操作入力の位置がこの範囲内であれば、対応する操作子画像43への操作入力があったものとゲーム機1は判断する。このような入力操作認識エリア44は、各操作子画像43a~43fに対して個別に設けられている。
 具体的には、図4に示すように、レバー型の操作子画像43a及びその周囲の操作子画像43bについては、該操作子画像43a,43bの夫々に対して略同一の範囲に、入力操作認識エリア44a,44b(破線で図示)が設定されている。また、ボタン型の操作子画像43cについては、該操作子画像43cを含んで該操作子画像43cよりも広い範囲を有するように、四角形状の入力操作認識エリア44c(破線で図示)が設定されている。更に、他のボタン型の操作子画像43d~43fについても、上記操作子画像43cと同様にして四角形状の入力操作認識エリア44d~44f(破線で図示)が設定されている。従って、例えばユーザが操作子画像43cへ操作入力する場合、操作子画像43cの描画範囲から若干外れた位置を操作してしまったとしても、それが入力操作認識エリア44c内であれば、ゲーム機1は操作子画像43cが操作されたと認識する。なお、図4に示した入力操作認識エリア44を表すラインは、実際のゲーム機1のタッチスクリーン2には表示されない。
 他方、設定操作認識エリア45は、図5に示すような「コンフィグ中(設定中)」において、ユーザが操作子画像43に対して操作入力した場合に、この操作子画像43への操作入力であるか否かを判断するために設定された範囲である。操作入力の位置がこの範囲内であれば、対応する操作子画像43への操作入力があった(選択された)とゲーム機1は判断する。設定操作認識エリア45は、各操作子画像43a~43fに対して個別に設けられている。
 具体的には、図5に示すように、レバー型の操作子画像43a及びその周囲の操作子画像43bについては、これらの操作子画像43a,43bに対して1つ設定操作認識エリア45a(一点鎖線で図示)が設定されている。該設定操作認識エリア45aは、操作子画像43a,43bの全てを含む広い四角形状の範囲である。これに対し、ボタン型の操作子画像43cについては、これに対応する入力操作認識エリア44cと略同一範囲を有する四角形状の設定操作認識エリア45c(一点鎖線で図示)が設定されている。また、残りの操作子画像43d~43fについても同様に、夫々の入力操作認識エリア44d~44fと略同一範囲を有する四角形状の設定操作認識エリア45d~45f(一点鎖線で図示)が設定されている。
 ユーザは、図5に示すようなコンフィグ画面において、画面上の設定操作認識エリア45に指先等で接触(選択)した状態のまま指先を移動することができる。これにより、ユーザは、接触した設定操作認識エリア45を、これに対応する操作子画像43及び入力操作認識エリア44と共に移動することができる。そして、ユーザは、所望の位置で指先をタッチスクリーン2表面から離すことで、その位置に操作子画像43等の設置場所を変更することができる。
 また、本実施の形態に係るタッチスクリーン2が備えるタッチパネルは、マルチタッチ式を採用している。マルチタッチ式のタッチスクリーンとは、タッチスクリーン2上の複数箇所(例えば、2箇所)に同時に指先等が接触した場合に、夫々の接触点への操作入力を個別に認識可能なタッチパネルである。従って、コンフィグ画面において、ユーザが例えば任意の1つの操作認識エリア45の左端と右端とを2本の指先でそれぞれ同時に接触した状態とし、この状態から両指先間の距離を近接又は離反することで、対応する操作子画像43及び/又は入力操作認識エリア44の左右方向寸法を、両指先間の距離に応じた寸法に変更することができる。なお、同様の操作によって、上下方向寸法も変更することができる。
 上述したような仮想操作部42は、図4に示すようなゲーム進行中(対戦中)に、以下のような態様で操作され、プレイヤキャラクタC1に対して所定のアクションを実行させる指示を入力できるように設定されている。まず、レバー型の仮想操作部42aについて言えば、ユーザが球形状の操作子画像43aを指先で接触し、この接触状態のまま指先をタッチスクリーン2の表面に沿って移動することで、ユーザはこの操作子画像43aを指先の移動方向へ追従して移動することができる。これによりユーザは、あたかも実在の物理的なレバーを操作しているかのような感覚で、レバー型の操作子画像43aを上下左右へと移動することができる。
 また、この操作子画像43aは、プレイヤキャラクタC1の向き又は位置を変更するアクションを実行させる指示を入力するインタフェースである。即ち、ユーザは、上記のように操作子画像43aを操作することで、操作子画像43aを移動させた方向へ、プレイヤキャラクタC1の向き又は位置を変更することが指示できる。従って、このように操作子画像43aを移動させる操作入力がされると、制御部30はその移動方向を検出する。これにより、検出した移動方向に対応する方向へ、プレイヤキャラクタC1が向きを変え、又は移動する。なお、このようなプレイヤキャラクタC1の向きの変更及び移動は、キャラクタ生成手段32がその動作過程を表す画像を生成し、これを所定のレート(例えば、毎秒60フレーム)で順次描画することで、動画としてタッチスクリーン2に表示される。
 操作子画像43aの周囲に配置された三角形状の操作子画像43bについて言及する。該操作子画像43bは、操作子画像43aと操作態様の点では異なるが、同様の内容の指示を入力することができる。具体的に説明すると、操作子画像43bはボタン型であって、ユーザがこれに接触することで、操作されたことが制御部30へ入力される。また、ユーザが操作子画像43bに接触した後、指先を離すまでの間は、操作状態が保持されていると制御部30にて認識される。従ってユーザは、この操作子画像43bを、実在の物理的なボタンを操作しているかのような感覚で操作することができる。そして、何れか一の操作子画像43bを操作することで、該操作子画像43bに予め関連づけられた方向(具体的には、球形状の操作子画像43aを基準として該操作子画像43bが存在する方向)へ、プレイヤキャラクタC1の向き又は位置を変更する指示ができる。従ってユーザは、先に説明したレバー型の操作子画像43a及びボタン型の操作子画像43bの何れを操作しても、プレイヤキャラクタC1の向き又は位置を変更でき、ユーザの使い勝手の良い方を選択して使用することができる。
 ボタン型の操作子画像43c~43fについて言及する。これらも上記操作子画像43bと同様に、指先等を接触させることで操作されたことが制御部30へ入力できる。さらに、接触状態を保持することで、操作状態が保持されていることを制御部30へ入力できる。そして、これらの操作子画像43c~43fを操作することで、各操作子画像43c~43fに予め関連づけられた所定のアクションをプレイヤキャラクタC1に実行させることができる。このようなアクションとしては、例えば、攻撃に関するパンチアクション及びキックアクション、防御アクション、並びにジャンプアクションなどがあり、夫々のアクションが操作子画像43c~43fの何れかに割り当てられている。
 <操作位置検出手段>
 次に、操作位置検出手段34は、タッチスクリーン2に対してユーザの指先が接触した場合に、その操作位置(接触点の位置)を検出する。具体的には、タッチスクリーン2は、その表面にタッチパネル等の入力手段を備えており、これに指先が接触すると、接触面(接触領域)が検出される。この接触面を示すデータは、仮想操作部入力インタフェース21を介してCPU11へ入力される。CPU11は、入力されたデータに基づいて接触面の重心位置を取得し、この重心位置に対応するディスプレイ2上の位置を、操作位置として検出する。
 従って、例えば図4に示すようなゲーム進行中の画面において、ユーザの指先がボタン型の操作子画像43cに接触すると、ゲーム装置1は、その接触面の重心位置に基づいて操作子画像43cが操作されたと判断する。そして、既に説明したように、該操作子画像43cに関連づけられたアクションをプレイヤキャラクタC1が実行する。また、例えば図5に示すようなコンフィグ画面において、ユーザの指先が操作子画像43cに対応する設定操作認識エリア45cに接触すると、ゲーム装置1は、その接触面の重心位置に基づいて設定操作認識エリア45cが選択されたと判断する。そして、この状態でユーザが指先を移動すると、既に説明したように、該設定操作認識エリア45cを、これに対応する操作子画像43c及び入力操作認識エリア44cと共に移動することができる。なお、このような操作位置の検出方法は一例であって、タッチスクリーン2に対するユーザの操作位置を検出可能な方法であれば、他の方法を採用してもよい。
 <機能実行手段>
 機能実行手段35は、ユーザの仮想操作部42に対する操作に応じて、この操作入力に関連づけられた所定の機能(上述したプレイヤキャラクタC1のアクションを含む)を実行する。即ち、機能実行手段35は、既に説明したように、レバー型の仮想操作部42a又はボタン型の仮想操作部42bの操作があった場合には、これに関連づけられたアクションとして、プレイヤキャラクタC1の向き又は位置を変更する。また、ボタン型の仮想操作部42c~42fが操作された場合には、これらに関連づけられたアクションとして、パンチ、キック、防御、ジャンプの何れかのアクションをプレイヤキャラクタC1が実行する。
 <ゲーム制御手段>
 ゲーム制御手段36は、ユーザによる仮想操作部42の操作に応じて本ゲームを進行する。具体的には、図4に示すゲーム進行中の状態において、ユーザが仮想操作部42を操作してプレイヤキャラクタC1を動作させた場合、ゲーム制御手段36は、プレイヤキャラクタC1の動作に応じて敵キャラクタC2の動作(アクション)を決定する。そして、敵キャラクタC2は、ゲーム制御手段36が決定した動作を実行する。また、ゲーム制御手段36は、プレイヤキャラクタC1の攻撃が敵キャラクタにヒットした場合には、ヒットしたことを視覚的に強調して表現するために、火花を生じさせる等のエフェクト処理を行う。また、ゲーム制御手段36は、ユーザ操作によってプレイヤキャラクタC1が移動した場合には、それに伴って背景の仮想ゲーム空間41の画像を横方向へスクロールするなどして変更する。その他、ゲーム制御手段36は、ユーザによる仮想操作部42の操作に応じて、本ゲームを進行する上で必要な様々の処理を実行する。
 <仮想操作部設定手段>
 仮想操作部設定手段37は、上述した仮想操作部42(42a~42f)について、ユーザの嗜好に応じて各種の変更設定を実行する。仮想操作部設定手段37は、表示色変更手段37aと表示位置変更手段37bとを有している。
 このうち表示色変更手段37aは、ゲーム進行中にタッチスクリーン2に表示される操作子画像43(43a~43f)の表示色情報を変更する。本実施の形態において、この表示色情報とは、操作子画像43の表示色の透明度(表示濃度)である。表示色変更手段37aは、例えば公知技術であるαブレンディングを用いて、この透明度を0%(完全な不透明)~100%(完全な透明)の間で任意に変更する。
 具体的には、本実施の形態では、操作子画像43を示す画像データの表示色情報は、RGB値と透過度情報を示すα値とを合わせたRGBA値を有している。そして、操作子画像43と背景画像(キャラクタC1,C2又は仮想ゲーム空間41を示す画像)とが重複している部分のRGB値(V)は、α値を用いて次式によって決定される。
V=α・V1+(1-α)・V2・・・(式1)
なお、式1中のV1は操作子画像43のRGB値を示し、V2は重複する背景画像のRGB値を示す。従って、操作子画像43を透明化する場合にはα値を小さくし、不透明化する場合にはα値を大きく設定すればよい。表示色変更手段37aは、ユーザによる後述する操作に応じて、このα値を変更することが可能である。表示色変更手段37aは、変更されたα値に対応した透明度で操作子画像43を表示する。
 また、表示位置変更手段37bは、操作子画像43のタッチスクリーン2上での表示位置を、対応する入力操作認識エリア44と共に変更する。これについては既に説明した通りであり、また公知の技術であるから簡単にだけ言及しておく。表示位置変更手段37bは、図5に示すようなコンフィグ画面においてユーザが指先を何れかの設定操作認識エリア45に接触させた場合、接触された設定操作認識エリア45が選択されたと認識する。次に、選択された状態(接触した状態)のままユーザが指先を移動すると、表示位置変更手段37bは、この移動に伴って、選択された設定操作認識エリア45を移動する。そして、指先がタッチスクリーン2から離れた(選択が解除された)と判定されると、表示位置変更手段37bは、その位置に設定操作認識エリア45と共に操作子画像43等を留め置くことで、操作子画像43の表示位置を変更する。なお、このような表示位置の変更過程において、何れの設定操作認識エリア45が選択されたかの判定、移動方向及び移動速度の判定、並びに、選択解除の判定は、上記操作位置検出手段34の検出結果に基づいて行われる。
 [表示色の変更設定の具体的態様]
 ところで、本ゲームでは、図4に示すように仮想ゲーム空間41の画像を背景とし、その前面にプレイヤキャラクタC1及び敵キャラクタC2が表示され、更にその前面に操作子画像43が表示される。そのため、操作子画像43の透明度が0%(不透明)のとき、キャラクタC1,C2及び仮想ゲーム空間41等の画像には、操作子画像43の背後に隠れて視認できない部分が生じる。そこで本ゲーム機1においては、上述したように操作子画像43の透明度をユーザにより変更することを可能とし、操作子画像43と重複する画像を視認可能としている。以下では、上述したゲーム機1において、操作子画像43の表示色を変更する際の具体的な態様について説明する。
 <ゲーム開始前の変更設定>
 図6~図8は、ゲーム開始前に操作子画像43の表示色情報を変更する際に、タッチスクリーン2に表示される操作画面の画像を示す模式図である。そして、図6の(a),(b)は第1及び第2の操作画面画像を、図7の(a),(b)は第3及び第4の操作画面画像を、図8の(a),(b)は第5及び第6の操作画面画像を夫々示している。
 はじめに、ゲーム機1の電源がオンにされ、本ゲームプログラム5aが起動されると、タッチスクリーン2には、図6(a)に示す第1の操作画面画像101が表示される。この操作画面画像101には、複数のプレイモード(1人プレイ、2人プレイ等)を個々に指定するためのアイコン50a~50d、オプションを選択するためのアイコン50e、ヘルプ参照を選択するためのアイコン50f、及び過去の戦績確認を選択するためのアイコン50gが含まれている。これらのアイコン50a~50gは、ユーザが指先でアイコン画像を触れることにより、操作位置検出手段34によって操作位置が特定され、選択されたアイコンが検出される。そして、検出されたアイコンに対応する上述の何れかの処理が制御部30により実行される(以下、アイコンの操作において同様)。
 図6(a)に示す第1の操作画面画像101では、上記のうちアイコン50a~50gの何れかが選択可能である。例えば、アイコン50aを選択すると、1人プレイによりゲームを始めることができる。また、後述するように仮想操作部42について各種の設定を行う場合には、ユーザはアイコン50eを選択する必要がある。
 図6(b)の第2の操作画面画像102に示すように、オプション用のアイコン50eを選択すると、図7(a)に示す第3の操作画面画像103が、第2の操作画面画像102に換わってタッチスクリーン2に表示される。この操作画面画像103は、ゲーム進行中の各種要素に関する設定項目を選択する画面である。第3の操作画面画像103には、コマンドリストの設定を選択するアイコン51a、仮想操作部42の設定を選択するアイコン51b、その他、各種の設定を選択するためのアイコン51c~51e等が含まれている。そして、表示色を変更する場合には、ユーザは「ボタンコンフィグ」と表示されたアイコン51bを選択する必要がある。すると、図7(b)に示す第4の操作画面画像(コンフィグ画面)104が、先の第3の操作画面画像103に換わってタッチスクリーン2に表示される。なお、第3の操作画面画像103の右上部分には、リターンアイコン51rが設けられている。ユーザはこのリターンアイコン51rを操作することにより、現在表示している第3の操作画面画像103に換えて、1つ前の操作画面画像102を再表示することができる。
 図7(b)に示す第4の操作画面画像(コンフィグ画面)104は、仮想操作部42についてユーザが各種の設定を行なうための画面である。ここで操作子画像43の透明度を調整することができる。具体的に説明すると、この第4の操作画面画像104には、実際のゲーム進行中の表示と同様に、仮想ゲーム空間41と、プレイヤキャラクタC1及び敵キャラクタC2とが表示されている。また、これらの前面には、ゲーム進行中の表示と同様に操作子画像43が重なって表示されている。そして、タッチスクリーン2の上部中央には、現在(調整前)の操作子画像43の透明度(%)を示す数値52aが表示されている(図7(b)では0%)。数値52aの左側には透明度を下げる際に操作するアイコン52bが設けられ、数値52aの右側には透明度を上げる際に操作するアイコン52cが設けられている。
 制御部30(より詳しくは、表示色変更手段37a)は、上記何れかのアイコン52b,52cが操作されると、操作子画像43の表示色の透明度について以下のようにして変更を行う。図9は、操作子画像43の表示色について透明度の変更処理を行う際の制御部30の動作を示すフローチャートである。
 図9に示すように、制御部30は、アイコン52b,52cの何れが操作されたか、換言すれば、透明度を下げる指示及び上げる指示の何れが入力されたかを、操作位置検出手段34の検出結果に基づいて判定する(ステップS1)。ここで、左側のアイコン52bが操作され、透明度を下げる(不透明化する)指示が入力されたと判定した場合(ステップS1:「下げる」)、ユーザによる該アイコン52bへの接触回数又は接触時間に応じて、操作子画像43のα値が増加(式1参照)される(ステップS2)。また、これと同時に、タッチスクリーン2の上部中央に表示された透明度(%)を示す数値52aが、α値の変更に合わせて0%~100%の間で減少して表示される(ステップS3)。更に、これらと同時に、タッチスクリーン2に表示されている操作子画像43が、増加後のα値に対応するように不透明化した画像に変更される(ステップS4)。
 一方、ステップS1にて右側のアイコン52cが操作され、透明度を上げる(透明化する)指示が入力されたと操作位置検出手段34が判定した場合(ステップS1:「上げる」)は、上記と同様に、ユーザによる該アイコン52cへの接触回数又は接触時間に応じて、操作子画像43のα値が減少される(ステップS5)。また、これと同時に、タッチスクリーン2の上部中央に表示された透明度(%)を示す数値52aが、α値の変更に合わせて0%~100%の間で増減して表示される(ステップS6)。更に、これらと同時に、タッチスクリーン2に表示されている操作子画像43が、減少後のα値に対応するように透明化した画像に変更される(ステップS7)。
 これにより、ユーザはアイコン52b,52cを操作しつつ、表示される操作子画像43の透明度を視認することができる。また、図7(b)に示す第4の操作画面画像104には、操作子画像43の背後に仮想ゲーム空間41及びキャラクタC1,C2が表示される。つまり、第4の操作画面画像104は、実際のゲーム進行中の画像と同様の画像である。そのため、操作子画像43の透明度を変更した場合に、実際のゲーム進行中に操作子画像43の背後の画像がどの程度視認できるかを、ユーザが具体的に確認することができる。
 例えば、図7(b)に示す状態(透明度0%)から、ユーザが透明度を上げる右側のアイコン52cを操作すると、操作子画像43は不透明な状態から、図8(a)の第5の操作画面画像(コンフィグ画面)105に示すように、透明度を示す数値52aが大きくなる。これと同時にタッチスクリーン2に表示されている操作子画像43の透明度も高くなっていく。その結果、第5の操作画面画像105に示すように、操作子画像43の背後に重なって隠れていたキャラクタC1,C2及び仮想ゲーム空間41の各画像が視認可能になる。逆に、図8(a)に示す第5の操作画面画像105のように透明度が高い状態で、透明度を下げる左側のアイコン52bを操作すると、透明度を示す数値52aは小さくなる。これと同時に操作子画像43の透明度も図7(b)に示す状態(不透明の状態)へ向かって低くなっていく。このようにして操作子画像43の透明度を調整することができる。
 なお、第4の操作画面画像104及び第5の操作画面画像105の右上部分には、リターンアイコン52rが設けられている。ユーザがこのリターンアイコン52rを操作した場合は、上述したリターンアイコン51rの場合と異なる。つまり、この場合には、次のステップですぐに前の操作画面画像103が再表示されるのではなく、図8(b)に示す第6の操作画面画像106が一旦表示される。この操作画面画像106は、第4又は第5の操作画面画像104,105にて透明度の調整を行なった場合に、その調整結果(変更後の設定内容)を保存するか否かをユーザに対して問い合わせする画面である。
 操作画面画像106には、保存する場合に選択するための「はい」と表示されたアイコン53aと、保存しない場合に選択するための「いいえ」と表示されたアイコン53bとが含まれている。そして、ユーザが「はい」と表示されたアイコン53aを選択すると、調整結果が保存され、第3の操作画面画像103(図7(a)参照)が再表示される。一方、ユーザが「いいえ」と表示されたアイコン53bを選択すると、調整結果は保存されず、第3の操作画面画像103が再表示される。なお、第6の操作画面画像106にも、その右上部分にリターンアイコン53rが設けられている。ユーザがこのリターンアイコン53rを操作した場合には、第6の操作画面画像106に切り換わる直前のコンフィグ画面が、該第6の操作画面画像106に換わって再表示される。これにより、操作子画像43の変更が再度行える。
 以上のような操作を行うことで、ユーザは、自身の嗜好に合うように操作子画像43の透明度を変更できる。そして、更に所定の操作を行うことにより、ゲームが開始される。ゲーム進行中の画面画像には、変更後の透明度で操作子画像43が表示される。ユーザは、この操作子画像43を指先で操作することにより、プレイヤキャラクタC1の動作を制御し、敵キャラクタC2と対戦するゲームをすることができる。
 <ゲーム進行中の変更設定>
 次に、ゲーム機1において、ゲーム進行中に操作子画像43の表示色情報を変更する場合について説明する。図10(a)は、ゲーム進行中の画面画像を示す模式図である。この図10(a)に示すゲーム進行中の画面画像111は、先に説明した図4と同様の構成である。画面画像111には、仮想ゲーム空間41内にプレイヤキャラクタC1及び敵キャラクタC2が位置している画像が含まれている。また、これらの画像の前面に、操作子画像43(43a~43f)の画像が表示されている。
 また、図10(a)に示すゲーム進行中の画面画像111には、上述したものの他に、プレイヤキャラクタC1及び敵キャラクタC2の夫々の体力の消費量を示すインジケータである体力ゲージ54a,54bが表示されている。この体力ゲージ54a,54bは、左右方向へ伸延するバー状のゲージである。左側に位置するプレイヤキャラクタC1に対応する体力ゲージ54aは、タッチスクリーン2の上部左側に配置されている。右側に位置する敵キャラクタC2に対応する体力ゲージ54bは、タッチスクリーン2の上部右側に配置されている。
 更に、画面画像111の上部中央位置、より詳しくは、左右の体力ゲージ54a,54bの間付近には、ゲーム進行を中断して、ゲーム進行に関係する各種要素を設定することを選択するためのポーズアイコン54cが設けられている。ユーザが、ゲーム進行中にこのポーズアイコン54cを指先で接触すると、ゲーム進行中の画面画像111に換わって、図7(a)に示した第3の操作画面画像103がタッチスクリーン2に表示される。従って、既に説明したような手順で第3~第6の操作画面画像103~106を操作することにより、操作子画像43の透明度を変更することができる。
 なお、このようにゲーム進行を中断して変更を行った場合も、第6の操作画面画像106が表示されるので、ユーザは、変更した設定の保存の要否を選択する。そして、ユーザによって設定の保存の要否が選択されると(即ち、アイコン53a,53bの何れかが操作される)、第6の操作画面画像106に換えて、中断時の画面画像111(図10(a)参照)が再表示され、ユーザは再びゲームを中断時の状態から進行できる。操作子画像43の表示色情報を変更した場合には、再表示された画面画像111中の操作子画像43の表示色に、変更した内容が反映される。なお、ポーズアイコン54cの直上に配置された表示54dは、プレイヤキャラクタC1及び敵キャラクタC2の対戦の残り時間を表示する。図10(a)に示す例では、表示54dとして無限大を表す記号が表示されている。これは、この対戦には制限時間が設定されていないことを意味している。
 以上に説明したように、本実施の形態に係るゲーム機1では、操作子画像43の表示色情報として、その透明度をユーザが変更することができる。従って、透明度を高く設定することで、ゲーム進行中に操作子画像43の背後に重複する画像を視認しやすくすることができる。また、操作子画像43の透明度は、実際のゲーム進行中の画面画像111(図10(a))と同様の操作画面画像104,105(図7,図8参照)において変更できる。そのため、ユーザの嗜好に合致した透明度の設定をより確実に行うことができる。
 なお、上述した説明では、表示色変更手段37aが操作子画像43の透明度を変更可能であることについて述べたが、変更の対象とする表示色情報は透明度のみに限られない。すなわち、表示色情報には、色相、明度、彩度、輝度、及びRGBのうち何れか一又は複数を含めてもよい。例えば、操作子画像43が、該操作子画像43の背後に重複している画像の色相を反転した色相で描画されるように変更可能にしてもよい。これにより、反転色で描画される操作子画像43を背景画像から区別して認識できると共に、操作子画像43と重複する背景部分については、色相に基づいておよその様子を視認することができる。
 同様に、操作子画像43の明度又は彩度を、該操作子画像43の背後に重複している背景画像の明度又は彩度に対応するように変更可能にしてもよい。更に、これら透明度、色相、明度、及び彩度を適宜組み合わせた表示色情報を、操作子画像43について変更可能にしてもよい。なお、上記の色パラメータは、パラメータゲージの操作又はパラメータの数値入力など、従来から知られている方法で調整することができる。
 また、タッチスクリーン2に、手書き文字を認識可能なタッチパッドを備えるなどとすることにより、透明度のα値等の表示色情報を、ユーザが直接数値で入力できるようにしてもよい。また、アイコン52b,52cの操作による入力、又は数値の直接入力に換えて、予め所定の透明度に設定された操作子画像43を、透明度を異ならせて複数用意しておき、コンフィグ画面においてユーザがこの中から選択することで、透明度を指定できるようにしてもよい。また、本実施の形態では、全ての操作子画像43の表示色情報を一括変更するようにしているが、操作子画像43を個別に選択可能とし、選択された操作子画像43の表示色情報のみを変更できるようにしてもよい。
 また、表示色を変更する対象としては、操作子画像43のみだけでなく、例えば図10(a)に示す体力ゲージ54a,54bなど、キャラクタC1,C2及び仮想ゲーム空間41に対して優先的に前面側に表示される他の画像を含めてもよい。図10(b)は、ゲーム進行中の画面画像を示す模式図である。ここに示した画面画像112は、UI(ユーザーインターフェース)である体力ゲージ54a,54b、ポーズアイコン54c、残り時間を示す表示54dの透明度を高くした場合の例である。その他は図10(a)に示した画面画像111と同じである。なお、これら体力ゲージ54a,54b、ポーズアイコン54c、残り時間を示す表示54dについて、透明度の他、色相、明度、及び彩度を含む表示色を変更可能にしてもよいことは言うまでもない。すなわち、本発明を適用すれば、タッチスクリーン上に表示されている画像すべての表示色を変更することができる。この場合には、ユーザは、例えば、オプション設定の画面にて透明度を変えるUIを指定し、ついで、そのUIの透明度の変更を行うことができる。また、すべてのUIの透明度を一括して変更することもできる。UIの透明度を変更する作業は、仮想操作部43の透明度を変更する作業と同様である。なお、例えば、体力ゲージ54a、54bの透明度を100%に設定して体力ゲージ54a、54bが見えない状態でユーザが対戦した場合には、お互いの残りの体力がわからないため、緊迫したゲーム展開にすることができる。
 また、操作子画像43の透明度が所定値以上(例えば、50%以上)に設定されている状態で、この操作子画像43がユーザにより操作された場合に、該仮想操作部43の透明度を所定期間(例えば、数秒間)だけ所定値以下にするように設定してもよい。これにより、透明度を高く設定している場合であっても、操作後にどの操作子画像43が操作されたかをユーザが確認することができる。この場合において、操作された操作子画像43の透明度を所定値以下とするのに換えて、色相、明度、及び彩度のうち何れか一又は複数を所定期間だけ変更して表示するようにしてもよい。更に、操作された操作子画像43と、表示色情報を所定時間変更する操作子画像43とを異ならせてもよい。例えば、図4において、レバー型の操作子画像43aがある方向へ操作された場合に、その方向に位置する1つの操作子画像43bの表示色情報を所定時間変更させるようにしてもよい。
 また、本実施の形態では、ゲーム進行中に表示色情報を変更する際、ゲームの進行を一旦中断させて行うこととしているが、これに限定されない。例えば、図7(b)に示す透明度の調整に用いるアイコン52a,52bに相当するアイコンを、図10に示すゲーム進行中の画面画像111の一部分に設けることができる。この場合、このアイコンをユーザが操作することで、ゲームの進行を中断することなく透明度等の表示色情報を変更できる。
 また、本実施の形態に係るゲーム機1の制御部30は、表示位置変更手段37bを備える。そして、図7(b)及び図8(a)に示す操作画面画像(コンフィグ画面)104,105には、各仮想操作部42に対応する設定操作認識エリア45が表示されている。従って、既に説明したように、ユーザがこの設定操作認識エリア45に接触させた指先を移動することにより、操作子画像43のタッチスクリーン2上での表示位置を、移動後の指先の位置に変更することができる。従って、上述したような表示色情報の変更に加え、ユーザがキャラクタC1,C2を視認するのに邪魔にならない位置(例えば、タッチスクリーン2の右下隅又は左下隅)に操作子画像43を移動することで、ゲーム進行中におけるキャラクタC1,C2等の視認性をより向上することができる。
 また、本実施の形態に係るタッチスクリーン2は、既に説明したようにマルチタッチ式のタッチスクリーンである。コンフィグ画面において、例えばユーザが、任意の1つの操作認識エリア45の左端と右端とを2本の指先でそれぞれ同時に接触し、この状態から両指先間の距離を近接又は離反させることで、対応する操作子画像43の入力操作認識エリア44の左右方向寸法を、両指先間の距離に応じた寸法に変更することが可能である。従って、上述したような表示色情報の変更、及び/又は表示位置の変更に加え、操作子画像43の形状を変更することで、ゲーム進行中におけるキャラクタC1,C2等の視認性をより向上することができる。また、本実施形態では、表示色情報を変更することができる操作子画像43はあらかじめ決められていたが、本発明はこれに限られない。すなわち、表示色情報を変更する操作子画像43をユーザが選択し、選択された操作子画像43の表示色情報だけを変更することもできる。
 また、本実施の形態に係るゲーム機1として、タッチスクリーン2の他に物理的な操作子を備えない構成を例示したが、これに限られない。例えば、ボタン等の有形の物理的操作子を備えるゲーム機であってもよい。即ち、物理的操作子を備えている場合であっても、タッチスクリーンに仮想操作部が表示されるコンピュータ装置であれば本発明を適用することができる。以下に説明する実施の形態2,3においても同様である。
 (実施の形態2)
 ところで、上述したようにゲーム機1は、仮想操作部42の入力操作認識エリア44の位置及び形状が変更可能である。そのため、本ゲーム機1では、ユーザが入力操作認識エリア44を適宜変更することにより、複数の仮想操作部42に対する同時操作を容易に行うことができる。以下、このように同時操作を容易に行うための入力操作認識エリア44の変更について説明する。なお、本実施の形態2に係るゲーム機1の構成は、実施の形態1において説明したのと同様であるため、ここでの説明は省略する。
 図11は、本ゲーム機1のコンフィグ画面画像を示す模式図であり、ここに示した内容は図7(b)の第4の操作画面画像104と同じである。図11のコンフィグ画面の右下に表示された2つの仮想操作部42c,42dに着目すると、これらの夫々に対応する入力操作認識エリア44c,44dは、互いに重複する部分(以下、「重複認識エリア44g」という)を有している(図11では斜線を付して示している)。同様に、入力操作認識エリア44d,44eの間、入力操作認識エリア44e,44fの間、入力操作認識エリア44f,44cの間、の夫々にも重複認識エリア44h,44i,44jが存在している。
 これらの重複認識エリア44g~44jは、ユーザが入力操作認識エリア44c~44fの位置及び/又は形状を適宜変更することにより、その面積及び形状をユーザの嗜好に合わせて変更することができる。例えば、図11に示す状態からユーザが入力操作認識エリア44cを左方向へ移動するか、又はその寸法を小さくすることで、入力操作認識エリア44d,44fとの重複部分である重複認識エリア44g,44jの面積及び形状を小さく変更することができる。また、入力操作認識エリア44cを更に左方向へ移動させるか、又はその寸法を小さくすることで、前述の重複認識エリア44g,44jを消滅させることもできる。
 一方、本実施の形態に係るゲーム機1では、これらの重複認識エリア44g~44jを操作することにより、重複する夫々の仮想操作部42が同時に操作されたと認識する。そして、複数の仮想操作部42が同時操作されると、個々の仮想操作部42に対して関連づけられたアクションとは異なる固有のアクションをプレイヤキャラクタC1が実行する。図12は、入力操作認識エリア44c~44fに操作入力がされた場合の制御部30の動作を示すフローチャートである。以下、この図12を参照して、この場合の制御部30の動作について説明する。
 図12に示すように、はじめに制御部30は、タッチスクリーン2上の何れかの入力操作認識エリア44c~44fにタッチ入力されると、その入力点の座標を取得し(ステップS10)、仮想操作部42c~42fに設定されたフラグを「OFF」にする(ステップS11)。続いて、制御部30は、ステップS10で取得した座標が、入力操作認識エリア44c~44fの何れに含まれるかを順に判定する。即ち、制御部30は、取得した座標が入力操作認識エリア44cに含まれるか否かを判定する(ステップS12)。制御部30は、当該座標が入力操作認識エリア44cに含まれていれば(ステップS12:YES)仮想操作部42cのフラグを「OFF」から「ON」に変更し(ステップS13)、当該座標が入力操作認識エリア44cに含まれていなければ(ステップS12:NO)、仮想操作部42cのフラグを「OFF」のまま維持する。
 同様に、制御部30は、取得した座標が入力操作認識エリア44dに含まれるか否かを判定する(ステップS14)。制御部30は、当該座標が入力操作認識エリア44dに含まれていれば(ステップS14:YES)仮想操作部42dのフラグを「ON」に変更し(ステップS15)、当該座標が入力操作認識エリア44dに含まれていなければ(ステップS14:NO)仮想操作部42dのフラグを「OFF」のまま維持する。また、制御部30は、取得した座標が入力操作認識エリア44eに含まれるか否かを判定する(ステップS16)。制御部30は、当該座標が入力操作認識エリア44eに含まれていれば(ステップS16:YES)仮想操作部42eのフラグを「ON」に変更し(ステップS17)、当該座標が入力操作認識エリア44eに含まれていなければ(ステップS16:NO)仮想操作部42eのフラグを「OFF」のまま維持する。更に、制御部30は、取得した座標が入力操作認識エリア44fに含まれるか否かを判定する(ステップS18)。制御部30は、当該座標が入力操作認識エリア44fに含まれていれば(ステップS18:YES)仮想操作部42fのフラグを「ON」に変更し(ステップS19)、当該座標が入力操作認識エリア44fに含まれていなければ(ステップS18:NO)仮想操作部42fのフラグを「OFF」のまま維持する。
 このように、入力装置認識エリア44c~44fの全てに対して、制御部30は、取得した座標が含まれるか否かを判定し(ステップS12,S14,S16,S18)、その結果に基づいてフラグを設定する(ステップS13,S15,S17,S19)。従って、入力点の座標がどこに存在するかによって、仮想操作部42c~42fのフラグの組み合わせが決定される。例えば、重複認識エリア44gに座標がある場合、仮想操作部42c,42dのフラグが「ON」、仮想操作部42e,42fのフラグが「OFF」という組み合わせになる。従って、制御部30は、このようにして決定されたフラグの組み合わせに基づき、該組み合わせに対応するように予め設定されたアクションを実行する(ステップS20)。
 例えば、上記のように仮想操作部42c,42dのフラグが「ON」、仮想操作部42e,42fのフラグが「OFF」という組み合わせであった場合は、ユーザの操作入力が、仮想操作部42c,42dに対する同時操作入力であったことを意味する。従って、このフラグの組み合わせに関連付けられたアクションとして、例えば、仮想操作部42c~42fの夫々が単独で操作された場合に実行されるアクションとは異なる別の必殺技などのアクションを、プレイヤキャラクタC1が実行する。
 このように、本実施の形態に係るゲーム機1では、複数の仮想操作部42を、その入力操作認識エリア44を重複するようにして隣接配置することができる。そして、重複部分(重複認識エリア44g~44j)をユーザが操作することにより、制御部30は、該重複部分に属する各仮想操作部42が同時に操作されたと判定する。従って、例えばユーザが2つの仮想操作部42c,42dを同時操作しようとする場合に、夫々を2本の指先で同時操作する必要がなく、重複認識エリア44gを1本の指先で操作することで済む。そのため、ユーザは近接配置された物理的な操作子に対する1本の指先での同時押し操作と同様の操作を、近接表示された操作子画像43に対しても行うことができる。換言すれば、ユーザは、物理的操作子の場合と同様の直感的な同時押し操作を、近接表示された操作子画像43に対しても行うことができる。
 また、1本の指先で複数の仮想操作部42に対する同時操作が行えるため、シングルタッチ式のタッチスクリーンにおいても、複数の仮想操作部42に対する同時操作を行うことが可能になる。
 また、マルチタッチ式のタッチスクリーンにおいて、2本の指先で各操作子画像43を同時操作する場合にあっては、2つの操作子画像43は、2本の指先を揃えた場合の両指先間の距離だけは少なくとも離隔して表示しなければならない。しかしながら、本ゲーム機1によれば、2本の指先による同時操作が不要で、1本の指先で実質的に同時操作が行える。そのため、2つの操作子画像43をより近接表示することも可能である。
 なお、本実施の形態ではユーザが2本の指先を使って入力操作認識エリア44の形状を変更する場合を例示したが、これに限られない。すなわち、予め様々の形状を有する入力操作認識エリア44を用意しておき、コンフィグ画面においてユーザが何れかの形状を選択することで形状の変更ができるようにしてもよい。また、ユーザが複数の入力操作認識エリア44を重複させて配置した場合に、仮想操作部表示手段33が、その重複認識エリアに対して、新たな操作子画像を表示するようにしてもよい。
 また、上で例示したように2つの入力操作認識エリア44を重複させる場合だけでなく、3つ又はそれ以上の入力操作認識エリア44を重複させてもよい。更に、操作子画像43と入力操作認識エリア44とが同一範囲に設定されていてもよい。この場合、複数の操作子画像43自体が互いに重複する部分に、重複認識エリアを設定するようにしてもよい。また、複数の入力操作認識エリア44を、重複部分が生じるように近接配置した場合に、当該重複部分を重複認識エリアとして設定するか否かをユーザが選択できるようにしてもよい。例えば、ユーザが当該重複部分を重複認識エリアとして設定することを選択した場合は、この重複部分を操作することで複数の仮想操作部42の同時操作が可能になる。一方、ユーザが重複認識エリアとして設定しないことを選択した場合は、仮想操作部42の近接配置だけを行うことができる。
 なお、以上に説明した実施の形態1に係る仮想操作部42の変更、及び実施の形態2に係る同時操作の態様は、何れもゲーム進行中に操作する仮想操作部42を対象とすることに限定されない。例えば、図7(a)に示す第3の操作画面画像103にて表示されるアイコン51a~51eの表示色情報を変更するようにしてもよいし、その他のアイコンの表示色情報を変更するようにしてもよい。更に、本発明はゲーム機以外にも適用することができる。例えば、券売機等のタッチスクリーンにて、背景側の画像の手前に操作子画像が表示されるような場合に、操作子画像の表示色情報を変更するのにも適用することができる。
 (実施の形態3)
 複数の入力操作認識エリア44が重複している場合に、当該重複部分への操作入力に対して割り当てる機能をユーザが選択できるようにしてもよい。例えば、入力操作認識エリア44c,44dが重複している場合に、その重複部分への操作入力に対し、仮想操作部42c,42dの夫々に割り当てられた各機能(例えば、パンチ及びキック)を同時に実行させるか、前記各機能とは異なる新たな機能(例えば、必殺技)を実行させるかを、ユーザが選択できるようにしてもよい。そこで、以下では、このように重複認識エリアに割り当てる機能をユーザが選択可能な構成について説明する。
 図13は、実施の形態3に係るゲーム機1が備える制御部30の機能的な構成を示すブロック図である。なお、本実施の形態に係るゲーム機1の内部構成は、図2に示したものと同様であるため、ここではその説明を省略する。図13に示すように、実施の形態3に係るゲーム機1の制御部30は、実施の形態1,2の制御部30の構成を示す図3と比べて、新規操作認識領域設定手段(新規操作認識領域設定モジュール)38を追加的に備える点で異なるが、その他の構成は同様である。
 但し、本実施の形態では、仮想操作部設定手段37を備えること、即ち、操作子画像43の表示色、位置、及び形状を変更可能とする機能を備えることは必須ではなく、これを省略することができる。例えば、ゲーム機1が、表示位置変更手段37bを備えておらず、複数の仮想操作部42の入力操作認識エリア44の位置が初期設定で固定的に決められているとする。この場合であっても、複数の入力操作認識エリアが互いに重複して重複認識エリアを有する場合は、この重複認識エリアに割り当てる機能をユーザが選択可能である。一方、ゲーム機1が、入力操作認識エリア44の位置及び/又は形状を変更可能であり、これらを変更することで複数の入力操作認識エリア44が重複する重複認識エリアが形成されることとなった場合も、この重複認識エリアに割り当てる機能をユーザが選択可能である。以下では、この仮想操作部設定手段37を制御部30に備えるゲーム機1を例にして説明する。
 例えば図11のコンフィグ画面画像には、複数の入力操作認識エリア(操作認識領域)44が互いに重複する重複認識エリア44g~44jが存在している。新規操作認識領域設定手段38は、これらの新たな操作認識領域である各重複認識エリア44g~44jへの操作入力に対して、どのような機能を実行させることとするかを、ユーザの指示に基づいて設定可能とする。この新規操作認識領域設定手段38の具体的な機能について、入力操作認識エリア44c,44dの重複部分である重複認識エリア44gに着目して詳述する。なお、他の入力操作認識エリア44の重複部分についても同様である。
 図11のコンフィグ画面画像に示されているように、入力操作認識エリア44c,44dは互いに重複する重複認識エリア44gを有している。タッチスクリーン2において、ユーザがコンフィグ画面に表示されたこの重複認識エリア44gをタッチ操作して選択すると、図14に示す機能選択画面が表示される。ユーザは、この機能選択画面を操作して、重複認識エリア44gに割り当てる機能を選択することができる。
 図14の機能選択画面には、例えば異なる4つの機能1~4を表示するアイコン61~64が設けられている。ここでは、機能1としては、「パンチ」及び「キック」を同時に実行する機能が示され、機能2~4としては、互いに異なる「必殺技A」、「必殺技B」、及び「必殺技C」を夫々実行する機能が示されている。なお、入力操作認識エリア44cに対応する仮想操作部42cが単独で操作された場合、プレイヤキャラクタC1は「パンチ」アクションを実行する。また、入力操作認識エリア44dに対応する仮想操作部42dが単独で操作された場合、プレイヤキャラクタC1は「キック」アクションを実行する。従って、機能1は、仮想操作部42c,42dに割り当てられた各機能を同時に実行する。一方、機能2~4は、予めゲームプログラム5aに記憶された機能であって、且つ、仮想操作部42c,42dに対して個別に割り当てられた既存の機能(パンチ,キック)とは異なる機能である。
 ユーザは、タッチスクリーン2に表示された機能1~4のうち何れか1つを、アイコン61~64の中から対応するものをタッチ操作することにより選択することができる。即ち、ユーザが何れかのアイコンをタッチ操作すると、新規操作認識領域設定手段38は、機能1~4のうち対応する何れか1つの機能の選択を受け付ける(機能選択受付処理)。続いて、新規操作認識領域設定手段38は、選択された機能を、重複認識エリア44gが操作入力された場合に実行する機能として割り当てる(選択機能登録処理)。
 このような構成により、新規操作認識領域設定手段38が、仮想操作部42c,42dの夫々に割り当てられた各機能(パンチ及びキック)を同時に実行するか(機能1)、あるいは前記各機能とは異なる新たな機能(例えば、必殺技A~Cの何れか)を実行するか(機能2~4の何れか)を、ユーザが選択することができる。なお、図14に示す機能選択画面において、ユーザが何れかの機能を選択した後は、再び図11に示すコンフィグ画面がタッチスクリーン2に表示され、他の重複認識エリア44h~44jを選択することができる。また、図14に示すように、機能選択画面においても右上部分にリターンアイコン65が設けられており、このアイコン65を操作することにより、重複認識エリア44gへの機能設定を中止して図11のコンフィグ画面に戻ることができる。
 また、上述したユーザによる機能の選択を新規操作認識領域設定手段38が受け付ける機能選択受付処理に先だって、重複認識エリア44gを新たな操作認識エリアとして設定するか否かを、ユーザの選択に応じて決定するようにしてもよい。図15は、重複認識エリア44gを新たな操作認識エリアとして設定するか否かを決定する処理を含む、重複認識エリア44gにユーザが選択した機能を割り当てる際の新規操作認識領域設定手段38の動作を説明するフローチャートである。
 図15に示すように、新規操作認識領域設定手段38は、はじめに図11に示すコンフィグ画面を表示する(ステップS30)。そこに表示されたこの重複認識エリア44gをユーザがタッチ操作して選択すると(ステップS31)、選択した重複認識エリア44gを新たな操作認識エリアとして設定するか否かをユーザに選択させる設定要否選択画面画像(図示せず)が、タッチスクリーン2に表示される。この画面画像には、例えば、「新たな操作認識エリアとして設定?」という内容のテロップと共に、「はい」と表示されたアイコン、及び「いいえ」と表示されたアイコンが表示されている。ユーザは、何れかのアイコンをタッチ操作して選択することにより、重複認識エリア44gを新たな操作認識エリアとして設定するか否かを、新規操作認識領域設定手段38として機能する制御部30に対して指示することができる。
 そして、ユーザが「はい」のアイコンをタッチ操作した場合(ステップS32:YES)、制御部30は、重複認識エリア44gを新たな操作認識エリアとして設定する旨の指示を受け付ける。そして制御部30は、上述した機能選択受付処理及び選択機能登録処理と同じ内容のステップS33,S34の処理を実行する。一方、ユーザが「いいえ」のアイコンをタッチ操作した場合(ステップS32:NO)、制御部30は、重複認識エリア44gを新たな操作認識エリアとして設定しない旨の指示を受け付ける。そして制御部30は、ステップS33,S34の処理をせずに一連の動作を終了する。
 このような構成により、重複認識エリア44gを新たな操作認識エリアとして設定するか否かを、ユーザが選択することができる。そして、設定することが選択された場合にのみ、ユーザが更に選択した機能を新たな操作認識エリアに割り当てることができる。従って、重複認識エリア44gに対してどのような設定を行うか、というユーザの選択肢を広げることができる。なお、上述した設定要否選択画面画像においても右上部分にリターンアイコンが設けられており、このアイコンをユーザが操作することにより、図11のコンフィグ画面に戻ることができる。
 なお、上記では重複認識エリア44g等に割り当てる機能として、プレイヤキャラクタC1が「パンチ+キック」、「必殺技A」、「必殺技B」、「必殺技C」というアクションを実行する態様を例示したが(図14)、もちろんこれに限られない。例えば、仮想操作部42c,42dの夫々に割り当てられた機能(パンチ及びキック)のうち、何れか一方を優先的に実行する機能を重複認識エリア44gに割り当てられるように、ユーザに選択可能にしてもよい。更に、図14のアイコン61には具体的な機能を初期設定しておかず、該アイコン61をタッチ操作した場合に、図11に示すコンフィグ画面が表示され、ここでユーザが新たな機能を設定できるようにしてもよい。例えば、コンフィグ画面において、三角形状の仮想操作部42bのうち下向きの仮想操作部42b、及び右向きの仮想操作部42bを順にタッチ操作し、続いて図中「C」で表示された「パンチ」機能に対応する仮想操作部42cをタッチ操作することにより、プレイヤキャラクタC1に対し、「しゃがませて右方向へパンチさせる」という新しい機能を、アイコン61に設定できるようにしてもよい。
 また、プレイヤキャラクタC1がアクションを実行する機能の他、特殊効果などを発動する機能を、ユーザが選択可能なようにしてもよい。特殊効果としては、プレイヤキャラクタC1の体力値を一定量だけ回復させる効果、プレイヤキャラクタC1の防御力又は攻撃力を上昇させる効果、敵キャラクタC2の防御力を低下させる効果、などがある。更に、アクションの実行及び特殊効果の発動などを何ら実行しないという内容の機能を、ユーザが選択可能なようにしてもよい。例えば重複認識エリア44gにこの機能を割り当てることを選択した場合、ゲーム進行中にユーザが重複認識エリア44gに指先が触れてしまった場合であっても、そのような指先の接触による操作入力は実質的に無視され、何ら特別な機能は実行されない。
 また、実施の形態2でも言及したように、重複認識エリアに対して、新たな操作子画像が表示されるようにしてもよい。その際、重複認識エリアに割り当てた機能に応じて操作子画像の表示色及び/又は形状が決定されるようにしてもよい。例えば、上述したようなアクション系の機能と特殊効果系の機能とを別々の色で表示するようにしてもよい。更に、新たに表示させた操作子画像は、図5に示すようなコンフィグ画面でのユーザの操作により、その位置、形状、表示色を変更できるようにしてもよい。なお、操作認識領域に割り振る機能を「パンチ+キック」とした場合であっても(図14(a)の機能1)、パンチとキックとの間にいずれのアクションが優先されるかを示す優先度をあらかじめ決めておけば、当該仮想操作部の押下により、パンチをした後、すかさずキックを繰り出すという連続技が繰り出されるよう設定することもできる。この優先度についても、ゲームプログラム5aの作成時に予め設定しておいてもよいし、ユーザの操作により適宜設定可能なようにしておいてもよい。
 本発明は、タッチスクリーンに表示されたキャラクタを、該ディスプレイに表示された操作部を介してユーザが操作する場合において、操作部の背後に重複する画像をユーザが把握しやすくすることのできるコンピュータ装置、記録媒体、及び制御方法を提供することができる。
1   ゲーム機1(コンピュータ装置)
2   タッチスクリーン
5a  ゲームプログラム
30  制御部
31  ゲーム空間生成手段
32  キャラクタ生成手段
33  仮想操作部生成手段
34  操作位置検出手段
35  機能実行手段
36  ゲーム制御手段
37  仮想操作部設定手段
37a 表示色変更手段
37b 表示位置変更手段
C1  プレイヤキャラクタ
C2  敵キャラクタ

Claims (18)

  1.  ユーザの操作を受け付ける仮想操作部をタッチスクリーンに表示する仮想操作部表示モジュール、及び
     ユーザの操作に基づいて前記仮想操作部の表示色情報を変更する表示色変更モジュール、
     を備えることを特徴とするコンピュータ装置。
  2.  前記表示色情報には、透明度、色相、明度、及び彩度のうち、少なくとも1つを含むことを特徴とする請求項1に記載のコンピュータ装置。
  3.  前記表示色情報は透明度であって、
     前記表示色変更モジュールは、前記透明度が所定値以上に設定されている状態でユーザにより前記仮想操作部が操作された場合、前記仮想操作部の表示色情報を、前記設定内容とは異なる内容に所定期間だけ変更することを特徴とする請求項2に記載のコンピュータ装置。
  4.  ユーザの操作に基づいて前記仮想操作部の前記タッチスクリーンでの表示位置を変更する表示位置変更モジュールを更に備えることを特徴とする請求項1乃至3の何れかに記載のコンピュータ装置。
  5.  ユーザの操作に基づいて前記仮想操作部の形状を変更する形状変更モジュールを更に備えることを特徴とする請求項1乃至4の何れかに記載のコンピュータ装置。
  6.  ユーザによる前記仮想操作部の操作に応じてゲームを進行させるゲーム制御モジュールを更に備え、
     前記表示色変更モジュールは、前記ゲームの進行中には該ゲームの進行を中断して、前記表示色情報の変更に関するユーザの操作を受け付けるべく成してあることを特徴とする請求項1乃至5の何れかに記載のコンピュータ装置。
  7.  コンピュータ装置の制御部により実行可能な指令を記憶した、該コンピュータ装置での読み取りが可能な記録媒体であって、
     前記指令は、前記コンピュータ装置に対し、
     ユーザの操作を受け付ける仮想操作部をタッチスクリーンに表示する仮想操作部表示ステップ、及び
     ユーザの操作に基づいて前記仮想操作部の表示色情報を変更する表示色変更ステップ、
     を実行させることを特徴とする記録媒体。
  8.  前記表示色情報には、透明度、色相、明度、及び彩度のうち、少なくとも1つを含むことを特徴とする請求項7に記載の記録媒体。
  9.  前記表示色情報は透明度であって、
     前記表示色変更ステップは、前記透明度が所定値以上に設定されている状態でユーザにより前記仮想操作部が操作された場合、前記仮想操作部の表示色情報を、前記設定内容とは異なる内容に所定期間だけ変更することを特徴とする請求項8に記載の記録媒体。
  10.  前記指令は、前記コンピュータ装置に対し、ユーザの操作に基づいて前記仮想操作部の前記タッチスクリーンでの表示位置を変更する表示位置変更ステップを更に実行させることを特徴とする請求項7乃至9の何れかに記載の記録媒体。
  11.  前記指令は、前記コンピュータ装置に対し、ユーザの操作に基づいて前記仮想操作部の形状を変更する形状変更ステップを更に実行させることを特徴とする請求項7乃至10の何れかに記載の記録媒体。
  12.  前記指令は、前記コンピュータ装置に対し、ユーザによる前記仮想操作部の操作に応じてゲームを進行させるゲーム制御ステップを更に実行させ、
     前記表示色変更ステップは、前記ゲームの進行中には該ゲームの進行を中断して、前記表示色情報の変更に関するユーザの操作を受け付けるべく成してあることを特徴とする請求項7乃至11の何れかに記載の記録媒体。
  13.  ユーザの操作を受け付ける仮想操作部をタッチスクリーンに表示する仮想操作部表示ステップ、及び
     ユーザの操作に基づいて前記仮想操作部の表示色情報を変更する表示色変更ステップ、
     を備えることを特徴とする、タッチスクリーンを備えるコンピュータ装置の制御方法。
  14.  前記表示色情報には、透明度、色相、明度、及び彩度のうち、少なくとも1つを含むことを特徴とする請求項13に記載のコンピュータ装置の制御方法。
  15.  前記表示色情報は透明度であって、
     前記表示色変更ステップは、前記透明度が所定値以上に設定されている状態でユーザにより前記仮想操作部が操作された場合、前記仮想操作部の表示色情報を、前記設定内容とは異なる内容に所定期間だけ変更することを特徴とする請求項14に記載のコンピュータ装置の制御方法。
  16.  ユーザの操作に基づいて前記仮想操作部の前記タッチスクリーンでの表示位置を変更する表示位置変更ステップを更に備えることを特徴とする請求項13乃至15の何れかに記載のコンピュータ装置の制御方法。
  17.  ユーザの操作に基づいて前記仮想操作部の形状を変更する形状変更ステップを更に備えることを特徴とする請求項13乃至16の何れかに記載のコンピュータ装置の制御方法。
  18.  ユーザによる前記仮想操作部の操作に応じてゲームを進行させるゲーム制御ステップを更に備え、
     前記表示色変更ステップは、前記ゲームの進行中には該ゲームの進行を中断して、前記表示色情報の変更に関するユーザの操作を受け付けるべく成してあることを特徴とする請求項13乃至17の何れかに記載のコンピュータ装置の制御方法。
PCT/JP2011/001058 2010-02-26 2011-02-24 コンピュータ装置、記録媒体、及び制御方法 WO2011105087A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2011538773A JP4937421B2 (ja) 2010-02-26 2011-02-24 コンピュータプログラム及びコンピュータ装置
CN2011800204268A CN102844733A (zh) 2010-02-26 2011-02-24 计算机装置、存储介质以及控制方法
KR1020127025020A KR20120135281A (ko) 2010-02-26 2011-02-24 컴퓨터 장치, 기록 매체, 및 제어 방법
US13/581,277 US20130038623A1 (en) 2010-02-26 2011-02-24 Computer device, storage medium and control method
EP11747054.2A EP2541377A4 (en) 2010-02-26 2011-02-24 COMPUTER DEVICE, STORAGE MEDIUM, AND CONTROL METHOD

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-041200 2010-02-26
JP2010041200 2010-02-26

Publications (1)

Publication Number Publication Date
WO2011105087A1 true WO2011105087A1 (ja) 2011-09-01

Family

ID=44506514

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/001058 WO2011105087A1 (ja) 2010-02-26 2011-02-24 コンピュータ装置、記録媒体、及び制御方法

Country Status (6)

Country Link
US (1) US20130038623A1 (ja)
EP (1) EP2541377A4 (ja)
JP (3) JP4937421B2 (ja)
KR (1) KR20120135281A (ja)
CN (1) CN102844733A (ja)
WO (1) WO2011105087A1 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013069002A (ja) * 2011-09-20 2013-04-18 Sony Computer Entertainment Inc 情報処理装置、アプリケーション提供システム、アプリケーション提供サーバ、アプリケーション提供方法、および情報処理方法
JP2014044697A (ja) * 2012-08-03 2014-03-13 Konami Digital Entertainment Co Ltd 操作端末、操作制御方法、操作制御プログラム
JP2014117567A (ja) * 2012-12-19 2014-06-30 Nintendo Co Ltd ゲームシステム、ゲームプログラム、ゲーム処理制御方法、およびゲーム装置
JPWO2013157663A1 (ja) * 2012-04-18 2015-12-21 株式会社Juice Design 入力制御方法、コンピュータ、および、プログラム
CN105413171A (zh) * 2015-12-03 2016-03-23 网易(杭州)网络有限公司 一种游戏角色移动的控制方法及装置
JP2016062080A (ja) * 2014-09-22 2016-04-25 ヤマハ株式会社 音楽教習装置
JP2016062081A (ja) * 2014-09-22 2016-04-25 ヤマハ株式会社 音楽教習装置
JP2016123638A (ja) * 2014-12-26 2016-07-11 株式会社バンダイナムコエンターテインメント 入力処理装置及びプログラム
JP2017119043A (ja) * 2015-12-29 2017-07-06 株式会社コナミデジタルエンタテインメント ゲーム制御装置及びプログラム
JP6166827B1 (ja) * 2016-09-12 2017-07-19 株式会社 ディー・エヌ・エー ゲームを提供するためのシステム、方法、及びプログラム
JP6450875B1 (ja) * 2018-03-02 2019-01-09 株式会社コロプラ ゲームプログラム、ゲーム方法、および情報処理装置
JP2019048093A (ja) * 2018-10-24 2019-03-28 グリー株式会社 プログラム、ゲームの制御方法、及び情報処理装置
JP2019150557A (ja) * 2018-12-10 2019-09-12 株式会社コロプラ ゲームプログラム、ゲーム方法、および情報処理装置
US10799793B2 (en) 2015-10-05 2020-10-13 Gree, Inc. Non-transitory computer readable medium, method of controlling a game, and information processing system
JP2020204984A (ja) * 2019-06-19 2020-12-24 日産自動車株式会社 情報処理装置及び情報処理方法

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5237325B2 (ja) 2010-04-28 2013-07-17 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
JP5227431B2 (ja) * 2011-01-14 2013-07-03 株式会社スクウェア・エニックス ネットワークゲームシステム、ゲーム装置及びプログラム
US9452357B2 (en) * 2011-09-06 2016-09-27 Capcom Co., Ltd. Game system, game control method, and storage medium for customizing with regards to arrangement and size of panel image
TW201334843A (zh) * 2012-02-20 2013-09-01 Fu Li Ye Internat Corp 具有觸控面板媒體的遊戲控制方法及該遊戲媒體
JP5563633B2 (ja) 2012-08-31 2014-07-30 株式会社スクウェア・エニックス ビデオゲーム処理装置、およびビデオゲーム処理プログラム
KR101490009B1 (ko) * 2013-01-23 2015-02-04 박재현 디스플레이 장치에서 표시된 문자의 색상 변경 장치 및 방법
JP2014147511A (ja) * 2013-01-31 2014-08-21 Gree Inc プログラム、表示システム及びサーバ装置
JP6095393B2 (ja) * 2013-02-12 2017-03-15 株式会社スクウェア・エニックス ビデオゲーム装置、及びビデオゲーム処理プログラム
JP5624168B2 (ja) * 2013-03-28 2014-11-12 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
JP6110704B2 (ja) * 2013-03-29 2017-04-05 任天堂株式会社 プログラム、情報処理装置、情報処理方法及び情報処理システム
JP2014219837A (ja) * 2013-05-08 2014-11-20 任天堂株式会社 情報処理システム、情報処理装置、情報処理プログラム、データ提供方法
JP6153007B2 (ja) * 2013-07-19 2017-06-28 株式会社コナミデジタルエンタテインメント 操作システム、操作制御方法、操作制御プログラム
JP5967148B2 (ja) * 2013-07-31 2016-08-10 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法、プログラム
CN104346157A (zh) * 2013-08-06 2015-02-11 腾讯科技(深圳)有限公司 一种图片处理方法及装置、终端设备
JP5706494B2 (ja) * 2013-09-20 2015-04-22 ヤフー株式会社 配信装置、端末装置、配信方法及び配信プログラム
WO2015048582A1 (en) 2013-09-27 2015-04-02 Sensel, Inc. Resistive touch sensor system and method
US11221706B2 (en) 2013-09-27 2022-01-11 Sensel, Inc. Tactile touch sensor system and method
EP2891950B1 (en) * 2014-01-07 2018-08-15 Sony Depthsensing Solutions Human-to-computer natural three-dimensional hand gesture based navigation method
JP5843908B2 (ja) * 2014-03-07 2016-01-13 株式会社コナミデジタルエンタテインメント ゲーム制御装置、ゲームシステム、及びプログラム
US9561432B2 (en) * 2014-03-12 2017-02-07 Wargaming.Net Limited Touch control with dynamic zones
US9901824B2 (en) 2014-03-12 2018-02-27 Wargaming.Net Limited User control of objects and status conditions
JP2015231437A (ja) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント プログラム及びゲームシステム
JP6095614B2 (ja) * 2014-07-18 2017-03-15 ヤフー株式会社 情報表示プログラム、配信装置、情報表示方法および情報表示装置
JP6130335B2 (ja) * 2014-07-18 2017-05-17 ヤフー株式会社 情報表示プログラム、配信装置、情報表示方法および情報表示装置
JP6356558B2 (ja) * 2014-09-25 2018-07-11 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
JP5795113B1 (ja) * 2014-12-18 2015-10-14 株式会社Cygames ゲーム制御プログラム、ゲーム制御方法及びゲーム制御装置
CN108140360B (zh) * 2015-07-29 2020-12-04 森赛尔股份有限公司 用于操纵虚拟环境的***和方法
CN105327506B (zh) * 2015-10-14 2019-10-29 网易(杭州)网络有限公司 一种游戏角色控制方法及装置
JP6310436B2 (ja) * 2015-10-21 2018-04-11 株式会社カプコン ゲームプログラムおよびゲーム装置
JP6310437B2 (ja) * 2015-10-21 2018-04-11 株式会社カプコン ゲームプログラムおよびゲーム装置
JP2016073663A (ja) * 2015-11-25 2016-05-12 グリー株式会社 プログラム、及び表示システム
WO2017165894A1 (en) 2016-03-25 2017-09-28 Sensel Inc. System and method for detecting and characterizing force inputs on a surface
JP6659604B2 (ja) * 2017-02-27 2020-03-04 株式会社スクウェア・エニックス ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
JP2017159149A (ja) * 2017-06-22 2017-09-14 株式会社スクウェア・エニックス ビデオゲーム処理装置、およびビデオゲーム処理プログラム
ES2947297T3 (es) * 2017-11-07 2023-08-04 Huawei Tech Co Ltd Método y dispositivo de control táctil
JP6709246B2 (ja) * 2018-05-15 2020-06-10 グリー株式会社 プログラム、及び表示システム
JP6614381B1 (ja) * 2019-03-27 2019-12-04 株式会社セガゲームス プログラム及び情報処理装置
US11071906B2 (en) 2019-10-08 2021-07-27 Zynga Inc. Touchscreen game user interface
US11921547B2 (en) * 2021-08-20 2024-03-05 Lenovo (Singapore) Pte. Ltd. Apparatus, methods, and program products for modifying a size and/or shape of a computing display screen

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000517445A (ja) * 1996-08-28 2000-12-26 ヴィーア・インコーポレイテッド タッチ画面装置及び方法
JP2004517391A (ja) * 2000-10-31 2004-06-10 インテル コーポレイション 画面上の透明なキーボードインターフェース
JP2005204720A (ja) * 2004-01-20 2005-08-04 Nintendo Co Ltd タッチパネルを用いたゲーム装置およびゲームプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034416A (ja) * 1999-07-26 2001-02-09 Kenwood Corp 抵抗膜式タッチパネル、入力装置、及び抵抗膜式タッチパネルを備えるデータ処理装置
GB9930852D0 (en) * 1999-12-24 2000-02-16 Koninkl Philips Electronics Nv Display for a graphical user interface
JP2004078678A (ja) * 2002-08-20 2004-03-11 Hitachi Ltd タッチパネルを備えた表示装置
US7594847B1 (en) * 2002-10-11 2009-09-29 Microsoft Corporation Squad command interface for console-based video game
US7081887B2 (en) * 2002-12-19 2006-07-25 Intel Corporation Method and apparatus for positioning a software keyboard
US20040183834A1 (en) * 2003-03-20 2004-09-23 Chermesino John C. User-configurable soft input applications
JP2005044026A (ja) * 2003-07-24 2005-02-17 Fujitsu Ltd 命令実行方法、命令実行プログラムおよび命令実行装置
US7942743B2 (en) * 2004-01-20 2011-05-17 Nintendo Co., Ltd. Game apparatus and storage medium storing game program
JP4141389B2 (ja) * 2004-01-20 2008-08-27 任天堂株式会社 ゲーム装置及びゲームプログラム
JP2005321975A (ja) * 2004-05-07 2005-11-17 Sony Corp 情報処理装置及びその制御方法
US7747965B2 (en) * 2005-01-18 2010-06-29 Microsoft Corporation System and method for controlling the opacity of multiple windows while browsing
KR100881952B1 (ko) * 2007-01-20 2009-02-06 엘지전자 주식회사 터치스크린을 구비하는 이동통신 단말기 및 그 동작제어방법
US20090094555A1 (en) * 2007-10-05 2009-04-09 Nokia Corporation Adaptive user interface elements on display devices
US8200795B2 (en) * 2008-06-05 2012-06-12 Sony Computer Entertainment Inc. Mobile phone game interface

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000517445A (ja) * 1996-08-28 2000-12-26 ヴィーア・インコーポレイテッド タッチ画面装置及び方法
JP2004517391A (ja) * 2000-10-31 2004-06-10 インテル コーポレイション 画面上の透明なキーボードインターフェース
JP2005204720A (ja) * 2004-01-20 2005-08-04 Nintendo Co Ltd タッチパネルを用いたゲーム装置およびゲームプログラム
JP4243553B2 (ja) 2004-01-20 2009-03-25 任天堂株式会社 タッチパネルを用いたゲーム装置およびゲームプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2541377A4

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013069002A (ja) * 2011-09-20 2013-04-18 Sony Computer Entertainment Inc 情報処理装置、アプリケーション提供システム、アプリケーション提供サーバ、アプリケーション提供方法、および情報処理方法
JPWO2013157663A1 (ja) * 2012-04-18 2015-12-21 株式会社Juice Design 入力制御方法、コンピュータ、および、プログラム
JP2014044697A (ja) * 2012-08-03 2014-03-13 Konami Digital Entertainment Co Ltd 操作端末、操作制御方法、操作制御プログラム
JP2014117567A (ja) * 2012-12-19 2014-06-30 Nintendo Co Ltd ゲームシステム、ゲームプログラム、ゲーム処理制御方法、およびゲーム装置
JP2016062080A (ja) * 2014-09-22 2016-04-25 ヤマハ株式会社 音楽教習装置
JP2016062081A (ja) * 2014-09-22 2016-04-25 ヤマハ株式会社 音楽教習装置
JP2016123638A (ja) * 2014-12-26 2016-07-11 株式会社バンダイナムコエンターテインメント 入力処理装置及びプログラム
US10799793B2 (en) 2015-10-05 2020-10-13 Gree, Inc. Non-transitory computer readable medium, method of controlling a game, and information processing system
US11745100B2 (en) 2015-10-05 2023-09-05 Gree, Inc. Non-transitory computer readable medium, method of controlling a game, and information processing system with modification of identification images based on change to game parameter
US11325033B2 (en) 2015-10-05 2022-05-10 Gree, Inc. Non-transitory computer readable medium, method of controlling a game, and information processing system with modification of identification images based on change to game parameter
CN105413171A (zh) * 2015-12-03 2016-03-23 网易(杭州)网络有限公司 一种游戏角色移动的控制方法及装置
JP2017119043A (ja) * 2015-12-29 2017-07-06 株式会社コナミデジタルエンタテインメント ゲーム制御装置及びプログラム
WO2018047709A1 (ja) * 2016-09-12 2018-03-15 株式会社ディー・エヌ・エー ゲームを提供するためのシステム、方法、及びプログラム
JP2018042632A (ja) * 2016-09-12 2018-03-22 株式会社 ディー・エヌ・エー ゲームを提供するためのシステム、方法、及びプログラム
JP6166827B1 (ja) * 2016-09-12 2017-07-19 株式会社 ディー・エヌ・エー ゲームを提供するためのシステム、方法、及びプログラム
JP2019150269A (ja) * 2018-03-02 2019-09-12 株式会社コロプラ ゲームプログラム、ゲーム方法、および情報処理装置
JP6450875B1 (ja) * 2018-03-02 2019-01-09 株式会社コロプラ ゲームプログラム、ゲーム方法、および情報処理装置
JP2019048093A (ja) * 2018-10-24 2019-03-28 グリー株式会社 プログラム、ゲームの制御方法、及び情報処理装置
JP2019150557A (ja) * 2018-12-10 2019-09-12 株式会社コロプラ ゲームプログラム、ゲーム方法、および情報処理装置
JP7171403B2 (ja) 2018-12-10 2022-11-15 株式会社コロプラ プログラム、ゲーム方法、および情報処理装置
JP2020204984A (ja) * 2019-06-19 2020-12-24 日産自動車株式会社 情報処理装置及び情報処理方法
JP7321787B2 (ja) 2019-06-19 2023-08-07 日産自動車株式会社 情報処理装置及び情報処理方法

Also Published As

Publication number Publication date
EP2541377A1 (en) 2013-01-02
JP5927327B2 (ja) 2016-06-01
JP5775468B2 (ja) 2015-09-09
US20130038623A1 (en) 2013-02-14
CN102844733A (zh) 2012-12-26
KR20120135281A (ko) 2012-12-12
JP2012113725A (ja) 2012-06-14
JP2016006651A (ja) 2016-01-14
EP2541377A4 (en) 2016-06-01
JP4937421B2 (ja) 2012-05-23
JPWO2011105087A1 (ja) 2013-06-20

Similar Documents

Publication Publication Date Title
JP5927327B2 (ja) コンピュータプログラム及びコンピュータ装置
JP4932010B2 (ja) ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム
JP4134008B2 (ja) 画像処理装置および画像処理プログラム
US8113954B2 (en) Game apparatus, storage medium storing game program and game controlling method for touch input monitoring
US8910075B2 (en) Storage medium storing information processing program, information processing apparatus and information processing method for configuring multiple objects for proper display
US7938721B2 (en) Game apparatus, game program, storage medium storing game program and game control method
US7658675B2 (en) Game apparatus utilizing touch panel and storage medium storing game program
JP2006146556A (ja) 画像表示処理プログラムおよび画像表示処理装置
JP6444927B2 (ja) コンピュータプログラム、及びゲームシステム
US9452357B2 (en) Game system, game control method, and storage medium for customizing with regards to arrangement and size of panel image
JP6185123B1 (ja) プログラム、制御方法、及び情報処理装置
JP2011229716A (ja) ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム
JP6581639B2 (ja) ゲームプログラム、およびゲームシステム
JP2007021022A (ja) タッチパネル付表示装置、ビデオゲーム装置、そのタッチパネル付表示装置を実現するためのプログラム及び記録媒体
JP2007021022A5 (ja)
JP2010029711A (ja) タッチパネルを用いたゲーム装置およびゲームプログラム
JP2013146583A (ja) ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
JP2019083965A (ja) ゲームプログラム、およびゲームシステム
JP4115500B2 (ja) ゲームプログラム、ゲーム装置及びゲーム制御方法
JP7017549B2 (ja) ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
JP7041363B2 (ja) ゲームプログラム、およびゲームシステム
JP2013000386A (ja) 携帯型ゲーム装置
JP6659604B2 (ja) ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム
JP2006122409A (ja) ゲームプログラム、ゲーム装置及びゲーム方法
JP2020114435A (ja) ゲームプログラム、およびゲームシステム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180020426.8

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2011538773

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11747054

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2011747054

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2011747054

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20127025020

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13581277

Country of ref document: US