WO2011135757A1 - 情報記憶媒体、情報入力装置、及びその制御方法 - Google Patents

情報記憶媒体、情報入力装置、及びその制御方法 Download PDF

Info

Publication number
WO2011135757A1
WO2011135757A1 PCT/JP2010/073580 JP2010073580W WO2011135757A1 WO 2011135757 A1 WO2011135757 A1 WO 2011135757A1 JP 2010073580 W JP2010073580 W JP 2010073580W WO 2011135757 A1 WO2011135757 A1 WO 2011135757A1
Authority
WO
WIPO (PCT)
Prior art keywords
value
input
output
input device
user
Prior art date
Application number
PCT/JP2010/073580
Other languages
English (en)
French (fr)
Inventor
純也 大倉
利威 土蔵
Original Assignee
株式会社ソニー・コンピュータエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・コンピュータエンタテインメント filed Critical 株式会社ソニー・コンピュータエンタテインメント
Priority to EP10850767.4A priority Critical patent/EP2565753B1/en
Priority to US13/643,686 priority patent/US9289679B2/en
Priority to CN201080066540.XA priority patent/CN102870069B/zh
Publication of WO2011135757A1 publication Critical patent/WO2011135757A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen

Definitions

  • the present invention relates to an information input device that receives an operation input performed by a user, a control method thereof, and an information storage medium storing the control program.
  • an information input device that accepts an operation input performed by a user on an operation input device and performs various types of information processing.
  • Such an information input device acquires an input value indicating the operation content when the user performs an operation input on the operation input device, and moves a character, for example, according to the acquired input value, A process of moving the viewpoint set in the virtual space is executed.
  • Specific examples of such operation input include an operation in which a user touches a finger, a stylus, or the like on the touch sensor, or an operation in which an operation member such as an analog stick is moved.
  • Some information input devices have a built-in sensor (such as a gyroscope) that detects the tilt of the housing as an operation input device.
  • Such an information input device can perform various kinds of information processing by obtaining a value of a detection result of a sensor indicating the tilt as an input value by a user performing an operation of tilting the casing.
  • the input indicating the content of the operation input performed by the user at a certain moment The range of values that can be input by the user is limited only by using values.
  • a process of changing the orientation of the viewpoint set in the virtual space according to the tilt amount will be considered.
  • an input value indicating the content of the operation input performed by the user may be used as the amount of change per unit time of the parameter to be operated.
  • an operation input method is applied to the above-described example, while the user keeps the casing of the information input device tilted in a certain direction, the information input device looks in a direction corresponding to the tilt direction. Will continue to change its direction.
  • the present invention has been made in consideration of the above circumstances, and one of its purposes is to change the value of a parameter to be operated according to an input value indicating the content of an operation input performed by a user.
  • Another object of the present invention is to provide an information input device capable of facilitating user operation input, a control method thereof, and an information storage medium storing the control program.
  • An information storage medium provides a computer connected to an operation input device that receives a user's operation input, and obtains an input value indicating the content of the operation input received by the operation input device every unit time.
  • a program for functioning as an acquisition value and an output value calculation unit that calculates an output value of a parameter to be operated according to a plurality of input values acquired by the input value acquisition unit, the output value
  • the calculating means changes a reference value determined according to one input value acquired by the input value acquiring means by a change amount corresponding to each of a plurality of input values acquired by the input value acquiring means per unit time.
  • a computer-readable information storage medium storing a program characterized in that the calculated value is calculated as the output value.
  • the reference value may be a value corresponding to the input value last acquired by the input value acquisition means.
  • the output value calculation unit may change a value obtained by changing the reference value by a change amount determined according to each of a plurality of input values acquired by the input value acquisition unit after the user has performed a predetermined start operation.
  • the output value may be output.
  • the output value calculation means may correspond to each of a plurality of input values acquired by the input value acquisition means after the user has executed a predetermined start operation and after a predetermined start condition is satisfied. A value obtained by changing the reference value by a determined change amount may be output as the output value.
  • the output value calculation unit calculates the output value using a predetermined upper limit value as the amount of change. Also good.
  • the operation input device is a sensor that detects a tilt of a casing that is held by a user's hand, and the input value acquisition unit performs an operation input that tilts the casing.
  • a value indicating a tilt direction and a tilt amount of the casing by the operation is acquired as the input value
  • the output value is a value indicating a direction and a size
  • the reference value is the one of the ones. It is a value indicating the direction and magnitude determined according to the tilt direction and the tilt amount indicated by the input value, and the amount of change corresponds to the tilt amount in the direction determined according to the tilt direction indicated by the corresponding input value. It may be a change in size.
  • the input value is constituted by a first input component value and a second input component value representing a rotation amount with the two reference axes as rotation centers, and the output value is expressed by two reference values.
  • a first output component value indicating a magnitude along each of the directions, and a second output component value, wherein the output value calculation means calculates a change amount with respect to the first output component value as the first input component value; It is determined according to a component value, a change amount with respect to the second output component value is determined according to the second input component value, and a change amount with respect to each output component value is determined by different calculation methods. It is good as well.
  • the reference value is the input value in a range where the absolute value of the input value exceeds a predetermined value, and the ratio of the change in the reference value to the change in the input value is equal to or less than the predetermined value. It may be determined to be smaller than the ratio of the change in the reference value to the change in.
  • the program displays on the display screen an image indicating the magnitude of the change amount according to the input value last acquired by the input value acquisition unit when the output value calculation unit calculates the output value. It is good also as making the said computer function further as a means to perform.
  • the information input device is an information input device connected to an operation input device that receives a user's operation input, and is an input indicating the content of the operation input received by the operation input device per unit time.
  • Input value acquisition means for acquiring a value
  • output value calculation means for calculating an output value of a parameter to be operated according to a plurality of input values acquired by the input value acquisition means, the output value calculation
  • the means changes a reference value determined according to one input value acquired by the input value acquisition means by an amount of change corresponding to each of a plurality of input values acquired by the input value acquisition means per unit time. A value is calculated as the output value.
  • the information input device includes a touch sensor disposed on each of a front surface and a back surface of the housing, and a touch sensor disposed on the front surface of the housing.
  • Start operation reception that accepts the operation as a start operation when an operation is performed in which at least one finger is brought into contact with each other and at least one finger of each hand is also brought into contact with the touch sensor disposed on the back surface of the housing.
  • the operation input device is a sensor for detecting the inclination of the housing
  • the output value calculation means is a plurality of input values acquired by the input value acquisition means after the start operation is received. A value obtained by changing the reference value by a change amount determined in accordance with each of the input values may be output as the output value.
  • the start operation accepting unit is configured such that the user makes at least one finger of each hand in contact with the touch sensor disposed on the surface of the housing and disposed on the back surface of the housing.
  • the operation is accepted as an end operation, and the output value calculation means accepts the end operation. In this case, the calculation of the output value may be terminated.
  • control method of the information input device includes an input value acquisition step of acquiring an input value indicating the content of the operation input received by the operation input device that receives a user operation input for each unit time, and the input An output value calculation step of calculating an output value of a parameter to be operated according to a plurality of input values acquired in the value acquisition step, wherein the output value calculation step is acquired in the input value acquisition step A value obtained by changing a reference value determined according to a single input value by a change amount corresponding to each of a plurality of input values acquired every unit time in the input value acquisition step is calculated as the output value. It is characterized by that.
  • FIG. 5 It is a perspective view which shows the external appearance of the information input device which concerns on embodiment of this invention. It is a perspective view which shows the external appearance of the information input device which concerns on embodiment of this invention. It is a block diagram which shows the internal structure of the information input device which concerns on this embodiment. It is a functional block diagram which shows the function of the information input device which concerns on this embodiment. It is a figure showing signs that a user grasps a case of an information input device concerning this embodiment. It is explanatory drawing which shows the relationship between the normal vector which shows the attitude
  • FIG. 1A and 1B are perspective views showing an external appearance of an information input device 1 according to an embodiment of the present invention.
  • FIG. 1A shows a state in which the information input device 1 is viewed from the front (front) side. Shows the state seen from the back side.
  • the information input device 1 according to the present embodiment is a portable game machine.
  • the housing 10 of the information input device 1 has a substantially rectangular flat plate shape as a whole, and a touch panel 12 is provided on the surface thereof.
  • the touch panel 12 has a substantially rectangular shape and includes a display 12a and a surface touch sensor 12b.
  • the display 12a may be various image display devices such as a liquid crystal display panel and an organic EL display panel.
  • the surface touch sensor 12b is disposed so as to overlap the display 12a, and includes a substantially rectangular detection surface having a shape and a size corresponding to the display surface of the display 12a.
  • the surface touch sensor 12b does not necessarily detect the position of the object only when the object touches the detection surface.
  • the surface touch sensor 12b does not detect the position of the object. The position may be detected.
  • the surface touch sensor 12b may be of any type as long as it is a device that can detect the position of an object on the detection surface, such as a capacitance type, a pressure sensitive type, or an optical type.
  • the surface touch sensor 12b is a multipoint detection type touch sensor that can detect contact of an object at a plurality of locations.
  • the back surface touch sensor 14 is disposed on the back surface side of the housing 10 so as to face the touch panel 12.
  • the back surface touch sensor 14 includes a substantially rectangular detection surface having a shape and a size corresponding to the display surface of the display 12a. That is, the display surface of the display 12a, the detection surface of the front surface touch sensor 12b, and the detection surface of the back surface touch sensor 14 are all substantially the same type and the same size, and the thickness direction of the housing 10 (Z-axis direction) ) Along the straight line.
  • the back surface touch sensor 14 may be of various types as with the front surface touch sensor 12b.
  • the back surface touch sensor 14 is a multipoint detection type touch sensor that can detect contact of an object at a plurality of locations, similarly to the front surface touch sensor 12b.
  • the user holds the case 10 of the information input device 1 with both hands and makes an operation input to the information input device 1 by bringing his / her finger into contact with the detection surface of the front touch sensor 12b or the back touch sensor 14. be able to.
  • both the front surface touch sensor 12b and the back surface touch sensor 14 are multipoint detection type touch sensors, the user can perform various operation inputs by simultaneously bringing his / her fingers into contact with the touch sensors. Can do.
  • the information input device 1 is not limited to the front surface touch sensor 12 b and the rear surface touch sensor 14, and various operations for receiving user operation inputs such as buttons and switches.
  • the member may be provided on the front surface, the back surface, the side surface, or the like of the housing 10.
  • a gyroscope 16 is disposed inside the housing 10 of the information input device 1 as a sensor for detecting the tilt of the housing 10.
  • the gyroscope 16 is a piezoelectric vibration type gyro or the like, detects rotation of the casing 10 around a plurality of gyro reference axes set in the casing 10, and outputs an electrical signal corresponding to the detected rotation.
  • the gyro reference axis is the X axis along the long side direction (horizontal direction) of the display 12a and the Y axis along the short side direction (vertical direction). Then, a signal corresponding to the rotation of the casing 10 around each of the gyro reference axes is output.
  • FIG. 2 is a configuration block diagram showing the internal configuration of the information input device 1.
  • the information input apparatus 1 includes a control unit 20, a storage unit 22, and an image processing unit 24 therein.
  • the control unit 20 is configured to include a CPU, for example, and executes various types of information processing according to programs stored in the storage unit 22. A specific example of processing executed by the control unit 20 will be described later.
  • the storage unit 22 is, for example, a memory element such as a RAM or a ROM, a disk device, and the like, and stores a program executed by the control unit 20 and various data.
  • the storage unit 22 also functions as a work memory for the control unit 20.
  • the image processing unit 24 includes, for example, a GPU and a frame buffer memory, and draws an image to be displayed on the display 12a in accordance with an instruction output from the control unit 20.
  • the image processing unit 24 includes a frame buffer memory corresponding to the display area of the display 12a, and the GPU writes an image to the frame buffer memory every predetermined time in accordance with an instruction from the control unit 20.
  • the image written in the frame buffer memory is converted into a video signal at a predetermined timing and displayed on the display 12a.
  • the information input device 1 executes a game application program stored in the storage unit 22 to generate a spatial image showing a state in the virtual three-dimensional space and display it on the display 12a. Furthermore, the user performs an operation input to the information input device 1 by performing an operation of tilting the housing 10 (hereinafter referred to as a tilt operation) in a state where such a spatial image is displayed. In response to this operation input, the information input device 1 executes a process of changing the direction of the viewpoint set in the virtual three-dimensional space (hereinafter referred to as the line-of-sight direction VD).
  • the line-of-sight direction VD a process of changing the direction of the viewpoint set in the virtual three-dimensional space
  • the parameter indicating the line-of-sight direction VD is a parameter to be operated by the tilt operation.
  • the information input device 1 produces
  • the user can view the situation in the virtual three-dimensional space while tilting the housing 10 and changing the line-of-sight direction.
  • the gyroscope 16 functions as an operation input device that receives an operation input by a user's tilt operation.
  • the information input device 1 functionally includes a start operation reception unit 30, an input value acquisition unit 32, an output value calculation unit 34, and a display image control unit 36.
  • the These functions are realized by the control unit 20 executing a program stored in the storage unit 22.
  • This program may be provided by being stored in various computer-readable information storage media such as an optical disk and a memory card, or may be provided to the information input device 1 via a communication network such as the Internet.
  • the start operation reception unit 30 receives an input of a predetermined start operation from the user.
  • the input value acquisition unit 32 described later acquires an input value indicating the content of the tilt operation performed by the user after the start operation is accepted. In this way, the user starts the tilt operation for tilting the housing 10 after executing the start operation, so that the housing 10 is not intended to change the line-of-sight direction VD during game play. It is possible to avoid changing the line-of-sight direction VD by changing the inclination of.
  • this start operation is an operation in which the user holds the case 10 with both hands so that the front touch sensor 12b and the back touch sensor 14 are in contact with at least one finger of each hand (hereinafter, referred to as the following operation).
  • This is called a gripping operation).
  • the user touches the left hand thumb within a predetermined area on the left side of the front touch sensor 12 b, and the right hand when the left index finger is viewed from the back side of the back touch sensor 14. In a predetermined area.
  • the start operation reception unit 30 receives detection results of the front surface touch sensor 12b and the back surface touch sensor 14, and determines whether or not the user has performed such a grip operation. Specifically, for example, the start operation reception unit 30 determines whether or not one or more fingers of the user are in contact with each of four predetermined areas on both the left and right sides of the front surface touch sensor 12b and the left and right sides of the back surface touch sensor 14. Thus, it is determined whether or not the user has performed a gripping operation.
  • the input value acquisition unit 32 acquires an input value I indicating the content of the tilt operation performed by the user based on the detection result of the gyroscope 16.
  • the input value acquisition unit 32 detects from the detection result of the gyroscope 16 every unit time (for example, 1/60 seconds) after the start operation receiving unit 30 detects that the user has performed the start operation.
  • the input value I is calculated.
  • the input value I is a two-dimensional quantity constituted by a set of two numerical values of an x component value Ix and a y component value Iy, and is a relative inclination of the casing 10 with respect to the initial casing direction EDi (ie, , The inclination direction and the inclination amount of the casing 10 from the initial casing direction EDi).
  • the initial housing direction EDi is a direction indicating the posture of the housing 10 when the user performs a start operation, and is the normal direction of the back surface touch sensor 14 when the start operation receiving unit 30 detects the start operation. is there.
  • a plane parallel to the touch panel 12 and the back surface touch sensor 14 at the time when the start operation is detected is referred to as a reference plane RP for the tilt operation.
  • the initial housing direction EDi is considered to substantially coincide with the user's line-of-sight direction when the start operation is performed.
  • each of the x component value Ix and the y component value Iy is a unit vector (hereinafter, referred to as a normal direction of the back surface touch sensor 14 (hereinafter referred to as a housing direction ED) when the user performs an inclination operation.
  • a normal vector V Referred to as a normal vector V
  • FIG. 5 is an explanatory diagram showing the relationship between the normal vector V and the input value I.
  • 6A shows the normal vector V of FIG. 5 viewed from the X-axis negative direction side
  • FIG. 6B shows the normal vector V of FIG. 5 viewed from the Y-axis negative direction side. .
  • the posture of the housing 10 at the time when the start operation is performed is illustrated, and the orientation of the housing 10 after the tilt operation is not illustrated.
  • the x component value Ix and the y component value Iy each take any value in the numerical range from the maximum value 1 to the minimum value ⁇ 1, where the magnitude of the normal vector V is 1.
  • the combination of these component values indicates how much the user has rotated the housing 10 with respect to the initial housing direction EDi around the X-axis and the Y-axis.
  • the input value acquisition unit 32 has the rotation angles ⁇ x and ⁇ y obtained from the detection result of the gyroscope 16.
  • the direction rotating clockwise when viewed from the X axis negative direction side is the positive direction
  • rotation about the Y axis is from the Y axis negative direction side.
  • the direction rotating counterclockwise as viewed is the positive direction.
  • the value t increases by one.
  • the casing direction ED at time t is expressed as ED (t).
  • the output value calculation unit 34 calculates the output value Po of the parameter to be operated according to the plurality of input values I acquired by the input value acquisition unit 32 while the user performs a gripping operation.
  • the parameter to be operated is a line-of-sight direction parameter indicating the line-of-sight direction VD set in the virtual three-dimensional space.
  • the output value Po of the visual line direction parameter is configured by two output angle values Pox and Poy indicating the azimuth of the visual line direction VD with respect to the initial visual line direction VDi.
  • the initial line-of-sight direction VDi is the line-of-sight direction when the start operation is detected.
  • these output angle values Pox and Poy indicate the rotation angle in the visual line direction VD with the two reference axes as the rotation center, and the reference axis is defined based on the viewpoint coordinate system at the time when the start operation is detected. Is done.
  • the viewpoint coordinate system is a coordinate system using a Vx axis, a Vy axis, and a Vz axis that are orthogonal to each other.
  • the Vx axis is the horizontal direction of the screen of the display 12a
  • the Vy axis is the vertical direction of the screen
  • the Vz axis is the visual line direction.
  • the output angle value Pox is a rotation angle around the Vx axis in the viewpoint coordinate system when the start operation is detected
  • the output angle value Poy is a rotation angle around the Vy axis.
  • FIG. 7 is an explanatory diagram showing the relationship between the viewpoint coordinate system and the output angle values Pox and Poy.
  • the viewpoint position VP, initial line-of-sight direction VDi set in the virtual three-dimensional space, and the image A projection plane PP is shown.
  • the output angle values Pox and Poy are to be calculated by the output value calculation unit 34.
  • the line-of-sight direction VD is a direction obtained by rotating the initial line-of-sight direction VDi according to the output angle values Pox and Poy.
  • the output angle values Pox and Poy are values indicating the magnitudes of rotation in the two reference axis directions, the Vy axis direction and the Vx axis direction, and the direction and magnitude represented by the set of these angle values.
  • the visual line direction VD is determined by rotating the initial visual line direction VDi.
  • the output value calculation unit 34 calculates a value obtained by changing the reference value Pr by the change amount Pd as the output value Po.
  • the reference value Pr is a value determined according to one of the plurality of input values I acquired by the input value acquisition unit 32, and the change amount Pd is acquired by the input value acquisition unit 32 every unit time. This is an amount corresponding to each of the plurality of input values I.
  • the reference value Pr is also composed of two angle values, the reference angle values Prx and Pry.
  • the change amount Pd may also be configured by two angle values: a difference angle value Pdx indicating the change amount of the angle value Pox and a difference angle value Pdy indicating the change amount of the angle value Poy.
  • the output value calculation unit 34 updates the output value Po every time the unit time elapses and the input value acquisition unit 32 acquires a new input value I.
  • Prx (n) and Pry (n) are values calculated by the following formula using the x component value Ix (t) and the y component value Iy (t) of the input value I (t).
  • Prx (n) sin ⁇ 1 ( ⁇ ⁇ Iy (n))
  • Pry (n) sin ⁇ 1 ( ⁇ ⁇ Ix (n))
  • is a predetermined coefficient.
  • the reference angle values Prx (n) and Pry (n) coincide with ⁇ x and ⁇ y, respectively, according to the calculation formula described above. That is, the reference value Pr represents a rotation angle for rotating the initial line-of-sight direction VDi with a direction and an amount that match the inclination direction and the inclination amount of the housing direction ED (n) with respect to the initial housing direction EDi.
  • the reference value Pr rotates the initial line-of-sight direction VDi by an angle smaller than the tilt amount in a direction that matches the tilt direction of the casing direction ED (n) with respect to the initial casing direction EDi. It represents the rotation angle.
  • the reference value Pr represents a rotation angle that rotates the initial line-of-sight direction VDi by an angle larger than the inclination amount of the housing direction ED (n) with respect to the initial housing direction EDi. become.
  • a component for rotating the direction VDi is included.
  • the coefficient ⁇ may be a negative value. In this case, the rotation direction from the initial line-of-sight direction VDi indicated by the reference value Pr is opposite to the tilt direction of the housing 10.
  • the calculation formula for calculating Prx (n) from Iy (n) and the calculation formula for calculating Pry (n) from Ix (n) are the same function.
  • the value calculation unit 34 may calculate Prx (n) and Pry (n) by different calculation methods. Specifically, for example, the output value calculation unit 34 may calculate Prx (n) and Pry (n) using different coefficients ⁇ 1 and ⁇ 2 instead of the coefficient ⁇ .
  • the reference angle value Prx is equal to the input value Iy in the range where the change rate of the reference angle value Prx with respect to the change of the input value Iy is less than or equal to the threshold value Ith in the range where the absolute value of the input value Iy exceeds the predetermined threshold value Ith. It may be determined to be smaller than the rate of change of the reference value Prx with respect to the change.
  • the output value calculation unit 34 calculates the reference angle value Prx by the following calculation formula. In this way, in the range where the absolute value of the input value Iy exceeds the threshold value Ith, the coefficient by which Iy is multiplied is halved, and the change rate of the reference angle value Prx per unit change of the input value Iy is accordingly increased.
  • the ratio of the coefficient in the range where the absolute value of the input value Iy is less than or equal to the threshold value Ith and the coefficient in the range exceeding the threshold value Ith is 1 ⁇ 2, but this ratio is a value other than that. Also good.
  • the reference angle value Prx may be calculated using one function (for example, a function in which the second-order differentiation is a negative value) such that the rate of change of the value Prx becomes small. Also, when the reference angle value Poy is calculated using the input value Ix, it may be calculated by the same calculation formula as the calculation formula of the reference angle value Pry described above.
  • the difference angle values Pdx (t) and Pdy (t) determined according to the input value I (t) are also determined according to the input value I (t) in the same manner as the reference angle values Prx (n) and Pry (n). It may be an angle value indicating a rotation angle for rotating the line-of-sight direction VD by the direction and amount.
  • the difference angle values Pdx (t) and Pdy (t) are relatively small compared to the reference angle values Prx (t) and Pry (t) determined according to the same input value I (t). It is desirable to become. Therefore, these difference angle values are calculated by a function different from the reference angle value.
  • the differential angle values Pdx (t) and Pdy (t) are expressed by the following functions using Ix (t) and Iy (t), respectively.
  • Pdx (t) sin ⁇ 1 (F (Iy (t)))
  • Pdy (t) sin ⁇ 1 (F (Ix (t)))
  • F (x) is a predetermined function.
  • the function F (x) is defined as follows, for example.
  • is a predetermined coefficient.
  • the coefficient ⁇ may be a positive value or a negative value, like the coefficient ⁇ .
  • F (x) may be limited so that its absolute value does not exceed a predetermined upper limit value.
  • the output value calculation unit 34 may change the coefficient ⁇ in the above-described calculation formula between when calculating Pdx (t) and when calculating Pdy (t). In this way, the amount of change in the line-of-sight direction VD differs between the case where the case 10 is rotated about the Y axis and the case 10 is rotated about the X axis. Can be.
  • the output value calculation unit 34 needs to calculate a new output value Po by reflecting the input value I newly acquired by the input value acquisition unit 32 every time the unit time elapses.
  • the output value calculation unit 34 does not necessarily have to redo the calculation of the output value Po from the beginning, and is a value that is determined according to the input value I for which the reference value Pr is newly acquired with respect to the previously calculated output value Po. It is only necessary to further change the amount of change corresponding to the newly acquired input value I.
  • the calculated output angle values Pox (n ⁇ 1), Poy (n ⁇ 1) and the reference angle values Prx (n ⁇ 1), Pry (n ⁇ 1) used for the calculation are stored in the storage unit 22. Temporarily store in. In the next calculation, the previous output angle value and reference angle value stored in the storage unit 22, and the reference angle value and difference angle value calculated from the newly acquired input value I (n).
  • the output angle values Pox (n) and Poy (n) are calculated by the above-described calculation formula.
  • the output value calculation unit 34 may calculate the output angle values Pox (n) and Poy (n) by the following calculation formula.
  • the output value calculation unit 34 stores in the storage unit 22 a cumulative value obtained by summing the difference angle values Pdx calculated after the start operation.
  • the cumulative angle stored in the storage unit 22 is further added with the difference angle value Pdx (t) calculated from the input value I (t). Update to value.
  • the output angle value Pox (t) is calculated by adding the reference angle value Pdx (t) calculated from the input value I (t) to the updated accumulated value.
  • the output angle value Poy (t) can also be calculated by the same process.
  • the output value calculation unit 34 calculates the change amount Pd for all the input values I acquired after the start operation is detected, and reflects these change amounts Pd in the output value Po.
  • the start condition in this case may be, for example, that a predetermined time elapses after the start operation is detected.
  • the amount of change in unit time of the input value I may be less than a predetermined value.
  • the output value Po is determined based only on the reference value Pr, and after a certain period of time has elapsed after the start operation (or the user has started the case
  • the change of the output value Po according to the change amount Pd can be started (after the ten postures are maintained in a constant state).
  • the display image control unit 36 updates the image displayed on the display 12a in accordance with the output value Po of the line-of-sight direction parameter output by the output value calculation unit 34.
  • the display image control unit 36 rotates the initial line-of-sight direction VDi with the rotation direction and the rotation amount determined according to the output value Po (t) output from the output value calculation unit 34 at time t.
  • the line-of-sight direction VD (t) at time t is set, and a spatial image of the state in the virtual three-dimensional space is displayed on the display 12a along the line-of-sight direction VD (t).
  • the image element included in the display image moves in the display image according to the change of the output value Po.
  • This image element may be various objects arranged in the virtual space, or an icon or the like in the menu screen.
  • the display image control unit 36 constructs a virtual three-dimensional space in which objects such as game character objects and background objects are arranged in the storage unit 22. Then, the image processing unit 24 is instructed to draw an image showing a state in the virtual three-dimensional space viewed from the line-of-sight direction VD determined according to the output value Po calculated by the output value calculating unit 34. In response to the instruction, the GPU in the image processing unit 24 generates an image and writes it in the frame buffer, whereby a game image is displayed on the display 12a. Thereby, the user can view the state in the virtual three-dimensional space as viewed from the line-of-sight direction VD changed according to the tilt operation performed by the user.
  • the display image control unit 36 updates the display image according to the output value Po calculated by the output value calculation unit 34
  • the display image control unit 36 displays an image indicating the magnitude of the change amount used to calculate the output value Po
  • the indicator image 40 may be included in the display image.
  • FIG. 8 is a diagram illustrating an example of a display image including such an indicator image 40.
  • the indicator image 40 shall show the magnitude
  • the indicator image 40 indicating the size of the image is displayed.
  • the indicator image 40 may be an image that changes in accordance with the sum of the absolute values of the difference angle values Pdx (t) and Pdy (t), or the sum of squares of Pdx (t) and Pdy (t). It may be an image that changes accordingly. Or it may be an image which shows each size of Pdx (t) and Pdy (t). Further, it indicates not the size of Pdx (t) and Pdy (t) itself, but the size of Pdx (t) and Pdy (t) relative to the size of the reference value Pr (t) and the output value Po (t), for example. It may be an image. By displaying such an indicator image 40, it is possible to explicitly notify the user of the current change status of the operation target parameter.
  • the process for updating the parameter to be operated according to the input value I described above is repeatedly executed until the user performs a predetermined end operation.
  • the output value calculation unit 34 ends the process of calculating the output value Po of the parameter to be operated, and the display image control unit 36 outputs the output at the time of the end operation.
  • the display image control unit 36 While maintaining the line-of-sight direction VD determined by the value Po, an image of the virtual three-dimensional space viewed from the line-of-sight direction VD is displayed.
  • the end operation is an operation for releasing the state in which the user is performing the gripping operation (that is, the state in which the user has touched the fingers of both hands to the front touch sensor 12b and the back touch sensor 14).
  • the user keeps the gripping operation while performing the tilting operation. That is, after the user starts the gripping operation, the start operation receiving unit 30 repeats the determination whether or not the state is maintained every predetermined time.
  • the start operation accepting unit 30 accepts this operation as an end operation indicating the end of the tilt operation, and outputs that effect to the input value acquiring unit 32.
  • the input value acquisition unit 32 is an input value indicating the content of the operation input performed by the user while the user continues the gripping operation (that is, from the start operation to the end operation). If the user performs a termination operation, the input value acquisition process can be terminated.
  • the output value Po of the parameter to be operated is determined based on the reference value Pr and the change amount Pd.
  • the reference value Pr is a component reflecting the input value I at a certain moment
  • the change amount Pd is a change amount corresponding to each of the plurality of input values I acquired after the user performs a start operation. Pd is accumulated and reflected in the output value Po. While the user continues the tilting operation, the contribution of the change amount Pd to the output value Po increases with time, so the output value Po is calculated using only the input value I at a certain temporary point. Unlike the above, the range of values that the output value Po can take can be increased.
  • the contribution of the change amount Pd to the output value Po is smaller than the reference value Pr, so that an output value Po that substantially corresponds to the reference value Pr is output.
  • the user after performing the start operation, the user performs an inclination operation for tilting the housing 10 in a direction in which the line-of-sight direction VD is to be changed, and then immediately performs an end operation, so that the direction is close to the direction intended by the user.
  • the line-of-sight direction VD can be changed.
  • the operation target parameter is a parameter representing the line-of-sight direction VD, but the operation target parameter may be various other parameters.
  • the information input device 1 may change the position coordinates of the viewpoint VP set in the virtual three-dimensional space according to the user's tilt operation, or the position of the character placed in the virtual three-dimensional space or virtual plane.
  • the traveling direction may be changed according to the user's tilting operation.
  • you may change the display range displayed on the display 12a within a virtual plane.
  • the information input device 1 is not limited to the gyroscope, and may detect the direction and amount of the tilt operation performed by the user by various detection means such as a geomagnetic sensor.
  • the method of operation input performed by the user is not limited to the tilt operation for tilting the housing 10.
  • the information input device 1 may acquire the input value I by receiving a user operation input to the front surface touch sensor 12b and the rear surface touch sensor 14. As a specific example of such processing, the user brings one of his / her fingers into contact with one point of the back surface touch sensor 14. Then, another finger is brought into contact with another point on the back surface touch sensor 14 while maintaining the state.
  • the information input device 1 uses the position where the user's finger first contacts as a reference position, and sets a value indicating the direction and distance from the reference position to the position where the user's finger next contacts as an input value I. Get as.
  • the user can perform an operation input indicating the direction and amount with respect to the reference position using the touch sensor, as in the case where the operation of tilting the housing 10 is performed after the start operation.
  • the user may perform an operation input for changing the parameter to be operated by simply bringing one of the fingers into contact with one point on the back surface touch sensor 14.
  • the information input device 1 inputs a value indicating the direction and amount of the position touched by the user's finger with respect to the reference position, for example, by setting the center position of the detection surface of the back surface touch sensor 14 as the reference position. It can be acquired as value I. Even when the front surface touch sensor 12b is used, the same operation input as the operation input to the back surface touch sensor 14 as described above can be performed.
  • the input value I is composed of two component values indicating the X coordinate and the Y coordinate of the projection point obtained by projecting the normal vector V indicating the orientation of the housing 10 onto the reference plane RP.
  • the information input device 1 acquires ⁇ x and ⁇ y indicating the rotation angles themselves around the X axis and the Y axis of the housing 10 as the input values I as the input value I, and this rotation
  • the output angle values Pox and Poy may be calculated using the angles ⁇ x and ⁇ y.
  • the input value I is a two-dimensional value indicating the direction and amount with respect to the reference position.
  • the input value I may be a one-dimensional value.
  • the information input device 1 acquires only the coordinate value in the X-axis direction of the position touched by the user's finger on the front surface touch sensor 12b or the back surface touch sensor 14 as the input value I, and the acquired plurality of input values I are acquired.
  • the input value I may be a three-dimensional value constituted by a set of three component values.
  • the component value indicating the rotation amount about the X axis and the Y axis detected by the gyroscope 16 is used as the input value.
  • both the X axis and the Y axis are used.
  • a component value Iz indicating the amount of rotation with the Z axis orthogonal to the rotation center may be included in the input value.
  • the information input device 1 rotates the image displayed on the display 12a with the line-of-sight direction VD as the rotation center in response to an operation of the user rotating the casing 10 with the normal direction of the back surface touch sensor 14 as the rotation center.
  • the output value calculation unit 34 calculates an output angle value Poz indicating the rotation amount of the display image according to the component value Iz.
  • the gyroscope 16, the front touch sensor 12 b, and the back touch sensor 14 function as operation input devices.
  • the user can use various other operation input devices such as analog sticks, for example.
  • An operation input may be accepted.
  • the start operation and the end operation for instructing the start and end of the operation input that is the target of acquiring the input value I are not limited to those described above, and may be, for example, a button press.
  • all of these operation input devices are arranged in the housing 10 of the information input device 1, the operation input devices may be configured separately from the information input device 1.
  • the information input device 1 may be a consumer game machine, a personal computer, or the like, and the operation input device may be a controller that is connected to the information input device 1 by wire or wirelessly and includes a gyroscope. Good.
  • the user performs an operation of grasping and tilting the housing of the controller by hand, and the information input device 1 calculates an output value based on the detection result of the gyroscope transmitted from the controller.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 ユーザによる操作入力をしやすくすることのできるプログラムを提供する。 単位時間ごとに、操作入力装置が受け付けたユーザの操作入力の内容を示す入力値を取得し、取得した複数の入力値の一つに応じて決まる基準値を、取得した複数の入力値のそれぞれに応じた変化量だけ変化させた値を、操作対象となるパラメータの出力値として算出するように、操作入力装置と接続されたコンピュータを機能させるためのプログラムを記憶した、コンピュータ読み取り可能な情報記憶媒体である。

Description

情報記憶媒体、情報入力装置、及びその制御方法
 本発明は、ユーザが行う操作入力を受け付ける情報入力装置、その制御方法、及びその制御プログラムを記憶した情報記憶媒体に関する。
 ユーザが操作入力装置に対して行った操作入力を受け付けて各種の情報処理を行う情報入力装置がある。このような情報入力装置は、ユーザが操作入力装置に対して操作入力を行った場合に、その操作内容を示す入力値を取得し、取得した入力値に応じて、例えばキャラクタを移動させたり、仮想空間内に設定された視点を移動させたりする処理を実行する。このような操作入力の具体例としては、タッチセンサ上にユーザが指やスタイラスなどを接触させる操作や、アナログスティックなどの操作部材を動かす操作が挙げられる。また、情報入力装置の中には、操作入力装置として、筐体の傾きを検知するセンサ(ジャイロスコープ等)を内蔵したものがある。このような情報入力装置は、ユーザがその筐体を傾ける操作を行うことにより、その傾きを示すセンサの検知結果の値を入力値として取得して、各種の情報処理を行うことができる。
 上述したような情報入力装置においては、操作入力装置の物理的な制約等により入力値のとり得る値の範囲が限られてしまうので、ある瞬間にユーザが行っている操作入力の内容を示す入力値を用いるだけでは、ユーザが入力可能な値の範囲が限られてしまう。一例として、ユーザが筐体を傾ける操作を行った場合に、その傾き量に応じて仮想空間内に設定された視点の向きを変化させる処理を考える。この場合、視点の向きを大きく変化させるためには筐体をそれだけ大きく傾ける必要があり、筐体の形状やユーザの筐体の持ち方などによっては、大きな値の操作入力をしにくくなってしまうことがあり得る。
 一方、ユーザが行った操作入力の内容を示す入力値を、操作対象となるパラメータの単位時間あたりの変化量として用いることも考えられる。このような操作入力方法を前述の例に適用した場合、ユーザが情報入力装置の筐体を一定方向に傾けた状態を保っている間、情報入力装置は、その傾き方向と対応する方向に視線の向きを変化させ続けることになる。しかしながら、このような操作入力方法は、場面によっては、パラメータの値を微調整させにくく、ユーザにとって操作がしにくい場合がある。
 本発明は上記実情を考慮してなされたものであって、その目的の一つは、ユーザが行った操作入力の内容を示す入力値に応じて、操作対象のパラメータの値を変化させる場合に、ユーザによる操作入力をしやすくすることのできる情報入力装置、その制御方法、及びその制御プログラムを記憶した情報記憶媒体を提供することにある。
 本発明に係る情報記憶媒体は、ユーザの操作入力を受け付ける操作入力装置と接続されたコンピュータを、単位時間ごとに、前記操作入力装置が受け付けた操作入力の内容を示す入力値を取得する入力値取得手段、及び、前記入力値取得手段が取得した複数の入力値に応じて、操作対象となるパラメータの出力値を算出する出力値算出手段、として機能させるためのプログラムであって、前記出力値算出手段は、前記入力値取得手段が取得した一つの入力値に応じて決まる基準値を、前記入力値取得手段が単位時間ごとに取得した複数の入力値のそれぞれに応じた変化量だけ変化させた値を、前記出力値として算出することを特徴とするプログラムを記憶した、コンピュータ読み取り可能な情報記憶媒体である。
 また、上記プログラムにおいて、前記基準値は、前記入力値取得手段が最後に取得した入力値に応じた値であることとしてもよい。
 また、前記出力値算出手段は、前記ユーザが所定の開始操作を実行した後に前記入力値取得手段が取得した複数の入力値のそれぞれに応じて決まる変化量だけ前記基準値を変化させた値を、前記出力値として出力することとしてもよい。
 あるいは、前記出力値算出手段は、前記ユーザが所定の開始操作を実行した後で、かつ、所定の開始条件が満たされた後に前記入力値取得手段が取得した複数の入力値のそれぞれに応じて決まる変化量だけ前記基準値を変化させた値を、前記出力値として出力することとしてもよい。
 また、前記出力値算出手段は、前記入力値取得手段が取得した入力値が予め定められた値を上回る場合、前記変化量として予め定められた上限値を用いて前記出力値を算出することとしてもよい。
 また、上記プログラムにおいて、前記操作入力装置は、ユーザが手で把持する筐体の傾きを検知するセンサであって、前記入力値取得手段は、前記筐体を傾ける操作入力をユーザが行った場合に、当該操作による前記筐体の傾き方向及び傾き量を示す値を、前記入力値として取得し、前記出力値は、方向及び大きさを示す値であって、前記基準値は、前記一つの入力値が示す傾き方向及び傾き量に応じて決まる方向及び大きさを示す値であり、前記変化量は、対応する前記入力値が示す傾き方向に応じて決まる方向への前記傾き量に応じた大きさの変化量であることとしてもよい。
 さらに、上記プログラムにおいて、前記入力値は、二つの基準軸それぞれを回転中心とした回転量を表す第1の入力成分値及び第2の入力成分値によって構成され、前記出力値は、二つの基準方向のそれぞれに沿った大きさを示す第1の出力成分値及び第2の出力成分値によって構成され、前記出力値算出手段は、前記第1の出力成分値に対する変化量を前記第1の入力成分値に応じて決定し、前記第2の出力成分値に対する変化量を前記第2の入力成分値に応じて決定し、かつ、それぞれの出力成分値に対する変化量を互いに異なる計算方法で決定することとしてもよい。
 また、上記プログラムにおいて、前記基準値は、前記入力値の絶対値が所定値を超える範囲において、前記入力値の変化に対する前記基準値の変化の割合が、前記所定値以下の範囲における前記入力値の変化に対する前記基準値の変化の割合より小さくなるように決定されることとしてもよい。
 また、上記プログラムは、前記出力値算出手段が前記出力値を算出する際に、前記入力値取得手段が最後に取得した入力値に応じた前記変化量の大きさを示す画像を表示画面に表示させる手段、として前記コンピュータをさらに機能させることとしてもよい。
 また、本発明に係る情報入力装置は、ユーザの操作入力を受け付ける操作入力装置と接続された情報入力装置であって、単位時間ごとに、前記操作入力装置が受け付けた操作入力の内容を示す入力値を取得する入力値取得手段と、前記入力値取得手段が取得した複数の入力値に応じて、操作対象となるパラメータの出力値を算出する出力値算出手段と、を含み、前記出力値算出手段は、前記入力値取得手段が取得した一つの入力値に応じて決まる基準値を、前記入力値取得手段が単位時間ごとに取得した複数の入力値のそれぞれに応じた変化量だけ変化させた値を、前記出力値として算出することを特徴とする。
 また、上記情報入力装置において、前記情報入力装置は、その筐体の表面及び裏面のそれぞれに配置されたタッチセンサと、前記ユーザが前記筐体の表面に配置されたタッチセンサに両手それぞれの指を少なくとも1本ずつ接触させるとともに、前記筐体の裏面に配置されたタッチセンサにも両手それぞれの指を少なくとも1本ずつ接触させる操作を行った場合に、当該操作を開始操作として受け付ける開始操作受付手段と、をさらに備え、前記操作入力装置は、前記筐体の傾きを検知するセンサであって、前記出力値算出手段は、前記開始操作が受け付けられた後に前記入力値取得手段が取得した複数の入力値のそれぞれに応じて決まる変化量だけ前記基準値を変化させた値を、前記出力値として出力することとしてもよい。
 さらに、上記情報入力装置において、前記開始操作受付手段は、前記ユーザが前記筐体の表面に配置されたタッチセンサに両手それぞれの指を少なくとも1本ずつ接触させるとともに、前記筐体の裏面に配置されたタッチセンサにも両手それぞれの指を少なくとも1本ずつ接触させた状態を解除する操作を行った場合に、当該操作を終了操作として受け付け、前記出力値算出手段は、前記終了操作が受け付けられた場合、前記出力値の算出を終了することとしてもよい。
 また、本発明に係る情報入力装置の制御方法は、単位時間ごとに、ユーザの操作入力を受け付ける操作入力装置が受け付けた操作入力の内容を示す入力値を取得する入力値取得ステップと、前記入力値取得ステップで取得された複数の入力値に応じて、操作対象となるパラメータの出力値を算出する出力値算出ステップと、を含み、前記出力値算出ステップでは、前記入力値取得ステップで取得された一つの入力値に応じて決まる基準値を、前記入力値取得ステップで単位時間ごとに取得された複数の入力値のそれぞれに応じた変化量だけ変化させた値を、前記出力値として算出することを特徴とする。
本発明の実施の形態に係る情報入力装置の外観を示す斜視図である。 本発明の実施の形態に係る情報入力装置の外観を示す斜視図である。 本実施形態に係る情報入力装置の内部構成を示すブロック図である。 本実施形態に係る情報入力装置の機能を示す機能ブロック図である。 本実施形態に係る情報入力装置の筐体をユーザが把持する様子を示す図である。 筐体の姿勢を示す法線ベクトルと入力値との関係を示す説明図である。 図5の法線ベクトルをX軸負方向側から見た様子を示す図である。 図5の法線ベクトルをY軸負方向側から見た様子を示す図である。 開始操作が検出された時点の視点座標系と出力角度値との関係を示す説明図である。 本実施形態に係る情報入力装置が表示する表示画像の一例を示す図である。
 以下、本発明の実施の形態について、図面に基づき詳細に説明する。
 図1A及び図1Bは、本発明の一実施形態に係る情報入力装置1の外観を示す斜視図であって、図1Aは情報入力装置1を表面(正面)側から見た様子を、図1Bは裏面側から見た様子を、それぞれ示している。なお、以下では、本実施形態に係る情報入力装置1が携帯型ゲーム機である場合について、説明する。
 これらの図に示されるように、情報入力装置1の筐体10は、全体として略矩形の平板状の形状をしており、その表面にはタッチパネル12が設けられている。タッチパネル12は、略矩形の形状をしており、ディスプレイ12aと表面タッチセンサ12bとを含んで構成されている。ディスプレイ12aは、液晶表示パネルや有機EL表示パネル等、各種の画像表示デバイスであってよい。
 表面タッチセンサ12bは、ディスプレイ12aに重ねて配置されており、ディスプレイ12aの表示面に対応する形状及び大きさの略矩形の検出面を備えている。そして、この検出面上にユーザの指やスタイラス等の物体が接触した場合に、当該物体の接触位置を検出する。なお、表面タッチセンサ12bは、必ずしも物体が検出面に接触した場合だけ物体の位置を検出するのではなく、検出面上の検出可能範囲内まで物体が近接した場合に、当該物体の検出面に対する位置を検出してもよい。また、表面タッチセンサ12bは、例えば静電容量式や感圧式、光学式など、検出面上における物体の位置を検出可能なデバイスであれば、どのような方式のものであってもよい。なお、本実施形態では、表面タッチセンサ12bは、複数箇所での物体の接触を検知可能な多点検知型タッチセンサであることとする。
 さらに本実施形態では、筐体10の裏面側に、タッチパネル12と対向するように、裏面タッチセンサ14が配置されている。この裏面タッチセンサ14は、ディスプレイ12aの表示面に対応する形状及び大きさの略矩形の検出面を備えている。すなわち、ディスプレイ12aの表示面、表面タッチセンサ12bの検出面、及び裏面タッチセンサ14の検出面は、いずれも略同型、かつ略同サイズであって、筐体10の厚さ方向(Z軸方向)に沿って直線状に並んで配置されている。なお、裏面タッチセンサ14は、表面タッチセンサ12bと同様に各種の方式のものであってよい。また、本実施形態では、裏面タッチセンサ14は、表面タッチセンサ12bと同様に、複数箇所での物体の接触を検知可能な多点検知型タッチセンサであることとする。ユーザは、情報入力装置1の筐体10を両手で把持して、自分の指を表面タッチセンサ12bや裏面タッチセンサ14の検出面上に接触させることによって、情報入力装置1に対する操作入力を行うことができる。このとき、表面タッチセンサ12b及び裏面タッチセンサ14のいずれも多点検知型タッチセンサなので、ユーザは、自分の複数の指を同時にこれらのタッチセンサに接触させることにより、多様な操作入力を行うことができる。
 なお、図1A及び図1Bには示されていないが、情報入力装置1は、表面タッチセンサ12b及び裏面タッチセンサ14以外に、例えばボタンやスイッチなど、ユーザの操作入力を受け付けるための各種の操作部材を筐体10の表面や裏面、側面などに備えることとしてもよい。
 また、情報入力装置1の筐体10の内部には、筐体10の傾きを検出するためのセンサとして、ジャイロスコープ16が配置されている。ジャイロスコープ16は、圧電振動型ジャイロなどであって、筐体10に設定された複数のジャイロ基準軸を中心とした筐体10の回転を検知し、当該検知した回転に応じた電気信号を出力する。なお、本実施形態では、ジャイロ基準軸は、ディスプレイ12aの長辺方向(横方向)に沿ったX軸、及び短辺方向(縦方向)に沿ったY軸であることとし、ジャイロスコープ16は、これらのジャイロ基準軸それぞれを回転中心とした筐体10の回転に応じた信号を出力する。
 図2は、情報入力装置1の内部構成を示す構成ブロック図である。同図に示されるように、情報入力装置1は、その内部に、制御部20と、記憶部22と、画像処理部24と、を含んで構成されている。制御部20は、例えばCPU等を含んで構成され、記憶部22に格納されているプログラムに従って、各種の情報処理を実行する。制御部20が実行する処理の具体例については、後述する。記憶部22は、例えばRAMやROM等のメモリ素子や、ディスクデバイスなどであって、制御部20によって実行されるプログラムや各種のデータを格納する。また、記憶部22は、制御部20のワークメモリとしても機能する。
 画像処理部24は、例えばGPUとフレームバッファメモリとを含んで構成され、制御部20が出力する指示に従って、ディスプレイ12aに表示する画像を描画する。具体例として、画像処理部24はディスプレイ12aの表示領域に対応したフレームバッファメモリを備え、GPUは、制御部20からの指示に従って、所定時間おきにこのフレームバッファメモリに対して画像を書き込む。そして、このフレームバッファメモリに書き込まれた画像が、所定のタイミングでビデオ信号に変換されて、ディスプレイ12aに表示される。
 以下、本実施形態において情報入力装置1が実現する機能について、説明する。本実施形態では、情報入力装置1は、記憶部22に格納されたゲームアプリケーションプログラムを実行することで、仮想3次元空間内の様子を示す空間画像を生成し、ディスプレイ12aに表示する。さらにユーザは、このような空間画像が表示された状態において、筐体10を傾ける操作(以下、傾き操作という)を行うことによって、情報入力装置1への操作入力を行う。この操作入力に応じて、情報入力装置1は、仮想3次元空間内に設定された視点の向き(以下、視線方向VDという)を変化させる処理を実行する。すなわち、この視線方向VDを示すパラメータが、傾き操作による操作対象のパラメータとなる。そして、情報入力装置1は、傾き操作に応じて変化した視線方向VDに向かって仮想3次元空間内を見た様子を示す画像を生成し、ディスプレイ12aに表示する。これにより、ユーザは、筐体10を傾けて視線方向を変化させながら、仮想3次元空間内の様子を観覧することができる。このような処理を実現するために、本実施形態では、ジャイロスコープ16がユーザの傾き操作による操作入力を受け付ける操作入力装置として機能する。
 情報入力装置1は、機能的に、図3に示すように、開始操作受付部30と、入力値取得部32と、出力値算出部34と、表示画像制御部36と、を含んで構成される。これらの機能は、制御部20が記憶部22に格納されたプログラムを実行することにより実現される。このプログラムは、例えば光ディスクやメモリカード等のコンピュータ読み取り可能な各種の情報記憶媒体に格納されて提供されてもよいし、インターネット等の通信ネットワークを介して情報入力装置1に提供されてもよい。
 開始操作受付部30は、ユーザから所定の開始操作の入力を受け付ける。後述する入力値取得部32は、この開始操作が受け付けられた時点以降に、ユーザが行った傾き操作の内容を示す入力値を取得する。こうすれば、ユーザは、開始操作を実行してから筐体10を傾ける傾き操作を開始することで、ゲームのプレイ中に、視線方向VDを変化させる意図がないにも関わらず、筐体10の傾きを変化させて視線方向VDを変化させてしまうことを避けることができる。
 本実施形態では、この開始操作は、ユーザが両手で筐体10を挟むように把持して、表面タッチセンサ12b及び裏面タッチセンサ14のそれぞれに両手の指を少なくとも1本ずつ接触させる操作(以下、把持操作という)であることとする。具体的に、ユーザは、図4に示すように、左手の親指を表面タッチセンサ12bの向かって左側の所定領域内に接触させ、左手の人差し指などを裏面タッチセンサ14の裏面側から見て右側の所定領域内に接触させる。同様に、右手の親指を表面タッチセンサ12bの向かって右側の所定領域内に接触させ、右手の人差し指などを裏面タッチセンサ14の裏面側から見て左側の所定領域内に接触させる。開始操作受付部30は、表面タッチセンサ12b及び裏面タッチセンサ14の検出結果を受け付けて、ユーザがこのような把持操作を行ったか否かを判定する。具体的に、例えば開始操作受付部30は、表面タッチセンサ12bの左右両側、及び裏面タッチセンサ14の左右両側の計4箇所の所定領域のそれぞれにユーザの指が1本以上接触しているか否かにより、ユーザが把持操作を行ったか否かを判定する。あるいは、より簡易な処理として、表面タッチセンサ12bのいずれかの位置で2箇所以上、裏面タッチセンサ14でもいずれかの位置で2箇所以上ユーザの指が接触していることを検知した場合に、ユーザが把持操作を行ったと判定してもよい。ユーザは、傾き操作を行う際には、筐体10の左右両側を両手で把持するのが自然である。そこで、このような把持操作を開始操作とすることで、ユーザは、違和感なく開始操作を行ってから傾き操作を開始することができる。
 入力値取得部32は、ジャイロスコープ16の検出結果に基づいて、ユーザが実行した傾き操作の内容を示す入力値Iを取得する。本実施形態では、入力値取得部32は、ユーザが開始操作を行ったことを開始操作受付部30が検出した後、単位時間(例えば1/60秒)ごとに、ジャイロスコープ16の検出結果から、入力値Iを算出する。ここでは、入力値Iは、x成分値Ix及びy成分値Iyの二つの数値の組によって構成される二次元量であって、初期筐体方向EDiに対する筐体10の相対的な傾き(すなわち、初期筐体方向EDiからの筐体10の傾き方向及び傾き量)を表す値であるものとする。初期筐体方向EDiは、ユーザが開始操作を行った際における筐体10の姿勢を示す方向であって、開始操作受付部30が開始操作を検出した時点における裏面タッチセンサ14の法線方向である。なお、以下では、開始操作の検出時点におけるタッチパネル12及び裏面タッチセンサ14に平行な面を傾き操作の基準面RPとする。通常、ユーザはディスプレイ12aが自分の正面に位置するように筐体10を把持するので、初期筐体方向EDiは、開始操作が行われた時点におけるユーザの視線方向と略一致すると考えられる。
 具体的に、x成分値Ix及びy成分値Iyは、それぞれ、ユーザが傾き操作を行った際における裏面タッチセンサ14の法線方向(以下、筐体方向EDという)を向いた単位ベクトル(以下、法線ベクトルVという)を基準面RPに射影して得られる射影点のX座標及びY座標を示す値である。図5は、法線ベクトルVと入力値Iとの関係を示す説明図である。また、図6Aは図5の法線ベクトルVをX軸負方向側から見た様子を、図6Bは図5の法線ベクトルVをY軸負方向側から見た様子を、それぞれ示している。なお、これらの図においては、開始操作がなされた時点の筐体10の姿勢が示されており、傾き操作後の筐体10の向きについては図示が省略されている。これらの図から分かるように、x成分値Ix及びy成分値Iyは、法線ベクトルVの大きさを1として、それぞれ最大値1から最小値-1までの数値範囲のいずれかの値をとり、これらの成分値の組によって、ユーザがX軸及びY軸それぞれを回転中心として筐体10を初期筐体方向EDiに対してどの程度回転させたかが示される。すなわち、傾き操作によるX軸及びY軸それぞれを回転中心とした筐体10の回転角をθx及びθyとすると、入力値取得部32は、ジャイロスコープ16の検出結果から得られる回転角θx及びθyを用いて、入力値Iのx成分値Ix及びy成分値Iyを取得することができる。具体的には、
Ix=sinθy
Iy=sinθx
の関係が成り立つ。なお、ここでは、X軸を中心とした回転については、X軸負方向側から見て時計回りに回転する方向を正方向とし、Y軸を中心とした回転については、Y軸負方向側から見て反時計回りに回転する方向を正方向としている。また、ユーザは初期筐体方向EDiから左右前後いずれの向きにも90度を超えて筐体10を傾けることはないものとしている。
 また、以下では、開始操作受付部30が開始操作を検出した時刻をt=0とし、その後、開始操作受付部30が終了操作を検出するまでの間、単位時間が経過するごとに時刻を示す値tが1ずつ増加することとする。さらに、時刻tにおいて入力値取得部32が取得する入力値IをI(t)と表記し、入力値I(t)のx成分値及びy成分値をそれぞれIx(t)及びIy(t)と表記する。t=0の時点では法線ベクトルVの方向は初期筐体方向EDiと一致するので、Ix(0)=0,Iy(0)=0となる。また、以下では、時刻tにおける筐体方向EDをED(t)と表記する。
 出力値算出部34は、ユーザが把持操作を行っている間に入力値取得部32が取得した複数の入力値Iに応じて、操作対象となるパラメータの出力値Poを算出する。本実施形態では、操作対象となるパラメータは、前述したように、仮想3次元空間に設定された視線方向VDを示す視線方向パラメータである。具体的に、この視線方向パラメータの出力値Poは、初期視線方向VDiを基準とした視線方向VDの方位を示す二つの出力角度値Pox及びPoyによって構成されるものとする。ここで、初期視線方向VDiは、開始操作が検出された時点における視線方向である。また、これらの出力角度値Pox及びPoyは、二つの基準軸を回転中心とした視線方向VDの回転角を示し、その基準軸は、開始操作が検出された時点の視点座標系に基づいて定義される。視点座標系は互いに直交するVx軸、Vy軸、及びVz軸を用いた座標系であって、Vx軸はディスプレイ12aの画面横方向に、Vy軸は画面縦方向に、またVz軸は視線方向VDに、それぞれ対応している。具体的に、出力角度値Poxは、開始操作が検出された時点の視点座標系におけるVx軸を回転中心とした回転角を、出力角度値Poyは、Vy軸を回転中心とした回転角を、それぞれ示すこととする。図7は、このような視点座標系と出力角度値Pox及びPoyとの関係を示す説明図であって、仮想3次元空間内に設定される視点の位置VP、初期視線方向VDi、及び画像の投影面PPが示されている。この出力角度値Pox及びPoyが、出力値算出部34による算出の対象となる。視線方向VDは、出力角度値Pox及びPoyに応じて初期視線方向VDiを回転させて得られる方向となる。すなわち、出力角度値Pox及びPoyは、Vy軸方向及びVx軸方向という二つの基準軸方向への回転の大きさを示す値になっており、これらの角度値の組によって表される方向及び大きさで初期視線方向VDiを回転させることにより、視線方向VDが決定される。
 以下、出力値Poの算出方法の具体例について説明する。出力値算出部34は、基準値Prを変化量Pdだけ変化させた値を、出力値Poとして算出する。ここで、基準値Prは、入力値取得部32が取得した複数の入力値Iの一つに応じて決まる値であって、変化量Pdは、入力値取得部32が単位時間ごとに取得した複数の入力値Iのそれぞれに応じた量である。出力値Poと同様に、基準値Prも基準角度値Prx及びPryの二つの角度値によって構成される。また、変化量Pdも、角度値Poxの変化量を示す差分角度値Pdxと、角度値Poyの変化量を示す差分角度値Pdyの二つの角度値によって構成されてよい。
 本実施形態では、出力値算出部34は、単位時間が経過して、入力値取得部32が新たな入力値Iを取得するごとに、出力値Poを更新する。このとき、時刻t=nにおける基準値Pr(n)は、入力値取得部32が最後に取得した入力値I(n)に応じて決まる値であるものとする。また、変化量Pdについては、開始操作が検出された時刻t=0の時点より後に取得された全ての入力値I(t)(t=0,1,2,・・・,n)のそれぞれについて算出され、出力値Po(n)に反映される。その結果、時刻t=nにおける角度値Pox(n)及びPoy(n)は、例えば以下の計算式により算出される値となる。
Figure JPOXMLDOC01-appb-M000001
 ここで、基準角度値Prx(n)及びPry(n)の算出方法の具体例について、説明する。これらの基準角度値は、時刻t=nにおける入力値I(n)に応じて決まるので、時刻t=nの時点における筐体10の姿勢に応じて一意に決定される値となる。例えばPrx(n)及びPry(n)は、入力値I(t)のx成分値Ix(t)及びy成分値Iy(t)を用いて、以下の計算式により算出される値となる。
Prx(n)=sin-1(α・Iy(n))
Pry(n)=sin-1(α・Ix(n))
ここで、αは予め定められた係数である。
 αが1の場合、基準角度値Prx(n)及びPry(n)は、前述した計算式により、それぞれθx及びθyに一致する。すなわち、基準値Prは、初期筐体方向EDiに対する筐体方向ED(n)の傾き方向及び傾き量と一致する方向及び量で、初期視線方向VDiを回転させる回転角を表す。また、αが1より小さい場合、基準値Prは、初期筐体方向EDiに対する筐体方向ED(n)の傾き方向と一致する方向に、この傾き量より小さい角度だけ初期視線方向VDiを回転させる回転角を表すことになる。逆にαを1より大きい値とすれば、基準値Prは、初期筐体方向EDiに対する筐体方向ED(n)の傾き量よりも大きな角度だけ初期視線方向VDiを回転させる回転角を表すことになる。いずれにせよ、このように基準角度値Prx(n)及びPry(n)を算出することで、出力値Po(n)は、時刻t=nにおける筐体10の姿勢に対応する向きに初期視線方向VDiを回転させる成分を含むことになる。なお、係数αは負の値であってもよい。この場合、基準値Prが示す初期視線方向VDiからの回転方向は、筐体10の傾き方向とは逆方向になる。また、上記の例では、Iy(n)からPrx(n)を算出する計算式と、Ix(n)からPry(n)を算出する計算式とは、同じ関数であることとしたが、出力値算出部34は、互いに異なる計算方法でPrx(n)及びPry(n)を算出してもよい。具体的に、例えば出力値算出部34は、係数αの代わりに、互いに異なる係数α1及びα2を用いてPrx(n)及びPry(n)を算出してもよい。
 また、基準角度値Prxは、入力値Iyの絶対値が所定の閾値Ithを超える範囲において、入力値Iyの変化に対する基準角度値Prxの変化の割合が、閾値Ith以下の範囲における入力値Iyの変化に対する基準値Prxの変化の割合より小さくなるように決定されることとしてもよい。具体的に、例えば出力値算出部34は、以下の計算式により基準角度値Prxを算出する。
Figure JPOXMLDOC01-appb-M000002
こうすれば、入力値Iyの絶対値が閾値Ithを超えた範囲では、Iyに乗じる係数が1/2になり、その分、入力値Iyの単位変化当たりの基準角度値Prxの変化の割合が小さくなる。これにより、入力値Iyが、上限値(ここでは+1)及び下限値(ここでは-1)に近づいたときに、入力値Iyの変化が基準角度値Prxの変化に反映されにくくなる。なお、ここでは入力値Iyの絶対値が閾値Ith以下の範囲での係数と、閾値Ithを超える範囲での係数との比を1/2としたが、この比はそれ以外の値であってもよい。また、入力値Iyの絶対値が閾値Ith以下の場合と閾値Ithを超える場合とで異なる計算式を用いるのではなく、入力値Iyの絶対値が大きくなるにつれて、入力値Iyの変化に対する基準角度値Prxの変化の割合が小さくなるような一つの関数(例えば二階微分が負の値になる関数)を用いて基準角度値Prxを算出してもよい。また、入力値Ixを用いて基準角度値Poyを算出する場合についても、以上説明した基準角度値Pryの計算式と同様の計算式で算出することとしてよい。
 一方、入力値I(t)に応じて決まる差分角度値Pdx(t)及びPdy(t)も、基準角度値Prx(n)及びPry(n)と同様に、入力値I(t)に応じた向き及び量で視線方向VDを回転させる回転角を示す角度値であってよい。ただし、差分角度値Pdx(t)およびPdy(t)は、同じ入力値I(t)に応じて決まる基準角度値Prx(t)およびPry(t)と比較して、相対的に小さな値となることが望ましい。そのため、これらの差分角度値は、基準角度値とは異なる関数により算出される。例えば差分角度値Pdx(t)およびPdy(t)は、それぞれ、Ix(t)及びIy(t)を用いて、下記のような関数で表される。
Pdx(t)=sin-1(F(Iy(t)))
Pdy(t)=sin-1(F(Ix(t)))
ここで、F(x)は予め定められた関数である。関数F(x)は、例えば以下のように定義される。
Figure JPOXMLDOC01-appb-M000003
ここで、βは予め定められた係数である。なお、係数βも、係数αと同様、正の値であっても負の値であってもよい。さらに、F(x)は、その絶対値が所定の上限値を超えないように制限されてもよい。この場合、xの絶対値が所定の値を超える場合、F(x)の絶対値はこの上限値に一致する値になる。なお、基準角度値Prと同様に、Pdx(t)及びPdy(t)についても、互いに異なる計算式によって算出してもよい。具体的に、例えば出力値算出部34は、Pdx(t)を算出する場合と、Pdy(t)を算出する場合とで、上述した計算式における係数βを変化させてもよい。こうすれば、Y軸を回転中心として筐体10を回転させた場合と、X軸を回転中心として筐体10を回転させた場合とで、同じ回転量でも視線方向VDの変化量が異なるようにすることができる。
 なお、出力値算出部34は、前述したように、単位時間が経過するごとに新たに入力値取得部32が取得した入力値Iを反映して新たな出力値Poを算出する必要がある。しかしながら、出力値算出部34は、必ずしも出力値Poの計算を最初からやり直す必要はなく、前回算出された出力値Poに対して、基準値Prを新たに取得した入力値Iに応じて決まる値に更新するとともに、新たに取得した入力値Iに応じた変化量だけさらに変化させればよい。具体例として、時刻t=nにおける出力角度値Pox(n)及びPoy(n)は、時刻t=(n-1)における出力角度値Pox(n-1)及びPoy(n-1)を用いて、下記の計算式により算出される。
Figure JPOXMLDOC01-appb-M000004
このような計算式により出力値Poを算出する場合、出力値算出部34は、時刻t=(n-1)において出力角度値Pox(n-1)及びPoy(n-1)を算出した際に、当該算出した出力角度値Pox(n-1),Poy(n-1)と、その算出に用いた基準角度値Prx(n-1),Pry(n-1)と、を記憶部22内に一時的に格納しておく。そして、次回の演算の際には、記憶部22に格納されている前回の出力角度値及び基準角度値と、新たに取得された入力値I(n)から算出した基準角度値及び差分角度値と、を用いて、上述した計算式により出力角度値Pox(n)及びPoy(n)を算出する。
 あるいは、出力値算出部34は、以下に示す計算式により出力角度値Pox(n)及びPoy(n)を算出してもよい。
Figure JPOXMLDOC01-appb-M000005
この例では、出力値算出部34は、開始操作後に算出された差分角度値Pdxを合計した累積値を、記憶部22内に格納しておく。そして、新たに入力値I(t)が取得された際には、記憶部22に格納されている累積値を、入力値I(t)から算出した差分角度値Pdx(t)をさらに加算した値に更新する。そして、この更新された累積値に、入力値I(t)から算出した基準角度値Pdx(t)を加算することで、出力角度値Pox(t)を算出する。出力角度値Poy(t)についても、同様の処理により算出できる。
 なお、これまでの説明では、出力値算出部34は、開始操作が検出された後に取得された全ての入力値Iについて変化量Pdを算出し、これらの変化量Pdを出力値Poに反映させることとしたが、ユーザが開始操作を実行した後、かつ、所定の開始条件が満たされた後に取得された入力値Iについて算出した変化量Pdだけを出力値Poに反映させることとしてもよい。この場合の開始条件は、例えば開始操作の検出後予め定められた時間が経過することであってよい。あるいは、入力値Iの単位時間の変化量が所定の値未満となったことでもよい。このようにすることで、ユーザが開始操作を行った直後においては、基準値Prのみに基づいて出力値Poが決定され、開始操作後、しばらく時間が経過してから(あるいは、ユーザが筐体10の姿勢を一定の状態に保つようになってから)変化量Pdに応じた出力値Poの変化が開始するようにすることができる。
 表示画像制御部36は、出力値算出部34が出力する視線方向パラメータの出力値Poに応じて、ディスプレイ12aに表示されている画像を更新する。本実施形態では、表示画像制御部36は、時刻tにおいて出力値算出部34が出力する出力値Po(t)に応じて決まる回転方向及び回転量で初期視線方向VDiを回転させた方向を、時刻tにおける視線方向VD(t)とし、この視線方向VD(t)に沿って仮想3次元空間内の様子を見た空間画像をディスプレイ12aに表示させる。このような処理が単位時間ごとに繰り返されることにより、表示画像内に含まれる画像要素は、出力値Poの変化に応じて当該表示画像内を移動することになる。この画像要素は、仮想空間内に配置された各種のオブジェクトであってもよいし、メニュー画面内のアイコン等であってもよい。
 本実施形態では、表示画像制御部36は、ゲームキャラクタオブジェクトや背景オブジェクト等のオブジェクトを配置した仮想3次元空間を記憶部22内に構築する。そして、出力値算出部34が算出する出力値Poに応じて決定される視線方向VDから見た当該仮想3次元空間内の様子を示す画像の描画を画像処理部24に指示することとする。当該指示に応じて画像処理部24内のGPUが画像を生成し、フレームバッファに書き込むことで、ディスプレイ12aにゲーム画像が表示される。これにより、ユーザは、自身が行った傾き操作に応じて変化した視線方向VDから見た仮想3次元空間内の様子を観覧できる。
 なお、表示画像制御部36は、出力値算出部34が算出する出力値Poに応じて表示画像を更新する場合に、この出力値Poの算出に用いられた変化量の大きさを示す画像(以下、インジケータ画像40という)を表示画像に含めてもよい。図8は、このようなインジケータ画像40を含んだ表示画像の一例を示す図である。ここで、インジケータ画像40は、特に最後に入力値取得部32が取得した入力値Iに応じた変化量の大きさを示すこととする。すなわち、時刻tにおいて算出された出力値Po(t)に応じて表示画像を更新する際には、入力値I(t)に応じて算出された差分角度値Pdx(t)及びPdy(t)の大きさを示すインジケータ画像40を表示する。インジケータ画像40は、差分角度値Pdx(t)及びPdy(t)それぞれの絶対値の合計値に応じて変化する画像であってもよいし、Pdx(t)及びPdy(t)の二乗和に応じて変化する画像であってよい。あるいは、Pdx(t)及びPdy(t)それぞれの大きさを示す画像であってよい。また、Pdx(t)及びPdy(t)そのものの大きさではなく、例えば基準値Pr(t)や出力値Po(t)の大きさに対するPdx(t)及びPdy(t)の大きさを示す画像であってもよい。このようなインジケータ画像40を表示することにより、ユーザに、操作対象のパラメータの現在の変化状況を明示的に知らせることができる。
 また、本実施形態では、以上説明した入力値Iに応じた操作対象のパラメータの更新処理は、ユーザが所定の終了操作を行うまで繰り返し実行されることとする。ユーザが所定の終了操作を行うと、これに応じて出力値算出部34は操作対象のパラメータの出力値Poを算出する処理を終了し、表示画像制御部36は、当該終了操作の時点における出力値Poによって決まる視線方向VDを維持しながら、当該視線方向VDから見た仮想3次元空間の画像を表示する。
 具体的に、この終了操作は、ユーザが把持操作を行っている状態(すなわち、ユーザが表面タッチセンサ12b及び裏面タッチセンサ14それぞれに両手の指を接触させた状態)を解除する操作であることとする。この例では、ユーザは、傾き操作を実行している間、把持操作を行っている状態を保つこととする。すなわち、開始操作受付部30は、ユーザが把持操作を開始した後、その状態を維持しているか否かの判定を所定時間おきに繰り返す。そして、把持状態が終了したと判断される場合(すなわち、ユーザが表面タッチセンサ12b及び裏面タッチセンサ14それぞれの左右に設定された所定領域のいずれかに接触させていた指を離した場合)、開始操作受付部30は、この操作を傾き操作の終了を示す終了操作として受け付けて、その旨を入力値取得部32に対して出力する。これにより、入力値取得部32は、ユーザが把持操作を継続している間(すなわち、開始操作を行ってから終了操作を行うまでの間)、ユーザが行った操作入力の内容を示す入力値を取得する処理を継続し、ユーザが終了操作を実行した場合には、この入力値取得処理を終了することができる。
 以上説明したように、本実施形態に係る情報入力装置1においては、操作対象となるパラメータの出力値Poが、基準値Prと変化量Pdとに基づいて決定される。このうち、基準値Prは、ある瞬間の入力値Iを反映した成分であり、変化量Pdについては、ユーザが開始操作を行った後に取得された複数の入力値Iのそれぞれに応じた変化量Pdが累積されて出力値Poに反映される。ユーザが傾き操作を継続している間は、時間経過に従って出力値Poに占める変化量Pdの寄与は増大していくので、ある一時点における入力値Iだけを用いて出力値Poを算出する場合と異なり、出力値Poがとり得る値の範囲を大きくすることができる。逆に、傾き操作を開始した直後は、出力値Poに対する変化量Pdの寄与は基準値Prと比較して小さいので、基準値Prに略対応する出力値Poが出力される。例えばユーザは、開始操作を行った後、視線方向VDを変化させたい向きに筐体10を傾ける傾き操作を行い、その後、すぐに終了操作を行うことで、自分の意図した向きに近い向きに視線方向VDを変化させることができる。
 なお、本発明の実施の形態は以上説明したものに限られない。例えば以上の説明においては、操作対象のパラメータは視線方向VDを表すパラメータであることとしたが、操作対象のパラメータはこれ以外の各種のパラメータであってよい。例えば情報入力装置1は、仮想3次元空間に設定された視点VPの位置座標をユーザの傾き操作に応じて変化させてもよいし、仮想3次元空間や仮想平面内に配置されたキャラクタの位置や進行方向をユーザの傾き操作に応じて変化させてもよい。あるいは、仮想平面内においてディスプレイ12aに表示させる表示範囲を変化させてもよい。
 また、情報入力装置1は、ジャイロスコープに限らず、例えば地磁気センサなど、各種の検知手段によってユーザが行った傾き操作の向きや傾き量を検出することとしてもよい。また、ユーザが行う操作入力の方法は、筐体10を傾ける傾き操作に限られない。例えば情報入力装置1は、表面タッチセンサ12bや裏面タッチセンサ14に対するユーザの操作入力を受け付けることによって、入力値Iを取得してもよい。このような処理の具体例として、ユーザは、裏面タッチセンサ14の一点に自分の指のいずれかを接触させる。そして、その状態を保ったまま、別の指を裏面タッチセンサ14の他の一点に接触させる。このとき、情報入力装置1は、最初にユーザの指が接触した位置を基準位置として、この基準位置から、次にユーザの指が接触した位置までの方向及び距離を示す値を、入力値Iとして取得する。こうすれば、ユーザは、開始操作の後に筐体10を傾ける操作を行った場合と同様に、タッチセンサを用いて基準位置に対する方向及び量を示す操作入力を行うことができる。あるいは、ユーザは、単にいずれかの指を裏面タッチセンサ14の一点に接触させることで、操作対象のパラメータを変化させる操作入力を行うこととしてもよい。この場合には、情報入力装置1は、例えば裏面タッチセンサ14の検出面の中心位置を基準位置とすることで、ユーザの指が接触した位置の基準位置に対する方向及び量を示す値を、入力値Iとして取得できる。なお、表面タッチセンサ12bを用いても、以上説明したような裏面タッチセンサ14に対する操作入力と同様の操作入力を行うことができる。
 また、以上の説明では、入力値Iは、筐体10の向きを示す法線ベクトルVを基準面RPに射影して得られる射影点のX座標及びY座標を示す2つの成分値から構成されることとしたが、これに代えて、情報入力装置1は、筐体10のX軸及びY軸それぞれを回転中心とした回転角そのものを示すθx及びθyを入力値Iとして取得し、この回転角θx及びθyを用いて出力角度値Pox及びPoyの算出を行ってもよい。また、以上の説明では、入力値Iは基準位置に対する方向及び量を示す二次元の値であることとしたが、入力値Iは一次元の値であってもよい。例えば情報入力装置1は、表面タッチセンサ12bや裏面タッチセンサ14上においてユーザの指が接触した位置のX軸方向の座標値だけを入力値Iとして取得し、取得された複数の入力値Iを用いて算出される一次元の出力値Poを用いて、当該出力値Poに応じた量だけディスプレイ12aに表示される表示画像を画面横方向にスクロールさせるスクロール処理を実行してもよい。また、入力値Iは3つの成分値の組によって構成される三次元の値であってもよい。例えば以上の説明ではジャイロスコープ16によって検出されるX軸及びY軸それぞれを回転中心とした回転量を示す成分値を入力値としたが、これらの成分値に加えて、X軸及びY軸双方に直交するZ軸を回転中心とした回転量を示す成分値Izも、入力値に含めてよい。この場合、情報入力装置1は、ユーザが裏面タッチセンサ14の法線方向を回転中心として筐体10を回転させる操作に応じて、視線方向VDを回転中心としてディスプレイ12aに表示する画像を回転させることとし、出力値算出部34は、成分値Izに応じて表示画像の回転量を示す出力角度値Pozを算出する。
 また、以上の説明では、ジャイロスコープ16や表面タッチセンサ12b、裏面タッチセンサ14が操作入力装置として機能することとしたが、例えばアナログスティックなど、これ以外の各種の操作入力装置を用いてユーザの操作入力を受け付けてもよい。また、入力値Iを取得する対象となる操作入力の開始や終了を指示する開始操作、終了操作も、以上説明したものに限られず、例えばボタンの押下などであってもよい。さらに、これらの操作入力装置は、いずれも情報入力装置1の筐体10内に配置されることとしたが、操作入力装置は情報入力装置1と別体に構成されてもよい。具体例として、情報入力装置1は家庭用ゲーム機やパーソナルコンピュータ等であって、操作入力装置は、この情報入力装置1と有線又は無線で通信接続され、ジャイロスコープを内蔵するコントローラであってもよい。この場合、ユーザは、このコントローラの筐体を手で把持して傾ける操作を行い、情報入力装置1は、コントローラから送信されるジャイロスコープの検出結果に基づいて、出力値の算出を行う。

Claims (13)

  1.  ユーザの操作入力を受け付ける操作入力装置と接続されたコンピュータを、
     単位時間ごとに、前記操作入力装置が受け付けた操作入力の内容を示す入力値を取得する入力値取得手段、及び、
     前記入力値取得手段が取得した複数の入力値に応じて、操作対象となるパラメータの出力値を算出する出力値算出手段、
     として機能させるためのプログラムであって、
     前記出力値算出手段は、前記入力値取得手段が取得した一つの入力値に応じて決まる基準値を、前記入力値取得手段が単位時間ごとに取得した複数の入力値のそれぞれに応じた変化量だけ変化させた値を、前記出力値として算出する
     ことを特徴とするプログラムを記憶した、コンピュータ読み取り可能な情報記憶媒体。
  2.  請求項1に記載の情報記憶媒体において、
     前記基準値は、前記入力値取得手段が最後に取得した入力値に応じた値である
     ことを特徴とする情報記憶媒体。
  3.  請求項1に記載の情報記憶媒体において、
     前記出力値算出手段は、前記ユーザが所定の開始操作を実行した後に前記入力値取得手段が取得した複数の入力値のそれぞれに応じて決まる変化量だけ前記基準値を変化させた値を、前記出力値として出力する
     ことを特徴とする情報記憶媒体。
  4.  請求項1に記載の情報記憶媒体において、
     前記出力値算出手段は、前記ユーザが所定の開始操作を実行した後で、かつ、所定の開始条件が満たされた後に前記入力値取得手段が取得した複数の入力値のそれぞれに応じて決まる変化量だけ前記基準値を変化させた値を、前記出力値として出力する
     ことを特徴とする情報記憶媒体。
  5.  請求項1に記載の情報記憶媒体において、
     前記出力値算出手段は、前記入力値取得手段が取得した入力値が予め定められた値を上回る場合、前記変化量として予め定められた上限値を用いて前記出力値を算出する
     ことを特徴とする情報記憶媒体。
  6.  請求項1に記載の情報記憶媒体において、
     前記操作入力装置は、ユーザが手で把持する筐体の傾きを検知するセンサであって、
     前記入力値取得手段は、前記筐体を傾ける操作入力をユーザが行った場合に、当該操作による前記筐体の傾き方向及び傾き量を示す値を、前記入力値として取得し、
     前記出力値は、方向及び大きさを示す値であって、
     前記基準値は、前記一つの入力値が示す傾き方向及び傾き量に応じて決まる方向及び大きさを示す値であり、
     前記変化量は、対応する前記入力値が示す傾き方向に応じて決まる方向への前記傾き量に応じた大きさの変化量である
     ことを特徴とする情報記憶媒体。
  7.  請求項6に記載の情報記憶媒体において、
     前記入力値は、二つの基準軸それぞれを回転中心とした回転量を表す第1の入力成分値及び第2の入力成分値によって構成され、
     前記出力値は、二つの基準方向のそれぞれに沿った大きさを示す第1の出力成分値及び第2の出力成分値によって構成され、
     前記出力値算出手段は、前記第1の出力成分値に対する変化量を前記第1の入力成分値に応じて決定し、前記第2の出力成分値に対する変化量を前記第2の入力成分値に応じて決定し、かつ、それぞれの出力成分値に対する変化量を互いに異なる計算方法で決定する
     ことを特徴とする情報記憶媒体。
  8.  請求項1に記載の情報記憶媒体において、
     前記基準値は、前記入力値の絶対値が所定値を超える範囲において、前記入力値の変化に対する前記基準値の変化の割合が、前記所定値以下の範囲における前記入力値の変化に対する前記基準値の変化の割合より小さくなるように決定される
     ことを特徴とする情報記憶媒体。
  9.  請求項1に記載の情報記憶媒体において、
     前記プログラムは、前記出力値算出手段が前記出力値を算出する際に、前記入力値取得手段が最後に取得した入力値に応じた前記変化量の大きさを示す画像を表示画面に表示させる手段、として前記コンピュータをさらに機能させる
     ことを特徴とする情報記憶媒体。
  10.  ユーザの操作入力を受け付ける操作入力装置と接続された情報入力装置であって、
     単位時間ごとに、前記操作入力装置が受け付けた操作入力の内容を示す入力値を取得する入力値取得手段と、
     前記入力値取得手段が取得した複数の入力値に応じて、操作対象となるパラメータの出力値を算出する出力値算出手段と、
     を含み、
     前記出力値算出手段は、前記入力値取得手段が取得した一つの入力値に応じて決まる基準値を、前記入力値取得手段が単位時間ごとに取得した複数の入力値のそれぞれに応じた変化量だけ変化させた値を、前記出力値として算出する
     ことを特徴とする情報入力装置。
  11.  請求項10に記載の情報入力装置において、
     前記情報入力装置は、
     その筐体の表面及び裏面のそれぞれに配置されたタッチセンサと、
     前記ユーザが前記筐体の表面に配置されたタッチセンサに両手それぞれの指を少なくとも1本ずつ接触させるとともに、前記筐体の裏面に配置されたタッチセンサにも両手それぞれの指を少なくとも1本ずつ接触させる操作を行った場合に、当該操作を開始操作として受け付ける開始操作受付手段と、
     をさらに備え、
     前記操作入力装置は、前記筐体の傾きを検知するセンサであって、
     前記出力値算出手段は、前記開始操作が受け付けられた後に前記入力値取得手段が取得した複数の入力値のそれぞれに応じて決まる変化量だけ前記基準値を変化させた値を、前記出力値として出力する
     ことを特徴とする情報入力装置。
  12.  請求項11に記載の情報入力装置において、
     前記開始操作受付手段は、前記ユーザが前記筐体の表面に配置されたタッチセンサに両手それぞれの指を少なくとも1本ずつ接触させるとともに、前記筐体の裏面に配置されたタッチセンサにも両手それぞれの指を少なくとも1本ずつ接触させた状態を解除する操作を行った場合に、当該操作を終了操作として受け付け、
     前記出力値算出手段は、前記終了操作が受け付けられた場合、前記出力値の算出を終了する
     ことを特徴とする情報入力装置。
  13.  単位時間ごとに、ユーザの操作入力を受け付ける操作入力装置が受け付けた操作入力の内容を示す入力値を取得する入力値取得ステップと、
     前記入力値取得ステップで取得された複数の入力値に応じて、操作対象となるパラメータの出力値を算出する出力値算出ステップと、
     を含み、
     前記出力値算出ステップでは、前記入力値取得ステップで取得された一つの入力値に応じて決まる基準値を、前記入力値取得ステップで単位時間ごとに取得された複数の入力値のそれぞれに応じた変化量だけ変化させた値を、前記出力値として算出する
     ことを特徴とする情報入力装置の制御方法。
PCT/JP2010/073580 2010-04-30 2010-12-27 情報記憶媒体、情報入力装置、及びその制御方法 WO2011135757A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP10850767.4A EP2565753B1 (en) 2010-04-30 2010-12-27 Information storage medium, information input device, and control method of same
US13/643,686 US9289679B2 (en) 2010-04-30 2010-12-27 Information storage medium, information input device, and control method of same
CN201080066540.XA CN102870069B (zh) 2010-04-30 2010-12-27 信息存储介质、信息输入装置及其控制方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010105856A JP5508122B2 (ja) 2010-04-30 2010-04-30 プログラム、情報入力装置、及びその制御方法
JP2010-105856 2010-04-30

Publications (1)

Publication Number Publication Date
WO2011135757A1 true WO2011135757A1 (ja) 2011-11-03

Family

ID=44861086

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/073580 WO2011135757A1 (ja) 2010-04-30 2010-12-27 情報記憶媒体、情報入力装置、及びその制御方法

Country Status (5)

Country Link
US (1) US9289679B2 (ja)
EP (1) EP2565753B1 (ja)
JP (1) JP5508122B2 (ja)
CN (1) CN102870069B (ja)
WO (1) WO2011135757A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013078150A1 (en) * 2011-11-23 2013-05-30 Sony Computer Entertainment America Llc Gaming controller
US9116555B2 (en) 2011-11-23 2015-08-25 Sony Computer Entertainment America Llc Gaming controller
US10486064B2 (en) 2011-11-23 2019-11-26 Sony Interactive Entertainment America Llc Sharing buffered gameplay in response to an input request
WO2021020143A1 (ja) * 2019-07-30 2021-02-04 ソニー株式会社 画像処理装置、画像処理方法、及び記録媒体
US10960300B2 (en) 2011-11-23 2021-03-30 Sony Interactive Entertainment LLC Sharing user-initiated recorded gameplay with buffered gameplay

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2497543A3 (en) 2011-03-08 2012-10-03 Nintendo Co., Ltd. Information processing program, information processing system, and information processing method
EP2497546A3 (en) * 2011-03-08 2012-10-03 Nintendo Co., Ltd. Information processing program, information processing system, and information processing method
US9539511B2 (en) 2011-03-08 2017-01-10 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method for operating objects in a virtual world based on orientation data related to an orientation of a device
EP2497544A3 (en) 2011-03-08 2012-10-03 Nintendo Co., Ltd. Information processing program, information processing system, and information processing method
JP5792971B2 (ja) 2011-03-08 2015-10-14 任天堂株式会社 情報処理システム、情報処理プログラム、および情報処理方法
EP2497547B1 (en) 2011-03-08 2018-06-27 Nintendo Co., Ltd. Information processing program, information processing apparatus, information processing system, and information processing method
CN103019554A (zh) * 2011-09-20 2013-04-03 联想(北京)有限公司 命令识别方法及使用该方法的电子设备
WO2013118522A1 (ja) * 2012-02-08 2013-08-15 Necカシオモバイルコミュニケーションズ株式会社 携帯端末及びその動作方法
EP2842021A4 (en) * 2012-04-28 2015-12-16 Thomson Licensing METHOD AND DEVICE FOR PROVIDING A 3D ENTRY
JP5377709B2 (ja) * 2012-05-23 2013-12-25 株式会社スクウェア・エニックス 情報処理装置,情報処理方法,及びゲーム装置
WO2014192878A1 (ja) * 2013-05-29 2014-12-04 京セラ株式会社 携帯機器および携帯機器における制御方法
US9392212B1 (en) * 2014-04-17 2016-07-12 Visionary Vr, Inc. System and method for presenting virtual reality content to a user
US10228766B2 (en) * 2014-09-12 2019-03-12 Microsoft Technology Licensing, Llc Enhanced Display Rotation
CN104597646B (zh) 2014-12-22 2018-09-07 上海天马微电子有限公司 一种显示面板和显示装置
US9665170B1 (en) 2015-06-10 2017-05-30 Visionary Vr, Inc. System and method for presenting virtual reality content to a user based on body posture
WO2017136830A1 (en) * 2016-02-05 2017-08-10 Prizm Labs, Inc. Physical/virtual game system and methods for manipulating virtual objects within a virtual game environment
JP2018163132A (ja) * 2017-03-24 2018-10-18 望月 玲於奈 姿勢算出プログラム、姿勢情報を用いたプログラム
JP6418299B1 (ja) * 2017-09-15 2018-11-07 株式会社セガゲームス 情報処理装置及びプログラム
US11517812B2 (en) 2021-02-19 2022-12-06 Blok Party, Inc. Application of RFID gamepieces for a gaming console

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6240517A (ja) * 1985-08-16 1987-02-21 Toshiba Corp 表示制御装置
JPH1195910A (ja) * 1997-09-17 1999-04-09 Citizen Watch Co Ltd ポインティングデバイス
JP2007041909A (ja) * 2005-08-04 2007-02-15 Sharp Corp 操作装置および操作システム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10253361A (ja) * 1997-03-06 1998-09-25 Murata Mfg Co Ltd 信号処理方法及び三次元データ入力装置
JP3852368B2 (ja) * 2002-05-16 2006-11-29 ソニー株式会社 入力方法及びデータ処理装置
JP2003325972A (ja) * 2002-05-17 2003-11-18 Nintendo Co Ltd 傾き操作に関連して音と画像を変化させるゲーム装置およびそのゲームプログラム
US7431216B2 (en) 2005-11-16 2008-10-07 Sony Ericsson Mobile Communications Ab Methods for presenting parameter status information and related portable electronic devices and parameters
JP5204381B2 (ja) * 2006-05-01 2013-06-05 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム及びゲーム処理方法
JP4151982B2 (ja) * 2006-03-10 2008-09-17 任天堂株式会社 動き判別装置および動き判別プログラム
JP5330640B2 (ja) * 2006-05-09 2013-10-30 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
JP2007310840A (ja) 2006-05-22 2007-11-29 Sony Computer Entertainment Inc 情報処理装置、情報処理装置の制御方法及びプログラム
US20090213081A1 (en) * 2007-01-10 2009-08-27 Case Jr Charlie W Portable Electronic Device Touchpad Input Controller
KR101406289B1 (ko) * 2007-03-08 2014-06-12 삼성전자주식회사 스크롤 기반 아이템 제공 장치 및 방법
JP5035972B2 (ja) * 2007-06-13 2012-09-26 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法
JP5184018B2 (ja) 2007-09-14 2013-04-17 京セラ株式会社 電子機器
TWI391845B (zh) * 2007-09-14 2013-04-01 Sony Corp An input device, a control device, a control system, a control method, and a handheld device
JP5429918B2 (ja) 2008-02-15 2014-02-26 任天堂株式会社 情報処理プログラムおよび情報処理装置
JP2010015535A (ja) 2008-06-02 2010-01-21 Sony Corp 入力装置、制御システム、ハンドヘルド装置及び校正方法
WO2010060211A1 (en) * 2008-11-28 2010-06-03 Nortel Networks Limited Method and apparatus for controling a camera view into a three dimensional computer-generated virtual environment
KR101544364B1 (ko) * 2009-01-23 2015-08-17 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
US8226484B2 (en) * 2009-08-27 2012-07-24 Nintendo Of America Inc. Simulated handlebar twist-grip control of a simulated vehicle using a hand-held inertial sensing remote controller
US8416205B2 (en) * 2009-09-25 2013-04-09 Apple Inc. Device, method, and graphical user interface for manipulation of user interface objects with activation regions
US8535133B2 (en) * 2009-11-16 2013-09-17 Broadcom Corporation Video game with controller sensing player inappropriate activity

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6240517A (ja) * 1985-08-16 1987-02-21 Toshiba Corp 表示制御装置
JPH1195910A (ja) * 1997-09-17 1999-04-09 Citizen Watch Co Ltd ポインティングデバイス
JP2007041909A (ja) * 2005-08-04 2007-02-15 Sharp Corp 操作装置および操作システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2565753A4 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013078150A1 (en) * 2011-11-23 2013-05-30 Sony Computer Entertainment America Llc Gaming controller
US8870654B2 (en) 2011-11-23 2014-10-28 Sony Computer Entertainment America Llc Gaming controller
US9116555B2 (en) 2011-11-23 2015-08-25 Sony Computer Entertainment America Llc Gaming controller
US9381435B2 (en) 2011-11-23 2016-07-05 Sony Interactive Entertainment America Llc Gaming controller
US9776080B2 (en) 2011-11-23 2017-10-03 Sony Interactive Entertainment America Llc Gaming controller
US10201748B2 (en) 2011-11-23 2019-02-12 Sony Interactive Entertainment America Llc Gaming controller
US10486064B2 (en) 2011-11-23 2019-11-26 Sony Interactive Entertainment America Llc Sharing buffered gameplay in response to an input request
US10610778B2 (en) 2011-11-23 2020-04-07 Sony Interactive Entertainment America Llc Gaming controller
US10960300B2 (en) 2011-11-23 2021-03-30 Sony Interactive Entertainment LLC Sharing user-initiated recorded gameplay with buffered gameplay
US11065533B2 (en) 2011-11-23 2021-07-20 Sony Interactive Entertainment LLC Sharing buffered gameplay in response to an input request
WO2021020143A1 (ja) * 2019-07-30 2021-02-04 ソニー株式会社 画像処理装置、画像処理方法、及び記録媒体

Also Published As

Publication number Publication date
EP2565753A4 (en) 2014-01-22
EP2565753B1 (en) 2019-07-31
CN102870069A (zh) 2013-01-09
EP2565753A1 (en) 2013-03-06
US20130038532A1 (en) 2013-02-14
JP2011237838A (ja) 2011-11-24
CN102870069B (zh) 2016-03-16
US9289679B2 (en) 2016-03-22
JP5508122B2 (ja) 2014-05-28

Similar Documents

Publication Publication Date Title
JP5508122B2 (ja) プログラム、情報入力装置、及びその制御方法
US11173392B2 (en) Spatially-correlated human-machine interface
JP5535585B2 (ja) プログラム、情報記憶媒体、情報入力装置、及びその制御方法
US20220080303A1 (en) Spatially-correlated human-machine interface
EP2354893B1 (en) Reducing inertial-based motion estimation drift of a game input controller with an image-based motion estimation
JP5959047B2 (ja) 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置
US20120086725A1 (en) System and Method for Compensating for Drift in a Display of a User Interface State
TW200825867A (en) Inertial input apparatus with six-axial detection ability and the opearting method thereof
US9751013B2 (en) Storage medium, information processing system, and information processing method for adjusting images based on movement information
JP5875069B2 (ja) ゲームシステム、ゲーム処理方法、ゲーム装置、およびゲームプログラム
JP5878438B2 (ja) 表示制御装置、表示制御システム、及びプログラム
KR20200005243A (ko) Imu 센서를 이용한 손가락 동작 기반 인터페이스 제어 시스템
JP7248720B2 (ja) ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
JP2010142404A (ja) ゲームプログラムおよびゲーム装置
US11178384B2 (en) Information processing system, storage medium, information processing apparatus and information processing method
JP5945297B2 (ja) ゲームプログラムおよびゲーム装置
JP2014146354A (ja) プログラム、情報入力装置、及びその制御方法
US11285387B2 (en) Storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method
JP6262563B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
CN117234333A (zh) Vr物体选择方法、装置、电子设备及可读存储介质

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080066540.X

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10850767

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13643686

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2010850767

Country of ref document: EP