WO2015146813A1 - オブジェクトの操作方法、オブジェクトの操作プログラム、及び情報処理装置 - Google Patents

オブジェクトの操作方法、オブジェクトの操作プログラム、及び情報処理装置 Download PDF

Info

Publication number
WO2015146813A1
WO2015146813A1 PCT/JP2015/058391 JP2015058391W WO2015146813A1 WO 2015146813 A1 WO2015146813 A1 WO 2015146813A1 JP 2015058391 W JP2015058391 W JP 2015058391W WO 2015146813 A1 WO2015146813 A1 WO 2015146813A1
Authority
WO
WIPO (PCT)
Prior art keywords
polyhedron
vertex
image
displayed
motion vector
Prior art date
Application number
PCT/JP2015/058391
Other languages
English (en)
French (fr)
Inventor
岡 正昭
Original Assignee
株式会社ソニー・コンピュータエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2014068752A external-priority patent/JP6030594B2/ja
Priority claimed from JP2014068753A external-priority patent/JP2015191480A/ja
Application filed by 株式会社ソニー・コンピュータエンタテインメント filed Critical 株式会社ソニー・コンピュータエンタテインメント
Priority to US15/119,814 priority Critical patent/US10080963B2/en
Publication of WO2015146813A1 publication Critical patent/WO2015146813A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • A63F2300/695Imported photos, e.g. of the player

Definitions

  • the present invention relates to an object operation method, an object operation program, and an information processing apparatus.
  • Skeleton animation is expressed by attaching a surface called skin to the bone of the skeleton model, each part of which is composed of bone. Further, by using a technique called skinning for expressing the movement of the skin surface, a more realistic expression can be realized. Skinning is a method of deforming a skin by following the movement of bones constituting the skeleton.
  • Patent Document 2 displays a GUI member on the image of the finger part, and the image of the finger part that operates the displayed GUI member is treated as a still image to the last. Therefore, when the synthesized image is a moving image or the like, there is a problem that it is difficult to smoothly operate the GUI member according to the movement of the finger part on the moving image.
  • An object of the present invention is to reduce the processing load, to stably display an object even if it is converted into a physical model, and to display an object synthesized and displayed on a moving image as a moving image. It is an object of the present invention to provide an object operation method, an object operation program, and an information processing apparatus that can be operated smoothly in accordance with the above.
  • An object operating method includes: An object operation method for deforming an object displayed on a display device, A control device for controlling the display device, Setting a polyhedron centered on an arbitrary point in the object; Dividing a space in the polyhedron by a vector from a center of the polyhedron to a vertex of the polyhedron; Determining which of the divided spaces the vertex of the object is included in; Storing a decomposition coefficient of the vertex of the object by three vectors constituting a space including the vertex of the object; A step of deforming and displaying the object in accordance with a deformation operation applied to the polyhedron.
  • a polyhedron having an arbitrary point in the object as a center is set, a space in the polyhedron is divided by a vector from the center of the polyhedron to the vertex, and the vertex of the object is determined. , Determine which of the divided spaces is included, save the object's vertex decomposition coefficient by three vectors that make up the space containing the object's vertices, and respond to deformation operations that act on the polyhedron
  • the object is deformed and displayed. Therefore, it is not necessary to perform weighted addition in the orthogonal coordinate system of a plurality of bones as compared with skinning by bones, and the processing load on the control device can be reduced. Further, according to such a deformation operation, it is not necessary to consider a joint between coordinate systems, so that the object can be stably deformed and displayed.
  • the object operating method according to the second aspect of the present invention is the object operating method according to the first aspect, Divide the object into multiple parts in advance, A polyhedron is set for each part. According to the second aspect, since a polyhedron can be set for each part and a deformation operation can be performed on each polyhedron, even if the object has a complicated shape, the object can be deformed and displayed according to the deformation operation. In addition, the processing load can be reduced.
  • An object operating method includes: An object operation method for displaying a moving image captured by an imaging device on a display device and operating an object synthesized and displayed on the displayed moving image,
  • the control device for controlling the imaging device and the display device is: Generating an optical flow based on at least two frame images constituting a moving image captured by the imaging device; Detecting a motion vector at the display position of the object from the generated optical flow; Performing the operation of the object based on the detected motion vector.
  • the optical flow is generated from at least two frame images constituting the moving image.
  • the optical flow can be generated by a known block matching method, a gradient method, or the like.
  • an optical flow is generated based on at least two frame images constituting a moving image captured by the imaging device, and the object at the display position of the object is generated from the generated optical flow. Since the motion vector is detected, when the object is moved, the object can be smoothly moved according to the detected motion vector.
  • An object operation program includes: An object operation program for causing a control device that controls the display device to execute an object operation method for deforming an object displayed on the display device, In the control device, Setting a polyhedron centered on an arbitrary point in the object; Dividing a space in the polyhedron by a vector from a center of the polyhedron to a vertex of the polyhedron; Determining which of the divided spaces the vertex of the object is included in; Storing a decomposition coefficient of the vertex of the object by three vectors constituting a space including the vertex of the object; A step of deforming and displaying the object according to a deformation operation applied to the polyhedron. Also according to the fourth aspect, the same operation and effect as the first aspect described above can be enjoyed.
  • An object operation program is: An object operation method for displaying a moving image captured by an imaging device on a display device and operating an object synthesized and displayed on the displayed moving image is provided in the control device for controlling the imaging device and the display device.
  • An object operation program to be executed In the control device, Generating an optical flow based on at least two frame images constituting a moving image captured by the imaging device; Detecting a motion vector at the display position of the object from the generated optical flow; And a step of operating the object based on the detected motion vector.
  • the same operations and effects as those of the third aspect of the present invention described above can be enjoyed.
  • An information processing apparatus that deforms an object displayed on a display device, Polyhedron setting means for setting a polyhedron centered on an arbitrary point in the object; Space dividing means for dividing the space in the polyhedron by a vector from the center of the polyhedron toward the vertex of the polyhedron; Space discriminating means for discriminating in which space the vertex of the object is included among the divided spaces; Decomposition coefficient storage means for storing a decomposition coefficient of the vertex of the object by three vectors constituting a space including the vertex of the object; And a deformation display unit configured to deform and display the object according to a deformation operation applied to the polyhedron. Also according to the sixth aspect, it is possible to enjoy the same operations and effects as the first aspect described above.
  • An information processing apparatus that displays a moving image captured by an imaging device on a display device, and operates an object that is combined and displayed on the displayed moving image,
  • An optical flow generating means for generating an optical flow based on at least two frame images constituting a moving image captured by the imaging device;
  • Motion vector detection means for detecting a motion vector at the display position of the object from the optical flow generated by the optical flow generation means;
  • an object operating means for operating the object based on the motion vector detected by the motion vector detecting means.
  • An information processing device is the information processing device according to the seventh aspect, An operation area selecting means for selecting an area for operating the object is provided.
  • the operation area is selected by the operation area selection unit, it is possible to prevent the operation of the object from being obstructed by a motion vector other than the operation area.
  • An information processing device is the information processing device according to the eighth aspect, Masking means for masking the operation area selected by the operation area selection means is provided. According to the information processing apparatus according to the ninth aspect, since the masking unit is provided, masking processing can be performed on the operation area, so that the object can be operated in a state that is easy for the observer of the moving image to see.
  • the top view which shows an example of the portable terminal which concerns on 1st Embodiment of this invention.
  • the block diagram which shows the structure of the portable terminal in the said embodiment.
  • the block diagram which shows the structure of the control part in the said embodiment.
  • the block diagram which shows the structure of the control part in the said embodiment.
  • the schematic diagram of the screen which displayed the moving image on the display part of the portable terminal in the said embodiment, and displayed the object image.
  • the schematic diagram of the screen which displayed the optical flow in the said embodiment The schematic diagram for demonstrating the detection of a motion vector from the optical flow in the said embodiment.
  • the schematic diagram for demonstrating the detection of a motion vector from the optical flow in the said embodiment The schematic diagram for demonstrating the detection of a motion vector from the optical flow in the said embodiment.
  • transformation and movement of the object image which concern on 2nd Embodiment of this invention The schematic diagram for demonstrating a deformation
  • FIG. 1 is a plan view showing an example of the mobile terminal 3 according to the embodiment of the present invention.
  • the portable terminal 3 synthesizes and displays an object on the moving image captured by the imaging unit 35.
  • Such a portable terminal 3 can be comprised by a smart phone (multifunctional mobile phone), a tablet terminal, a portable game machine, etc.
  • the mobile terminal 3 includes a housing 31, a display unit 32, an operation unit 33, an audio output unit 34, an imaging unit 35, a storage unit 36, and a control unit 37 (see FIG. 2). And a terminal device capable of executing a game program.
  • the casing 31 constitutes the exterior of the mobile terminal 3 and is formed in a substantially oval shape that is large enough to be held by the left and right hands.
  • the housing 31 includes a front surface portion 31A, a back surface portion 31B (not shown in FIG. 1), an upper surface portion 31C, a bottom surface portion 31D, and left and right side surface portions 31E and 31F.
  • the display unit 32 corresponds to the display device of the present invention, and is disposed at the approximate center of the front unit 31A.
  • the display unit 32 includes a display panel formed in a rectangular shape, and an image formed by the display control unit 371 under the control of a display control unit 371 (see FIG. 3A) of the control unit 37 described later. Is displayed. Examples of such a display panel include organic EL (Electro-Luminescence) and liquid crystal display panels.
  • the operation unit 33 includes various buttons and sticks arranged around the display unit 32 in the front surface 31A and the upper surface 31C of the housing 31, and controls operation signals in accordance with user input operations.
  • the operation unit 33 is located on the left side with respect to the display unit 32, and can be input in each direction of up, down, left, and right when viewed facing the front unit 31A, and in each direction
  • An operation stick 332 that can be tilted and an operation button 333 located on the bottom surface portion 31D side are provided.
  • the operation unit 33 includes four operation buttons 334 positioned on the right side of the display unit 32, an operation stick 335 having the same configuration as the operation stick 332, and operation buttons 336 and 337 positioned on the bottom surface portion 31D side. And having.
  • the operation unit 33 includes operation buttons 338L and 338R which are respectively located on the left and right sides of the upper surface portion 31C.
  • the audio output unit 34 includes speakers 34L and 34R disposed near the left and right ends of the front portion 31A.
  • the audio output unit 34 outputs audio corresponding to an audio signal input from an audio output control unit 373 (see FIG. 3A) of the control unit 37, which will be described later, through the speakers 34L and 34R.
  • the imaging unit 35 corresponds to the imaging device of the present invention, and includes a camera 351 as a first imaging unit disposed on the upper right side of the front unit 31A.
  • the imaging unit 35 outputs an image captured by the camera 351 to the control unit 37.
  • FIG. 2 is a block diagram illustrating a configuration of the mobile terminal 3.
  • the display unit 32, the operation unit 33, the audio output unit 34, the imaging unit 35, the storage unit 36, and the control unit 37 are connected to each other by a bus line BL.
  • the storage unit 36 stores programs and data necessary for the operation of the mobile terminal 3.
  • the storage unit 36 stores an OS (Operating System) that controls the operation of the mobile terminal 3, an application program such as a game, and an image display program.
  • an application program such as a game
  • an image display program Such a storage unit 36 can be configured by a non-volatile memory such as a flash memory or an HDD (Hard Disk Drive).
  • the control unit 37 includes a CPU (Central Processing Unit) and the like, and controls the operation of the mobile terminal 3. Specifically, the control unit 37 reads out and processes the program stored in the storage unit 36 according to the user's input operation (operation signal input from the operation unit 33), or This is a control device that autonomously controls the mobile terminal 3. In addition, the control part 37 displays the moving image imaged by the imaging part 35 on the display part 32, when CPU runs the said image display program. Therefore, as shown in FIG.
  • CPU Central Processing Unit
  • control unit 37 includes a display control unit 371, an imaging control unit 372, an audio output control unit 373, an optical flow generation unit 374, a motion vector detection unit 375, an object operation unit 376, an operation region.
  • a selection unit 377 and a masking unit 378 are provided.
  • the display control unit 371 draws an image indicating the operation state of the mobile terminal 3 or an image captured by the imaging unit 35 in a drawing memory (not shown), and outputs an image signal corresponding to the image to the display unit 32. As a result, the image is displayed on the display unit 32. Specifically, as shown in FIG. 4, a moving image captured by the imaging unit 35 is displayed on the display unit 32, and an object image OB is synthesized and displayed on the moving image.
  • the imaging control unit 372 controls the operation of the imaging unit 35. Specifically, the imaging control unit 372 causes the imaging unit 35 to capture images at a predetermined cycle (frame rate). Then, the imaging control unit 372 acquires a moving image that is a captured image input from the imaging unit 35 and stores the moving image in the storage unit 36.
  • the audio output control unit 373 controls the audio output unit 34 to output a predetermined audio.
  • the optical flow generation unit 374 generates an optical flow from at least two or more frame images G1 and G2 constituting a moving image. Now, assuming that the frame image G1 shown in FIG. 4 has transitioned to the frame image G2 shown in FIG. 5, the face image CH1 in the moving image slides in the right direction, and the finger portion image CH2 rotates. Assuming that The optical flow generator 374 generates an optical flow G3 as shown in FIG. 6 from the movement of the luminance points of the two frame images G1 and G2.
  • the optical flow G3 can be obtained by using a known method such as a gradient method or a block matching method.
  • the gradient method is a method of deriving a relational expression between spatiotemporal differentiation and optical flow from the assumption that the brightness of a point on an object does not change after movement, and using this to estimate the motion of the object.
  • the block matching method an image is divided into small areas of a certain size, and a motion vector of each block is obtained. This is a method of searching where each block corresponds to the previous frame, and using a difference in position from the corresponding block as a motion vector.
  • the optical flow G3 calculates the moving direction and moving speed of the images CH1 and CH2 from the two frame images G1 and G2 using the frame rate and the like, and generates a motion vector.
  • the motion vector detection unit 375 detects a motion vector at a position where the object image OB is displayed in the optical flow G3 generated by the optical flow generation unit 374. In the change from FIG. 4 to FIG. 5, the image CH2 of the finger part is displayed around the object image OB, and the finger part is rotated leftward, and this is detected as the motion vector V1.
  • the object operation unit 376 is a part that moves and deforms the object image OB based on the motion vector V1 around the object image OB detected by the motion vector detection unit 375.
  • the object moving operation unit 376A calculates the moving direction and moving amount of the object image OB according to the detected direction and size of the motion vector V1, and displays the object image OB at an appropriate position on the display unit 32.
  • the motion vector detection unit 375 causes the optical flow near the vertex of the polyhedron POL set in the object image OB.
  • the motion vector V1 of the polyhedron POL is detected from the OF.
  • the optical flow OF is obtained discretely for each pixel of the display unit 32.
  • the optical flow of the vertex to be obtained is obtained by interpolation from the optical flow of surrounding pixel coordinates.
  • the object movement operation unit 376A deforms the polyhedron POL and then sets the polyhedron POL to the original constraint condition between the vertices, as shown in FIG. 7B.
  • FIG. 7C the polyhedron POL is rotated, and the object image OB is moved in accordance with the rotational movement of the polyhedron POL.
  • the object deformation operation unit 376B calculates the deformation direction and deformation amount of the object image OB according to the direction and size of the motion vector V1 around the object image OB detected by the motion vector detection unit 375, and deforms the object image OB. Thus, it is synthesized and displayed on the display unit 32.
  • the object deformation operation unit 376B includes a polyhedron setting unit 376C, a space division unit 376D, a space determination unit 376E, a decomposition coefficient storage unit 376F, and a deformation display unit 376G. Specifically, as shown in FIG. 8, when the image CH2 of the finger portion moves up and down on the object image OB, the object image OB is deformed up and down by the motion vector V1 on the display unit 32. To display.
  • the polyhedron setting unit 376C sets the center point P0 at an arbitrary position in the object image OB, and sets the polyhedron POL centered on the center point P0.
  • the polyhedron POL is set as a convex polyhedron having twelve vertices P1 to P12.
  • the present invention is not limited to this as long as the space can be uniquely divided into regions. It can be arbitrarily set according to the shape and the like.
  • the polyhedron POL may be independent of the shape of the object image OB, and the polyhedron POL may be set using the vertex POB of the object image OB.
  • the polyhedron POL is set so that the portion of the object image OB that is desired to move, such as a limb, covers the entire object image OB and is as small as possible.
  • the space dividing unit 376D divides a space in the polyhedron POL into a plurality of vectors by a vector from the center point P0 to the vertices P1 to P12 of the polyhedron POL.
  • the space discriminating unit 376E indicates that an arbitrary vertex POB of the object image OB is included in a space constituted by the center point P0, the vertex P1 of the polyhedron POL, the vertex P4, and the vertex P5.
  • the deformation display unit 376G detects the motion vector V1 that deforms the polyhedron POL, as shown in FIG. 11, the deformation display unit 376G detects the space in the polyhedron POL according to the detected motion vector V1, the vertex P1, FIG. The vertex P4 and the vertex P5 are transformed into a vertex P1 ′, a vertex P4 ′, and a vertex P5 ′.
  • the deformation display unit 376G stores the stored expression (1) in accordance with the motion vector V1, and the position x of an arbitrary vertex POB of the object image OB is represented by the following expression (2). 'Store and save, and display the deformed object image OB on the display unit 32.
  • x ′ pa ′ + qb ′ + qc ′ (2)
  • the object deformation operation unit 376B not only sets one polyhedron POL for the object image OB, but also converts the object image OB into a plurality of parts such as a head and limbs. Dividing into parts, setting part polyhedrons PA1 to PA5 for each part, and storing and saving the positions of arbitrary vertices of each part in the parts polyhedrons PA1 to PA5 in the form of the above formula (1) You can also.
  • the deformation of the object image OB is realized by the following method. First, the lower part polyhedrons PA1 to PA5 are regarded as objects, and the part polyhedrons PA1 to PA5 are deformed and moved by deformation of the upper polyhedron POL.
  • the object image OB is deformed and moved in accordance with the deformation of the lower component polyhedrons PA1 to PA5 to which the respective parts belong.
  • the object image OB can be deformed by directly deforming the lower component polyhedrons PA1 to PA5 without setting the upper polyhedron POL.
  • the deformation operation affects the entire object image OB, for example, when the object image OB is operated on a display image engulfed in the vortex of the sea, the upper polyhedron POL may be deformed or moved. .
  • a complicated operation combining the upper polyhedron POL and the component polyhedrons PA1 to PA6 is also possible. That is, if the object image OB is assumed to be a display image that hits a rock or the like in a river or the like, the upper polyhedron POL performs a deformation movement operation in the river flow, and the deformation operation when hitting a rock is a component polyhedron. It can be carried out with PA1 to PA6. By adopting such a hierarchical structure, it is possible to match the deformation of the entire flow with the deformation of the part.
  • Which part polyhedrons PA1 to PA5 belong to each part of the object image OB can be determined by the decomposition coefficient of each vector.
  • Each part of the object image OB is selected so that the part polyhedrons PA1 to PA5 do not overlap each other.
  • the decomposition coefficients p, q, and r in the equation (1) are set in the range of 0-1.
  • the vertex P14 is also outside the component polyhedron PA4 as in the vertex P14 of the object image OB, the sum of squares of the decomposition coefficients p, q, r in the equation (1) is calculated as the component polyhedron PA3, PA4.
  • the vertex P14 of the object image OB may be deformed as belonging to the smaller component polyhedron.
  • the operation area selection unit 377 selects an area where the object image OB to be operated exists as the operation area AR.
  • the operation area AR is selected using a known image recognition technique such as face recognition, excluding the optical flow in the area of the face image CH1 in FIG. It can also be selected by generating. Further, since the optical flow interval of the face image CH1 is widely detected and the finger image CH2 is generated narrowly, the operation area AR may be selected using this.
  • the masking unit 378 is a means for facilitating the operation by masking the operation area AR.
  • the moving image other than the operation area AR is not displayed, or the image of the operation area AR is not a moving image as it is, but the contrast is increased.
  • the visibility of the operation area is improved by using an emphasized binary image, displaying only a contour image, or replacing it with an object image such as an icon.
  • the display control unit 371 composites and displays the moving image captured by the imaging unit 35 and the object image OB read from the storage unit 36 on the display unit 32 (step S1).
  • the optical flow generation unit 374 generates an optical flow G3 based on the frame images G1 and G2 constituting the moving image (step S2).
  • the motion vector detection unit 375 monitors the optical flow G3 in the operation area AR (step S3), and detects the direction and magnitude of the motion vector V1 when the motion vector in the operation area AR has changed (step S3). S4).
  • the object operation unit 376 calculates the moving direction and moving amount of the object image OB based on the detected motion vector V1, and displays the object image OB in an appropriate position on the display unit 32 (step S5).
  • a series of object operation methods from step S1 to step S5 are stored in the storage unit 36 as a computer-readable program, and when the moving image captured by the imaging unit 35 is displayed on the display unit 32, the control unit It is read by 37 and executed.
  • the moving operation of the object image OB is performed by the object operation unit 376. In performing the above, the moving operation of the object image OB can be smoothly performed according to the detected motion vector V1.
  • the operation area AR is selected by the operation area selection unit 377, it is possible to prevent the operation of the object image OB from being obstructed by a motion vector other than the detection area.
  • the masking unit 378 By providing the masking unit 378, the operation area AR is masked, so that the object image OB can be operated in a state that is easy for a viewer of the moving image to see.
  • the object transformation operation unit 376B sets a polyhedron POL centered on an arbitrary center point P0 in the object image OB, and divides the space in the polyhedron POL by a vector from the center point P0 of the polyhedron POL toward the vertices P1 to P12. Then, it is determined in which of the divided spaces the vertex POB of the object image OB, and the decomposition coefficient of the position x of the object vertex is determined by three vectors constituting the space including the vertex of the object p, q, and r are stored, and the object image OB is deformed and displayed in accordance with the deformation operation applied to the polyhedron POL.
  • the object deformation operation unit 376B can set the component polyhedrons PA1 to PA5 for each part of the object image OB and perform the deformation operation on each of the component polyhedrons PA1 to PA5, the object image OB can have a complicated shape. Even in such a case, the object image OB can be displayed in a deformed manner according to the deforming operation, and the processing load can be reduced.
  • an optical flow G3 is generated from a moving image captured by the camera 351 of the imaging unit 35, a motion vector V1 is detected based on the generated optical flow G3, and based on the motion vector V1.
  • the object image OB is deformed.
  • the present embodiment is different in that a deformation animation of the vertex row of the polyhedron POL is created by an animation creation tool or the like, and the object image OB is followed by this.
  • the polyhedron POL is set as a key frame image for the object image OB, as in the first embodiment.
  • the key frame image is deformed, for example, when the key frame image shown in FIG. 14B and the key frame image shown in FIG.
  • the image shown in FIG. 14 (C) is generated by interpolating with the difference image of the coordinates of the vertices to be caused to move, and stores and saves the deformation operation of the polyhedron POL as shown in FIGS.
  • the object image OB is made to follow this animation, so that a deformed image of the object image OB as shown in FIGS. 14E to 14G can be displayed. Also by such a method, the same operation and effect as the first embodiment described above can be obtained.
  • the polyhedron POL is deformed using the animation creation tool.
  • the present embodiment is different in that the polyhedron POL is deformed and moved by using a physical simulation of the physics engine software as shown in FIG. That is, as shown in FIG. 15A, the polyhedron POL is set for the object image OB, as in the second embodiment.
  • the polyhedron POL stores and saves the deformed state corresponding to the collision and movement in accordance with the natural law on the physics engine software.
  • the physical simulation target may be a physical simulation of the relationship between vertices of the polyhedron POL itself. However, a physical simulation is performed on a rigid body composed of a plurality of vertices, and the rigid body as a simulation result is obtained. It is also possible to specify the polyhedron POL from the vertices constituting. When the object image OB is deformed and moved on the physics engine software, the number of vertices of the polyhedron POL is less than the number of vertices of the object image OB to be drawn.
  • the deformation and movement image of the object image OB can be displayed by following the physical simulation deformation and movement of the polyhedron POL.
  • the present invention is not limited to the embodiments described above, and includes modifications as described below.
  • the object operation unit 376 operates the character-like object image OB.
  • the present invention is not limited to this.
  • the slide switch image OB2 as shown in FIG. An operation may be performed in which the image is fixed somewhere and slid on the image CH2 of the finger portion.
  • the embodiments of the present invention can employ other configurations as long as the object of the present invention can be achieved.
  • Vector detection unit 376 ... Object operation unit, 376A ... Object movement operation unit, 376B ... Object deformation operation unit 376C: polyhedron setting unit, 376D ... space division unit, 376E ... space discrimination unit, 376F ... decomposition coefficient storage unit, 37
  • G Deformation display unit, 377 ... Operation region selection unit, 378 ... Masking unit, AR ... Operation region, BL ... Bus line, CH1, CH2 ... Image, G1, G2 ... Frame image, G3 ... Optical flow, OB ... Object image , OB2 ... Slide switch image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

 表示装置上に表示されたオブジェクト(OB)を変形操作するオブジェクト(OB)の操作方法は、表示装置を制御する制御装置が、オブジェクト(OB)内の任意の点(P0)を中心とする多面体(POL)を設定するステップと、多面体(POL)の中心(P0)から多面体(POL)の頂点(P1~P12)に向かうベクトルによって、多面体(POL)内の空間を分割するステップと、オブジェクト(OB)の頂点が、分割された空間のうち、どの空間に含まれるかを判別するステップと、オブジェクト(OB)の頂点(POB)を含む空間を構成する3本のベクトルによって、オブジェクト(OB)の頂点(POB)の分解係数を保存するステップと、多面体(POL)に作用した変形操作に応じて、オブジェクト(OB)を変形させて表示するステップとを実行する。

Description

オブジェクトの操作方法、オブジェクトの操作プログラム、及び情報処理装置
 本発明は、オブジェクトの操作方法、オブジェクトの操作プログラム、及び情報処理装置に関する。
 従来、ゲームプログラム等では、オブジェクトであるキャラクターをリアルに表示できることが望まれている。
 キャラクターをリアルに表現する手法として、スケルトンアニメーションの技術を用いることが考えられる(例えば特許文献1参照)。スケルトンアニメーションは、各部が骨により構成されるスケルトンモデルのボーンにスキンと呼ばれる表面を付けることで表現される。
 そして、スキンの表面の動きの表現にスキニングと呼ばれる技術を用いることにより、一層リアルな表現が可能となる。
 スキニングは、スケルトンを構成するボーンの動きに追従させてスキンを変形させる方法である。
 また、従来、カメラ等で撮像した撮像画像上で撮像画像の手指部分を検出し、検出された手指部分にGUI(Graphical User Interface)部材を表示させ、手指部分の画像をポインタとして使用する技術が知られている(例えば特許文献2参照)。
 この技術によれば、撮像画像上に表示されたGUI部材に対してユーザが指示・選択・移動等のGUI操作をすることができる。
特開2002-63595号公報 特開2012-53674号公報
 しかしながら、前記特許文献1に記載のスキニングでは、ボーンのそれぞれに直交座標系が設定され、複数のボーンに近いオブジェクトの頂点は、複数のボーンの直交座標系の重みつき加算で表現される。このため、重みをオブジェクト毎に定義する必要があり、演算処理が複雑化するという問題がある。
 また、ボーンを物理モデル化するには、座標系の位置、方向だけでなく、隣接するボーンの座標系間のジョイントの弾力性なども定義しなければならないが、仮に定義したとしても結合が少ないので、ジョイントの拘束力が少なく安定しにくいという問題がある。
 また、前記特許文献2に記載の技術は、手指部分の画像上にGUI部材を表示するものであり、表示されたGUI部材を操作する手指部分の画像はあくまでも静止画像として取り扱われている。従って、合成される画像が動画像等の場合、動画像上の手指部分の動きに応じて滑らかにGUI部材を操作することが困難であるという問題がある。
 本発明の目的は、演算処理負担を軽減することができ、物理モデル化しても安定してオブジェクトを変形表示させることができ、また、動画像上に合成表示されたオブジェクトを、動画像の変化に合わせて滑らかに操作することのできるオブジェクトの操作方法、オブジェクトの操作プログラム、及び情報処理装置を提供することにある。
 本発明の第1態様に係るオブジェクトの操作方法は、
 表示装置上に表示されたオブジェクトを変形操作するオブジェクトの操作方法であって、
 前記表示装置を制御する制御装置が、
 前記オブジェクト内の任意の点を中心とする多面体を設定するステップと、
 前記多面体の中心から前記多面体の頂点に向かうベクトルによって、前記多面体内の空間を分割するステップと、
 前記オブジェクトの頂点が、分割された空間のうち、どの空間に含まれるかを判別するステップと、
 前記オブジェクトの頂点を含む空間を構成する3本のベクトルによって、前記オブジェクトの頂点の分解係数を保存するステップと、
 前記多面体に作用した変形操作に応じて、前記オブジェクトを変形させて表示するステップとを実行することを特徴とする。
 第1態様に係るオブジェクトの操作方法によれば、オブジェクト内の任意の点を中心とする多面体を設定し、多面体の中心から頂点に至るベクトルによって、多面体内の空間を分割し、オブジェクトの頂点が、分割された空間のうち、どの空間に含まれるかを判別し、オブジェクトの頂点を含む空間を構成する3本のベクトルによってオブジェクトの頂点の分解係数を保存し、多面体に作用した変形操作に応じてオブジェクトを変形させて表示している。従って、ボーンによるスキニングと比較して複数のボーンの直交座標系の重み付き加算を行う必要がなく、制御装置による演算処理負担を軽減することができる。
 また、このような変形操作によれば、座標系間のジョイントを考慮する必要がないので、安定してオブジェクトを変形表示することができる。
 本発明の第2態様に係るオブジェクトの操作方法は、第1態様に係るオブジェクトの操作方法において、
 予めオブジェクトを複数のパーツに分割しておき、
 それぞれのパーツについて、多面体を設定することを特徴とする。
 第2態様によれば、パーツ毎に多面体を設定し、それぞれの多面体について変形操作を行うことができるので、複雑な形状のオブジェクトであっても、変形操作に応じてオブジェクトを変形表示することができ、さらに、演算処理の負荷も軽くすることができる。
 本発明の第3態様に係るオブジェクトの操作方法は、
 撮像装置で撮像された動画像を表示装置上に表示し、表示された動画像上に合成表示されたオブジェクトを操作するオブジェクトの操作方法であって、
 前記撮像装置及び前記表示装置を制御する制御装置は、
 前記撮像装置で撮像された動画像を構成する少なくとも2つのフレーム画像に基づいて、オプティカルフローを生成するステップと、
 生成されたオプティカルフローから前記オブジェクトの表示位置における動きベクトルを検出するステップと、
 検出された動きベクトルに基づいて、前記オブジェクトの操作を行うステップとを実行することを特徴とする。
 ここで、オプティカルフローの生成においては、動画像を構成する少なくとも2つのフレーム画像からオプティカルフローを生成するが、オプティカルフローは公知のブロックマッチング法、勾配法等によって生成することができる。
 第3態様に係るオブジェクトの操作方法によれば、撮像装置で撮像された動画像を構成する少なくとも2つのフレーム画像に基づいて、オプティカルフローを生成し、生成されたオプティカルフローからオブジェクトの表示位置における動きベクトルを検出しているので、オブジェクトの移動操作を行うに際して、検出された動きベクトルに応じてオブジェクトの移動操作を滑らかに行うことができる。
 本発明の第4態様に係るオブジェクトの操作プログラムは、
 表示装置上に表示されたオブジェクトを変形操作するオブジェクトの操作方法を、前記表示装置を制御する制御装置に実行させるオブジェクトの操作プログラムであって、
 前記制御装置に、
 前記オブジェクト内の任意の点を中心とする多面体を設定するステップと、
 前記多面体の中心から前記多面体の頂点に向かうベクトルによって、前記多面体内の空間を分割するステップと、
 前記オブジェクトの頂点が、分割された空間のうち、どの空間に含まれるかを判別するステップと、
 前記オブジェクトの頂点を含む空間を構成する3本のベクトルによって、前記オブジェクトの頂点の分解係数を保存するステップと、
 前記多面体に作用した変形操作に応じて、前記オブジェクトを変形させて表示するステップとを実行させることを特徴とする。
 第4態様によっても前述した第1態様と同様の作用及び効果を享受するこことができる。
 本発明の第5態様に係るオブジェクトの操作プログラムは、
 撮像装置で撮像された動画像を表示装置上に表示し、表示された動画像上に合成表示されたオブジェクトを操作するオブジェクトの操作方法を、前記撮像装置及び前記表示装置を制御する制御装置に実行させるオブジェクトの操作プログラムであって、
 前記制御装置に、
 前記撮像装置で撮像された動画像を構成する少なくとも2つのフレーム画像に基づいて、オプティカルフローを生成するステップと、
 生成されたオプティカルフローから前記オブジェクトの表示位置における動きベクトルを検出するステップと、
 検出された動きベクトルに基づいて、前記オブジェクトの操作を行うステップとを実行させることを特徴とする。
 本発明の第5態様によれば、前述した本発明の第3態様と同一の作用及び効果を享受することができる。
 本発明の第6態様に係る情報処理装置は、
 表示装置上に表示されたオブジェクトを変形操作する情報処理装置であって、
 前記オブジェクト内の任意の点を中心とする多面体を設定する多面体設定手段と、
 前記多面体の中心から前記多面体の頂点に向かうベクトルによって、前記多面体内の空間を分割する空間分割手段と、
 前記オブジェクトの頂点が、分割された空間のうち、どの空間に含まれるかを判別する空間判別手段と、
 前記オブジェクトの頂点を含む空間を構成する3本のベクトルによって、前記オブジェクトの頂点の分解係数を保存する分解係数保存手段と、
 前記多面体に作用した変形操作に応じて、前記オブジェクトを変形させて表示する変形表示手段とを備えていることを特徴とする。
 第6態様によっても前述した第1態様と同様の作用及び効果を享受するこことができる。
 本発明の第7態様に係る情報処理装置は、
 撮像装置で撮像された動画像を表示装置上に表示し、表示された動画像上に合成表示されたオブジェクトを操作する情報処理装置であって、
 前記撮像装置で撮像された動画像を構成する少なくとも2つのフレーム画像に基づいて、オプティカルフローを生成するオプティカルフロー生成手段と、
 前記オプティカルフロー生成手段で生成されたオプティカルフローから前記オブジェクトの表示位置における動きベクトルを検出する動きベクトル検出手段と、
 前記動きベクトル検出手段で検出された動きベクトルに基づいて、前記オブジェクトの操作を行うオブジェクト操作手段とを備えていることを特徴とする。
 本発明の第7態様によれば、前述した本発明の第3態様と同一の作用及び効果を享受することができる。
 本発明の第8態様に係る情報処理装置は、第7態様に係る情報処理装置において、
 前記オブジェクトを操作する領域を選択する操作領域選択手段を備えていることを特徴とする。
 第8態様に係る情報処理装置によれば、操作領域選択手段により操作領域として選択しているので、操作領域以外の動きベクトルでオブジェクトの操作が邪魔されることを防止することができる。
 本発明の第9態様に係る情報処理装置は、第8態様に係る情報処理装置において、
 前記操作領域選択手段で選択された操作領域にマスキングを行うマスキング手段を備えていることを特徴とする。
 第9態様に係る情報処理装置によれば、マスキング手段を備えていることにより、操作領域にマスキング処理を行うことができるので、動画像の観察者が見やすい状態でオブジェクトを操作することができる。
本発明の第1実施形態に係る携帯端末の一例を示す平面図。 前記実施形態における携帯端末の構成を示すブロック図。 前記実施形態における制御部の構成を示すブロック図。 前記実施形態における制御部の構成を示すブロック図。 前記実施形態における携帯端末の表示部に動画像を表示し、オブジェクト画像を表示させた画面の模式図。 前記実施形態における携帯端末の表示部に動画像を表示し、オブジェクト画像を表示させた画面の模式図。 前記実施形態におけるオプティカルフローを表示させた画面の模式図。 前記実施形態におけるオプティカルフローから動きベクトルの検出を説明するための模式図。 前記実施形態におけるオプティカルフローから動きベクトルの検出を説明するための模式図。 前記実施形態におけるオプティカルフローから動きベクトルの検出を説明するための模式図。 前記実施形態におけるオブジェクト画像を変形させた状態を表す模式図。 前記実施形態におけるオブジェクト画像に設定された多面体を表す模式図。 前記実施形態におけるオブジェクト画像の任意の頂点を多面体内の空間で表す模式図。 前記実施形態における多面体を変形させた際のオブジェクト画像の任意の頂点の位置関係を説明するための模式図。 前記実施形態におけるオブジェクト画像をパーツ毎に分割し、それぞれのパーツ毎に多面体を設定した状態を表す模式図。 前記実施形態における作用を説明するためのフローチャート。 本発明の第2実施形態に係るオブジェクト画像の変形、移動を説明するための模式図。 本発明の第3実施形態に係るオブジェクト画像の変形、移動を説明するための模式図。 前記実施形態の変形となるオブジェクト画像の模式図。
 以下、本発明の実施の形態について説明する。
 [第1実施形態]
 図1には、本発明の実施形態に係る携帯端末3の一例を示す平面図である。
 携帯端末3は、撮像部35で撮像された動画像上にオブジェクトを合成表示する。このような携帯端末3は、スマートフォン(多機能携帯電話機)、タブレット端末及び携帯型ゲーム機等により構成できる。
 本実施形態では、携帯端末3は、図1に示すように、筐体31、表示部32、操作部33、音声出力部34、撮像部35、記憶部36及び制御部37(図2参照)を有し、ゲームプログラムを実行可能な端末装置により構成されている。
 筐体31は、携帯端末3の外装を構成するものであり、左右の手により把持可能な程度の大きさの略長円形状に形成されている。この筐体31は、正面部31A、背面部31B(図1では図示省略)、上面部31C、底面部31D及び左右の側面部31E,31Fを有する。
 表示部32は、本発明の表示装置に相当し、正面部31Aにおける略中央に配設されている。この表示部32は、矩形状に形成された表示パネルにより構成されており、後述する制御部37の表示制御部371(図3A参照)による制御の下、当該表示制御部371により形成される画像を表示する。このような表示パネルとして、有機EL(Electro-Luminescence)や液晶等の表示パネルを例示できる。
 操作部33は、正面部31Aにおける表示部32の周囲、及び、当該筐体31の上面部31Cに配設された各種ボタン及びスティックを有し、使用者の入力操作に応じた操作信号を制御部37に出力する。
 具体的に、操作部33は、表示部32に対して左側にそれぞれ位置し、正面部31Aに対向して見た場合の上下左右の各方向に入力可能な方向ボタン331と、当該各方向に傾倒可能な操作スティック332と、底面部31D側に位置する操作ボタン333と、を有する。また、操作部33は、表示部32に対して右側に位置する4つの操作ボタン334と、操作スティック332と同様の構成を有する操作スティック335と、底面部31D側に位置する操作ボタン336,337と、を有する。更に、操作部33は、上面部31Cの左右両側にそれぞれ位置する操作ボタン338L,338Rを有する。
 音声出力部34は、正面部31Aにおける左右両端近傍にそれぞれ配設されたスピーカー34L,34Rを有する。この音声出力部34は、後述する制御部37の音声出力制御部373(図3A参照)から入力される音声信号に応じた音声を、スピーカー34L,34Rにより出力する。
 撮像部35は、本発明の撮像装置に相当し、正面部31Aにおける右側上部に配設された第1撮像部としてのカメラ351を有する。この撮像部35は、当該カメラ351による撮像画像を制御部37に出力する。
 図2は、携帯端末3の構成を示すブロック図である。
 上記表示部32、操作部33、音声出力部34、撮像部35、記憶部36及び制御部37は、図2に示すように、それぞれ互いにバスラインBLにより接続されている。
 これらのうち、記憶部36は、携帯端末3の動作に必要なプログラム及びデータを記憶している。例えば、記憶部36は、携帯端末3の動作を制御するOS(Operating System)、ゲーム等のアプリケーションプログラム、及び、画像表示プログラムを記憶している。このような記憶部36は、フラッシュメモリー等の不揮発性メモリーやHDD(Hard Disk Drive)により構成できる。
 図3A、図3Bは、制御部37の構成を示すブロック図である。
 制御部37は、CPU(Central Processing Unit)等を有し、携帯端末3の動作を制御する。具体的に、制御部37は、当該CPUが記憶部36に記憶されたプログラムを読み出して処理することで、使用者の入力操作(操作部33から入力される操作信号)に応じて、或いは、自律的に携帯端末3を制御する制御装置である。
 この他、制御部37は、CPUが上記画像表示プログラムを実行することで、撮像部35で撮像された動画像を表示部32に表示させる。このため、制御部37は、図3Aに示すように、表示制御部371、撮像制御部372、音声出力制御部373、オプティカルフロー生成部374、動きベクトル検出部375、オブジェクト操作部376、操作領域選択部377、及びマスキング部378を備える。
 表示制御部371は、携帯端末3の動作状態を示す画像や、撮像部35で撮像された画像を描画メモリー(図示略)に描画し、当該画像に応じた画像信号を表示部32に出力することで、当該画像を表示部32に表示させる。
 具体的に、図4に示すように、撮像部35で撮像された動画像が表示部32上に表示され、この動画像上にオブジェクト画像OBが合成表示される。
 撮像制御部372は、撮像部35の動作を制御する。具体的に、撮像制御部372は、撮像部35に所定周期(フレームレート)で撮像させる。そして、撮像制御部372は、撮像部35から入力される撮像画像である動画像を取得し、記憶部36に記憶させる。
 音声出力制御部373は、音声出力部34を制御して、所定の音声を出力させる。
 オプティカルフロー生成部374は、動画像を構成する少なくとも2以上のフレーム画像G1、G2からオプティカルフローを生成する。
 今、図4に示されるフレーム画像G1から図5に示されるフレーム画像G2に遷移したとすると、動画像中の顔の画像CH1は右方向にスライドし、手指部分の画像CH2は、回動動作を行ったと仮定する。
 オプティカルフロー生成部374は、この2つのフレーム画像G1、G2の輝度点の移動から、図6に示されるようなオプティカルフローG3を生成する。オプティカルフローG3は、勾配法、ブロックマッチング法等の公知の方法を用いて求めることができる。
 勾配法は、物体上の点の明るさは、移動後も変化しないという仮定から、時空間微分とオプティカルフローとの関係式を導出し、これを利用して対象の動きを推定する方法である。
 一方、ブロックマッチング法は、画像を一定の大きさの小領域に分割し、それぞれのブロックの動きベクトルを求める。各ブロックが前のフレームのどこに対応するかを探索し、対応するブロックとの位置の差を動きベクトルとする方法である。
 これらの方法用いて、オプティカルフローG3は、2つのフレーム画像G1、G2からフレームレート等を用いて画像CH1、CH2の移動方向、移動速度を算出し、動きベクトルを生成する。
 動きベクトル検出部375は、オプティカルフロー生成部374で生成されたオプティカルフローG3のうち、オブジェクト画像OBが表示された位置における動きベクトルを検出する。図4から図5への変化においては、オブジェクト画像OBの回りに手指部分の画像CH2が表示され、手指部分が左方向に回動しており、これを動きベクトルV1として検出する。
 オブジェクト操作部376は、動きベクトル検出部375で検出されたオブジェクト画像OB回りの動きベクトルV1に基づいて、オブジェクト画像OBの移動、変形を行う部分であり、オブジェクト移動操作部376A及びオブジェクト変形操作部376Bを備える。
 オブジェクト移動操作部376Aは、検出された動きベクトルV1の方向、大きさに応じて、オブジェクト画像OBの移動方向、移動量を算出し、表示部32上の適当な位置にオブジェクト画像OBを合成表示させる。
 具体的には、図7Aに示されるように、オブジェクト画像OB回りでオプティカルフローOFが検出されたときに、動きベクトル検出部375は、オブジェクト画像OBに設定された多面体POLの頂点近傍のオプティカルフローOFから、多面体POLの動きベクトルV1を検出する。オプティカルフローOFは、表示部32の各ピクセル毎に離散的に求められるが、求めたい頂点のオプティカルフローについて、回りのピクセル座標のオプティカルフローから内挿によって求めている。
 オブジェクト移動操作部376Aは、動きベクトル検出部375Aで検出された動きベクトルV1に基づいて、図7Bに示されるように、多面体POLを変形させた後、多面体POLを元々の頂点間の拘束条件などによって形を保つようにして、図7Cに示されるように、多面体POLを回転させ、この多面体POLの回転移動に応じて、オブジェクト画像OBを移動させる。
 オブジェクト変形操作部376Bは、動きベクトル検出部375で検出されたオブジェクト画像OB回りの動きベクトルV1の方向、大きさに応じてオブジェクト画像OBの変形方向、変形量を算出し、オブジェクト画像OBを変形させて表示部32上に合成表示させる。このオブジェクト変形操作部376Bは、図3Bに示されるように、多面体設定部376C、空間分割部376D、空間判別部376E、分解係数保存部376F、及び変形表示部376Gを備える。
 具体的には、図8に示されるように、オブジェクト画像OBに手指部分の画像CH2が上下方向の動きをした際、動きベクトルV1によってオブジェクト画像OBを上下に変形させた状態で表示部32上に表示させる。
 オブジェクト画像OBの変形は、図9に示されるように、多面体設定部376Cが、オブジェクト画像OB内の任意の位置に中心点P0を設定し、中心点P0を中心とする多面体POLを設定する。
 本実施形態では、多面体POLは、12個の頂点P1~P12を有する凸多面体として設定されているが、空間を一意に領域分割することができるのであれば、これに限らず、オブジェクト画像OBの形状等に応じて任意に設定することができる。
 多面体POLは、オブジェクト画像OBの形状と無関係であってもよく、オブジェクト画像OBの頂点POBを使って多面体POLを設定してもよい。好ましくは、多面体POLは、オブジェクト画像OBの手足等の動かしたい部分を頂点とし、オブジェクト画像OBの全体を覆い、かつなるべく小さくなるように設定する。
 空間分割部376Dは、多面体POL内の空間を、中心点P0から多面体POLの頂点P1~P12に至るベクトルによって、複数に分割する。
 次に、空間判別部376Eは、オブジェクト画像OBの任意の頂点POBを、中心点P0と、多面体POLの頂点P1と、頂点P4と、頂点P5とで構成される空間に含まれていることを判別する。
 分解係数保存部376Fは、図10に示されるように、任意の頂点POBの位置xを、中心点P0から頂点P1に向かうベクトルaと、中心点P0から頂点P4に向かうベクトルbと、中心点P0から頂点P5に向かうベクトルcと、それぞれの分解係数p、q、rによって記憶保存する。
 すなわち、オブジェクト画像OBの任意の頂点POBの位置xは、下記式(1)によって表現される。
 x=pa+qb+rc…(1)
 変形表示部376Gは、例えば、多面体POLを変形させる動きベクトルV1を検出したら、図11に示されるように、多面体POL内の空間を検出された動きベクトルV1に応じて、図10の頂点P1、頂点P4、頂点P5を、頂点P1’、頂点P4’、頂点P5’に変形させる。
 これに伴って変形表示部376Gは、記憶保存しておいた式(1)を動きベクトルV1に応じて、下記式(2)に示されるように、オブジェクト画像OBの任意の頂点POBの位置x’記憶保存し、表示部32上に変形させたオブジェクト画像OBを表示する。
 x’=pa’+qb’+qc’…(2)
 また、オブジェクト変形操作部376Bは、図12に示されるように、オブジェクト画像OBに対して、1つの多面体POLを設定するだけでなく、オブジェクト画像OBを複数のパーツ、例えば、頭、手足等のパーツに分割しておき、それぞれのパーツについて、部品多面体PA1~PA5を設定し、各パーツの任意の頂点の位置を、各部品多面体PA1~PA5に前記式(1)の形で記憶保存することもできる。
 この場合、オブジェクト画像OBの変形は、次の方法で実現される。
 まず、下位となる部品多面体PA1~PA5をオブジェクトと見立て、上位の多面体POLの変形により、部品多面体PA1~PA5を変形、移動させる。次に、オブジェクト画像OBは、それぞれのパーツが属する下位の部品多面体PA1~PA5の変形に応じて変形、移動する。オブジェクト画像OBの変形は、上位の多面体POLを設定せずに、下位の部品多面体PA1~PA5を直接変形させることもできる。
 例えば、オブジェクト画像OBの手の部分を変形させたい場合、当該手の部分に設定された部品多面体PA3のみを変形させればよい。
 一方、変形操作がオブジェクト画像OBの全体に影響する場合、例えば、オブジェクト画像OBが海の渦流などに巻き込まれる表示画像上で操作する場合は、上位の多面体POLの変形、移動操作として行えばよい。
 さらに、上位の多面体POLと、部品多面体PA1~PA6とを組み合わせた複雑な動作も可能である。すなわち、オブジェクト画像OBが川等の流れの中で岩などにぶつかる表示画像を想定すれば、上位の多面体POLで川の流れ中の変形移動操作を行い、岩にぶつかる際の変形操作を部品多面体PA1~PA6で行うことができる。このような階層構造をとることにより、全体の流れによる変形と部分の変形のつじつまを合わせることができる。
 オブジェクト画像OBの各パーツがどの部品多面体PA1~PA5に属するかは、それぞれのベクトルの分解係数によって判別することができる。オブジェクト画像OBの各パーツは、部品多面体PA1~PA5が互いに重複しないように選択する。
 また、オブジェクト画像OBの頂点P13のように、頂点P13が部品多面体PA3に含まれるときは、式(1)における分解係数p、q、rは、0~1の範囲で設定される。一方、オブジェクト画像OBの頂点P14のように、頂点P14が部品多面体PA3にも部品多面体PA4の外部にある場合、式(1)における分解係数p、q、rの二乗和を部品多面体PA3、PA4のそれぞれについて求め、比較して小さい方の部品多面体に属するとして、オブジェクト画像OBの頂点P14の変形を行えばよい。
 操作領域選択部377は、操作すべきオブジェクト画像OBが存在する領域を操作領域ARとして選択する。
 また、操作領域ARの選択は、顔認識等の公知の画像認識技術を用い、図6における顔の画像CH1の領域内のオプティカルフローを除外し、手指部分の画像CH2の部分のみのオプティカルフローを生成することにより、選択することもできる。
 さらに、顔の画像CH1のオプティカルフローの間隔は広く検出され、手指部分の画像CH2は狭く生成されるので、これを利用して、操作領域ARの選択を行ってもよい。
 マスキング部378は、操作領域ARにマスキングして操作を行い易くする手段であり、例えば、操作領域AR以外の動画像を非表示にしたり、操作領域ARの画像を動画像そのままでなく、コントラストを強調した2値画像としたり、輪郭画像のみを表示させたり、アイコンのようなオブジェクト画像に置き換えることにより、操作領域の視認性を向上させる。
 次に、本実施形態の作用について、図13に示すフローチャートに基づいて説明する。
 まず、表示制御部371は、撮像部35で撮像された動画像と、記憶部36から読み出したオブジェクト画像OBを表示部32上に合成表示する(ステップS1)。
 オプティカルフロー生成部374は、動画像を構成するフレーム画像G1、G2に基づいて、オプティカルフローG3を生成する(ステップS2)。
 動きベクトル検出部375は、操作領域AR中のオプティカルフローG3を監視し(ステップS3)、操作領域AR中の動きベクトルに変化があった場合、動きベクトルV1の方向、大きさを検出する(ステップS4)。
 オブジェクト操作部376は、検出された動きベクトルV1に基づいて、オブジェクト画像OBの移動方向、移動量を算出し、表示部32上の適当な位置にオブジェクト画像OBを合成表示させる(ステップS5)。
 尚、ステップS1~ステップS5に至る一連のオブジェクトの操作方法は、コンピュータ読み取り可能なプログラムとして記憶部36に記憶され、撮像部35で撮像された動画像を表示部32で表示する際、制御部37に読み出されて実行される。
 このような本実施形態によれば、以下に示す効果がある。
 オプティカルフロー生成部374により動画像のオプティカルフローG3を生成し、動きベクトル検出部375によりオブジェクト画像OBの表示位置における動きベクトルV1を検出しているので、オブジェクト操作部376によりオブジェクト画像OBの移動操作を行うに際して、検出された動きベクトルV1に応じてオブジェクト画像OBの移動操作を滑らかに行うことができる。
 操作領域選択部377により操作領域ARとして選択しているので、検出領域以外の動きベクトルでオブジェクト画像OBの操作が邪魔されることを防止することができる。
 マスキング部378を備えていることにより、操作領域ARをマスキング処理しているので、動画像の観察者が見やすい状態でオブジェクト画像OBを操作することができる。
 オブジェクト変形操作部376Bが、オブジェクト画像OB内の任意の中心点P0を中心とする多面体POLを設定し、多面体POLの中心点P0から頂点P1~P12に向かうベクトルによって、多面体POL内の空間を分割し、オブジェクト画像OBの頂点POBが、分割された空間のうち、どの空間に含まれるかを判別し、オブジェクトの頂点を含む空間を構成する3本のベクトルによってオブジェクトの頂点の位置xの分解係数p、q、rを保存し、多面体POLに作用した変形操作に応じてオブジェクト画像OBを変形させて表示している。従って、ボーンによるスキニングと比較して複数のボーンの直交座標系の重み付き加算を行う必要がなく、制御部37による演算処理負担を軽減することができる。
 また、オブジェクト変形操作部376Bが、オブジェクト画像OBのパーツ毎に部品多面体PA1~PA5を設定し、それぞれの部品多面体PA1~PA5について変形操作を行うことができるので、複雑な形状のオブジェクト画像OBであっても、変形操作に応じてオブジェクト画像OBを変形表示することができ、演算処理の負荷も軽くすることができる。
 [第2実施形態]
 次に、本発明の第2実施形態について説明する。尚、以下の説明では、既に説明した部分と同一の部分については、同一符号を付して説明を省略する。
 前述した第1実施形態では、撮像部35のカメラ351で撮像した動画像からオプティカルフローG3を生成し、生成したオプティカルフローG3に基づいて、動きベクトルV1を検出し、この動きベクトルV1に基づいて、オブジェクト画像OBの変形操作を行っていた。
 これに対して、本実施形態では、アニメーション作成ツール等で多面体POLの頂点列の変形アニメーションを作成し、これにオブジェクト画像OBを追従させている点が相違する。
 すなわち、図14(A)に示されるように、まず、オブジェクト画像OBに対して、第1実施形態と同様に多面体POLを、キーフレーム画像として設定する。
 次に、このキーフレーム画像を変形操作する場合、例えば、図14(B)に示されるキーフレーム画像、及び図14(D)に示されるキーフレーム画像が設定されていた場合、その中間の図14(C)に示される画像は、動きを生じさせたい頂点の座標の差分画像で補間して生成され、図14(A)~(D)のような多面体POLの変形操作を記憶保存する。
 画像の表示に際しては、このアニメーションにオブジェクト画像OBを追従させることにより、図14(E)~(G)のようなオブジェクト画像OBの変形画像を表示させることができる。
 このような方法によっても、前述した第1実施形態と同様の作用及び効果を奏することができる。
 [第3実施形態]
 次に、本発明の第3実施形態について説明する。前述の第2実施形態では、アニメーション作成ツールを用いて、多面体POLの変形を行っていた。
 これに対して、本実施形態では、図15に示されるように、物理演算エンジンソフトウェアの物理シミュレーションを利用して、多面体POLの変形、移動をさせている点が相違する。
 すなわち、図15(A)に示されるように、第2実施形態と同様に、オブジェクト画像OBに対して、多面体POLを設定する。
 次に、多面体POLを、図15(B)に示されるように、物理演算エンジンソフトウェア上で自然法則に則った衝突、移動に応じた変形させた状態を記憶保存する。
 ここで、物理シミュレーションの対象は、多面体POL自体について、頂点間の関係性を物理シミュレートしてもよいが、複数の頂点から構成される剛体について物理シミュレートを行い、シミュレート結果としての剛体を構成する頂点から多面体POLを特定することもできる。
 物理演算エンジンソフトウェア上でオブジェクト画像OBを変形、移動操作する場合、描画するオブジェクト画像OBの頂点数よりも多面体POLの頂点が少ないので、描画に要する負荷を減らすことができ、既存の物理演算エンジンソフトウェアのデータ構造に合わせやすく、柔軟な適用が可能となるという利点を有する。
 画像の表示に際しては、図15(C)に示されるように、この多面体POLの物理シミュレーション変形、移動に追従させることにより、オブジェクト画像OBの変形、移動画像を表示させることができる。
 [実施形態の変形]
 本発明は、前述した実施形態に限定されるものではなく、以下に示すような変形をも含むものである。
 前述した実施形態では、オブジェクト操作部376は、キャラクター的なオブジェクト画像OBを操作するものであったが、これに限らず、例えば、図14に示されるようなスライドスイッチ画像OB2を表示部32のどこかに固定して表示しておき、手指部分の画像CH2でスライドさせる操作を行ってもよい。
 本発明の実施形態は、本発明の目的を達成できる範囲で他の構成を採用することができる。
 3…携帯端末、31…筐体、31A…正面部、31C…上面部、31E…側面部、32…表示部、33…操作部、331…方向ボタン、332…操作スティック、333…操作ボタン、334…操作ボタン、335…操作スティック、336…操作ボタン、338L…操作ボタン、34…音声出力部、34L…スピーカー、35…撮像部、351…カメラ、36…記憶部、37…制御部、371…表示制御部、372…撮像制御部、373…音声出力制御部、374…オプティカルフロー生成部、375…ベクトル検出部、376…オブジェクト操作部、376A…オブジェクト移動操作部、376B…オブジェクト変形操作部、376C…多面体設定部、376D…空間分割部、376E…空間判別部、376F…分解係数保存部、376G…変形表示部、377…操作領域選択部、378…マスキング部、AR…操作領域、BL…バスライン、CH1、CH2…画像、G1、G2…フレーム画像、G3…オプティカルフロー、OB…オブジェクト画像、OB2…スライドスイッチ画像

Claims (9)

  1.  表示装置上に表示されたオブジェクトを変形操作するオブジェクトの操作方法であって、
     前記表示装置を制御する制御装置が、
     前記オブジェクト内の任意の点を中心とする多面体を設定するステップと、
     前記多面体の中心から前記多面体の頂点に向かうベクトルによって、前記多面体内の空間を分割するステップと、
     前記オブジェクトの頂点が、分割された空間のうち、どの空間に含まれるかを判別するステップと、
     前記オブジェクトの頂点を含む空間を構成する3本のベクトルによって、前記オブジェクトの頂点の分解係数を保存するステップと
     前記多面体に作用した変形操作に応じて、前記オブジェクトを変形させて表示するステップとを実行することを特徴とするオブジェクトの操作方法。
  2.  請求項1に記載のオブジェクトの操作方法において、
     予めオブジェクトを複数のパーツに分割しておき、
     それぞれのパーツについて、多面体を設定することを特徴とするオブジェクトの操作方法。
  3.  撮像装置で撮像された動画像を表示装置上に表示し、表示された動画像上に合成表示されたオブジェクトを操作するオブジェクトの操作方法であって、
     前記撮像装置及び前記表示装置を制御する制御装置は、
     前記撮像装置で撮像された動画像を構成する少なくとも2つのフレーム画像に基づいて、オプティカルフローを生成するステップと、
     生成されたオプティカルフローから前記オブジェクトの表示位置における動きベクトルを検出するステップと、
     検出された動きベクトルに基づいて、前記オブジェクトの操作を行うステップとを実行することを特徴とするオブジェクトの操作方法。
  4.  表示装置上に表示されたオブジェクトを変形操作するオブジェクトの操作方法を、前記表示装置を制御する制御装置に実行させるオブジェクトの操作プログラムであって、
     前記制御装置に、
     前記オブジェクト内の任意の点を中心とする多面体を設定するステップと、
     前記多面体の中心から前記多面体の頂点に向かうベクトルによって、前記多面体内の空間を分割するステップと、
     前記オブジェクトの頂点が、分割された空間のうち、どの空間に含まれるかを判別するステップと、
     前記オブジェクトの頂点を含む空間を構成する3本のベクトルによって、前記オブジェクトの頂点の分解係数を保存するステップと
     前記多面体に作用した変形操作に応じて、前記オブジェクトを変形させて表示するステップとを実行させることを特徴とするオブジェクトの操作プログラム。
  5.  撮像装置で撮像された動画像を表示装置上に表示し、表示された動画像上に合成表示されたオブジェクトを操作するオブジェクトの操作方法を、前記撮像装置及び前記表示装置を制御する制御装置に実行させるオブジェクトの操作プログラムであって、
     前記制御装置に、
     前記撮像装置で撮像された動画像を構成する少なくとも2つのフレーム画像に基づいて、オプティカルフローを生成するステップと、
     生成されたオプティカルフローから前記オブジェクトの表示位置における動きベクトルを検出するステップと、
     検出された動きベクトルに基づいて、前記オブジェクトの操作を行うステップとを実行させることを特徴とするオブジェクトの操作プログラム。
  6.  表示装置上に表示されたオブジェクトを変形操作する情報処理装置であって、
     前記オブジェクト内の任意の点を中心とする多面体を設定する多面体設定手段と、
     前記多面体の中心から前記多面体の頂点に向かうベクトルによって、前記多面体内の空間を分割する空間分割手段と、
     前記オブジェクトの頂点が、分割された空間のうち、どの空間に含まれるかを判別する空間判別手段と、
     前記オブジェクトの頂点を含む空間を構成する3本のベクトルによって、前記オブジェクトの頂点の分解係数を保存する分解係数保存手段と、
     前記多面体に作用した変形操作に応じて、前記オブジェクトを変形させて表示する変形表示手段とを備えていることを特徴とする情報処理装置。
  7.  撮像装置で撮像された動画像を表示装置上に表示し、表示された動画像上に合成表示されたオブジェクトを操作する情報処理装置であって、
     前記撮像装置で撮像された動画像を構成する少なくとも2つのフレーム画像に基づいて、オプティカルフローを生成するオプティカルフロー生成手段と、
     前記オプティカルフロー生成手段で生成されたオプティカルフローから前記オブジェクトの表示位置における動きベクトルを検出する動きベクトル検出手段と、
     前記動きベクトル検出手段で検出された動きベクトルに基づいて、前記オブジェクトの操作を行うオブジェクト操作手段とを備えていることを特徴とする情報処理装置。
  8.  請求項7に記載の情報処理装置において、
     前記オブジェクトを操作する領域を選択する操作領域選択手段を備えていることを特徴とする情報処理装置。
  9.  請求項8に記載の情報処理装置において、
     前記操作領域選択手段で選択された領域にマスキングを行うマスキング手段を備えていることを特徴とする情報処理装置。
PCT/JP2015/058391 2014-03-28 2015-03-20 オブジェクトの操作方法、オブジェクトの操作プログラム、及び情報処理装置 WO2015146813A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/119,814 US10080963B2 (en) 2014-03-28 2015-03-20 Object manipulation method, object manipulation program, and information processing apparatus

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2014068752A JP6030594B2 (ja) 2014-03-28 2014-03-28 オブジェクトの変形操作方法、オブジェクトの変形操作プログラム、及び情報処理装置
JP2014-068752 2014-03-28
JP2014068753A JP2015191480A (ja) 2014-03-28 2014-03-28 情報処理装置、オブジェクトの操作方法、及びオブジェクトの操作プログラム
JP2014-068753 2014-03-28

Publications (1)

Publication Number Publication Date
WO2015146813A1 true WO2015146813A1 (ja) 2015-10-01

Family

ID=54195331

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/058391 WO2015146813A1 (ja) 2014-03-28 2015-03-20 オブジェクトの操作方法、オブジェクトの操作プログラム、及び情報処理装置

Country Status (2)

Country Link
US (1) US10080963B2 (ja)
WO (1) WO2015146813A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109583391A (zh) * 2018-12-04 2019-04-05 北京字节跳动网络技术有限公司 关键点检测方法、装置、设备及可读介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014073060A1 (ja) * 2012-11-07 2014-05-15 株式会社日立製作所 管理対象システムを管理するシステム及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07281666A (ja) * 1994-04-05 1995-10-27 Casio Comput Co Ltd 画像制御装置
JP2000196914A (ja) * 1998-10-13 2000-07-14 Sony Electronics Inc 動作検知インタ―フェ―ス
JP2001006003A (ja) * 1999-06-25 2001-01-12 Namco Ltd 画像生成システム及び情報記憶媒体
JP2005301479A (ja) * 2004-04-08 2005-10-27 Akinori Yoshino 投影された提示者の動作による命令入力装置
JP2007156950A (ja) * 2005-12-07 2007-06-21 Toyota Motor Corp 車両用操作装置
JP2009519552A (ja) * 2005-12-12 2009-05-14 株式会社ソニー・コンピュータエンタテインメント 相互対話的な電子的にシミュレートされた環境の音声および映像制御

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5168677A (en) * 1989-11-15 1992-12-08 Ernesto Daniel Gyurec Method of constructing flat building block modules from the union of two frustums by their congruent bases and slot connectors complement for a variety of constructive or amusing applications
JP3926866B2 (ja) * 1996-05-10 2007-06-06 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理方法、及び描画システム
US8836701B1 (en) * 1998-07-23 2014-09-16 Freedesign, Inc. Surface patch techniques for computational geometry
US6501515B1 (en) 1998-10-13 2002-12-31 Sony Corporation Remote control system
JP2001100906A (ja) 1999-09-30 2001-04-13 Suzuki Motor Corp 三次元データ表示装置
US6700586B1 (en) 2000-08-23 2004-03-02 Nintendo Co., Ltd. Low cost graphics with stitching processing hardware support for skeletal animation
JP4636741B2 (ja) * 2001-07-06 2011-02-23 任天堂株式会社 画像処理装置および立体形状表示プログラム
US7002574B2 (en) * 2002-12-27 2006-02-21 Microsoft Corporation Method and system for tessellating a polygon
JP4323180B2 (ja) 2003-02-13 2009-09-02 日本電信電話株式会社 自己画像表示を用いたインタフェース方法、装置、およびプログラム
JP4723799B2 (ja) 2003-07-08 2011-07-13 株式会社ソニー・コンピュータエンタテインメント 制御システムおよび制御方法
JP3847753B2 (ja) 2004-01-30 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US20050264554A1 (en) * 2004-05-25 2005-12-01 Deming James L Tile based rendering of smooth points using polygons
JP2006244272A (ja) 2005-03-04 2006-09-14 Nippon Telegr & Teleph Corp <Ntt> 手位置追跡方法、装置、およびプログラム
EP2613281B1 (en) 2006-12-29 2014-08-13 Qualcomm Incorporated Manipulation of virtual objects using enhanced interactive system
JP2009134693A (ja) 2007-10-30 2009-06-18 Canon Inc 画像処理装置、画像処理方法
JP5205187B2 (ja) 2008-09-11 2013-06-05 株式会社エヌ・ティ・ティ・ドコモ 入力システム及び入力方法
JP5513973B2 (ja) 2010-05-11 2014-06-04 日本放送協会 仮想力覚提示装置及び仮想力覚提示プログラム
JP5751775B2 (ja) 2010-09-01 2015-07-22 キヤノン株式会社 撮像装置、その制御方法及びプログラム並びに記録媒体
JP5774387B2 (ja) 2011-06-28 2015-09-09 京セラ株式会社 表示機器
JP2013101526A (ja) 2011-11-09 2013-05-23 Sony Corp 情報処理装置、表示制御方法、およびプログラム
US9350798B2 (en) * 2013-12-10 2016-05-24 Oracle International Corporation Methods and systems for transitioning between arbitrary shapes
JP6338929B2 (ja) * 2014-05-23 2018-06-06 東芝メモリ株式会社 レチクルマーク配置方法およびレチクルマーク配置プログラム
EP3001370A1 (en) * 2014-09-29 2016-03-30 Thomson Licensing Method and system for consistency checking

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07281666A (ja) * 1994-04-05 1995-10-27 Casio Comput Co Ltd 画像制御装置
JP2000196914A (ja) * 1998-10-13 2000-07-14 Sony Electronics Inc 動作検知インタ―フェ―ス
JP2001006003A (ja) * 1999-06-25 2001-01-12 Namco Ltd 画像生成システム及び情報記憶媒体
JP2005301479A (ja) * 2004-04-08 2005-10-27 Akinori Yoshino 投影された提示者の動作による命令入力装置
JP2007156950A (ja) * 2005-12-07 2007-06-21 Toyota Motor Corp 車両用操作装置
JP2009519552A (ja) * 2005-12-12 2009-05-14 株式会社ソニー・コンピュータエンタテインメント 相互対話的な電子的にシミュレートされた環境の音声および映像制御

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109583391A (zh) * 2018-12-04 2019-04-05 北京字节跳动网络技术有限公司 关键点检测方法、装置、设备及可读介质

Also Published As

Publication number Publication date
US20170056774A1 (en) 2017-03-02
US10080963B2 (en) 2018-09-25

Similar Documents

Publication Publication Date Title
US11262835B2 (en) Human-body-gesture-based region and volume selection for HMD
CN106355153B (zh) 一种基于增强现实的虚拟对象显示方法、装置以及***
US10678340B2 (en) System and method for providing user interface tools
JP4533087B2 (ja) 画像処理方法、画像処理装置
US8487871B2 (en) Virtual desktop coordinate transformation
CN110462555A (zh) 在层子区域上选择性地应用重投影处理以优化后期重投影功率
US11430192B2 (en) Placement and manipulation of objects in augmented reality environment
US20190102934A1 (en) Shadows for inserted content
US10359906B2 (en) Haptic interface for population of a three-dimensional virtual environment
WO2012177322A1 (en) Gesture-controlled technique to expand interaction radius in computer vision applications
JP2018147002A (ja) 画像処理プログラム、画像処理システム、画像処理装置および画像処理方法
US20120047466A1 (en) Information processing device, information processing method, and program
KR20150026396A (ko) 이미지를 합성하기 위한 방법 및 그 전자 장치
WO2015146813A1 (ja) オブジェクトの操作方法、オブジェクトの操作プログラム、及び情報処理装置
US20180059811A1 (en) Display control device, display control method, and recording medium
JP6030594B2 (ja) オブジェクトの変形操作方法、オブジェクトの変形操作プログラム、及び情報処理装置
JP2005100115A (ja) ゲームプログラム、及びゲーム装置
JP2015191480A (ja) 情報処理装置、オブジェクトの操作方法、及びオブジェクトの操作プログラム
JP2019101192A5 (ja)
CN114327174A (zh) 虚拟现实场景的显示方法、光标的三维显示方法和装置
CN109935318B (zh) 三维脉波的显示方法、装置、计算机设备及存储介质
US10553249B2 (en) Storage medium, information processing apparatus, information processing system and information processing method
JP5325253B2 (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
KR101091572B1 (ko) 복수 영상 투사를 위한 폐회로 기반의 인터랙티브 영상 투사 제어 장치 및 방법
JP6514386B1 (ja) プログラム、記録媒体及び画像生成方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15767759

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15119814

Country of ref document: US

NENP Non-entry into the national phase
122 Ep: pct application non-entry in european phase

Ref document number: 15767759

Country of ref document: EP

Kind code of ref document: A1