WO2022257742A1 - 虚拟对象的标记方法、装置及存储介质 - Google Patents

虚拟对象的标记方法、装置及存储介质 Download PDF

Info

Publication number
WO2022257742A1
WO2022257742A1 PCT/CN2022/094378 CN2022094378W WO2022257742A1 WO 2022257742 A1 WO2022257742 A1 WO 2022257742A1 CN 2022094378 W CN2022094378 W CN 2022094378W WO 2022257742 A1 WO2022257742 A1 WO 2022257742A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual object
scene
target virtual
information
virtual
Prior art date
Application number
PCT/CN2022/094378
Other languages
English (en)
French (fr)
Inventor
柴若冰
何龙
Original Assignee
腾讯科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 腾讯科技(深圳)有限公司 filed Critical 腾讯科技(深圳)有限公司
Priority to JP2023553001A priority Critical patent/JP2024514751A/ja
Publication of WO2022257742A1 publication Critical patent/WO2022257742A1/zh
Priority to US18/125,580 priority patent/US20230230315A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Definitions

  • FIG. 9A is a schematic diagram of an exemplary composition of a virtual object marking device 90 provided by an embodiment of the present application.
  • the first terminal 20 and the second terminal 30 can be implemented as electronic devices such as mobile phones, tablet computers, game consoles, e-book readers, multimedia playback devices, wearable devices, and PCs (Personal Computers, personal computers).
  • the device types of the first terminal 20 and the second terminal 30 are the same or different. There is no limit here.
  • the first terminal 20 and the second terminal 30 can install and run the application client of the above-mentioned application program, and display the scene picture of the virtual scene corresponding to the application program, for example, install and run the game application, and display the scene corresponding to the virtual scene of the corresponding game picture.
  • the application client may be a game client.
  • the game client can be a 3D game client or a 2D game client.
  • the embodiment of the present application discloses a method for marking a virtual object.
  • the "marking” involved here refers to corresponding to an application program, by setting the label information for the virtual object in the virtual scene displayed by a terminal, and sending the application program to run
  • the other at least one terminal shares the position of the virtual object, so that the player corresponding to the other at least one terminal can see the virtual object and determine the position of the virtual object.
  • “marking” refers to, corresponding to a game, sharing the position of the virtual object with at least one other terminal running the game by setting marking information for the virtual object in the virtual scene displayed by a terminal , so that the player corresponding to at least one other terminal can see the virtual object and determine the position of the virtual object. It should be pointed out that the players corresponding to the terminals sharing the virtual object form a game team.
  • the first terminal may be an electronic device for marking a virtual object in response to an operation.
  • the scene frame of the virtual scene may include a target virtual object, and the target virtual object is a virtual object to be marked in the virtual scene.
  • the target virtual object in the virtual scene may be a three-dimensional solid model.
  • the spherical wrapping area 42 formed with the center point of the target virtual object 41 as the center of the sphere and the above-mentioned set distance as the radius may be the aiming area of the target virtual object 41
  • other areas of the virtual scene 40 are, for example, non-targeting areas of the target virtual object 41 .
  • Step S103 in response to the touch operation on the description information, display the mark information of the target virtual object in the scene picture of the virtual scene, and the mark information is used to mark the position of the target virtual object in the virtual scene.
  • the description information of the target virtual object may be a control for the player to trigger the marking function.
  • the first terminal can receive the touch operation input by the player through the description information, and then, in response to the touch operation, display the target virtual object in the scene picture of the virtual scene
  • the marking information of the target virtual object is displayed, and the marking information is used to mark the position of the target virtual object in the virtual scene.
  • the touch operation includes a click operation, a double click operation or a long press operation.
  • the distance between the description information of the target virtual object and the target virtual object is less than or equal to the first distance. In this way, the control on the first terminal for receiving the touch operation is relatively close to the target virtual object, so that the player can input the touch operation without shifting sight, thereby optimizing the player's gaming experience.
  • the purpose of adding marking information to the target virtual object is to share the position of the target virtual object among clients running on multiple terminals.
  • the first terminal and at least one other terminal, such as the second terminal display the mark information in the scene picture of the virtual scene displayed.
  • An exemplary scene image displayed by the first terminal is shown in any interface schematic diagram in FIG. 6A to FIG. 7
  • an exemplary scene image displayed by the second terminal is shown in FIG. 8 .
  • the scene pictures including the tag information corresponding to the aforementioned terminals are all rendered by the server.
  • the first terminal may send a marking request to the server, and the marking request may include the identification of the target virtual object and the team corresponding to the game client running on the first terminal. logo.
  • the server may obtain at least one other client corresponding to the team identifier, scene images of each client, and terminals corresponding to each client. Afterwards, the server adds mark information to the virtual scene corresponding to each client according to the identification of the target virtual object, and then renders the scene picture corresponding to each client after adding the mark information, and sends each scene picture respectively to the corresponding terminal.
  • the following uses the first terminal as an example to describe implementations of marking information and displaying marking information.
  • the tag information may include at least one of the following: identification information of the target virtual object, attribute prompt information, and distance prompt information.
  • the identification information of the target virtual object is used to prompt the player what the target virtual object is, for example, the identification information may be the name of the target virtual object and/or an icon representing the form of the target virtual object.
  • the attribute prompting information is used to prompt the attribute information of the target virtual object, and the attribute prompting information may include at least one of the following, for example: the function and usage method of the target virtual object.
  • the distance prompt information is used to prompt the distance between the target virtual object and the first virtual object in the virtual scene.
  • the specific information of the tag information listed above is a schematic description, and does not constitute a limitation on the tag information in the technical solution.
  • the marking information involved in the embodiment of the present application may also include more or less information, which will not be described one by one in the embodiment of the present application.
  • the first terminal may dynamically display the marking information in the scene picture of the virtual scene.
  • the dynamic display of marker information in the scene picture of the virtual scene includes at least one of the following: dynamic display of icon description information of the target virtual object, and dynamic display of distance prompt information.
  • the first terminal may display the updated distance information between the first virtual object and the target virtual object in the corresponding scene picture in real time.
  • FIG. 6A illustrates an exemplary interface diagram of a scene screen displaying tag information.
  • the scene picture shown in FIG. 6A is, for example, updated from the scene picture shown in FIG. 5B .
  • the scene picture shown in FIG. 6A includes mark information 60 , text prompt information 61 and a first virtual object 62 .
  • the marking information 60 is used to mark the position of the target virtual object 51 in FIG. 6A , including identification information 601 , attribute prompt information 602 and distance prompt information 603 .
  • the identification information 601 is displayed in the form of a buoy, and the buoy always presents a dynamic effect of a circle expanding outward.
  • the content of the attribute prompt information 602 is, for example, "shield cell”, to remind that the attribute of the target virtual object 51 is a shield cell.
  • the content of the distance prompt information 603 is, for example, "11m (meters)", which indicates that the distance between the first virtual object 62 and the target virtual object 51 in the scene shown in FIG. 6A is 11 meters.
  • the text prompt information 61 for example, is displayed in the chat box contained in the scene picture shown in FIG. .
  • the first terminal controls the first virtual object 62 to move from the position in the scene picture shown in FIG. 6A to the position in the scene picture shown in FIG. 6B .
  • the scene picture shown in FIG. 6A is continuously updated to obtain the scene picture shown in FIG. 6B .
  • the scene picture shown in FIG. 6B includes mark information 63 , and the mark information 63 is used to mark the position of the target virtual object 51 in FIG. 6B .
  • the tag information 63 includes identification information 631 , attribute prompt information 632 and distance prompt information 633 .
  • the implementation of the identification information 631 is the same as that of the identification information 601 in FIG.
  • the content of the distance prompt information 633 is, for example, "15m", indicating that the distance between the first virtual object 62 and the target virtual object 51 in the scene shown in FIG. 6B is 15 meters.
  • the first terminal in any scene picture of the virtual scene, can always display the marker information at the designated relative position of the target virtual object. That is, regardless of the positional relationship between the first virtual object and the target virtual object, from the perspective of the first virtual object, the relative position between the marker information and the target virtual object remains unchanged.
  • the target virtual object 51 is located above the first virtual object 62 , and the identification information 601 is displayed at the upper left corner of the target virtual object 51 .
  • the identification information 601 is displayed at the upper right corner of the target virtual object 51 , for example.
  • Information may be displayed at a position on the lower side of the target virtual object 51 . This can ensure that from the perspective of the first virtual object 62 , the identification information is still displayed at the upper right corner of the target virtual object 51 in the scene picture of FIG. 7 .
  • the first terminal displays the description information of the target virtual object in the scene picture of the virtual scene in response to the aiming operation for the target virtual object in the scene picture of the displayed virtual scene. Further, in response to a touch operation on the description information, the first terminal displays the mark information of the target virtual object in the scene picture of the virtual scene. That is to say, when the virtual sight is aimed at the target virtual object, the first terminal displays the description information of the target virtual object to the player in the scene picture of the virtual scene, so that the player knows the information of the target virtual object aimed at, Furthermore, using the description information of the target virtual object as a function entry for the player to trigger the mark can enable the player to mark the target virtual object when the target virtual object is clearly known.
  • the following takes the second terminal as an example to describe the implementation forms of the scene screens of other clients of the corresponding game.
  • the scene picture displayed by the second terminal if the scene picture of the virtual scene displayed by the second terminal contains the target virtual object, the scene picture displayed by the second terminal including the tag information is the same as that shown in any one of Figures 6A to 7 . The scenes are similar, so I won’t repeat them here.
  • the second terminal displays mark information in the target position in the corresponding scene picture, and the target position indicates that the target virtual object is in the scene. The corresponding position in the screen.
  • FIG. 8 shows an exemplary interface diagram of a scene screen displayed by the second terminal.
  • the scene screen shown in FIG. 8 corresponds to, for example, the implementation scenarios shown in FIGS. 6A to 7 .
  • the scene picture shown in FIG. 8 includes mark information 70 , text prompt information 71 and a second virtual object 72 , but does not include the target virtual object.
  • the mark information 70 is at the upper left position of the scene picture shown in FIG. 8 , indicating that the target virtual object in the scene picture shown in FIG. 8 is located at the upper left position of the current scene.
  • the tag information 70 includes, for example, identification information, attribute prompt information, and distance prompt information.
  • the presentation forms of the identification information and the attribute prompt information are the same as those shown in any one of FIGS. 6A to 7 , and will not be repeated here.
  • the distance prompt information is used to indicate the distance between the second virtual object 72 and the target virtual object in the scene shown in FIG. 8 .
  • the text prompt information 71 is displayed, for example, in the chat box contained in the scene picture shown in FIG. 8 , and the content of the text prompt information 71 is, for example, "MC001 pinged loot: shield cell".
  • MC001 is, for example, the account name of the player of the first terminal, so as to prompt the operation information of the player teammate MC001 corresponding to the second terminal.
  • the second terminal can also dynamically display the marker information in the scene picture of the virtual scene. I won't repeat them here.
  • FIG. 5A to FIG. 8 are examples for illustrating the technical solution, and do not limit the virtual scene involved in the embodiment of the present application.
  • the virtual scenes displayed by the first terminal and the second terminal are flexibly displayed according to different games, and the scene pictures of the virtual scenes displayed by the first terminal and the second terminal can be different from those shown in Figures 5A to 8 The displayed scene screen.
  • the dynamic display effects of the first terminal and the second terminal may also be different from the display effects shown in FIGS. 5A to 8 .
  • the embodiment of the present application does not limit this.
  • the foregoing embodiments of the present application take a shooting game as an example to describe the method for marking a virtual object in the embodiment of the present application.
  • the virtual object marking method of the embodiment of the present application is not limited to shooting games, and this technical solution can also be used in other team battle games and games equipped with game props with various functions, and can achieve the same realization effect.
  • the embodiments of the present application are not described here one by one.
  • the first terminal in response to the aiming operation for the target virtual object in the scene picture of the virtual scene, the first terminal displays a description of the target virtual object in the scene picture of the virtual scene information. Further, in response to a touch operation on the description information, the first terminal displays marking information of the target virtual object in the scene picture of the virtual scene, where the marking information is used to mark a position of the target virtual object in the virtual scene.
  • the aiming operation is an aiming action of the first virtual object controlled by the first terminal using a virtual sight to target the virtual object.
  • the first terminal displays the description information of the target virtual object to the player in the scene picture of the virtual scene, so that the player knows the information of the target virtual object aimed at, Furthermore, using the description information of the target virtual object as a function entry for the player to trigger the mark can enable the player to mark the target virtual object when the target virtual object is clearly known. It can be seen that the technical solution of the embodiment of the present application can avoid the situation where the player misreads the game item and marks it incorrectly, so that the marked game item is the game item that the player wants to mark, thus avoiding the need for repeated revisions due to wrong marking The waste of hardware resources and network resources caused by marking.
  • the convenience of marking the target virtual object can be improved, and the operating efficiency of the device displaying the target virtual object can also be improved.
  • the marking information of the target virtual object can prompt the position of the target virtual object in the virtual scene, further improving user experience.
  • the embodiments of the present application may implement the above-mentioned functions in the form of hardware or a combination of hardware and computer software. Whether a certain function is executed by hardware or computer software drives hardware depends on the specific application and design constraints of the technical solution. Those skilled in the art may use different methods to implement the described functions for each specific application, but such implementation should not be regarded as exceeding the scope of the present application.
  • a virtual object marking device 90 may include a scene display module 901 , a first display module 902 and a second display module 903 .
  • the virtual object marking device 90 may be used to perform some or all of the operations of the first terminal in Fig. 3 to Fig. 8 above.
  • the scene picture display module 901 can be used to display the scene picture of the virtual scene.
  • the first picture presentation module 902 can be used to display the description information of the target virtual object in the scene picture of the virtual scene in response to the aiming operation for the target virtual object in the scene picture of the virtual scene.
  • the first virtual object is a virtual object controlled by the first terminal.
  • the second screen presentation module 903 may be configured to display marking information of the target virtual object in the scene screen of the virtual scene in response to a touch operation on the description information, and the marking information is used to mark the position of the target virtual object in the virtual scene.
  • the virtual object marking device 90 in the scene picture of the displayed virtual scene, in response to the aiming operation for the target virtual object in the scene picture of the virtual scene, in the scene picture of the virtual scene.
  • the description information of the target virtual object is displayed on the screen.
  • the mark information of the target virtual object is displayed in the scene picture of the virtual scene, and the mark information is used to mark the position of the target virtual object in the virtual scene.
  • the aiming operation is an aiming action of the first virtual object controlled by the virtual object marking device 90 using a virtual sight to target the virtual object.
  • the virtual object marking device 90 displays the description information of the target virtual object to the player in the scene picture of the virtual scene, so that the player knows the target virtual object to be aimed at. Further, using the description information of the target virtual object as a function entry for the player to trigger the mark can enable the player to mark the target virtual object when the target virtual object is clearly known. It can be seen that the technical solution of the embodiment of the present application can avoid the situation where the player misreads the game item and marks it wrongly, so that the marked game item is the game item that the player wants to mark, thus avoiding the need for repeated revisions due to wrong marking The waste of hardware resources and network resources caused by marking.
  • the convenience of marking the target virtual object can be improved, and the operating efficiency of the device displaying the target virtual object can also be improved.
  • the marking information of the target virtual object can prompt the position of the target virtual object in the virtual scene, further improving user experience.
  • the descriptive information includes at least one of the following:
  • the icon description information of the target virtual object where the icon description information includes an icon representing the shape of the target virtual object.
  • the first screen presentation module 902 is further configured to display description information within a first distance range from the target virtual object in the scene screen of the virtual scene.
  • the marking information includes at least one of the following:
  • Attribute prompt information used to prompt attribute information of the target virtual object
  • the distance prompt information is used to prompt the distance between the target virtual object and the first virtual object in the virtual scene.
  • the second screen presentation module 903 is further configured to dynamically display the tag information in the scene screen of the virtual scene.
  • the second screen presentation module 903 is further configured to display marker information at a designated relative orientation of the target virtual object in any scene screen of the virtual scene.
  • the second screen presentation module 903 is further configured to dynamically display icon description information of the target virtual object.
  • the second picture presentation module 903 is also used for any scene picture corresponding to the virtual scene, and as the first virtual object moves in the corresponding scene picture, real-time display of the first virtual object and the target virtual object in the corresponding scene picture Updated distance information.
  • the first screen presentation module 902 is further configured to display the descriptive information of the target virtual object in the scene screen of the virtual scene in response to the first virtual object using the virtual sight to aim at the target virtual object to meet the aiming condition .
  • the aiming condition includes: the distance between the crosshair position of the virtual sight and the display position of the target virtual object is less than or equal to a set distance.
  • the touch operation includes a click operation, a double-tap operation or a long press operation.
  • the division of the above modules is only a division of logical functions.
  • the functions of the above modules can be integrated into the hardware entity.
  • the function of the scene display module 901 can be integrated into the display.
  • Part of the functions of the first screen display module 902 and the second screen display module 903 may be integrated into the processor for implementation, and another part of the functions may be integrated into the display for implementation.
  • FIG. 9B illustrates an exemplary electronic device 91 .
  • the electronic device 91 can be used as the aforementioned first terminal, such as smart phones, tablet computers, MP3 players (Moving Picture Experts Group Audio Layer III, moving picture experts compression standard audio layer 3), MP4 (Moving Picture Experts Group Audio Layer IV , Motion Image Expert compresses the standard audio level 4) player, laptop or desktop computer.
  • the electronic device 91 may also be called user equipment, portable terminal, laptop terminal, desktop terminal and other names.
  • the electronic device 91 includes: a processor 911 and a memory 912 .
  • the processor 911 may include one or more processing cores, such as a 4-core processor, an 8-core processor, and the like.
  • Processor 911 can adopt at least one hardware form in DSP (Digital Signal Processing, digital signal processing), FPGA (Field-Programmable Gate Array, field programmable gate array), PLA (Programmable Logic Array, programmable logic array) accomplish.
  • the processor 911 may also include a main processor and a coprocessor, the main processor is a processor for processing data in the wake-up state, and is also called a CPU (Central Processing Unit, central processing unit); the coprocessor is Low-power processor for processing data in standby state.
  • CPU Central Processing Unit
  • the processor 911 may be integrated with a GPU (Graphics Processing Unit, image processor), and the GPU is used for rendering and drawing the content that needs to be displayed on the display screen.
  • the processor 911 may also include an AI (Artificial Intelligence, artificial intelligence) processor, where the AI processor is used to process computing operations related to machine learning.
  • AI Artificial Intelligence, artificial intelligence
  • Memory 912 may include one or more computer-readable storage media, which may be non-transitory.
  • the memory 912 may also include high-speed random access memory, and non-volatile memory, such as one or more magnetic disk storage devices and flash memory storage devices.
  • the non-transitory computer-readable storage medium in the memory 912 is used to store at least one instruction, and the at least one instruction is used to be executed by the processor 911 to realize the virtual object shown in the embodiment of the present application All or part of the steps in the labeling method.
  • the electronic device 91 may further include: a peripheral device interface 913 and at least one peripheral device.
  • the processor 911, the memory 912, and the peripheral device interface 913 may be connected through a bus or a signal line.
  • Each peripheral device can be connected to the peripheral device interface 913 through a bus, a signal line or a circuit board.
  • the peripheral device includes: at least one of a radio frequency circuit 914 , a display screen 915 , a camera component 916 , an audio circuit 917 , a positioning component 918 and a power supply 919 .
  • the peripheral device interface 913 may be used to connect at least one peripheral device related to I/O (Input/Output, input/output) to the processor 911 and the memory 912 .
  • the processor 911, the memory 912 and the peripheral device interface 913 can be integrated on the same chip or circuit board; in some other embodiments, any one of the processor 911, the memory 912 and the peripheral device interface 913 Or both may be implemented on a separate chip or circuit board, which is not limited in this embodiment of the present application.
  • the radio frequency circuit 914 is used to receive and transmit RF (Radio Frequency, radio frequency) signals, also called electromagnetic signals.
  • the display screen 915 is used to display a UI (User Interface, user interface).
  • the UI can include graphics, text, icons, video, and any combination thereof.
  • the UI includes the scene picture of the aforementioned virtual scene, as shown in any one of FIGS. 5A to 8 .
  • the display screen 915 is a touch display screen, the display screen 915 also has the ability to collect touch signals on or above the surface of the display screen 915 .
  • the touch signal may be input to the processor 911 as a control signal for processing, for example, the input signal corresponding to the touch operation involved in the foregoing embodiments.
  • the display screen 915 can also be used to provide virtual buttons and/or virtual keyboards, also called soft buttons and/or soft keyboards.
  • there can be one display screen 915 which is set on the front panel of the electronic device 91; in other embodiments, there can be at least two display screens 915, which are respectively arranged on different surfaces of the electronic device 91 or in a folding design
  • the display screen 915 can be a flexible display screen, which is set on the curved surface or the folded surface of the electronic device 91 . Even, the display screen 915 can also be set as a non-rectangular irregular figure, that is, a special-shaped screen.
  • the display screen 915 can be made of LCD (Liquid Crystal Display, liquid crystal display), OLED (Organic Light-Emitting Diode, organic light-emitting diode) and other materials.
  • Camera assembly 916 is used to capture images or video.
  • Audio circuitry 917 may include a microphone and speakers.
  • the positioning component 918 is used to locate the current geographic location of the electronic device 91, so as to realize navigation or LBS (Location Based Service, location-based service).
  • the power supply 919 is used to supply power to various components in the electronic device 91 .
  • the electronic device 91 further includes one or more sensors 920 .
  • the one or more sensors 920 include, but are not limited to: an acceleration sensor 921 , a gyro sensor 922 , a pressure sensor 923 , a fingerprint sensor 924 , an optical sensor 925 and a proximity sensor 926 .
  • the disclosed system, device and method can be implemented in other ways.
  • the device embodiments described above are only illustrative.
  • the division of the units is only a logical function division. In actual implementation, there may be other division methods.
  • multiple units or components can be combined or May be integrated into another system, or some features may be ignored, or not implemented.
  • the mutual coupling or direct coupling or communication connection shown or discussed may be through some interfaces, and the indirect coupling or communication connection of devices or units may be in electrical, mechanical or other forms.
  • each functional unit in each embodiment of the present application may be integrated into one processing unit, each unit may exist separately physically, or two or more units may be integrated into one unit.
  • the above-mentioned integrated units can be implemented in the form of hardware or in the form of software functional units.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本申请实施例涉及互联网技术领域,提供了一种虚拟对象的标记方法及装置。该方法由第一终端执行,包括:展示虚拟场景的场景画面,响应于针对虚拟场景的场景画面中目标虚拟对象的瞄准操作,在虚拟场景的场景画面中展示目标虚拟对象的描述信息。进而,响应于针对描述信息的触控操作,在虚拟场景的场景画面中展示目标虚拟对象的标记信息。

Description

虚拟对象的标记方法、装置及存储介质
本申请要求于2021年6月10日提交中国专利局、申请号为202110648470.9名称为“虚拟对象的标记方法及装置”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请实施例涉及互联网技术领域,尤其涉及一种虚拟对象的标记方法、装置及存储介质。
背景
团队对战类(以下简称团战)游戏目前广受玩家的欢迎。在团战游戏的一个游戏场景中,一个玩家发现一个游戏道具之后,通过标记该游戏道具向该玩家团队的其他玩家(即该玩家的队友)共享该游戏道具的位置。
技术内容
本申请实施例提供了一种虚拟对象的标记方法,该方法由第一终端执行,该方法包括:
展示虚拟场景的场景画面;
响应于针对虚拟场景的场景画面中目标虚拟对象的瞄准操作,在虚拟场景的场景画面中展示目标虚拟对象的描述信息,瞄准操作是第一虚拟对象采用虚拟瞄具对目标虚拟对象的瞄准动作,第一虚拟对象是第一终端控制的虚拟对象;
响应于针对描述信息的触控操作,在虚拟场景的场景画面中展示目标虚拟对象的标记信息,标记信息用于标记目标虚拟对象在虚拟场景中的位置。
本申请实施例还提供了一种虚拟对象标记装置,该装置应用于第一终端,该装置包括:
场景画面展示模块,用于展示虚拟场景的场景画面;
第一画面展示模块,用于响应于针对虚拟场景的场景画面中目标虚拟对象的瞄准操作,在虚拟场景的场景画面中展示目标虚拟对象的描述信息,瞄准操作是第一虚拟对象采用虚拟瞄具对目标虚拟对象的瞄准动作,第一虚拟对象是第一终端控制的虚拟对象;
第二画面展示模块,用于响应于针对描述信息的触控操作,在虚拟场景的场景画面中展示目标虚拟对象的标记信息,标记信息用于标记目标虚拟对象在虚拟场景中的位置。
本申请实施例提供了一种电子设备,用作第一终端,所述电子设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如第一方面所述的虚拟对象的标记方法。
本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如第一方面所述的虚拟对象的标记方法。
本申请实施例提供了一种计算机程序产品,计算机程序产品中包括计算机程序代码,当计算机程序代码在计算机上运行时,使得计算机实现第一方面所述的虚拟对象的标记方法。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍。应理解,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的标记游戏道具的示例性场景示意图;
图2为本申请实施例提供的游戏应用运行***的示例性架构示意图;
图3为本申请实施例提供的虚拟对象的标记方法的示例性方法流程示意图;
图4为本申请实施例提供的虚拟场景的示例性三维模型的场景示意图;
图5A为本申请实施例提供的展示描述信息的场景画面的示例性界面示意图;
图5B为本申请实施例提供的展示描述信息的场景画面的另一种示例性界面示意图;
图6A为本申请实施例提供的展示标记信息的场景画面的示例性界面示意图;
图6B为本申请实施例提供的展示标记信息的场景画面的另一种示例性界面示意图;
图7为本申请实施例提供的展示标记信息的场景画面的第三种示例性界面示意图;
图8为本申请实施例提供的展示标记信息的场景画面的第四种示例性界面示意图;
图9A为本申请实施例提供的虚拟对象的标记装置90的示例性组成示意图;
图9B为本申请实施例提供的电子设备91的示例性结构示意图。
实施方式
下面结合本申请实施例中的附图,对本申请实施例的技术方案进行描述。
本申请以下实施例中所使用的术语是为了描述特定实施例的目的,而并非旨在作为对本申请技术方案的限制。如在本申请的说明书和所附权利要求书中所使用的那样,单数表达形式“一个”、“一种”、“所述”、“上述”、“该”和“这一”旨在也包括复数表达形式,除非其上下文中明确地有相反指示。
下面对本申请实施例涉及的相关技术进行说明。
1、虚拟场景
虚拟场景是游戏应用在终端上运行时显示(或提供)的虚拟的场景。该虚拟场景可以是对真实世界的仿真环境场景,也可以是半仿真半虚构的三维环境场景,还可以是纯虚构的三维环境场景。虚拟场景可以是二维虚拟场景、2.5维虚拟场景和三维虚拟场景中的任意一种。在一些实施例中,虚拟场景中可以包含虚拟对象。
2、虚拟对象
虚拟对象是指在虚拟场景中的可活动对象。该可活动对象可以是虚拟人物、虚拟动物、虚拟载具、虚拟物品中的至少一种。在一些实施例中,当虚拟场景为三维虚拟场景时,虚拟对象是基于动画骨骼技术创建的三维立体模型。每个虚拟对象在三维虚拟场景中具有自身的形状、体积以及朝向,并占据三维虚拟场景中的一部分空间。
虚拟场景的场景画面可以随该虚拟场景对应的终端所控制的虚拟对象的活动不断更新。虚拟场景的场景画面可以是相应虚拟对象视角下的画面。虚拟对象的活动可以包括:调整身体姿态、爬行、步行、奔跑、骑行、飞行、跳跃、使用虚拟瞄具瞄准、射击、驾驶、拾取、攻击、投掷和释放技能等。
在一些实施例中,在游戏应用运行过程中,虚拟场景可以由服务器渲染生成,然后,发送到终端中,由终端的硬件(比如屏幕)进行展示。
参见图1,图1示出了一种常用的标记游戏道具的方法,该方法在通过虚拟准心瞄准一个游戏道具01之后,玩家通过点击标识图标02标记该游戏道具。然而,游戏场景中包含多个游戏道具,使得玩家容易看错所瞄准的游戏道具,从而造成标记错误,即玩家实际标记的游戏道具,并非玩家想要标记的游戏道具,进而,造成玩家的游戏体验较差。
本申请实施例提供了一种虚拟对象的标记方法,不仅可以避免标记错误,还提高了对目标虚拟对象标记的便捷性。
请参考图2,图2为本申请实施例提供的适用于本申请实施例的虚拟对象的标记方法的虚拟对象标记***的示例性架构示意图。该虚拟对象标记***可以是运行游戏的游戏应用运行***。该虚拟对象标记******包括:服务器10、第一终端20和第二终端30。
可以理解的是,图2仅是示意性描述,对本申请实施例涉及的虚拟对象标记***不构成限制。实际实现中,本申请实施例涉及的虚拟对象标记***还可以包括更多或者更少的设备。本申请实施例对此不限制。
服务器10可以包括一台服务器、多台服务器组成的服务器集群、云计算平台和虚拟化中心中 的至少一种。服务器10可以用于运行应用程序,例如游戏应用,为应用程序的运行提供计算资源,以及处理游戏所有配置、参数相关的逻辑,包括为应用程序的运行提供数据库、函数、存储、网络服务、通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等计算服务。例如,服务器10可以接收来自终端的操作请求,根据相应操作请求对应用程序执行相应操作事件,并渲染应用程序对应的各个三维虚拟环境,以及将渲染的各个虚拟环境发送给相应终端,以使相应终端展示相应虚拟环境。
第一终端20和第二终端30可以实现为诸如手机、平板电脑、游戏主机、电子书阅读器、多媒体播放设备、可穿戴设备、PC(Personal Computer,个人计算机)等电子设备。第一终端20和第二终端30的设备类型相同或不同。此处不限制。第一终端20和第二终端30中可以安装运行上述应用程序的应用客户端,以及展示该应用程序对应的虚拟场景的场景画面,例如安装运行游戏应用,并展示相应游戏对应的虚拟场景的场景画面。在实际实施场景中,应用客户端可以是游戏客户端。该游戏客户端可以为三维游戏客户端或二维游戏客户端。若该游戏客户端为二维游戏客户端,那么,终端展示的虚拟场景的场景画面中的虚拟对象可以是二维模型。若该游戏客户端为三维游戏客户端,终端展示的虚拟场景的场景画面中的虚拟对象可以是三维模型。本说明书下述实施例以虚拟场景是三维虚拟场景为例进行说明。
第一终端20和第二终端30所展示的虚拟场景由服务器10渲染并分别发送。在一些实施例中,第一终端20和第二终端30可以通过不同的应用客户端,展示同一应用程序的相同或者不同的虚拟场景,例如,通过不同的游戏客户端,展示同一游戏的相同或者不同的虚拟场景。基于此,第一终端20展示的虚拟场景和第二终端30展示的虚拟场景可以属于同一种类。例如,第一终端20展示的虚拟场景和第二终端30展示的虚拟场景可以是一种射击游戏对应的不同虚拟场景。
示例性的,第一终端20例如是第一玩家201使用的终端,第一玩家201可以使用第一终端20控制位于虚拟场景中的第一虚拟角色进行活动。在此期间,第一终端20向第一玩家201展示第一虚拟角色视角的场景画面。第二终端30是第二玩家301使用的终端,第二玩家301可以使用第二终端30控制位于虚拟场景中的第二虚拟角色进行活动。在此期间,第二终端30向第二玩家301展示第二虚拟角色视角的场景画面。第一虚拟角色和第二虚拟角色可以是第一虚拟人物,比如仿真人物或动漫人物,也可以是虚拟物体,比如,方块或弹珠。
在一些实施例中,第一终端20和第二终端30中的任一终端,在接收到相应玩家的操作之后,可以向服务器10发送相应操作对应的请求信息,以使服务器10执行相应操作对应的事件,以及渲染得到相应的场景画面。
在一些实施例中,服务器10和第一终端20之间,以及服务器10和第二终端30之间,可以通过有线网络或无线网络直接或间接地连接,本申请实施例对此不作限定。
需要指出的是,图2是逻辑功能层面的示意,在实际实现中,服务器10可以包括至少一个服务器设备实体,且第一终端20和第二终端30可以是服务器10所连接的若干终端设备实体中的任意两个终端设备实体。本申请实施例此处不再详述。
本申请实施例公开了一种虚拟对象的标记方法,这里涉及的“标记”是指,对应一个应用程序,通过为一个终端所展示虚拟场景中的虚拟对象设置标记信息,并向运行该应用程序的其他至少一个终端共享该虚拟对象的位置,以使其他至少一个终端对应的玩家能够看到该虚拟对象,以及确定该虚拟对象的位置。当该应用程序为游戏应用时,“标记”是指,对应一个游戏,通过为一个终端所展示虚拟场景中的虚拟对象设置标记信息,向运行该游戏的其他至少一个终端共享该虚拟对象的位置,以使其他至少一个终端对应的玩家能够看到该虚拟对象,以及确定该虚拟对象的位置。需要指出的是,共享该虚拟对象的终端对应的玩家组成一个游戏团队。
下面通过对几个示例性实施方式的描述,对本申请实施例的技术方案以及本申请的技术方案产生的技术效果进行说明。
请参考图3,本申请实施例提供了一种示例性虚拟对象的标记方法。本实施例以第一终端执行该方法为例,以第一终端上运行的应用程序为游戏应用为例进行说明,该第一终端运行有游戏应用的客户端,且展示该游戏应用的虚拟场景的场景画面。该第一终端例如可以实现为图2示意的第一终端20。该方法可以通过以下步骤实现。
步骤S101,展示虚拟场景的场景画面。
本示例中,虚拟场景的场景画面是第一终端所展示的场景画面。该虚拟场景是第一终端运行的游戏客户端的虚拟环境,该虚拟场景的场景画面例如是使用该第一终端的玩家视角下的游戏场景画 面。
示例性的,该第一终端可以是响应操作来对虚拟对象进行标记的电子设备。基于此,在一些实施例中,该虚拟场景的场景画面中可以包括目标虚拟对象,该目标虚拟对象为该虚拟场景中待标记的虚拟对象。
步骤S102,响应于针对虚拟场景的场景画面中目标虚拟对象的瞄准操作,在虚拟场景的场景画面中展示目标虚拟对象的描述信息。
本申请实施例涉及的虚拟场景中还可以包括虚拟瞄具,在游戏过程中,第一终端可以控制虚拟对象使用该虚拟瞄具对虚拟场景中的其他虚拟对象执行瞄准动作。为了便于区分,这里将第一终端所控制的虚拟对象称为第一虚拟对象。进一步的,本方案中,针对虚拟场景的场景画面中目标虚拟对象的瞄准操作,即第一虚拟对象采用虚拟瞄具对目标虚拟对象进行瞄准的操作动作。在一些实施例中,采用虚拟瞄具执行瞄准动作,是指控制虚拟瞄具的准心对准待瞄准的虚拟对象。
示例性的,虚拟瞄具可以是用于对虚拟对象进行瞄准的虚拟器具,例如是射击类游戏中的虚拟枪械。虚拟瞄具的准心在虚拟场景的场景画面中,例如可以表示为红色圆点,再如还可以表示为十字的重点(如图5A或图5B中所示)。
结合前述实施例的描述可知,第一终端接收玩家输入的操作之后,向服务器发送对应的操作请求,以使服务器对游戏执行相应操作事件,并渲染得到执行相应操作事件之后的虚拟场景的场景画面。本示例中,第一终端可以向服务器上报虚拟瞄具的准心位置,以使服务器检测虚拟瞄具的准心是否满足瞄准目标虚拟对象的瞄准条件。若虚拟瞄具的准心满足瞄准目标虚拟对象的瞄准条件,服务器渲染得到显示描述信息的场景画面,以使第一终端在虚拟场景的场景画面中展示目标虚拟对象的描述信息。在一些实施例中,前述瞄准条件可以包括:虚拟瞄具的准心位置与目标虚拟对象的显示位置之间的距离小于或等于设定距离。
一些实施方式中,虚拟瞄具的准心位置与目标虚拟对象的显示位置之间的距离可以是:虚拟瞄具的准心在目标平面上的正投影,与目标虚拟对象的中心点在该目标平面上的正投影之间的距离。在一些实施例中,该目标平面可以为虚拟场景中的地面。另一些实施方式中,虚拟瞄具的准心位置与目标虚拟对象的显示位置之间的距离可以是:虚拟瞄具的准心与目标虚拟对象的中心点,在三维空间内任意方位之中的距离。
以虚拟场景是三维环境场景为例,那么,该虚拟场景之内的目标虚拟对象可以是三维立体模型。进一步的,如图4所示的示例性虚拟场景40,以目标虚拟对象41的中心点为球心,以上述设定距离为半径形成的球形包裹区域42,可以是目标虚拟对象41的瞄准区域,虚拟场景40的其他区域例如是目标虚拟对象41的非瞄准区域。当虚拟瞄具的准心43位于区域42的范围之内时,则确定虚拟瞄具的准心位置与目标虚拟对象41的显示位置满足瞄准条件,即目标虚拟对象41被选中,服务器渲染得到图5A或者图5B示意的场景画面。当虚拟瞄具的准心43位于区域42的范围之外时,则确定虚拟瞄具的准心位置与目标虚拟对象41的显示位置不满足瞄准条件,即目标虚拟对象41未被选中。
采用本实现方式,将以目标虚拟对象为中心的球形区域作为瞄准区域,能够放大对目标虚拟对象的瞄准区域。这样,在第一终端的屏幕相对较小(例如第一终端是手机)的场景中,玩家能够更加方便准确的瞄准目标虚拟对象,不仅避免了由于瞄准错误而需要反复瞄准而导致的硬件资源和网络资源的浪费,还能够优化玩家的游戏体验。
本申请实施例中,目标虚拟对象的描述信息包括以下至少一项:目标虚拟对象的文字描述信息和目标虚拟对象的图标描述信息。其中,目标虚拟对象的描述信息旨在提示玩家目标虚拟对象是什么。基于此,在一些实施例中,目标虚拟对象的文字描述信息可以包括目标虚拟对象的名称。目标虚拟对象的图标描述信息包括表征目标虚拟对象形态的图标。
示例性的,目标虚拟对象的文字描述信息例如可以以文本框的方式呈现,例如图5A示意的场景画面所示。目标虚拟对象的图标描述信息例如可以以浮标的方式呈现,例如图5B示意的场景画面所示。“浮标”可以是悬浮图标的简称,浮标的图层可以在场景画面图层之上。
例如,请参考图5A,图5A示意了一种展示描述信息的场景画面的示例性场景界面。如图5A所示,场景画面50中虚拟瞄具的准心瞄准目标虚拟对象51,目标虚拟对象51例如是小电池。在目标虚拟对象51的上方包括文本框52,文本框52中的文字内容为“小电池”。该文本框52以及文字内容“小电池”构成目标虚拟对象51的文字描述信息。进一步的,为了明确文本框52与目标虚拟对象51的关系,图5A中文本框52与目标虚拟对象51通过线条53相连。
再如,请参考图5B,图5B示意了一种展示描述信息的场景画面的另一种示例性场景界面。 本示例中,目标虚拟对象51的上方展示的是浮标54,浮标54中包括形态为小电池的图标。浮标54构成目标虚拟对象51的图标描述信息。
可以理解的是,图5A和图5B仅是示意性描述,对本申请实施例的虚拟场景不构成限制。实际实现中,目标虚拟对象的描述信息还可以以其他形式呈现。另外,描述信息与目标虚拟对象的位置关系也可以是其他形式,例如,描述信息可以在目标虚拟对象的位置的右上方显示。本申请实施例对此不限制。
可见,采用本实现方式,在第一终端控制的第一虚拟对象采用虚拟瞄具瞄准目标虚拟对象的情况下,第一终端在虚拟场景的场景画面中,向玩家展示目标虚拟对象的描述信息,从而使玩家准确的获知所瞄准的目标虚拟对象是什么,进而,能够规避所标记的虚拟对象不是想要标记的虚拟对象的情况而导致的硬件资源和网络资源的浪费。
步骤S103,响应于针对描述信息的触控操作,在虚拟场景的场景画面中展示目标虚拟对象的标记信息,标记信息用于标记目标虚拟对象在虚拟场景中的位置。
本申请实施例中,目标虚拟对象的描述信息可以是玩家触发标记功能的控件。基于此,在虚拟场景的场景画面中展示目标虚拟对象的描述信息之后,第一终端可以接收玩家通过描述信息输入的触控操作,进而,响应于该触控操作,在虚拟场景的场景画面中展示目标虚拟对象的标记信息,标记信息用于标记目标虚拟对象在虚拟场景中的位置。在一些实施例中,该触控操作包括点击操作、双击操作或者长按操作。
例如,当第一终端展示图5A示意的场景画面时,第一终端可以接收玩家点击文本框52操作。进而,第一终端可以响应该点击操作,更新图5A示意的场景画面,得到包含标记信息的场景画面。再如,当第一终端展示图5B示意的场景画面时,第一终端可以接收玩家点击浮标54操作。进而,第一终端可以响应该点击操作,例如将图5B示意的场景画面更新为图6A示意的场景画面。
一些实施方式中,如图5A和图5B中任一图示所示,在虚拟场景的场景画面中,目标虚拟对象的描述信息与目标虚拟对象的距离小于或者等于第一距离。这样,第一终端接收触控操作的控件与目标虚拟对象距离相对较近,使得玩家无需转移视线即可输入触控操作,从而能够优化玩家的游戏体验。
根据前述对“标记”的描述可知,为目标虚拟对象添加标记信息的目的在于,在多个终端所运行的客户端之间共享目标虚拟对象的位置。基于此,第一终端接收到玩家对描述信息的触控操作之后,该第一终端以及其他至少一个终端,例如第二终端,所展示的虚拟场景的场景画面中,均展示标记信息。该第一终端所展示的示例性场景画面如图6A至图7中的任一界面示意图所示,第二终端所展示的示例性场景画面如图8所示。
实际实现过程中,前述各个终端对应的包含标记信息的场景画面,均由服务器渲染得到。示例性的,第一终端接收到玩家对描述信息的触控操作之后,可以向服务器发送标记请求,该标记请求中可以包含目标虚拟对象的标识以及第一终端运行的游戏客户端所对应的团队标识。进而,服务器可以获取与该团队标识对应的其他至少一个客户端、各个客户端的场景画面、以及各个客户端对应的终端。之后,服务器根据目标虚拟对象的标识,为每个客户端对应的虚拟场景添加标记信息,然后,分别渲染得到每个客户端对应的添加标记信息后的场景画面,并将每个场景画面分别发送到相应终端。
下面以第一终端为例,对标记信息和展示标记信息的实施方式进行说明。
在一些实施例中,标记信息可以包括以下至少一项:目标虚拟对象的标识信息、属性提示信息和距离提示信息。目标虚拟对象的标识信息用于提示玩家目标虚拟对象是什么,该标识信息例如可以是目标虚拟对象的名字和/或表征目标虚拟对象形态的图标。属性提示信息用于提示目标虚拟对象的属性信息,属性提示信息例如可以包括以下至少一项:目标虚拟对象的作用、使用方法等。距离提示信息用于提示目标虚拟对象与第一虚拟对象在虚拟场景中的距离。
可以理解的是,以上列举的标记信息的具体信息均是示意性描述,不构成对本技术方案中标记信息的限制。在其他一些实施方式中,本申请实施例涉及的标记信息还可以包含更多或者更少的信息,本申请实施例不再一一说明。
另一些实施方式中,第一终端在虚拟场景的场景画面中展示标记信息的过程中,还可以在虚拟场景的场景画面中展示文本提示信息,该文本提示信息的内容可以是“你标记了xx”或者“You pinged loot:xx”。这里的“xx”可以是目标虚拟对象在游戏中的名称,“xx”例如是“小电池”。
一些实施方式中,第一终端可以在虚拟场景的场景画面中动态显示标记信息。示例性的,在虚拟场景的场景画面中动态显示标记信息,包括以下至少一项:动态显示目标虚拟对象的图标描述信 息,和动态显示距离提示信息。例如,对应虚拟场景的任一场景画面,随着第一虚拟对象在相应场景画面之中移动,第一终端可以实时展示第一虚拟对象与目标虚拟对象在相应场景画面中更新后的距离信息。
请参考图6A,图6A示意了展示标记信息的场景画面的一种示例性界面示意图。图6A示意的场景画面例如从图5B示意的场景画面更新得到。图6A示意的场景画面中包括标记信息60、文本提示信息61和第一虚拟对象62。标记信息60用于标记图6A中目标虚拟对象51的位置,包括标识信息601、属性提示信息602和距离提示信息603。标识信息601以浮标的形式展示,且该浮标始终呈现圆圈外扩的动态效果。属性提示信息602的内容例如是“shield cell”,以提示目标虚拟对象51的属性是盾电池。距离提示信息603的内容例如是“11m(米)”,以提示图6A示意的场景中第一虚拟对象62与目标虚拟对象51的距离是11米。另外,文本提示信息61例如在图6A示意的场景画面所包含的聊天框内展示,文本提示信息61的内容例如是“You pinged loot:shield cell”,以提示第一终端对应的玩家的操作信息。
进一步的,在图6A示意的虚拟场景的场景画面的基础上,第一终端可以响应玩家的操作,控制第一虚拟对象62在虚拟场景中移动位置。在此过程中,虚拟场景的场景画面随着第一虚拟对象62的移动不断更新,且标记信息60中距离提示信息603的内容也随着第一虚拟对象62的移动不断更新。
例如,在图6A示意的场景画面的基础上,第一终端控制第一虚拟对象62从图6A示意的场景画面中的位置,移动到了图6B示意的场景画面中的位置。相应的,图6A示意的场景画面经过不断更新得到图6B示意的场景画面。图6B示意的场景画面中包括标记信息63,标记信息63用于标记图6B中目标虚拟对象51的位置。标记信息63包括标识信息631、属性提示信息632和距离提示信息633。其中,标识信息631的实施方式与图6A中的标识信息601的实施方式相同,属性提示信息632的实施方式与图6A中的属性提示信息602的实施方式相同,此处不再详述。距离提示信息633的内容例如是“15m”,指示图6B示意的场景中第一虚拟对象62与目标虚拟对象51的距离是15米。
可以理解的是,图6A和图6B仅是示意性描述,对本申请实施例的标记信息的展示方式不构成限制。在其他一些实施方式中,标记信息还可以以其他动态形式进行展示。本申请实施例对此不限制。
另一些实施方式中,为了进一步优化玩家的游戏体验,在虚拟场景的任意场景画面中,第一终端可以始终保持在目标虚拟对象的指定相对方位显示标记信息。即,无论第一虚拟对象与目标虚拟对象的位置关系如何,从第一虚拟对象的视角看去,标记信息与目标虚拟对象的相对位置,始终不变。
例如,请再次参考图6A,从玩家视角看去,图6A示意的场景画面中,目标虚拟对象51位于第一虚拟对象62之上,标识信息601在目标虚拟对象51左上角的位置显示。从第一虚拟对象62的视角看去,标识信息601例如在目标虚拟对象51右上角的位置显示。当图6A的场景画面更新为图7的场景画面之后,参考图7,从玩家视角看去,图7示意的场景画面中,第一虚拟对象62位于目标虚拟对象51之左,图7中标识信息可以在目标虚拟对象51的下侧的位置显示。这样可以保证从第一虚拟对象62的视角看去,图7的场景画面中,标识信息依然在目标虚拟对象51右上角的位置显示。
可见,采用本实现方式,第一终端响应于针对所展示虚拟场景的场景画面中目标虚拟对象的瞄准操作,在虚拟场景的场景画面中展示目标虚拟对象的描述信息。进一步的,响应于针对描述信息的触控操作,第一终端在虚拟场景的场景画面中展示目标虚拟对象的标记信息。也就是说,在虚拟瞄具瞄准目标虚拟对象的情况下,第一终端在虚拟场景的场景画面中,向玩家展示目标虚拟对象的描述信息,从而使玩家获知所瞄准的目标虚拟对象的信息,进一步的,将目标虚拟对象的描述信息作为玩家触发标记的功能入口,能够使得玩家在清楚的获知目标虚拟对象的情况下,标记该目标虚拟对象。这样,能够规避由于玩家看错游戏道具而标记错误的情况,使得所标记的游戏道具即为玩家想要标记的游戏道具,这样避免了由于标记错误而需要反复修改标记而导致的硬件资源和网络资源的浪费。另外,通过响应于针对描述信息的操作,对目标虚拟对象进行标记,能够提升对目标虚拟对象进行标记的便捷性,还提高了显示目标虚拟对象的设备的运行效率。同时目标虚拟对象的标记信息可提示目标虚拟对象在虚拟场景中的位置,进一步提升用户体验。
图5A至图7均是第一终端所展示的虚拟场景的场景界面。在实际实施过程中,第一终端响应玩家对描述信息的触控操作之后,相应游戏在其他终端的场景界面中同样展示标记信息,且其中任 一终端所展示的标记信息用于标记该终端的场景画面中目标虚拟对象的位置,从而实现对目标虚拟对象位置的共享。
下面以第二终端为例,对相应游戏其他客户端的场景画面的实现形式进行说明。
一些实施方式中,若第二终端所展示的虚拟场景的场景画面中包含目标虚拟对象,第二终端所展示的包含标记信息的场景画面,与图6A至图7中任一附图所展示的场景画面相似,此处不在赘述。另一些实施方式中,若第二终端所展示的虚拟场景的场景画面中不包含目标虚拟对象,第二终端在相应场景画面之中的目标方位显示标记信息,该目标方位指示目标虚拟对象在场景画面之中对应的方位。
例如,请参考图8,图8示意了第二终端所展示的场景画面的示例性界面示意图。图8示意的场景画面例如与前述图6A至图7示意的实施场景对应。图8示意的场景画面中包括标记信息70、文本提示信息71和第二虚拟对象72,但不包含目标虚拟对象。本示例中,标记信息70在图8示意的场景画面的左上方位,指示图8示意的场景画面中目标虚拟对象位于当前场景的左上方位。标记信息70例如包括标识信息、属性提示信息和距离提示信息。标识信息和属性提示信息的展示形式与图6A至图7中任一所示的相同,此处不再赘述。距离提示信息用于指示图8示意的场景中第二虚拟对象72与目标虚拟对象的距离。另外,图8中,文本提示信息71例如在图8示意的场景画面所包含的聊天框内展示,文本提示信息71的内容例如是“MC001pinged loot:shield cell”。其中,MC001例如是第一终端的玩家的帐户名,以提示第二终端对应的玩家队友MC001的操作信息。
需要指出的是,第二终端也可以在虚拟场景的场景画面中动态显示标记信息,第二终端动态显示标记信息的实现方式与第二终端动态显示标记信息的实现方式相似,本申请实施例此处不再赘述。
可以理解的是,前述图5A至图8均是为了说明本技术方案所列举的示例,对本申请实施例涉及的虚拟场景不构成限制。在实际实现中,第一终端和第二终端所展示的虚拟场景随不同的游戏灵活展示,第一终端和第二终端所展示的虚拟场景的场景画面,均可以不同于图5A至图8所展示的场景画面。另外,第一终端和第二终端的动态展示效果,同样可以不同于图5A至图8示意的展示效果。本申请实施例对此不限制。
此外,本申请前述实施例以射击类游戏为例,对本申请实施例的虚拟对象标记方法进行的说明。但是本申请实施例的虚拟对象标记方法不限于射击类游戏,在其他团战类游戏,且配置有各种功能的游戏道具的游戏中,本技术方案同样使用,且能够达到同样的实现效果。本申请实施例此处不再一一举例。
综上,在第一终端所展示的虚拟场景的场景画面中,响应于针对该虚拟场景的场景画面中目标虚拟对象的瞄准操作,第一终端在虚拟场景的场景画面中展示目标虚拟对象的描述信息。进一步的,响应于针对描述信息的触控操作,第一终端在虚拟场景的场景画面中展示目标虚拟对象的标记信息,该标记信息用于标记目标虚拟对象在虚拟场景中的位置。其中,瞄准操作是第一终端控制的第一虚拟对象采用虚拟瞄具对目标虚拟对象的瞄准动作。也就是说,在虚拟瞄具瞄准目标虚拟对象的情况下,第一终端在虚拟场景的场景画面中,向玩家展示目标虚拟对象的描述信息,从而使玩家获知所瞄准的目标虚拟对象的信息,进一步的,将目标虚拟对象的描述信息作为玩家触发标记的功能入口,能够使得玩家在清楚的获知目标虚拟对象的情况下,标记该目标虚拟对象。可见,本申请实施例的技术方案,能够规避由于玩家看错游戏道具而标记错误的情况,使得所标记的游戏道具即为玩家想要标记的游戏道具,这样避免了由于标记错误而需要反复修改标记而导致的硬件资源和网络资源的浪费。另外,通过响应于针对描述信息的操作,对目标虚拟对象进行标记,能够提升对目标虚拟对象进行标记的便捷性,还提高了显示目标虚拟对象的设备的运行效率。同时目标虚拟对象的标记信息可提示目标虚拟对象在虚拟场景中的位置,进一步提升用户体验。
上述实施例从描述信息的展示、标记信息的展示等终端所执行动作的角度,对本申请实施例提供的虚拟对象的标记方法的各实施方式进行了介绍。应理解,对应描述信息的展示、标记信息的展示等的处理步骤,本申请实施例可以以硬件或硬件和计算机软件的结合形式来实现上述功能。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
例如,若上述实现步骤通过软件模块来实现相应的功能,如图9A所示,提供了一种虚拟对象的标记装置90。虚拟对象的标记装置90可以包括场景画面展示模块901、第一画面展示模块902和第二画面展示模块903。该虚拟对象的标记装置90可用于执行上述图3至图8中第一终端的部 分或全部操作。
例如:场景画面展示模块901可以用于展示虚拟场景的场景画面。第一画面展示模块902可以用于响应于针对虚拟场景的场景画面中目标虚拟对象的瞄准操作,在虚拟场景的场景画面中展示目标虚拟对象的描述信息,瞄准操作是第一虚拟对象采用虚拟瞄具对目标虚拟对象的瞄准动作,第一虚拟对象是第一终端控制的虚拟对象。第二画面展示模块903可以用于响应于针对描述信息的触控操作,在虚拟场景的场景画面中展示目标虚拟对象的标记信息,标记信息用于标记目标虚拟对象在虚拟场景中的位置。
由此可见,本申请实施例提供的虚拟对象的标记装置90,在所展示的虚拟场景的场景画面中,响应于针对该虚拟场景的场景画面中目标虚拟对象的瞄准操作,在虚拟场景的场景画面中展示目标虚拟对象的描述信息。进一步的,响应于针对描述信息的触控操作,在虚拟场景的场景画面中展示目标虚拟对象的标记信息,该标记信息用于标记目标虚拟对象在虚拟场景中的位置。其中,瞄准操作是虚拟对象的标记装置90控制的第一虚拟对象采用虚拟瞄具对目标虚拟对象的瞄准动作。也就是说,在虚拟瞄具瞄准目标虚拟对象的情况下,虚拟对象的标记装置90在虚拟场景的场景画面中,向玩家展示目标虚拟对象的描述信息,从而使玩家获知所瞄准的目标虚拟对象的信息,进一步的,将目标虚拟对象的描述信息作为玩家触发标记的功能入口,能够使得玩家在清楚的获知目标虚拟对象的情况下,标记该目标虚拟对象。可见,本申请实施例的技术方案,能够规避由于玩家看错游戏道具而标记错误的情况,使得所标记的游戏道具即为玩家想要标记的游戏道具,这样避免了由于标记错误而需要反复修改标记而导致的硬件资源和网络资源的浪费。另外,通过响应于针对描述信息的操作,对目标虚拟对象进行标记,能够提升对目标虚拟对象进行标记的便捷性,还提高了显示目标虚拟对象的设备的运行效率。同时目标虚拟对象的标记信息可提示目标虚拟对象在虚拟场景中的位置,进一步提升用户体验。
在一些实施例中,描述信息包括以下至少一项:
目标虚拟对象的文字描述信息;
目标虚拟对象的图标描述信息,图标描述信息包括表征目标虚拟对象形态的图标。
在一些实施例中,第一画面展示模块902还用于在虚拟场景的场景画面中距离目标虚拟对象的第一距离范围内展示描述信息。
在一些实施例中,标记信息包括以下至少一项:
目标虚拟对象的标识信息;
属性提示信息,用于提示目标虚拟对象的属性信息;
距离提示信息,用于提示目标虚拟对象与第一虚拟对象在虚拟场景中的距离。
在一些实施例中,第二画面展示模块903还用于在虚拟场景的场景画面中动态显示标记信息。本示例中,第二画面展示模块903还用于在虚拟场景的任意场景画面中,在目标虚拟对象的指定相对方位显示标记信息。
在一些实施例中,第二画面展示模块903还用于动态显示目标虚拟对象的图标描述信息。本示例中,第二画面展示模块903还用于对应虚拟场景的任一场景画面,随着第一虚拟对象在相应场景画面之中移动,实时展示第一虚拟对象与目标虚拟对象在相应场景画面中更新后的距离信息。
在一些实施例中,第一画面展示模块902还用于响应于第一虚拟对象采用虚拟瞄具对目标虚拟对象的瞄准动作满足瞄准条件,在虚拟场景的场景画面中展示目标虚拟对象的描述信息。瞄准条件包括:虚拟瞄具的准心位置与目标虚拟对象的显示位置之间的距离,小于或等于设定距离。
在一些实施例中,触控操作包括点击操作、双击操作或者长按操作。
可以理解的是,以上各个模块的划分仅仅是一种逻辑功能的划分,实际实现时,该以上各模块的功能可以集成到硬件实体实现,例如,场景画面展示模块901的功能可以集成到显示器实现,第一画面展示模块902和第二画面展示模块903的一部分功能可以集成到处理器实现,另一部分功能可以集成到显示器实现等。
请参考图9B,图9B示意了一种示例性电子设备91。该电子设备91可以用作前述第一终端,比如智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。电子设备91还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,电子设备91包括有:处理器911和存储器912。
处理器911可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器911可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器911也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central Processing Unit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施方式中,处理器911可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施方式中,处理器911还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器912可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器912还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施方式中,存储器912中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器911所执行,以实现本申请实施例所示的虚拟对象的标记方法中的全部或者部分步骤。
在一些实施方式中,电子设备91还可以包括有:***设备接口913和至少一个***设备。处理器911、存储器912和***设备接口913之间可以通过总线或信号线相连。各个***设备可以通过总线、信号线或电路板与***设备接口913相连。具体地,***设备包括:射频电路914、显示屏915、摄像头组件916、音频电路917、定位组件918和电源919中的至少一种。
***设备接口913可被用于将I/O(Input/Output,输入/输出)相关的至少一个***设备连接到处理器911和存储器912。在一些实施方式中,处理器911、存储器912和***设备接口913可以被集成在同一芯片或电路板上;在一些其他实施例中,处理器911、存储器912和***设备接口913中的任意一个或两个可以在单独的芯片或电路板上实现,本申请实施例对此不限制。
射频电路914用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。显示屏915用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。该UI包括前述虚拟场景的场景画面,如图5A至图8中任一所示。当显示屏915是触摸显示屏时,显示屏915还具有采集在显示屏915的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器911进行处理,例如前述实施例中涉及的触控操作对应的输入信号。此时,显示屏915还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施方式中,显示屏915可以为一个,设置电子设备91的前面板;在另一些实施方式中,显示屏915可以为至少两个,分别设置在电子设备91的不同表面或呈折叠设计;在一些实施方式中,显示屏915可以是柔性显示屏,设置在电子设备91的弯曲表面上或折叠面上。甚至,显示屏915还可以设置成非矩形的不规则图形,也即异形屏。显示屏915可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件916用于采集图像或视频。音频电路917可以包括麦克风和扬声器。定位组件918用于定位电子设备91的当前地理位置,以实现导航或LBS(Location Based Service,基于位置的服务)。电源919用于为电子设备91中的各个组件进行供电。
在一些实施方式中,电子设备91还包括有一个或多个传感器920。该一个或多个传感器920包括但不限于:加速度传感器921、陀螺仪传感器922、压力传感器923、指纹传感器924、光学传感器925以及接近传感器926。
可以理解的是,图9B仅是示意性描述,不构成对电子设备91的限定。另一些实施方式中,电子设备91可以包括比图9B更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本申请实施例中还提供一种计算机可读存储介质,该计算机可读存储介质中存储有标记虚拟对象相关的指令,当其在计算机上运行时,使得计算机执行如前述图3至图8所示实施例描述的方法中的部分或全部步骤。
本申请实施例中还提供一种包括标记虚拟对象相关的指令的计算机程序产品,当其在计算机上运行时,使得计算机执行如前述图3至图8所示实施例描述的方法中的部分或全部步骤。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的***,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到 另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对相关技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,游戏的控制装置,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-onlymemory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
尽管已描述了本申请的一些实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括本申请的实施例以及落入本申请范围的所有变更和修改。
以上所述的具体实施方式,对本申请的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本申请的具体实施方式而已,并不用于限定本申请的保护范围,凡在本申请的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。

Claims (15)

  1. 一种虚拟对象的标记方法,所述方法由第一终端执行,包括:
    展示虚拟场景的场景画面;
    响应于针对所述虚拟场景的场景画面中目标虚拟对象的瞄准操作,在所述虚拟场景的场景画面中展示所述目标虚拟对象的描述信息,所述瞄准操作是第一虚拟对象采用虚拟瞄具对所述目标虚拟对象的瞄准动作,所述第一虚拟对象是所述第一终端控制的虚拟对象;
    响应于针对所述描述信息的触控操作,在所述虚拟场景的场景画面中展示所述目标虚拟对象的标记信息,所述标记信息用于标记所述目标虚拟对象在所述虚拟场景中的位置。
  2. 根据权利要求1所述的方法,其中,所述描述信息包括以下至少一项:
    所述目标虚拟对象的文字描述信息;
    所述目标虚拟对象的图标描述信息,所述图标描述信息包括表征所述目标虚拟对象形态的图标。
  3. 根据权利要求1或2所述的方法,其中,所述在所述场景画面中展示所述目标虚拟对象的描述信息,包括:
    在所述虚拟场景的场景画面中距离所述目标虚拟对象的第一距离范围内展示所述描述信息。
  4. 根据权利要求1所述的方法,其中,所述标记信息包括以下至少一项:
    所述目标虚拟对象的标识信息,所述目标虚拟对象的标识信息包括所述目标虚拟对象的名字和/或表征目标虚拟对象形态的图标;
    属性提示信息,用于提示所述目标虚拟对象的属性信息;
    距离提示信息,用于提示所述目标虚拟对象与所述第一虚拟对象在所述虚拟场景中的距离。
  5. 根据权利要求1或4所述的方法,其中,所述在所述虚拟场景的场景画面中展示所述目标虚拟对象的标记信息,包括以下至少一项:
    在所述虚拟场景的场景画面中动态显示所述标记信息;
    在所述虚拟场景的任意场景画面中,在所述目标虚拟对象的指定相对方位显示所述标记信息。
  6. 根据权利要求5所述的方法,其中,所述在所述虚拟场景的场景画面中动态显示所述标记信息,包括以下至少一项:
    动态显示所述目标虚拟对象的图标描述信息;或者,
    对应所述虚拟场景的任一场景画面,随着所述第一虚拟对象在相应场景画面之中移动,实时展示所述第一虚拟对象与所述目标虚拟对象在相应场景画面中更新后的距离信息。
  7. 根据权利要求1所述的方法,其中,所述响应于针对所述虚拟场景的场景画面中目标虚拟对象的瞄准操作,在所述虚拟场景的场景画面中展示所述目标虚拟对象的描述信息,包括:
    响应于所述第一虚拟对象采用所述虚拟瞄具对所述目标虚拟对象的瞄准动作满足瞄准条件,在所述虚拟场景的场景画面中展示所述目标虚拟对象的描述信息;
    所述瞄准条件包括:
    所述虚拟瞄具的准心位置与所述目标虚拟对象的显示位置之间的距离,小于或等于设定距离。
  8. 根据权利要求1所述的方法,其中,所述触控操作包括点击操作、双击操作或者长按操作。
  9. 一种虚拟对象的标记装置,所述装置应用于第一终端,包括:
    场景画面展示模块,用于展示虚拟场景的场景画面;
    第一画面展示模块,用于响应于针对所述虚拟场景的场景画面中目标虚拟对象的瞄准操作,在所述虚拟场景的场景画面中展示所述目标虚拟对象的描述信息,所述瞄准操作是第一虚拟对象采用虚拟瞄具对所述目标虚拟对象的瞄准动作,所述第一虚拟对象是所述第一终端控制的虚拟对象;
    第一画面展示模块,还用于响应于针对所述描述信息的触控操作,在所述虚拟场景的场景画面中展示所述目标虚拟对象的标记信息,所述标记信息用于标记所述目标虚拟对象在所述虚拟场景中的位置。
  10. 根据权利要求9所述的装置,其中,所述描述信息包括以下至少一项:
    所述目标虚拟对象的文字描述信息;
    所述目标虚拟对象的图标描述信息,所述图标描述信息包括表征所述目标虚拟对象形态的图标。
  11. 根据权利要求9或10所述的装置,其中,所述第一画面展示模块,用于在所述虚拟场景的场景画面中距离所述目标虚拟对象的第一距离范围内展示所述描述信息。
  12. 根据权利要求9所述的装置,其中,所述标记信息包括以下至少一项:
    所述目标虚拟对象的标识信息,所述目标虚拟对象的标识信息包括所述目标虚拟对象的名字和/或表征目标虚拟对象形态的图标;
    属性提示信息,用于提示所述目标虚拟对象的属性信息;
    距离提示信息,用于提示所述目标虚拟对象与所述第一虚拟对象在所述虚拟场景中的距离。
  13. 一种电子设备,所述电子设备用作第一终端,所述电子设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1至8任一项所述的虚拟对象的标记方法。
  14. 一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如权利要求1至8任一项所述的虚拟对象的标记方法。
  15. 一种计算机程序产品,该计算机程序产品包括计算机指令,该计算机指令存储在计算机可读存储介质中,计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行如权利要求1至8任一项所述的虚拟对象的标记方法。
PCT/CN2022/094378 2021-06-10 2022-05-23 虚拟对象的标记方法、装置及存储介质 WO2022257742A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023553001A JP2024514751A (ja) 2021-06-10 2022-05-23 仮想対象のマーキング方法と装置及びコンピュータプログラム
US18/125,580 US20230230315A1 (en) 2021-06-10 2023-03-23 Virtual object marking method and apparatus, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110648470.9A CN113209617A (zh) 2021-06-10 2021-06-10 虚拟对象的标记方法及装置
CN202110648470.9 2021-06-10

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/125,580 Continuation US20230230315A1 (en) 2021-06-10 2023-03-23 Virtual object marking method and apparatus, and storage medium

Publications (1)

Publication Number Publication Date
WO2022257742A1 true WO2022257742A1 (zh) 2022-12-15

Family

ID=77081722

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2022/094378 WO2022257742A1 (zh) 2021-06-10 2022-05-23 虚拟对象的标记方法、装置及存储介质

Country Status (4)

Country Link
US (1) US20230230315A1 (zh)
JP (1) JP2024514751A (zh)
CN (1) CN113209617A (zh)
WO (1) WO2022257742A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113209617A (zh) * 2021-06-10 2021-08-06 腾讯科技(深圳)有限公司 虚拟对象的标记方法及装置
CN113499585B (zh) * 2021-08-09 2024-07-09 网易(杭州)网络有限公司 游戏中交互方法、装置、电子设备和存储介质
CN113730906B (zh) * 2021-09-14 2023-06-20 腾讯科技(深圳)有限公司 虚拟对局的控制方法、装置、设备、介质及计算机产品
CN117122919A (zh) * 2022-05-20 2023-11-28 腾讯科技(深圳)有限公司 虚拟场景中的标记处理方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109847353A (zh) * 2019-03-20 2019-06-07 网易(杭州)网络有限公司 游戏应用的显示控制方法、装置、设备及存储介质
CN111097171A (zh) * 2019-12-17 2020-05-05 腾讯科技(深圳)有限公司 虚拟标记的处理方法和装置、存储介质及电子装置
CN111773705A (zh) * 2020-08-06 2020-10-16 网易(杭州)网络有限公司 一种游戏场景中的互动方法和装置
US20200338449A1 (en) * 2018-05-18 2020-10-29 Tencent Technology (Shenzhen) Company Limited Method and apparatus for displaying marker element in virtual scene, computer device, and computer-readable storage medium
CN113209617A (zh) * 2021-06-10 2021-08-06 腾讯科技(深圳)有限公司 虚拟对象的标记方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106924970B (zh) * 2017-03-08 2020-07-07 网易(杭州)网络有限公司 虚拟现实***、基于虚拟现实的信息显示方法及装置
CN110270098B (zh) * 2019-06-21 2023-06-23 腾讯科技(深圳)有限公司 控制虚拟对象对虚拟物品进行标记的方法、装置及介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200338449A1 (en) * 2018-05-18 2020-10-29 Tencent Technology (Shenzhen) Company Limited Method and apparatus for displaying marker element in virtual scene, computer device, and computer-readable storage medium
CN109847353A (zh) * 2019-03-20 2019-06-07 网易(杭州)网络有限公司 游戏应用的显示控制方法、装置、设备及存储介质
CN111097171A (zh) * 2019-12-17 2020-05-05 腾讯科技(深圳)有限公司 虚拟标记的处理方法和装置、存储介质及电子装置
CN111773705A (zh) * 2020-08-06 2020-10-16 网易(杭州)网络有限公司 一种游戏场景中的互动方法和装置
CN113209617A (zh) * 2021-06-10 2021-08-06 腾讯科技(深圳)有限公司 虚拟对象的标记方法及装置

Also Published As

Publication number Publication date
CN113209617A (zh) 2021-08-06
JP2024514751A (ja) 2024-04-03
US20230230315A1 (en) 2023-07-20

Similar Documents

Publication Publication Date Title
WO2022257742A1 (zh) 虚拟对象的标记方法、装置及存储介质
CN103502920B (zh) 使用可显示的键盘、辅助键盘和/或其它用户输入设备管理、选择和更新可视界面内容的***及方法
CN113440846B (zh) 游戏的显示控制方法、装置、存储介质及电子设备
WO2022156504A1 (zh) 标记处理方法、装置、计算机设备、存储介质及程序产品
CN113813603B (zh) 一种游戏的显示控制方法、装置、电子设备及存储介质
WO2022222673A1 (zh) 棋盘画面的显示方法、装置、设备、存储介质及程序产品
CN113350793B (zh) 一种界面元素设置方法、装置、电子设备和存储介质
WO2023138192A1 (zh) 控制虚拟对象拾取虚拟道具的方法、终端及存储介质
WO2022247204A1 (zh) 游戏的显示控制方法、非易失性存储介质及电子装置
WO2022227915A1 (zh) 显示位置标记的方法、装置、设备及存储介质
US11458394B2 (en) Targeting of a long-range object in a multiplayer game
CN113426124A (zh) 游戏中的显示控制方法、装置、存储介质及计算机设备
US9047244B1 (en) Multi-screen computing device applications
WO2022257690A1 (zh) 在虚拟环境中标记物品的方法、装置、设备及存储介质
US20220291791A1 (en) Method and apparatus for determining selected target, device, and storage medium
TWI803224B (zh) 聯絡人信息展示方法、裝置、電子設備、計算機可讀儲存媒體及計算機程式産品
CN113082707A (zh) 虚拟对象的提示方法、装置、存储介质及计算机设备
CN115970284A (zh) 虚拟武器的攻击方法、装置、存储介质及计算机设备
WO2023071808A1 (zh) 基于虚拟场景的图形显示方法、装置、设备以及介质
CN115193042A (zh) 显示控制方法、装置、电子设备和存储介质
CN112619131B (zh) 虚拟道具的状态切换方法、装置、设备及可读存储介质
CN115999153A (zh) 虚拟角色的控制方法、装置、存储介质及终端设备
CN115300904A (zh) 推荐方法、装置、电子设备和存储介质
WO2023246307A1 (zh) 虚拟环境中的信息处理方法、装置、设备及程序产品
WO2024037188A1 (zh) 虚拟对象控制方法、装置、设备及介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22819340

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023553001

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE