KR102603609B1 - 가상적 객체들을 선택하기 위한 방법, 장치, 단말, 및 저장 매체 - Google Patents

가상적 객체들을 선택하기 위한 방법, 장치, 단말, 및 저장 매체 Download PDF

Info

Publication number
KR102603609B1
KR102603609B1 KR1020217032508A KR20217032508A KR102603609B1 KR 102603609 B1 KR102603609 B1 KR 102603609B1 KR 1020217032508 A KR1020217032508 A KR 1020217032508A KR 20217032508 A KR20217032508 A KR 20217032508A KR 102603609 B1 KR102603609 B1 KR 102603609B1
Authority
KR
South Korea
Prior art keywords
virtual
virtual object
execution area
virtual environment
visible boundary
Prior art date
Application number
KR1020217032508A
Other languages
English (en)
Other versions
KR20210141971A (ko
Inventor
위린 완
쉰 후
젠먀오 웡
산둥 쑤
Original Assignee
텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 filed Critical 텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Publication of KR20210141971A publication Critical patent/KR20210141971A/ko
Application granted granted Critical
Publication of KR102603609B1 publication Critical patent/KR102603609B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/577Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/833Hand-to-hand fighting, e.g. martial arts competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/53Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

출원은 단말의 사용자 인터페이스 상에서 가상적 객체를 선택하기 위한 방법, 장치, 단말, 및 저장 매체를 개시하고, 이들은 컴퓨터 및 인터넷 기술들에 속한다. 방법은 단말에 의해 수행되고, 방법은: 사용자 인터페이스를 디스플레이하는 단계; 가상적 환경 내의 제1 가상적 객체의 제1 동작의 사전 정의된 실행 영역을 획득하는 단계; 가상적 환경의 가시적 경계 범위를 획득하는 단계; 사전 정의된 실행 영역 및 가시적 경계 범위에 기초하여, 가상적 환경 내의 제1 동작의 유효 실행 영역을 결정하는 단계; 및 유효 실행 영역에 기초하여, 타깃 가상적 객체를 결정하는 단계를 포함한다.

Description

가상적 객체들을 선택하기 위한 방법, 장치, 단말, 및 저장 매체
이 출원은 2020년 5월 12일자로 출원된 "Method for Selecting Virtual Objects, Apparatus, Terminal and Storage medium"라는 명칭인 중국 특허 출원 제202010398569.3호의 이익을 주장하고, 이러한 중국 특허 출원의 전체 내용들은 이로써 참조로 편입된다.
출원은 컴퓨터 및 인터넷 기술들에 관한 것으로, 더 상세하게는, 가상적 객체(virtual object)들을 선택하기 위한 방법, 장치, 단말, 및 저장 매체에 관한 것이다.
현재, 게임 애플리케이션들에서는 점점 더 많은 유형들의 가상적 객체들의 스킬(skill)들이 있다.
관련된 기술들에서는, 게임에서, 사용자가 제2 가상적 객체를 공격하기 위한 스킬들을 이용하기 위하여 제1 가상적 객체를 제어할 수 있고, 제2 가상적 객체 및 제1 가상적 객체는 상이한 캠프(camp)들 내에 있다. 제1 가상적 객체가 스킬을 해제할 때, 클라이언트(client)는 스킬의 공격 범위를 획득할 수 있고, 공격 범위 내의 제2 가상적 객체를 제1 가상적 객체의 공격 타깃으로서 취한다.
그러나, 상기한 관련된 기술들에서, 선택된 공격 타깃은 단말 디스플레이 상에서 디스플레이되지 않을 수 있고, 이는 사용자의 상황과 불일치하여, 공격 타깃들의 선택에서의 낮은 정확도로 귀착된다.
출원의 실시예들은 단말의 사용자 인터페이스 상에서 가상적 객체들을 선택하기 위한 방법, 장치, 단말, 및 저장 매체를 제공하고, 이는 제1 동작의 액션 타깃이 사용자의 시각적 범위 내에 있다는 것과, 제1 동작의 액션 타깃을 선택하기 위한 정확도가 개선된다는 것을 보장할 수 있다. 기술적 해결책들은 다음과 같다.
하나의 양태에서, 출원의 실시예들은 단말에 의해 수행되는, 단말의 사용자 인터페이스 상에서 가상적 객체를 선택하기 위한 방법을 제공하고, 방법은: 사용자 인터페이스를 디스플레이하는 단계 - 사용자 인터페이스는 가상적 환경에 대응하는 디스플레이 스크린을 포함하고, 가상적 환경에서 위치된 제1 가상적 객체를 더 포함함 -; 가상적 환경 내의 제1 가상적 객체의 제1 동작의 사전 정의된 실행 영역을 획득하는 단계; 가상적 환경의 가시적 경계 범위를 획득하는 단계 - 가시적 경계 범위에서 상주하는 가상적 객체들은 사용자 인터페이스 상에서 가시적임 -; 사전 정의된 실행 영역 및 가시적 경계 범위에 기초하여, 가상적 환경 내의 제1 동작의 유효 실행 영역을 결정하는 단계; 및 유효 실행 영역에 기초하여, 타깃 가상적 객체를 결정하는 단계를 포함한다.
또 다른 양태에서, 출원의 실시예들은 단말의 사용자 인터페이스 상에서 가상적 객체를 선택하기 위한 장치를 제공하고, 장치는: 사용자 인터페이스를 디스플레이하도록 구성된 인터페이스 디스플레이 모듈 - 사용자 인터페이스는 가상적 환경에 대응하는 디스플레이 스크린을 포함하고, 가상적 환경에서 위치된 제1 가상적 객체를 더 포함함 -; 가상적 환경 내의 제1 가상적 객체의 제1 동작의 사전 정의된 실행 영역을 획득하도록 구성된 범위 획득 모듈; 가상적 환경의 가시적 경계 범위를 획득하도록 구성된 경계 획득 모듈 - 가시적 경계 범위에서 상주하는 가상적 객체들은 사용자 인터페이스 상에서 가시적임 -; 사전 정의된 실행 영역 및 가시적 경계 범위에 기초하여, 가상적 환경 내의 제1 동작의 유효 실행 영역을 결정하도록 구성된 범위 결정 모듈; 및 유효 실행 영역에 기초하여, 타깃 가상적 객체를 결정하도록 구성된 객체 결정 모듈을 포함한다.
또 다른 양태에서, 출원의 실시예들은 프로세서 및 메모리를 포함하는 단말을 제공하고, 여기서, 메모리는, 프로세서에 의해 로딩되고 실행될 때, 프로세서로 하여금, 가상적 객체를 선택하기 위한 전술한 방법을 수행하게 하는 적어도 하나의 명령, 적어도 하나의 프로그램, 코드 세트, 또는 명령 세트를 저장한다.
또 다른 양태에서, 출원의 실시예들은 컴퓨터 판독가능 저장 매체를 제공하고, 여기서, 컴퓨터 판독가능 저장 매체는, 프로세서에 의해 로딩되고 프로세싱될 때, 프로세서로 하여금, 가상적 객체를 선택하기 위한 전술한 방법을 수행하게 하는 적어도 하나의 명령, 적어도 하나의 프로그램, 코드 세트, 또는 명령 세트를 저장한다.
또 다른 양태에서는, 컴퓨터 프로그램 제품이 제공된다. 컴퓨터 프로그램 제품이 단말 상에서 작동될 때, 단말로 하여금, 가상적 객체를 선택하기 위한 상기한 방법을 수행하게 한다.
출원의 실시예들에서의 기술적 해결책들을 더 명확하게 설명하기 위하여, 실시예들을 설명할 때에 이용될 필요가 있는 첨부된 도면들은 다음에서 간결하게 논의될 것이다. 다음에 설명된 첨부된 도면들은 출원의 오직 일부 실시예들이라는 것은 자명하다. 본 기술분야에서의 통상의 기술자들을 위하여, 창조적인 작업 없이 이 첨부된 도면들에 기초하여 다른 첨부된 도면들이 획득될 수 있다.
도 1은 출원의 실시예에 따라, 애플리케이션의 작동 환경을 예시하는 개략도이다.
도 2는 출원의 실시예에 따라, 단말의 구조를 예시하는 개략도이다.
도 3은 출원의 실시예에 따라, 단말의 사용자 인터페이스 상에서 가상적 객체를 선택하기 위한 방법을 예시하는 플로우차트이다.
도 4는 사전 정의된 실행 영역을 어떻게 획득하는지를 예시하는 예시적인 개략도이다.
도 5는 가시적 경계 범위를 어떻게 디스플레이하는지를 예시하는 예시적인 개략도이다.
도 6은 유효 실행 영역을 어떻게 획득하는지를 예시하는 예시적인 개략도이다.
도 7은 가시적 경계 범위를 어떻게 획득하는지를 예시하는 예시적인 개략도이다.
도 8은 출원의 또 다른 실시예에 따라, 단말의 사용자 인터페이스 상에서 가상적 객체를 선택하기 위한 방법을 예시하는 플로우차트이다.
도 9는 단말의 사용자 인터페이스 상에서 가상적 객체를 선택하기 위한 방법을 예시하는 예시적인 개략도이다.
도 10은 출원의 실시예에 따라, 단말의 사용자 인터페이스 상에서 가상적 객체를 선택하기 위한 장치의 블록도이다.
도 11은 출원의 또 다른 실시예에 따라, 단말의 사용자 인터페이스 상에서 가상적 객체를 선택하기 위한 장치의 블록도이다.
도 12는 출원의 실시예에 따라, 단말의 구조를 예시하는 블록도이다.
출원의 목적들, 기술적 해결책들, 및 장점들을 더 명확하게 하기 위하여, 상세한 설명들은 첨부된 도면들과 동반하여, 다음에서 출원의 구현예들을 위하여 제공될 것이다.
도 1을 참조하면, 도 1은 출원의 실시예에 따라, 애플리케이션의 작동 환경을 예시하는 개략도이다. 앱 작동 환경(app running environment)은 단말(10) 및 서버(20)를 포함할 수 있다.
단말(10)은 이동 전화, 태블릿 컴퓨터, 게임 호스트, 전자책(E-book) 판독기, 멀티미디어 재생 장비, 웨어러블 디바이스, 개인용 컴퓨터(Personal Computer)(PC)와 같은 전자 장비(electronic equipment)(UE)일 수 있다. 애플리케이션의 클라이언트는 단말(10)에 설치될 수 있다.
출원의 실시예들에서, 상기한 애플리케이션은 가상적 환경을 제공할 수 있는 임의의 애플리케이션일 수 있어서, 사용자에 의해 선택되고 동작된 가상적 객체는 가상적 환경 내에서 동작들을 수행한다. 전형적으로, 애플리케이션은 멀티플레이어 온라인 배틀 아레나(Multiplayer Online Battle Arena)(MOBA) 게임, 배틀 로얄(Battle Royale)(BR) 게임, 3인칭 슈팅 게임(Third-Personal Shooting Game)(TPS), 1인칭 슈팅 게임(First-Person Shooting Game)(FPS), 및 멀티플레이어 건 배틀 생존 게임(Multiplayer gun battle survival game)과 같은 게임 애플리케이션이다. 물론, 게임 애플리케이션들에 추가적으로, 다른 유형들의 애플리케이션들은 또한, 사용자들을 위한 가상적 객체를 디스플레이할 수 있고, 가상적 객체를 위한 대응하는 기능, 예컨대, 가상 현실(Virtual Reality)(VR) 애플리케이션들, 증강 현실(Augmented Reality)(AR) 애플리케이션들, 3 차원 맵 프로그램들, 군사 시뮬레이션 프로그램들, 소셜 애플리케이션들, 대화형 엔터테인먼트 애플리케이션들 등을 제공할 수 있고, 이들은 출원의 실시예들에 의해 제한되지 않는다. 추가적으로, 상이한 애플리케이션에 대하여, 실제적인 필요성들에 따라 사전-구성될 수 있는 제공된 가상적 객체의 형태 및 대응하는 기능은 상이할 것이고, 출원의 실시예들에 의해 제한되지 않는다. 상기한 애플리케이션의 클라이언트는 단말(10) 상에서 작동한다. 일부 실시예들에서, 상기한 애플리케이션은 3 차원 가상적 환경 엔진에 기초하여 개발되고, 예컨대, 이러한 가상적 환경 엔진은 유니티 엔진(Unity engine)이다. 가상적 환경 엔진은 사용자들에게 더 몰입적인 게이밍 경험을 가져오는 3 차원 가상적 환경, 가상적 객체, 및 가상적 프롭(prop)들 등을 구축할 수 있다.
전술한 가상적 환경은 클라이언트가 단말 상에서 작동될 때, 애플리케이션(예컨대, 게임 애플리케이션)의 클라이언트에 의해 디스플레이되는(또는 제공되는) 장면이다. 이러한 가상적 환경은 가상적 주택들, 가상적 섬들, 가상적 맵들, 및 가상적 건물들 등과 같은, 가상적 객체들이 (게임 경쟁과 같은) 활동들을 수행하기 위하여 생성된 장면을 지칭한다. 이러한 가상적 환경은 실세계의 시뮬레이션 환경, 반-시뮬레이션 및 반-허구적 환경, 또는 순수하게 허구적 환경일 수 있다. 가상적 환경은 2 차원 가상적 환경, 또는 2.5 차원 가상적 환경, 또는 3 차원 가상적 환경일 수 있고, 이들은 출원의 실시예들에 의해 제한되지 않는다.
전술한 가상적 객체는 애플리케이션에서의 사용자 계정에 의해 제어된 가상적 캐릭터(virtual character)일 수 있거나, 애플리케이션에서의 컴퓨터 프로그램에 의해 제어된 가상적 캐릭터일 수 있다. 애플리케이션이 게임 애플리케이션인 예에서, 가상적 객체는 게임 애플리케이션에서의 사용자 계정에 의해 제어된 게임 캐릭터일 수 있거나, 게임 애플리케이션에서의 컴퓨터 프로그램에 의해 제어된 게임 몬스터(game monster)일 수 있다. 가상적 객체는 캐릭터 형태, 동물, 만화(cartoon), 또는 다른 형태일 수 있고, 이는 출원의 실시예들에서 제한되지 않는다. 가상적 객체는 3 차원 형태 또는 2 차원 형태로 디스플레이될 수 있고, 이는 출원의 실시예들에서 제한되지 않는다. 가상적 환경이 3 차원 환경일 때, 가상적 객체는 애니메이션 골격 기술(animation skeletal technology)에 기초하여 생성된 3 차원 모델이다. 3 차원 환경에서, 각각의 가상적 객체는 그 자신의 형상 및 부피를 가지고, 3 차원 가상적 환경에서 공간의 일부를 점유한다. 출원의 실시예들에서, 단말(10)은 가상적 객체로부터 동작을 수신할 수 있고, 동작의 사전 정의된 실행 영역 및 가상적 환경의 가시적 경계 범위에 기초하여 유효 실행 영역을 결정할 수 있고, 그 다음으로, 유효 실행 영역에서의 전술한 동작에 대응하는 타깃 가상적 객체를 결정할 수 있다.
가능한 구현예에서, 전술한 가상적 객체들은 동일한 캠프에서의 가상적 객체들 및 상이한 캠프들에서의 가상적 객체들을 포함한다. 즉, 애플리케이션에서, 가상적 객체들은 상이한 캠프들로 분할된다. 예시적으로, MOBA 게임을 예로서 취하면, 10 명의 사용자들이 매칭 게임(matching game)을 플레이하고, 2 개의 팀들, 즉, 적색 팀 및 청색 팀으로 분할된다. 즉, 매 5 명의 사람들이 그룹이 된다. 이때, 적색 팀의 가상적 객체들은 동일한 캠프 내에 있고 팀동료들이고, 청색 팀의 가상적 객체들은 동일한 캠프 내에 있고 팀동료들이다. 그러나, 적색 팀의 가상적 객체들 및 청색 팀의 가상적 객체들은 상이한 캠프들 내에 있고 서로에 대해 적대적이다.
서버(20)는 단말(10)에서 애플리케이션의 클라이언트를 위한 배경 서비스들을 제공하도록 구성된다. 예를 들어, 서버(20)는 상기한 애플리케이션의 배경 서버일 수 있다. 서버(20)는 서버, 또는 다수의 서버들로 구성된 서버 클러스터, 또는 클라우드 컴퓨팅 서비스 센터일 수 있다. 서버(20)는 다양한 단말들(10)의 애플리케이션들을 위한 배경 서비스들을 동시에 제공할 수 있다.
단말(10) 및 서버(20)는 네트워크(30)를 통해 서로 통신할 수 있다.
도 2를 참조하면, 도 2는 출원의 실시예에 따라, 단말의 구조를 예시하는 개략도이다. 단말(10)은 메인 보드(110), 외부 출력/입력 디바이스(120), 메모리(130), 외부 인터페이스(140), 터치 제어 시스템(150), 및 전력 공급부(160)를 포함할 수 있다.
메인 보드(110)는 프로세서 및 제어기와 같은 프로세싱 엘리먼트들을 통합한다.
단말에 대하여, 외부 출력/입력 디바이스(120)는 (디스플레이와 같은) 디스플레이 컴포넌트, (스피커와 같은) 사운드 재생 컴포넌트, (마이크로폰과 같은) 사운드 수집 컴포넌트, 모든 종류들의 버튼들 등을 포함할 수 있다. PC 단말에 대하여, 외부 출력/입력 디바이스(120)는 (디스플레이와 같은) 디스플레이 컴포넌트, (스피커와 같은) 사운드 재생 컴포넌트, (마이크로폰과 같은) 사운드 수집 컴포넌트, (마우스 및 키보드와 같은) 모든 종류들의 버튼들 등을 포함할 수 있다.
메모리(130)는 프로그램 코드들 및 데이터를 저장한다.
외부 인터페이스(140)는 헤드폰 인터페이스, 충전 인터페이스, 데이터 인터페이스 등을 포함할 수 있다.
터치 제어 시스템(150)은 디스플레이 컴포넌트, 또는 외부 출력/입력 디바이스(120)의 버튼으로 통합될 수 있다. 터치 제어 시스템(150)은 디스플레이 컴포넌트 또는 버튼 상에서 사용자에 의해 수행된 터치 제어 동작을 검출하도록 구성된다.
전력 공급부(160)는 단말(10)에서의 다른 컴포넌트들을 위한 전력을 제공하도록 구성된다.
출원의 실시예들에서, 메인 보드(110)에서의 프로세서는 메모리에서의 프로그램 코드들 또는 데이터를 실행하거나 호출함으로써, 사용자 인터페이스(예컨대, 게임 인터페이스)를 생성할 수 있고, 외부 출력/입력 디바이스(120)를 통해 생성된 사용자 인터페이스(예컨대, 게임 인터페이스)를 디스플레이할 수 있다. 사용자 인터페이스(예컨대, 게임 인터페이스)를 디스플레이하는 프로세스 동안에, 사용자가 사용자 인터페이스(예컨대, 게임 인터페이스)와 상호작용할 때에 실행된 터치 동작은 터치 제어 시스템(150)을 통해 검출될 수 있고, 터치 제어 동작에 대한 응답은 터치 제어 시스템(150)을 통해 행해질 수 있다.
도 3을 참조하면, 도 3은 출원의 실시예에 따라, 단말의 사용자 인터페이스 상에서 가상적 객체를 선택하기 위한 방법을 예시하는 플로우차트이다. 방법은 단말에 적용될 수 있고, 예컨대, 각각의 블록의 실행 엔티티는 도 1에서 도시된 앱 작동 환경에서 단말(10)(이하, "클라이언트"로서 지칭됨)일 수 있다. 방법은 다음의 블록들(301 내지 305)을 포함할 수 있다.
블록(301)에서는, 사용자 인터페이스를 디스플레이한다.
사용자 인터페이스는 클라이언트에 의해 사용자를 위하여 디스플레이된 애플리케이션의 픽처(picture)일 수 있다. 애플리케이션은 다운로딩되고 설치될 필요가 있는 컴퓨터 프로그램일 수 있고, 클릭-투-런(click-to-run) 컴퓨터 프로그램일 수 있다. 상기한 애플리케이션은 가상적 환경, 예컨대, 게임 애플리케이션 프로그램을 제공할 수 있는 임의의 애플리케이션일 수 있다. 전술한 사용자 인터페이스는 가상적 환경의 디스플레이 스크린을 포함한다. 디스플레이 스크린은 가상적 항목(item)들, 예컨대, 가상적 건물, 가상적 환경, 가상적 맵 등을 포함할 수 있다. 사용자는 가상적 환경 내에서 다양한 가상적 항목들과 상호작용하기 위하여 제1 가상적 객체를 제어할 수 있다.
출원의 실시예들에서, 사용자로부터 애플리케이션 기동(application launch)을 트리거링하기 위한 명령을 수신할 때, 클라이언트는 또한, 애플리케이션의 작동을 제어할 수 있고, 애플리케이션에 대응하는 사용자 인터페이스를 디스플레이할 수 있다. 전술한 사용자 인터페이스는 가상적 환경에 대응하는 디스플레이 스크린을 포함하고, 가상적 환경에서 위치된 제1 가상적 객체를 더 포함한다. 제1 가상적 객체는 사용자에 의해 제어된 가상적 객체일 수 있다.
블록(302)에서는, 가상적 환경 내의 제1 가상적 객체의 제1 동작의 사전 정의된 실행 영역을 획득한다.
제1 가상적 객체는 가상적 환경 내에서 상기한 사용자에 의해 제어된 가상적 캐릭터이다. 제1 가상적 객체는 캐릭터, 동물, 만화, 또는 다른 형태들의 형태일 수 있고, 이들은 출원의 실시예들에 의해 제한되지 않는다. 출원의 실시예들에서, 제1 가상적 객체는 3 차원 또는 2 차원 형태로 디스플레이될 수 있다.
제1 동작은 제1 가상적 객체와 상기한 가상적 환경 사이의 임의의 대화형 동작을 지칭하고, 예컨대, 제1 동작은 제1 가상적 객체의 스킬 해제 동작, 또는 제1 가상적 객체의 일상적 공격 동작이다. 대화형 동작의 액션 타깃은 가상적 환경 내의 가상적 항목 또는 가상적 환경의 다른 가상적 객체들일 수 있고, 이들은 출원의 실시예들에 의해 제한되지 않는다.
가능한 구현예에서, 상기한 제1 동작은 사용자에 의해 제어되는 제1 가상적 객체에 의해 트리거링된다. 사용자는 대응하는 아이콘을 클릭하거나 대응하는 키를 누름으로써, 제1 동작의 트리거 명령을 시작할 수 있다. 또한, 트리거 명령을 수신한 후에, 클라이언트는 상기한 제1 동작을 수행하기 위하여 제1 가상적 객체를 제어할 수 있다.
또 다른 가능한 구현예에서, 상기한 제1 동작은 컴퓨터 프로그램에 의해 제어되는 제1 가상적 객체에 의해 트리거링된다. 상기한 애플리케이션을 작동시킨 후에, 클라이언트는 사전 설정된 기준들에 따라 상기한 제1 동작을 수행하기 위하여 제1 가상적 객체를 제어할 수 있다. 사전 설정된 기준들은 신축성 있게 설정될 수 있다. 예를 들어, 상기한 사전 설정된 기준들은 제1 가상적 객체의 온라인 기간을 포함한다. 클라이언트는 제1 가상적 객체의 온라인 기간을 검출할 수 있다. 제1 가상적 객체의 온라인 기간이 요건을 충족시킬 때, 클라이언트는 상기한 제1 동작을 수행하기 위하여 제1 가상적 객체를 제어할 수 있다. 또 다른 예에 대하여, 상기한 사전 설정된 기준들은 제1 가상적 객체의 속성 파라미터들을 포함하고, 클라이언트는 제1 가상적 객체의 속성 파라미터들을 검출할 수 있다. 제1 가상적 객체의 하나 이상의 속성 파라미터들이 요건을 충족시킬 때, 클라이언트는 상기한 제1 동작을 수행하기 위하여 제1 가상적 객체를 제어한다. 전술한 속성 파라미터들은 수명 값, 방어 값, 또는 공격 속도 등을 포함할 수 있고, 이들은 출원의 실시예들에 의해 제한되지 않는다. 대안적으로, 상기한 사전 설정된 기준들은 제1 가상적 객체의 동작 파라미터들을 포함하고, 클라이언트는 제1 가상적 객체의 동작 파라미터들을 검출할 수 있다. 제1 가상적 객체의 동작 파라미터들이 요건을 충족시킬 때, 클라이언트는 상기한 제1 동작을 수행하기 위하여 제1 가상적 객체를 제어한다. 상기한 동작 파라미터들은 패배한 몬스터들의 수, 해제된 스킬의 수, 이용된 항목들의 수 등일 수 있고, 이들은 출원의 실시예들에 의해 제한되지 않는다. 사전 설정된 기준들에 대한 상기한 도입은 오직 예시적이고 설명적이라는 것이 주목되어야 한다. 현실적인 애플리케이션들에서, 상기한 사전 설정된 기준들은 실제적인 상황들에 따라 신축성 있게 설정될 수 있다.
사전 정의된 실행 영역은 상기한 제1 동작의 액션 범위를 지칭한다. 상이한 제1 동작은 상이한 사전 정의된 실행 영역에 대응할 수 있다. 출원의 실시예들에서, 상기한 사용자 인터페이스를 디스플레이한 후에, 클라이언트는 가상적 환경 내의 제1 가상적 객체의 제1 동작의 사전 정의된 실행 영역을 획득할 수 있다. 사전 정의된 실행 영역의 형상은 원형, 직사각형, 또는 삼각형 등일 수 있고, 이들은 출원의 실시예들에 의해 제한되지 않는다.
가능한 구현예에서, 상기한 사전 정의된 실행 영역은 사전 설정된 범위이다. 사전 설정된 범위는 설계자에 의해 설정되고, 사전 설정된 범위는 애플리케이션의 작동 동안에 변경되지 않는다. 또 다른 가능한 구현예에서, 상기한 사전 정의된 실행 영역은 요건 범위이다. 요건 범위는 애플리케이션의 작동 동안에 상이한 요건들에 따라 변경되고, 예컨대, 제1 동작의 사전 정의된 실행 영역은 제1 동작의 실행들의 수 등에 비례할 수 있거나 반비례할 수 있다. 실제적인 애플리케이션들에서, 상기한 요건은 실제적인 상황들에 따라 신축성 있게 설정될 수 있고, 이들은 출원의 실시예들에 의해 제한되지 않는다.
출원의 실시예들에서, 클라이언트는 제1 가상적 객체의 위치 정보에 따라 상기한 사전 정의된 실행 영역을 획득할 수 있다. 상기한 블록(302)은 다음과 같은 몇몇 블록들을 포함할 수 있다.
1. 가상적 환경 내의 제1 가상적 객체의 위치 정보를 획득함.
2. 위치 정보 및 제1 동작의 사전 정의된 실행 거리에 기초하여, 가상적 환경 내의 제1 동작의 사전 정의된 실행 영역을 결정함.
위치 정보는 가상적 환경 내의 가상적 객체의 위치를 표시하도록 구성된다. 위치 정보는 좌표들의 형태로 표현된다.
사전 정의된 실행 거리는 상기한 제1 동작의 최대 액션 거리를 지칭한다. 가상적 환경 내에서, 제1 가상적 객체까지의 거리가 최대 액션 거리보다 더 작으면, 가상적 항목 또는 가상적 객체는 제1 동작의 액션 타깃으로서 취해질 수 있다. 출원의 실시예들에서, 클라이언트는 상기한 제1 가상적 객체의 위치 정보를 획득할 수 있고, 위치 정보 및 제1 동작의 사전 정의된 실행 거리에 기초하여, 제1 동작의 사전 정의된 실행 영역을 결정할 수 있다. 클라이언트는 위치 정보 및 제1 동작의 사전 정의된 실행 거리에 기초하여, 사전 정의된 실행 영역의 경계 포인트들을 결정할 수 있고, 그 다음으로, 사전 정의된 실행 영역을 결정할 수 있다. 대안적으로, 클라이언트는 또한, 위치 정보 및 제1 동작의 사전 정의된 실행 거리에 기초하여, 사전 정의된 실행 영역 내의 각각의 영역 포인트를 결정할 수 있고, 그 다음으로, 사전 정의된 실행 영역을 결정할 수 있고, 이들은 출원의 실시예들에 의해 제한되지 않는다. 동일한 제1 동작은 하나 이상의 사전 정의된 실행 거리들을 소유할 수 있다.
가능한 구현예에서, 제1 동작은 하나의 사전 정의된 실행 거리를 가진다. 이때, 사전 정의된 실행 영역은 제1 가상적 객체를 중심으로 둔 원형 범위이다. 사전 정의된 실행 영역의 경계 포인트와 제1 가상적 객체 사이의 거리는 동일하다. 제1 동작의 사전 정의된 실행 영역을 획득할 때, 클라이언트는 먼저, 제1 가상적 객체의 위치 정보 및 제1 동작의 사전 정의된 실행 거리를 획득할 수 있고, 영역 포인트와 제1 가상적 객체 사이의 거리가 사전 정의된 실행 거리 이하인, 가상적 환경 내의 영역 포인트들을 결정할 수 있다. 영역 포인트들로 구성되는 범위는 제1 동작의 사전 정의된 실행 영역이다.
또 다른 가능한 구현예에서, 제1 동작은 다수의 사전 정의된 실행 거리들을 가진다. 이때, 사전 정의된 실행 영역의 경계 포인트와 제1 가상적 객체 사이의 거리는 동일하지 않다. 사전 정의된 실행 영역을 획득할 때, 클라이언트는 먼저, 제1 가상적 객체의 위치 정보 및 제1 동작의 다수의 사전 정의된 실행 거리들을 획득할 수 있다. 클라이언트는 제1 가상적 객체의 기립 방향(standing direction)을 기준으로서 취할 수 있고, 영역 포인트와 제1 가상적 객체 사이의 거리가 대응하는 사전 정의된 실행 거리 이하인 위치 정보에 기초하여, 가상적 환경의 다양한 방향들로부터 가상적 환경 내의 영역 포인트들을 결정할 수 있다. 영역 포인트들로 구성되는 범위는 제1 동작의 사전 정의된 실행 영역이다. 제1 가상적 객체의 기립 방향은 제1 가상적 객체의 실시간 이동 방향일 수 있다.
사전 정의된 실행 영역이 직사각형인 예에서, 도 4와 관련하여, 가상적 환경에서, 제1 가상적 객체(41)의 기립 방향은 제1 방향(42)이다. 제1 동작의 사전 정의된 실행 영역(43)을 획득할 때, 클라이언트는 제1 가상적 객체(41)의 위치 정보 및 제1 동작의 다수의 사전 정의된 실행 거리들을 획득할 수 있고, 제1 방향(42)을 기준으로서 취할 수 있고, 사전 정의된 실행 영역의 다수의 경계 포인트들(44)을 획득할 수 있고, 그 다음으로, 제1 동작의 사전 정의된 실행 영역(43)을 결정할 수 있다.
출원의 실시예들에서, 사용자 인터페이스를 디스플레이한 후에, 클라이언트는 제1 동작의 사전 정의된 실행 영역을 실시간으로 획득할 수 있고, 제1 가상적 객체의 위치 정보의 변경에 기초하여, 사전 정의된 실행 영역을 업데이팅할 수 있다는 것이 주목되어야 한다. 대안적으로, 제1 동작의 트리거 명령을 수신한 후에, 클라이언트는 제1 동작의 사전 정의된 실행 영역을 획득할 수 있고, 이는 출원의 실시예들에 의해 제한되지 않는다.
블록(303)에서는, 가상적 환경의 가시적 경계 범위를 획득한다.
가시적 경계 범위는 사용자 인터페이스의 디스플레이 범위를 지칭한다. 디스플레이 범위는 가상적 환경으로부터 가상적 카메라에 의해 획득된 범위일 수 있다. 즉, 상기한 가시적 경계 범위에서의 가상적 환경은 사용자 인터페이스 상에서 가시적이고, 예컨대, 가시적 경계 범위에서 상주하는 가상적 객체들은 사용자 인터페이스 상에서 가시적이다. 출원의 실시예들에서, 클라이언트는 클라이언트의 스크린 범위에 기초하여, 가상적 카메라의 디스플레이 범위를 결정할 수 있고, 그 다음으로, 가상적 환경의 가시적 경계 범위를 획득할 수 있다.
가상적 카메라의 슈팅 각도(shooting angle)로 인해, 가시적 경계 범위는 클라이언트의 스크린 범위와 동일하지 않다. 예시적으로, 도 5와 관련하여, 가상적 카메라(51)는 가상적 환경에서의 가상적 항목들을 획득할 수 있고, 가상적 항목들을 클라이언트의 스크린 범위(52)로 맵핑할 수 있다. 가상적 카메라(51)의 슈팅 각도로 인해, 제1 가상적 객체(53), 및 제2 가상적 객체(54)의 실선 라인 부분은 스크린 범위(52)에서 디스플레이될 수 있다. 즉, 도 5에서의 파선 범위(55)(즉, 사선 커버리지 영역)는 가시적 경계 범위이다.
출원의 실시예들은 클라이언트에 의해 사전 정의된 실행 영역을 획득하는 블록과, 클라이언트에 의해 가시적 경계 범위를 획득하는 블록과의 사이의 시간 연대적 순서를 제한하지 않는다는 것이 주목되어야 한다. 클라이언트는 먼저, 사전 정의된 실행 영역을 획득할 수 있고, 그 다음으로, 가시적 경계 범위를 획득할 수 있다. 대안적으로, 클라이언트는 먼저, 가시적 경계 범위를 획득할 수 있고, 그 다음으로, 사전 정의된 실행 영역을 획득할 수 있다. 물론, 클라이언트는 또한, 사전 정의된 실행 영역 및 가시적 경계 범위를 동시에 획득할 수 있고, 이들은 출원의 실시예들에 의해 제한되지 않는다.
블록(304)에서는, 사전 정의된 실행 영역 및 가시적 경계 범위에 기초하여, 가상적 환경에서의 제1 동작의 유효 실행 영역을 결정한다.
유효 실행 영역은 실제적인 동작 프로세스에서의 제1 동작의 액션 범위를 지칭한다. 유효 액션 범위는 제1 동작의 액션 타깃을 포함한다. 제1 동작은 가상적 환경의 유효 실행 영역 내의 가상적 항목들 또는 가상적 객체들에 오직 영향을 줄 수 있고, 유효 실행 영역 외부의 가상적 항목들 또는 가상적 객체들에 영향을 주지 않을 수 있다. 상기한 제1 동작의 사전 정의된 실행 영역 및 가상적 환경의 가시적 경계 범위를 획득한 후에, 클라이언트는 사전 정의된 실행 영역 및 가시적 경계 범위에 기초하여, 가상적 환경에서의 제1 동작의 유효 실행 영역을 결정할 수 있다.
출원의 실시예들에서, 클라이언트는 사전 정의된 실행 영역 및 가시적 경계 범위의 교차 영역을, 가상적 환경에서의 제1 동작의 유효 실행 영역으로서 식별할 수 있다. 예시적으로, 도 6과 관련하여, 제1 동작의 사전 정의된 실행 영역(61)은 원형 범위이다. 가상적 환경의 가시적 경계 범위(62)는 직사각형 범위이다. 클라이언트는 사전 정의된 실행 영역(61) 및 가시적 경계 범위(62)의 교차 영역(실선-라인 범위 영역)을 제1 동작의 유효 실행 영역으로서 식별한다.
블록(305)에서는, 유효 실행 영역에 기초하여, 타깃 가상적 객체를 결정한다.
타깃 가상적 객체는 상기한 제1 동작의 액션 객체를 지칭한다. 출원의 실시예들에서, 상기한 유효 실행 영역을 획득한 후에, 클라이언트는 유효 실행 영역에 기초하여, 제1 동작에 대응하는 타깃 가상적 객체를 결정할 수 있다.
가능한 구현예에서, 제1 동작의 응답 기간을 감소시키고 사용자의 실행 경험을 개선시키기 위하여, 사용자 인터페이스를 디스플레이한 후에, 클라이언트는 제1 동작의 유효 실행 영역을 실시간으로 획득할 수 있고, 유효 실행 영역에 기초하여, 제1 동작에 대응하는 타깃 가상적 객체를 결정할 수 있고, 상기한 유효 실행 영역 및 타깃 가상적 객체를 업데이팅할 수 있다. 추후에, 상기한 제1 동작의 트리거 명령을 수신한 후에, 클라이언트는 제1 동작에 대응하는 타깃 가상적 객체를 신속하게 결정할 수 있고, 제1 동작을 수행하기 위하여 제1 가상적 객체를 제어할 수 있다.
또 다른 가능한 구현예에서, 단말의 프로세싱 오버헤드(processing overhead)를 감소시키기 위하여, 제1 동작의 트리거 명령을 획득한 후에, 클라이언트는 제1 동작의 트리거 명령에 기초하여, 제1 동작의 유효 실행 영역을 획득할 수 있고, 유효 실행 영역에 기초하여, 제1 동작에 대응하는 타깃 가상적 객체를 결정할 수 있고, 그 다음으로, 제1 동작을 수행하기 위하여 제1 가상적 객체를 제어할 수 있다.
상기한 것을 감안하면, 출원의 실시예들에 의해 제공된 기술적 해결책들에서, 제1 동작의 유효 실행 영역은 제1 동작의 사전 정의된 실행 영역 및 가상적 환경의 가시적 경계 범위에 기초하여 결정된다. 제1 동작에 대응하는 타깃 가상적 객체는 유효 실행 영역에 기초하여 결정되어, 타깃 가상적 객체가 가시적 경계 범위에서 위치됨으로써, 제1 동작의 액션 객체가 사용자의 가시적 범위 내에 있다는 것을 보장하고, 다음의 장면으로부터 기인하는 동작 오판정, 즉, 액션 객체가 사용자의 비가시적 범위 내에 있다는 것을 회피하고, 제1 동작의 액션 타깃을 선택하기 위한 정확도를 개선시킨다.
추가적으로, 사전 정의된 실행 영역 및 가시적 경계 범위의 교차 영역을 제1 동작의 유효 실행 영역으로서 식별함으로써, 제1 동작의 액션 타깃이 제1 동작의 실행 영역 뿐만 아니라, 사용자의 가시적 범위에 있다는 것을 효과적으로 보장한다.
가시적 경계 범위의 획득은 다음에서 도입된다. 예시적인 실시예에서, 상기한 블록(303)은 다음의 블록들을 포함한다.
가상적 환경에서의 3 차원 시각적 표현을 프로세싱하고, 3 차원 시각적 표현의 프로세싱에 의해 가상적 환경의 2 차원 시각적 표현을 획득함.
3 차원 시각적 표현은 가상적 환경의 작동되는 시각적 표현을 지칭한다. 작동되는 시각적 표현에서, 제1 가상적 객체는 가상적 환경과 상호작용한다. 2 차원 시각적 표현은 가상적 객체의 픽처 디스플레이 다이어그램(picture display diagram)을 지칭한다. 픽처 디스플레이 다이어그램은 클라이언트의 사용자 인터페이스 상에서 디스플레이될 수 있다.
출원의 실시예들에서, 가시적 경계 범위를 획득할 때, 클라이언트는 3 차원 시각적 표현을 프로세싱할 수 있고, 3 차원 시각적 표현의 프로세싱에 의해 가상적 환경에서의 2 차원 시각적 표현을 획득할 수 있다.
2. 가상적 환경의 2 차원 시각적 표현으로부터, 가상적 환경 내의 가시적 경계 범위의 특징 포인트들의 좌표들을 획득함.
특징 포인트들은 가시적 경계 범위의 특정 범위를 표시하도록 구성된다. 특징 포인트들은 가시적 경계 범위의 경계 포인트들, 예컨대, 가시적 경계 범위의 정점들일 수 있다. 특징 포인트들의 수는 임의의 값일 수 있고, 이들은 출원의 실시예들에 의해 제한되지 않는다는 것이 주목되어야 한다.
가상적 환경의 상기한 2 차원 시각적 표현을 획득한 후에, 클라이언트는 2 차원 시각적 표현으로부터, 가상적 환경 내의 가시적 경계 범위의 특징 포인트들의 좌표들을 획득할 수 있고, 그 다음으로, 가시적 경계 범위를 획득할 수 있다. 출원의 실시예들에서, 클라이언트는 가상적 카메라의 파라미터들에 기초하여, 가상적 환경 내의 가시적 경계 범위의 특징 포인트들의 좌표들을 획득할 수 있다. 파라미터들은 위치 파라미터 및 회전 파라미터를 포함한다. 위치 파라미터는 가상적 환경에서의 가상적 카메라의 위치를 결정하도록 구성된다. 회전 파라미터는 가상적 환경에서의 가상적 카메라의 슈팅 각도 값(shooting angle value)을 결정하도록 구성된다. 클라이언트는 가상적 카메라의 회전 각도 및 슈팅 각도에 기초하여, 가상적 카메라의 슈팅 각도 값을 획득할 수 있다.
출원의 실시예들에서, 상이한 클라이언트가 상이한 스크린에 대응하므로, 클라이언트는 스크린 파라미터들에 기초하여, 가상적 카메라의 파라미터들을 조절할 수 있고, 조절들의 프로세스에 의해 가상적 카메라의 위치 파라미터 및 회전 파라미터를 획득할 수 있다는 것이 주목되어야 한다. 그리고 그 다음으로, 클라이언트는 위치 파라미터 및 회전 파라미터에 기초하여, 가상적 환경 내의 가시적 경계 범위의 특징 포인트들의 좌표들을 획득하여, 가상적 카메라에 의해 획득된 가상적 환경의 디스플레이 스크린은 클라이언트의 사용자 인터페이스와 일치된다. 스크린 파라미터들은 스크린 크기 및 스크린 해상도를 포함하고, 즉, 클라이언트는 스크린 크기 및 스크린 해상도에 기초하여, 가상적 카메라의 위치 파라미터 및 회전 파라미터를 적응적으로 조절할 수 있다. 추후에, 가상적 카메라에 의해 획득된 가상적 환경의 디스플레이 스크린은 클라이언트의 스크린 크기 및 스크린 해상도에 맞추어질 수 있다.
3. 가상적 환경에서의 특징 포인트들의 좌표들에 기초하여, 가시적 경계 범위를 획득함.
가상적 환경에서의 특징 포인트들의 상기한 좌표들을 획득한 후에, 클라이언트는 가상적 환경에서의 특징 포인트들의 좌표들에 기초하여, 가시적 경계 범위를 획득할 수 있다. 예를 들어, 가시적 경계 범위의 형상에 따르면, 클라이언트는 특징 포인트들을 연결할 수 있고, 상기한 가시적 경계 범위를 획득할 수 있다.
예시적으로, 가상적 환경이 3 차원 좌표계를 포함하는 것으로 가정하면, 3 차원 좌표계의 x-축 및 y-축은 가상적 환경의 평행한 평면에 대해 평행하다. x-축과 y-축 사이의 각도는 90°이다. z-축은 가상적 환경의 평행한 평면에 수직이다. x-축, y-축, 및 z-축은 포인트 O에서 교차한다. 추후에, 가상적 환경에서의 가상적 카메라의 위치가 도 7에서 도시된다. 가상적 카메라의 좌표들은 이다. y-축 및 z-축으로부터, 가시적 경계 범위에서의 z-축의 값 범위 가 획득된다. 도 7에서 도시된 바와 같이, x-축 상에서의 가상적 카메라의 회전 각도는 CA이고, 슈팅 각도는 FA이다. 클라이언트는 회전 각도 CA 및 슈팅 각도 FA에 기초하여, 가상적 카메라의 회전 각도 값이 CA-FA/2 ~ CA+FA/2인 것으로 결정할 수 있다. 또한, 가시적 경계 범위에서의 z-축의 값 범위 는 다음과 같다:
또한, x-축 및 z-축으로부터, 클라이언트는 가시적 경계 범위의 정점 좌표들 을 획득한다. 은 가시적 경계 범위의 상부 좌측 정점이다. 은 가시적 경계 범위의 상부 우측 정점이다. 은 가시적 경계 범위의 하부 좌측 정점이다. 은 가시적 경계 범위의 하부 우측 정점이다. 기하학적 원리들에 따르면, , , , 및 은 각각 다음과 같다는 것을 알 수 있다:
CAA는 가상적 카메라의 수평 개방 각도를 지칭한다.
가상적 환경은 2 차원 시각적 표현의 형태로 사용자 인터페이스 상에서 디스플레이되고, 전술한 y-축은 클라이언트의 실제적인 좌표 방향에서 내향으로 스크린에 수직이므로, 2 차원 시각적 표현에서, 가시적 경계 범위의 정점 좌표들은 , 및 이다. 정점 좌표들 , 및 을 획득한 후에, 클라이언트는 이 정점 좌표들을 연결할 수 있고, 그 다음으로, 상기한 가시적 경계 범위를 획득할 수 있다. 이때, 가시적 경계 범위는 사다리꼴 범위(71)이다.
가시적 경계 범위를 획득하는 상기한 블록은 애플리케이션에서의 어떤 컴퓨터 프로그램 모듈에 의해 수행될 수 있다는 것이 주목되어야 한다. 컴퓨터 프로그램 모듈은 스크린 마진 필터(screen margin filter)와 같은, 애플리케이션에서의 플러그-인(plug-in)으로서 존재할 수 있다.
도 8을 참조하면, 도 8은 출원의 또 다른 실시예에 따라, 단말의 사용자 인터페이스 상에서 가상적 객체를 선택하기 위한 방법을 예시하는 플로우차트이다. 방법은 단말에 적용될 수 있고, 예컨대, 각각의 블록의 실행 엔티티는 도 1에서 도시된 앱 작동 환경에서 단말(10)(다음에서 "클라이언트"로서 지칭됨)일 수 있다. 방법은 다음과 같은 몇몇 블록들(801 내지 806)을 포함할 수 있다.
블록(801)에서는, 사용자 인터페이스를 디스플레이한다.
블록(802)에서는, 가상적 환경 내의 제1 가상적 객체의 제1 동작의 사전 정의된 실행 영역을 획득한다.
블록(803)에서는, 가상적 환경의 가시적 경계 범위를 획득한다.
블록(804)에서는, 사전 정의된 실행 영역 및 가시적 경계 범위에 기초하여, 가상적 환경에서의 제1 동작의 유효 실행 영역을 결정한다.
상기한 블록들(801 내지 804)은 도 3으로 예시된 실시예에서의 블록들(301 내지 304)과 동일하고, 도 3으로 예시된 실시예를 참조하고, 이들은 여기에서 반복되지 않는다.
블록(805)에서는, 유효 실행 영역에서의 제2 가상적 객체를 후보 가상적 객체로서 결정한다.
제2 가상적 객체는 애플리케이션에서의 사용자 또는 또 다른 사용자에 의해 제어된 가상적 객체를 지칭한다. 후보 가상적 객체는 상기한 제1 동작의 후보 액션 타깃을 지칭한다. 상기한 유효 실행 영역을 획득한 후에, 클라이언트는 유효 실행 영역에서의 가상적 객체를 제2 가상적 객체로서 취할 수 있다. 제2 가상적 객체는 제1 가상적 객체와 동일한 캠프에서의 가상적 객체를 포함하고, 또한, 제1 가상적 객체와는 상이한 캠프에서의 가상적 객체를 포함할 수 있다.
가능한 구현예에서, 상기한 유효 실행 영역을 획득한 후에, 클라이언트는 유효 실행 영역의 경계 포인트들의 좌표들을 가상적 객체의 위치 좌표들과 비교할 수 있고, 그 다음으로, 유효 실행 영역에서의 제2 가상적 객체를 획득할 수 있다.
또 다른 가능한 구현예에서, 단말의 프로세싱 오버헤드들을 감소시키기 위하여, 클라이언트는 사전 정의된 실행 영역 및 가시적 경계 범위에 기초하여, 유효 실행 영역에서의 제2 가상적 객체를 직접적으로 결정할 수 있다. 사전 정의된 실행 영역을 획득한 후에, 클라이언트는 사전 정의된 실행 영역에서의 제2 가상적 객체를 획득할 수 있고, 제2 가상적 객체의 위치 정보를 획득할 수 있다. 또한, 클라이언트는 위치 정보에 기초하여, 제2 가상적 객체가 요건을 충족시키는지 여부를 결정한다. 요건은 제2 가상적 객체가 유효 실행 영역 내에 있는지 여부를 결정하기 위하여 이용된 판정 요건이다. 제2 가상적 객체의 위치 정보가 요건을 충족시킬 경우에, 제2 가상적 객체는 유효 실행 영역 내에 위치된다. 제2 가상적 객체의 위치 정보가 요건을 충족시키지 않을 경우에, 제2 가상적 객체는 유효 실행 영역 내에 위치되지 않는다.
상기한 요건은 제1 요건 및 제2 요건을 포함할 수 있다. 가시적 경계 범위는 제1 에지, 제2 에지, 제3 에지, 및 제4 에지에 의해 둘러싸인 사다리꼴 영역이다. 한편, 제1 에지는 제3 에지에 대해 평행하다. 사전 정의된 실행 영역 내의 제2 가상적 객체의 위치 정보를 획득한 후에, 클라이언트는 위치 정보를 분석할 수 있고 검출할 수 있다. 상기한 제2 가상적 객체의 위치 정보가 제1 에지와 제3 에지 사이에 위치될 경우에, 클라이언트는 제2 가상적 객체가 제1 요건을 충족시키는 것으로 결정한다. 상기한 제2 가상적 객체의 위치 정보가 제2 에지와 제4 에지 사이에 위치될 경우에, 클라이언트는 제2 가상적 객체가 제2 요건을 충족시키는 것으로 결정한다. 제2 가상적 객체가 제1 요건 및 제2 요건을 충족시킬 때, 클라이언트는 제2 가상적 객체가 유효 실행 영역 내에 위치되는 것으로 결정한다.
예시적으로, 도 7과 관련하여, 가시적 경계 범위는 사다리꼴 범위(71)이다. 사다리꼴 범위의 정점 좌표들은 , 및 이다. 제2 가상적 객체의 좌표들이 인 것으로 가정하면, 상기한 제1 요건은 다음과 같다:
.
제2 가상적 객체의 위치 정보가 상기한 제1 요건을 충족시킬 경우에, 제2 가상적 객체는 사다리꼴 범위(71)에서 상호 평행화된 제1 에지와 제3 에지 사이에 위치되는 것으로 결정된다.
상기한 제2 요건은:
그리고,
제2 가상적 객체의 위치 정보가 상기한 제2 요건을 충족시킬 경우에, 제2 가상적 객체는 사다리꼴 범위(71)에서 제2 에지와 제4 에지 사이에 위치되는 것으로 결정된다.
제2 가상적 객체의 위치 정보가 제1 및 제2 요건들을 충족시킬 때, 제2 가상적 객체는 유효 실행 영역 내에 위치되는 것으로 결정된다.
클라이언트는 상기한 제1 동작의 동작 속성들에 기초하여, 다수의 제2 가상적 객체들로부터 적어도 하나의 후보 가상적 객체를 선택할 수 있다. 동작 속성들은 공격 속성 및 이득 속성을 포함한다. 공격 속성은 상기한 제1 동작이 다른 가상적 객체들의 속성 값을 감소시킬 수 있다는 것을 지칭한다. 이득 속성은 상기한 제1 동작이 다른 가상적 객체들의 속성 값을 증가시킬 수 있다는 것을 지칭한다. 상기한 속성 값은 수명 값, 방어 값, 또는 공격 속도 등을 포함할 수 있고, 이들은 출원의 실시예들에 의해 제한되지 않는다. 상기한 제1 동작이 공격 동작으로서 식별될 경우에, 클라이언트는 제1 가상적 객체와는 상이한 캠프에 속하는, 유효 실행 영역에서의 가상적 객체를 후보 가상적 객체들로서 식별한다. 상기한 제1 동작이 이득 동작으로서 식별될 경우에, 클라이언트는 제1 가상적 객체와 동일한 캠프에 속하는, 유효 실행 영역에서의 가상적 객체를 후보 가상적 객체들로서 식별한다.
블록(806)에서는, 객체 선택 기준들에 기초하여, 하나 이상의 후보 가상적 객체들로부터 타깃 가상적 객체를 선택한다.
객체 선택 기준들은 제1 동작에 대응하는 액션 타깃의 선택 방법을 지칭한다. 객체 선택 기준들은 제1 동작의 액션 범위 및 타깃 선택 인덱스를 포함한다. 제1 동작의 액션 범위는 상기한 제1 동작의 효과 범위를 표시하도록 구성된다. 효과 범위는 어떤 영역 및 형상을 갖는 범위에 의해, 또는 타깃 가상적 객체들의 수에 의해 표현될 수 있다. 타깃 선택 인덱스는 타깃 가상적 객체의 선택 기준들을 표시하도록 구성된다. 선택 기준들은 제2 가상적 객체의 속성 값일 수 있다. 예를 들어, 선택 기준들은 제2 가상적 객체의 수명 값이다. 추후에, 클라이언트는 유효 실행 영역에서 가장 작은 수명 값을 갖는 제2 후보 가상적 객체를 타깃 가상적 객체로서 선택할 수 있다.
출원의 실시예들에서, 상기한 적어도 하나의 후보 가상적 객체를 획득한 후에, 클라이언트는 제1 동작의 객체 선택 기준들에 기초하여, 적어도 하나의 후보 가상적 객체로부터 타깃 가상적 객체를 선택할 수 있다. 상이한 동작은 상이한 객체 선택 기준들에 대응한다.
상기한 객체 선택 기준들은 설계자에 의해 사전 설정된 규칙일 수 있고, 또한, 애플리케이션에 따라 이번에 신축성 있게 변경되는 규칙일 수 있다는 것이 주목되어야 한다. 예를 들어, 사전 설정된 규칙은 대화형 동작 또는 제1 가상적 객체의 속성 값에 기초하여 변경될 수 있다. 예를 들어, 제1 가상적 객체의 제1 동작의 사용 카운트가 상이할 때, 상기한 객체 선택 기준들이 상이할 수 있다. 또 다른 예에 대하여, 제1 가상적 객체의 공격력이 상이할 때, 상기한 객체 선택 기준들이 상이할 수 있고, 이는 출원의 실시예들에 의해 제한되지 않는다.
상기한 것을 감안하면, 출원의 실시예들에 의해 제공된 기술적 해결책들에서, 제1 동작에 대응하는 타깃 가상적 객체는 유효 실행 영역으로부터 선택됨으로써, 단말의 사용자 인터페이스 상에서 타깃 가상적 객체를 선택하기 위한 정확도를 개선시킨다. 타깃 가상적 객체는 객체 선택 기준들에 기초하여 선택됨으로써, 타깃 가상적 객체의 선택이 더 신축적이다.
추가적으로, 상이한 타깃 가상적 객체는 제1 동작의 상이한 효과들에 기초하여 결정되어, 타깃 가상적 객체의 선택이 더 신축적이다.
추가적으로, 도 9와 관련하여, 애플리케이션으로의 완전한 도입이 제공된다.
블록(901)에서, 클라이언트는 사용자 인터페이스를 디스플레이한다.
블록(902)에서, 클라이언트는 제1 가상적 객체의 제1 동작의 사전 정의된 실행 영역에 대한 관련된 파라미터들을 획득하고, 사전 정의된 실행 영역의 관련된 파라미터들은 제1 가상적 객체의 위치 정보 및 제1 동작의 사전 정의된 실행 거리를 포함한다.
블록(903)에서, 클라이언트는 사전 정의된 실행 영역의 관련된 파라미터들에 기초하여, 제1 동작의 사전 정의된 실행 영역을 획득한다.
블록(904)에서, 클라이언트는 사전 정의된 실행 영역의 제2 가상적 객체의 위치 정보를 획득한다.
블록(905)에서, 클라이언트는 가시적 경계 범위를 획득한다.
블록(906)에서, 클라이언트는 사전 정의된 실행 영역에서 상주하는 제2 가상적 객체가 요건을 충족시키는지 여부를 결정한다. 사전 정의된 실행 영역에서 상주하는 제2 가상적 객체가 요건을 충족시킬 경우에, 클라이언트는 제2 가상적 객체가 유효 실행 영역에서 위치되는 것으로 결정하고, 블록(907)을 실행한다. 사전 정의된 실행 영역에서 상주하는 제2 가상적 객체가 요건을 충족시키지 않을 경우에, 클라이언트는 제2 가상적 객체가 유효 실행 영역 내에 위치되지 않는 것으로 결정하고, 프로세스를 종결시킨다.
블록(907)에서, 클라이언트는 제1 동작의 동작 속성들에 기초하여, 유효 실행 영역 내의 다수의 제2 가상적 객체들로부터 가상적 객체를 선택하고, 선택된 가상적 객체를 후보 가상적 객체로서 취하고, 선택된 가상적 객체는 제1 가상적 객체와 동일한 캠프에 속하거나, 제1 가상적 객체와는 상이한 캠프에 속한다.
블록(908)에서, 클라이언트는 객체 선택 기준들에 기초하여, 하나 이상의 후보 가상적 객체들로부터 타깃 가상적 객체를 선택하고, 선택된 타깃 가상적 객체를 제1 동작의 액션 타깃으로서 취한다.
다음은 출원의 방법 실시예들을 실행하도록 구성될 수 있는, 출원의 장치 실시예들이다. 출원의 장치 실시예들에서 개시되지 않은 세부사항들에 대하여, 출원의 방법 실시예들을 참조한다.
도 10을 참조하면, 도 10은 출원의 실시예에 따라, 단말의 사용자 인터페이스 상에서 가상적 객체를 선택하기 위한 장치의 블록도이다. 장치는 상기 가상적 객체의 선택 방법을 실현하는 기능을 가진다. 이러한 기능은 하드웨어에 의해 구현될 수 있고, 또한, 대응하는 소프트웨어를 실행하는 하드웨어에 의해 구현될 수 있다. 장치는 단말일 수 있고, 또한, 단말에서 설정될 수 있다. 장치(1000)는 인터페이스 디스플레이 모듈(1010), 영역 획득 모듈(1020), 경계 획득 모듈(1030), 영역 결정 모듈(1040), 및 객체 결정 모듈(1050)을 포함할 수 있다.
인터페이스 디스플레이 모듈(1010)은 사용자 인터페이스를 디스플레이하도록 구성된다. 사용자 인터페이스는 가상적 환경에 대응하는 디스플레이 스크린을 포함하고, 가상적 환경에서 위치된 제1 가상적 객체를 더 포함한다.
영역 획득 모듈(1020)은 가상적 환경 내의 제1 가상적 객체의 제1 동작의 사전 정의된 실행 영역을 획득하도록 구성된다.
경계 획득 모듈(1030)은 가상적 환경의 가시적 경계 범위를 획득하도록 구성된다. 가시적 경계 범위에서 상주하는 가상적 객체들은 사용자 인터페이스 상에서 가시적이다.
영역 결정 모듈(1040)은 사전 정의된 실행 영역 및 가시적 경계 범위에 기초하여, 가상적 환경 내의 제1 동작의 유효 실행 영역을 결정하도록 구성된다.
객체 결정 모듈(1050)은 유효 실행 영역에 기초하여, 타깃 가상적 객체를 결정하도록 구성된다.
예시적인 실시예에서, 경계 획득 모듈(1030)은 2 차원 획득 유닛(1031), 좌표 획득 유닛(1032), 및 경계 획득 유닛(1033)을 포함한다.
2 차원 획득 유닛(1031)은 가상적 환경에서의 3 차원 시각적 표현을 프로세싱하고, 3 차원 시각적 표현의 프로세싱에 의해 가상적 환경의 2 차원 시각적 표현을 획득하도록 구성된다.
좌표 획득 유닛(1032)은 가상적 환경의 2 차원 시각적 표현으로부터, 가상적 환경 내의 가시적 경계 범위의 특징 포인트들의 좌표들을 획득하도록 구성된다.
경계 획득 유닛(1033)은 가상적 환경에서의 특징 포인트들의 좌표들에 기초하여, 가시적 경계 범위를 획득하도록 구성된다.
예시적인 실시예에서, 경계 획득 유닛(1033)은 좌표 획득 서브유닛을 포함한다.
좌표 획득 서브유닛은 가상적 카메라의 파라미터들에 기초하여, 가상적 환경 내의 가시적 경계 범위의 특징 포인트들의 좌표들을 획득하도록 구성된다. 파라미터들은 위치 파라미터 및 회전 파라미터를 포함한다. 위치 파라미터는 가상적 환경에서의 가상적 카메라의 위치를 결정하도록 구성된다. 회전 파라미터는 가상적 환경에서의 가상적 카메라의 슈팅 각도 값을 결정하도록 구성된다.
예시적인 실시예에서, 좌표 획득 서브유닛은 스크린 파라미터들에 기초하여, 가상적 카메라의 파라미터들을 조절하고, 조절들의 프로세스에 의해 가상적 카메라의 위치 파라미터 및 회전 파라미터를 획득하도록 구성된다. 스크린 파라미터들은 스크린 크기 및 스크린 해상도의 파라미터들을 포함한다. 좌표 획득 서브유닛은 위치 파라미터 및 회전 파라미터에 기초하여, 가상적 환경 내의 가시적 경계 범위의 특징 포인트들의 좌표들을 획득하도록 구성된다.
예시적인 실시예에서, 영역 획득 모듈(1020)은 가상적 환경에서의 제1 가상적 객체의 위치 정보를 획득하고, 위치 정보 및 제1 동작의 사전 정의된 실행 거리에 기초하여, 가상적 환경에서의 제1 동작의 사전 정의된 실행 영역을 결정하도록 구성된다.
예시적인 실시예에서, 객체 결정 모듈(1050)은 후보 결정 유닛(1051) 및 타깃 결정 유닛(1052)을 포함한다.
후보 결정 유닛(1051)은 유효 실행 영역 내의 제2 가상적 객체를 후보 가상적 객체로서 결정하도록 구성된다.
타깃 결정 유닛(1052)은 객체 선택 기준들에 기초하여, 하나 이상의 후보 가상적 객체들로부터 타깃 가상적 객체를 선택하도록 구성된다.
예시적인 실시예에서, 가시적 경계 범위는 제1 에지, 제2 에지, 제3 에지, 및 제4 에지에 의해 둘러싸인 사다리꼴 영역이다. 제1 에지는 제3 에지에 대해 평행하다. 도 11에서 도시된 바와 같이, 장치(1000)는 위치 결정 모듈(1060)을 더 포함한다.
위치 결정 모듈(1060)은 사전 정의된 실행 영역에서의 제2 가상적 객체의 위치 정보를 획득하도록 구성된다. 제2 가상적 객체의 위치 정보가 제1 에지와 제3 에지 사이에 위치될 때, 위치 결정 모듈(1060)은 제2 가상적 객체가 제1 요건을 충족시키는 것으로 결정하도록 구성된다. 제2 가상적 객체의 위치 정보가 제2 에지와 제4 에지 사이에 위치될 때, 위치 결정 모듈(1060)은 제2 가상적 객체가 제2 요건을 충족시키는 것으로 결정하도록 구성된다. 제2 가상적 객체가 제1 요건 및 제2 요건을 충족시킬 때, 위치 결정 모듈(1060)은 제2 가상적 객체가 유효 실행 영역에서 위치되는 것으로 결정하도록 구성된다.
예시적인 실시예에서, 제1 동작이 공격 동작으로서 식별될 때, 후보 결정 유닛(1051)은 제1 가상적 객체와는 상이한 캠프에 속하는, 유효 실행 영역에서의 가상적 객체를 후보 가상적 객체로서 결정하도록 구성된다. 대안적으로, 제1 동작이 이득 동작으로서 식별될 때, 후보 결정 유닛(1051)은 제1 가상적 객체와 동일한 캠프에 속하는, 유효 실행 영역에서의 가상적 객체를 후보 가상적 객체로서 결정하도록 구성된다.
상기한 것을 감안하면, 출원의 실시예들에 의해 제공된 기술적 해결책들에서, 제1 동작의 유효 실행 영역은 제1 동작의 사전 정의된 실행 영역 및 가상적 환경의 가시적 경계 범위에 기초하여 결정된다. 제1 동작에 대응하는 타깃 가상적 객체는 유효 실행 영역에 기초하여 결정된다. 추후에, 타깃 가상적 객체는 가시적 경계 범위 내에 위치됨으로써, 제1 동작의 액션 타깃이 사용자의 가시적 범위 내에 위치된다는 것을 보장하고, 다음의 장면으로부터 기인하는 동작 오판정, 즉, 액션 타깃이 사용자의 비가시적 범위에서 위치된다는 것을 회피하고, 제1 동작의 액션 타깃을 선택하기 위한 정확도를 개선시킨다.
상기한 실시예에 의해 제공된 장치에 대하여, 그 기능들을 구현할 때, 상기한 기능적 모듈들의 분할은 오직 예로서 취해진다는 것이 주목되어야 한다. 실제적인 애플리케이션들에서, 상기한 기능들은 필요성들에 따라, 완료되어야 할 상이한 기능적 모듈들에 할당될 수 있다. 즉, 디바이스의 내부 구조는 위에서 설명된 기능들의 전부 또는 위에서 설명된 일부 기능들을 완료하기 위하여, 상이한 기능적 모듈들로 분할된다. 추가적으로, 상기한 실시예들에 의해 제공된 장치 및 방법 실시예들은 동일한 개념에 속한다. 특정 구현 프로세스는 방법 실시예들을 지칭할 수 있고, 이들은 여기에서 반복되지 않는다.
도 12를 참조하면, 도 12는 출원의 실시예에 따라, 단말(1200)의 구조를 예시하는 블록도이다. 단말(1200)은 이동 전화, 태블릿 컴퓨터, 게임 호스트, 전자책 판독기, 멀티미디어 재생 디바이스, 웨어러블 디바이스, 및 개인용 컴퓨터(PC)와 같은 전자 디바이스일 수 있다. 단말은 상기한 실시예에 의해 제공된 가상적 객체를 선택하기 위한 방법을 구현하도록 구성된다. 단말은 도 1로 예시된 게임 작동 환경에서의 단말(10)일 수 있다.
일반적으로, 단말(1200)은 프로세서(1201) 및 메모리(1202)를 포함한다.
프로세서(1201)는 하나 이상의 프로세싱 코어, 예컨대, 4-코어 프로세서, 8-코어 프로세서 등을 포함할 수 있다. 프로세서(1201)는 적어도 하나의 하드웨어 형태, 예컨대, 디지털 신호 프로세싱(Digital Signal Processing)(DSP), 필드 프로그래밍가능 게이트 어레이(Field Programmable Gate Array)(FPGA), 프로그래밍가능 로직 어레이(Programmable Logic Array)(PLA)에 의해 구현될 수 있다. 프로세서(1201)는 또한, 메인 프로세서(main processor) 및 코프로세서(coprocessor)를 포함할 수 있다. 메인 프로세서는 어웨이크 상태(awake state)에서 데이터를 프로세싱하는 것을 담당하는 프로세서이고, 이러한 프로세서는 또한, 중앙 프로세싱 유닛(Central Processing Unit)(CPU)으로서 지칭될 수 있다. 코프로세서는 스탠바이 상태(standby state)에서 데이터를 프로세싱하도록 구성된 저전력 프로세서이다. 일부 실시예들에서, 프로세서(1201)는 그래픽 프로세싱 유닛(Graphics Processing Unit)(GPU)과 통합될 수 있다. GPU는 디스플레이 상에서 디스플레이될 필요가 있는 내용들을 렌더링(render)하고 드로잉(draw)하도록 구성된다. 일부 실시예들에서, 프로세서(1201)는 또한, 인공 지능(Artificial Intelligence)(AI) 프로세서를 포함할 수 있다. AI 프로세서는 머신 러닝(machine learning)과 관련된 컴퓨팅 동작들을 프로세싱하도록 구성된다.
메모리(1202)는 하나 이상의 컴퓨터 판독가능 저장 매체를 포함할 수 있다. 컴퓨터 판독가능 저장 매체는 비-일시적일 수 있다. 메모리(1202)는 또한, 고속 랜덤 액세스 메모리(Random Access Memory)(RAM) 및 비-일시적 메모리, 예컨대, 하나 이상의 디스크 저장 디바이스, 플래시 저장 디바이스를 포함할 수 있다. 일부 실시예들에서, 메모리(1202)에서의 비-일시적 컴퓨터 판독가능 저장 매체는 적어도 하나의 명령, 적어도 하나의 프로그램, 코드 세트, 또는 명령 세트를 저장하도록 구성되고, 적어도 하나의 명령, 적어도 하나의 프로그램, 코드 세트, 또는 명령 세트는 가상적 객체를 선택하기 위한 상기한 방법을 구현하기 위하여, 하나 이상의 프로세서에 의해 구성되고 프로세싱된다.
일부 실시예들에서, 단말(1200)은 또한, 주변 디바이스 인터페이스(1203) 및 적어도 하나의 주변 디바이스를 포함할 수 있다. 프로세서(1201), 메모리(1202), 및 주변 디바이스 인터페이스(1203)는 버스 또는 신호 라인을 통해 접속될 수 있다. 각각의 주변 디바이스는 버스, 신호 라인, 또는 회로 보드를 통해, 주변 디바이스 인터페이스(1203)와 접속될 수 있다. 구체적으로, 주변 디바이스는 라디오 주파수(Radio Frequency)(RF) 회로, 디스플레이(예컨대, 터치 스크린)(1205), 카메라 컴포넌트(1206), 오디오 회로(1207), 위치결정 컴포넌트(1208), 전력 공급부(1209) 중의 적어도 하나를 포함한다.
본 기술분야에서의 통상의 기술자들은 도 12에서 도시된 구조가 단말(1200)을 제한하지 않는다는 것을 이해할 수 있다. 단말(1200)은 도 12에서 도시된 것과 비교하여 더 많거나 더 적은 컴포넌트들을 포함할 수 있거나, 일부 컴포넌트들을 조합할 수 있거나, 상이한 컴포넌트 레이아웃을 채택할 수 있다.
예시적인 실시예에서는, 컴퓨터 판독가능 저장 매체가 또한 제공된다. 저장 매체는 적어도 하나의 명령, 적어도 하나의 프로그램, 코드 세트, 또는 명령 세트를 저장하고, 적어도 하나의 명령, 적어도 하나의 프로그램, 코드 세트, 또는 명령 세트가 프로세서에 의해 실행될 때, 가상적 객체를 선택하기 위한 전술한 방법이 구현된다.
컴퓨터 판독가능 저장 매체는 판독 전용 메모리(Read Only Memory)(ROM), 랜덤 액세스 메모리(Random Access Memory)(RAM), 솔리드 스테이트 드라이브들(Solid State Drives)(SSD), 또는 컴팩트 디스크(Compact Disk)(CD) 등을 포함할 수 있다. RAM은 저항성 랜덤 액세스 메모리(Resistance Random Access Memory)(ReRAM) 및 동적 랜덤 액세스 메모리(Dynamic Random Access Memory)(DRAM)를 포함할 수 있다.
예시적인 실시예에서는, 컴퓨터 프로그램 제품이 또한 제공된다. 컴퓨터 프로그램 제품이 프로세서에 의해 실행될 때, 가상적 객체를 선택하기 위한 상기한 방법이 달성된다.
출원에서 언급된 "다수"는 2 개 이상을 지칭한다는 것이 이해되어야 한다. "및/또는"은 연관된 객체들의 연관된 관계를 설명하고, 이러한 연관된 관계는 3 개의 관계들이 있을 수 있다는 것을 표시하고, 예컨대, A 및/또는 B는 3 개의 상황들, A가 독립적으로 존재하는 것, A 및 B가 동시에 존재하는 것, B가 독립적으로 존재하는 것을 표시할 수 있다. 글자 "/"는 일반적으로, 전자와 추후의 연관된 객체들 사이에 "또는" 관계가 있다는 것을 표현한다. 추가적으로, 출원에서 설명된 블록 번호들은 블록들 중에서 하나의 가능한 실행 순서를 오직 예시적으로 예시한다. 일부 다른 실시예들에서, 상기한 블록들은 번호들의 순서에 따르지 않으면서 수행될 수 있고, 예컨대, 상이한 번호들을 갖는 2 개의 블록들이 동시에 수행되거나, 상이한 번호들을 갖는 2 개의 블록들이 도면에서 예시된 반대의 순서에 따라 수행되고, 이들은 출원의 실시예들에 의해 제한되지 않는다.
상기한 것은 출원의 오직 예시적인 실시예들이고, 이들은 출원을 제한할 시에 이용하기 위한 것이 아니다. 출원의 사상 및 원리 내에서 행해진 임의의 수정들, 등가적인 치환들, 또는 개선들은 출원의 보호 범위에 의해 포괄되어야 한다.

Claims (15)

  1. 단말에 의해 수행되는, 상기 단말의 사용자 인터페이스 상에서 가상적 객체를 선택하기 위한 방법으로서,
    사용자 인터페이스를 디스플레이하는 단계 - 상기 사용자 인터페이스는 가상적 환경에 대응하는 디스플레이 스크린을 포함하고, 상기 가상적 환경에서 위치된 제1 가상적 객체를 더 포함함 -;
    상기 가상적 환경 내의 상기 제1 가상적 객체의 제1 동작의 사전 정의된 실행 영역을 획득하는 단계;
    상기 가상적 환경의 가시적 경계 범위를 획득하는 단계 - 상기 가시적 경계 범위에서 상주하는 가상적 객체들은 상기 사용자 인터페이스 상에서 가시적임 -;
    상기 사전 정의된 실행 영역의 일부가 상기 가시적 경계 범위 외부에 있을 때, 상기 사전 정의된 실행 영역과 상기 가시적 경계 범위의 교차 영역을 상기 제1 동작의 유효 실행 영역으로서 식별하는 단계; 및
    상기 유효 실행 영역에 기초하여, 타깃 가상적 객체를 결정하는 단계
    를 포함하는, 방법.
  2. 삭제
  3. 제1항에 있어서, 상기 가상적 환경의 상기 가시적 경계 범위를 획득하는 단계는,
    상기 가상적 환경의 3 차원 시각적 표현을 프로세싱하는 단계;
    상기 3 차원 시각적 표현의 상기 프로세싱에 의해 상기 가상적 환경의 2 차원 시각적 표현을 획득하는 단계;
    상기 2 차원 시각적 표현으로부터, 상기 가상적 환경 내의 상기 가시적 경계 범위의 특징 포인트들의 좌표들을 획득하는 단계; 및
    상기 특징 포인트들의 상기 좌표들에 기초하여, 상기 가시적 경계 범위를 획득하는 단계를 포함하는, 방법.
  4. 제3항에 있어서, 상기 가상적 환경 내의 상기 가시적 경계 범위의 상기 특징 포인트들의 상기 좌표들을 획득하는 단계는,
    가상적 카메라의 파라미터들에 기초하여, 상기 가상적 환경 내의 상기 가시적 경계 범위의 상기 특징 포인트들의 좌표들을 획득하는 단계를 포함하고;
    상기 파라미터들은 위치 파라미터 및 회전 파라미터를 포함하고, 상기 위치 파라미터는 상기 가상적 환경에서의 상기 가상적 카메라의 위치를 결정하도록 구성되고, 상기 회전 파라미터는 상기 가상적 환경에서의 상기 가상적 카메라의 슈팅 각도 값(shooting angle value)을 결정하도록 구성되는, 방법.
  5. 제4항에 있어서, 상기 가상적 카메라의 상기 파라미터들에 기초하여, 상기 가상적 환경 내의 상기 가시적 경계 범위의 상기 특징 포인트들의 상기 좌표들을 획득하는 단계는,
    스크린 파라미터들에 기초하여, 상기 가상적 카메라의 상기 파라미터들을 조절하는 단계;
    상기 조절들의 프로세스에 의해 상기 가상적 카메라의 상기 위치 파라미터 및 상기 회전 파라미터를 획득하는 단계 - 상기 스크린 파라미터들은 스크린 크기 및 스크린 해상도의 파라미터들을 포함함 -; 및
    상기 위치 파라미터 및 상기 회전 파라미터에 기초하여, 상기 가상적 환경 내의 상기 가시적 경계 범위의 상기 특징 포인트들의 상기 좌표들을 획득하는 단계를 포함하는, 방법.
  6. 제1항에 있어서, 상기 가상적 환경에서의 상기 제1 가상적 객체의 상기 제1 동작의 상기 사전 정의된 실행 영역을 획득하는 단계는,
    상기 가상적 환경 내의 상기 제1 가상적 객체의 위치 정보를 획득하는 단계; 및
    상기 위치 정보 및 상기 제1 동작의 사전 정의된 실행 거리에 기초하여, 상기 가상적 환경에서의 상기 제1 동작의 상기 사전 정의된 실행 영역을 결정하는 단계를 포함하는, 방법.
  7. 제1항에 있어서, 상기 유효 실행 영역에 기초하여 상기 타깃 가상적 객체를 결정하는 단계는,
    상기 유효 실행 영역 내의 제2 가상적 객체를 후보 가상적 객체로서 결정하는 단계;
    객체 선택 기준들에 기초하여, 하나 이상의 후보 가상적 객체로부터 상기 타깃 가상적 객체를 선택하는 단계를 포함하는, 방법.
  8. 제7항에 있어서, 상기 가시적 경계 범위는 제1 에지, 제2 에지, 제3 에지, 및 제4 에지에 의해 둘러싸인 사다리꼴 영역이고, 상기 제1 에지는 상기 제3 에지에 대해 평행하고, 상기 방법은,
    상기 사전 정의된 실행 영역에서의 상기 제2 가상적 객체의 위치 정보를 획득하는 단계;
    상기 제2 가상적 객체의 상기 위치 정보가 상기 제1 에지와 상기 제3 에지 사이에 위치될 때, 상기 제2 가상적 객체가 제1 요건을 충족시키는 것으로 결정하는 단계;
    상기 제2 가상적 객체의 상기 위치 정보가 상기 제2 에지와 상기 제4 에지 사이에 있을 때, 상기 제2 가상적 객체가 제2 요건을 충족시키는 것으로 결정하는 단계;
    상기 제2 가상적 객체가 상기 제1 요건 및 상기 제2 요건을 충족시킬 때, 상기 제2 가상적 객체가 상기 유효 실행 영역에서 위치되는 것으로 결정하는 단계를 더 포함하는, 방법.
  9. 제7항에 있어서, 상기 유효 실행 영역에서의 상기 제2 가상적 객체를 상기 후보 가상적 객체로서 결정하는 단계는,
    상기 제1 동작이 공격 동작으로서 식별될 때, 상기 제1 가상적 객체와는 상이한 캠프에 속하는, 상기 유효 실행 영역에서의 가상적 객체를 상기 후보 가상적 객체로서 식별하는 단계를 포함하는, 방법.
  10. 제7항에 있어서, 상기 유효 실행 영역에서의 상기 제2 가상적 객체를 상기 후보 가상적 객체로서 결정하는 단계는,
    상기 제1 동작이 이득 동작으로서 식별될 때, 상기 제1 가상적 객체와 동일한 캠프에 속하는, 상기 유효 실행 영역에서의 가상적 객체를 상기 후보 가상적 객체로서 식별하는 단계를 포함하는, 방법.
  11. 단말의 사용자 인터페이스 상에서 가상적 객체를 선택하기 위한 장치로서,
    사용자 인터페이스를 디스플레이하도록 구성된 인터페이스 디스플레이 모듈 - 상기 사용자 인터페이스는 가상적 환경에 대응하는 디스플레이 스크린을 포함하고, 상기 가상적 환경에서 위치된 제1 가상적 객체를 더 포함함 -;
    상기 가상적 환경 내의 상기 제1 가상적 객체의 제1 동작의 사전 정의된 실행 영역을 획득하도록 구성된 범위 획득 모듈;
    상기 가상적 환경의 가시적 경계 범위를 획득하도록 구성된 경계 획득 모듈 - 상기 가시적 경계 범위에서 상주하는 가상적 객체들은 상기 사용자 인터페이스 상에서 가시적임 -;
    상기 사전 정의된 실행 영역의 일부가 상기 가시적 경계 범위 외부에 있을 때, 상기 사전 정의된 실행 영역과 상기 가시적 경계 범위의 교차 영역을 상기 제1 동작의 유효 실행 영역으로서 식별하도록 구성된 범위 결정 모듈; 및
    상기 유효 실행 영역에 기초하여, 타깃 가상적 객체를 결정하도록 구성된 객체 결정 모듈
    을 포함하는, 장치.
  12. 제11항에 있어서, 상기 경계 획득 모듈은 2 차원 획득 유닛, 좌표 획득 유닛, 및 경계 획득 유닛을 포함하고;
    상기 2 차원 획득 유닛은 상기 가상적 환경의 3 차원 시각적 표현을 프로세싱하고, 상기 3 차원 시각적 표현의 프로세싱에 의해 상기 가상적 환경의 2 차원 시각적 표현을 획득하도록 구성되고;
    상기 좌표 획득 유닛은 상기 가상적 환경의 상기 2 차원 시각적 표현으로부터, 상기 가상적 환경 내의 상기 가시적 경계 범위의 특징 포인트들의 좌표들을 획득하도록 구성되고; 그리고
    상기 경계 획득 유닛은 상기 가상적 환경 내의 상기 특징 포인트들의 상기 좌표들에 기초하여, 상기 가시적 경계 범위를 획득하도록 구성되는, 장치.
  13. 제12항에 있어서, 상기 경계 획득 유닛은 좌표 획득 서브유닛을 포함하고,
    상기 좌표 획득 서브유닛은 가상적 카메라의 파라미터들에 기초하여, 상기 가상적 환경 내의 상기 가시적 경계 범위의 상기 특징 포인트들의 좌표들을 획득하도록 구성되고;
    상기 파라미터들은 위치 파라미터 및 회전 파라미터를 포함하고, 상기 위치 파라미터는 상기 가상적 환경에서의 상기 가상적 카메라의 위치를 결정하도록 구성되고, 상기 회전 파라미터는 상기 가상적 환경에서의 상기 가상적 카메라의 슈팅 각도 값을 결정하도록 구성되는, 장치.
  14. 프로세서 및 메모리를 포함하는 단말로서,
    상기 메모리는, 상기 프로세서에 의해 로딩되고 실행될 때, 상기 프로세서로 하여금, 제1항 및 제3항 내지 제10항 중 어느 한 항에 따라 가상적 객체를 선택하기 위한 방법을 수행하게 하는 적어도 하나의 명령, 적어도 하나의 프로그램, 코드 세트, 또는 명령 세트를 저장하는, 단말.
  15. 컴퓨터 판독가능 저장 매체로서,
    상기 컴퓨터 판독가능 저장 매체는, 프로세서에 의해 로딩되고 프로세싱될 때, 상기 프로세서로 하여금, 제1항 및 제3항 내지 제10항 중 어느 한 항에 따라 가상적 객체를 선택하기 위한 방법을 수행하게 하는 적어도 하나의 명령, 적어도 하나의 프로그램, 코드 세트, 또는 명령 세트를 저장하는, 컴퓨터 판독가능 저장 매체.
KR1020217032508A 2020-05-12 2021-03-30 가상적 객체들을 선택하기 위한 방법, 장치, 단말, 및 저장 매체 KR102603609B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010398569.3A CN111589114B (zh) 2020-05-12 2020-05-12 虚拟对象的选择方法、装置、终端及存储介质
CN202010398569.3 2020-05-12
PCT/CN2021/083725 WO2021227684A1 (en) 2020-05-12 2021-03-30 Method for selecting virtual objects, apparatus, terminal and storage medium

Publications (2)

Publication Number Publication Date
KR20210141971A KR20210141971A (ko) 2021-11-23
KR102603609B1 true KR102603609B1 (ko) 2023-11-20

Family

ID=72180540

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217032508A KR102603609B1 (ko) 2020-05-12 2021-03-30 가상적 객체들을 선택하기 위한 방법, 장치, 단말, 및 저장 매체

Country Status (7)

Country Link
US (1) US20220032188A1 (ko)
EP (1) EP3930863A1 (ko)
JP (2) JP2022535502A (ko)
KR (1) KR102603609B1 (ko)
CN (1) CN111589114B (ko)
SG (1) SG11202112242RA (ko)
WO (1) WO2021227684A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111672117B (zh) * 2020-06-05 2021-07-09 腾讯科技(深圳)有限公司 虚拟对象的选择方法、装置、设备及存储介质
CN112396683B (zh) * 2020-11-30 2024-06-04 腾讯科技(深圳)有限公司 虚拟场景的阴影渲染方法、装置、设备及存储介质
CN112614028B (zh) * 2020-12-22 2024-01-05 郑州捷安高科股份有限公司 方舱建筑的搭建培训方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008307387A (ja) 2007-06-13 2008-12-25 Nhn Corp オンラインゲーム方法及びオンラインゲームシステム
JP2015226767A (ja) * 2015-05-25 2015-12-17 株式会社コロプラ ゲーム・プログラム
US20180369693A1 (en) * 2017-06-26 2018-12-27 Netease (Hangzhou) Network Co.,Ltd. Virtual Character Control Method, Apparatus, Storage Medium and Electronic Device

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9800397D0 (en) * 1998-01-09 1998-03-04 Philips Electronics Nv Virtual environment viewpoint control
US8115765B2 (en) * 2004-05-26 2012-02-14 Sony Online Entertainment Llc Rule-based procedural terrain generation
JP4469709B2 (ja) * 2004-12-01 2010-05-26 任天堂株式会社 画像処理プログラムおよび画像処理装置
JP4163718B2 (ja) * 2006-02-28 2008-10-08 株式会社コナミデジタルエンタテインメント オブジェクト表示装置、オブジェクト配置方法、および、プログラム
JP5210547B2 (ja) * 2007-05-29 2013-06-12 任天堂株式会社 移動制御プログラムおよび移動制御装置
JP5072944B2 (ja) * 2009-12-01 2012-11-14 株式会社スクウェア・エニックス ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム
JP5193275B2 (ja) * 2010-12-01 2013-05-08 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置の制御方法、及びプログラム
JP5552469B2 (ja) * 2011-09-27 2014-07-16 株式会社コナミデジタルエンタテインメント ゲーム装置、及びプログラム
JP5403045B2 (ja) * 2011-12-22 2014-01-29 カシオ計算機株式会社 撮像装置、撮像方法及びプログラム
TW201334843A (zh) * 2012-02-20 2013-09-01 Fu Li Ye Internat Corp 具有觸控面板媒體的遊戲控制方法及該遊戲媒體
CN104898953B (zh) * 2015-06-16 2016-10-26 深圳市腾讯计算机***有限公司 基于触控屏的操控方法和装置
CN105335064B (zh) * 2015-09-29 2017-08-15 腾讯科技(深圳)有限公司 一种信息处理方法和终端
CN105194873B (zh) * 2015-10-10 2019-01-04 腾讯科技(成都)有限公司 一种信息处理方法、终端及计算机存储介质
US9996235B2 (en) * 2015-10-15 2018-06-12 International Business Machines Corporation Display control of an image on a display screen
JP6673796B2 (ja) * 2016-09-30 2020-03-25 株式会社コロプラ ゲームプログラム、ゲームを提供する方法、および情報処理装置
CN106807087B (zh) * 2017-01-23 2018-07-06 腾讯科技(深圳)有限公司 一种应用中模拟对象处理的方法以及移动终端
US10737178B2 (en) * 2017-06-19 2020-08-11 Niantic, Inc. Providing a shared virtual experience in a location-based game
US10409444B2 (en) * 2017-09-01 2019-09-10 Microsoft Technology Licensing, Llc Head-mounted display input translation
CN108465240B (zh) * 2018-03-22 2020-08-11 腾讯科技(深圳)有限公司 标记点位置显示方法、装置、终端及计算机可读存储介质
CN108379839B (zh) * 2018-03-23 2019-12-10 网易(杭州)网络有限公司 控件的响应方法、装置和终端
CN110141869A (zh) * 2019-04-11 2019-08-20 腾讯科技(深圳)有限公司 操作控制方法、装置、电子设备及存储介质
CN110585707B (zh) * 2019-09-20 2020-12-11 腾讯科技(深圳)有限公司 视野画面显示方法、装置、设备及存储介质
CN110694261B (zh) * 2019-10-21 2022-06-21 腾讯科技(深圳)有限公司 控制虚拟对象进行攻击的方法、终端及存储介质
CN110694271B (zh) * 2019-10-21 2023-05-12 网易(杭州)网络有限公司 游戏场景中的相机姿态控制方法、装置及电子设备
CN111124226B (zh) * 2019-12-17 2021-07-30 网易(杭州)网络有限公司 游戏画面的显示控制方法、装置、电子设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008307387A (ja) 2007-06-13 2008-12-25 Nhn Corp オンラインゲーム方法及びオンラインゲームシステム
JP2015226767A (ja) * 2015-05-25 2015-12-17 株式会社コロプラ ゲーム・プログラム
US20180369693A1 (en) * 2017-06-26 2018-12-27 Netease (Hangzhou) Network Co.,Ltd. Virtual Character Control Method, Apparatus, Storage Medium and Electronic Device

Also Published As

Publication number Publication date
KR20210141971A (ko) 2021-11-23
EP3930863A1 (en) 2022-01-05
CN111589114A (zh) 2020-08-28
SG11202112242RA (en) 2021-12-30
CN111589114B (zh) 2023-03-10
JP2024001280A (ja) 2024-01-09
WO2021227684A1 (en) 2021-11-18
US20220032188A1 (en) 2022-02-03
JP2022535502A (ja) 2022-08-09

Similar Documents

Publication Publication Date Title
KR102625233B1 (ko) 가상 객체를 제어하기 위한 방법, 및 관련 장치
KR102603609B1 (ko) 가상적 객체들을 선택하기 위한 방법, 장치, 단말, 및 저장 매체
JP7331124B2 (ja) 仮想オブジェクトの制御方法、装置、端末及び記憶媒体
JP7387758B2 (ja) インタフェース表示方法、装置、端末、記憶媒体及びコンピュータプログラム
JP7137719B2 (ja) 仮想オブジェクトの選択方法、装置、端末及びプログラム
KR102641337B1 (ko) 가상 객체 선택 방법 및 장치, 디바이스 및 저장 매체
CN111905363B (zh) 虚拟对象的控制方法、装置、终端及存储介质
CN110801629B (zh) 虚拟对象生命值提示图形的显示方法、装置、终端及介质
WO2023020125A1 (zh) 虚拟环境画面的显示方法、装置、终端、介质及程序产品
CN111643895B (zh) 操作响应方法、装置、终端及存储介质
KR102648210B1 (ko) 가상 객체 제어 방법 및 장치, 단말, 및 저장 매체
WO2024051414A1 (zh) 热区的调整方法、装置、设备、存储介质及程序产品

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant