JP6620169B2 - 情報処理方法、端末及びコンピュータ記憶媒体 - Google Patents

情報処理方法、端末及びコンピュータ記憶媒体 Download PDF

Info

Publication number
JP6620169B2
JP6620169B2 JP2017554809A JP2017554809A JP6620169B2 JP 6620169 B2 JP6620169 B2 JP 6620169B2 JP 2017554809 A JP2017554809 A JP 2017554809A JP 2017554809 A JP2017554809 A JP 2017554809A JP 6620169 B2 JP6620169 B2 JP 6620169B2
Authority
JP
Japan
Prior art keywords
skill
release
user interface
range
character object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017554809A
Other languages
English (en)
Other versions
JP2018517449A (ja
Inventor
ワン,ハオス
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2018517449A publication Critical patent/JP2018517449A/ja
Application granted granted Critical
Publication of JP6620169B2 publication Critical patent/JP6620169B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04895Guidance during keyboard input operation, e.g. prompting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

<関連出願>
本願は2015年10月10日付けでテンセント・テクノロジー(シンセン)カンパニー・リミテッドにより出願された「INFORMATION PROCESSING METHOD, TERMINAL, AND COMPUTER STORAGE MEDIUM」と題する中国特許出願第201510654167.4号による優先的利益を享受し、その中国特許出願は全体的にリファレンスに組み入れられる。
<技術分野>
本開示は情報交換技術に関連し、特に、情報処理方法、端末及びコンピュータ記憶媒体に関連する。
ラージ・スクリーン及びスーパー・スクリーン・インテリジェント端末の漸進的な普及とともに、インテリジェント端末のプロセッサは益々高い処理能力を有し、それにより、マン・マシン・インタラクションに基づいて制御を実行する多くのアプリケーションがラージ・スクリーン又はスーパー・スクリーンに登場している。マン・マシン・インタラクションに基づいて制御を実行するプロセスにおいて、多くのユーザーは、様々なインタラクション結果を得るために、1対1、1対多及び多対多の形式でグループを形成することにより、様々なインタラクション・モードを動作させても良い。例えば、ラージ・スクリーン又はスーパー・スクリーンにおけるレンダリングにより得られるグラフィカル・ユーザー・インターフェースにおいて、マン・マシン・インタラクションにおける制御処理により、多数のユーザーが2つの異なるグループに分けられた後、異なるグループ間で情報交換が実行され、情報交換に対する応答に応じて様々なインタラクション結果が得られ;及び、マン・マシン・インタラクションにおける制御処理を利用により、同じグループ内のグループ・メンバ間でも情報交換が実行され、情報交換に対する応答に応じて様々なインタラクション結果が得られる。
既存の技術では、情報交換プロセスにおいて、特定の能力のリリース(release of a particular capability)は、情報の提示形式及び内容を豊かにするためにトリガーされ、情報の様々な提示形式及び内容は最終的には様々なインタラクション結果をもたらす。しかしながら、特定の能力をリリースする現在の方法では、リリースされるスキル(a released skill)が向けられるターゲット・オブジェクトは正確かつ迅速に配置されることができず、操作ミスを生じやすく、更に、不正確な配置はインタラクション処理の処理速度にも影響を及ぼす。
このような観点から、本発明の実施形態は、既存の技術における少なくとも1つの問題を解決するように、情報処理方法、端末及び記憶媒体を提供することを意図しており、それにより、リリースされるスキルが向けられるターゲット・オブジェクトは正確かつ迅速に配置されることが可能になり、操作ミスが回避され、更に、不正確な配置が改善されるのでインタラクション処理の処理速度も向上する。
本発明の実施形態の技術的解決手段は次のように実現される:
本発明の実施形態は情報処理方法を提供し、グラフィカル・ユーザー・インターフェースを得るために、ソフトウェア・アプリケーションが端末のプロセッサで実行され、端末のディスプレイでレンダリングが実行され、プロセッサ、グラフィカル・ユーザー・インターフェース及びソフトウェア・アプリケーションはゲーム・システムに実装されており、情報処理方法は:
少なくとも1つの仮想リソース・オブジェクトを得るために、グラフィカル・ユーザー・インターフェースでレンダリングを実行するステップ;
グラフィカル・ユーザー・インターフェースの少なくとも1つのスキル・オペレーション・エリアに位置する少なくとも1つのスキル・オブジェクトに関してスキル・リリース・トリガ・ジェスチャを検出した場合に、スキル・リリース補助制御オブジェクトを得るために、グラフィカル・ユーザー・インターフェースでレンダリングを実行するステップであって、スキル・リリース補助制御オブジェクトは、スキル・リリース制御ハロー・オブジェクト(a skill release control halo object)と、スキル・リリース制御ハロー・オブジェクトの放射状レンジ内に位置する仮想ジョイスティック・オブジェクトとを有する、ステップ;
仮想ジョイスティック・オブジェクト上でドラッグ・オペレーションを検出した場合、それに応じてスキル・オブジェクトのスキル・リリース位置を、グラフィカル・ユーザー・インターフェース内で調整するように制御するステップ;及び
仮想ジョイスティック・オブジェクトが閾レンジの外にあるか否かを判定し、仮想ジョイスティック・オブジェクトが閾レンジの外にない場合、ドラッグ・オペレーションについての検出されたリリース・オペレーションに従って、スキル・オブジェクトのスキル・リリース可能レンジ内の少なくとも1つのキャラクタ・オブジェクトの中から、第1プリセット・ポリシーを満足するターゲット・キャラクタ・オブジェクトを選択し、ターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションを実行するステップ;
を有する情報処理方法である。
本発明の実施形態は更に端末も提供し、グラフィカル・ユーザー・インターフェースを得るために、ソフトウェア・アプリケーションが端末のプロセッサで実行され、端末のディスプレイでレンダリングが実行され、プロセッサ、前記グラフィカル・ユーザー・インターフェース及び前記ソフトウェア・アプリケーションはゲーム・システムに実装されており、端末は:
少なくとも1つの仮想リソース・オブジェクトを得るために、グラフィカル・ユーザー・インターフェースでレンダリングを実行するように構成される第1レンダリング・ユニット;
グラフィカル・ユーザー・インターフェースの少なくとも1つのスキル・オペレーション・エリアに位置する少なくとも1つのスキル・オブジェクトに関してスキル・リリース・トリガ・ジェスチャを検出した場合に、スキル・リリース補助制御オブジェクトを得るために、グラフィカル・ユーザー・インターフェースでレンダリングを実行するように構成される第1検出ユニットであって、スキル・リリース補助制御オブジェクトは、スキル・リリース制御ハロー・オブジェクトと、前記スキル・リリース制御ハロー・オブジェクトの放射状レンジ内に位置する仮想ジョイスティック・オブジェクトとを有する、第1検出ユニット;
仮想ジョイスティック・オブジェクト上でドラッグ・オペレーションを検出した場合、それに応じてスキル・オブジェクトのスキル・リリース位置を、グラフィカル・ユーザー・インターフェース内で調整するように制御を行うように構成される第2検出ユニット;及び
仮想ジョイスティック・オブジェクトが閾レンジの外にあるか否かを判定し、仮想ジョイスティック・オブジェクトが閾レンジの外にない場合、前記ドラッグ・オペレーションについての検出されたリリース・オペレーションに従って、スキル・オブジェクトのスキル・リリース可能レンジ内の少なくとも1つのキャラクタ・オブジェクトの中から、第1プリセット・ポリシーを満足するターゲット・キャラクタ・オブジェクトを選択し、ターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションを実行するスキル・リリース・ユニット;
を有する端末である。
本発明の実施形態は端末を更に提供し、端末は:ディスプレイ及びプロセッサを有し、ディスプレイは、グラフィカル・ユーザー・インターフェースを得るために、端末のプロセッサでソフトウェア・アプリケーションを実行し、ソフトウェア・アプリケーションでレンダリングを実行するように構成され、グラフィカル・ユーザー・インターフェースはマン・マシン・インタラクションによる制御処理を促すように構成され;
プロセッサは上記の解決手段のうちの何れかによる情報処理方法を実行するように構成され;及び
プロセッサ、グラフィカル・ユーザー・インターフェース及びソフトウェア・アプリケーションはゲーム・システムに実装されている。
本発明の実施形態はコンピュータ記憶媒体も提供し、コンピュータ実行可能命令がコンピュータ記憶媒体に保存され、コンピュータ実行可能命令は、上記の解決手段のうちの何れかによる情報処理方法を実行するように構成されている。
本発明の実施形態による情報処理方法では、グラフィカル・ユーザー・インターフェースを得るために、ソフトウェア・アプリケーションが端末のプロセッサで実行され、端末のディスプレイでレンダリングが実行され、プロセッサ、グラフィカル・ユーザー・インターフェース及びソフトウェア・アプリケーションはゲーム・システムに実装されており、情報処理方法は:少なくとも1つの仮想リソース・オブジェクトを得るために、グラフィカル・ユーザー・インターフェースでレンダリングを実行するステップ;グラフィカル・ユーザー・インターフェースの少なくとも1つのスキル・オペレーション・エリアに位置する少なくとも1つのスキル・オブジェクトに関してスキル・リリース・トリガ・ジェスチャを検出した場合に、スキル・リリース補助制御オブジェクトを得るために、グラフィカル・ユーザー・インターフェースでレンダリングを実行するステップであって、スキル・リリース補助制御オブジェクトは、スキル・リリース制御ハロー・オブジェクトと、スキル・リリース制御ハロー・オブジェクトの放射状レンジ内に位置する仮想ジョイスティック・オブジェクトとを有する、ステップ;仮想ジョイスティック・オブジェクト上でドラッグ・オペレーションを検出した場合、それに応じてスキル・オブジェクトのスキル・リリース位置を、前記グラフィカル・ユーザー・インターフェース内で調整するように制御するステップ;及び、仮想ジョイスティック・オブジェクトが閾レンジの外にあるか否かを判定し、仮想ジョイスティック・オブジェクトが閾レンジの外にない場合、ドラッグ・オペレーションについての検出されたリリース・オペレーションに従って、スキル・オブジェクトのスキル・リリース可能レンジ内の少なくとも1つのキャラクタ・オブジェクトの中から、第1プリセット・ポリシーを満足するターゲット・キャラクタ・オブジェクトを選択し、ターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションを実行するステップ;を有する情報処理方法である。
本発明の実施形態によれば、ユーザーの指が触れた仮想ジョイスティック・オブジェクトは閾レンジの外にあるか否かを判定することにより、ターゲット・キャラクタ・オブジェクトが選択され突き止められ;ユーザーの指が触れた仮想ジョイスティック・オブジェクトは閾レンジの外にないという判定結果である場合に、ユーザー指リリース・ジェスチャが取得され;ドラッグ・オペレーションについての検出されたリリース・オペレーションに従って、スキル・オブジェクトのスキル・リリース可能レンジ内の少なくとも1つのキャラクタ・オブジェクトの中から、第1プリセット・ポリシーを満足するターゲット・キャラクタ・オブジェクトが選択され、ターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションが実行される。特定の能力をリリースするそのような方法では、リリースされるスキルが向けられるターゲット・オブジェクトは正確かつ迅速に配置されることが可能になり、操作ミスが回避され、更に、正確な配置に起因してインタラクション処理の処理速度が向上する。
本発明の実施形態による情報交換を実行する様々なハードウェア・エンティティの概略図。
本発明の実施形態1の実現についての概略フローチャートを示す図。
本発明の実施形態による取得されるユーザー・インタラクション・インターフェース(UI)の適用についての概略図。
図3に対応するUIエフェクトを生成するためのシステム設定インターフェースの概略図。
本発明の実施形態による別の取得されるUIの適用についての概略図。
本発明の実施形態2の実現についての概略フローチャートを示す図。
本発明の実施形態3の実現についての概略フローチャートを示す図。
本発明の実施形態による取得されるUIの適用についての概略図。 本発明の実施形態による取得されるUIの適用についての概略図。 本発明の実施形態による取得されるUIの適用についての概略図。
本発明の実施形態4による概略的な構造図。
本発明の実施形態5によるハードウェア・エンティティの概略的な構造図。
本発明の実施形態が適用される特定のアプリケーション状況の実現についての概略フローチャートを示す図。
本発明の実施形態が適用される特定のアプリケーション状況の実現についての概略フローチャートを示す図。
以下、添付図面に関連して技術的解決手段の実現が詳細に説明される。
図1は本発明の実施形態による情報交換を実行する様々なハードウェア・エンティティの概略図である。図1は、1つ以上のサーバー(図1におけるサーバー11が単なる一例にすぎない)と、端末デバイス21ないし25と、ネットワーク31とを含む。ネットワーク31は、図視されていないルータ及びゲートウェイ等のようなネットワーク・エンティティを含む。端末デバイス21ないし25は、有線ネットワーク又は無線ネットワークを利用することによりサーバーと情報交換を行い、アプリケーション及び/又はアプリケーション更新データ・パケット及び/又はアプリケーション関連データ情報又はサービス情報をサーバー11からダウンロードする。あるタイプの端末デバイスが図1に示されており、端末デバイスのタイプは、携帯電話(端末23)、タブレット・コンピュータ又はPDA(端末25)、デスクトップ・コンピュータ(端末22)、PC(端末24)、オール・イン・ワンPC(端末21)及び他のタイプを含む。ユーザーにより必要とされる様々なアプリケーションが端末デバイスにインストールされており、様々なアプリケーションは、例えば、エンターテーメント機能を有するアプリケーション(例えば、ビデオ・アプリケーション、オーディオ再生アプリケーション、ゲーム・アプリケーション又はリーディング・ソフトウェア等)或いは応対機能を有するアプリケーション(例えば、地図ナビゲーション・アプリケーション又はグループ購入アプリケーション等)である。
図1に示されるシステムに基づいて、あるゲームのシーンが一例として使用される。端末デバイス21ないし25は、ネットワーク31により、ゲーム・アプリケーション及び/又はゲーム・アプリケーション更新データ・パケット及び/又はゲーム・アプリケーション関連データ情報又はサービス情報を、要求に応じてサーバー11からダウンロードする。本発明の実施形態によれば、ゲーム・アプリケーションが端末デバイスで開始され、レンダリングにより取得されるゲーム・インターフェースが入力された後に、ゲーム・インターフェースの少なくとも1つのスキル・オペレーション・エリアに位置する少なくとも1つのスキル・オブジェクトに関してスキル・リリース・トリガ・ジェスチャが検出された場合に、スキル・リリース補助制御オブジェクトが、グラフィカル・ユーザー・インターフェースにおけるレンダリングにより取得され、スキル・リリース補助制御オブジェクトは、スキル・リリース制御ハロー・オブジェクトと、スキル・リリース制御ハロー・オブジェクトの放射状レンジ内に位置する仮想ジョイスティック・オブジェクトとを有し;仮想ジョイスティック・オブジェクト上でドラッグ・オペレーションを検出した場合、それに応じてスキル・オブジェクトのスキル・リリース位置は、グラフィカル・ユーザー・インターフェース内で調整されるように制御され;及び、仮想ジョイスティック・オブジェクトが閾レンジの外にあるか否かが判定され、仮想ジョイスティック・オブジェクトが閾レンジの外にない場合、ドラッグ・オペレーションについての検出されたリリース・オペレーションに従って、スキル・オブジェクトのスキル・リリース可能レンジ内の少なくとも1つのキャラクタ・オブジェクトの中から、第1プリセット・ポリシーを満足するターゲット・キャラクタ・オブジェクトが選択され、ターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションが実行される。ユーザーの指が触れた仮想ジョイスティック・オブジェクトは閾レンジの外にあるか否かを判定することにより、ターゲット・キャラクタ・オブジェクトが選択され突き止められることが可能になり、それにより、ユーザーは情報交換プロセスで迅速に応答するように促されることが可能になり、ひいては、グラフィカル・ユーザー・インターフェースを探すためにユーザーが応答時間を費やしてしまうこと回避する。特定の能力をリリースするそのような方法では、リリースされるスキルが向けられるターゲット・オブジェクトは正確かつ迅速に配置されることが可能になり、操作ミスが回避され、更に、正確な配置に起因してインタラクション処理の処理速度が向上する。
図1の具体例は、本発明の実施形態を実現するシステム・アーキテクチャの一例に過ぎず、本発明の実施形態は図1のシステム・アーキテクチャに限定されない。システム・アーキテクチャに基づいて、本発明の様々な実施形態が提供される。
<実施形態1>
本発明の実施形態は情報処理方法を提供する。グラフィカル・ユーザー・インターフェースを得るために、ソフトウェア・アプリケーションが端末のプロセッサで実行され、端末のディスプレイでレンダリングが実行される。プロセッサ、グラフィカル・ユーザー・インターフェース及びソフトウェア・アプリケーションはゲーム・システムに実装されている。図2に示されるように、本方法は以下のステップを含む:
ステップ101:少なくとも1つの仮想リソース・オブジェクトを得るために、グラフィカル・ユーザー・インターフェースでレンダリングを実行する。
ここで、仮想リソース・オブジェクトは、グラフィカル・ユーザー・インターフェース内の様々なタイプのオブジェクトでカバーされている。例えば、ユーザーを表現するユーザー・アバター・アイコン(a user avatar icon)、背景にある建物、木、タワー・ディフェンス(tower defense)等を表現するオブジェクト、ユーザーのステータスを表現するオブジェクト(例えば、ブラッド値(a blood value)又はバイタリティ値(a vitality value)、ユーザーのスキル、イクイップメント(equipment)等を表現するオブジェクト、ユーザーの位置の変化を制御する方向ボタンオブジェクト、ユーザーによるスキル・リリース中に使用されるレンダリング・オブジェクト等の全てが、本発明の実施形態の「仮想リソース・オブジェクト」の保護範囲に属する。
ステップ102:グラフィカル・ユーザー・インターフェースの少なくとも1つのスキル・オペレーション・エリアに位置する少なくとも1つのスキル・オブジェクトに関してスキル・リリース・トリガ・ジェスチャを検出した場合に、スキル・リリース補助制御オブジェクトを得るために、グラフィカル・ユーザー・インターフェースでレンダリングを実行する。この場合において、スキル・リリース補助制御オブジェクトは、スキル・リリース制御ハロー・オブジェクトと、スキル・リリース制御ハロー・オブジェクトの放射状レンジ内に位置する仮想ジョイスティック・オブジェクトとを有する。
ここで、第1方法では、スキル・リリース補助制御オブジェクトを取得し、デフォルトの固定位置にスキル・リリース補助制御オブジェクトを表示するために、グラフィカル・ユーザー・インターフェースのプリセット位置でレンダリングが実行されてもよい。スキル・リリース補助制御オブジェクトは、プリセット位置(即ち、デフォルトの固定されている位置)に登場することが可能であり、それにより、ユーザーは情報交換プロセスで迅速に応答するように促進されることが可能になり、グラフィカル・ユーザー・インターフェースを探すためにユーザーが応答時間を費やしてしまうことを回避する。第2方法では、指のタッチ(又は接触)又はスライドにより第1地点が取得されてもよく、そして、スキル・リリース補助制御オブジェクトを取得し、指のタッチ又はスライドにより変更可能な場所にスキル・リリース補助制御オブジェクトを表示するために、グラフィカル・ユーザー・インターフェース内の第1地点でレンダリングが実行される。スキル・リリース補助制御オブジェクトは、指のタッチ又はスライドにより変更可能な場所に登場することが可能である。従って、指のスライドによりスキルのリリースを速やかに実行する習慣を有するユーザーの要請は非常に良く適合し、そのような要請は、固定位置でスキルのリリースを実行する習慣を有し且つスキルのリリースを実行する際に不変の制御領域を意図するユーザーの要請とは異なり、このようにしてユーザーは情報交換プロセスで速やかに応答するように促され、グラフィカル・ユーザー・インターフェースを探すためにユーザーが応答時間を費やしてしまうことを回避する。
ここで、第1方法が一例として使用される。図3に示されるように、グラフィカル・ユーザー・インターフェースのスキル・オペレーション・エリア40において、スキル・オブジェクト1に適用されるスキル・リリースオペレーション・ジェスチャが取得され、スキル・リリース補助制御オブジェクトを取得するために、レンダリングが実行される。スキル・リリース補助制御オブジェクトは、スキル・リリース制御ハロー・オブジェクト41と、仮想ジョイスティック・オブジェクト42とを有する。その後、スキル・リリース制御オペレーションがトリガーされ、それにより、スキル・リリース制御ハロー・オブジェクト41の位置は不変のまま残り、スキル・インジケータ・オブジェクト43により指定されるスキル・リリース可能レンジは、スキル・リリース制御ハロー・オブジェクト41が配置されるエリアによって完全にカバーされる。
具体的には、図3に示されるように、スキル・リリース制御ハロー・オブジェクト41は、ホイールの形状を有しホイール(a wheel)と言及されても良く;仮想ジョイスティック・オブジェクト42は円の形状又は環の形状(an annular shape or a ring shape)を有しジョイスティックと言及されても良く;スキル・インジケータ・オブジェクト43はホイールの形状を有しスキル・インジケータと言及されても良い。ここで、本明細書で使用されるスキル・リリース制御ハロー・オブジェクト及び仮想ジョイスティック・オブジェクトは、スキル・リリース・コントローラ・オブジェクト及びジョイスティック・オブジェクトの具体例に過ぎないことに、留意すべきである。グラフィカル・ユーザー・インターフェースでレンダリングを実行することにより取得されるスキル・リリース・コントローラ・オブジェクト及びジョイスティック・オブジェクトは、スキル制御を実現するために構成されるオブジェクトが実現可能である限りにおいて、ホイールの形状、円の形状、リングの形状及びその他の形状を含んでも良く、形状はこれらに限定されない。
図3に示されるUIエフェクト・インターフェースの概略図は、図4に示されるような設定を利用することにより得られる。図4はシステム設定インターフェースの概略図である。ユーザーがホイール登場位置を固定位置に設定するオプションを選択すると、ユーザーの設定に合わせて、以後、図3に示されるUIがレンダリングを実行することにより得られる。UIにおいて、ジョイスティックの中心がホイールの中心から逸脱すると、スキル・リリース制御オペレーションがトリガーされ、それにより、ホイールの位置は不変のまま残り、スキル・インジケータにより指定されるスキル・リリース可能レンジは、ホイールが配置されるエリアによって完全にカバーされる。スキル・インジケータは、ユーザーの狙いを補助するために又は他の目的に使用するためにレンダリングが実行されるインジケータである。
ここで、スキル・インジケータ・オブジェクトにより指定されるスキル・リリース可能レンジは、スキル・リリース制御ハロー・オブジェクトが配置されるエリアによって完全にカバーされる。
ステップ103:仮想ジョイスティック・オブジェクト上でドラッグ・オペレーションを検出した場合、それに応じてスキル・オブジェクトのスキル・リリース位置を、グラフィカル・ユーザー・インターフェース内で調整するように制御する。
ステップ104:仮想ジョイスティック・オブジェクトが閾レンジの外にあるか否かを判定し、仮想ジョイスティック・オブジェクトが閾レンジの外にない場合、ドラッグ・オペレーションについての検出されたリリース・オペレーションに従って、スキル・オブジェクトのスキル・リリース可能レンジ内の少なくとも1つのキャラクタ・オブジェクトの中から、最高優先度を有し且つ第1プリセット・ポリシーを満足するターゲット・キャラクタ・オブジェクトを選択し、ターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションを実行する。
ここで、図5は閾レンジの具体例を示す。図5において、仮想ジョイスティック・オブジェクト42は、閾レンジ44に部分的にオーバーラップし、閾レンジ外ではない。この場合、ユーザー指リリース・ジェスチャが取得され、スキル・リリース可能レンジ内の少なくとも1つのキャラクタ・オブジェクトの中から、第1プリセット・ポリシーを満足するキャラクタ・オブジェクトを、最高優先度を有するターゲット・キャラクタ・オブジェクトとして選択するように、以後のステップが実行される。
ここで、ターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションを実行することは、スキル・リリース・オペレーション・ジェスチャにより動かすために仮想ジョイスティック・オブジェクトをドラッグすることにより取得されるスキル・オブジェクトのリリース位置及び/又は方向に従って、スキル・リリース可能レンジ内でターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションを実行することであっても良い。
本発明の実施形態によれば、ユーザーの指が触れた仮想ジョイスティック・オブジェクトは閾レンジの外にあるか否かを判定することにより、ターゲット・キャラクタ・オブジェクトが選択され突き止められ;ユーザーの指が触れた仮想ジョイスティック・オブジェクトは閾レンジの外にないという判定結果である場合に、ユーザー指リリース・ジェスチャが取得され;最高優先度を有するターゲット・キャラクタ・オブジェクトとして第1プリセット・ポリシーを満足するキャラクタ・オブジェクトが、スキル・リリース可能レンジ内の少なくとも1つのキャラクタ・オブジェクトの中から選択され、スキル・リリース・オペレーション・ジェスチャで仮想ジョイスティック・オブジェクトの動きにより取得されるスキル・オブジェクトのリリース位置及び/又は方向に応じて、スキル・リリース可能レンジ内のターゲット・キャラクタ・オブジェクトに関して、スキル・リリース・オペレーションが実行される。特定の能力をリリースするそのような方法では、リリースされるスキルが向けられるターゲット・オブジェクトは正確かつ迅速に配置されることが可能になり、操作ミスが回避され、更に、正確な配置に起因してインタラクション処理の処理速度が向上する。
<実施形態2>
本発明のこの実施形態は情報処理方法を提供する。本方法は電子デバイスに適用され、電子デバイスはディスプレイ・ユニットを含み、ディスプレイ・ユニットはディスプレイ・エリアを含む。図6に示されるように、本方法は以下のステップを含む:
ステップ201:少なくとも1つの仮想リソース・オブジェクトを得るために、グラフィカル・ユーザー・インターフェースでレンダリングを実行する。
ここで、仮想リソース・オブジェクトは、グラフィカル・ユーザー・インターフェース内の様々なタイプのオブジェクトでカバーされている。例えば、ユーザーを表現するユーザー・アバター・アイコン、背景にある建物、木、タワー・ディフェンス等を表現するオブジェクト、ユーザーのステータスを表現するオブジェクト(例えば、ブラッド値又はバイタリティ値)、ユーザーのスキル、イクイップメント等を表現するオブジェクト、ユーザーの位置の変化を制御する方向ボタンオブジェクト、ユーザーによるスキル・リリース中に使用されるレンダリング・オブジェクト等の全てが、本発明の実施形態の「仮想リソース・オブジェクト」の保護範囲に属する。
ステップ202:グラフィカル・ユーザー・インターフェースの少なくとも1つのスキル・オペレーション・エリアに位置する少なくとも1つのスキル・オブジェクトに関してスキル・リリース・トリガ・ジェスチャを検出した場合に、スキル・リリース補助制御オブジェクトを得るために、グラフィカル・ユーザー・インターフェースでレンダリングを実行する。この場合において、スキル・リリース補助制御オブジェクトは、スキル・リリース制御ハロー・オブジェクトと、スキル・リリース制御ハロー・オブジェクトの放射状レンジ内に位置する仮想ジョイスティック・オブジェクトとを有する。
ここで、第1方法では、スキル・リリース補助制御オブジェクトを取得し、デフォルトの固定位置にスキル・リリース補助制御オブジェクトを表示するために、グラフィカル・ユーザー・インターフェースのプリセット位置でレンダリングが実行されてもよい。スキル・リリース補助制御オブジェクトは、プリセット位置(即ち、デフォルトの固定されている位置)に登場することが可能であり、それにより、ユーザーは情報交換プロセスで迅速に応答するように促進されることが可能になり、グラフィカル・ユーザー・インターフェースを探すためにユーザーが応答時間を費やしてしまうことを回避する。第2方法では、指のタッチ又はスライドにより第1地点が取得され、そして、スキル・リリース補助制御オブジェクトを取得し、指のタッチ又はスライドにより変更可能な場所にスキル・リリース補助制御オブジェクトを表示するために、グラフィカル・ユーザー・インターフェース内の第1地点でレンダリングが実行される。スキル・リリース補助制御オブジェクトは、指のタッチ又はスライドにより変更可能な場所に登場することが可能である。従って、指のスライドによりスキルのリリースを速やかに実行する習慣を有するユーザーの要請は非常に良く適合し、そのような要請は、固定位置でスキルのリリースを実行する習慣を有し且つスキルのリリースを実行する際に不変の制御領域を意図するユーザーの要請とは異なり、このようにしてユーザーは情報交換プロセスで速やかに応答するように促され、グラフィカル・ユーザー・インターフェースを探すためにユーザーが応答時間を費やしてしまうことを回避する。
ここで、第1方法が一例として使用される。図3に示されるように、グラフィカル・ユーザー・インターフェースのスキル・オペレーション・エリア40において、スキル・オブジェクト1に適用されるスキル・リリースオペレーション・ジェスチャが取得され、スキル・リリース補助制御オブジェクトを取得するために、レンダリングが実行される。スキル・リリース補助制御オブジェクトは、スキル・リリース制御ハロー・オブジェクト41と、仮想ジョイスティック・オブジェクト42とを有する。その後、スキル・リリース制御オペレーションがトリガーされ、それにより、スキル・リリース制御ハロー・オブジェクト41の位置は不変のまま残り、スキル・インジケータ・オブジェクト43により指定されるスキル・リリース可能レンジは、スキル・リリース制御ハロー・オブジェクト41が配置されるエリアによって完全にカバーされる。
具体的には、図3に示されるように、スキル・リリース制御ハロー・オブジェクト41は、ホイールの形状を有しホイールと言及されても良く;仮想ジョイスティック・オブジェクト42は円の形状又は環の形状を有しジョイスティックと言及されても良く;スキル・インジケータ・オブジェクト43はホイールの形状を有しスキル・インジケータと言及されても良い。ここで、本明細書で使用されるスキル・リリース制御ハロー・オブジェクト及び仮想ジョイスティック・オブジェクトは、スキル・リリース・コントローラ・オブジェクト及びジョイスティック・オブジェクトの具体例に過ぎないことに、留意すべきである。グラフィカル・ユーザー・インターフェースでレンダリングを実行することにより取得されるスキル・リリース・コントローラ・オブジェクト及びジョイスティック・オブジェクトは、スキル制御を実現するために構成されるオブジェクトが実現可能である限りにおいて、ホイールの形状、円の形状、リングの形状及びその他の形状を含んでも良く、形状はこれらに限定されない。
図3に示されるUIエフェクト・インターフェースの概略図は、図4に示されるような設定を利用することにより得られる。図4はシステム設定インターフェースの概略図である。ユーザーがホイール登場位置を固定位置に設定するオプションを選択すると、ユーザーの設定に合わせて、以後、図3に示されるUIがレンダリングを実行することにより得られる。UIにおいて、ジョイスティックの中心がホイールの中心から逸脱すると、スキル・リリース制御オペレーションがトリガーされ、それにより、ホイールの位置は不変のまま残り、スキル・インジケータにより指定されるスキル・リリース可能レンジは、ホイールが配置されるエリアによって完全にカバーされる。
ここで、スキル・インジケータ・オブジェクトにより指定されるスキル・リリース可能レンジは、スキル・リリース制御ハロー・オブジェクトが配置されるエリアによって完全にカバーされる。
ステップ203:仮想ジョイスティック・オブジェクト上でドラッグ・オペレーションを検出した場合、それに応じてスキル・オブジェクトのスキル・リリース位置を、グラフィカル・ユーザー・インターフェース内で調整するように制御する。
ステップ204:スキル・リリース・オペレーション・ジェスチャにより仮想ジョイスティック・オブジェクトが移動していることを検出すると、ユーザーの指が触れた仮想ジョイスティック・オブジェクトは閾レンジの外にあるか否かを判定し、仮想ジョイスティック・オブジェクトは閾レンジの外にはない場合に、ユーザー指リリース・ジェスチャを取得し、スキル・リリース可能レンジ内のターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションを実行することを放棄し、ターゲット・キャラクタ・オブジェクトがスキル・リリース可能レンジから発見されない場合に、第1プロンプト情報を表示する。
ここで、図5は閾レンジの具体例を示す。図5において、仮想ジョイスティック・オブジェクト42は、閾レンジ44に部分的にオーバーラップし、閾レンジ外ではない。この場合、ユーザー指リリース・ジェスチャが取得され、スキル・リリース可能レンジ内の少なくとも1つのキャラクタ・オブジェクトの中から、第1プリセット・ポリシーを満足するキャラクタ・オブジェクトを、最高優先度を有するターゲット・キャラクタ・オブジェクトとして選択するように、以後のステップが実行される。
ここで、第1プロンプト情報は、スキル・リリース可能レンジ内に選択可能なターゲット・キャラクタ・オブジェクトが存在しないことを表現するために使用される。
本発明の実施形態によれば、ユーザーの指が触れた仮想ジョイスティック・オブジェクトは閾レンジの外にあるか否かを判定することにより、ターゲット・キャラクタ・オブジェクトが選択され突き止められ;ユーザーの指が触れた仮想ジョイスティック・オブジェクトは閾レンジの外にないという判定結果である場合に、ユーザー指リリース・ジェスチャが取得され;スキル・リリース可能レンジ内のターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションを実行することは放棄され、ターゲット・キャラクタ・オブジェクトがスキル・リリース可能レンジから発見されない場合に、第1プロンプト情報が表示され、第1プロンプト情報は、スキルリリース可能レンジ内に選択可能なターゲット・キャラクタ・オブジェクトが存在しないことを表現するために使用される。特定の能力をリリースするそのような方法では、リリースされるスキルが向けられるターゲット・オブジェクトは正確かつ迅速に配置されることが可能になり、ターゲット・オブジェクトが発見されない場合にスキル・リリース・オペレーションは破棄され、これは操作ミスの回避を可能にし、(後述の実施形態3に示されるように)ターゲット・オブジェクトを再決定するために、以後、判定及び検出が実行され、正確な配置に起因してインタラクション処理の処理速度が向上する。
<実施形態3>
本発明のこの実施形態は情報処理方法を提供する。本方法は電子デバイスに適用され、電子デバイスはディスプレイ・ユニットを含み、ディスプレイ・ユニットはディスプレイ・エリアを含む。図7に示されるように、本方法は以下のステップを含む:
ステップ301:少なくとも1つの仮想リソース・オブジェクトを得るために、グラフィカル・ユーザー・インターフェースでレンダリングを実行する。
ここで、仮想リソース・オブジェクトは、グラフィカル・ユーザー・インターフェース内の様々なタイプのオブジェクトでカバーされている。例えば、ユーザーを表現するユーザー・アバター・アイコン、背景にある建物、木、タワー・ディフェンス等を表現するオブジェクト、ユーザーのステータスを表現するオブジェクト(例えば、ブラッド値又はバイタリティ値)、ユーザーのスキル、イクイップメント等を表現するオブジェクト、ユーザーの位置の変化を制御する方向ボタンオブジェクト、ユーザーによるスキル・リリース中に使用されるレンダリング・オブジェクト等の全てが、本発明の実施形態の「仮想リソース・オブジェクト」の保護範囲に属する。
ステップ302:グラフィカル・ユーザー・インターフェースの少なくとも1つのスキル・オペレーション・エリアに位置する少なくとも1つのスキル・オブジェクトに関してスキル・リリース・トリガ・ジェスチャを検出した場合に、スキル・リリース補助制御オブジェクトを得るために、グラフィカル・ユーザー・インターフェースでレンダリングを実行する。この場合において、スキル・リリース補助制御オブジェクトは、スキル・リリース制御ハロー・オブジェクトと、スキル・リリース制御ハロー・オブジェクトの放射状レンジ内に位置する仮想ジョイスティック・オブジェクトとを有する。
ここで、第1方法では、スキル・リリース補助制御オブジェクトを取得し、デフォルトの固定位置にスキル・リリース補助制御オブジェクトを表示するために、グラフィカル・ユーザー・インターフェースのプリセット位置でレンダリングが実行されてもよい。スキル・リリース補助制御オブジェクトは、プリセット位置(即ち、デフォルトの固定されている位置)に登場することが可能であり、それにより、ユーザーは情報交換プロセスで迅速に応答するように促進されることが可能になり、グラフィカル・ユーザー・インターフェースを探すためにユーザーが応答時間を費やしてしまうことを回避する。第2方法では、指のタッチ又はスライドにより第1地点が取得されてもよく、そして、スキル・リリース補助制御オブジェクトを取得し、指のタッチ又はスライドにより変更可能な場所にスキル・リリース補助制御オブジェクトを表示するために、グラフィカル・ユーザー・インターフェース内の第1地点でレンダリングが実行される。スキル・リリース補助制御オブジェクトは、指のタッチ又はスライドにより変更可能な場所に登場することが可能である。従って、指のスライドによりスキルのリリースを速やかに実行する習慣を有するユーザーの要請は非常に良く適合し、そのような要請は、固定位置でスキルのリリースを実行する習慣を有し且つスキルのリリースを実行する際に不変の制御領域を意図するユーザーの要請とは異なり、このようにしてユーザーは情報交換プロセスで速やかに応答するように促され、グラフィカル・ユーザー・インターフェースを探すためにユーザーが応答時間を費やしてしまうことを回避する。
ここで、第1方法が一例として使用される。図3に示されるように、グラフィカル・ユーザー・インターフェースのスキル・オペレーション・エリア40において、スキル・オブジェクト1に適用されるスキル・リリースオペレーション・ジェスチャが取得され、スキル・リリース補助制御オブジェクトを取得するために、レンダリングが実行される。スキル・リリース補助制御オブジェクトは、スキル・リリース制御ハロー・オブジェクト41と、仮想ジョイスティック・オブジェクト42とを有する。その後、スキル・リリース制御オペレーションがトリガーされ、それにより、スキル・リリース制御ハロー・オブジェクト41の位置は不変のまま残り、スキル・インジケータ・オブジェクト43により指定されるスキル・リリース可能レンジは、スキル・リリース制御ハロー・オブジェクト41が配置されるエリアによって完全にカバーされる。
具体的には、図3に示されるように、スキル・リリース制御ハロー・オブジェクト41は、ホイールの形状を有しホイールと言及されても良く;仮想ジョイスティック・オブジェクト42は円の形状又は環の形状を有しジョイスティックと言及されても良く;スキル・インジケータ・オブジェクト43はホイールの形状を有しスキル・インジケータと言及されても良い。ここで、本明細書で使用されるスキル・リリース制御ハロー・オブジェクト及び仮想ジョイスティック・オブジェクトは、スキル・リリース・コントローラ・オブジェクト及びジョイスティック・オブジェクトの具体例に過ぎないことに、留意すべきである。グラフィカル・ユーザー・インターフェースでレンダリングを実行することにより取得されるスキル・リリース・コントローラ・オブジェクト及びジョイスティック・オブジェクトは、スキル制御を実現するために構成され得るオブジェクトが実現可能である限りにおいて、ホイールの形状、円の形状、リングの形状及びその他の形状を含んでも良く、形状はこれらに限定されない。
図3に示されるUIエフェクト・インターフェースの概略図は、図4に示されるような設定を利用することにより得られる。図4はシステム設定インターフェースの概略図である。ユーザーがホイール登場位置を固定位置に設定するオプションを選択すると、ユーザーの設定に合わせて、以後、図3に示されるUIがレンダリングを実行することにより得られる。UIにおいて、ジョイスティックの中心がホイールの中心から逸脱すると、スキル・リリース制御オペレーションがトリガーされ、それにより、ホイールの位置は不変のまま残り、スキル・インジケータにより指定されるスキル・リリース可能レンジは、ホイールが配置されるエリアによって完全にカバーされる。
ここで、スキル・インジケータ・オブジェクトにより指定されるスキル・リリース可能レンジは、スキル・リリース制御ハロー・オブジェクトが配置されるエリアによって完全にカバーされる。
ステップ303:仮想ジョイスティック・オブジェクト上でドラッグ・オペレーションを検出した場合、それに応じてスキル・オブジェクトのスキル・リリース位置を、グラフィカル・ユーザー・インターフェース内で調整するように制御する。
ステップ304:仮想ジョイスティック・オブジェクトは閾レンジの外にあるか否かを判定し、仮想ジョイスティック・オブジェクトは閾レンジの外にある場合に、補助スキル・インジケータ・オブジェクトを得るために、グラフィカル・ユーザー・インターフェースでレンダリングを実行し、その場合において、補助スキル・インジケータ・オブジェクトにより指定されるスキル・リリース可能レンジは、第1キャラクタ・オブジェクトの探索レンジである。
ここで、図8は閾レンジの具体例を示す。図8において、仮想ジョイスティック・オブジェクト42は、スキル・リリース制御ハロー・オブジェクト41のエッジ(又は縁)に配置され且つ閾レンジ44の外にあり、補助スキル・インジケータ・オブジェクトは扇形インジケータ・オブジェクト(a fan-shaped indicator object)を含み(補助スキル・インジケータ・オブジェクトは、扇形に加えて、円形又は四角形などのような他の形状を有しても良い)、扇形インジケータ・オブジェクトは、上記のスキル・インジケータ・オブジェクト43とは異なり、より小さな攻撃範囲を有し、扇形インジケータ・オブジェクトにより指定されるスキル・リリース可能レンジ内で最高優先度を有するターゲット・キャラクタ・オブジェクトを指定する(そのレンジは、以後、探索レンジ又は敵探索レンジ(an enemy searching range)と言及されても良い)。
ステップ305:ユーザー指リリース・ジェスチャを取得し、探索レンジ内の少なくとも1つの第1キャラクタ・オブジェクトの中から、第2プリセット・ポリシーを満足する第1キャラクタ・オブジェクトを、最高優先度を有するターゲット・キャラクタ・オブジェクトとして選択し、ターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションを実行する。
ここで、探索レンジ内において、スキル・リリース・オペレーション・ジェスチャにより動かすために仮想ジョイスティック・オブジェクトをドラッグすることにより取得されるスキル・オブジェクトのリリース位置及び/又は方向に従って、ターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションが実行される。
本発明の実施形態によれば、ユーザーの指が触れた仮想ジョイスティック・オブジェクトは閾レンジの外にあるか否かを判定することにより、ターゲット・キャラクタ・オブジェクトが選択され突き止められ;ユーザーの指が触れた仮想ジョイスティック・オブジェクトは閾レンジの外にあるという判定結果である場合に、補助スキル・インジケータ・オブジェクトを取得するために、グラフィカル・ユーザー・インターフェースでレンダリングが実行され、この場合において、補助スキル・インジケータ・オブジェクトにより指定されるスキル・リリース可能レンジは、第1キャラクタ・オブジェクトの探索レンジであり;ユーザー指リリース・ジェスチャが取得され、探索レンジ内の少なくとも1つの第1キャラクタ・オブジェクトの中から、第2プリセット・ポリシーを満足する第1キャラクタ・オブジェクトを、最高優先度を有するターゲット・キャラクタ・オブジェクトとして選択し;探索レンジ内のターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションが実行される。特定の能力をリリースするそのような方法では、リリースされるスキルが向けられるターゲット・オブジェクトは正確かつ迅速に配置されることが可能になり、操作ミスが回避され、更に、正確な配置に起因してインタラクション処理の処理速度が向上する。
上記の実施形態を分析する。ユーザーの指が触れた仮想ジョイスティック・オブジェクトは閾レンジの外にあるか否かを判定することにより、ターゲット・キャラクタ・オブジェクトを選択して突き止めるために、スキル・リリース制御ハロー・オブジェクト(例えば、ホイール)は2つの閾レンジを有し、仮想ジョイスティック・オブジェクト(例えば、ジョイスティック)は、スキル・リリースを実現するために2つの閾レンジの中で動いてもよい。スキルが最も内側のレンジ内で動く場合、プレーヤのキャラクタ・ターゲットを中心とするスキル・リリース可能レンジの中で、ターゲットは自動的に探索される(或いは、ホイールの中心からジョイスティックへのコネクション・ラインの方向において、リリース・ターゲットが探索される)。ターゲットが存在しない場合、リリースは実行されず、プロンプト(a prompt)が与えられる。一方、ユーザーが、最も外側の閾レンジ内のエリアの方にジョイスティックをドラッグする場合、ホイールの中心からジョイスティックへのコネクション・ラインを中央線として使用し且つプレーヤのキャラクタ・ターゲットを中心として、扇形又は他の形状を有するスキル・インジケータ(例えば、扇形インジケータ)が表示される。
本発明のこの実施形態の実現では、補助スキル・インジケータ・オブジェクトを得るために、グラフィカル・ユーザー・インターフェースでレンダリングを実行するステップは:スキル・リリース制御ハロー・オブジェクトの中心に対する仮想ジョイスティック・オブジェクトにより形成される第1相対方向を取得し、スキル・インジケータ・オブジェクトの中心点に至るコネクション・ラインを利用することにより、第1ターゲット選択方向ラインを第1相対方向の中で生成するステップ;及び、第1ターゲット選択方向ラインを中心として、或るプリセット角度を加える正及び負のオフセットに基づいて補助スキル・インジケータ・オブジェクトを形成するステップ;を含む。
ここで図9の具体例1に示されるように:グラフィカル・ユーザー・インターフェースのスキル・オペレーション・エリアにおいて、スキル・オブジェクト1に適用されるスキル・リリース・オペレーション・ジェスチャが取得され、スキル・リリース補助制御オブジェクトを得るために、レンダリングが実行される。スキル・リリース補助制御オブジェクトは、スキル・リリース制御ハロー・オブジェクト41と仮想ジョイスティック・オブジェクト42とを含む。その後、スキル・リリース制御オペレーションがトリガーされ、それにより、スキル・リリース制御ハロー・オブジェクト41の位置は不変のまま残り、スキル・インジケータ・オブジェクト43により指定されるスキル・リリース可能レンジは、スキル・リリース制御ハロー・オブジェクト41が配置されるエリアによって完全にカバーされる。
具体的には、図9に示されるように、スキル・リリース制御ハロー・オブジェクト41は、ホイールの形状を有しホイールと言及されても良く;仮想ジョイスティック・オブジェクト42は円の形状又は環の形状を有しジョイスティックと言及されても良く;スキル・インジケータ・オブジェクト43はホイールの形状を有しスキル・インジケータと言及されてもよい。
ユーザーの指が触れた仮想ジョイスティック・オブジェクトは閾レンジの外にある場合、図9における扇形インジケータ・オブジェクト45のような補助スキル・インジケータ・オブジェクトを得るために、グラフィカル・ユーザー・インターフェースでレンダリングが実行される。扇形インジケータ・オブジェクト45は、第1ターゲット選択方向ライン451を有する。第1ターゲット選択方向ライン451を中心として、プリセット角度「a」を加える正及び負のオフセットに基づいて、扇形インジケータ・オブジェクト45が形成される。図9において、人物f1は味方のメンバーである。
本発明のこの実施形態の実現では、本方法は:仮想ジョイスティック・オブジェクトの位置がスキル・リリース制御ハロー・オブジェクトの中心に対して変動したことが検出される度に、第1相対方向を第2相対方向にリフレッシュ(又は更新)し、スキル・インジケータ・オブジェクトの中心点に至るコネクション・ラインを利用することにより、第2ターゲット選択方向ラインを第2相対方向の中で生成するステップ;及び、第2ターゲット選択方向ラインまでの垂直距離が最短である第1キャラクタ・オブジェクトを、最高優先度を有するターゲット・オブジェクトとして選択し、ターゲット・キャラクタ・オブジェクトを強調(又はハイライト)するステップであって、仮想ジョイスティック・オブジェクトが移動する度にターゲット・キャラクタ・オブジェクトを再決定及びリフレッシュし、リフレッシュにより得られる新たなターゲット・キャラクタ・オブジェクトを強調するステップ;を更に有する。
ここで、図10の具体例2に示されるように:グラフィカル・ユーザー・インターフェースのスキル・オペレーション・エリアにおいて、スキル・オブジェクト1に適用されるスキル・リリース・オペレーション・ジェスチャが取得され、スキル・リリース補助制御オブジェクトを得るために、レンダリングが実行される。スキル・リリース補助制御オブジェクトは、スキル・リリース制御ハロー・オブジェクト41と仮想ジョイスティック・オブジェクト42とを含む。その後、スキル・リリース制御オペレーションがトリガーされ、それにより、スキル・リリース制御ハロー・オブジェクト41の位置は不変のまま残り、スキル・インジケータ・オブジェクト43により指定されるスキル・リリース可能レンジは、スキル・リリース制御ハロー・オブジェクト41が配置されるエリアによって完全にカバーされる。
図9及び図10に示されているものを比較すると、仮想ジョイスティック・オブジェクト42がスキル・リリース制御ハロー・オブジェクト41に対して移動した後に、第1ターゲット選択方向ライン451は、現在の第2ターゲット選択方向ライン452へリフレッシュされる必要がある。この場合、扇形インジケータ・オブジェクト45は、リフレッシュにより得られる第2ターゲット選択方向ライン452を有する。第2ターゲット選択方向ライン452を中心として、プリセット角度「a」を加える正及び負のオフセットに基づいて、扇形インジケータ・オブジェクト45が形成される。図10では、人間f1は味方のメンバーであり、人間g1及びg2は敵方のメンバーである。
グラフィカル・ユーザー・インターフェースにおけるマン・マシン・インタラクションに基づいて制御を実行するプロセスにより、様々なインタラクション・モードを動作させるために、1対1、1対多及び多対多の形式で、多数のユーザーによる様々なグループの形成がサポートされている。従って、様々なインタラクション結果が得られる。様々なインタラクション・モードは、複数のオンライン・ユーザー間の対戦モード(a versus mode)を含み、更に、インターネット接続によらないオフライン対戦モードを含む。
複数のユーザー間の対戦モード及びインターネットに接続していないオフライン対戦モードは何れも図3、図5、図8、図9及び図10に示されるUIsに適用可能である。ここで、図3、図5、図8、図9及び図10に示されるUIsは、具体的には画像プロセッサである端末デバイスのプロセッサによるレンダリングにより取得されることに留意すべきである。これは単なる具体例に過ぎない。具体例は、ゲームにおける様々な人員配備シナリオ(different personnel deployment scenarios)に適用可能であり、例えば、2パーティの配備される人員数は1対1、3対3或いは5対5であってもよく、また、例えば、配備される人員数が40対20又は30対60のように、ゲームの中で2パーティの配備される人員数が異なるシナリオにも適用可能であり、固定位置にあるホイールを利用することでスキル・リリース位置及び方向が決定されるゲームのモードを動作させても良い。例えば、複数のオンライン・ユーザー間の対戦モードの場合、複数のユーザーは異なるグループにグループ分けされ、各グループは少なくとも1人のグループ・メンバを含み、異なるグループは、少なくとも、第1グループ(例えば、味方グループ)及び第2グループ(例えば、敵方グループ)としてマーキングされる。味方グループに1人の人員しか存在せず、敵方グループも1人の人員しか存在しない場合、それは上記の「1対1」モードである。味方グループに3人の人員しか存在せず、敵方グループも3人の人員しか存在しない場合、それは上記の「3対3」モードである。味方グループに5人の人員しか存在せず、敵方グループも5人の人員しか存在しない場合、それは上記の「5対5」モードである。明らかに、敵方グループ及び味方グループに関し、同数の人員を配備することは必須ではなく、異なる数の人員が配備されて良い。
本発明のこの実施形態の実現では、探索レンジ内の少なくとも1つの第1キャラクタ・オブジェクトの中から、第2プリセット・ポリシーを満足する第1キャラクタ・オブジェクトを、最高優先度を有するターゲット・キャラクタ・オブジェクトとして選択するステップは:探索レンジが複数の第1キャラクタ・オブジェクトを含む場合に、第1ターゲット選択方向ラインまでの垂直距離が最短である第1キャラクタ・オブジェクトを、最高優先度を有するターゲット・キャラクタ・オブジェクトとして選択し、ターゲット・キャラクタ・オブジェクトを強調するステップを含んでも良い。
本発明のこの実施形態の実現では、本方法は:ユーザーの指が触れた仮想ジョイスティック・オブジェクトは閾レンジの外にあるという判定結果である場合に、補助スキル・インジケータ・オブジェクトを得るために、グラフィカル・ユーザー・インターフェースでレンダリングを実行するステップであって、補助スキル・インジケータ・オブジェクトにより指定されるスキル・リリース可能レンジは、第1キャラクタ・オブジェクトの探索レンジである、ステップ;及び、ユーザー指リリース・ジェスチャを取得し、探索レンジ内のターゲット・キャラクタ・オブジェクトに関して前記スキル・リリース・オペレーションを実行することを放棄し、ターゲット・キャラクタ・オブジェクトとして使用される第1キャラクタ・オブジェクトが探索レンジから発見されない場合に、第2プロンプト情報を表示するステップであって、第2プロンプト情報は、探索レンジ内に選択可能なターゲット・キャラクタ・オブジェクトが存在しないことを表現するために使用される、ステップ;を更に含んでも良い。
<実施形態4>
本発明の実施形態は端末を提供する。グラフィカル・ユーザー・インターフェースを得るために、ソフトウェア・アプリケーションが端末のプロセッサで実行され、レンダリングが端末のディスプレイで実行される。プロセッサ、グラフィカル・ユーザー・インターフェース及びソフトウェア・アプリケーションはゲーム・システムに実装されている。図11に示されるように、端末は:
少なくとも1つの仮想リソース・オブジェクトを得るために、グラフィカル・ユーザー・インターフェースでレンダリングを実行するように構成される第1レンダリング・ユニット51;
グラフィカル・ユーザー・インターフェースの少なくとも1つのスキル・オペレーション・エリアに位置する少なくとも1つのスキル・オブジェクトに関してスキル・リリース・トリガ・ジェスチャを検出した場合に、スキル・リリース補助制御オブジェクトを得るために、グラフィカル・ユーザー・インターフェースでレンダリングを実行するように構成される第1検出ユニット52であって、スキル・リリース補助制御オブジェクトは、スキル・リリース制御ハロー・オブジェクトと、スキル・リリース制御ハロー・オブジェクトの放射状レンジ内に位置する仮想ジョイスティック・オブジェクトとを有する、第1検出ユニット52;
仮想ジョイスティック・オブジェクト上でドラッグ・オペレーションを検出した場合、それに応じてスキル・オブジェクトのスキル・リリース位置を、グラフィカル・ユーザー・インターフェース内で調整するように制御を行うように構成される第2検出ユニット53;及び
仮想ジョイスティック・オブジェクトが閾レンジの外にあるか否かを判定し、仮想ジョイスティック・オブジェクトが閾レンジの外にない場合、ドラッグ・オペレーションについての検出されたリリース・オペレーションに従って、スキル・オブジェクトのスキル・リリース可能レンジ内の少なくとも1つのキャラクタ・オブジェクトの中から、第1プリセット・ポリシーを満足するターゲット・キャラクタ・オブジェクトを選択し、ターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションを実行するスキル・リリース・ユニット54;
を更に有する端末である。ここで、スキル・リリース可能レンジ内において、スキル・リリース・オペレーション・ジェスチャにより動かすために仮想ジョイスティック・オブジェクトをドラッグすることにより取得されるスキル・オブジェクトのリリース位置及び/又は方向に従って、ターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションが実行される。
本発明の実施形態の実際のアプリケーションでは、仮想リソース・オブジェクトは、グラフィカル・ユーザー・インターフェース内の様々なタイプのオブジェクトでカバーされている。例えば、ユーザーを表現するユーザー・アバター・アイコン、背景にある建物、木、タワー・ディフェンス等を表現するオブジェクト、ユーザーのステータスを表現するオブジェクト(例えば、ブラッド値又はバイタリティ値)、ユーザーのスキル、イクイップメント等を表現するオブジェクト、ユーザーの位置の変化を制御する方向ボタンオブジェクト、ユーザーによるスキル・リリース中に使用されるレンダリング・オブジェクト等の全てが、本発明の実施形態の「仮想リソース・オブジェクト」の保護範囲に属する。
ここで、第1方法では、スキル・リリース補助制御オブジェクトを取得し、デフォルトの固定位置にスキル・リリース補助制御オブジェクトを表示するために、グラフィカル・ユーザー・インターフェースのプリセット位置でレンダリングが実行される。スキル・リリース補助制御オブジェクトは、プリセット位置(即ち、デフォルトの固定されている位置)に登場することが可能であり、それにより、ユーザーは情報交換プロセスで迅速に応答するように促進されることが可能になり、グラフィカル・ユーザー・インターフェースを探すためにユーザーが応答時間を費やしてしまうことを回避する。第2方法では、指のタッチ又はスライドにより第1地点が取得され、そして、スキル・リリース補助制御オブジェクトを取得し、指のタッチ又はスライドにより変更可能な場所にスキル・リリース補助制御オブジェクトを表示するために、グラフィカル・ユーザー・インターフェース内の第1地点でレンダリングが実行される。スキル・リリース補助制御オブジェクトは、指のタッチ又はスライドにより変更可能な場所に登場することが可能である。従って、指のスライドによりスキルのリリースを速やかに実行する習慣を有するユーザーの要請は非常に良く適合し、そのような要請は、固定位置でスキルのリリースを実行する習慣を有し且つスキルのリリースを実行する際に不変の制御領域を意図するユーザーの要請とは異なり、このようにしてユーザーは情報交換プロセスで速やかに応答するように促され、グラフィカル・ユーザー・インターフェースを探すためにユーザーが応答時間を費やしてしまうことを回避する。
ここで、第1方法が一例として使用される。図3に示されるように、グラフィカル・ユーザー・インターフェースのスキル・オペレーション・エリア40において、スキル・オブジェクト1に適用されるスキル・リリースオペレーション・ジェスチャが取得され、スキル・リリース補助制御オブジェクトを取得するために、レンダリングが実行される。スキル・リリース補助制御オブジェクトは、スキル・リリース制御ハロー・オブジェクト41と、仮想ジョイスティック・オブジェクト42とを有する。その後、スキル・リリース制御オペレーションがトリガーされ、それにより、スキル・リリース制御ハロー・オブジェクト41の位置は不変のまま残り、スキル・インジケータ・オブジェクト43により指定されるスキル・リリース可能レンジは、スキル・リリース制御ハロー・オブジェクト41が配置されるエリアによって完全にカバーされる。
具体的には、図3に示されるように、スキル・リリース制御ハロー・オブジェクト41は、ホイールの形状を有しホイールと言及されても良く;仮想ジョイスティック・オブジェクト42は円の形状又は環の形状を有しジョイスティックと言及されても良く;スキル・インジケータ・オブジェクト43はホイールの形状を有しスキル・インジケータと言及されても良い。ここで、本明細書で使用されるスキル・リリース制御ハロー・オブジェクト及び仮想ジョイスティック・オブジェクトは、スキル・リリース・コントローラ・オブジェクト及びジョイスティック・オブジェクトの具体例に過ぎないことに、留意すべきである。グラフィカル・ユーザー・インターフェースでレンダリングを実行することにより取得されるスキル・リリース・コントローラ・オブジェクト及びジョイスティック・オブジェクトは、スキル制御を実現するために構成され得るオブジェクトが実現可能である限りにおいて、ホイールの形状、円の形状、リングの形状及びその他の形状を含んでも良く、形状はこれらに限定されない。
図3に示されるUIエフェクト・インターフェースの概略図は、図4に示されるような設定を利用することにより得られる。図4はシステム設定インターフェースの概略図である。ユーザーがホイール登場位置を固定位置に設定するオプションを選択すると、ユーザーの設定に合わせて、以後、図3に示されるUIがレンダリングを実行することにより得られる。UIにおいて、ジョイスティックの中心がホイールの中心から逸脱すると、スキル・リリース制御オペレーションがトリガーされ、それにより、ホイールの位置は不変のまま残り、スキル・インジケータにより指定されるスキル・リリース可能レンジは、ホイールが配置されるエリアによって完全にカバーされる。
ここで、スキル・インジケータ・オブジェクトにより指定されるスキル・リリース可能レンジは、スキル・リリース制御ハロー・オブジェクトが配置されるエリアによって完全にカバーされる。
ここで、図5は閾レンジの具体例を示す。図5において、仮想ジョイスティック・オブジェクト42は、閾レンジ44に部分的にオーバーラップし、閾レンジ外ではない。この場合、ユーザー指リリース・ジェスチャが取得され、スキル・リリース可能レンジ内の少なくとも1つのキャラクタ・オブジェクトの中から、第1プリセット・ポリシーを満足するキャラクタ・オブジェクトを、最高優先度を有するターゲット・キャラクタ・オブジェクトとして選択するように、以後のステップが実行される。
ここで、図8は閾レンジの具体例を示す。図8において、仮想ジョイスティック・オブジェクト42は、スキル・リリース制御ハロー・オブジェクト41のエッジに配置され且つ閾レンジ44の外にあり、補助スキル・インジケータ・オブジェクトは扇形インジケータ・オブジェクトを含み(補助スキル・インジケータ・オブジェクトは、扇形に加えて、円形又は四角形などのような他の形状を有しても良い)、扇形インジケータ・オブジェクトは、上記のスキル・インジケータ・オブジェクト43とは異なり、より小さな攻撃範囲を有し、扇形インジケータ・オブジェクトにより指定されるスキル・リリース可能レンジ内で最高優先度を有するターゲット・キャラクタ・オブジェクトを指定する(そのレンジは、以後、探索レンジ又は敵探索レンジと言及されても良い)。
ここで図9の具体例1に示されるように:グラフィカル・ユーザー・インターフェースのスキル・オペレーション・エリアにおいて、スキル・オブジェクト1に適用されるスキル・リリース・オペレーション・ジェスチャが取得され、スキル・リリース補助制御オブジェクトを得るために、レンダリングが実行される。スキル・リリース補助制御オブジェクトは、スキル・リリース制御ハロー・オブジェクト41と仮想ジョイスティック・オブジェクト42とを含む。その後、スキル・リリース制御オペレーションがトリガーされ、それにより、スキル・リリース制御ハロー・オブジェクト41の位置は不変のまま残り、スキル・インジケータ・オブジェクト43により指定されるスキル・リリース可能レンジは、スキル・リリース制御ハロー・オブジェクト41が配置されるエリアによって完全にカバーされる。
ここで、図9及び図10に示されているものを比較すると、図10の具体例2に示されているように、仮想ジョイスティック・オブジェクト42がスキル・リリース制御ハロー・オブジェクト41に対して移動した後に、第1ターゲット選択方向ライン451は、現在の第2ターゲット選択方向ライン452へリフレッシュされる必要がある。この場合、扇形インジケータ・オブジェクト45は、リフレッシュにより得られる第2ターゲット選択方向ライン452を有する。第2ターゲット選択方向ライン452を中心として、プリセット角度「a」を加える正及び負のオフセットに基づいて、扇形インジケータ・オブジェクト45が形成される。
本発明のこの実施形態の実現において、端末は:
ユーザーの指が触れた仮想ジョイスティック・オブジェクトは閾レンジの外にないという判定結果である場合に、ユーザー指リリース・ジェスチャを取得し、スキル・リリース可能レンジ内のターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションを実行することを放棄し、ターゲット・キャラクタ・オブジェクトがスキル・リリース可能レンジから発見されない場合に、第1プロンプト情報を表示するように構成されるスキル・リリース・キャンセル・ユニットであって、第1プロンプト情報は、スキル・リリース可能レンジ内に選択可能なターゲット・キャラクタ・オブジェクトが存在しないことを表現するために使用される、スキル・リリース・キャンセル・ユニット;
を更に有する。
本発明のこの実施形態の実現において、端末は:
ユーザーの指が触れた仮想ジョイスティック・オブジェクトは閾レンジの外にあるという判定結果である場合に、補助スキル・インジケータ・オブジェクトを得るために、グラフィカル・ユーザー・インターフェースでレンダリングを実行するように構成される第2レンダリング・ユニットであって、補助スキル・インジケータ・オブジェクトにより指定されるスキル・リリース可能レンジは、第1キャラクタ・オブジェクトの探索レンジである、第2レンダリング・ユニット;及び
ユーザー指リリース・ジェスチャを取得し、探索レンジ内の少なくとも1つの第1キャラクタ・オブジェクトの中から、第2プリセット・ポリシーを満足する第1キャラクタ・オブジェクトを、最高優先度を有するターゲット・キャラクタ・オブジェクトとして選択し;探索レンジ内のターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションを実行するスキル・リリース・ユニット;
を更に有する。
本発明のこの実施形態の実現において、第2レンダリング・ユニットは:
スキル・リリース制御ハロー・オブジェクトの中心に対する仮想ジョイスティック・オブジェクトにより形成される第1相対方向を取得し、スキル・インジケータ・オブジェクトの中心点に至るコネクション・ラインを利用することにより、第1ターゲット選択方向ラインを第1相対方向の中で生成し;及び
第1ターゲット選択方向ラインを中心として、或るプリセット角度を加える正及び負のオフセットに基づいて補助スキル・インジケータ・オブジェクトを形成する;
ように更に構成される。
本発明のこの実施形態の実現において、スキル・リリース・ユニットは:
探索レンジが複数の第1キャラクタ・オブジェクトを含む場合に、第1ターゲット選択方向ラインまでの垂直距離が最短である第1キャラクタ・オブジェクトを、最高優先度を有するターゲット・キャラクタ・オブジェクトとして選択し、ターゲット・キャラクタ・オブジェクトを強調する;
ように更に構成される。
本発明のこの実施形態の実現において、端末は:
仮想ジョイスティック・オブジェクトの位置がスキル・リリース制御ハロー・オブジェクトの中心に対して変動したことが検出される度に、第1相対方向を第2相対方向にリフレッシュし、スキル・インジケータ・オブジェクトの中心点に至るコネクション・ラインを利用することにより、第2ターゲット選択方向ラインを第2相対方向の中で生成するステップ;及び、第2ターゲット選択方向ラインまでの垂直距離が最短である第1キャラクタ・オブジェクトを、最高優先度を有するターゲット・キャラクタ・オブジェクトとして選択し、ターゲット・キャラクタ・オブジェクトを強調するステップであって、仮想ジョイスティック・オブジェクトが移動する度にターゲット・キャラクタ・オブジェクトを再決定及びリフレッシュし、リフレッシュにより得られる新たなターゲット・キャラクタ・オブジェクトを強調するステップ;を行うように構成されるリフレッシュ・ユニット;
を更に含む。
本発明のこの実施形態の実現において、端末は:
ユーザーの指が触れた仮想ジョイスティック・オブジェクトは閾レンジの外にあるという判定結果である場合に、補助スキル・インジケータ・オブジェクトを得るために、グラフィカル・ユーザー・インターフェースでレンダリングを実行するステップであって、補助スキル・インジケータ・オブジェクトにより指定されるスキル・リリース可能レンジは、第1キャラクタ・オブジェクトの探索レンジである、ステップ;及び、ユーザー指リリース・ジェスチャを取得し、探索レンジ内のターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションを実行することを放棄し、ターゲット・キャラクタ・オブジェクトとして使用される第1キャラクタ・オブジェクトが探索レンジから発見されない場合に、第2プロンプト情報を表示するステップであって、第2プロンプト情報は、探索レンジ内に選択可能なターゲット・キャラクタ・オブジェクトが存在しないことを表現するために使用される、ステップ;を行うように構成されるスキル・リリース・ユニット;
を更に有する。
<実施形態5>
本発明のこの実施形態は端末を提供する。図12に示されるように、端末はディスプレイ61及びプロセッサ62を含む。ディスプレイ61は、グラフィカル・ユーザー・インターフェースを得るために、端末のプロセッサ上でソフトウェア・アプリケーションを実行し、ソフトウェア・アプリケーションでレンダリングを実行するように構成される。グラフィカル・ユーザー・インターフェースは、マン・マシン・インタラクションで制御処理を促進するように構成される。プロセッサ62は、本発明の実施形態における情報処理方法を実行するように構成される。プロセッサ、グラフィカル・ユーザー・インターフェース及びソフトウェア・アプリケーションはゲーム・システムに実装される。
この実施形態では、端末は:メモリ63、入力デバイス64(例えば、カメラ、マイクロフォン及びヘッドセットを含む収集デバイス等のようなペリフェラル・デバイス;マウス、ジョイスティック又はデスクトップ・コンピュータのキーボード;或いは、ノートブック・コンピュータ又はタブレット・コンピュータの物理的なキーボード又はタッチスクリーン)、出力デバイス65(例えば、スピーカ、ヘッドセット等を含むオーディオ出力デバイス又はビデオ出力デバイス)、バス66及びネットワーキング・デバイス67を更に含む。プロセッサ62、メモリ63、入力デバイス64、ディスプレイ61及びネットワーキング・デバイス67はバス66を利用することにより接続され、バス66は、プロセッサ62、メモリ63、ディスプレイ61及びネットワーキング・デバイス67の間のデータ伝送及び通信のために使用される。
入力デバイス64は主にユーザーの入力操作を取得するように構成され、入力デバイス64は端末によって異なって良い。例えば、端末がPCである場合、入力デバイス64はマウス又はキーボード等のような入力デバイスであっても良く;端末がスマートフォン又はタブレット・コンピュータ等のようなポータブル・デバイスである場合、入力デバイス64はタッチスクリーンであっても良い。ネットワーキング・デバイス67は、ネットワークを利用することでデータを接続、アップロード及びダウンロードするために多数の端末及びサーバーにより使用され、及び、ネットワークを利用することでデータ伝送を接続及び実行するために多数の端末により使用される。
サーバーはクラスタ・システム(a cluster system)により形成されても良く、様々なユニットの機能を実現するために、複数の機能が統合されても良いし、或いは、複数のユニットの複数の機能が電子デバイス内で別々に提供されても良い。端末又はサーバーの何れかは、少なくとも、データを保存するデータベース及びデータ処理のためのプロセッサを含み、或いは、別個に配置される記憶媒体又はサーバーに配置される記憶媒体を含む。データ処理のためのプロセッサに関し、処理の最中に、マイクロプロセッサ、中央処理ユニット(CPU)、ディジタル信号処理プロセッサ(DSP)又はフィールド・プログラマブル・ゲート・アレイ(FPGA)が実装に使用されても良い。記憶媒体はオペレーション命令を含み、オペレーション命令はコンピュータ実行可能なコードであっても良く、本発明の実施形態における情報処理方法のプロシジャにおけるステップは、そのオペレーション命令を利用することにより実現される。
<実施形態6>
本発明のこの実施形態はコンピュータ記憶媒体を提供する。コンピュータ実行可能命令がコンピュータ記憶媒体に保存され、コンピュータ実行可能命令は本発明の実施形態における情報処理方法を実行するように構成される。
本発明の実施形態は、一例としての実際のアプリケーション・シナリオを利用することにより、以下に説明される。
このアプリケーション・シナリオはマルチプレーヤ・オンライン・バトル・アリーナ・ゲーム(Multiplayer Online Battle Arena Games:MOBA)に関連する。MOBAでは、関連する用語は次のようなものである:1)UIプレーヤ。これはグラフィカル・ユーザー・インターフェースにおけるアイコンである;2)スキル・インジケータ:スキル・リリースを補助するために使用される特殊効果、ハロー(a halo)又はオペレーション;3)レンズ。これは、ゲームの中でカメラとして理解されても良い;4)ミニ・マップ(mini map):大きな地図をスケールダウンしたバージョンのものであり、レーダー・マップ(a radar map)として理解されても良く、2つのパーティの情報及び位置はマップに表示される;5)ホイール:スキル・キーが押された場合に、スキル・キー上に表示されるハロー;及び6)仮想ジョイスティック:ホイールにおける操作及び位置決めのための制御部。
このアプリケーション状況では、本発明のこの実施形態を利用することにより、図13のプロシジャに示されるように(この場合において、第1サークルはインジケータであり、第2サークルは二次的な攻撃範囲であり、第3サークルは敵探索範囲である)、以下の内容が含まれる:
1. プレーヤがスキル・キーを押すと、システムが補助的なスペルキャスティング・ホイール(a supplementary spellcasting wheel)を呼び出し、プレーヤの指が触れている仮想ジョイスティックが、システムにより設定されている移動閾値の外にあるか否かを検出する。(図5に示されるように)ジョイスティックが閾レンジの外にはない場合、プレーヤは指をリリースし、システムは、今のところ最高優先度を有するターゲットを求めて、所定の優先度に従ってスキル・リリース可能レンジを探索し、そのターゲットに関してスキル・リリースを実行する(自動敵方探索メカニズムと言及されても良い)。レンジ内にターゲットが存在しない場合、システムは現在のスペルキャスティング(current spellcasting)を破棄し、「レンジ内に選択可能なターゲットは存在しない」旨をプレーヤに指示する。(図5に示されるように)ジョイスティックが閾レンジの外にある場合、以下の内容2において設定されるポリシーが実行される。
2. ジョイスティックが閾レンジの外にある場合(図8)、シーンの中で扇形インジケータが呼び出され、ホイールの中心に対するジョイスティックの位置がシーンに反映され、中心点に至るコネクション・ラインが相対的な方向に描かれ、そのラインはターゲット選択方向ラインである。その方向ラインを中心として、図9に示されるように、正及び負の45度に基づいて90度の扇形が形成される。90度の扇形において、ヒーロー(a hero)がスキル・ターゲットとして選択され、強調される。レンジ内に複数のヒーローが存在する場合、方向ラインに至る垂直距離が最短であるヒーローが、スキル・ターゲットとして選択され、強調される。
3. 図10に示されるように、仮想ジョイスティックが動く度に、ターゲットの判定はリフレッシュされ、新たなターゲットが速やかに強調される。この場合、指がリリースされ、リリースされたスキルが、強調されたターゲットに関して実行される。レンジ内にターゲットが存在しない場合、「レンジ内に選択可能なターゲットは存在しない」旨がプレーヤに指示され、スキル・リリースがキャンセルされる。
図14はこのアプリケーション状況における情報処理方法の具体的なインタラクション(又は相互作用又はやりとり)の概略フローチャートである。図14に示されるように、このアプリケーション・シナリオでは、端末1、端末2及びサーバーが含まれている。ユーザー1は端末1を利用することによりトリガー及び制御を実行し、ユーザー2は端末2を利用することによりトリガー及び制御を実行し、本方法は以下のステップを含む:
ユーザー1については、ステップ11ないし16が含まれる。
ステップ11:ユーザー1は、端末1を利用することによりゲーム・システムをトリガーし、識別認証情報を登録し、この場合において、識別認証情報はユーザー名及びパスワードであっても良い。
ステップ12:端末1は、取得した識別認証情報をサーバー3へ送信し、サーバー3は身元確認を実行し、身元確認が成功した後に、第1グラフィカル・ユーザー・インターフェースを端末1へ返し、この場合において、第1グラフィカル・ユーザー・インターフェースは仮想リソース・オブジェクトを含む。
ステップ13:(図3におけるSMSメッセージ・オブジェクト等のような)指定された仮想リソース・オブジェクトは、ユーザー1のタッチ・オペレーションに基づいて応答し、ステップ14ないしステップ17の一連の仮想オペレーションを実行することが可能である。
ステップ14:グラフィカル・ユーザー・インターフェースにおける少なくとも1つのスキル・オペレーション・エリアに位置する少なくとも1つのスキル・オブジェクトに関してスキル・リリース・トリガ・ジェスチャを検出すると、スキル・リリース補助制御オブジェクトを得るために、グラフィカル・ユーザー・インターフェースでレンダリングを実行し、スキル・リリース補助制御オブジェクトは、スキル・リリース制御ハロー・オブジェクトと、スキル・リリース制御ハロー・オブジェクトの放射状レンジ内に位置する仮想ジョイスティック・オブジェクトとを含む。
ここで、スキル・インジケータ・オブジェクトによって指定されるスキル・リリース可能レンジは、スキル・リリース制御ハロー・オブジェクトが配置されるエリアによって完全にカバーされる。
ステップ15:仮想ジョイスティック・オブジェクト上でドラッグ・オペレーションを検出した場合、それに応じてスキル・オブジェクトのスキル・リリース位置を、グラフィカル・ユーザー・インターフェース内で調整するように制御する。
ステップ16:仮想ジョイスティック・オブジェクトが閾レンジの外にあるか否かを判定し、仮想ジョイスティック・オブジェクトが閾レンジの外にない場合、ドラッグ・オペレーションについての検出されたリリース・オペレーションに従って、スキル・オブジェクトのスキル・リリース可能レンジ内の少なくとも1つのキャラクタ・オブジェクトの中から、第1プリセット・ポリシーを満足するターゲット・キャラクタ・オブジェクトを決定し、ターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションを実行する。
ステップ17:ステップ14ないし16を実行することにより取得される実行結果をサーバーと同期させ、或いは、サーバーを利用することにより実行結果を端末2へ速やかに転送し、或いは、実行結果を端末2へ直接的に転送し、それにより、端末2を利用することでゲーム・システムにログインしているユーザー2は、ユーザー1の仮想オペレーションに対して応答し、複数の端末間でインタラクションを実現することが可能である。このアプリケーション・シナリオでは、2つの端末間でのインタラクションのみが一例として使用されており、実際のオペレーション中では、複数の端末間のインタラクションは、この例における2つの端末間でのインタラクションに限定されない。
ユーザー2については、ユーザー1に関し、ステップ21ないしステップ26が含まれる。
ステップ21:ユーザー2は、端末2を利用することによりゲーム・システムをトリガーし、識別認証情報を登録し、この場合において、識別認証情報はユーザー名及びパスワードであっても良い。
ステップ22:端末2は、取得した識別認証情報をサーバー3へ送信し、サーバー3は身元確認を実行し、身元確認が成功した後に、第2グラフィカル・ユーザー・インターフェースを端末2へ返し、この場合において、第2グラフィカル・ユーザー・インターフェースは仮想リソース・オブジェクトを含む。
ステップ23:(図3におけるSMSメッセージ・オブジェクト等のような)指定された仮想リソース・オブジェクトは、ユーザー2のタッチ・オペレーションに基づいて応答し、ステップ24ないしステップ27の一連の仮想オペレーションを実行することが可能である。
ステップ24:グラフィカル・ユーザー・インターフェースにおける少なくとも1つのスキル・オペレーション・エリアに位置する少なくとも1つのスキル・オブジェクトに関してスキル・リリース・トリガ・ジェスチャを検出すると、スキル・リリース補助制御オブジェクトを得るために、グラフィカル・ユーザー・インターフェースでレンダリングを実行し、スキル・リリース補助制御オブジェクトは、スキル・リリース制御ハロー・オブジェクトと、スキル・リリース制御ハロー・オブジェクトの放射状レンジ内に位置する仮想ジョイスティック・オブジェクトとを含む。
ここで、スキル・インジケータ・オブジェクトによって指定されるスキル・リリース可能レンジは、スキル・リリース制御ハロー・オブジェクトが配置されるエリアによって完全にカバーされる。
ステップ25:仮想ジョイスティック・オブジェクト上でドラッグ・オペレーションを検出した場合、それに応じてスキル・オブジェクトのスキル・リリース位置を、グラフィカル・ユーザー・インターフェース内で調整するように制御する。
ステップ26:仮想ジョイスティック・オブジェクトが閾レンジの外にあるか否かを判定し、仮想ジョイスティック・オブジェクトが閾レンジの外にない場合、ドラッグ・オペレーションについての検出されたリリース・オペレーションに従って、スキル・オブジェクトのスキル・リリース可能レンジ内の少なくとも1つのキャラクタ・オブジェクトの中から、第1プリセット・ポリシーを満足するターゲット・キャラクタ・オブジェクトを決定し、ターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションを実行する。
ステップ27:ステップ24ないし26を実行することにより取得される実行結果をサーバーと同期させ、或いは、サーバーを利用することにより実行結果を端末1へ速やかに転送し、或いは、実行結果を端末1へ直接的に転送し、それにより、端末1を利用することでゲーム・システムにログインしているユーザー1は、ユーザー2の仮想オペレーションに対して応答し、複数の端末間でインタラクションを実現することが可能である。このアプリケーションの状況では、2つの端末間でのインタラクションのみが一例として使用されており、実際のオペレーション中では、複数の端末間のインタラクションは、この例における2つの端末間でのインタラクションに限定されない。
ステップ30:選択的なステップ:ステップ14ないしステップ17により取得される第1のマン・マシン・インタラクション実行結果、及び/又は、ステップ24ないしステップ27により取得される第2のインタラクション実行結果を受信した後に、第1のマン・マシン・インタラクション実行結果及び/又は第2のインタラクション実行結果を、対応する端末に対して同期又は転送する。
本願で提供される幾つもの実施形態において、開示されるデバイス及び方法は他の仕方で実現されても良いことが理解されるべきである。説明されているデバイスの形態は単なる例示に過ぎない。例えば、ユニットの分け方は、単なる機能的な分け方であり、実際の実現の際には他の分け方であっても良い。例えば、複数のユニット又はコンポーネントが別のシステムに組み合わせられる又は統合されても良いし、或いは、幾つかの特徴が省略される又は実行されなくても良い。更に、構成部分同士の間における図示又は説明される相互の結合又は直接的な結合又は通信コネクションは、何らかのインターフェースを介して実現されても良い。デバイス又はユニット同士の間の間接的な結合又は通信コネクションは、電子的な、機械的な又はその他の形式で実現されても良い。
別個のパーツとして記述されるユニットは物理的に分離していてもいなくても良く、ユニットとして図示されるパーツは物理的に分離していてもいなくても良く、一箇所に位置していても良く、或いは、複数のネットワーク・ユニットに分散されていても良い。ユニットの全部又は一部は、実施形態の解決手段の課題を達成する実際のニーズに応じて選択されて良い。
更に、本発明の実施形態における機能ユニットの全てが1つの処理ユニットに統合されても良く、或いは、各ユニットが別々に存在しても良く、或いは、2つ以上のユニットが1つのユニットに統合されても良く、統合されるユニットはハードウェアの形式で実現されても良く、或いは、ソフトウェア機能ユニットに加えてハードウェアの形式で実現されても良い。
方法の実施形態のステップのうち全部又は一部は、関連するハードウェアを指図するプログラムにより実現されても良いことを、当業者は理解するであろう。プログラムはコンピュータ読み取り可能な記憶媒体に保存されても良い。プログラムが動作する場合、方法の実施形態のステップが実行される。上記の記憶媒体は、プログラム・コードを保存することが可能な任意の媒体を含み、例えば、ポータブル・ストレージ・デバイス、リード・オンリー・メモリ(ROM)、ランダム・アクセス・メモリ(RAM)、磁気ディスク又は光ディスク等である。
代替的に、統合されるユニットが、ソフトウェア機能モジュールの形式で実現され、独立した製品として販売又は使用される場合、統合されるユニットはコンピュータ読み取り可能な記憶媒体に保存されても良い。そのような理解に基づいて、本発明の実施形態の技術的な解決手段は本質的に、又は既存の技術に対する部分的な寄与は、ソフトウェア製品の形式で実現されて良い。コンピュータ・ソフトウェア製品は、記憶媒体に保存され、そして、本発明の実施形態で説明される方法ステップの全部又は一部を実行するようにコンピュータ・デバイス(パーソナル・コンピュータ、サーバー又はネットワーク・デバイス等であっても良い)を指示する幾つもの命令を含む。上記の記憶媒体は:ポータブル・ストレージ・デバイス、ROM、RAM、磁気ディスク又は光ディスク等のような、プログラム・コードを保存することが可能な任意の媒体を含む。
上記の説明は本開示の単なる具体的な実現に過ぎず、本開示の保護範囲を限定するようには意図されていない。本開示で開示される技術的な目的の範囲内で当業者により容易に把握される任意の変形又は置換は、本開示の保護範囲内に属する。従って、本開示の保護範囲は特許請求の範囲の保護範囲に委ねられる。
<産業上の利用可能性>
本発明の実施形態によれば、ユーザーの指が触れた仮想ジョイスティック・オブジェクトは閾レンジの外にあるか否かを判定することにより、ターゲット・キャラクタ・オブジェクトが選択され突き止められ;ユーザーの指が触れた仮想ジョイスティック・オブジェクトは閾レンジの外にないという判定結果である場合に、ユーザー指リリース・ジェスチャが取得され;ドラッグ・オペレーションについての検出されたリリース・オペレーションに従って、スキル・オブジェクトのスキル・リリース可能レンジ内の少なくとも1つのキャラクタ・オブジェクトの中から、第1プリセット・ポリシーを満足するターゲット・キャラクタ・オブジェクトが選択され、ターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションが実行される。特定の能力をリリースするそのような方法では、リリースされるスキルが向けられるターゲット・オブジェクトは正確かつ迅速に配置されることが可能になり、操作ミスが回避され、更に、正確な配置に起因してインタラクション処理の処理速度が向上する。

Claims (14)

  1. グラフィカル・ユーザー・インターフェースを得るために、ソフトウェア・アプリケーションが端末のプロセッサで実行され、前記端末のディスプレイでレンダリングが実行される情報処理方法であって、前記プロセッサ、前記グラフィカル・ユーザー・インターフェース及び前記ソフトウェア・アプリケーションはゲーム・システムに実装されており、当該情報処理方法は:
    少なくとも1つの仮想リソース・オブジェクトを得るために、前記グラフィカル・ユーザー・インターフェースでレンダリングを実行するステップ;
    前記グラフィカル・ユーザー・インターフェースの少なくとも1つのスキル・オペレーション・エリアに位置する少なくとも1つのスキル・オブジェクトに関してスキル・リリース・トリガ・ジェスチャを検出した場合に、スキル・リリース補助制御オブジェクトを得るために、前記グラフィカル・ユーザー・インターフェースでレンダリングを実行するステップであって、前記スキル・リリース補助制御オブジェクトは、スキル・リリース制御ハロー・オブジェクトと、前記スキル・リリース制御ハロー・オブジェクトの放射状レンジ内に位置する仮想ジョイスティック・オブジェクトとを有する、ステップ;
    前記仮想ジョイスティック・オブジェクト上でドラッグ・オペレーションを検出した場合、それに応じて前記スキル・オブジェクトのスキル・リリース位置を、前記グラフィカル・ユーザー・インターフェース内で調整するように制御するステップ;及び
    前記仮想ジョイスティック・オブジェクトが閾レンジの外にあるか否かを判定し、前記仮想ジョイスティック・オブジェクトが前記閾レンジの外にない場合、前記ドラッグ・オペレーションについての検出されたリリース・オペレーションに従って、前記スキル・オブジェクトのスキル・リリース可能レンジ内の少なくとも1つのキャラクタ・オブジェクトの中から、第1プリセット・ポリシーを満足するターゲット・キャラクタ・オブジェクトを選択し、前記ターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションを実行するステップ;
    を有し、
    ユーザーの指が触れた前記仮想ジョイスティック・オブジェクトは前記閾レンジの外にあるという判定結果である場合に、補助スキル・インジケータ・オブジェクトを得るために、前記グラフィカル・ユーザー・インターフェースでレンダリングを実行するステップであって、前記補助スキル・インジケータ・オブジェクトにより指定されるスキル・リリース可能レンジは、第1キャラクタ・オブジェクトの探索レンジである、ステップ;
    ユーザー指リリース・ジェスチャを取得し、前記探索レンジ内の少なくとも1つの第1キャラクタ・オブジェクトの中から、第2プリセット・ポリシーを満足する第1キャラクタ・オブジェクトを、前記ターゲット・キャラクタ・オブジェクトとして選択するステップ;及び
    前記探索レンジ内の前記ターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションを実行するステップ;
    を更に有する情報処理方法。
  2. ユーザーの指が触れた前記仮想ジョイスティック・オブジェクトは前記閾レンジの外にないという判定結果である場合に、ユーザー指リリース・ジェスチャを取得し、前記スキル・リリース可能レンジ内の前記ターゲット・キャラクタ・オブジェクトに関して前記スキル・リリース・オペレーションを実行することを放棄し、前記ターゲット・キャラクタ・オブジェクトが前記スキル・リリース可能レンジから発見されない場合に、第1プロンプト情報を表示するステップであって、前記第1プロンプト情報は、前記スキル・リリース可能レンジ内に選択可能なターゲット・キャラクタ・オブジェクトが存在しないことを表現するために使用される、ステップ;
    を更に有する請求項1に記載の情報処理方法。
  3. 前記スキル・リリース制御ハロー・オブジェクトの中心に対する前記仮想ジョイスティック・オブジェクトにより形成される第1相対方向を取得し、前記スキル・インジケータ・オブジェクトの中心点に至るコネクション・ラインを利用することにより、第1ターゲット選択方向ラインを前記第1相対方向の中で生成するステップ;及び
    前記第1ターゲット選択方向ラインを中心として、或るプリセット角度を加える正及び負のオフセットに基づいて補助スキル・インジケータ・オブジェクトを形成するステップ;
    を更に有する請求項に記載の情報処理方法。
  4. 前記探索レンジ内の少なくとも1つの第1キャラクタ・オブジェクトの中から、第2プリセット・ポリシーを満足する第1キャラクタ・オブジェクトを、前記ターゲット・キャラクタ・オブジェクトとして選択するステップは:
    前記探索レンジが複数の第1キャラクタ・オブジェクトを含む場合に、前記第1ターゲット選択方向ラインまでの垂直距離が最短である第1キャラクタ・オブジェクトを、前記ターゲット・キャラクタ・オブジェクトとして選択し、前記ターゲット・キャラクタ・オブジェクトを強調するステップ;
    を含む、請求項に記載の情報処理方法。
  5. 前記仮想ジョイスティック・オブジェクトの位置が前記スキル・リリース制御ハロー・オブジェクトの中心に対して変動したことが検出される度に、前記第1相対方向を第2相対方向にリフレッシュし、前記スキル・インジケータ・オブジェクトの中心点に至るコネクション・ラインを利用することにより、第2ターゲット選択方向ラインを前記第2相対方向の中で生成するステップ;及び
    前記第2ターゲット選択方向ラインまでの垂直距離が最短である第1キャラクタ・オブジェクトを、前記ターゲット・キャラクタ・オブジェクトとして選択し、前記ターゲット・キャラクタ・オブジェクトを強調するステップであって、前記仮想ジョイスティック・オブジェクトが移動する度に前記ターゲット・キャラクタ・オブジェクトを再決定及びリフレッシュし、リフレッシュにより得られる新たなターゲット・キャラクタ・オブジェクトを強調するステップ;
    を更に有する請求項に記載の情報処理方法。
  6. ユーザーの指が触れた前記仮想ジョイスティック・オブジェクトは前記閾レンジの外にあるという判定結果である場合に、補助スキル・インジケータ・オブジェクトを得るために、前記グラフィカル・ユーザー・インターフェースでレンダリングを実行するステップであって、前記補助スキル・インジケータ・オブジェクトにより指定されるスキル・リリース可能レンジは、第1キャラクタ・オブジェクトの探索レンジである、ステップ;
    ユーザー指リリース・ジェスチャを取得し、前記探索レンジ内の前記ターゲット・キャラクタ・オブジェクトに関して前記スキル・リリース・オペレーションを実行することを放棄し、前記ターゲット・キャラクタ・オブジェクトとして使用される前記第1キャラクタ・オブジェクトが前記探索レンジから発見されない場合に、第2プロンプト情報を表示するステップであって、前記第2プロンプト情報は、前記探索レンジ内に選択可能なターゲット・キャラクタ・オブジェクトが存在しないことを表現するために使用される、ステップ;
    を更に有する請求項1に記載の情報処理方法。
  7. 端末であって、グラフィカル・ユーザー・インターフェースを得るために、ソフトウェア・アプリケーションが前記端末のプロセッサで実行され、前記端末のディスプレイでレンダリングが実行され、前記プロセッサ、前記グラフィカル・ユーザー・インターフェース及び前記ソフトウェア・アプリケーションはゲーム・システムに実装されており、当該端末は:
    少なくとも1つの仮想リソース・オブジェクトを得るために、前記グラフィカル・ユーザー・インターフェースでレンダリングを実行するように構成される第1レンダリング・ユニット;
    前記グラフィカル・ユーザー・インターフェースの少なくとも1つのスキル・オペレーション・エリアに位置する少なくとも1つのスキル・オブジェクトに関してスキル・リリース・トリガ・ジェスチャを検出した場合に、スキル・リリース補助制御オブジェクトを得るために、前記グラフィカル・ユーザー・インターフェースでレンダリングを実行するように構成される第1検出ユニットであって、前記スキル・リリース補助制御オブジェクトは、スキル・リリース制御ハロー・オブジェクトと、前記スキル・リリース制御ハロー・オブジェクトの放射状レンジ内に位置する仮想ジョイスティック・オブジェクトとを有する、第1検出ユニット;
    前記仮想ジョイスティック・オブジェクト上でドラッグ・オペレーションを検出した場合、それに応じて前記スキル・オブジェクトのスキル・リリース位置を、前記グラフィカル・ユーザー・インターフェース内で調整するように制御を行うように構成される第2検出ユニット;及び
    前記仮想ジョイスティック・オブジェクトが閾レンジの外にあるか否かを判定し、前記仮想ジョイスティック・オブジェクトが前記閾レンジの外にない場合、前記ドラッグ・オペレーションについての検出されたリリース・オペレーションに従って、前記スキル・オブジェクトのスキル・リリース可能レンジ内の少なくとも1つのキャラクタ・オブジェクトの中から、第1プリセット・ポリシーを満足するターゲット・キャラクタ・オブジェクトを選択し、前記ターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションを実行するスキル・リリース・ユニット;
    を有し、
    ユーザーの指が触れた前記仮想ジョイスティック・オブジェクトは前記閾レンジの外にあるという判定結果である場合に、補助スキル・インジケータ・オブジェクトを得るために、前記グラフィカル・ユーザー・インターフェースでレンダリングを実行するように構成される第2レンダリング・ユニットであって、前記補助スキル・インジケータ・オブジェクトにより指定されるスキル・リリース可能レンジは、第1キャラクタ・オブジェクトの探索レンジである、第2レンダリング・ユニット;及び
    ユーザー指リリース・ジェスチャを取得し、前記探索レンジ内の少なくとも1つの第1キャラクタ・オブジェクトの中から、第2プリセット・ポリシーを満足する第1キャラクタ・オブジェクトを、前記ターゲット・キャラクタ・オブジェクトとして選択し、前記探索レンジ内の前記ターゲット・キャラクタ・オブジェクトに関してスキル・リリース・オペレーションを実行するスキル・リリース・ユニット;
    を更に有する端末。
  8. ユーザーの指が触れた前記仮想ジョイスティック・オブジェクトは前記閾レンジの外にないという判定結果である場合に、ユーザー指リリース・ジェスチャを取得し、前記スキル・リリース可能レンジ内の前記ターゲット・キャラクタ・オブジェクトに関して前記スキル・リリース・オペレーションを実行することを放棄し、前記ターゲット・キャラクタ・オブジェクトが前記スキル・リリース可能レンジから発見されない場合に、第1プロンプト情報を表示するように構成されるスキル・リリース・キャンセル・ユニットであって、前記第1プロンプト情報は、前記スキル・リリース可能レンジ内に選択可能なターゲット・キャラクタ・オブジェクトが存在しないことを表現するために使用される、スキル・リリース・キャンセル・ユニット;
    を更に有する請求項に記載の端末。
  9. 前記第2レンダリング・ユニットは、更に:
    前記スキル・リリース制御ハロー・オブジェクトの中心に対する前記仮想ジョイスティック・オブジェクトにより形成される第1相対方向を取得し、前記スキル・インジケータ・オブジェクトの中心点に至るコネクション・ラインを利用することにより、第1ターゲット選択方向ラインを前記第1相対方向の中で生成し;及び
    前記第1ターゲット選択方向ラインを中心として、或るプリセット角度を加える正及び負のオフセットに基づいて補助スキル・インジケータ・オブジェクトを形成する;
    ように構成される請求項に記載の端末。
  10. 前記スキル・リリース・ユニットは、更に:
    前記探索レンジが複数の第1キャラクタ・オブジェクトを含む場合に、前記第1ターゲット選択方向ラインまでの垂直距離が最短である第1キャラクタ・オブジェクトを、前記ターゲット・キャラクタ・オブジェクトとして選択し、前記ターゲット・キャラクタ・オブジェクトを強調する;
    ように構成される請求項に記載の端末。
  11. 前記仮想ジョイスティック・オブジェクトの位置が前記スキル・リリース制御ハロー・オブジェクトの中心に対して変動したことが検出される度に、前記第1相対方向を第2相対方向にリフレッシュし、前記スキル・インジケータ・オブジェクトの前記中心点に至るコネクション・ラインを利用することにより、第2ターゲット選択方向ラインを前記第2相対方向の中で生成するステップ;及び
    前記第2ターゲット選択方向ラインまでの垂直距離が最短である第1キャラクタ・オブジェクトを、前記ターゲット・キャラクタ・オブジェクトとして選択し、前記ターゲット・キャラクタ・オブジェクトを強調するステップであって、前記仮想ジョイスティック・オブジェクトが移動する度に前記ターゲット・キャラクタ・オブジェクトを再決定及びリフレッシュし、リフレッシュにより得られる新たなターゲット・キャラクタ・オブジェクトを強調するステップ;
    を行うように構成されるリフレッシュ・ユニット;
    を更に有する請求項10に記載の端末。
  12. ユーザーの指が触れた前記仮想ジョイスティック・オブジェクトは前記閾レンジの外にあるという判定結果である場合に、補助スキル・インジケータ・オブジェクトを得るために、前記グラフィカル・ユーザー・インターフェースでレンダリングを実行するステップであって、前記補助スキル・インジケータ・オブジェクトにより指定されるスキル・リリース可能レンジは、第1キャラクタ・オブジェクトの探索レンジである、ステップ;及び
    ユーザー指リリース・ジェスチャを取得し、前記探索レンジ内の前記ターゲット・キャラクタ・オブジェクトに関して前記スキル・リリース・オペレーションを実行することを放棄し、前記ターゲット・キャラクタ・オブジェクトとして使用される前記第1キャラクタ・オブジェクトが前記探索レンジから発見されない場合に、第2プロンプト情報を表示するステップであって、前記第2プロンプト情報は、前記探索レンジ内に選択可能なターゲット・キャラクタ・オブジェクトが存在しないことを表現するために使用される、ステップ;
    を行うように構成されるスキル・リリース・ユニット;
    を更に有する請求項に記載の端末。
  13. ディスプレイ及びプロセッサを有する端末であって、前記ディスプレイは、グラフィカル・ユーザー・インターフェースを得るために、前記端末の前記プロセッサでソフトウェア・アプリケーションを実行し、前記ソフトウェア・アプリケーションでレンダリングを実行するように構成され、前記グラフィカル・ユーザー・インターフェースはマン・マシン・インタラクションによる制御処理を促すように構成され;
    前記プロセッサは請求項1ないしのうち何れか一項に記載の情報処理方法を実行するように構成され;及び
    前記プロセッサ、前記グラフィカル・ユーザー・インターフェース及び前記ソフトウェア・アプリケーションはゲーム・システムに実装されている、端末。
  14. コンピュータ実行可能命令が保存されるコンピュータ記憶媒体であって、前記コンピュータ実行可能命令は、請求項1ないしのうちの何れか一項に記載の情報処理方法を実行するように構成されている、コンピュータ記憶媒体。
JP2017554809A 2015-10-10 2016-05-24 情報処理方法、端末及びコンピュータ記憶媒体 Active JP6620169B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510654167.4 2015-10-10
CN201510654167.4A CN105194873B (zh) 2015-10-10 2015-10-10 一种信息处理方法、终端及计算机存储介质
PCT/CN2016/083208 WO2017059684A1 (zh) 2015-10-10 2016-05-24 一种信息处理方法、终端及计算机存储介质

Publications (2)

Publication Number Publication Date
JP2018517449A JP2018517449A (ja) 2018-07-05
JP6620169B2 true JP6620169B2 (ja) 2019-12-11

Family

ID=54943034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017554809A Active JP6620169B2 (ja) 2015-10-10 2016-05-24 情報処理方法、端末及びコンピュータ記憶媒体

Country Status (9)

Country Link
US (2) US10444871B2 (ja)
EP (1) EP3264248B1 (ja)
JP (1) JP6620169B2 (ja)
KR (1) KR102041170B1 (ja)
CN (2) CN108355348B (ja)
AU (1) AU2016336603B2 (ja)
CA (1) CA2981553C (ja)
MY (1) MY187968A (ja)
WO (1) WO2017059684A1 (ja)

Families Citing this family (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108355348B (zh) 2015-10-10 2021-01-26 腾讯科技(成都)有限公司 信息处理方法、终端及计算机存储介质
CN105335065A (zh) * 2015-10-10 2016-02-17 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN106959812A (zh) * 2016-01-11 2017-07-18 北京英雄互娱科技股份有限公司 用于人机交互的方法和装置
US10203860B2 (en) * 2016-03-18 2019-02-12 Ebay Inc. Graphical user interface element adjustment
CN106237615A (zh) * 2016-07-22 2016-12-21 广州云火信息科技有限公司 多单位元素技能操作方式
CN106492457A (zh) * 2016-10-20 2017-03-15 北京乐动卓越科技有限公司 一种全3d动作***战斗交互***的实现方法及装置
CN106422329A (zh) * 2016-11-01 2017-02-22 网易(杭州)网络有限公司 游戏操控方法和装置
JP6143934B1 (ja) * 2016-11-10 2017-06-07 株式会社Cygames 情報処理プログラム、情報処理方法、及び情報処理装置
CN106354418B (zh) 2016-11-16 2019-07-09 腾讯科技(深圳)有限公司 一种基于触摸屏的操控方法和装置
CN106843722B (zh) * 2016-12-26 2019-12-31 上海莉莉丝网络科技有限公司 一种用于触控终端的触摸控制方法以及触摸控制装置
KR102319206B1 (ko) 2017-01-05 2021-10-28 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 정보 처리 방법 및 장치 그리고 서버
CN106657127B (zh) * 2017-01-05 2020-09-08 腾讯科技(深圳)有限公司 一种信息处理方法、装置及服务器
CN107132979A (zh) * 2017-03-14 2017-09-05 网易(杭州)网络有限公司 在移动设备游戏中精确选择目标的交互方法、装置及计算机可读存储介质
CN107050862B (zh) * 2017-05-19 2018-06-15 网易(杭州)网络有限公司 游戏场景的显示控制方法及***、存储介质
KR102392978B1 (ko) 2017-05-19 2022-04-29 넷이즈 (항저우) 네트워크 컴패니 리미티드 게임 장면의 디스플레이 제어 방법 및 시스템, 기록매체
CN107174824B (zh) * 2017-05-23 2021-01-15 网易(杭州)网络有限公司 特效信息处理方法、装置、电子设备及存储介质
CN107193479B (zh) * 2017-05-26 2018-07-10 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN107391000B (zh) * 2017-06-09 2022-08-05 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
US10413814B2 (en) * 2017-06-09 2019-09-17 Supercell Oy Apparatus and method for controlling user interface of computing apparatus
CN107168611B (zh) * 2017-06-16 2018-12-28 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN107301012B (zh) * 2017-06-19 2020-11-06 上海逗屋网络科技有限公司 用于显示应用中操作指令的描述信息的方法与设备
CN107450812A (zh) 2017-06-26 2017-12-08 网易(杭州)网络有限公司 虚拟对象控制方法及装置、存储介质、电子设备
CN107376339B (zh) * 2017-07-18 2018-12-28 网易(杭州)网络有限公司 在游戏中锁定目标的交互方法及装置
CN107362535B (zh) * 2017-07-19 2019-04-26 腾讯科技(深圳)有限公司 游戏场景中的目标对象锁定方法、装置及电子设备
CN107398071B (zh) * 2017-07-19 2021-01-26 网易(杭州)网络有限公司 游戏目标选择方法及装置
CN107551537B (zh) * 2017-08-04 2020-12-01 网易(杭州)网络有限公司 一种游戏中虚拟角色的控制方法及装置、存储介质、电子设备
CN107583271B (zh) * 2017-08-22 2020-05-22 网易(杭州)网络有限公司 在游戏中选择目标的交互方法和装置
CN107694089B (zh) * 2017-09-01 2019-02-12 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN107596688B (zh) * 2017-09-25 2020-11-10 网易(杭州)网络有限公司 技能释放控制方法及装置、存储介质、处理器和终端
CN107754305A (zh) 2017-10-13 2018-03-06 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
CN107930105A (zh) * 2017-10-23 2018-04-20 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
CN107885417B (zh) * 2017-11-03 2021-02-02 腾讯科技(深圳)有限公司 虚拟环境中的目标定位方法、装置和计算机可读存储介质
CN107899246B (zh) * 2017-11-10 2020-11-20 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN107837529B (zh) * 2017-11-15 2019-08-27 腾讯科技(上海)有限公司 一种对象选择方法、装置、终端和存储介质
CN107899242A (zh) * 2017-11-17 2018-04-13 杭州电魂网络科技股份有限公司 技能命中判断方法及装置
CN108196765A (zh) * 2017-12-13 2018-06-22 网易(杭州)网络有限公司 显示控制方法、电子设备及存储介质
CN108144293B (zh) * 2017-12-15 2022-05-13 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN108245888A (zh) * 2018-02-09 2018-07-06 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置及计算机设备
CN108543308B (zh) * 2018-02-27 2020-08-04 腾讯科技(深圳)有限公司 虚拟场景中的虚拟对象的选择方法和装置
CN108553892B (zh) * 2018-04-28 2021-09-24 网易(杭州)网络有限公司 虚拟对象控制方法、装置、存储介质及电子设备
CN108635854A (zh) * 2018-05-08 2018-10-12 网易(杭州)网络有限公司 技能释放控制方法及装置、存储介质、电子设备
CN109550239B (zh) * 2018-09-20 2023-02-10 厦门吉比特网络技术股份有限公司 一种游戏的瞄准器控制方法和装置
CN109513209B (zh) 2018-11-22 2020-04-17 网易(杭州)网络有限公司 虚拟对象处理方法及装置、电子设备以及存储介质
CN109568954B (zh) * 2018-11-30 2020-08-28 广州要玩娱乐网络技术股份有限公司 兵种切换显示方法、装置、存储介质和终端
CN109758764B (zh) * 2018-12-11 2023-02-03 网易(杭州)网络有限公司 一种游戏技能控制的方法及装置、电子设备、存储介质
CN109568957B (zh) * 2019-01-10 2020-02-07 网易(杭州)网络有限公司 游戏中的显示控制方法、装置、存储介质、处理器及终端
CN109800047B (zh) * 2019-01-18 2022-03-18 网易(杭州)网络有限公司 游戏中技能的切换方法及装置、存储介质及电子设备
US10786734B2 (en) * 2019-02-20 2020-09-29 Supercell Oy Method for facilitating user interactions in gaming environment
CN109771941B (zh) * 2019-03-13 2022-08-05 网易(杭州)网络有限公司 游戏中虚拟对象的选择方法及装置、设备和介质
CN109999493B (zh) * 2019-04-03 2022-04-15 网易(杭州)网络有限公司 游戏中的信息处理方法、装置、移动终端及可读存储介质
CN110064193A (zh) * 2019-04-29 2019-07-30 网易(杭州)网络有限公司 游戏中虚拟对象的操控控制方法、装置和移动终端
KR102106273B1 (ko) * 2019-05-02 2020-05-04 엔엑스엔 주식회사 게임 캐릭터 조작 방법
CN110119481A (zh) * 2019-05-10 2019-08-13 福建工程学院 植株试管检索方法及***
CN110124323B (zh) * 2019-05-17 2022-09-27 罗圣博 一种在足球应用中执行足球技能的方法与设备
CN110368691B (zh) * 2019-07-19 2023-09-19 腾讯科技(深圳)有限公司 多人在线对战程序中的提醒信息发送方法、装置及终端
CN112306592B (zh) * 2019-08-01 2023-07-18 腾讯科技(深圳)有限公司 消息的处理方法和装置、存储介质及电子装置
CN110523085A (zh) * 2019-08-30 2019-12-03 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、终端及存储介质
CN110559658B (zh) * 2019-09-04 2020-07-28 腾讯科技(深圳)有限公司 信息交互方法、装置、终端以及存储介质
CN111135561B (zh) * 2019-12-26 2023-08-25 北京像素软件科技股份有限公司 游戏角色显示方法、装置、存储介质和电子设备
CN111324253B (zh) * 2020-02-12 2021-08-03 腾讯科技(深圳)有限公司 虚拟物品交互方法、装置、计算机设备及存储介质
CN111282266B (zh) * 2020-02-14 2021-08-03 腾讯科技(深圳)有限公司 三维虚拟环境中的技能瞄准方法、装置、终端及存储介质
CN111481932B (zh) * 2020-04-15 2022-05-17 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备和存储介质
CN111494937B (zh) * 2020-04-17 2022-04-01 腾讯科技(深圳)有限公司 虚拟对象的控制、信息同步方法、装置、设备及介质
CN111530075B (zh) 2020-04-20 2022-04-05 腾讯科技(深圳)有限公司 虚拟环境的画面显示方法、装置、设备及介质
CN111589112B (zh) * 2020-04-24 2021-10-22 腾讯科技(深圳)有限公司 界面显示方法、装置、终端及存储介质
CN111589129B (zh) * 2020-04-24 2023-08-15 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备及介质
CN111589133B (zh) * 2020-04-28 2022-02-22 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置、设备及存储介质
CN111589114B (zh) * 2020-05-12 2023-03-10 腾讯科技(深圳)有限公司 虚拟对象的选择方法、装置、终端及存储介质
CN111672101B (zh) * 2020-05-29 2023-04-07 腾讯科技(深圳)有限公司 虚拟场景中的虚拟道具获取方法、装置、设备及存储介质
CN111672113B (zh) * 2020-06-05 2022-03-08 腾讯科技(深圳)有限公司 虚拟对象的选择方法、装置、设备及存储介质
CN111672115B (zh) * 2020-06-05 2022-09-23 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置、计算机设备及存储介质
CN111672119B (zh) 2020-06-05 2023-03-10 腾讯科技(深圳)有限公司 瞄准虚拟对象的方法、装置、设备及介质
CN111672103B (zh) * 2020-06-05 2021-10-29 腾讯科技(深圳)有限公司 虚拟场景中的虚拟对象控制方法、计算机设备及存储介质
CN111672114B (zh) 2020-06-05 2022-03-18 腾讯科技(深圳)有限公司 目标虚拟对象确定方法、装置、终端及存储介质
CN111672118B (zh) * 2020-06-05 2022-02-18 腾讯科技(深圳)有限公司 虚拟对象的瞄准方法、装置、设备及介质
CN115779433A (zh) * 2020-06-05 2023-03-14 腾讯科技(深圳)有限公司 控制虚拟对象释放技能的方法、装置、终端及存储介质
CN111803932A (zh) * 2020-07-22 2020-10-23 网易(杭州)网络有限公司 一种游戏中虚拟角色的技能释放方法、终端及存储介质
US11731037B2 (en) * 2020-09-11 2023-08-22 Riot Games, Inc. Rapid target selection with priority zones
EP4026595A4 (en) * 2020-11-13 2022-11-23 Tencent Technology (Shenzhen) Company Limited CONTROL METHOD AND DEVICE FOR VIRTUAL OBJECTS, STORAGE MEDIUM AND ELECTRONIC DEVICE
CN112494955B (zh) * 2020-12-22 2023-10-03 腾讯科技(深圳)有限公司 虚拟对象的技能释放方法、装置、终端及存储介质
CN112698780A (zh) * 2020-12-29 2021-04-23 贵阳动视云科技有限公司 一种虚拟摇杆控制方法及装置
CN112870717A (zh) * 2021-03-12 2021-06-01 北京格瑞拉科技有限公司 一种虚拟操作对象的控制方法、装置及存储介质
CN113244621B (zh) * 2021-05-07 2024-05-28 网易(杭州)网络有限公司 一种游戏中的信息处理方法、装置、电子设备及存储介质
AU2021376721A1 (en) * 2021-05-14 2022-12-01 Tencent Technology (Shenzhen) Company Limited Virtual object control method, apparatus, device, and computer-readable storage medium
CN113440852B (zh) * 2021-07-08 2022-07-29 腾讯科技(深圳)有限公司 虚拟场景中虚拟技能的控制方法、装置、设备及存储介质
CN113633995A (zh) * 2021-08-10 2021-11-12 网易(杭州)网络有限公司 游戏的交互控制方法、装置、设备及存储介质
CN113694511A (zh) * 2021-08-10 2021-11-26 网易(杭州)网络有限公司 虚拟角色控制方法、装置及电子设备
CN114115528B (zh) * 2021-11-02 2024-01-19 深圳市雷鸟网络传媒有限公司 虚拟对象控制方法、装置、计算机设备和存储介质
CN115193064A (zh) * 2022-07-12 2022-10-18 网易(杭州)网络有限公司 虚拟对象的控制方法、装置、存储介质及计算机设备
CN115501600B (zh) * 2022-09-28 2023-07-14 广州三七极耀网络科技有限公司 游戏内人机角色的控制方法、***、装置及介质

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7469381B2 (en) * 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
JP3477675B2 (ja) * 1999-06-04 2003-12-10 インターナショナル・ビジネス・マシーンズ・コーポレーション ポインタ操作の補助方法
JP3910890B2 (ja) * 2002-08-21 2007-04-25 株式会社バンダイナムコゲームス ゲームシステム、プログラム及び情報記憶媒体
US7231609B2 (en) * 2003-02-03 2007-06-12 Microsoft Corporation System and method for accessing remote screen content
US20070064004A1 (en) * 2005-09-21 2007-03-22 Hewlett-Packard Development Company, L.P. Moving a graphic element
JP4871373B2 (ja) * 2009-06-19 2012-02-08 任天堂株式会社 情報処理システムおよび情報処理装置
CN101630224A (zh) * 2009-08-14 2010-01-20 宇龙计算机通信科技(深圳)有限公司 一种界面上控件图标的处理方法、***及触摸终端
US9262073B2 (en) 2010-05-20 2016-02-16 John W. Howard Touch screen with virtual joystick and methods for use therewith
JP2011250874A (ja) * 2010-05-31 2011-12-15 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
JP2012018657A (ja) * 2010-06-11 2012-01-26 Nintendo Co Ltd 情報処理端末、情報処理システム、情報処理プログラム
JP2013539137A (ja) * 2010-10-01 2013-10-17 ゼット124 ユーザインタフェースにおけるドラッグ移動ジェスチャ
JP5789762B2 (ja) * 2011-02-24 2015-10-07 パナソニックIpマネジメント株式会社 回折音低減装置、回折音低減方法、及び、フィルタ係数決定方法
WO2012135843A1 (en) * 2011-03-31 2012-10-04 Tetris Holding, Llc Systems and methods for manipulation of objects
US9868062B2 (en) * 2012-03-13 2018-01-16 Sony Interactive Entertainment America Llc System, method, and graphical user interface for controlling an application on a tablet
KR20130105044A (ko) * 2012-03-16 2013-09-25 삼성전자주식회사 터치 스크린 단말기의 사용자 인터페이스 방법 및 장치
JP5480347B2 (ja) 2012-08-31 2014-04-23 株式会社スクウェア・エニックス ビデオゲーム処理装置、およびビデオゲーム処理プログラム
CN103809888B (zh) * 2012-11-12 2016-12-21 北京三星通信技术研究有限公司 移动终端及其操控方法
DE202014011411U1 (de) * 2013-02-19 2020-05-04 Sony Interactive Entertainment Inc. Vorrichtung zur Informationsverarbeitung
US9227141B2 (en) * 2013-12-31 2016-01-05 Microsoft Technology Licensing, Llc Touch screen game controller
EP3128408A4 (en) * 2014-04-04 2018-02-28 Colopl Inc. User interface program and game program
CN104076986B (zh) * 2014-07-25 2015-12-09 上海逗屋网络科技有限公司 一种用于多点触摸终端的触摸控制方法与设备
CN104267904A (zh) * 2014-09-26 2015-01-07 深圳市睿德网络科技有限公司 一种具有触摸屏虚拟单位控制的方法及移动终端
CN104750419A (zh) * 2015-04-07 2015-07-01 上海雪宝信息科技有限公司 一种用于在触摸终端上操作对象的方法与设备
CN104898953B (zh) * 2015-06-16 2016-10-26 深圳市腾讯计算机***有限公司 基于触控屏的操控方法和装置
CN104915117B (zh) * 2015-06-16 2017-03-22 深圳市腾讯计算机***有限公司 控制与虚拟目标进行交互的方法和装置
CN104922906B (zh) * 2015-07-15 2018-09-04 网易(杭州)网络有限公司 动作执行方法和装置
CN105335064B (zh) * 2015-09-29 2017-08-15 腾讯科技(深圳)有限公司 一种信息处理方法和终端
CN108355348B (zh) * 2015-10-10 2021-01-26 腾讯科技(成都)有限公司 信息处理方法、终端及计算机存储介质
JP7110573B2 (ja) * 2017-09-29 2022-08-02 京セラドキュメントソリューションズ株式会社 情報処理装置、情報処理プログラム及び情報処理方法

Also Published As

Publication number Publication date
KR20180005222A (ko) 2018-01-15
EP3264248B1 (en) 2020-09-23
US11003261B2 (en) 2021-05-11
AU2016336603B2 (en) 2019-06-13
CA2981553C (en) 2019-11-19
US20180024660A1 (en) 2018-01-25
WO2017059684A1 (zh) 2017-04-13
AU2016336603A1 (en) 2017-11-09
EP3264248A4 (en) 2018-12-05
US20190391676A1 (en) 2019-12-26
EP3264248A1 (en) 2018-01-03
CN105194873B (zh) 2019-01-04
KR102041170B1 (ko) 2019-11-06
CN108355348B (zh) 2021-01-26
MY187968A (en) 2021-11-03
CN105194873A (zh) 2015-12-30
US10444871B2 (en) 2019-10-15
CA2981553A1 (en) 2017-04-13
JP2018517449A (ja) 2018-07-05
CN108355348A (zh) 2018-08-03

Similar Documents

Publication Publication Date Title
JP6620169B2 (ja) 情報処理方法、端末及びコンピュータ記憶媒体
KR102034367B1 (ko) 정보 처리 방법과 단말기, 및 컴퓨터 저장 매체
US10434403B2 (en) Information processing method, terminal, and computer storage medium
US10398977B2 (en) Information processing method, terminal, and computer storage medium
EP3273334B1 (en) Information processing method, terminal and computer storage medium
US10786733B2 (en) Information processing method, terminal, and computer storage medium for releasing virtual skill object based on user gesture
KR102007212B1 (ko) 정보 처리 방법, 단말기 및 컴퓨터 저장 매체
JP7502012B2 (ja) 情報処理方法、端末及びコンピュータ記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180911

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190814

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191118

R150 Certificate of patent or registration of utility model

Ref document number: 6620169

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250