JP6529659B2 - 情報処理方法、端末及びコンピュータ記憶媒体 - Google Patents

情報処理方法、端末及びコンピュータ記憶媒体 Download PDF

Info

Publication number
JP6529659B2
JP6529659B2 JP2018505518A JP2018505518A JP6529659B2 JP 6529659 B2 JP6529659 B2 JP 6529659B2 JP 2018505518 A JP2018505518 A JP 2018505518A JP 2018505518 A JP2018505518 A JP 2018505518A JP 6529659 B2 JP6529659 B2 JP 6529659B2
Authority
JP
Japan
Prior art keywords
character
character object
gui
rendering
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018505518A
Other languages
English (en)
Other versions
JP2018512988A (ja
Inventor
タン,ヨン
ウェン,ジアンミアオ
チェン,ユー
ゴン,ウェイ
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=55285650&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP6529659(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2018512988A publication Critical patent/JP2018512988A/ja
Application granted granted Critical
Publication of JP6529659B2 publication Critical patent/JP6529659B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/58Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5378Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/65Methods for processing data by generating or executing the game program for computing the condition of a game character

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、情報処理技術に関し、特に、情報処理方法、端末及びコンピュータ記憶媒体に関する。
インターネット技術の急速な発展と、大画面及び超大画面のインテリジェント端末の次第の普及によって、インテリジェント端末のプロセッサは、ますます高い処理能力を有しており、これにより、マンマシン相互作用に基づく制御を実施する多くのアプリケーションが大画面又は超大画面上に現れている。マンマシン相互作用に基づく制御を実施する過程において、多くのユーザは、異なる相互作用結果を取得するために、1対1、1対多及び多対多の形式のグループを作成することにより異なる相互作用モードを実行し得る。例えば、大画面又は超大画面上でのレンダリングを通じて取得されたグラフィカルユーザインタフェース(GUI:graphical user interface)において、複数のユーザが2つの異なるグループにグループ化された後に、マンマシン相互作用における制御処理を用いて、情報交換が異なるグループの間で実行され、異なる相互作用結果が情報交換に対する応答に従って取得される。マンマシン相互作用における制御処理を用いて、情報交換が同じグループ内のグループメンバの間で更に実行されてもよく、異なる相互作用結果が情報交換に対する応答に従って取得される。
既存の技術では、情報交換の過程において、ターゲットグループメンバが頻繁に移動するため、或いは多数のターゲットグループメンバが存在し、ターゲットグループメンバが頻繁に移動するため、ターゲットグループメンバが選択されるときに、複数回のトリガー操作が必要になる。トリガー操作の過程は、比較的長い時間を有し、低い精度を有し、迅速性及び正確性の要件が情報交換の過程において満たされることができない。関係技術では、現在、この問題への有効な解決策は依然として存在しない。
本発明の実施例は、情報交換の過程においてターゲットオブジェクトを迅速且つ正確に選択し、これにより、ユーザ体験を向上させるための情報処理方法、端末及びコンピュータ記憶媒体を提供することを想定する。
前述の目的を実現するため、本発明の実施例における技術的解決策は以下のように実施される。
本発明の実施例は、ソフトウェアアプリケーションが端末のプロセッサ上で実行され、GUIを取得するためにレンダリングが端末のディスプレイ上で実行され、プロセッサ、GUI及びソフトウェアアプリケーションがゲームシステム内で実施される情報処理方法を提供し、この方法は、
少なくとも1つの仮想リソースオブジェクトを取得するために、GUI内でレンダリングを実行するステップであり、仮想リソースオブジェクトのうち少なくとも1つは、入力された第1のユーザコマンドに従って第1の仮想操作を実行する第1のキャラクタオブジェクトとして構成されるステップと、
GUI内の少なくとも1つのキャラクタ選択エリア内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウ位置を含むように配置するステップと、
GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトを検出し、第1の表示パラメータに従って、少なくとも1つのウィンドウ位置内の第2のキャラクタオブジェクトに関連する検出されたキャラクタ操作オブジェクトについてレンダリングを実行するステップと、
第1のキャラクタオブジェクトにより、レンダリングが第1の表示パラメータに従って実行され且つキャラクタコンテナオブジェクト内にある少なくとも1つのキャラクタ操作オブジェクト上で選択操作ジェスチャが検出されたときに、対応する第2のキャラクタオブジェクト上で第1の仮想操作のうち少なくとも1つを実行するステップと
を含む。
本発明の実施例は、レンダリング処理ユニットと、配置ユニットと、検出ユニットと、操作実行ユニットとを含む端末を更に提供し、
レンダリング処理ユニットは、ソフトウェアアプリケーションを実行し、GUIを取得するためにレンダリングを実行し、少なくとも1つの仮想リソースオブジェクトを取得するために、GUI内でレンダリングを実行するように構成され、仮想リソースオブジェクトのうち少なくとも1つは、入力された第1のユーザコマンドに従って第1の仮想操作を実行する第1のキャラクタオブジェクトとして構成され、第1の表示パラメータに従って、少なくとも1つのウィンドウ位置内の第2のキャラクタオブジェクトに関連し且つ検出ユニットにより検出されたキャラクタ操作オブジェクトについてレンダリングを実行するように更に構成され、
配置ユニットは、GUI内の少なくとも1つのキャラクタ選択エリア内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウ位置を含むように配置するように構成され、
検出ユニットは、GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトを検出するように構成され、
操作実行ユニットは、第1のキャラクタオブジェクトにより、レンダリングが第1の表示パラメータに従って実行され且つキャラクタコンテナオブジェクト内にある少なくとも1つのキャラクタ操作オブジェクト上で選択操作ジェスチャが検出されたときに、対応する第2のキャラクタオブジェクト上で第1の仮想操作のうち少なくとも1つを実行するように構成される。
本発明の実施例は、プロセッサと、ディスプレイとを含み、プロセッサがソフトウェアアプリケーションを実行し、GUIを取得するためにディスプレイ上でレンダリングを実行するように構成され、プロセッサ、GUI及びソフトウェアアプリケーションがゲームシステム内で実施される端末を更に提供し、
プロセッサは、少なくとも1つの仮想リソースオブジェクトを取得するために、GUI内でレンダリングを実行し、仮想リソースオブジェクトのうち少なくとも1つは、入力された第1のユーザコマンドに従って第1の仮想操作を実行する第1のキャラクタオブジェクトとして構成され、
GUI内の少なくとも1つのキャラクタ選択エリア内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウ位置を含むように配置し、
GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトを検出し、第1の表示パラメータに従って、少なくとも1つのウィンドウ位置内の第2のキャラクタオブジェクトに関連する検出されたキャラクタ操作オブジェクトについてレンダリングを実行し、
第1のキャラクタオブジェクトにより、レンダリングが第1の表示パラメータに従って実行され且つキャラクタコンテナオブジェクト内にある少なくとも1つのキャラクタ操作オブジェクト上で選択操作ジェスチャが検出されたときに、対応する第2のキャラクタオブジェクト上で第1の仮想操作のうち少なくとも1つを実行するように更に構成される。
本発明の実施例は、コンピュータ記憶媒体を更に提供し、コンピュータ実行可能命令がコンピュータ記憶媒体に記憶され、コンピュータ実行可能命令が本発明の実施例における情報処理方法を実行するように構成される。
本発明の実施例における情報処理方法、端末及びコンピュータ記憶媒体によれば、GUI内のキャラクタ選択エリア内に配置されたキャラクタコンテナオブジェクト内のウィンドウ位置を用いて、第1のキャラクタオブジェクトと情報交換を実行する第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについて、対応するウィンドウ位置内でレンダリングが実行され、第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについて、第1の表示パラメータに従ってレンダリングが実行され、すなわち、第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトに関連するUIアバターについて、第1の表示パラメータに従ってレンダリングが実行され、これにより、UIアバターは、他のUIアバターの表示効果とは異なる表示効果を有し、ユーザがターゲットキャラクタ操作オブジェクトを選択するときに、ユーザが異なる表示効果に基づいて、キャラクタ操作オブジェクト上の選択操作ジェスチャを用いてターゲットキャラクタオブジェクトを迅速且つ正確に選択することが便利になり、これにより、相互作用の過程においてユーザの操作体験をかなり向上させる。
本発明の実施例による情報処理方法における情報交換のアプリケーションアーキテクチャの概略図である。 本発明の実施例1による情報処理方法の概略フローチャートである。 本発明の実施例による情報処理方法におけるGUIの第1の概略図である。 本発明の実施例による情報処理方法において第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトを検出する原理の概略図である。 本発明の実施例による情報処理方法におけるGUIの第2の概略図である。 本発明の実施例2による情報処理方法の概略フローチャートである。 本発明の実施例による情報処理方法において第1のキャラクタオブジェクトへの距離が第2の予め設定された条件を満たす第2のキャラクタオブジェクトを検出する原理の概略図である。 本発明の実施例3による情報処理方法の概略フローチャートである。 本発明の実施例による情報処理方法におけるGUIの第3の概略図である。 本発明の実施例による情報処理方法における相互作用の概略適用図である。 本発明の実施例による情報処理方法におけるGUIの第4の概略図である。 本発明の実施例4による端末の概略構成図である。 本発明の実施例5による端末の概略構成図である。 本発明の実施例6による端末の概略構成図である。
本開示について、添付図面及び具体的な実施例を参照して以下に詳細に更に説明する。
図1は、本発明の実施例による情報処理方法における情報交換のアプリケーションアーキテクチャの概略図である。図1に示すように、アプリケーションアーキテクチャは、サーバ101と、少なくとも1つの端末とを含む。アプリケーションアーキテクチャに示すように、端末は、端末102と、端末103と、端末104と、端末105と、端末106とを含む。少なくとも1つの端末は、ネットワーク100(有線ネットワーク又は無線ネットワーク等)を使用することにより、サーバ101への接続を確立してもよい。具体的には、端末は、移動電話、デスクトップコンピュータ、PC、オールインワンPC及び他の種類を含む。
この実施例では、端末のプロセッサは、ソフトウェアアプリケーションを実行し、GUIを取得するために端末のディスプレイ上でレンダリングを実行することができる。プロセッサ、GUI及びソフトウェアアプリケーションがゲームシステム上で実施される。この実施例では、ゲームシステム内でプロセッサ、GUI及びソフトウェアアプリケーションを実施する過程において、少なくとも1つの端末は、ゲームシステム内で1対1又は多対多(3対3又は5対5等)の適用モードのシナリオを実施するために、有線ネットワーク又は無線ネットワークを使用することによりサーバ101と情報交換を実行してもよい。1対1の適用シナリオでは、端末によるレンダリングを通じて取得されたグラフィカルユーザオブジェクト内の仮想リソースオブジェクトは、ゲームシステム内で予め設定された仮想リソースオブジェクトと情報交換を実行してもよく(これは、人対機械として理解されてもよい)、すなわち、端末は、サーバと情報交換を実行する。或いは、1対1の適用シナリオでは、端末によるレンダリングを通じて取得されたグラフィカルユーザオブジェクト内の仮想リソースオブジェクトは、他の端末によるレンダリングを通じて取得されたグラフィカルユーザオブジェクト内の仮想リソースオブジェクトと情報交換を実行してもよく、例えば、端末102によるレンダリングを通じて取得されたグラフィカルユーザオブジェクト内の仮想リソースオブジェクトは、端末103によるレンダリングを通じて取得されたグラフィカルユーザオブジェクト内の仮想リソースオブジェクトと情報交換を実行する。多対多の適用モードのシナリオでは、一例として3対3の適用モードのシナリオを使用して、端末1、端末2及び端末3によりそれぞれ実行されたレンダリングを通じて取得されたグラフィカルユーザオブジェクト内の仮想リソースオブジェクトが第1のグループにグループ化され、端末4、端末5及び端末6によりそれぞれ実行されたレンダリングを通じて取得されたグラフィカルユーザオブジェクト内の仮想リソースオブジェクトが第2のグループにグループ化され、第1のグループ内のグループメンバは、第2のグループ内のグループメンバと情報交換を実行する。
図1における例は、本発明の実施例を実施するためのアプリケーションアーキテクチャの単なる例であり、本発明の実施例は、図1におけるアプリケーションアーキテクチャに限定されない。アプリケーションアーキテクチャに基づいて、本発明の様々な実施例が提供される。
実施例1
本発明のこの実施例は、情報処理方法を提供する。図2は、本発明の実施例1による情報処理方法の概略フローチャートである。情報処理方法は、端末に適用される。ソフトウェアアプリケーションが端末のプロセッサ上で実行され、GUIを取得するためにレンダリングが端末のディスプレイ上で実行される。プロセッサ、GUI及びソフトウェアアプリケーションがゲームシステム内で実施される。図2に示すように、この方法は以下のステップを含む。
ステップ201:少なくとも1つの仮想リソースオブジェクトを取得するために、GUI内でレンダリングを実行し、仮想リソースオブジェクトのうち少なくとも1つは、入力された第1のユーザコマンドに従って第1の仮想操作を実行する第1のキャラクタオブジェクトとして構成される。
ステップ202:GUI内の少なくとも1つのキャラクタ選択エリア内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウ位置を含むように配置する。
ステップ203:GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトを検出し、第1の表示パラメータに従って、少なくとも1つのウィンドウ位置内の第2のキャラクタオブジェクトに関連する検出されたキャラクタ操作オブジェクトについてレンダリングを実行する。
ステップ204:レンダリングが第1の表示パラメータに従って実行され且つキャラクタコンテナオブジェクト内にある少なくとも1つのキャラクタ操作オブジェクト上で選択操作ジェスチャを検出したときに、第1のキャラクタオブジェクトが、対応する第2のキャラクタオブジェクト上で第1の仮想操作のうち少なくとも1つを実行する。
この実施例では、GUIは、少なくとも1つのキャラクタ選択エリアを含み、キャラクタ選択エリアは、少なくとも1つのキャラクタコンテナオブジェクトを含み、キャラクタコンテナオブジェクトは、少なくとも1つのウィンドウ位置を含む。対応するキャラクタ操作オブジェクトは、少なくともいくつかのウィンドウ位置内に運ばれる。キャラクタ操作オブジェクトは、GUI内のキャラクタ操作オブジェクトに関連するキャラクタオブジェクトの識別子(識別子はアバターでもよい)を使用することにより表されてもよい。ここで、キャラクタ操作オブジェクトに関連する第2のキャラクタオブジェクト及び第1のキャラクタオブジェクトは、異なるグループに属する。キャラクタ選択エリア内のキャラクタコンテナオブジェクトについてレンダリングする方式は、バー型又は環状型を含むが、これらに限定されず、すなわち、キャラクタコンテナオブジェクトは、キャラクタ選択バーオブジェクト又はキャラクタ選択輪状オブジェクトを使用することにより表されてもよい。
図3は、本発明の実施例による情報処理方法におけるGUIの第1の概略図である。図3に示すように、端末のディスプレイ上でのレンダリングを通じて取得されたGUIは、少なくとも1つの仮想リソースオブジェクトを含む。仮想リソースオブジェクトは、少なくとも1つの第1のキャラクタオブジェクトa10を含む。端末のユーザは、GUIを使用することにより情報交換を実行してもよく、すなわち、ユーザコマンドを入力してもよい。第1のキャラクタオブジェクトa10は、端末により検出された第1のユーザコマンドに基づいて第1の仮想操作を実行することができ、第1の仮想操作は、移動操作、物理的攻撃操作、スキル攻撃操作等を含むが、これらに限定されない。第1のキャラクタオブジェクトa10は、端末のユーザにより制御されるキャラクタオブジェクトであることが理解され得る。ゲームシステムでは、第1のキャラクタオブジェクトa10は、ユーザの操作に基づいてGUI内で対応するアクションを実行することができる。実施方式では、GUIは、ユーザキャラクタオブジェクトが位置する仮想エリアのミニマップ801を更に含む。ミニマップ801の概略詳細図が801aで示されている。認識できるように、仮想エリア内の各キャラクタオブジェクト(第1のキャラクタオブジェクトa10との第1のグループに属するフレンドと、第2のグループに属する敵とを含む)の位置は、ミニマップ801内で識別される。GUIは、少なくとも1つのスキルオブジェクト803を更に含み、ユーザは、スキル解放操作を用いて、対応するスキル解放操作を実行するようにユーザキャラクタオブジェクトを制御してもよい。
図3に示す例では、GUIは、キャラクタ選択エリア802を含み、キャラクタコンテナオブジェクトは、キャラクタ選択エリア802内に配置される。この例では、キャラクタコンテナオブジェクトは、キャラクタ選択バーオブジェクトを使用することにより表される(すなわち、キャラクタコンテナオブジェクトは、バー型の表示効果を示す)。キャラクタコンテナオブジェクトは、少なくとも1つのウィンドウ位置を含み、レンダリングは、対応するウィンドウ位置内で、第1のキャラクタオブジェクトと相互作用する第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについて実行される。キャラクタ操作オブジェクトがアバターを使用することにより表される例が使用され、すなわち、キャラクタ選択エリア802は、少なくとも1つのアバターを含む。少なくとも1つのアバターは、第1のキャラクタオブジェクトと相互作用する少なくとも1つの第2のキャラクタオブジェクトとそれぞれ1対1の対応にある。図3に示すように、5対5の適用シナリオがこの例において使用される。第1のキャラクタオブジェクトa10のグループとは異なるグループに属する5つの第2のキャラクタオブジェクトが存在し、対応して、キャラクタ選択エリア802内に5つのキャラクタ操作オブジェクト、例えば、図3に示すキャラクタ操作オブジェクトb11、キャラクタ操作オブジェクトb12、キャラクタ操作オブジェクトb13、キャラクタ操作オブジェクトb14及びキャラクタ操作オブジェクトb15が存在する。キャラクタ選択エリア802内の5つのキャラクタ操作オブジェクトは、第1のキャラクタオブジェクトのグループとは異なるグループに属する5つの第2のキャラクタオブジェクトと1対1の対応にあることが理解され得る。
図3に示すGUIの例に基づいて、端末のユーザによる制御の間に、第1のキャラクタオブジェクトの位置はリアルタイムに変化し、対応して、GUI内の第2のキャラクタオブジェクトの位置はリアルタイムに変化する。したがって、第1のキャラクタオブジェクトが第2のキャラクタオブジェクト上で仮想操作を実行する過程において、端末のユーザが、仮想操作が実行されるキャラクタオブジェクトを選択することは容易ではない。これに基づいて、この実施例では、GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトが検出される。
具体的には、GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトを検出することは、GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された閾値未満である第2のキャラクタオブジェクトを検出することを含む。
図4は、本発明の実施例による情報処理方法において第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトを検出する原理の概略図である。図4に示すように、円形エリアのエリア範囲を取得するために、第1のキャラクタオブジェクト1を円の中心として使用し且つ第1の予め設定された閾値(R)を半径として使用する円形エリアが検出され、エリア範囲は、座標範囲を使用することにより表されてもよい。すなわち、第1のキャラクタオブジェクト及び第2のキャラクタオブジェクトが位置する仮想空間内でXY座標系が確立され、XY座標系内での円形エリアの座標範囲が取得される。さらに、GUI内の第2のキャラクタオブジェクトの座標がリアルタイムに検出され、検出された座標が円形エリアを表す座標範囲内にあるか否かが決定され、円形エリアを表す座標範囲内に座標が存在することが決定されたときに(例えば、図4に示す第2のキャラクタオブジェクト2、第2のキャラクタオブジェクト3及び第2のキャラクタオブジェクト4は、全て円形エリア内にある)、GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された閾値未満である第2のキャラクタオブジェクトが検出される。第1の予め設定された閾値は、第1のキャラクタオブジェクトの攻撃距離又はスキル解放距離を満たし、これにより、以降の操作の過程において、第2のキャラクタオブジェクトを迅速に選択することが便利になり、第1のキャラクタオブジェクトが第2のキャラクタオブジェクト上で仮想操作を実行することが便利になる。
GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトが検出された後に、第2のキャラクタオブジェクトに関連するキャラクタコンテナオブジェクト内の対応するキャラクタ操作オブジェクトが決定され、第1の表示パラメータに従って対応するウィンドウ位置内でキャラクタ操作オブジェクトについてレンダリングが実行される。図5は、本発明の実施例による情報処理方法におけるGUIの第2の概略図である。図5に示すように、第1の表示パラメータに従って、第1の予め設定された条件を満たす第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについてレンダリングが実行される(図5に示すキャラクタ操作オブジェクトb12を参照すると、キャラクタ操作オブジェクトb12の外周の縁が他のキャラクタ操作オブジェクトのレンダリング効果とは異なるレンダリング効果を有しており、これにより、キャラクタ操作オブジェクトb12がハイライト表示効果を有する)。他のキャラクタ操作オブジェクトと比べて、レンダリングが第1の表示パラメータを使用することにより実行されたキャラクタ操作オブジェクト(キャラクタ操作オブジェクトb12等)は、明らかに目立つ特徴を有し、これにより、端末のユーザは、キャラクタ操作オブジェクトを直ちに識別することができ、端末のユーザは、以降の操作において明らかに目立つ特徴を有するキャラクタ操作オブジェクトを迅速に選択することができる。
この実施例では、GUI内のキャラクタバー選択オブジェクト内にあり且つレンダリングが第1の表示パラメータに従って実行された少なくとも1つのキャラクタ操作オブジェクトについて、端末のユーザが少なくとも1つのキャラクタ操作オブジェクト上でトリガー操作を実行したときに、すなわち、端末が少なくとも1つのキャラクタ操作オブジェクト上で選択操作ジェスチャを検出したときに、これは、キャラクタ操作オブジェクトに関連する第2のキャラクタオブジェクトが選択され、さらに、第1のキャラクタオブジェクトが第2のキャラクタオブジェクト上で第1の仮想操作を実行したことを示す。具体的には、ゲームシステムでは、第1の仮想操作は、物理的攻撃操作でもよく、或いはスキル解放操作でもよい。第1の仮想操作が物理的攻撃操作であるときに、第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトが選択された後に、第1のキャラクタオブジェクトは、第2のキャラクタオブジェクト上で物理的攻撃操作を直接実行する。スキル解放操作が実行されるときに、まず、スキルオブジェクトがスキル選択操作ジェスチャを用いて選択される必要があり、第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトが選択された後に、第1のキャラクタオブジェクトは、第2のキャラクタオブジェクト上でスキルオブジェクトについてのスキル解放操作を実行する。
本発明のこの実施例における技術的解決策を用いることで、GUI内のキャラクタ選択エリア内に配置されたキャラクタコンテナオブジェクト内のウィンドウ位置を用いて、第1のキャラクタオブジェクトと情報交換を実行する第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについて、対応するウィンドウ位置内でレンダリングが実行され、第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについて、第1の表示パラメータに従ってレンダリングが実行され、すなわち、第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトに関連するUIアバターについて、第1の表示パラメータに従ってレンダリングが実行され、これにより、UIアバターは、他のUIアバターの表示効果とは異なる表示効果を有し、ユーザがターゲットキャラクタ操作オブジェクトを選択するときに、ユーザが異なる表示効果に基づいて、キャラクタ操作オブジェクト上の選択操作ジェスチャを用いてターゲットキャラクタオブジェクトを迅速且つ正確に選択することが便利になり、これにより、相互作用の過程においてユーザの操作体験をかなり向上させる。
実施例2
実施例1に基づいて、本発明のこの実施例は、情報処理方法を更に提供する。図6は、本発明の実施例2による情報処理方法の概略フローチャートである。情報処理方法は、端末に適用される。ソフトウェアアプリケーションが端末のプロセッサ上で実行され、GUIを取得するためにレンダリングが端末のディスプレイ上で実行される。プロセッサ、GUI及びソフトウェアアプリケーションがゲームシステム内で実施される。図6に示すように、この方法は以下のステップを含む。
ステップ301:少なくとも1つの仮想リソースオブジェクトを取得するために、GUI内でレンダリングを実行し、仮想リソースオブジェクトのうち少なくとも1つは、入力された第1のユーザコマンドに従って第1の仮想操作を実行する第1のキャラクタオブジェクトとして構成される。
ステップ302:GUI内の少なくとも1つのキャラクタ選択エリア内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウ位置を含むように配置する。
この実施例では、GUIは、少なくとも1つのキャラクタ選択エリアを含み、キャラクタ選択エリアは、少なくとも1つのキャラクタコンテナオブジェクトを含み、キャラクタコンテナオブジェクトは、少なくとも1つのウィンドウ位置を含む。対応するキャラクタ操作オブジェクトは、少なくともいくつかのウィンドウ位置内に運ばれる。キャラクタ操作オブジェクトは、GUI内のキャラクタ操作オブジェクトに関連するキャラクタオブジェクトの識別子(識別子はアバターでもよい)を使用することにより表されてもよい。ここで、キャラクタ操作オブジェクトに関連する第2のキャラクタオブジェクト及び第1のキャラクタオブジェクトは、異なるグループに属する。キャラクタ選択エリア内のキャラクタコンテナオブジェクトについてレンダリングする方式は、バー型又は環状型を含むが、これらに限定されず、すなわち、キャラクタコンテナオブジェクトは、キャラクタ選択バーオブジェクト又はキャラクタ選択輪状オブジェクトを使用することにより表されてもよい。
具体的には、図3を参照すると、端末のディスプレイ上でのレンダリングを通じて取得されたGUIは、少なくとも1つの仮想リソースオブジェクトを含む。仮想リソースオブジェクトは、少なくとも1つの第1のキャラクタオブジェクトa10を含む。端末のユーザは、GUIを使用することにより情報交換を実行してもよく、すなわち、ユーザコマンドを入力してもよい。第1のキャラクタオブジェクトa10は、端末により検出された第1のユーザコマンドに基づいて第1の仮想操作を実行することができ、第1の仮想操作は、移動操作、物理的攻撃操作、スキル攻撃操作等を含むが、これらに限定されない。第1のキャラクタオブジェクトa10は、端末のユーザにより制御されるキャラクタオブジェクトであることが理解され得る。ゲームシステムでは、第1のキャラクタオブジェクトa10は、ユーザの操作に基づいてGUI内で対応するアクションを実行することができる。実施方式では、GUIは、ユーザキャラクタオブジェクトが位置する仮想エリアのミニマップ801を更に含む。ミニマップ801の概略詳細図が801aで示されている。認識できるように、仮想エリア内の各キャラクタオブジェクト(第1のキャラクタオブジェクトa10との第1のグループに属するフレンドと、第2のグループに属する敵とを含む)の位置は、ミニマップ801内で識別される。GUIは、少なくとも1つのスキルオブジェクト803を更に含み、ユーザは、スキル解放操作を用いて、対応するスキル解放操作を実行するようにユーザキャラクタオブジェクトを制御してもよい。
図3に示す例では、GUIは、キャラクタ選択エリア802を含み、キャラクタコンテナオブジェクトは、キャラクタ選択エリア802内に配置される。この例では、キャラクタコンテナオブジェクトは、キャラクタ選択バーオブジェクトを使用することにより表される(すなわち、キャラクタコンテナオブジェクトは、バー型の表示効果を示す)。キャラクタコンテナオブジェクトは、少なくとも1つのウィンドウ位置を含み、レンダリングは、対応するウィンドウ位置内で、第1のキャラクタオブジェクトと相互作用する第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについて実行される。キャラクタ操作オブジェクトがアバターを使用することにより表される例が使用され、すなわち、キャラクタ選択エリア802は、少なくとも1つのアバターを含む。少なくとも1つのアバターは、第1のキャラクタオブジェクトと相互作用する少なくとも1つの第2のキャラクタオブジェクトとそれぞれ1対1の対応にある。図3に示すように、5対5の適用シナリオがこの例において使用される。第1のキャラクタオブジェクトa10のグループとは異なるグループに属する5つの第2のキャラクタオブジェクトが存在し、対応して、キャラクタ選択エリア802内に5つのキャラクタ操作オブジェクト、例えば、図3に示すキャラクタ操作オブジェクトb11、キャラクタ操作オブジェクトb12、キャラクタ操作オブジェクトb13、キャラクタ操作オブジェクトb14及びキャラクタ操作オブジェクトb15が存在する。キャラクタ選択エリア802内の5つのキャラクタ操作オブジェクトは、第1のキャラクタオブジェクトのグループとは異なるグループに属する5つの第2のキャラクタオブジェクトと1対1の対応にあることが理解され得る。
図3に示すGUIの例に基づいて、端末のユーザによる制御の間に、第1のキャラクタオブジェクトの位置はリアルタイムに変化し、対応して、GUI内の第2のキャラクタオブジェクトの位置はリアルタイムに変化する。これに基づいて、第1のキャラクタオブジェクトが第2のキャラクタオブジェクト上で仮想操作を実行する過程において、端末のユーザが、仮想操作が実行されるキャラクタオブジェクトを選択することは容易ではない。これに基づいて、この実施例では、GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトが検出される。
ステップ303:GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトを検出し、第1の表示パラメータに従って、少なくとも1つのウィンドウ位置内の第2のキャラクタオブジェクトに関連する検出されたキャラクタ操作オブジェクトについてレンダリングを実行する。
ここで、GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトを検出することは、GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された閾値未満である第2のキャラクタオブジェクトを検出することを含む。図4を参照すると、円形エリアのエリア範囲を取得するために、第1のキャラクタオブジェクト1を円の中心として使用し且つ第1の予め設定された閾値(R)を半径として使用する円形エリアが検出され、エリア範囲は、座標範囲を使用することにより表されてもよい。すなわち、第1のキャラクタオブジェクト及び第2のキャラクタオブジェクトが位置する仮想空間内でXY座標系が確立され、XY座標系内での円形エリアの座標範囲が取得される。さらに、GUI内の第2のキャラクタオブジェクトの座標がリアルタイムに検出され、検出された座標が円形エリアを表す座標範囲内にあるか否かが決定され、円形エリアを表す座標範囲内に座標が存在することが決定されたときに(例えば、図4に示す第2のキャラクタオブジェクト2、第2のキャラクタオブジェクト3及び第2のキャラクタオブジェクト4は、全て円形エリア内にある)、GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された閾値未満である第2のキャラクタオブジェクトが検出される。第1の予め設定された閾値は、第1のキャラクタオブジェクトの攻撃距離又はスキル解放距離を満たし、これにより、以降の操作の過程において、第2のキャラクタオブジェクトを迅速に選択することが便利になり、第1のキャラクタオブジェクトが第2のキャラクタオブジェクト上で仮想操作を実行することが便利になる。
ステップ304:第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクト内で、第1のキャラクタオブジェクトへの距離が第2の予め設定された条件を満たす少なくともいくつかの第2のキャラクタオブジェクトを検出し、第2の表示パラメータに従って、少なくとも1つのウィンドウ位置内の検出された少なくともいくつかの第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについてレンダリングを実行する。
ここで、第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクト内で、第1のキャラクタオブジェクトへの距離が第2の予め設定された条件を満たす少なくともいくつかの第2のキャラクタオブジェクトを検出することは、第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクト内で、第1のキャラクタオブジェクトへの距離が第2の予め設定された閾値に到達する第2のキャラクタオブジェクトを検出し、第2の予め設定された閾値が第1の予め設定された閾値以上であることを含む。
図7は、本発明の実施例による情報処理方法において第1のキャラクタオブジェクトへの距離が第2の予め設定された条件を満たす第2のキャラクタオブジェクトを検出する原理の概略図である。図4及び図7を参照すると、第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクト(例えば、図4に示す第2のキャラクタオブジェクト2、第2のキャラクタオブジェクト3及び第2のキャラクタオブジェクト4は、全て第1の予め設定された条件を満たす)、すなわち、前の座標値が第1の予め設定された閾値(R)を半径として使用する円形エリア内にある第2のキャラクタオブジェクトについて、GUI内の第2のキャラクタオブジェクトの位置がリアルタイムに変化するため、これに基づいて、ステップ305の前に、すなわち、レンダリングが第1の表示パラメータに従って実行され且つキャラクタコンテナオブジェクト内にある少なくとも1つのキャラクタ操作オブジェクト上で選択操作ジェスチャが検出される前に、前の座標値が第1の予め設定された閾値(R)を半径として使用する円形エリア内にある第2のキャラクタオブジェクトの座標値がリアルタイムに検出され、座標値が第2の予め設定された閾値(図7に示すr)を半径として使用し且つ第1のキャラクタオブジェクトを円の中心として使用する円形エリア内にあるか否かが決定される。図7に示す例では、第2の予め設定された閾値(r)は、第1の予め設定された閾値(R)より大きく、すなわち、前の座標値が第1の予め設定された閾値を半径として使用する円形エリア内にある第2のキャラクタオブジェクト内で、第1のキャラクタオブジェクト及び第2のキャラクタオブジェクトがリアルタイムに移動するにつれて、例えば、図7に示す第2のキャラクタオブジェクト4のように、少なくともいくつかの第2のキャラクタオブジェクトは、少なくともいくつかの第2のキャラクタオブジェクトと第1のキャラクタオブジェクトとの間の距離を第1の予め設定された閾値(R)より大きくさせ、第2の予め設定された閾値(r)に到達させるように移動する。さらに、少なくともいくつかの第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトが選択され得る操作状態は非活性化され、第2の表示パラメータに従って対応するウィンドウ位置内のキャラクタ操作オブジェクトについてレンダリングが実行される。実施方式では、第2の表示パラメータは、従来の表示パラメータでもよく、すなわち、GUIにおいて、第1の表示パラメータに従って表示されるキャラクタ操作オブジェクト以外の全ての他の仮想リソースオブジェクトについて、第2の表示パラメータに従ってレンダリングが実行される。
ステップ305:レンダリングが第1の表示パラメータに従って実行され且つキャラクタコンテナオブジェクト内にある少なくとも1つのキャラクタ操作オブジェクト上で選択操作ジェスチャを検出したときに、第1のキャラクタオブジェクトが、対応する第2のキャラクタオブジェクト上で第1の仮想操作のうち少なくとも1つを実行する。
ここで、GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトが検出された後に、第2のキャラクタオブジェクトに関連するキャラクタコンテナオブジェクト内の対応するキャラクタ操作オブジェクトが決定され、第1の表示パラメータに従って対応するウィンドウ位置内でキャラクタ操作オブジェクトについてレンダリングが実行される。図5を参照すると、第1の表示パラメータに従って、第1の予め設定された条件を満たす第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについてレンダリングが実行される(図5に示すキャラクタ操作オブジェクトb12を参照すると、キャラクタ操作オブジェクトb12の外周の縁が他のキャラクタ操作オブジェクトのレンダリング効果とは異なるレンダリング効果を有しており、これにより、キャラクタ操作オブジェクトb12がハイライト表示効果を有する)。他のキャラクタ操作オブジェクトと比べて、レンダリングが第1の表示パラメータを使用することにより実行されたキャラクタ操作オブジェクト(キャラクタ操作オブジェクトb12等)は、明らかに目立つ特徴を有し、これにより、端末のユーザは、キャラクタ操作オブジェクトを直ちに識別することができ、端末のユーザは、以降の操作において明らかに目立つ特徴を有するキャラクタ操作オブジェクトを迅速に選択することができる。
この実施例では、GUI内のキャラクタバー選択オブジェクト内にあり且つレンダリングが第1の表示パラメータに従って実行された少なくとも1つのキャラクタ操作オブジェクトについて、端末のユーザが少なくとも1つのキャラクタ操作オブジェクト上でトリガー操作を実行したときに、すなわち、端末が少なくとも1つのキャラクタ操作オブジェクト上で選択操作ジェスチャを検出したときに、これは、キャラクタ操作オブジェクトに関連する第2のキャラクタオブジェクトが選択され、さらに、第1のキャラクタオブジェクトが第2のキャラクタオブジェクト上で第1の仮想操作を実行したことを示す。具体的には、ゲームシステムでは、第1の仮想操作は、物理的攻撃操作でもよく、或いはスキル解放操作でもよい。第1の仮想操作が物理的攻撃操作であるときに、第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトが選択された後に、第1のキャラクタオブジェクトは、第2のキャラクタオブジェクト上で物理的攻撃操作を直接実行する。スキル解放操作が実行されるときに、まず、スキルオブジェクトがスキル選択操作ジェスチャを用いて選択される必要があり、第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトが選択された後に、第1のキャラクタオブジェクトは、第2のキャラクタオブジェクト上でスキルオブジェクトについてのスキル解放操作を実行する。
本発明のこの実施例における技術的解決策を用いることで、GUI内のキャラクタ選択エリア内に配置されたキャラクタコンテナオブジェクト内のウィンドウ位置を用いて、第1のキャラクタオブジェクトと情報交換を実行する第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについて、対応するウィンドウ位置内でレンダリングが実行され、第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについて、第1の表示パラメータに従ってレンダリングが実行され、すなわち、第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトに関連するUIアバターについて、第1の表示パラメータに従ってレンダリングが実行され、これにより、UIアバターは、他のUIアバターの表示効果とは異なる表示効果を有し、ユーザがターゲットキャラクタ操作オブジェクトを選択するときに、ユーザが異なる表示効果に基づいて、キャラクタ操作オブジェクト上の選択操作ジェスチャを用いてターゲットキャラクタオブジェクトを迅速且つ正確に選択することが便利になり、これにより、相互作用の過程においてユーザの操作体験をかなり向上させる。
実施例3
実施例1及び実施例2に基づいて、本発明のこの実施例は、情報処理方法を更に提供する。図8は、本発明の実施例3による情報処理方法の概略フローチャートである。情報処理方法は、端末に適用される。ソフトウェアアプリケーションが端末のプロセッサ上で実行され、GUIを取得するためにレンダリングが端末のディスプレイ上で実行される。プロセッサ、GUI及びソフトウェアアプリケーションがゲームシステム内で実施される。図8に示すように、この方法は以下のステップを含む。
ステップ401:少なくとも1つの仮想リソースオブジェクトを取得するために、GUI内でレンダリングを実行し、仮想リソースオブジェクトのうち少なくとも1つは、入力された第1のユーザコマンドに従って第1の仮想操作を実行する第1のキャラクタオブジェクトとして構成される。
ステップ402:GUI内の少なくとも1つのキャラクタ選択エリア内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウ位置を含むように配置する。
この実施例では、GUIは、少なくとも1つのキャラクタ選択エリアを含み、キャラクタ選択エリアは、少なくとも1つのキャラクタコンテナオブジェクトを含み、キャラクタコンテナオブジェクトは、少なくとも1つのウィンドウ位置を含む。対応するキャラクタ操作オブジェクトは、少なくともいくつかのウィンドウ位置内に運ばれる。キャラクタ操作オブジェクトは、GUI内のキャラクタ操作オブジェクトに関連するキャラクタオブジェクトの識別子(識別子はアバターでもよい)を使用することにより表されてもよい。ここで、キャラクタ操作オブジェクトに関連する第2のキャラクタオブジェクト及び第1のキャラクタオブジェクトは、異なるグループに属する。キャラクタ選択エリア内のキャラクタコンテナオブジェクトについてレンダリングする方式は、バー型又は環状型を含むが、これらに限定されず、すなわち、キャラクタコンテナオブジェクトは、キャラクタ選択バーオブジェクト又はキャラクタ選択輪状オブジェクトを使用することにより表されてもよい。
具体的には、図3を参照すると、端末のディスプレイ上でのレンダリングを通じて取得されたGUIは、少なくとも1つの仮想リソースオブジェクトを含む。仮想リソースオブジェクトは、少なくとも1つの第1のキャラクタオブジェクトa10を含む。端末のユーザは、GUIを使用することにより情報交換を実行してもよく、すなわち、ユーザコマンドを入力してもよい。第1のキャラクタオブジェクトa10は、端末により検出された第1のユーザコマンドに基づいて第1の仮想操作を実行することができ、第1の仮想操作は、移動操作、物理的攻撃操作、スキル攻撃操作等を含むが、これらに限定されない。第1のキャラクタオブジェクトa10は、端末のユーザにより制御されるキャラクタオブジェクトであることが理解され得る。ゲームシステムでは、第1のキャラクタオブジェクトa10は、ユーザの操作に基づいてGUI内で対応するアクションを実行することができる。実施方式では、GUIは、ユーザキャラクタオブジェクトが位置する仮想エリアのミニマップ801を更に含む。ミニマップ801の概略詳細図が801aで示されている。認識できるように、仮想エリア内の各キャラクタオブジェクト(第1のキャラクタオブジェクトa10との第1のグループに属するフレンドと、第2のグループに属する敵とを含む)の位置は、ミニマップ801内で識別される。GUIは、少なくとも1つのスキルオブジェクト803を更に含み、ユーザは、スキル解放操作を用いて、対応するスキル解放操作を実行するようにユーザキャラクタオブジェクトを制御してもよい。
図3に示す例では、GUIは、キャラクタ選択エリア802を含み、キャラクタコンテナオブジェクトは、キャラクタ選択エリア802内に配置される。この例では、キャラクタコンテナオブジェクトは、キャラクタ選択バーオブジェクトを使用することにより表される(すなわち、キャラクタコンテナオブジェクトは、バー型の表示効果を示す)。キャラクタコンテナオブジェクトは、少なくとも1つのウィンドウ位置を含み、レンダリングは、対応するウィンドウ位置内で、第1のキャラクタオブジェクトと相互作用する第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについて実行される。キャラクタ操作オブジェクトがアバターを使用することにより表される例が使用され、すなわち、キャラクタ選択エリア802は、少なくとも1つのアバターを含む。少なくとも1つのアバターは、第1のキャラクタオブジェクトと相互作用する少なくとも1つの第2のキャラクタオブジェクトとそれぞれ1対1の対応にある。図3に示すように、5対5の適用シナリオがこの例において使用される。第1のキャラクタオブジェクトa10のグループとは異なるグループに属する5つの第2のキャラクタオブジェクトが存在し、対応して、キャラクタ選択エリア802内に5つのキャラクタ操作オブジェクト、例えば、図3に示すキャラクタ操作オブジェクトb11、キャラクタ操作オブジェクトb12、キャラクタ操作オブジェクトb13、キャラクタ操作オブジェクトb14及びキャラクタ操作オブジェクトb15が存在する。キャラクタ選択エリア802内の5つのキャラクタ操作オブジェクトは、第1のキャラクタオブジェクトのグループとは異なるグループに属する5つの第2のキャラクタオブジェクトと1対1の対応にあることが理解され得る。
図3に示すGUIの例に基づいて、端末のユーザによる制御の間に、第1のキャラクタオブジェクトの位置はリアルタイムに変化し、対応して、GUI内の第2のキャラクタオブジェクトの位置はリアルタイムに変化する。これに基づいて、第1のキャラクタオブジェクトが第2のキャラクタオブジェクト上で仮想操作を実行する過程において、端末のユーザが、仮想操作が実行されるキャラクタオブジェクトを選択することは容易ではない。これに基づいて、この実施例では、GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトが検出される。
ステップ403:GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトを検出し、第1の表示パラメータに従って、少なくとも1つのウィンドウ位置内の第2のキャラクタオブジェクトに関連する検出されたキャラクタ操作オブジェクトについてレンダリングを実行する。
ここで、GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトを検出することは、GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された閾値未満である第2のキャラクタオブジェクトを検出することを含む。図4を参照すると、円形エリアのエリア範囲を取得するために、第1のキャラクタオブジェクト1を円の中心として使用し且つ第1の予め設定された閾値(R)を半径として使用する円形エリアが検出され、エリア範囲は、座標範囲を使用することにより表されてもよい。すなわち、第1のキャラクタオブジェクト及び第2のキャラクタオブジェクトが位置する仮想空間内でXY座標系が確立され、XY座標系内での円形エリアの座標範囲が取得される。さらに、GUI内の第2のキャラクタオブジェクトの座標がリアルタイムに検出され、検出された座標が円形エリアを表す座標範囲内にあるか否かが決定され、円形エリアを表す座標範囲内に座標が存在することが決定されたときに(例えば、図4に示す第2のキャラクタオブジェクト2、第2のキャラクタオブジェクト3及び第2のキャラクタオブジェクト4は、全て円形エリア内にある)、GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された閾値未満である第2のキャラクタオブジェクトが検出される。第1の予め設定された閾値は、第1のキャラクタオブジェクトの攻撃距離又はスキル解放距離を満たし、これにより、以降の操作の過程において、第2のキャラクタオブジェクトを迅速に選択することが便利になり、第1のキャラクタオブジェクトが第2のキャラクタオブジェクト上で仮想操作を実行することが便利になる。
ステップ404:レンダリングが第1の表示パラメータに従って実行され且つキャラクタコンテナオブジェクト内にある少なくとも1つのキャラクタ操作オブジェクト上で選択操作ジェスチャが検出されたときに、第1のキャラクタオブジェクトが、対応する第2のキャラクタオブジェクト上で第1の仮想操作のうち少なくとも1つを実行する。
ここで、GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトが検出された後に、第2のキャラクタオブジェクトに関連するキャラクタコンテナオブジェクト内の対応するキャラクタ操作オブジェクトが決定され、第1の表示パラメータに従って対応するウィンドウ位置内でキャラクタ操作オブジェクトについてレンダリングが実行される。図5を参照すると、第1の表示パラメータに従って、第1の予め設定された条件を満たす第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについてレンダリングが実行される(図5に示すキャラクタ操作オブジェクトb12を参照すると、キャラクタ操作オブジェクトb12の外周の縁が他のキャラクタ操作オブジェクトのレンダリング効果とは異なるレンダリング効果を有しており、これにより、キャラクタ操作オブジェクトb12がハイライト表示効果を有する)。他のキャラクタ操作オブジェクトと比べて、レンダリングが第1の表示パラメータを使用することにより実行されたキャラクタ操作オブジェクト(キャラクタ操作オブジェクトb12等)は、明らかに目立つ特徴を有し、これにより、端末のユーザは、キャラクタ操作オブジェクトを直ちに識別することができ、端末のユーザは、以降の操作において明らかに目立つ特徴を有するキャラクタ操作オブジェクトを迅速に選択することができる。
この実施例では、GUI内のキャラクタバー選択オブジェクト内にあり且つレンダリングが第1の表示パラメータに従って実行された少なくとも1つのキャラクタ操作オブジェクトについて、端末のユーザが少なくとも1つのキャラクタ操作オブジェクト上でトリガー操作を実行したときに、すなわち、端末が少なくとも1つのキャラクタ操作オブジェクト上で選択操作ジェスチャを検出したときに、これは、キャラクタ操作オブジェクトに関連する第2のキャラクタオブジェクトが選択され、さらに、第1のキャラクタオブジェクトが第2のキャラクタオブジェクト上で第1の仮想操作を実行したことを示す。具体的には、ゲームシステムでは、第1の仮想操作は、物理的攻撃操作でもよく、或いはスキル解放操作でもよい。第1の仮想操作が物理的攻撃操作であるときに、第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトが選択された後に、第1のキャラクタオブジェクトは、第2のキャラクタオブジェクト上で物理的攻撃操作を直接実行する。スキル解放操作が実行されるときに、まず、スキルオブジェクトがスキル選択操作ジェスチャを用いて選択される必要があり、第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトが選択された後に、第1のキャラクタオブジェクトは、第2のキャラクタオブジェクト上でスキルオブジェクトについてのスキル解放操作を実行する。
ステップ405:GUI内の第2のキャラクタオブジェクトの状態属性情報を取得し、状態属性情報をサーバに対して同期させ、サーバから、キャラクタコンテナオブジェクト内のキャラクタ操作オブジェクトに関連するキャラクタオブジェクトの状態属性情報を取得する。
ここで、端末は、GUI内の第2のキャラクタオブジェクトの状態属性情報を取得する。第1のキャラクタオブジェクト及び第2のキャラクタオブジェクトが位置する仮想空間は、ソフトウェアアプリケーションの設定に基づいて比較的大きくなり得るため、端末によるレンダリングを通じて取得されたGUI内の視覚画像は、第1のキャラクタオブジェクトを含み、第2のキャラクタオブジェクトを含んでもよく、明らかに、第2のキャラクタオブジェクトを含まなくてもよい。この実施例では、端末は、GUIに含まれる第2のキャラクタオブジェクトの状態属性情報を取得し、状態属性情報に関連する対応する第2のキャラクタオブジェクトをサーバに対して同期させる。状態属性情報は、第2のキャラクタオブジェクトの生命値、攻撃ポイント又はスキル属性情報を含むが、これらに限定されない。
この実施例では、端末は、予め設定されたルールに従って、サーバから、キャラクタコンテナオブジェクト内のキャラクタ操作オブジェクトに関連するキャラクタオブジェクトの状態属性情報を取得し、これにより、端末のGUIが少なくともいくつかの第2のキャラクタオブジェクトを含まず、少なくともいくつかの第2のキャラクタオブジェクトの状態属性情報が取得できない場合、キャラクタコンテナオブジェクトに含まれる全てのキャラクタ操作オブジェクトに関連する第2のキャラクタオブジェクトの状態属性情報は、他の端末によりサーバに対して同期した第2のキャラクタオブジェクト及び関連する状態属性情報を使用することにより取得されてもよい。端末及び他の端末は、同じグループに属し、端末により制御される第1のキャラクタオブジェクト及び他の端末により制御される第1のキャラクタオブジェクトは、ゲームシステム内で同じグループに属し、仮想操作は、他のグループに属する第2のキャラクタオブジェクト上で実行されることが理解され得る。端末のGUIが全ての第2のキャラクタオブジェクトを含まない場合、他の端末のGUIは、少なくともいくつかの第2のキャラクタオブジェクトを含んでもよく、これにより、同じグループに属する少なくとも1つの端末のGUIに含まれる第2のキャラクタオブジェクトの取得された状態属性情報に基づいて、第2のキャラクタオブジェクトの状態属性情報は相互に同期する。
ステップ406:取得された状態属性情報に従って、予め設定された方式で、対応するウィンドウ位置内で第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについてレンダリングを実行する。
ここで、第2のキャラクタオブジェクトの状態属性情報が端末により取得されてサーバにより同期した後に、予め設定された方式で、キャラクタコンテナオブジェクト内で、対応するウィンドウ位置内で第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについてレンダリングが実行される。具体的には、図9は、本発明の実施例による情報処理方法におけるGUIの第3の概略図である。図9に示すように、状態属性情報が生命値である例が使用される。第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトの外周のエリア(図9のキャラクタ操作オブジェクトb22を参照する)は、生命溝表示エリアb221として使用され、対応する第2のキャラクタオブジェクトの現在の生命値は、生命溝表示エリアに対する生命溝表示エリアb211内の生命値の比率を使用することにより表される。明らかに、本発明のこの実施例では、第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトに対応するウィンドウ位置内で状態属性情報についてレンダリングを実行する方式は、図9に示すものに限定されない。
端末及び他の端末のGUIに含まれる第2のキャラクタオブジェクトは、第2のキャラクタオブジェクトと相互作用し且つ他のグループに属する全ての第2のキャラクタオブジェクトを含まなくてもよい。5対5の適用シナリオを一例として使用して、第1のグループに属するグループメンバは、グループメンバ1と、グループメンバ2と、グループメンバ3と、グループメンバ4と、グループメンバ5とを含み、第2のグループに属するグループメンバは、グループメンバ6と、グループメンバ7と、グループメンバ8と、グループメンバ9と、グループメンバ10とを含む。端末がグループメンバ1を制御することを仮定すると、端末のGUI内の視覚画像は、グループメンバ6のみを含み、第1のグループに属するグループメンバの他の端末のGUI内の視覚画像は、グループメンバ7と、グループメンバ8と、グループメンバ9とを含み、グループメンバ10は、第1のグループに属するグループメンバにより制御されるいずれの端末のGUI内の視覚画像にも存在しない。これに基づいて、図9に示すように、キャラクタ操作オブジェクトb21は、他の操作オブジェクトの表示効果とは異なる表示効果を示し、これは、具体的にはグレーの効果で表示され、これは、キャラクタ操作オブジェクトb21に対応する第2のキャラクタオブジェクトが第1のキャラクタオブジェクトa10の視覚画像内に存在せず、第1のキャラクタ操作オブジェクトa10と同じグループに属する他のキャラクタオブジェクトの視覚画像に存在しないことを示す。対応して、キャラクタ操作オブジェクトb21に関連する第2のキャラクタオブジェクトの状態属性情報は、キャラクタ操作オブジェクトb21の外周のエリア内に表示されない。
本発明のこの実施例における技術的解決策を用いることで、一方では、GUI内のキャラクタ選択エリア内に配置されたキャラクタコンテナオブジェクト内のウィンドウ位置を用いて、第1のキャラクタオブジェクトと情報交換を実行する第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについて、対応するウィンドウ位置内でレンダリングが実行され、第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについて、第1の表示パラメータに従ってレンダリングが実行され、すなわち、第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトに関連するUIアバターについて、第1の表示パラメータに従ってレンダリングが実行され、これにより、UIアバターは、他のUIアバターの表示効果とは異なる表示効果を有し、ユーザがターゲットキャラクタ操作オブジェクトを選択するときに、ユーザが異なる表示効果に基づいて、キャラクタ操作オブジェクト上の選択操作ジェスチャを用いてターゲットキャラクタオブジェクトを迅速且つ正確に選択することが便利になり、これにより、相互作用の過程においてユーザの操作体験をかなり向上させる。他方で、キャラクタコンテナオブジェクト内のキャラクタ操作オブジェクトに関連する第2のキャラクタオブジェクトの状態属性情報は、視覚画像内にあり且つ同じグループに属するキャラクタオブジェクト(すなわち、チームメート)の状態属性情報を同期させることにより取得され、特定の方式で、対応するウィンドウ位置内で状態属性情報についてレンダリングが実行され、すなわち、第2のキャラクタオブジェクト(すなわち、敵)の状態属性情報は、対応するキャラクタ操作オブジェクト(UIアバター)に反映され、これにより、ユーザは、第2のキャラクタオブジェクト(すなわち、敵)の状態属性情報を迅速に認識することができ、これにより、情報交換の過程においてユーザの操作体験を向上させる。
実施例1〜実施例3における方法の実施例に基づいて、1対1の適用シナリオが以下の詳細な説明のための例として使用される。1対1の適用シナリオは、端末1により制御される第1のキャラクタオブジェクトが端末2により制御される第2のキャラクタオブジェクトと情報交換を実行する適用シナリオである。他の適用シナリオについては、この適用シナリオにおける説明を参照し、この実施例では詳細は再び説明しない。図10は、本発明のこの実施例による情報処理方法における相互作用の概略適用図である。図10に示すように、この適用シナリオでは、端末1、端末2及びサーバが含まれる。ユーザ1は、端末1を使用することによりトリガー及び制御を実行し、ユーザ2は、端末2を使用することによりトリガー及び制御を実行し、この方法は以下のステップを含む。
ユーザ1について、ステップ11:ユーザ1は、ゲームシステムをトリガーし、識別認証情報を登録し、識別認証情報は、ユーザ名及びパスワードでもよい。
ステップ12:端末1は、取得された識別認証情報をサーバ3に送信し、サーバ3は、識別認証を実行し、識別認証が成功した後に第1のGUIを端末1に返信し、第1のGUIは、第1のキャラクタオブジェクトを含み、第1のキャラクタオブジェクトは、ユーザ1のトリガー操作に基づいて仮想操作を実行することができ、仮想操作は、第1のキャラクタオブジェクトの移動操作、他のキャラクタオブジェクトについての第1のキャラクタオブジェクトの攻撃操作又はスキル解放操作等を含む。
ユーザ2について、ステップ21:ユーザ2は、ゲームシステムをトリガーし、識別認証情報を登録し、識別認証情報は、ユーザ名及びパスワードでもよい。
ステップ22:端末2は、取得された識別認証情報をサーバ3に送信し、サーバ3は、識別認証を実行し、識別認証が成功した後に第2のGUIを端末2に返信し、第2のGUIは、第2のキャラクタオブジェクトを含み、第2のキャラクタオブジェクトは、ユーザ2のトリガー操作に基づいて仮想操作を実行することができ、仮想操作は、第2のキャラクタオブジェクトの移動操作、他のキャラクタオブジェクトについての第2のキャラクタオブジェクトの攻撃操作又はスキル解放操作等を含む。
この実施例では、ユーザ1及びユーザ2は、トリガー操作に基づいて、第1のキャラクタオブジェクト及び第2のキャラクタオブジェクトを情報交換オブジェクトにし、すなわち、第1のキャラクタオブジェクトは、第2のキャラクタオブジェクトをターゲット相互作用オブジェクトとして使用し、対応して、第2のキャラクタオブジェクトは、第1のキャラクタオブジェクトをターゲット相互作用オブジェクトとして使用する。ユーザ1及びユーザ2がゲームの戦闘における制御当事者としての役目をする場合、第1のGUI内のキャラクタ選択エリア内のキャラクタコンテナオブジェクトのウィンドウ位置内で第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについてレンダリングが実行され、対応して、第2のGUI内のキャラクタ選択エリア内のキャラクタコンテナオブジェクトのウィンドウ位置内で第1のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについてレンダリングが実行される。さらに、端末1は、第2のキャラクタオブジェクトと第1のキャラクタオブジェクトとの間の距離をリアルタイムに検出し、距離が第1の予め設定された閾値の範囲内である場合、第1の表示パラメータに従って、ウィンドウ位置内の第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについてレンダリングを実行し、すなわち、キャラクタ操作オブジェクトをハイライトする。対応して、端末2は、第1のキャラクタオブジェクトと第2のキャラクタオブジェクトとの間の距離をリアルタイムに検出し、距離が第1の予め設定された閾値の範囲内である場合、第1の表示パラメータに従って、ウィンドウ位置内の第1のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについてレンダリングを実行し、すなわち、キャラクタ操作オブジェクトをハイライトする。
ここまでで、ゲームシステム内でのユーザ1及びユーザ2のログイン操作及び初期化操作が完了する。
ユーザ1について、ステップ13:ユーザは、端末1により示された第1のGUI上でトリガー操作を実行し、トリガー操作は、いずれかのスキルオブジェクト上のスキル解放操作、いずれかのキャラクタオブジェクト上の情報交換操作(物理的攻撃操作として理解されてもよい)、第1のキャラクタオブジェクトの移動操作等を含み、第1のGUI内のいずれかの仮想リソースオブジェクト上で実行されてもよい。この実施例では、トリガー操作は、第1のGUI内のキャラクタコンテナオブジェクト内にあり且つレンダリングが第1の表示パラメータに従って実行されたキャラクタ操作オブジェクト上の選択ジェスチャ操作である。
ステップ14:端末1は、トリガー操作を取得したときに、トリガー操作ジェスチャに対応する命令を識別し、命令を実行し、例えば、対応する操作オブジェクトのスキル解放命令を実行するか、対応するキャラクタオブジェクトの情報交換命令(物理的攻撃命令等)を実行するか、或いは移動命令を実行し、命令を実行する過程において、対応するデータの変化を記録する。この実施例では、レンダリングが第1の表示パラメータに従って実行されたキャラクタ操作オブジェクト上で選択ジェスチャ操作を取得したときに、端末1は、対応する第1の命令を生成し、対応する第2のキャラクタオブジェクト上で仮想操作(物理的攻撃操作又はスキル解放操作等)を実行するように第1のキャラクタオブジェクトを制御するために、第1の命令を実行する。
ステップ15:変化したデータを端末1に対応する第1のデータとして使用し、第1のデータをサーバ3に対して同期させる。
ユーザ2について、ステップ23:ユーザは、端末2により示された第2のGUI上でトリガー操作を実行し、トリガー操作は、いずれかのスキルオブジェクト上のスキル解放操作、いずれかのキャラクタオブジェクト上の情報交換操作(物理的攻撃操作として理解されてもよい)、第2のキャラクタオブジェクトの移動操作等を含み、第2のGUI内のいずれかの仮想リソースオブジェクト上で実行されてもよい。この実施例では、トリガー操作は、第2のGUI内のキャラクタコンテナオブジェクト内にあり且つレンダリングが第1の表示パラメータに従って実行されたキャラクタ操作オブジェクト上の選択ジェスチャ操作である。
ステップ24:端末2は、トリガー操作を取得したときに、トリガー操作ジェスチャに対応する命令を識別し、命令を実行し、例えば、対応する操作オブジェクトのスキル解放命令を実行するか、対応するキャラクタオブジェクトの情報交換命令(物理的攻撃命令等)を実行するか、或いは移動命令を実行し、命令を実行する過程において、対応するデータの変化を記録する。この実施例では、レンダリングが第1の表示パラメータに従って実行されたキャラクタ操作オブジェクト上で選択ジェスチャ操作を取得したときに、端末2は、対応する第2の命令を生成し、対応する第1のキャラクタオブジェクト上で仮想操作(物理的攻撃操作又はスキル解放操作等)を実行するように第2のキャラクタオブジェクトを制御するために、第2の命令を実行する。
ステップ25:変化したデータを端末2に対応する第2のデータとして使用し、第2のデータをサーバ3に対して同期させる。
サーバ3について、ステップ30:端末1により同期した第1のデータ及び端末2により同期した第2のデータに基づいて、データを更新し、更新されたデータをそれぞれ端末1及び端末2に対して同期させる。
前述の方法の実施例を参照して、実際の適用シナリオが以下のように本発明のこの実施例を説明するための例として使用される。この適用シナリオは、マルチプレイヤオンラインバトルアリーナゲーム(MOBA:Multiplayer Online Battle Arena Games)に関する。MOBAにおいて、関係する用語は以下の通りである。1)UIレイヤ、すなわち、GUI内のアイコン、2)スキルインジケータ:特殊効果、ハロ(halo)又はスキル解放を補助するために使用される操作、3)仮想レンズ、これは、ゲーム内のカメラとして理解されてもよい、及び4)ミニマップ:大きいマップの縮小版、これは、レーダーマップとして理解されてもよく、2人の当事者の情報及び位置がマップ内に表示される。
図11は、本発明のこの実施例による情報処理方法におけるGUIの第4の概略図である。この例は、実際の相互作用の過程において使用される適用シナリオに基づく。図11を参照すると、この実施例では、第1のキャラクタオブジェクト93及び少なくとも1つのスキルオブジェクト92がレンダリングを通じて取得され、第1のキャラクタオブジェクト93は、ユーザのトリガー操作に基づいて対応する仮想操作を実行することができる。GUI90は、キャラクタ選択エリア91を更に含み、キャラクタ選択エリア91は、キャラクタコンテナオブジェクトを含む。この例では、キャラクタコンテナオブジェクトは、5つのウィンドウ位置を含む。1つのキャラクタ操作オブジェクトは、キャラクタ操作オブジェクト911と、キャラクタ操作オブジェクト912と、キャラクタ操作オブジェクト913と、キャラクタ操作オブジェクト914と、キャラクタ操作オブジェクト915とを含む各ウィンドウ位置内でのレンダリングを通じて取得される。各キャラクタ操作オブジェクトは、1つのキャラクタオブジェクトに関連する。5つのキャラクタオブジェクトは全て、第1のキャラクタオブジェクト93とは異なるグループに属するキャラクタオブジェクトであり、すなわち、5つのキャラクタオブジェクトは、相互作用について第1のキャラクタオブジェクト93の敵としての役目をする。この適用シナリオでは、第1のキャラクタオブジェクト93は、GUI90内にあり且つ第1のキャラクタオブジェクト93への距離が第1の予め設定された閾値を満たす第2のキャラクタオブジェクトをリアルタイムに検出し、第1の表示パラメータに従って、対応する第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについてレンダリングを実行し、第1の予め設定された閾値は、実際の要件に従ってスキルオブジェクトのスキル解放距離に設定されてもよく、明らかに、前述の設定方式に限定されない。例えば、他のキャラクタ操作オブジェクトと比べて、図10に示すキャラクタ操作オブジェクト913は、ハイライト表示効果を有する。これに基づいて、ユーザは、ターゲットキャラクタオブジェクト上で仮想操作を実行するために、異なる表示効果に基づいて、キャラクタ操作オブジェクト上の選択操作ジェスチャを用いてターゲットキャラクタオブジェクトを迅速且つ正確に選択することができ、これにより、相互作用の過程においてユーザの操作体験をかなり向上させる。
実施例4
本発明のこの実施例は、端末を更に提供する。図12は、本発明の実施例4による端末の概略構成図である。図12に示すように、端末は、レンダリング処理ユニット61と、配置ユニット62と、検出ユニット63と、操作実行ユニット64とを含む。
レンダリング処理ユニット61は、ソフトウェアアプリケーションを実行し、GUIを取得するためにレンダリングを実行し、少なくとも1つの仮想リソースオブジェクトを取得するために、GUI内でレンダリングを実行するように構成され、仮想リソースオブジェクトのうち少なくとも1つは、入力された第1のユーザコマンドに従って第1の仮想操作を実行する第1のキャラクタオブジェクトとして構成され、第1の表示パラメータに従って、少なくとも1つのウィンドウ位置内の第2のキャラクタオブジェクトに関連し且つ検出ユニット63により検出されたキャラクタ操作オブジェクトについてレンダリングを実行するように更に構成される。
配置ユニット62は、GUI内の少なくとも1つのキャラクタ選択エリア内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウ位置を含むように配置するように構成される。
検出ユニット63は、GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトを検出するように構成される。
操作実行ユニット64は、第1のキャラクタオブジェクトにより、レンダリングが第1の表示パラメータに従って実行され且つキャラクタコンテナオブジェクト内にある少なくとも1つのキャラクタ操作オブジェクト上で選択操作ジェスチャが検出されたときに、対応する第2のキャラクタオブジェクト上で第1の仮想操作のうち少なくとも1つを実行するように構成される。
この実施例では、GUIは、少なくとも1つのキャラクタ選択エリアを含み、キャラクタ選択エリアは、少なくとも1つのキャラクタコンテナオブジェクトを含み、キャラクタコンテナオブジェクトは、少なくとも1つのウィンドウ位置を含む。対応するキャラクタ操作オブジェクトは、少なくともいくつかのウィンドウ位置内に運ばれる。キャラクタ操作オブジェクトは、GUI内のキャラクタ操作オブジェクトに関連するキャラクタオブジェクトの識別子(識別子はアバターでもよい)を使用することにより表されてもよい。ここで、キャラクタ操作オブジェクトに関連する第2のキャラクタオブジェクト及び第1のキャラクタオブジェクトは、異なるグループに属する。キャラクタ選択エリア内のキャラクタコンテナオブジェクトについてレンダリングする方式は、バー型又は環状型を含むが、これらに限定されず、すなわち、キャラクタコンテナオブジェクトは、キャラクタ選択バーオブジェクト又はキャラクタ選択輪状オブジェクトを使用することにより表されてもよい。
具体的には、図3を参照すると、レンダリング処理ユニット61によるレンダリングを通じて取得されたGUIは、少なくとも1つの仮想リソースオブジェクトを含む。仮想リソースオブジェクトは、少なくとも1つの第1のキャラクタオブジェクトa10を含む。端末のユーザは、GUIを使用することにより情報交換を実行してもよく、すなわち、ユーザコマンドを入力してもよい。第1のキャラクタオブジェクトa10は、端末により検出された第1のユーザコマンドに基づいて第1の仮想操作を実行することができ、第1の仮想操作は、移動操作、物理的攻撃操作、スキル攻撃操作等を含むが、これらに限定されない。第1のキャラクタオブジェクトa10は、端末のユーザにより制御されるキャラクタオブジェクトであることが理解され得る。ゲームシステムでは、第1のキャラクタオブジェクトa10は、ユーザの操作に基づいてGUI内で対応するアクションを実行することができる。実施方式では、GUIは、ユーザキャラクタオブジェクトが位置する仮想エリアのミニマップ801を更に含む。ミニマップ801の概略詳細図が801aで示されている。認識できるように、仮想エリア内の各キャラクタオブジェクト(第1のキャラクタオブジェクトa10との第1のグループに属するフレンドと、第2のグループに属する敵とを含む)の位置は、ミニマップ801内で識別される。GUIは、少なくとも1つのスキルオブジェクト803を更に含み、ユーザは、スキル解放操作を用いて、対応するスキル解放操作を実行するようにユーザキャラクタオブジェクトを制御してもよい。
図3に示す例では、配置ユニット62は、GUI内にキャラクタ選択エリア802を配置し、キャラクタ選択エリア802内にキャラクタコンテナオブジェクトを配置する。この例では、キャラクタコンテナオブジェクトは、キャラクタ選択バーオブジェクトを使用することにより表される(すなわち、キャラクタコンテナオブジェクトは、バー型の表示効果を示す)。キャラクタコンテナオブジェクトは、少なくとも1つのウィンドウ位置を含み、レンダリングは、対応するウィンドウ位置内で、第1のキャラクタオブジェクトと相互作用する第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについて実行される。キャラクタ操作オブジェクトがアバターを使用することにより表される例が使用され、すなわち、キャラクタ選択エリア802は、少なくとも1つのアバターを含む。少なくとも1つのアバターは、第1のキャラクタオブジェクトと相互作用する少なくとも1つの第2のキャラクタオブジェクトとそれぞれ1対1の対応にある。図3に示すように、5対5の適用シナリオがこの例において使用される。第1のキャラクタオブジェクトa10のグループとは異なるグループに属する5つの第2のキャラクタオブジェクトが存在し、対応して、キャラクタ選択エリア802内に5つのキャラクタ操作オブジェクト、例えば、図3に示すキャラクタ操作オブジェクトb11、キャラクタ操作オブジェクトb12、キャラクタ操作オブジェクトb13、キャラクタ操作オブジェクトb14及びキャラクタ操作オブジェクトb15が存在する。キャラクタ選択エリア802内の5つのキャラクタ操作オブジェクトは、第1のキャラクタオブジェクトのグループとは異なるグループに属する5つの第2のキャラクタオブジェクトと1対1の対応にあることが理解され得る。
図3に示すGUIの例に基づいて、端末のユーザによる制御の間に、第1のキャラクタオブジェクトの位置はリアルタイムに変化し、対応して、GUI内の第2のキャラクタオブジェクトの位置はリアルタイムに変化する。これに基づいて、第1のキャラクタオブジェクトが第2のキャラクタオブジェクト上で仮想操作を実行する過程において、端末のユーザが、仮想操作が実行されるキャラクタオブジェクトを選択することは容易ではない。これに基づいて、この実施例では、検出ユニット63は、GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトを検出する。
具体的には、検出ユニット63は、GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された閾値未満である第2のキャラクタオブジェクトを検出するように構成される。
図4を参照すると、検出ユニット63は、円形エリアのエリア範囲を取得するために、第1のキャラクタオブジェクト1を円の中心として使用し且つ第1の予め設定された閾値(R)を半径として使用する円形エリアを検出し、エリア範囲は、座標範囲を使用することにより表されてもよい。すなわち、第1のキャラクタオブジェクト及び第2のキャラクタオブジェクトが位置する仮想空間内でXY座標系が確立され、XY座標系内での円形エリアの座標範囲が取得される。さらに、検出ユニット63は、GUI内の第2のキャラクタオブジェクトの座標をリアルタイムに検出し、検出された座標が円形エリアを表す座標範囲内にあるか否を決定し、円形エリアを表す座標範囲内に座標が存在すると決定したときに(例えば、図4に示す第2のキャラクタオブジェクト2、第2のキャラクタオブジェクト3及び第2のキャラクタオブジェクト4は、全て円形エリア内にある)、GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された閾値未満である第2のキャラクタオブジェクトを検出する。第1の予め設定された閾値は、第1のキャラクタオブジェクトの攻撃距離又はスキル解放距離を満たし、これにより、以降の操作の過程において、第2のキャラクタオブジェクトを迅速に選択することが便利になり、第1のキャラクタオブジェクトが第2のキャラクタオブジェクト上で仮想操作を実行することが便利になる。
実施方式では、検出ユニット63は、第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクト内で、第1のキャラクタオブジェクトへの距離が第2の予め設定された条件を満たす少なくともいくつかの第2のキャラクタオブジェクトを検出するように更に構成され、
対応して、レンダリング処理ユニット61は、第2の表示パラメータに従って、少なくとも1つのウィンドウ位置内の、検出ユニット63により検出された少なくともいくつかの第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについてレンダリングを実行するように構成され、第2の表示パラメータに従ってレンダリングを実行することにより取得される表示効果は、第1の表示パラメータに従ってレンダリングを実行することにより取得される表示効果とは異なる。
具体的には、検出ユニット63は、第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクト内で、第1のキャラクタオブジェクトへの距離が第2の予め設定された閾値に到達する第2のキャラクタオブジェクトを検出するように構成され、第2の予め設定された閾値が第1の予め設定された閾値以上である。
ここで、図7を参照すると、第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクト(例えば、図4に示す第2のキャラクタオブジェクト2、第2のキャラクタオブジェクト3及び第2のキャラクタオブジェクト4は、全て第1の予め設定された条件を満たす)、すなわち、前の座標値が第1の予め設定された閾値(R)を半径として使用する円形エリア内にある第2のキャラクタオブジェクトについて、GUI内の第2のキャラクタオブジェクトの位置がリアルタイムに変化するため、これに基づいて、検出ユニット63が、レンダリングが第1の表示パラメータに従って実行され且つキャラクタコンテナオブジェクト内にある少なくとも1つのキャラクタ操作オブジェクト上で選択操作ジェスチャを検出する前に、検出ユニット63は、前の座標値が第1の予め設定された閾値(R)を半径として使用する円形エリア内にある第2のキャラクタオブジェクトの座標値をリアルタイムに検出し、座標値が第2の予め設定された閾値(図7に示すr)を半径として使用し且つ第1のキャラクタオブジェクトを円の中心として使用する円形エリア内にあるか否かを決定する。図7に示す例では、第2の予め設定された閾値(r)は、第1の予め設定された閾値(R)より大きく、すなわち、前の座標値が第1の予め設定された閾値を半径として使用する円形エリア内にある第2のキャラクタオブジェクト内で、第1のキャラクタオブジェクト及び第2のキャラクタオブジェクトがリアルタイムに移動するにつれて、例えば、図7に示す第2のキャラクタオブジェクト4のように、少なくともいくつかの第2のキャラクタオブジェクトは、少なくともいくつかの第2のキャラクタオブジェクトと第1のキャラクタオブジェクトとの間の距離を第1の予め設定された閾値(R)より大きくさせ、第2の予め設定された閾値(r)に到達させるように移動する。さらに、少なくともいくつかの第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトが選択され得る操作状態は非活性化され、第2の表示パラメータに従って対応するウィンドウ位置内のキャラクタ操作オブジェクトについてレンダリングが実行される。実施方式では、第2の表示パラメータは、従来の表示パラメータでもよく、すなわち、GUIにおいて、第1の表示パラメータに従って表示されるキャラクタ操作オブジェクト以外の全ての他の仮想リソースオブジェクトについて、第2の表示パラメータに従ってレンダリングが実行される。
実施方式では、レンダリング処理ユニット61は、第1の表示パラメータに従って、対応するウィンドウ位置内で、第1の予め設定された条件を満たす第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについてレンダリングを実行する。図5を参照すると、第1の表示パラメータに従って、第1の予め設定された条件を満たす第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについてレンダリングが実行される(図5に示すキャラクタ操作オブジェクトb12を参照すると、キャラクタ操作オブジェクトb12の外周の縁が他のキャラクタ操作オブジェクトのレンダリング効果とは異なるレンダリング効果を有しており、これにより、キャラクタ操作オブジェクトb12がハイライト表示効果を有する)。他のキャラクタ操作オブジェクトと比べて、レンダリングが第1の表示パラメータを使用することにより実行されたキャラクタ操作オブジェクト(キャラクタ操作オブジェクトb12等)は、明らかに目立つ特徴を有し、これにより、端末のユーザは、キャラクタ操作オブジェクトを直ちに識別することができ、端末のユーザは、以降の操作において明らかに目立つ特徴を有するキャラクタ操作オブジェクトを迅速に選択することができる。
当業者は、本発明のこの実施例における端末内の処理ユニットの機能が情報処理方法の関係する説明を参照することにより理解され得ることを理解するべきである。本発明のこの実施例における情報処理端末内の処理ユニットは、本発明のこの実施例における機能を有するアナログ回路を実装することにより実装されてもよく、或いはインテリジェント端末上で本発明のこの実施例における機能を有するソフトウェアを実行することにより実装されてもよい。
実施例5
実施例4に基づいて、本発明のこの実施例は、端末を更に提供する。図13は、本発明の実施例5による端末の概略構成図である。図13に示すように、端末は、レンダリング処理ユニット61と、配置ユニット62と、検出ユニット63と、操作実行ユニット64と、取得ユニット65と、通信ユニット66とを含む。
レンダリング処理ユニット61は、ソフトウェアアプリケーションを実行し、GUIを取得するためにレンダリングを実行し、少なくとも1つの仮想リソースオブジェクトを取得するために、GUI内でレンダリングを実行するように構成され、仮想リソースオブジェクトのうち少なくとも1つは、入力された第1のユーザコマンドに従って第1の仮想操作を実行する第1のキャラクタオブジェクトとして構成され、第1の表示パラメータに従って、少なくとも1つのウィンドウ位置内の第2のキャラクタオブジェクトに関連し且つ検出ユニット63により検出されたキャラクタ操作オブジェクトについてレンダリングを実行するように更に構成される。
配置ユニット62は、GUI内の少なくとも1つのキャラクタ選択エリア内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウ位置を含むように配置するように構成される。
検出ユニット63は、GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトを検出するように構成される。
操作実行ユニット64は、第1のキャラクタオブジェクトにより、レンダリングが第1の表示パラメータに従って実行され且つキャラクタコンテナオブジェクト内にある少なくとも1つのキャラクタ操作オブジェクト上で選択操作ジェスチャが検出されたときに、対応する第2のキャラクタオブジェクト上で第1の仮想操作のうち少なくとも1つを実行するように構成される。
取得ユニット65は、GUI内の第2のキャラクタオブジェクトの状態属性情報を取得するように構成される。
通信ユニット66は、取得ユニット65により取得された状態属性情報をサーバに対して同期させ、サーバから、キャラクタコンテナオブジェクト内のキャラクタ操作オブジェクトに関連するキャラクタオブジェクトの状態属性情報を取得するように構成される。
実施方式では、レンダリング処理ユニット61は、取得された状態属性情報に従って、予め設定された方式で、対応するウィンドウ位置内で第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについてレンダリングを実行するように構成される。
この実施例において、レンダリング処理ユニット61、配置ユニット62、検出ユニット63及び操作実行ユニット64の機能については、実施例4の説明を参照し、詳細はここでは再び説明しない。相違は、取得ユニット65がGUI内の第2のキャラクタオブジェクトの状態属性情報を取得する点にある。第1のキャラクタオブジェクト及び第2のキャラクタオブジェクトが位置する仮想空間は、ソフトウェアアプリケーションの設定に基づいて比較的大きくなり得るため、端末によるレンダリングを通じて取得されたGUI内の視覚画像は、第1のキャラクタオブジェクトを含み、第2のキャラクタオブジェクトを含んでもよく、明らかに、第2のキャラクタオブジェクトを含まなくてもよい。この実施例では、端末は、GUIに含まれる第2のキャラクタオブジェクトの状態属性情報を取得し、状態属性情報に関連する対応する第2のキャラクタオブジェクトをサーバに対して同期させる。状態属性情報は、第2のキャラクタオブジェクトの生命値、攻撃ポイント又はスキル属性情報を含むが、これらに限定されない。
この実施例では、通信ユニット66は、予め設定されたルールに従って、サーバから、キャラクタコンテナオブジェクト内のキャラクタ操作オブジェクトに関連するキャラクタオブジェクトの状態属性情報を取得し、これにより、端末のGUIが少なくともいくつかの第2のキャラクタオブジェクトを含まず、少なくともいくつかの第2のキャラクタオブジェクトの状態属性情報が取得できない場合、キャラクタコンテナオブジェクトに含まれる全てのキャラクタ操作オブジェクトに関連する第2のキャラクタオブジェクトの状態属性情報は、他の端末によりサーバに対して同期した第2のキャラクタオブジェクト及び関連する状態属性情報を使用することにより取得されてもよい。端末及び他の端末は、同じグループに属し、端末により制御される第1のキャラクタオブジェクト及び他の端末により制御される第1のキャラクタオブジェクトは、ゲームシステム内で同じグループに属し、仮想操作は、他のグループに属する第2のキャラクタオブジェクト上で実行されることが理解され得る。端末のGUIが全ての第2のキャラクタオブジェクトを含まない場合、他の端末のGUIは、少なくともいくつかの第2のキャラクタオブジェクトを含んでもよく、これにより、同じグループに属する少なくとも1つの端末のGUIに含まれる第2のキャラクタオブジェクトの取得された状態属性情報に基づいて、第2のキャラクタオブジェクトの状態属性情報は相互に同期する。
この実施例では、第2のキャラクタオブジェクトの状態属性情報が端末により取得されてサーバにより同期した後に、予め設定された方式で、キャラクタコンテナオブジェクト内で、対応するウィンドウ位置内で第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについてレンダリングが実行される。具体的には、図9を参照すると、状態属性情報が生命値である例が使用される。第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトの外周のエリア(図9のキャラクタ操作オブジェクトb22を参照する)は、生命溝表示エリアb221として使用され、対応する第2のキャラクタオブジェクトの現在の生命値は、生命溝表示エリアに対する生命溝表示エリアb211内の生命値の比率を使用することにより表される。明らかに、本発明のこの実施例では、第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトに対応するウィンドウ位置内で状態属性情報についてレンダリングを実行する方式は、図9に示すものに限定されない。
当業者は、本発明のこの実施例における端末内の処理ユニットの機能が情報処理方法の関係する説明を参照することにより理解され得ることを理解するべきである。本発明のこの実施例における情報処理端末内の処理ユニットは、本発明のこの実施例における機能を有するアナログ回路を実装することにより実装されてもよく、或いはインテリジェント端末上で本発明のこの実施例における機能を有するソフトウェアを実行することにより実装されてもよい。
本発明の実施例4及び実施例5では、実際の適用において、端末内のレンダリング処理ユニット61、配置ユニット62、検出ユニット63、操作実行ユニット64及び取得ユニット65は全て、端末内の中央処理装置(CPU:central processing unit)、デジタルシグナルプロセッサ(DSP:digital signal processor)又はフィールドプログラマブルゲートアレイ(FPGA:field programmable gate array)により実装されてもよく、実際の適用では、端末内の通信ユニット66は、端末内の送受信アンテナ又は通信インタフェースにより実装されてもよい。
実施例6
本発明のこの実施例は、端末を更に提供する。端末は、PCのような電子デバイスでもよく、或いはタブレットコンピュータ、ラップトップコンピュータ又はスマートフォンのようなポータブル電子デバイスでもよい。ゲームシステムは、ソフトウェアアプリケーション(ゲームアプリケーション等)をインストールすることにより端末内で実行され、端末は、データを記憶するためのメモリと、データ処理のためのプロセッサとを少なくとも含む。データ処理のためのプロセッサについて、処理中に、マイクロプロセッサ、CPU、DSP又はFPGAが実装のために使用されてもよい。メモリは、操作命令を含み、操作命令は、コンピュータ実行可能コードでもよく、本発明の実施例における情報処理方法の手順内のステップは、操作命令を使用することにより実装される。
図14は、本発明の実施例6による端末の概略構成図である。図14に示すように、端末は、プロセッサ71と、ディスプレイ72とを含む。プロセッサ71は、ソフトウェアアプリケーションを実行し、GUIを取得するためにディスプレイ72上でレンダリングを実行するように構成される。プロセッサ、GUI及びソフトウェアアプリケーションがゲームシステム内で実施される。
プロセッサ71は、少なくとも1つの仮想リソースオブジェクトを取得するために、GUI内でレンダリングを実行し、仮想リソースオブジェクトのうち少なくとも1つは、入力された第1のユーザコマンドに従って第1の仮想操作を実行する第1のキャラクタオブジェクトとして構成され、
GUI内の少なくとも1つのキャラクタ選択エリア内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウ位置を含むように配置し、
GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトを検出し、第1の表示パラメータに従って、少なくとも1つのウィンドウ位置内の第2のキャラクタオブジェクトに関連する検出されたキャラクタ操作オブジェクトについてレンダリングを実行し、
第1のキャラクタオブジェクトにより、レンダリングが第1の表示パラメータに従って実行され且つキャラクタコンテナオブジェクト内にある少なくとも1つのキャラクタ操作オブジェクト上で選択操作ジェスチャを検出したときに、対応する第2のキャラクタオブジェクト上で第1の仮想操作のうち少なくとも1つを実行するように更に構成される。
具体的には、プロセッサ71により、GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトを検出することは、GUI内にあり且つ第1のキャラクタオブジェクトへの距離が第1の予め設定された閾値未満である第2のキャラクタオブジェクトを検出することを含む。
実施方式では、プロセッサ71は、レンダリングが第1の表示パラメータに従って実行され且つキャラクタコンテナオブジェクト内にある少なくとも1つのキャラクタ操作オブジェクト上で選択操作ジェスチャを検出する前に、第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクト内で、第1のキャラクタオブジェクトへの距離が第2の予め設定された条件を満たす少なくともいくつかの第2のキャラクタオブジェクトを検出し、第2の表示パラメータに従って、少なくとも1つのウィンドウ位置内の検出された少なくともいくつかの第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについてレンダリングを実行するように更に構成され、第2の表示パラメータに従ってレンダリングを実行することにより取得される表示効果は、第1の表示パラメータに従ってレンダリングを実行することにより取得される表示効果とは異なる。
具体的には、プロセッサ71により、第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクト内で、第1のキャラクタオブジェクトへの距離が第2の予め設定された条件を満たす少なくともいくつかの第2のキャラクタオブジェクトを検出することは、
第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクト内で、第1のキャラクタオブジェクトへの距離が第2の予め設定された閾値に到達する第2のキャラクタオブジェクトを検出し、第2の予め設定された閾値が第1の予め設定された閾値以上であることを含む。
実施方式では、端末は、通信デバイス74を更に含む。
プロセッサ71は、GUI内の第2のキャラクタオブジェクトの状態属性情報を取得し、通信デバイス74を使用することにより、状態属性情報をサーバに対して同期させ、サーバから、通信インタフェースを使用することにより、キャラクタコンテナオブジェクト内のキャラクタ操作オブジェクトに関連するキャラクタオブジェクトの状態属性情報を取得するように更に構成される。
対応して、プロセッサ71は、取得された状態属性情報に従って、予め設定された方式で、対応するウィンドウ位置内で第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについてレンダリングを実行するように更に構成される。
この実施例では、端末は、プロセッサ71と、ディスプレイ72と、メモリ73と、入力デバイス76と、バス75と、通信デバイス74とを含む。プロセッサ71、メモリ73、入力デバイス76、ディスプレイ72及び通信デバイス74は全て、バス75を使用することにより接続され、バス75は、プロセッサ71とメモリ73とディスプレイ72と通信デバイス74との間でデータを送信するように構成される。
入力デバイス76は、ユーザの入力操作を取得するように主に構成され、入力デバイス76は、端末によって変化してもよい。例えば、端末がPCであるときに、入力デバイス76はマウス又はキーボードのような入力デバイス76でもよく、端末がスマートフォン又はタブレットコンピュータのようなポータブルデバイスであるときに、入力デバイス76はタッチスクリーンでもよい。
この実施例では、コンピュータ記憶媒体がメモリ73に記憶され、コンピュータ実行可能命令がコンピュータ記憶媒体に記憶され、コンピュータ実行可能命令が本発明の実施例における情報処理方法を実行するように構成される。
この出願において提供されるいくつかの実施例において、開示のデバイス及び方法は他の方式で実施されてもよいことが理解されるべきである。記載のデバイスの実施例は、単なる例である。例えば、ユニット分割は、単に論理的な機能分割であり、実際の実施中に他の分割になってもよい。例えば、複数のユニット又はコンポーネントは、他のシステムに結合又は統合されてもよく、或いはいくつかの機能が無視されてもよく、或いは実行されなくてもよい。さらに、構成要素の部分の間での表示又は説明される相互結合若しくは直接結合又は通信接続は、いくつかのインタフェースを通じて実装されてもよい。デバイス又はユニットの間の間接結合又は通信接続は、電子的、機械的或いは他の形式で実装されてもよい。
別個の部分として説明したユニットは、物理的に別個でもよく、或いは別個でなくてもよく、ユニットとして表示された部分は、物理的ユニットでもよく、或いは物理的ユニットでなくてもよく、1つの位置に位置してもよく、或いは複数のネットワークユニット上に分散されてもよい。ユニットの一部又は全部は、実施例の解決策の目的を実現するための実際のニーズに従って選択されてもよい。
さらに、本発明の実施例における機能ユニットは、全て1つの処理ユニットに統合されてもよく、或いはユニットのそれぞれが個別に存在してもよく、或いは2つ以上のユニットが1つのユニットに統合されてもよく、統合されたユニットがハードウェアの形式で実装されてもよく、或いはソフトウェア機能ユニットに加えてハードウェアの形式で実装されてもよい。
当業者は、方法の実施例のステップの一部又は全部が関係するハードウェアに命令するプログラムにより実施されてもよいことを理解し得る。プログラムは、コンピュータ読み取り可能記憶媒体に記憶されてもよい。プログラムが実行する場合、方法の実施例のステップが実行される。前述の記憶媒体は、ポータブル記憶デバイス、読み取り専用メモリ(ROM:read-only memory)、ランダムアクセスメモリ(RAM:random access memory)、磁気ディスク又は光ディスクのような、プログラムコードを記憶することができるいずれかの媒体を含む。
或いは、本開示において、統合されたユニットがソフトウェア機能モジュールの形式で実装され、独立したプロダクトとして販売又は使用されるときに、統合されたユニットは、コンピュータ読み取り可能記憶媒体に記憶されてもよい。このような理解に基づいて、本発明の実施例の技術的解決策は本質的に、或いは既存の技術に寄与する部分は、ソフトウェアプロダクトの形式で実装されてもよい。コンピュータソフトウェアプロダクトは、記憶媒体に記憶され、コンピュータデバイス(パーソナルコンピュータ、サーバ又はネットワークデバイスでもよい)に対して本発明の実施例に記載の方法のステップの全部又は一部を実行するように命令するための複数の命令を含む。前述の記憶媒体は、ポータブル記憶デバイス、ROM、RAM、磁気ディスク又は光ディスクのような、プログラムコードを記憶することができるいずれかの媒体を含む。
前述の説明は、本開示の単に具体的な実装であり、本開示の保護範囲を限定することを意図するものではない。本開示に開示された技術的範囲内で当業者により容易に理解される如何なる変更又は置換も、本開示の保護範囲内に入るものとする。したがって、本開示の保護範囲は、特許請求の範囲の保護範囲に従うものとする。
産業上の利用可能性
本発明の実施例では、GUI内のキャラクタ選択エリア内に配置されたキャラクタコンテナオブジェクト内のウィンドウ位置を用いて、第1のキャラクタオブジェクトと情報交換を実行する第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについて、対応するウィンドウ位置内でレンダリングが実行され、第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについて、第1の表示パラメータに従ってレンダリングが実行され、すなわち、第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトに関連するUIアバターについて、第1の表示パラメータに従ってレンダリングが実行され、これにより、UIアバターは、他のUIアバターの表示効果とは異なる表示効果を有し、ユーザがターゲットキャラクタ操作オブジェクトを選択するときに、ユーザが異なる表示効果に基づいて、キャラクタ操作オブジェクト上の選択操作ジェスチャを用いてターゲットキャラクタオブジェクトを迅速且つ正確に選択することが便利になり、これにより、相互作用の過程においてユーザの操作体験をかなり向上させる。

Claims (10)

  1. ソフトウェアアプリケーションが端末のプロセッサ上で実行され、グラフィカルユーザインタフェース(GUI)を取得するためにレンダリングが前記端末のディスプレイ上で実行され、前記プロセッサ、前記GUI及び前記ソフトウェアアプリケーションがゲームシステム内で実施される情報処理方法であって、
    少なくとも1つの仮想リソースオブジェクトを取得するために、前記GUI内でレンダリングを実行するステップであり、前記仮想リソースオブジェクトのうち少なくとも1つは、入力された第1のユーザコマンドに従って第1の仮想操作を実行する第1のキャラクタオブジェクトとして構成されるステップと、
    前記GUI内の少なくとも1つのキャラクタ選択エリア内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウ位置を含むように配置するステップと、
    前記GUI内にあり且つ前記第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトを検出し、第1の表示パラメータに従って、前記少なくとも1つのウィンドウ位置内の前記第2のキャラクタオブジェクトに関連する検出されたキャラクタ操作オブジェクトについてレンダリングを実行するステップと、
    前記第1のキャラクタオブジェクトにより、レンダリングが前記第1の表示パラメータに従って実行され且つ前記キャラクタコンテナオブジェクト内にある少なくとも1つのキャラクタ操作オブジェクト上で選択操作ジェスチャが検出されたときに、対応する第2のキャラクタオブジェクト上で前記第1の仮想操作のうち少なくとも1つを実行するステップと
    を含み、
    前記GUI内にあり且つ前記第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトを検出することは、
    前記GUI内にあり且つ前記第1のキャラクタオブジェクトへの距離が第1の予め設定された閾値未満である第2のキャラクタオブジェクトを検出することであり、
    レンダリングが前記第1の表示パラメータに従って実行され且つ前記キャラクタコンテナオブジェクト内にある前記少なくとも1つのキャラクタ操作オブジェクト上で前記選択操作ジェスチャを検出する前に、
    前記第1のキャラクタオブジェクトへの距離が前記第1の予め設定された条件を満たす第2のキャラクタオブジェクト内で、前記第1のキャラクタオブジェクトへの距離が第2の予め設定された条件を満たす少なくともいくつかの第2のキャラクタオブジェクトを検出し、第2の表示パラメータに従って、前記少なくとも1つのウィンドウ位置内の前記検出された少なくともいくつかの第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについてレンダリングを実行するステップを更に含み、
    前記第2の表示パラメータに従ってレンダリングを実行することにより取得される表示効果は、前記第1の表示パラメータに従ってレンダリングを実行することにより取得される表示効果とは異なり、
    前記第1のキャラクタオブジェクトへの距離が前記第1の予め設定された条件を満たす第2のキャラクタオブジェクト内で、前記第1のキャラクタオブジェクトへの距離が第2の予め設定された条件を満たす少なくともいくつかの第2のキャラクタオブジェクトを検出することは、
    前記第1のキャラクタオブジェクトへの距離が前記第1の予め設定された条件を満たす前記第2のキャラクタオブジェクト内で、前記第1のキャラクタオブジェクトへの距離が第2の予め設定された閾値に到達する第2のキャラクタオブジェクトを検出し、前記第2の予め設定された閾値が前記第1の予め設定された閾値以上であることを含む方法。
  2. 前記GUI内の第2のキャラクタオブジェクトの状態属性情報を取得し、前記状態属性情報をサーバに対して同期させるステップと、
    前記サーバから、前記キャラクタコンテナオブジェクト内のキャラクタ操作オブジェクトに関連するキャラクタオブジェクトの状態属性情報を取得するステップと
    を更に含む、請求項1に記載の方法。
  3. 前記取得された状態属性情報に従って、予め設定された方式で、対応するウィンドウ位置内で前記第2のキャラクタオブジェクトに関連する前記キャラクタ操作オブジェクトについてレンダリングを実行するステップを更に含む、請求項に記載の方法。
  4. レンダリング処理ユニットと、配置ユニットと、検出ユニットと、操作実行ユニットとを含む端末であって、
    前記レンダリング処理ユニットは、ソフトウェアアプリケーションを実行し、グラフィカルユーザインタフェース(GUI)を取得するためにレンダリングを実行し、少なくとも1つの仮想リソースオブジェクトを取得するために、前記GUI内でレンダリングを実行するように構成され、前記仮想リソースオブジェクトのうち少なくとも1つは、入力された第1のユーザコマンドに従って第1の仮想操作を実行する第1のキャラクタオブジェクトとして構成され、第1の表示パラメータに従って、前記少なくとも1つのウィンドウ位置内の第2のキャラクタオブジェクトに関連し且つ前記検出ユニットにより検出されたキャラクタ操作オブジェクトについてレンダリングを実行するように更に構成され、
    前記配置ユニットは、前記GUI内の少なくとも1つのキャラクタ選択エリア内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウ位置を含むように配置するように構成され、
    前記検出ユニットは、前記GUI内にあり且つ前記第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトを検出するように構成され、
    前記操作実行ユニットは、前記第1のキャラクタオブジェクトにより、レンダリングが前記第1の表示パラメータに従って実行され且つ前記キャラクタコンテナオブジェクト内にある少なくとも1つのキャラクタ操作オブジェクト上で選択操作ジェスチャが検出されたときに、対応する第2のキャラクタオブジェクト上で前記第1の仮想操作のうち少なくとも1つを実行するように構成され
    前記検出ユニットは、前記GUI内にあり且つ前記第1のキャラクタオブジェクトへの距離が第1の予め設定された閾値未満である第2のキャラクタオブジェクトを検出するように構成され、
    前記検出ユニットは、前記第1のキャラクタオブジェクトへの距離が前記第1の予め設定された条件を満たす第2のキャラクタオブジェクト内で、前記第1のキャラクタオブジェクトへの距離が第2の予め設定された条件を満たす少なくともいくつかの第2のキャラクタオブジェクトを検出するように更に構成され、
    対応して、前記レンダリング処理ユニットは、第2の表示パラメータに従って、前記少なくとも1つのウィンドウ位置内の、前記検出ユニットにより検出された前記少なくともいくつかの第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについてレンダリングを実行するように構成され、前記第2の表示パラメータに従ってレンダリングを実行することにより取得される表示効果は、前記第1の表示パラメータに従ってレンダリングを実行することにより取得される表示効果とは異なり、
    前記検出ユニットは、前記第1のキャラクタオブジェクトへの距離が前記第1の予め設定された条件を満たす前記第2のキャラクタオブジェクト内で、前記第1のキャラクタオブジェクトへの距離が第2の予め設定された閾値に到達する第2のキャラクタオブジェクトを検出するように構成され、前記第2の予め設定された閾値が前記第1の予め設定された閾値以上である端末。
  5. 前記端末は、取得ユニットと、通信ユニットとを更に含み、
    前記取得ユニットは、前記GUI内の第2のキャラクタオブジェクトの状態属性情報を取得するように構成され、
    前記通信ユニットは、前記取得ユニットにより取得された前記状態属性情報をサーバに対して同期させ、前記サーバから、前記キャラクタコンテナオブジェクト内のキャラクタ操作オブジェクトに関連するキャラクタオブジェクトの状態属性情報を取得するように構成される、請求項に記載の端末。
  6. 前記レンダリング処理ユニットは、前記取得された状態属性情報に従って、予め設定された方式で、対応するウィンドウ位置内で前記第2のキャラクタオブジェクトに関連する前記キャラクタ操作オブジェクトについてレンダリングを実行するように構成される、請求項に記載の端末。
  7. プロセッサと、ディスプレイとを含み、前記プロセッサがソフトウェアアプリケーションを実行し、グラフィカルユーザインタフェース(GUI)を取得するために前記ディスプレイ上でレンダリングを実行するように構成され、前記プロセッサ、前記GUI及び前記ソフトウェアアプリケーションがゲームシステム上で実施される端末であって、
    前記プロセッサは、少なくとも1つの仮想リソースオブジェクトを取得するために、前記GUI内でレンダリングを実行し、前記仮想リソースオブジェクトのうち少なくとも1つは、入力された第1のユーザコマンドに従って第1の仮想操作を実行する第1のキャラクタオブジェクトとして構成され、
    前記GUI内の少なくとも1つのキャラクタ選択エリア内の少なくとも1つのキャラクタコンテナオブジェクトが少なくとも1つのウィンドウ位置を含むように配置し、
    前記GUI内にあり且つ前記第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトを検出し、第1の表示パラメータに従って、前記少なくとも1つのウィンドウ位置内の前記第2のキャラクタオブジェクトに関連する検出されたキャラクタ操作オブジェクトについてレンダリングを実行し、
    前記第1のキャラクタオブジェクトにより、レンダリングが前記第1の表示パラメータに従って実行され且つ前記キャラクタコンテナオブジェクト内にある少なくとも1つのキャラクタ操作オブジェクト上で選択操作ジェスチャを検出したときに、対応する第2のキャラクタオブジェクト上で前記第1の仮想操作のうち少なくとも1つを実行するように更に構成され
    前記プロセッサにより、前記GUI内にあり且つ前記第1のキャラクタオブジェクトへの距離が第1の予め設定された条件を満たす第2のキャラクタオブジェクトを検出することは、
    前記GUI内にあり且つ前記第1のキャラクタオブジェクトへの距離が第1の予め設定された閾値未満である第2のキャラクタオブジェクトを検出することであり、
    前記プロセッサは、レンダリングが前記第1の表示パラメータに従って実行され且つ前記キャラクタコンテナオブジェクト内にある前記少なくとも1つのキャラクタ操作オブジェクト上で前記選択操作ジェスチャを検出する前に、
    前記第1のキャラクタオブジェクトへの距離が前記第1の予め設定された条件を満たす第2のキャラクタオブジェクト内で、前記第1のキャラクタオブジェクトへの距離が第2の予め設定された条件を満たす少なくともいくつかの第2のキャラクタオブジェクトを検出し、第2の表示パラメータに従って、前記少なくとも1つのウィンドウ位置内の前記検出された少なくともいくつかの第2のキャラクタオブジェクトに関連するキャラクタ操作オブジェクトについてレンダリングを実行するように更に構成され、
    前記第2の表示パラメータに従ってレンダリングを実行することにより取得される表示効果は、前記第1の表示パラメータに従ってレンダリングを実行することにより取得される表示効果とは異なり、
    前記プロセッサにより、前記第1のキャラクタオブジェクトへの距離が前記第1の予め設定された条件を満たす第2のキャラクタオブジェクト内で、前記第1のキャラクタオブジェクトへの距離が第2の予め設定された条件を満たす少なくともいくつかの第2のキャラクタオブジェクトを検出することは、
    前記第1のキャラクタオブジェクトへの距離が前記第1の予め設定された条件を満たす前記第2のキャラクタオブジェクト内で、前記第1のキャラクタオブジェクトへの距離が第2の予め設定された閾値に到達する第2のキャラクタオブジェクトを検出し、前記第2の予め設定された閾値が前記第1の予め設定された閾値以上であることを含む端末。
  8. 前記端末は、通信デバイスを更に含み、
    前記プロセッサは、前記GUI内の第2のキャラクタオブジェクトの状態属性情報を取得し、前記通信デバイスを使用することにより、前記状態属性情報をサーバに対して同期させ、前記サーバから、通信インタフェースを使用することにより、前記キャラクタコンテナオブジェクト内のキャラクタ操作オブジェクトに関連するキャラクタオブジェクトの状態属性情報を取得するように更に構成される、請求項に記載の端末。
  9. 前記プロセッサは、前記取得された状態属性情報に従って、予め設定された方式で、対応するウィンドウ位置内で前記第2のキャラクタオブジェクトに関連する前記キャラクタ操作オブジェクトについてレンダリングを実行するように更に構成される、請求項に記載の端末。
  10. コンピュータ実行可能命令がコンピュータ記憶媒体に記憶され、前記コンピュータ実行可能命令が請求項1乃至のうちいずれか1項に記載の情報処理方法を実行するように構成される、コンピュータ記憶媒体。
JP2018505518A 2015-09-29 2016-05-04 情報処理方法、端末及びコンピュータ記憶媒体 Active JP6529659B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510633275.3 2015-09-29
CN201510633275.3A CN105335064B (zh) 2015-09-29 2015-09-29 一种信息处理方法和终端
PCT/CN2016/081041 WO2017054450A1 (zh) 2015-09-29 2016-05-04 一种信息处理方法、终端和计算机存储介质

Publications (2)

Publication Number Publication Date
JP2018512988A JP2018512988A (ja) 2018-05-24
JP6529659B2 true JP6529659B2 (ja) 2019-06-12

Family

ID=55285650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018505518A Active JP6529659B2 (ja) 2015-09-29 2016-05-04 情報処理方法、端末及びコンピュータ記憶媒体

Country Status (8)

Country Link
US (1) US10639549B2 (ja)
EP (1) EP3273334B1 (ja)
JP (1) JP6529659B2 (ja)
KR (1) KR102018212B1 (ja)
CN (1) CN105335064B (ja)
CA (1) CA2982868C (ja)
MY (1) MY192140A (ja)
WO (1) WO2017054450A1 (ja)

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
KR102516577B1 (ko) 2013-02-07 2023-04-03 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
CN105335064B (zh) 2015-09-29 2017-08-15 腾讯科技(深圳)有限公司 一种信息处理方法和终端
CN105194873B (zh) 2015-10-10 2019-01-04 腾讯科技(成都)有限公司 一种信息处理方法、终端及计算机存储介质
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
AU2017100670C4 (en) 2016-06-12 2019-11-21 Apple Inc. User interfaces for retrieving contextually relevant media content
KR101866198B1 (ko) * 2016-07-06 2018-06-11 (주) 덱스인트게임즈 터치스크린 기반의 게임제공방법 및 프로그램
CN106774824B (zh) * 2016-10-26 2020-02-04 网易(杭州)网络有限公司 虚拟现实交互方法及装置
CN106512406A (zh) * 2016-11-01 2017-03-22 网易(杭州)网络有限公司 游戏操控方法和装置
CN106422329A (zh) * 2016-11-01 2017-02-22 网易(杭州)网络有限公司 游戏操控方法和装置
JP6143934B1 (ja) * 2016-11-10 2017-06-07 株式会社Cygames 情報処理プログラム、情報処理方法、及び情報処理装置
CN106354418B (zh) * 2016-11-16 2019-07-09 腾讯科技(深圳)有限公司 一种基于触摸屏的操控方法和装置
WO2018095366A1 (zh) 2016-11-24 2018-05-31 腾讯科技(深圳)有限公司 视频推荐确定、信息显示、基于帧同步的数据处理方法
CN107132979A (zh) * 2017-03-14 2017-09-05 网易(杭州)网络有限公司 在移动设备游戏中精确选择目标的交互方法、装置及计算机可读存储介质
US20180292952A1 (en) * 2017-04-05 2018-10-11 Riot Games, Inc. Methods and systems for object selection
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770411A1 (en) 2017-05-15 2018-12-20 Apple Inc. MULTI-MODAL INTERFACES
CN107441705B (zh) * 2017-07-27 2018-07-20 腾讯科技(深圳)有限公司 对象显示方法和装置及存储介质
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
CN108579089B (zh) * 2018-05-09 2021-11-12 网易(杭州)网络有限公司 虚拟道具控制方法及装置、存储介质、电子设备
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
CN108970114A (zh) * 2018-08-21 2018-12-11 苏州蜗牛数字科技股份有限公司 一种通过自定义映射按键实现视野调整的方法
US11446579B2 (en) * 2018-09-11 2022-09-20 Ncsoft Corporation System, server and method for controlling game character
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
CN109582136B (zh) * 2018-11-13 2022-05-03 深圳市创凯智能股份有限公司 三维窗口手势导航方法、装置、移动终端及存储介质
CN109675307B (zh) * 2019-01-10 2020-02-21 网易(杭州)网络有限公司 游戏中的显示控制方法、装置、存储介质、处理器及终端
CN109568956B (zh) * 2019-01-10 2020-03-10 网易(杭州)网络有限公司 游戏中的显示控制方法、装置、存储介质、处理器及终端
US10786734B2 (en) * 2019-02-20 2020-09-29 Supercell Oy Method for facilitating user interactions in gaming environment
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
CN110115838B (zh) * 2019-05-30 2021-10-29 腾讯科技(深圳)有限公司 虚拟环境中生成标记信息的方法、装置、设备及存储介质
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
JP6818092B2 (ja) * 2019-06-25 2021-01-20 株式会社コロプラ ゲームプログラム、ゲーム方法、および情報端末装置
CN117482507A (zh) * 2019-07-19 2024-02-02 腾讯科技(深圳)有限公司 多人在线对战程序中的提醒信息发送方法、装置及终端
CN110598035B (zh) * 2019-09-08 2023-06-13 北京智明星通科技股份有限公司 一种***虚拟人物形象推荐方法、装置和移动终端
CN110807728B (zh) * 2019-10-14 2022-12-13 北京字节跳动网络技术有限公司 对象的显示方法、装置、电子设备及计算机可读存储介质
CN111013139B (zh) * 2019-11-12 2023-07-25 北京字节跳动网络技术有限公司 角色交互方法、***、介质和电子设备
CN111013135A (zh) * 2019-11-12 2020-04-17 北京字节跳动网络技术有限公司 一种交互方法、装置、介质和电子设备
CN110882537B (zh) * 2019-11-12 2023-07-25 北京字节跳动网络技术有限公司 一种交互方法、装置、介质和电子设备
CN111068311B (zh) * 2019-11-29 2023-06-23 珠海豹趣科技有限公司 游戏场景的显示控制方法及装置
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
CN111589114B (zh) * 2020-05-12 2023-03-10 腾讯科技(深圳)有限公司 虚拟对象的选择方法、装置、终端及存储介质
CN111760267A (zh) * 2020-07-06 2020-10-13 网易(杭州)网络有限公司 游戏中的信息发送方法及装置、存储介质、电子设备
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
CN111821691A (zh) * 2020-07-24 2020-10-27 腾讯科技(深圳)有限公司 界面显示方法、装置、终端及存储介质
CN112057856B (zh) * 2020-09-17 2024-01-30 网易(杭州)网络有限公司 信息提示方法、装置和终端设备
KR102589889B1 (ko) * 2021-02-23 2023-10-17 (주)팀스노우볼 게임 ui 분석 방법
JP7416980B2 (ja) * 2021-05-25 2024-01-17 ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド ゲームシーンの処理方法、装置、記憶媒体及び電子デバイス
CN113318444B (zh) * 2021-06-08 2023-01-10 天津亚克互动科技有限公司 角色的渲染方法和装置、电子设备和存储介质
CN113384877B (zh) * 2021-06-25 2023-03-14 网易(杭州)网络有限公司 游戏的交互方法、装置、电子设备及可读介质
CN113398566A (zh) * 2021-07-16 2021-09-17 网易(杭州)网络有限公司 游戏的显示控制方法、装置、存储介质及计算机设备
CN113559505B (zh) * 2021-07-28 2024-02-02 网易(杭州)网络有限公司 游戏中的信息处理方法、装置及移动终端
US11811681B1 (en) 2022-07-12 2023-11-07 T-Mobile Usa, Inc. Generating and deploying software architectures using telecommunication resources

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6273818B1 (en) * 1999-10-25 2001-08-14 Square Co., Ltd. Video game apparatus and method and storage medium
JP3888542B2 (ja) * 2002-12-05 2007-03-07 任天堂株式会社 ゲーム装置およびゲームプログラム
JP4057945B2 (ja) * 2003-04-25 2008-03-05 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及びゲーム装置
JP3880008B2 (ja) * 2004-12-21 2007-02-14 株式会社光栄 キャラクタ集団移動制御プログラム、記憶媒体及びゲーム装置
CN100441256C (zh) * 2005-06-19 2008-12-10 珠海市西山居软件有限公司 一种网络游戏***及其实现方法
JP4291816B2 (ja) * 2005-12-27 2009-07-08 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム
US8210943B1 (en) * 2006-05-06 2012-07-03 Sony Computer Entertainment America Llc Target interface
US20100302138A1 (en) 2009-05-29 2010-12-02 Microsoft Corporation Methods and systems for defining or modifying a visual representation
JP2011212347A (ja) * 2010-03-31 2011-10-27 Namco Bandai Games Inc プログラム、情報記憶媒体、端末及びネットワークシステム
JP5452429B2 (ja) 2010-09-14 2014-03-26 株式会社スクウェア・エニックス ゲーム装置、ゲームプログラム及びゲームの進行方法
US20120122561A1 (en) * 2010-11-12 2012-05-17 Bally Gaming, Inc. System and method for tournament gaming using social network based team formation
US20130005417A1 (en) * 2011-06-30 2013-01-03 Peter Schmidt Mobile device action gaming
US8814674B2 (en) * 2012-05-24 2014-08-26 Supercell Oy Graphical user interface for a gaming system
US9403090B2 (en) * 2012-04-26 2016-08-02 Riot Games, Inc. Video game system with spectator mode hud
JP6281495B2 (ja) * 2013-02-01 2018-02-21 ソニー株式会社 情報処理装置、端末装置、情報処理方法及びプログラム
CN103096134B (zh) * 2013-02-08 2016-05-04 广州博冠信息科技有限公司 一种基于视频直播和游戏的数据处理方法和设备
CN103157281B (zh) * 2013-04-03 2015-06-10 广州博冠信息科技有限公司 一种二维游戏场景显示的方法和设备
JP5581434B1 (ja) * 2013-10-31 2014-08-27 株式会社 ディー・エヌ・エー ゲームプログラム、及び、情報処理装置
CN104618797B (zh) * 2015-02-06 2018-02-13 腾讯科技(北京)有限公司 信息处理方法、装置及客户端
CN205064362U (zh) 2015-05-12 2016-03-02 锘威科技(深圳)有限公司 一种新型扇叶
JP6632819B2 (ja) * 2015-06-30 2020-01-22 株式会社バンダイナムコエンターテインメント プログラム、ゲーム装置及びサーバシステム
CN105335064B (zh) * 2015-09-29 2017-08-15 腾讯科技(深圳)有限公司 一种信息处理方法和终端

Also Published As

Publication number Publication date
CN105335064B (zh) 2017-08-15
CN105335064A (zh) 2016-02-17
KR102018212B1 (ko) 2019-09-04
WO2017054450A1 (zh) 2017-04-06
EP3273334B1 (en) 2023-05-10
CA2982868C (en) 2023-07-18
JP2018512988A (ja) 2018-05-24
MY192140A (en) 2022-07-29
US10639549B2 (en) 2020-05-05
KR20170137913A (ko) 2017-12-13
EP3273334A1 (en) 2018-01-24
US20180028918A1 (en) 2018-02-01
EP3273334A4 (en) 2018-05-30
CA2982868A1 (en) 2017-04-06

Similar Documents

Publication Publication Date Title
JP6529659B2 (ja) 情報処理方法、端末及びコンピュータ記憶媒体
JP6830447B2 (ja) 情報処理方法、端末、およびコンピュータ記憶媒体
US10786733B2 (en) Information processing method, terminal, and computer storage medium for releasing virtual skill object based on user gesture
US11003261B2 (en) Information processing method, terminal, and computer storage medium
US10768812B2 (en) Method, terminal, and storage medium for operating objects displayed on a graphical user interface
US10398977B2 (en) Information processing method, terminal, and computer storage medium
CN116159308A (zh) 游戏交互方法、装置、计算机设备和计算机可读存储介质

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190514

R150 Certificate of patent or registration of utility model

Ref document number: 6529659

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250