JP7242121B2 - 情報インタラクション方法及び関連装置 - Google Patents

情報インタラクション方法及び関連装置 Download PDF

Info

Publication number
JP7242121B2
JP7242121B2 JP2021550032A JP2021550032A JP7242121B2 JP 7242121 B2 JP7242121 B2 JP 7242121B2 JP 2021550032 A JP2021550032 A JP 2021550032A JP 2021550032 A JP2021550032 A JP 2021550032A JP 7242121 B2 JP7242121 B2 JP 7242121B2
Authority
JP
Japan
Prior art keywords
skill
effect model
target
joystick
generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021550032A
Other languages
English (en)
Other versions
JP2022522443A (ja
Inventor
耀 ▲兪▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2022522443A publication Critical patent/JP2022522443A/ja
Application granted granted Critical
Publication of JP7242121B2 publication Critical patent/JP7242121B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/58Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • A63F13/798Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories for assessing skills or for ranking players, e.g. for generating a hall of fame
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Security & Cryptography (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本願はコンピュータ分野に関し、具体的には、情報インタラクションに関する。
本願は、2019年9月4日に中国特許局に提出した、出願番号が第201910833875.2号、出願名称が「情報インタラクション方法、装置、端末及び記憶媒体」の中国特許出願の優先権を主張し、その全内容が引用により本願に組み込まれている。
ゲームスキルは一定のゲーム条件を満たすうえに、特定の時間にゲーム中の特定の人、物、領域等に対して特定の効果を実現でき、ユーザーはクライアントによってゲーム中の仮想キャラクターを制御して仮想シーン内で様々なゲームスキルを放出することができる。
タッチスクリーンの出現に伴って、プレイヤーは指やほかの物体でディスプレイスクリーンにタッチすることでヒューマンコンピュータインタラクションを行うことにより、ゲーム中の仮想キャラクターを制御してゲームスキルを放出することができる。
本願の実施例は情報インタラクション方法及び関連装置を提供し、情報インタラクションの精確度を向上させることができる。
一態様によれば、本願の実施例は情報インタラクション方法を提供し、前記方法は端末により実行され、前記方法は、
ゲーム画面を表示するステップであって、前記ゲーム画面は候補スキル領域を含む、ステップ、
前記候補スキル領域に対するスキル選択操作に基づいて、ターゲットスキルを決定するステップ、
前記ゲーム画面上に仮想ジョイスティックオブジェクトを表示するステップ、
前記仮想ジョイスティックオブジェクトに対する移動操作が検出された場合、前記移動操作に基づいて前記ターゲットスキルの少なくとも1つのスキル生成位置を計算するステップ、及び
前記仮想ジョイスティックオブジェクトに対する放出操作が検出された場合、前記少なくとも1つのスキル生成位置に前記ターゲットスキルのスキル効果モデルを生成するステップを含む。
別の態様によれば、本願の実施例はさらに情報インタラクション装置を提供し、画面ユニット、スキルユニット、ジョイスティックユニット、位置ユニット、及び生成ユニットを含み、
前記画面ユニットは、ゲーム画面を表示することに用いられ、前記ゲーム画面は候補スキル領域を含み、
前記スキルユニットは、前記候補スキル領域に対するスキル選択操作に基づいて、ターゲットスキルを決定することに用いられ、
前記ジョイスティックユニットは、前記ゲーム画面上に仮想ジョイスティックオブジェクトを表示することに用いられ、
前記位置ユニットは、前記仮想ジョイスティックオブジェクトに対する移動操作が検出された場合、前記移動操作に基づいて前記ターゲットスキルの少なくとも1つのスキル生成位置を計算することに用いられ、
前記生成ユニットは、前記仮想ジョイスティックオブジェクトに対する放出操作が検出された場合、前記少なくとも1つのスキル生成位置に前記ターゲットスキルのスキル効果モデルを生成することに用いられる。
別の態様によれば、本願の実施例はさらに記憶媒体を提供し、前記記憶媒体はコンピュータプログラムを記憶することに用いられ、前記コンピュータプログラムは以上の態様の情報インタラクション方法を実行することに用いられる。
別の態様によれば、本願の実施例はさらに端末を提供し、メモリを含み、複数の命令が記憶されており、前記プロセッサは前記メモリから命令をロードすることにより、以上の態様の情報インタラクション方法を実行する。
別の態様によれば、本願の実施例は命令を含むコンピュータプログラム製品を提供し、コンピュータ上で動作すると、前記コンピュータに以上の態様の情報インタラクション方法を実行させる。
本願の実施例は、ゲーム画面を表示でき、ゲーム画面は候補スキル領域を含み、候補スキル領域に対するスキル選択操作に基づいて、ターゲットスキルを決定し、ゲーム画面上に仮想ジョイスティックオブジェクトを表示し、仮想ジョイスティックオブジェクトに対する移動操作が検出された場合、移動操作に基づいてターゲットスキルの少なくとも1つのスキル生成位置を計算し、仮想ジョイスティックオブジェクトに対する放出操作が検出された場合、少なくとも1つのスキル生成位置にターゲットスキルのスキル効果モデルを生成する。
本願では、ユーザーはゲーム画面中の仮想ジョイスティックオブジェクトによって、ゲームスキルの複数のスキル効果モデル生成位置を制御及び調整でき、それにより、該スキームは情報インタラクションの精確度を向上させることができる。
本願の実施例における技術的解決手段をより明確に説明するために、以下、実施例の説明に使用される必要がある図面を簡単に紹介し、明らかなように、以下の記述における図面は単に本願のいくつかの実施例であり、当業者にとって、創造的な努力をしない前提下でこれらの図面に基づいてほかの図面を取得することもできる。
本願の実施例が提供する情報インタラクション方法のシーン模式図である。 本願の実施例が提供する情報インタラクション方法のプロセス模式図である。 本願の実施例が提供する仮想ジョイスティックオブジェクトの構造模式図である。 本願の実施例が提供するオーバーレイ表示の効果模式図である。 本願の実施例が提供するスキル生成位置とスキル生成領域の間の関係模式図である。 本願の実施例が提供するジョイスティック位置とスキル生成位置の間のマッピング関係模式図である。 本願の実施例が提供するスキル効果の分布軌跡の変化模式図である。 本願の実施例が提供する第1種のスキル効果モデルの向き模式図である。 本願の実施例が提供する第1種のスキル効果モデルの向き模式図である。 本願の実施例が提供する情報インタラクション装置の構造模式図である。 本願の実施例が提供するネットワーク装置の構造模式図である。
以下、本願の実施例の図面と併せて本願の実施例の技術的解決手段を明確かつ完全に記述し、明らかなように、記述される実施例は単に本願の一部の実施例であり、すべての実施例ではない。本願の実施例に基づいて、当業者が創造的な努力をしない前提下で取得するすべてのほかの実施例はいずれも本願の保護範囲に属する。
本願の実施例は情報インタラクション方法及び関連装置を提供する。
ここで、該情報インタラクション装置は、具体的には、端末中に集積されてもよく、該端末は携帯電話、タブレットコンピュータ、インテリジェントブルートゥース(登録商標)機器、ノートパソコン、又はパーソナルコンピュータ(Personal Computer、PC)等の機器であってもよい。
図1aに参照されるように、該情報インタラクション装置は、具体的には、スマートフォン中に集積されてもよく、スマートフォン中にゲームソフトウェアがインストールされてもよく、該スマートフォンは該ゲームソフトウェアを動作させることができ、ゲームソフトウェアを動作させる時、該スマートフォンはゲーム画面を表示できる。ここで、該ゲーム画面は候補スキル領域を含んでもよく、該候補スキル領域に対するユーザーのスキル選択操作に基づいて、ターゲットスキルを決定でき、ゲーム画面上に仮想ジョイスティックオブジェクトを表示し、仮想ジョイスティックオブジェクトに対するユーザーの移動操作が検出された場合、移動操作に基づいてターゲットスキルの少なくとも1つのスキル生成位置を計算し、仮想ジョイスティックオブジェクトに対するユーザーの放出操作が検出された場合、少なくとも1つのスキル生成位置にターゲットスキルのスキル効果モデルを生成する。
以下、それぞれ詳細な説明を行う。なお、以下の実施例の番号は実施例の好適な順序を限定するものとされない。
本実施例では、情報インタラクション方法を提供し、図1bに示すように、該情報インタラクション方法の具体的なプロセスは以下の通りであってもよい。
101:ゲーム画面を表示し、該ゲーム画面は候補スキル領域を含む。
ここで、ゲーム画面はゲームソフトウェアのゲームシーン画面及びユーザーインタフェース(User Interface、UI)を含んでもよく、これらのうち、ゲームシーン画面はゲーム内のシーン、仮想キャラクター等のコンテンツを展示でき、ユーザーインタフェースはゲームボタン、文字、ウィンドウ等のゲームユーザーと直接又は間接的に接触するゲーム設計要素を含んでもよい。
ユーザーはゲーム画面によってゲームコンテンツと対話できる。
図1aに参照されるように、ゲーム画面は候補スキル領域を含んでもよく、該候補スキル領域中に少なくとも1つの候補スキルのスキル情報が含まれてもよい。ここで、スキル情報はスキル名称、スキルコントローラ等の情報であってもよい。
ここで、ゲームスキルは電子ゲーム中の一連の仮想イベントであってもよく、一定の条件を満たすことを前提に、これらの仮想イベントは特定の時間にゲーム中の特定の人、物、領域等に対して特定の効果をトリガーできる。
ゲームスキルの基本的な要素は該ゲームスキルのトリガーメカニズム(いつ、どのようにスキルのライフサイクルを開始するか、スキルイベント(スキル発生を記述する原子情報)及びスキル効果(現在のゲーム環境に対して変更をもたらす)を含む。ゲームスキルの具体的なスキル効果は当業者がニーズに基づき作成できる。
一般には、ゲームスキルはその効果モデル、その数値モデルを含んでもよく、ゲームスキルの実現方式はゲームシーン中で該ゲームスキルの効果モデルを生成し、及びその数値モデルを対応するターゲットオブジェクトに適用し、それによりスキル効果に達することである。
ここで、ゲームスキルの効果モデルは複数種のタイプを有してもよく、例えば、シーンモデル、建物モデル、人物モデル、アニメーションモデル、粒子効果モデル等である。
例えば、いくつかの実施例では、ゲームスキルAのゲーム効果は、該ゲームスキルAのスキル放出オブジェクトの周囲に5つの仮想フォロワーを同時に召喚することであり、この場合、その実現方式は、該ゲームスキルAのスキル放出オブジェクトモデルの周囲に5つの仮想フォロワーモデルを生成することである。
102:候補スキル領域に対するスキル選択操作に基づいて、ターゲットスキルを決定する。
候補スキル領域に対するユーザーのスキル選択操作の操作方式は複数種あり、例えば、ユーザーはドラッグ、クリック、スライド、押圧、タッチ等の方式によって候補スキル領域でスキル選択を行ってもよい。そのほか、スキル選択操作はユーザーの操作をシミュレートする方式によって生成されてもよく、例えば、候補スキル領域中の指定された位置に対する操作をシミュレートしてスキル選択操作を生成する。スキル選択操作を除き、本願で言及されるほかの操作(例えば、移動操作、リリース操作等の各種の操作)もいずれもシミュレートの方式によって生成されてもよい。
候補スキル領域中には少なくとも1つの候補スキルのスキル情報が含まれてもよく、該スキル情報はスキルコントローラであってもよく、該コントローラはアイコン、記号、ボタン等の形式で表現されてもよい。候補スキル領域に対するユーザーのスキル選択操作によって、これらの候補スキルの中からターゲットスキルを決定してもよい。
いくつかの実施例では、スキル放出をより直感的にし、マルチスキル状況でのスキル放出を最適化し、それにより情報インタラクションの精確度をさらに向上させるために、候補スキル領域は少なくとも1つの候補スキルのスキルコントローラを含んでもよく、従って、ステップ102は、具体的には、以下のステップを含んでもよい。
スキルコントローラに対する選択操作に基づいて、少なくとも1つの候補スキルの中からターゲットスキルを決定する。
例えば、候補スキル領域中に複数の候補スキルのスキルアイコンが含まれてもよく、ユーザーは複数の候補スキルのスキルアイコンの中から1つの候補スキルを選択してクリックし、すなわち、該候補スキルをターゲットスキルとして決定してもよい。
また例えば、候補スキル領域中に1つの候補スキルのスキルアイコンが含まれてもよく、ユーザーは候補スキル領域中で該候補スキルのスキルアイコンを下へスライドして、候補スキル領域に次の候補スキルのスキルアイコンを切り替え表示し、且つ該次の候補スキルをターゲットスキルとして決定してもよく、及び、ユーザーは候補スキル領域中で該候補スキルのスキルアイコンを上へスライドして、候補スキル領域に前の候補スキルのスキルアイコンを切り替え表示し、且つ該前の候補スキルをターゲットスキルとして決定してもよい。
103:ゲーム画面上に仮想ジョイスティックオブジェクトを表示する。
仮想ジョイスティックオブジェクトはヒューマンコンピュータインタラクションに使用できる仮想部材であり、ユーザーは仮想ジョイスティックオブジェクトの運動変化を制御することで端末に情報を入力する。
いくつかの実施例では、図1cに参照されるように、仮想ジョイスティックオブジェクトは所定ジョイスティックコントローラ、所定ジョイスティック移動範囲、及び該所定ジョイスティック移動範囲の範囲中心軸を含んでもよい。
ユーザーは所定ジョイスティックコントローラを制御して所定ジョイスティック移動範囲内を任意に移動させることができ、ユーザーが該所定ジョイスティックコントローラを制御して移動させる時、該所定ジョイスティックコントローラと所定ジョイスティック移動範囲の範囲中心軸の間の相対距離、方向は、ユーザーにより入力される情報としてゲームとインタラクションを行うことができる。
いくつかの実施例では、具体的には、ステップ103は以下のステップを含んでもよい。
ターゲットスキルのスキルコントローラ上に仮想ジョイスティックオブジェクトをオーバーレイ表示する。
オーバーレイ表示とは、仮想ジョイスティックオブジェクトをスキルコントローラと積層し、且つ仮想ジョイスティックオブジェクトをスキルコントローラの上方に位置させた後、さらに仮想ジョイスティックオブジェクト及びスキルコントローラを表示することを指す。
ここで、オーバーレイは完全オーバーレイ、部分オーバーレイ等のオーバーレイ方式であってもよい。
例えば、図1dに参照されるように、ターゲットスキルがスキルAであり、スキルAのスキルコントローラの表現形式がアイコンである場合、ターゲットスキルのスキルAアイコン上に仮想ジョイスティックオブジェクトをオーバーレイ表示し、すなわち、仮想ジョイスティックオブジェクトをターゲットスキルのスキルAアイコンと積層し、且つ仮想ジョイスティックオブジェクトをスキルAアイコンの上方に位置させた後、さらに仮想ジョイスティックオブジェクト及びスキルAアイコンを表示する。
いくつかの実施例では、ユーザーがゲームスキル放出を随時に停止することを容易にするために、ゲーム画面はさらに放出キャンセルコントローラを含んでもよく、従って、ステップ103の後、具体的には、さらに以下のステップを含んでもよい。
放出キャンセルコントローラに対する放出キャンセル操作が検出された場合、ゲーム画面上において仮想ジョイスティックオブジェクトの表示を停止する。
例えば、図1aに参照されるように、放出キャンセルコントローラに対する放出キャンセル操作が検出された場合、ゲーム画面上において仮想ジョイスティックオブジェクトの表示を停止する。
及び、いくつかの実施例では、放出キャンセルコントローラに対する放出キャンセル操作が検出された場合、さらにゲーム画面においてターゲットスキルのスキルプレビュー効果モデル及びスキル生成領域の表示を停止してもよい。ここで、スキルプレビュー効果モデル及びスキル生成領域の具体的な紹介について、ステップ104中の記述を参照でき、ここで重複説明を省略する。
104:仮想ジョイスティックオブジェクトに対する移動操作が検出された場合、移動操作に基づいてターゲットスキルの少なくとも1つのスキル生成位置を計算する。
ここで、ユーザーはドラッグ、スライド、クリック等によって仮想ジョイスティックオブジェクトの仮想ジョイスティックコントローラを移動してもよい。
スキル生成位置とは、ゲームスキルをトリガーする時、スキル効果モデルがゲームシーンで実際に生成する位置を指し、該スキル生成位置は1つであってもよく、複数であってもよい。
例えば、トスキルXをリガーする時、ゲームシーンのシーンの最東端及びシーンの最西端に2つの雷雲を生成してもよく、この場合、スキルXのスキル効果モデルは2つの雷雲を生成することであり、スキルXのスキル生成位置は最東端(100,0)及び最西端(-100,0)である。
いくつかの実施例では、仮想ジョイスティックオブジェクトは仮想ジョイスティックコントローラ、及び所定ジョイスティック移動範囲を含んでもよく、ステップ104は以下のステップを含んでもよい。
(1)ターゲットスキルのスキル放出オブジェクト及び所定スキル放出範囲を決定し、スキル放出オブジェクトのゲーム画面での現在位置を取得する。
ここで、スキル放出オブジェクトとは、該ゲームスキルのスキル効果モデルが有効になる仮想オブジェクトを指す。ここで、該仮想オブジェクトはキャラクター仮想オブジェクト、物品仮想オブジェクト、及びシーン仮想オブジェクト等であってもよい。例えば、ゲームスキルXのスキル放出オブジェクトはゲームシーンで該スキルを放出する仮想キャラクターであり、また例えば、ゲームスキルYのスキル放出オブジェクトはゲームシーンでユーザーが選択するほかの仮想キャラクターであり、また例えば、ゲームスキルZのスキル放出オブジェクトはゲームシーンでユーザーが選択するある仮想物品、ある仮想地点等である。
スキル放出オブジェクトのゲーム画面での現在位置とは、スキル放出オブジェクトのゲーム内での位置を指し、例えば、スキル放出オブジェクトはゲームシーン内の1本の木であり、該木のゲームのあるシーンでの現在位置は(299,5,41)である。
所定スキル放出範囲とは、ゲームスキルの最大放出範囲を指し、範囲距離、範囲半径、範囲面積、及び範囲体積等であってもよく、該所定スキル放出範囲はゲーム開発者によって設定されてもよく、ゲームプレイを向上させ、ゲームバランスを維持する等に用いられる。
例えば、ゲームスキル「雷雲召喚」のスキル放出オブジェクトはユーザーが指定したゲームシーン中のある地点であり、その所定スキル放出範囲は半径が8メートルの円形である。
いくつかの実施例では、ユーザーがスキルを放出することが可能な領域を直感的に観察し、ユーザーエクスペリエンスを最適化するために、ステップ「ターゲットスキルの所定スキル放出範囲及びスキル放出オブジェクトを決定し、スキル放出オブジェクトのゲーム画面での現在位置を取得する」の後、さらに以下のステップを含んでもよい。
スキル放出オブジェクトの現在位置を中心とし、所定スキル放出範囲に基づいてターゲットスキルのゲーム画面でのスキル生成領域を決定する。
ゲーム画面上にスキル生成領域を表示する。
ここで、スキル生成領域とは、ゲームスキルのスキル効果モデルがゲームシーンで生成できる領域、すなわち、スキル生成位置が位置する領域を指す。
スキル放出オブジェクトの現在位置を中心とし、所定スキル放出範囲に基づいてターゲットスキルのゲーム画面でのスキル生成領域を決定する方式は複数種あり、例えば、スキル生成領域は、現在位置を円心、所定スキル放出範囲を半径とする円形、扇形、及び球形等であってもよく、また例えば、スキル生成領域は、現在位置を中心、所定スキル放出範囲を辺長とする正方形、菱形、及びピラミッド型等であってもよい。
例えば、図1eに参照されるように、ユーザーが既にターゲットスキルを選択した後、ゲームシーンにスキル生成領域を表示してもよく、該スキル生成領域は、スキル放出オブジェクトの現在位置を円心、所定スキル放出範囲dを半径とする1つの円形領域であり、ユーザーは仮想ジョイスティックオブジェクトによってターゲットスキルのスキル生成位置(x,y)の該スキル生成領域での具体的な位置を制御してもよい。
いくつかの実施例では、スキル生成領域はハイライトの形式でゲームシーンに表示されてもよく、例えば、青色で該スキル生成領域のエッジを表示し、灰色で該スキル生成領域を充填し、且つ該充填後のスキル生成領域を表示する等のようにしてもよい。
(2)仮想ジョイスティックオブジェクトに対する移動操作が検出された場合、仮想ジョイスティックコントローラの所定ジョイスティック移動範囲でのジョイスティック位置を取得する。
ユーザーが仮想ジョイスティックオブジェクトに対して移動操作を行う時、所定ジョイスティックコントローラはジョイスティック移動範囲を移動できる。
図1cに参照されるように、範囲中心軸を座標軸の原点としてジョイスティック座標系を作成し、所定ジョイスティックコントローラの該ジョイスティック座標系での位置(x,y)はジョイスティック位置である。
(3)所定ジョイスティック移動範囲、ジョイスティック位置、所定スキル放出範囲、及び現在位置に基づいて、ターゲットスキルの少なくとも1つのスキル生成位置を計算する。
ジョイスティック移動範囲はジョイスティックの移動可能な最大放出範囲であり、該所定スキル放出範囲はゲーム開発者によって設定されてもよく、ゲームプレイを向上させ、ゲームバランスを維持する等に用いられる。
いくつかの実施例では、ジョイスティック移動範囲はジョイスティックの移動可能な最大範囲であり、該範囲のタイプは複数種あり、例えば、範囲距離、範囲半径、範囲面積、及び範囲体積等であってもよく、該ジョイスティック移動範囲はゲーム開発者によって設定されてもよく、ユーザーによって自動で調整されてもよい。
スキル生成位置の数量はゲームスキル中で定義されてもよく、所定スキル放出範囲を半径とする円形領域(すなわち、スキル生成領域)中のスキル生成位置は、所定ジョイスティック移動範囲を半径とする円形領域(すなわち、所定ジョイスティック移動領域)中のジョイスティック位置にマッピングしてもよい。
いくつかの実施例では、ステップ「所定ジョイスティック移動範囲、ジョイスティック位置、所定スキル放出範囲、及び現在位置に基づいて、ターゲットスキルの少なくとも1つのスキル生成位置を計算する」は、具体的には、以下のステップを含んでもよい。
A.所定ジョイスティック移動範囲と所定スキル放出範囲の間のインタラクション範囲比率を決定する。
B.インタラクション範囲比率及びジョイスティック位置に基づき相対位置を決定し、相対位置はスキル生成位置とスキル放出オブジェクトの間の相対的な位置である。
C.スキル放出オブジェクトのゲーム画面での現在位置に基づき、相対位置のゲーム画面でのスキル生成位置を決定する。
例えば、図1fに参照されるように、所定ジョイスティック移動範囲は半径rであり、ユーザーは仮想ジョイスティックオブジェクトの所定ジョイスティックコントローラをジョイスティック位置(x,y)に移動し、ターゲットスキルの所定スキル放出範囲は半径Rであり、スキル放出オブジェクトの現在位置は(a,b)であり、この場合、スキル生成位置(X,Y)の計算方法は以下の通りである。
d=1.25+3.75=15.625
ここで、インタラクション範囲比率はR/rであり、すなわち、所定ジョイスティック移動範囲と所定スキル放出範囲の間のマッピング比率であり、相対位置はx軸相対位置及びy軸相対位置を含み、x軸相対位置はx*R/rであり、y軸相対位置はy*R/rである。
いくつかの実施例では、ターゲットスキルのスキル効果モデルを生成する時、スキル生成位置とスキル放出オブジェクトの間の相対位置に基づきスキル効果モデルの効果向きを制御してもよく、例えば、スキル「フォロワー召喚」のスキル効果は3つの仮想フォロワーを召喚することであり、この場合、ユーザーにより制御される召喚地点(すなわち、スキル生成位置)とスキル放出オブジェクトの間の相対位置に基づき、これらの仮想フォロワーの相対方向を決定し、これらのフォロワーの正面がこれらの相対方向に向くようにする。
従って、ステップ「インタラクション範囲比率とジョイスティック位置を乗算計算し、相対位置を得る」の後、さらに以下のステップを含んでもよい。
相対位置に基づきスキル効果モデルの前記スキル放出オブジェクトに対する相対方向を計算する。
例えば、相対位置が(A,B)である場合、相対方向はarctanB/Aであり、また例えば、相対位置が極座標(ρ,θ)である場合、相対方向はθである。
いくつかの実施例では、ターゲットスキルは複数のスキル生成位置にスキル効果モデルを生成してもよく、例えば、スキル「フォロワー召喚」はユーザーが指定したスキル生成位置に3つの仮想フォロワーのゲームモデルを生成してもよく、情報インタラクションの精確度をさらに向上させ、操作の複雑さを低減させるために、本実施例はスキル効果モデルの分布軌跡の概念を提供し、ターゲットスキルのスキル生成位置はいずれも該スキル効果モデルの分布軌跡上にあり、ステップCはステップa、b、c、d、及びeを含んでもよく、以下の通りである。
a.ターゲットスキルのスキル生成位置の数量を決定する。
b.相対位置に基づきターゲットスキルのスキル効果モデルの分布半径を計算する。
スキル生成位置の数量はゲームスキル中で予め決められてもよく、例えば、スキル「フォロワー召喚」のスキル生成位置の数量は3であり、該スキルをトリガーした後、ユーザーが指定したスキル生成位置に3つの仮想フォロワーのゲームモデルを生成できる。
スキル効果モデルの分布半径に基づき該ターゲットスキルのスキル効果モデルの分布軌跡を計算できる。
相対位置に基づきターゲットスキルのスキル効果モデルの分布半径を計算する方式は複数種あり、例えば、相対位置が遠いほど、スキル効果モデルの分布半径が小さく、また例えば、相対位置が近いほど、スキル効果モデルの分布半径が小さい等である。
いくつかの実施例では、ステップbは、具体的には、以下のステップを含んでもよい。
所定係数を取得する。
相対位置に基づき相対距離を計算する。
所定係数に基づき相対距離を加重合計し、ターゲットスキルのスキル効果モデルの分布半径を得る。
スキル効果モデルの分布半径Rの計算式は以下の(式1)の通りである。
Figure 0007242121000001
ここで、所定係数Kはゲーム開発者によって予め設定されてもよく、相対距離dの計算式は以下の通りである。
+y
ここで、相対位置は(x,y)である。
c.相対位置を円心とし、スキル効果モデルの分布半径に基づいてターゲットスキルのスキル効果モデルの分布軌跡を決定する。
例えば、図1gに参照されるように、ここで、大円は所定スキル放出範囲であり、小円はスキル効果モデルの分布半径を半径とするスキル効果モデルの分布軌跡であり、三角形はスキル放出オブジェクトの相対位置であり、相対位置は遠い(すなわち、相対距離は大きい)ほど、小円は大きい。
いくつかの実施例では、ゲームスキルのスキル効果モデルが体積を有するため、1つのゲームスキルが複数のスキル生成位置を有する場合、これらのスキル生成位置に生成されるスキル効果モデルが相互に衝撃、交差しないことを確保する必要があり、従って、図1gに参照される複数の小円のうち最左側の4つの小円のいずれも同一の大きさを維持し、相対位置を所定の数値未満にする場合、スキル効果モデルの分布軌跡のスキル効果モデルの分布半径が減少しなくなり、ステップcは、具体的には、以下のステップを含んでもよい。
ターゲットスキルのスキル効果モデルの所定分布体積を取得する。
スキル効果モデルの所定分布体積とスキル生成位置の数量を乗算計算し、最小スキル効果モデルの分布半径を得る。
ターゲットスキルのスキル効果モデルの分布半径が最小スキル効果モデルの分布半径以上である場合、相対位置を円心とし、スキル効果モデルの分布半径に基づいてターゲットスキルのスキル効果モデルの分布軌跡を決定する。
ターゲットスキルのスキル効果モデルの分布半径が最小スキル効果モデルの分布半径未満である場合、相対位置を円心とし、最小スキル効果モデルの分布半径に基づいてターゲットスキルのスキル効果モデルの分布軌跡を決定する。
ここで、スキル効果モデルの所定分布体積はスキル効果モデルのゲームモデルの体積であり、例えば、スキル「樹木の植え付け」をトリガーする場合、4つのスキル生成位置の各々の位置に1本の仮想木のゲームモデルを生成でき、該仮想木のモデルの体積は3メートル*3メートルであり、この場合、最小スキル効果モデルの分布半径は3*4=12メートルである。
スキル「樹木の植え付け」のスキル効果モデルの分布半径が12メートル以上である場合、相対位置を円心とし、スキル効果モデルの分布半径に基づいてターゲットスキルのスキル効果モデルの分布軌跡を決定する。
スキル「樹木の植え付け」のスキル効果モデルの分布半径が12メートル未満である場合、相対位置を円心とし、12メートルに基づいてターゲットスキルのスキル効果モデルの分布軌跡を決定する。
d.少なくとも1つのスキル生成位置の数量に基づいて、スキル効果モデルの分布軌跡上で複数のスキル効果モデル分布点を決定する。
スキル生成位置の数量に基づいて、スキル効果モデルの分布軌跡上で複数のスキル効果モデル分布点を決定する方法は複数種あり、例えば、スキル生成位置の数量でスキル効果モデルの分布軌跡を等分し、各等分点をスキル効果モデル分布点とする。
いくつかの実施例では、ターゲットスキルのスキル効果モデルを生成する時、スキル効果モデル分布点の垂線方向に基づきスキル効果モデルの効果向きを制御してもよく、例えば、スキル「フォロワー召喚」のスキル効果は3つの仮想フォロワーを召喚することであり、この場合、分布点の垂線方向をこれらの仮想フォロワーの相対方向と規定し、これらのフォロワーの正面がこれらの相対方向に向くようにする。
従って、ステップdの後、さらに以下のステップを含んでもよい。
スキル効果モデルの分布半径に基づいて、スキル効果モデル分布点の垂線方向を決定する。
e.スキル放出オブジェクトのゲーム画面での現在位置に基づき、スキル効果モデル分布点のゲーム画面での位置をスキル生成位置として決定する。
例えば、スキル放出オブジェクトのゲーム画面での現在位置が(a,b)である場合、スキル効果モデル分布点(m,n)のゲーム画面での位置、すなわちスキル生成位置は(m+a,n+b)である。
105:仮想ジョイスティックオブジェクトに対するユーザーの放出操作が検出された場合、少なくとも1つのスキル生成位置にターゲットスキルのスキル効果モデルを生成する。
例えば、スキル「フォロワー召喚」のスキル効果が3つの仮想フォロワーを召喚することである時、仮想ジョイスティックオブジェクトに対するユーザーの放出操作が検出された場合、ゲームシーン内の3つのスキル生成位置に仮想フォロワーモデルを生成する。
いくつかの実施例では、スキル効果モデルの正面が相対方向を向くようにするために、ステップ104のステップBで得た相対方向に基づいて、ステップ105は以下のステップを含んでもよい。
仮想ジョイスティックオブジェクトに対するユーザーの放出操作が検出された場合、相対方向に基づいてターゲットスキルのスキル効果モデルの方向を変更し、方向変更後のターゲットスキルを得る。
スキル生成位置に方向変更後のターゲットスキルのスキル効果モデルを生成する。
例えば、スキル「フォロワー召喚」をトリガーする時、1つの仮想フォロワーモデルを生成する必要があり、仮想フォロワーモデルのモデル方向がいずれもωであり、ステップ104のステップBで得た相対方向がθであり、この場合、仮想フォロワーモデルのモデル方向をω+θに変更する。
同様に、いくつかの実施例では、スキル効果モデルの正面は垂線方向を向き、ステップ104のステップdで得た垂線方向に基づき、ステップ105は以下のステップを含んでもよい。
仮想ジョイスティックオブジェクトに対するユーザーの放出操作が検出された場合、垂線方向に基づいてターゲットスキルのスキル効果モデルの方向を変更し、方向変更後のターゲットスキルを得る。
スキル生成位置に方向変更後のターゲットスキルのスキル効果モデルを生成する。
いくつかの実施例では、ユーザーが放出するゲームスキルがスキル生成領域を超えることを防止し、それにより情報インタラクションの精度をさらに向上させるために、ステップ104のステップ(1)で得たスキル生成領域に基づき、ステップ105は、具体的には、以下のステップを含んでもよい。
スキル生成位置がスキル生成領域に属する場合、スキル生成位置にターゲットスキルのスキル効果モデルを生成する。
いくつかの実施例では、スキルを放出する前、ユーザーが仮想ジョイスティックオブジェクトを制御すると同時にターゲットスキルの放出位置を直感的に観察でき、ユーザーが観察しながらスキル生成位置を調整できるようにするために、ステップ105の後、さらに以下のステップを含んでもよい。
少なくとも1つのスキル生成位置にターゲットスキルのスキルプレビュー効果モデルを生成する。
ここで、スキルプレビュー効果モデルはユーザーがプレビューを行うための効果モデルであり、ゲームシーンでスキルプレビュー効果モデルを生成する時、ゲームスキルはまだ有効になっていない場合が多く、ゲームシーンでスキル効果モデルを生成する時、該ゲームスキルは正式に有効になる。
ターゲットスキルのスキルプレビュー効果モデルを生成することによって、ユーザーはゲーム放出の精度を把握できる。
いくつかの実施例では、仮想ジョイスティックオブジェクトに対するユーザーの放出操作が検出された場合、少なくとも1つのスキル生成位置においてターゲットスキルのスキルプレビュー効果モデルの生成を停止し、且つターゲットスキルのスキル効果モデルを生成する。
例えば、ゲームスキル「フォロワー召喚」のスキル効果は、スキル放出オブジェクトの周囲に3つの仮想フォロワーを召喚することであり、仮想フォロワーは付近の敵に遠隔攻撃を行うことができる。この場合、ユーザーが仮想ジョイスティックオブジェクトによってスキル生成位置を調整する時、該スキル生成位置に該ゲームスキルのスキルプレビュー効果モデル、例えば、仮想フォロワーの虚像モデルを生成する。ユーザーが放出操作を行うと、スキル生成位置から仮想フォロワーの虚像モデルを削除し、且つ該ゲームスキルのスキル効果モデル、例えば、仮想フォロワーのゲームモデルを生成し、且つ該仮想フォロワーは付近の敵に対して遠隔攻撃を行うことができる。
以上からわかるように、本願の実施例が提供する方法によって、ゲーム画面を表示でき、ゲーム画面は候補スキル領域を含み、候補スキル領域に対するユーザーのスキル選択操作に基づいて、ターゲットスキルを決定し、ゲーム画面上に仮想ジョイスティックオブジェクトを表示する。仮想ジョイスティックオブジェクトに対するユーザーの移動操作が検出された場合、移動操作に基づいてターゲットスキルの少なくとも1つのスキル生成位置を計算する。仮想ジョイスティックオブジェクトに対するユーザーの放出操作が検出された場合、少なくとも1つのスキル生成位置にターゲットスキルのスキル効果モデルを生成する。それにより、本スキームは仮想ジョイスティックオブジェクトによってゲームスキルの複数のスキル効果モデル生成位置を制御でき、ゲームスキルの放出がさらに正確になり、それにより情報インタラクションの精確度を向上させる。
上記実施例で記述された方法をもとに、以下、さらに詳細に説明する。
本実施例では、情報インタラクション方法を、スマートフォンを端末とするモバイルゲームに適用することを例に、本願の実施例の方法を詳細に説明する。
該モバイルゲームでは、プレイヤーは自分の仮想キャラクターを操作してゲームスキルを放出することによってほかのプレイヤーが操作する敵対的な仮想キャラクターとゲーム対戦を行うことができ、該モバイルゲームでは、ゲームスキルは複数種のタイプ、例えば、召喚タイプ及び呪術タイプを有する。
ここで、召喚タイプのゲームスキルはゲームシーンでは1つ又は複数の召喚単位を生成するモデルであり、呪術タイプのゲームスキルはゲームシーンでは1つの呪術特殊効果を生成するモデルである。
本実施例では、情報インタラクション方法のプロセスは以下の通りである。
(1)ゲーム画面を表示し、ゲーム画面は候補スキル領域を含む。
ここで、ゲーム画面は候補スキル領域を含んでもよい。
ゲーム画面はさらにプレイヤーの自分の仮想キャラクターのキャラクター情報、例えば、ハンドルネーム、自分の仮想キャラクターのヘルスポイント、自分の仮想キャラクターのゲイン効果等を含んでもよい。
ゲーム画面はさらに、対戦時間コントローラを含んでもよく、該対戦時間コントローラはプレイヤーの対戦の継続時間を表示することに使用できる。
そのほか、ゲーム画面はさらに自分の仮想キャラクターの移動を制御することに用いられる第2仮想ジョイスティックオブジェクトを含んでもよく、例えば、ゲーム画面の左下に第2仮想ジョイスティックオブジェクトを含んでもよい。
(2)候補スキル領域に対するスキル選択操作に基づいて、ターゲットスキルを決定する。
候補スキル領域は複数の候補スキルコントローラを含んでもよく、該候補スキルコントローラは候補スキルアイコンであってもよい。
例えば、候補スキル領域は3つの候補スキルアイコンを含んでもよく、それぞれスキル「光球術」のスキルアイコン、スキル「召喚術:戦士」のスキルアイコン、及びスキル「召喚術:射手」のスキルアイコンである。
プレイヤーがスキル「召喚術:戦士」のスキルアイコンをクリックする場合、スキル「召喚術:戦士」をターゲットスキルとして決定し、プレイヤーがスキル「召喚術:射手」のスキルアイコンをクリックする場合、スキル「召喚術:射手」をターゲットスキルとして決定し、プレイヤーがスキル「光球術」のスキルアイコンをクリックする場合、スキル「光球術」をターゲットスキルとして決定する。
(3)ゲーム画面上に仮想ジョイスティックオブジェクトを表示する。
いくつかの実施例では、ゲーム画面に第2仮想ジョイスティックオブジェクトが含まれ、該第2仮想ジョイスティックオブジェクトは自分の仮想キャラクターの移動を制御することに使用でき、同時に、ゲーム画面に第1仮想ジョイスティックオブジェクトが含まれ、該第1仮想ジョイスティックオブジェクトはゲームスキルの放出を制御することに使用できる。
(4)該ターゲットスキルのスキルタイプが召喚タイプである場合、且つ仮想ジョイスティックオブジェクトに対するユーザーのドラッグ操作が検出された場合、ドラッグ操作に基づいてターゲットスキルの少なくとも1つのスキル生成位置を計算する。
いくつかの実施例では、該ターゲットスキルのスキルタイプが呪術タイプである場合、通常のスキル放出方式を採用して情報インタラクションを行ってもよく、該ターゲットスキルのスキルタイプが召喚タイプである場合、本情報インタラクション方法を採用して情報インタラクションを行う。それにより、プレイヤーが呪術スキル及び召喚スキルを放出する時の操作の一致性を確保し、操作の複雑さを低減させ、それによりさらに操作精度を向上させる。
いくつかの実施例では、ターゲットスキルをスキル「召喚術:戦士」と仮定すると、スキル「召喚術:戦士」のスキル効果は、自分の仮想キャラクターの周囲7.2メートル内に1つの戦士フォロワー単位を召喚し、戦士フォロワー単位は付近の敵対的な仮想キャラクターに対して近接攻撃を行うことである。
この場合、該スキル「召喚術:戦士」の所定スキル放出範囲は7.2メートルであり、プレイヤーの自分の仮想キャラクターが位置する現在位置は(10,10)であり、所定ジョイスティック移動範囲は3.6メートルであり、プレイヤーは仮想ジョイスティックコントローラをジョイスティック位置(0.3,-0.4)に移動する場合、ドラッグ操作に基づいてターゲットスキルのスキル生成位置(X,Y)を計算する方式は以下の通りである。
X=7.2/3.6*0.3+10=0.6+10=10.6
Y=7.2/3.6*(-0.4)+10=9.2
この場合、スキル「召喚術:戦士」のスキル生成位置は(10.6,9.2)である。
別のいくつかの実施例では、ターゲットスキルをスキル「召喚術:射手」と仮定する場合、スキル「召喚術:射手」のスキル効果は、自分の仮想キャラクターの周囲10メートル内に3つの射手フォロワー単位を召喚し、射手フォロワー単位は付近の敵対的な仮想キャラクターに対して遠隔攻撃を行うことである。
この場合、該スキル「召喚術:射手」の所定スキル放出範囲は10メートルであり、スキル「召喚術:射手」のスキル生成位置の数量は3であり、プレイヤーの自分の仮想キャラクターが位置する現在位置は(1,2)であり、所定ジョイスティック移動範囲は4メートルであり、プレイヤーは仮想ジョイスティックコントローラをジョイスティック位置(0.5,1.5)に移動する場合、ドラッグ操作に基づいてターゲットスキルのスキル生成位置(X,Y)を計算する方式は以下の通りである。
(1)相対位置に基づきターゲットスキルのスキル効果モデルの分布半径を計算する。
スキル「召喚術:射手」の射手フォロワー単位のモデルの体積は1メートル*1メートルであり、プレイヤーが指定するスキル生成位置がプレイヤーの自分の仮想キャラクターに近すぎることによって引き起こされる3つの射手フォロワー単位にモデルの重なり、押し出し等の現象が発生することを防止するために、ここで、最小スキル効果モデルの分布半径min_r=3*1メートル=3メートルを設定してもよい。
先ず、相対位置(x,y)を以下の(式2)のように計算する。
Figure 0007242121000002
次に相対距離dを計算する。
d=1.25+3.75=15.625
所定係数K=6である場合、相対距離に基づきターゲットスキルのスキル効果モデルの分布半径rを計算する計算方法は以下の通りである。
r=6*15.625=93.75
(2)相対位置を円心とし、スキル効果モデルの分布半径に基づいてターゲットスキルのスキル効果モデルの分布軌跡を決定する。
この時、ターゲットスキルのスキル効果モデルの分布半径rが最小スキル効果モデルの分布半径min_r以上である場合、この時、相対位置(1.25,3.75)を円心とし、スキル効果モデルの分布半径r=93.75メートルに基づいて、ターゲットスキルのスキル効果モデルの分布軌跡を決定する。
(3)スキル生成位置の数量に基づいて、スキル効果モデルの分布軌跡上で複数のスキル効果モデル分布点を決定する。
図2a及び図2bに参照されるように、五角星は自分の仮想キャラクターであり、大円は所定スキル放出範囲であり、小円はスキル効果モデルの分布軌跡であり、矢印が指すのは相対位置(1.25,3.75)であり、該スキル効果モデルの分布軌跡は円心が(1.25,3.75)、半径rが93.75メートルの円である。
本実施例では、3つの射手フォロワー単位を、自分の仮想キャラクターから比較的遠い一端の半円上に均等に分布させてもよい。すなわち、現在位置(1,2)から比較的遠い一端のスキル効果モデルの分布軌跡の半円に対してスキル生成位置の数量+1で等分を行い(すなわち、4等分)、スキル効果モデル分布点はスキル効果モデルの分布軌跡上の小さな黒い点である。
(4)スキル放出オブジェクトのゲーム画面での現在位置に基づき、スキル効果モデル分布点のゲーム画面での位置を決定し、スキル生成位置を得て、且つスキル生成位置にターゲットスキルのスキルプレビューモデルを生成する。
例えば、スキル効果モデル分布点がそれぞれ(1,1)、(1.5,0)、及び(1,-1)であり、スキル放出オブジェクトのゲーム画面での現在位置が(10,10)である場合、スキル生成位置は(10,10)、(10.5,10)、(10,9)である。
本実施例では、スキル「召喚術:射手」のスキルプレビューモデルは射手フォロワー単位プレビューモデルである。
図2aに参照されるように、いくつかの実施例では、射手フォロワー単位プレビューモデルは三角形であり、その向きは破線矢印が指す方向であり、すなわち、その向きは相対位置及びスキル生成位置により計算して得られてもよい。
図2bに参照されるように、別のいくつかの実施例では、射手フォロワー単位プレビューモデルは三角形であり、その向きは破線矢印が指す方向であり、すなわち、その向きは現在位置及びスキル生成位置により計算して得られてもよい。
スキル生成位置にターゲットスキルのスキルプレビューモデルを生成する前、スキルプレビューモデルの向きを上記計算して得た向きに変更する必要がある。
(5)仮想ジョイスティックオブジェクトに対するユーザーの放出操作が検出された場合、少なくとも1つのスキル生成位置にターゲットスキルのスキル効果を生成する。
上記ターゲットスキルのスキルプレビューモデルの生成と同様に、仮想ジョイスティックオブジェクトに対するユーザーの放出操作が検出された場合、上記3つのスキル生成位置に、変更後の向きに従って3つの射手フォロワー単位モデルを生成してもよい。
上記方法によって、プレイヤーは仮想ジョイスティックオブジェクトによって召喚スキルを正確に放出することができ、同時に、プレイヤーはさらに従来のルーレットの方式で呪術スキルを放出することができ、この時、召喚スキル放出と呪術スキル放出の操作一致性を向上させることができる。
また、本スキームはさらにゲームスキルが複数のスキル効果モデルを生成できる場合、スキル効果モデルの向き、分布密度等を同時に調整できる。
従って、従来のルーレットの操作方式、ドラッグスキルの操作方式及び本スキームの操作方式を比較し、その効果は(表1)に示される。
Figure 0007242121000003
以上からわかるように、本スキームは、ゲーム画面を表示でき、ゲーム画面は候補スキル領域を含み、候補スキル領域に対するユーザーのスキル選択操作に基づいて、ターゲットスキルを決定し、ゲーム画面上に仮想ジョイスティックオブジェクトを表示する。該ターゲットスキルのスキルタイプが召喚タイプである場合、且つ仮想ジョイスティックオブジェクトに対するユーザーのドラッグ操作が検出された場合、ドラッグ操作に基づいてターゲットスキルの少なくとも1つのスキル生成位置を計算する。仮想ジョイスティックオブジェクトに対するユーザーの放出操作が検出された場合、少なくとも1つのスキル生成位置にターゲットスキルのスキル効果を生成する。それにより、本スキームは仮想ジョイスティックオブジェクトによってゲームスキル効果モデルの放出位置、放出方向を同時に制御でき、及びゲームスキル効果モデルの放出密度を自動で制御でき、それにより操作の複雑さを低減させると同時に、情報インタラクションの精確度を向上させる。
以上の方法をよりよく実施するために、本願の実施例はさらに情報インタラクション装置を提供し、該情報インタラクション装置は、具体的には、端末中に集積されてもよく、該端末はスマートフォン、タブレットコンピュータ、インテリジェントブルートゥース機器、ノートパソコン、又はパーソナルコンピュータ等の機器であってもよい。
例えば、本実施例では、情報インタラクション装置がスマートフォン中に集積されることを例に、本願の実施例の方法を詳細に説明する。
例えば、図3に示すように、該情報インタラクション装置は画面ユニット301、スキルユニット302、ジョイスティックユニット303、位置ユニット304及び生成ユニット305を含んでもよく、以下の通りである。
(1)画面ユニット301
画面ユニット301はゲーム画面を表示することに使用でき、ここで、該ゲーム画面は候補スキル領域を含んでもよい。
(2)スキルユニット302
スキルユニット302は、候補スキル領域に対するスキル選択操作に基づいて、ターゲットスキルを決定することに使用できる。
いくつかの実施例では、候補スキル領域は少なくとも1つの候補スキルのスキルコントローラを含み、スキルユニット302は、具体的には、
スキルコントローラに対する選択操作に基づいて、少なくとも1つの候補スキルの中からターゲットスキルを決定することに使用できる。
(3)ジョイスティックユニット303
ジョイスティックユニット303は、ゲーム画面上に仮想ジョイスティックオブジェクトを表示することに使用できる。
いくつかの実施例では、ゲーム画面はさらに放出キャンセルコントローラを含み、ジョイスティックユニット303はさらに、
放出キャンセルコントローラに対する放出キャンセル操作が検出された場合、ゲーム画面上において仮想ジョイスティックオブジェクトの表示を停止することに使用できる。
(4)位置ユニット304
仮想ジョイスティックオブジェクトに対する移動操作が検出された場合、位置ユニット304は移動操作に基づいてターゲットスキルの少なくとも1つのスキル生成位置を計算することに使用できる。
いくつかの実施例では、仮想ジョイスティックオブジェクトは仮想ジョイスティックコントローラ、及び所定ジョイスティック移動範囲を含んでもよく、位置ユニット304は現在位置サブユニット、ジョイスティックサブユニット及び位置サブユニットを含んでもよく、以下の通りである。
(1)現在位置サブユニット
現在位置サブユニットは、ターゲットスキルのスキル放出オブジェクト及び所定スキル放出範囲を決定し、スキル放出オブジェクトのゲーム画面での現在位置を取得することに使用でき、
いくつかの実施例では、現在位置サブユニットはさらに、
スキル放出オブジェクトの現在位置を中心とし、所定スキル放出範囲に基づいてターゲットスキルのゲーム画面でのスキル生成領域を決定し、
ゲーム画面にスキル生成領域を表示することに使用できる。
(2)ジョイスティックサブユニット
ジョイスティックサブユニットは、仮想ジョイスティックオブジェクトに対するユーザーの移動操作が検出された場合、仮想ジョイスティックコントローラの所定ジョイスティック移動範囲でのジョイスティック位置を取得することに使用できる。
(3)位置サブユニット
位置サブユニットは、所定ジョイスティック移動範囲、ジョイスティック位置、所定スキル放出範囲、及び現在位置に基づいて、ターゲットスキルの少なくとも1つのスキル生成位置を計算することに使用できる。
いくつかの実施例では、位置サブユニットは比率サブモジュール、相対位置サブモジュール及び生成位置サブモジュールを含んでもよく、以下の通りである。
A.比率サブモジュール
比率サブモジュールは、所定ジョイスティック移動範囲と所定スキル放出範囲の間のインタラクション範囲比率を決定することに使用できる。
B.相対位置サブモジュール
相対位置サブモジュールは、インタラクション範囲比率及びジョイスティック位置に基づき相対位置を決定し、相対位置はスキル生成位置とスキル放出オブジェクトの間の相対的な位置であることに使用でき、
いくつかの実施例では、相対位置サブモジュールはさらに、
相対位置に基づきスキル効果モデルの相対方向を計算することに使用でき、
少なくとも1つのスキル生成位置にターゲットスキルのスキル効果モデルを生成するステップは、
相対方向に基づいてターゲットスキルのスキル効果モデルの方向を変更し、方向変更後のターゲットスキルを得るステップ、及び
スキル生成位置に方向変更後のターゲットスキルのスキル効果モデルを生成するステップを含む。
C.生成位置サブモジュール
生成位置サブモジュールは、スキル放出オブジェクトのゲーム画面での現在位置に基づき、相対位置のゲーム画面でのスキル生成位置を決定することに使用できる。
いくつかの実施例では、生成位置サブモジュールは、
ターゲットスキルのスキル生成位置の数量を決定し、
相対位置に基づきターゲットスキルのスキル効果モデルの分布半径を計算し、
相対位置を円心とし、スキル効果モデルの分布半径に基づいてターゲットスキルのスキル効果モデルの分布軌跡を決定し、
スキル生成位置の数量に基づいて、スキル効果モデルの分布軌跡上で複数のスキル効果モデル分布点を決定し、
スキル放出オブジェクトのゲーム画面での現在位置に基づき、スキル効果モデル分布点のゲーム画面での位置をスキル生成位置として決定することに使用できる。
(5)生成ユニット305
仮想ジョイスティックオブジェクトに対するユーザーの放出操作が検出された場合、生成ユニット305は、少なくとも1つのスキル生成位置にターゲットスキルのスキル効果モデルを生成することに使用できる。
いくつかの実施例では、生成ユニット305は、具体的には、
ターゲットスキルのスキルコントローラ上に仮想ジョイスティックオブジェクトをオーバーレイ表示することに使用できる。
いくつかの実施例では、生成ユニット305は、具体的には、
スキル生成位置がスキル生成領域に属する場合、スキル生成位置にターゲットスキルのスキル効果モデルを生成することに使用できる。
いくつかの実施例では、生成ユニット305は、
仮想ジョイスティックオブジェクトに対するユーザーの放出操作が検出された場合、少なくとも1つのスキル生成位置においてターゲットスキルのスキルプレビュー効果モデルの生成を停止し、且つターゲットスキルのスキル効果モデルを生成することに使用できる。
いくつかの実施例では、生成ユニット305はさらに、
少なくとも1つのスキル生成位置にターゲットスキルのスキルプレビュー効果モデルを生成することに使用できる。
具体的には実施する時、以上の各ユニットは独立した実体として生成されてもよく、任意に組み合わせて同一又は複数の実体として生成されてもよく、以上の各ユニットの具体的な実施について、上述した方法実施例を参照でき、ここで重複説明を省略する。
以上からわかるように、本実施例の情報インタラクション装置では、画面ユニットはゲーム画面を表示し、ゲーム画面は候補スキル領域を含み、スキルユニットは候補スキル領域に対するユーザーのスキル選択操作に基づいて、ターゲットスキルを決定し、ジョイスティックユニットはゲーム画面上に仮想ジョイスティックオブジェクトを表示する。仮想ジョイスティックオブジェクトに対するユーザーの移動操作が検出された場合、位置ユニットは移動操作に基づいてターゲットスキルの少なくとも1つのスキル生成位置を計算する。仮想ジョイスティックオブジェクトに対するユーザーの放出操作が検出された場合、生成ユニットは少なくとも1つのスキル生成位置にターゲットスキルのスキル効果モデルを生成する。それにより、本スキームは情報インタラクションの精確度を向上させることができる。
本願の実施例はさらに端末を提供し、該端末は携帯電話、タブレットコンピュータ、インテリジェントブルートゥース機器、ノートパソコン、又はパーソナルコンピュータ等の機器であってもよい。
いくつかの実施例では、該端末は1つの分散システム中の1つのノードであってもよい。ここで、該分散システムはブロックチェーンシステムであってもよく、該ブロックチェーンシステムは該複数のノードをネットワーク通信の形式によって接続して形成される分散システムであってもよい。ここで、ノード間はピアツーピア(P2P、Peer To Peer)ネットワークを構成でき、任意の形式の計算機器、例えばサーバ、端末等の電子機器はいずれも該ピアツーピアネットワークに加入することによって該ブロックチェーンシステム中の1つのノードとなることが可能である。
本実施例では、本実施例の端末がスマートフォンであることを例に詳細に記述し、例えば、図4に示すように、それは本願の実施例に係る端末の構造模式図を示し、具体的には、
該端末は1つ又は1つ以上の処理コアのプロセッサ401、1つ又は1つ以上のコンピュータ可読記憶媒体のメモリ402、電源403、入力モジュール404及び通信モジュール405等の部材を含んでもよい。当業者が理解できるように、図4に示す端末の構造は端末を限定するものではなく、図示よりも多い又は少ない部材を含み、又はいくつかの部材を組み合わせ、又は異なる部材で設置されるようにしてもよい。

プロセッサ401は該端末の制御センターであり、各種のインタフェース及び配線を利用して端末全体の各部分を接続し、メモリ402内に記憶されるソフトウェアプログラム及び/又はモジュールを動作させ、又は実行し、及びメモリ402内に記憶されるデータを呼び出すことによって、端末の各種の機能及びデータ処理を実行し、それにより端末全体を監視する。いくつかの実施例では、プロセッサ401は1つ又は複数の処理コアを含んでもよく、いくつかの実施例では、プロセッサ401はアプリケーションプロセッサ及び変調復調プロセッサを集積してもよく、ここで、アプリケーションプロセッサは主にオペレーティングシステム、ユーザーインタフェース及びアプリケーションプログラム等を処理し、変調復調プロセッサは主に無線通信を処理する。理解できるように、上記変調復調プロセッサはプロセッサ401中に集積されてもよい。
メモリ402はソフトウェアプログラム及びモジュールを記憶することに使用でき、プロセッサ401はメモリ402に記憶されるソフトウェアプログラム及びモジュールを動作させることによって、各種の機能アプリケーション及びデータ処理を実行する。メモリ402は主にプログラム記憶領域及びデータ記憶領域を含んでもよい。ここで、プログラム記憶領域はオペレーティングシステム、及び少なくとも1つの機能に必要なアプリケーションプログラム(例えば、音声再生機能、画像再生機能等)等を記憶してもよく、データ記憶領域は端末の使用に基づき作成されたデータ等を記憶してもよい。また、メモリ402は高速ランダムアクセスメモリを含んでもよく、さらに不揮発性メモリ、例えば、少なくとも1つのディスクストレージデバイス、フラッシュメモリデバイス、又はほかの揮発性ソリッドステートストレージデバイスを含んでもよい。対応して、メモリ402はさらにメモリコントローラを含んでもよく、それによりメモリ402へのプロセッサ401のアクセスを提供する。
端末はさらに各部材に給電する電源403を含み、いくつかの実施例では、電源403は電源管理システムによってプロセッサ401とロジック接続されてもよく、それにより電源管理システムによって充電、放電管理、及び電力管理等の機能を生成する。電源403はさらに1つ又は1つ以上の直流又は交流電源、再充電システム、電源故障検出回路、電源変換器又はインバーター、及び電源状態インジケーター等の任意のユニットを含んでもよい。
該端末はさらに入力モジュール404を含んでもよく、該入力モジュール404は入力される数字又は文字情報を受信し、及びユーザー設定及び機能制御に関するキーボード、マウス、操作レバー、光学又はトラックボール信号入力を生成することに使用できる。
該端末はさらに通信モジュール405を含んでもよく、いくつかの実施例では、通信モジュール405は無線モジュールを含んでもよく、端末は該通信モジュール405の無線モジュールによって短距離無線伝送を行うことができ、それによりユーザーに無線のブロードバンドインターネットアクセスを提供する。例えば、該通信モジュール405はユーザーが電子メールを送受信し、ウェブページを閲覧し、及びストリーミングメディアにアクセスする等を助けることに使用できる。
図示していないが、端末はさらに表示ユニット等を含んでもよく、ここで重複説明を省略する。具体的には、本実施例では、端末中のプロセッサ401は、以下の命令に従って、1つ又は1つ以上のアプリケーションプログラムのプロセスに対応する実行ファイルをメモリ402にロードし、且つプロセッサ401はメモリ402に記憶されるアプリケーションプログラムを動作させ、それにより各種の機能を生成し、以下の通りである。
ゲーム画面を表示し、ゲーム画面は候補スキル領域を含み、
候補スキル領域に対するスキル選択操作に基づいて、ターゲットスキルを決定し、
ゲーム画面上に仮想ジョイスティックオブジェクトを表示し、
仮想ジョイスティックオブジェクトに対する移動操作が検出された場合、移動操作に基づいてターゲットスキルの少なくとも1つのスキル生成位置を計算し、
仮想ジョイスティックオブジェクトに対する放出操作が検出された場合、少なくとも1つのスキル生成位置にターゲットスキルのスキル効果モデルを生成する。
以上の各操作の具体的な実施について、上述した実施例を参照でき、ここで重複説明を省略する。
当業者が理解できるように、上記実施例の各種の方法のすべて又は一部のステップは命令によって完了してもよく、又は命令によって関連ハードウェアを制御して完了させてもよく、該命令は1つのコンピュータ可読記憶媒体に記憶されてもよく、且つプロセッサによってロード及び実行される。
また、本願の実施例はさらに記憶媒体を提供し、前記記憶媒体はコンピュータプログラムを記憶することに用いられ、前記コンピュータプログラムは上記実施例が提供する方法を実行することに用いられる。例えば、該命令は以下のステップを実行できる。
ゲーム画面を表示し、ゲーム画面は候補スキル領域を含み、
候補スキル領域に対するスキル選択操作に基づいて、ターゲットスキルを決定し、
ゲーム画面上に仮想ジョイスティックオブジェクトを表示し、
仮想ジョイスティックオブジェクトに対する移動操作が検出された場合、移動操作に基づいてターゲットスキルの少なくとも1つのスキル生成位置を計算し、
仮想ジョイスティックオブジェクトに対する放出操作が検出された場合、少なくとも1つのスキル生成位置にターゲットスキルのスキル効果モデルを生成する。
ここで、該記憶媒体は読み出し専用メモリ(ROM、Read Only Memory)、ランダムアクセスメモリ(RAM、Random Access Memory)、磁気ディスク又は光ディスク等を含んでもよい。
該記憶媒体に記憶される命令は本願の実施例が提供するいずれかの情報インタラクション方法のステップを実行でき、従って、本願の実施例が提供するいずれかの情報インタラクション方法により実現できる有益な効果を実現でき、その詳細について、上述した実施例を参照でき、ここで重複説明を省略する。
本願の実施例はさらに命令を含むコンピュータプログラム製品を提供し、コンピュータ上で動作すると、コンピュータに上記実施例が提供する方法を実行させる。
以上、本願の実施例が提供する情報インタラクション方法、装置、端末及びコンピュータ可読記憶媒体を詳細に紹介し、本明細書では、具体例を応用して本願の原理及び実施形態を述べており、以上の実施例の説明は単に本願の方法及びその中心思想を理解するのを助けることに用いられ、同時に、当業者であれば、本願の思想をもとに、具体的な実施形態及び適用範囲のいずれも変更することができ、以上のように、本明細書の内容は本願を限定しないと理解すべきである。
301 画面ユニット
302 スキルユニット
303 ジョイスティックユニット
304 位置ユニット
305 生成ユニット
401 プロセッサ
402 メモリ
403 電源
404 入力モジュール
405 通信モジュール

Claims (12)

  1. 端末により実行される情報インタラクション方法であって、前記方法は、
    ゲーム画面を表示するステップであって、前記ゲーム画面は候補スキル領域を含む、ステップ、
    前記候補スキル領域に対するスキル選択操作に基づいて、ターゲットスキルを決定するステップ、
    前記ゲーム画面上に仮想ジョイスティックオブジェクトを表示するステップであって、前記仮想ジョイスティックオブジェクトは仮想ジョイスティックコントローラ及び所定ジョイスティック移動範囲を含むステップと
    前記仮想ジョイスティックオブジェクトに対する移動操作が検出された場合、前記移動操作に基づいて前記ターゲットスキルの少なくとも1つのスキル生成位置を計算するステップであって、
    前記ターゲットスキルのスキル放出オブジェクト及び所定スキル放出範囲を決定し、前記スキル放出オブジェクトのゲーム画面での現在位置を取得するステップ、
    前記仮想ジョイスティックオブジェクトに対する移動操作が検出された場合、前記仮想ジョイスティックコントローラの前記所定ジョイスティック移動範囲でのジョイスティック位置を取得するステップ、及び
    前記所定ジョイスティック移動範囲、ジョイスティック位置、所定スキル放出範囲及び現在位置に基づいて、前記ターゲットスキルの少なくとも1つのスキル生成位置を計算するステップであって、
    前記所定ジョイスティック移動範囲と所定スキル放出範囲の間のインタラクション範囲比率を決定するステップ、
    前記インタラクション範囲比率及び前記ジョイスティック位置に基づき相対位置を決定するステップであって、前記相対位置はスキル生成位置とスキル放出オブジェクトの間の相対的な位置であるステップであって、
    前記ターゲットスキルのスキル生成位置の数量を決定するステップ、
    前記相対位置に基づき前記ターゲットスキルのスキル効果モデルの分布半径を計算するステップ、
    前記相対位置を円心とし、前記スキル効果モデルの分布半径に基づいて前記ターゲットスキルのスキル効果モデルの分布軌跡を決定するステップ、
    前記少なくとも1つのスキル生成位置の数量に基づいて、前記スキル効果モデルの分布軌跡上で複数のスキル効果モデル分布点を決定するステップ、及び
    前記スキル放出オブジェクトのゲーム画面での現在位置に基づき、前記スキル効果モデル分布点のゲーム画面での位置を前記スキル生成位置として決定するステップを含むステップ、及び
    前記スキル放出オブジェクトのゲーム画面での現在位置に基づき、前記相対位置のゲーム画面でのスキル生成位置を決定するステップを含むステップ、及び
    前記仮想ジョイスティックオブジェクトに対する放出操作が検出された場合、前記少なくとも1つのスキル生成位置に前記ターゲットスキルのスキル効果モデルを生成するステップを含む、情報インタラクション方法。
  2. 前記ターゲットスキルの所定スキル放出範囲及びスキル放出オブジェクトを決定し、前記スキル放出オブジェクトのゲーム画面での現在位置を取得する前記ステップの後、さらに、
    前記スキル放出オブジェクトの現在位置を中心とし、前記所定スキル放出範囲に基づいて前記ターゲットスキルの前記ゲーム画面でのスキル生成領域を決定するステップ、及び 前記ゲーム画面上に前記スキル生成領域を表示するステップを含み、
    前記少なくとも1つのスキル生成位置に前記ターゲットスキルのスキル効果モデルを生成するステップは、
    前記少なくとも1つのスキル生成位置が前記スキル生成領域に属する場合、前記少なくとも1つのスキル生成位置に前記ターゲットスキルのスキル効果モデルを生成するステップを含む請求項に記載の情報インタラクション方法。
  3. 前記インタラクション範囲比率及び前記ジョイスティック位置に基づき相対位置を決定する前記ステップの後、さらに、
    前記相対位置に基づきスキル効果モデルの前記スキル放出オブジェクトに対する相対方向を計算するステップを含み、
    前記少なくとも1つのスキル生成位置に前記ターゲットスキルのスキル効果モデルを生成する前記ステップは、
    前記相対方向に基づいて前記ターゲットスキルのスキル効果モデルの方向を変更し、方向変更後のターゲットスキルを得るステップ、及び
    前記少なくとも1つのスキル生成位置に前記方向変更後のターゲットスキルのスキル効果モデルを生成するステップを含む請求項に記載の情報インタラクション方法。
  4. 前記少なくとも1つのスキル生成位置の数量に基づいて、前記スキル効果モデルの分布軌跡上で複数のスキル効果モデル分布点を決定するステップの後、さらに、
    前記スキル効果モデルの分布半径に基づいて、前記スキル効果モデル分布点の垂線方向を決定するステップを含み、
    前記少なくとも1つのスキル生成位置に前記ターゲットスキルのスキル効果モデルを生成する前記ステップは、
    前記垂線方向に基づいて前記ターゲットスキルのスキル効果モデルの方向を変更し、方向変更後のターゲットスキルを得るステップ、及び
    前記少なくとも1つのスキル生成位置に前記方向変更後のターゲットスキルのスキル効果モデルを生成するステップを含む請求項に記載の情報インタラクション方法。
  5. 前記相対位置に基づき前記ターゲットスキルのスキル効果モデルの分布半径を計算する前記ステップは、
    所定係数を取得するステップ、
    前記相対位置に基づき相対距離を計算するステップ、及び
    前記所定係数に基づき前記相対距離を加重合計し、前記ターゲットスキルのスキル効果モデルの分布半径を得るステップを含む請求項に記載の情報インタラクション方法。
  6. 前記相対位置を円心とし、前記スキル効果モデルの分布半径に基づいて前記ターゲットスキルのスキル効果モデルの分布軌跡を決定する前記ステップは、
    前記ターゲットスキルのスキル効果モデルの所定分布体積を取得するステップ、
    前記スキル効果モデルの所定分布体積とスキル生成位置の数量を乗算計算し、最小スキル効果モデルの分布半径を得るステップ、
    前記ターゲットスキルのスキル効果モデルの分布半径が前記最小スキル効果モデルの分布半径以上である場合、前記相対位置を円心とし、前記スキル効果モデルの分布半径に基づいて前記ターゲットスキルのスキル効果モデルの分布軌跡を決定するステップ、及び
    前記ターゲットスキルのスキル効果モデルの分布半径が前記最小スキル効果モデルの分布半径未満である場合、前記相対位置を円心とし、前記最小スキル効果モデルの分布半径に基づいて前記ターゲットスキルのスキル効果モデルの分布軌跡を決定するステップを含む請求項に記載の情報インタラクション方法。
  7. 前記仮想ジョイスティックオブジェクトに対する移動操作が検出された場合、前記移動操作に基づいて前記ターゲットスキルの少なくとも1つのスキル生成位置を計算する前記ステップの後、さらに、
    前記少なくとも1つのスキル生成位置に前記ターゲットスキルのスキルプレビュー効果モデルを生成するステップを含み、
    前記仮想ジョイスティックオブジェクトに対する放出操作が検出された場合、前記少なくとも1つのスキル生成位置に前記ターゲットスキルのスキル効果モデルを生成する前記ステップは、
    前記仮想ジョイスティックオブジェクトに対するユーザーの放出操作が検出された場合、前記少なくとも1つのスキル生成位置において前記ターゲットスキルのスキルプレビュー効果モデルの生成を停止し、且つ前記ターゲットスキルのスキル効果モデルを生成するステップを含む請求項1に記載の情報インタラクション方法。
  8. 前記候補スキル領域は少なくとも1つの候補スキルのスキルコントローラを含み、前記候補スキル領域に対するスキル選択操作に基づいて、ターゲットスキルを決定する前記ステップは、
    前記スキルコントローラに対する選択操作に基づいて、少なくとも1つの候補スキルの中からターゲットスキルを決定するステップを含み、
    前記ゲーム画面上に仮想ジョイスティックオブジェクトを表示するステップは、
    前記ターゲットスキルのスキルコントローラ上に仮想ジョイスティックオブジェクトをオーバーレイ表示するステップを含む請求項1に記載の情報インタラクション方法。
  9. 前記ゲーム画面はさらに放出キャンセルコントローラを含み、前記ゲーム画面上に仮想ジョイスティックオブジェクトを表示する前記ステップの後、さらに、
    前記放出キャンセルコントローラに対する放出キャンセル操作が検出された場合、前記ゲーム画面において前記仮想ジョイスティックオブジェクトの表示を停止するステップを含む請求項1に記載の情報インタラクション方法。
  10. 情報インタラクション装置であって、画面ユニット、スキルユニット、ジョイスティックユニット、位置ユニット、及び生成ユニットを含み、前記位置ユニットは、現在位置サブユニット、ジョイスティックサブユニット、及び位置サブユニットを含み、前記位置サブユニットは、比率サブモジュール、相対位置サブモジュール及び生成位置サブモジュールを含み、
    前記画面ユニットは、ゲーム画面を表示することに用いられ、前記ゲーム画面は候補スキル領域を含み、
    前記スキルユニットは、前記候補スキル領域に対するスキル選択操作に基づいて、ターゲットスキルを決定することに用いられ、
    前記ジョイスティックユニットは、前記ゲーム画面上に仮想ジョイスティックオブジェクトを表示することに用いられ、前記仮想ジョイスティックオブジェクトは仮想ジョイスティックコントローラ及び所定ジョイスティック移動範囲を含み、
    前記現在位置サブユニットは、前記ターゲットスキルのスキル放出オブジェクト及び所定スキル放出範囲を決定し、前記スキル放出オブジェクトのゲーム画面での現在位置を取得することに用いられ、
    前記ジョイスティックサブユニットは、前記仮想ジョイスティックオブジェクトに対する移動操作が検出された場合、前記仮想ジョイスティックコントローラの前記所定ジョイスティック移動範囲でのジョイスティック位置を取得することに用いられ、
    前記位置サブユニットは、前記所定ジョイスティック移動範囲、ジョイスティック位置、所定スキル放出範囲及び現在位置に基づいて、前記ターゲットスキルの少なくとも1つのスキル生成位置を計算することに用いられ、
    前記比率サブモジュールは、前記所定ジョイスティック移動範囲と所定スキル放出範囲の間のインタラクション範囲比率を決定することに用いられ、
    前記相対位置サブモジュールは、前記インタラクション範囲比率及び前記ジョイスティック位置に基づき相対位置を決定することであって、前記相対位置はスキル生成位置とスキル放出オブジェクトの間の相対的な位置であることに用いられ、
    前記生成位置サブモジュールは、前記スキル放出オブジェクトのゲーム画面での現在位置に基づき、前記相対位置のゲーム画面でのスキル生成位置を決定することであって、
    前記ターゲットスキルのスキル生成位置の数量を決定すること、
    前記相対位置に基づき前記ターゲットスキルのスキル効果モデルの分布半径を計算すること、
    前記相対位置を円心とし、前記スキル効果モデルの分布半径に基づいて前記ターゲットスキルのスキル効果モデルの分布軌跡を決定すること、
    前記少なくとも1つのスキル生成位置の数量に基づいて、前記スキル効果モデルの分布軌跡上で複数のスキル効果モデル分布点を決定すること、及び
    前記スキル放出オブジェクトのゲーム画面での現在位置に基づき、前記スキル効果モデル分布点のゲーム画面での位置を前記スキル生成位置として決定することを含む、ことに用いられ、
    前記位置ユニットは、前記仮想ジョイスティックオブジェクトに対する移動操作が検出された場合、前記移動操作に基づいて前記ターゲットスキルの少なくとも1つのスキル生成位置を計算することに用いられ、
    前記生成ユニットは、前記仮想ジョイスティックオブジェクトに対する放出操作が検出された場合、前記少なくとも1つのスキル生成位置に前記ターゲットスキルのスキル効果モデルを生成することに用いられる情報インタラクション装置。
  11. 端末であって、プロセッサ及びメモリを含み、前記メモリに複数の命令が記憶されており、前記プロセッサは前記メモリから命令をロードして、請求項1~のいずれか一項に記載の情報インタラクション方法を実行する端末。
  12. コンピュータプログラムであって、コンピュータ上で動作すると、前記コンピュータに請求項1~のいずれか一項に記載の情報インタラクション方法を実行させるコンピュータプログラム。
JP2021550032A 2019-09-04 2020-08-20 情報インタラクション方法及び関連装置 Active JP7242121B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910833875.2A CN110559658B (zh) 2019-09-04 2019-09-04 信息交互方法、装置、终端以及存储介质
CN201910833875.2 2019-09-04
PCT/CN2020/110199 WO2021043000A1 (zh) 2019-09-04 2020-08-20 信息交互方法和相关装置

Publications (2)

Publication Number Publication Date
JP2022522443A JP2022522443A (ja) 2022-04-19
JP7242121B2 true JP7242121B2 (ja) 2023-03-20

Family

ID=68777795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021550032A Active JP7242121B2 (ja) 2019-09-04 2020-08-20 情報インタラクション方法及び関連装置

Country Status (7)

Country Link
US (2) US11684858B2 (ja)
EP (1) EP3919145A4 (ja)
JP (1) JP7242121B2 (ja)
KR (1) KR102602113B1 (ja)
CN (1) CN110559658B (ja)
SG (1) SG11202108571VA (ja)
WO (1) WO2021043000A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110559658B (zh) * 2019-09-04 2020-07-28 腾讯科技(深圳)有限公司 信息交互方法、装置、终端以及存储介质
CN111228805B (zh) * 2020-01-08 2023-07-14 腾讯科技(深圳)有限公司 虚拟操作对象的控制方法和装置、存储介质及电子装置
CN111530075B (zh) 2020-04-20 2022-04-05 腾讯科技(深圳)有限公司 虚拟环境的画面显示方法、装置、设备及介质
CN111589131B (zh) * 2020-04-24 2022-02-22 腾讯科技(深圳)有限公司 虚拟角色的控制方法、装置、设备及介质
CN111589134A (zh) * 2020-04-28 2020-08-28 腾讯科技(深圳)有限公司 虚拟环境画面的显示方法、装置、设备及存储介质
CN111760287B (zh) * 2020-06-30 2024-02-02 网易(杭州)网络有限公司 游戏技能的控制方法、装置、电子设备及计算机可读介质
CN111760283B (zh) * 2020-08-06 2023-08-08 腾讯科技(深圳)有限公司 虚拟对象的技能施放方法、装置、终端及可读存储介质
EP4154956A4 (en) 2021-05-14 2024-01-17 Tencent Technology (Shenzhen) Company Limited METHOD AND APPARATUS FOR CONTROLLING AVATAR, AND DEVICE AND COMPUTER READABLE RECORDING MEDIUM
CN113750518A (zh) * 2021-09-10 2021-12-07 网易(杭州)网络有限公司 技能按钮的控制方法、装置、电子设备及计算机可读介质
CN113769391B (zh) * 2021-09-27 2023-06-27 腾讯科技(深圳)有限公司 在虚拟环境中获取技能的方法、装置、设备及介质
CN114296597A (zh) * 2021-12-01 2022-04-08 腾讯科技(深圳)有限公司 虚拟场景中的对象交互方法、装置、设备及存储介质
CN114860148B (zh) * 2022-04-19 2024-01-16 北京字跳网络技术有限公司 一种交互方法、装置、计算机设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107168611A (zh) 2017-06-16 2017-09-15 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
JP2018075225A (ja) 2016-11-10 2018-05-17 株式会社Cygames 情報処理プログラム、情報処理方法、及び情報処理装置
JP2018517449A (ja) 2015-10-10 2018-07-05 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 情報処理方法、端末及びコンピュータ記憶媒体
CN109011572A (zh) 2018-08-27 2018-12-18 广州要玩娱乐网络技术股份有限公司 游戏魔法技能处理方法及存储介质、计算机设备
JP2019037783A (ja) 2017-08-28 2019-03-14 ネットイース(ハンチョウ)ネットワーク カンパニーリミテッド シューティングゲーム制御方法及び装置、記憶媒体、プロセッサ、端末
CN109745698A (zh) 2018-12-28 2019-05-14 北京金山安全软件有限公司 一种取消技能释放的方法、装置及电子设备

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9262073B2 (en) * 2010-05-20 2016-02-16 John W. Howard Touch screen with virtual joystick and methods for use therewith
KR101204244B1 (ko) * 2011-12-29 2012-12-24 (주)네오위즈게임즈 축구 게임의 캐릭터 조작 방법 및 장치
CN106033340B (zh) * 2015-03-16 2019-03-22 广州四三九九信息科技有限公司 手游战斗技能的可视化编辑方法及***
KR20180111397A (ko) * 2017-04-02 2018-10-11 둘툰 주식회사 외부 입력장치를 이용한 게임 가상 컨트롤러 생성 및 매핑 방법
CN108509139B (zh) * 2018-03-30 2019-09-10 腾讯科技(深圳)有限公司 虚拟对象的移动控制方法、装置、电子装置及存储介质
CN108771869B (zh) * 2018-06-04 2022-02-08 腾讯科技(深圳)有限公司 性能测试方法和装置、存储介质及电子装置
CN109550241B (zh) * 2018-09-20 2023-04-07 厦门吉比特网络技术股份有限公司 一种单摇杆控制方法和***
CN109550240A (zh) * 2018-09-20 2019-04-02 厦门吉比特网络技术股份有限公司 一种游戏的技能释放方法和装置
CN109568938B (zh) * 2018-11-30 2020-08-28 广州要玩娱乐网络技术股份有限公司 多资源游戏触控操作方法、装置、存储介质和终端
CN110559658B (zh) * 2019-09-04 2020-07-28 腾讯科技(深圳)有限公司 信息交互方法、装置、终端以及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018517449A (ja) 2015-10-10 2018-07-05 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 情報処理方法、端末及びコンピュータ記憶媒体
JP2018075225A (ja) 2016-11-10 2018-05-17 株式会社Cygames 情報処理プログラム、情報処理方法、及び情報処理装置
CN107168611A (zh) 2017-06-16 2017-09-15 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
JP2019037783A (ja) 2017-08-28 2019-03-14 ネットイース(ハンチョウ)ネットワーク カンパニーリミテッド シューティングゲーム制御方法及び装置、記憶媒体、プロセッサ、端末
CN109011572A (zh) 2018-08-27 2018-12-18 广州要玩娱乐网络技术股份有限公司 游戏魔法技能处理方法及存储介质、计算机设备
CN109745698A (zh) 2018-12-28 2019-05-14 北京金山安全软件有限公司 一种取消技能释放的方法、装置及电子设备

Also Published As

Publication number Publication date
CN110559658B (zh) 2020-07-28
SG11202108571VA (en) 2021-09-29
EP3919145A4 (en) 2022-05-25
US11684858B2 (en) 2023-06-27
US20230271091A1 (en) 2023-08-31
EP3919145A1 (en) 2021-12-08
CN110559658A (zh) 2019-12-13
WO2021043000A1 (zh) 2021-03-11
KR20210117329A (ko) 2021-09-28
KR102602113B1 (ko) 2023-11-13
JP2022522443A (ja) 2022-04-19
US20210138351A1 (en) 2021-05-13

Similar Documents

Publication Publication Date Title
JP7242121B2 (ja) 情報インタラクション方法及び関連装置
WO2021036581A1 (zh) 虚拟对象的控制方法和相关装置
EP3939681A1 (en) Virtual object control method and apparatus, device, and storage medium
JP7387758B2 (ja) インタフェース表示方法、装置、端末、記憶媒体及びコンピュータプログラム
CN110354489A (zh) 虚拟对象的控制方法、装置、终端及存储介质
CN104922906B (zh) 动作执行方法和装置
US20220023760A1 (en) Virtual object selection method and apparatus, device, and storage medium
WO2023020125A1 (zh) 虚拟环境画面的显示方法、装置、终端、介质及程序产品
WO2021227684A1 (en) Method for selecting virtual objects, apparatus, terminal and storage medium
CN108646917A (zh) 智能设备控制方法及装置、电子设备和介质
CN112221123B (zh) 一种虚拟对象切换方法、装置、计算机设备和存储介质
JP5838279B1 (ja) サーバ装置、サーバプログラム
CN114159788A (zh) 游戏中的信息处理方法、***、移动终端和存储介质
US12017141B2 (en) Virtual object control method and apparatus, device, and storage medium
US11978152B2 (en) Computer-assisted graphical development tools
WO2024060895A1 (zh) 用于虚拟场景的群组建立方法、装置、设备及存储介质
Wesson et al. Evaluating organic 3D sculpting using natural user interfaces with the Kinect
CN117298574A (zh) 虚拟对象的控制方法、装置、计算机设备及存储介质
CN115564916A (zh) 虚拟场景的编辑方法、装置、计算机设备及存储介质
CN115212568A (zh) 游戏引导的控制方法、装置、电子设备和可读存储介质
CN117839207A (zh) 游戏中的交互控制方法、装置、电子设备及可读存储介质
CN117815670A (zh) 场景元素协同构建方法、装置、计算机设备及存储介质
CN113082712A (zh) 虚拟角色的控制方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210826

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230302

R150 Certificate of patent or registration of utility model

Ref document number: 7242121

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150