JP7109553B2 - 追加オブジェクトの表示方法及びその、装置、コンピュータ装置並びに記憶媒体 - Google Patents

追加オブジェクトの表示方法及びその、装置、コンピュータ装置並びに記憶媒体 Download PDF

Info

Publication number
JP7109553B2
JP7109553B2 JP2020539223A JP2020539223A JP7109553B2 JP 7109553 B2 JP7109553 B2 JP 7109553B2 JP 2020539223 A JP2020539223 A JP 2020539223A JP 2020539223 A JP2020539223 A JP 2020539223A JP 7109553 B2 JP7109553 B2 JP 7109553B2
Authority
JP
Japan
Prior art keywords
display
video
screen frame
additional object
additional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020539223A
Other languages
English (en)
Other versions
JP2021511728A (ja
Inventor
仙▲敏▼ 肖
中宝 ▲張▼
▲輝▼ ▲蒋▼
文涛 王
▲鵬▼ 肖
雄志 黎
元昊 ▲張▼
▲鋒▼ 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2021511728A publication Critical patent/JP2021511728A/ja
Application granted granted Critical
Publication of JP7109553B2 publication Critical patent/JP7109553B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4438Window management, e.g. event handling following interaction with the user interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Description

(関連出願の相互参照)
本願は、2018年01月18日に提出した中国特許出願第201810050497.6号、発明の名称「追加オブジェクトの表示方法及びその、装置並びにコンピュータ装置」の優先権を主張し、上記出願の全内容が援用により本願に組み込まれている。
本願はコンピュータ応用技術分野に関し、特に追加オブジェクトの表示方法及びその、装置、コンピュータ装置並びに記憶媒体に関するものである。
ビデオ処理技術の継続的な発展に伴い、ビデオの再生効果を向上させるよう、多くのアプリケーションプログラムは追加オブジェクトを表示する機能をビデオに追加することを提供する。
関連技術において、ユーザーは追加オブジェクトを表示する機能をビデオに追加する必要がある場合、ビデオ再生インターフェースに目標位置及び追加対象の追加オブジェクトを指定し、端末が後続にビデオを再生するとき、該追加オブジェクトを該目標位置に連続表示してもよい。ところが、関連技術に示される技術案によれば、ユーザーが指定された目標位置に位置した後、追加オブジェクトのビデオでの表示位置が固定される。その結果、後続のビデオ再生過程において追加オブジェクトとビデオ再生画面とがマッチングしなくなる。
本願の実施例はビデオにおける追加オブジェクトとビデオ再生画面とをマッチングすることのできる追加オブジェクトの表示方法及びその、装置、コンピュータ装置並びに記憶媒体を提供し、技術案は以下のとおりである。
一態様に係る端末が実行する追加オブジェクトの表示方法であって、前記方法は、ビデオ再生インターフェースにトリガーコントロールを表示するステップであって、前記ビデオ再生インターフェースがビデオを再生することに用いられる、ステップと、
前記トリガーコントロールに対するアクティブ化操作に応答して、前記ビデオの再生を一時停止して、前記ビデオ再生インターフェースに参照画面フレームを表示するステップであって、前記参照画面フレームが前記ビデオにおける一時停止時点での画面フレームである、ステップと、
前記トリガーコントロールに対するドラッグ操作に応答して、目標オブジェクトを取得するステップであって、前記目標オブジェクトが前記参照画面フレームにおける前記ドラッグ操作の終了位置での表示オブジェクトである、ステップと、
前記ビデオを再生するとき、前記目標オブジェクトに対応するように前記トリガーコントロールに対応する追加オブジェクトを前記ビデオの画面フレームに表示するステップと、を含む。
一態様に係る端末に適用される追加オブジェクトの表示装置であって、前記装置は、ビデオ再生インターフェースにトリガーコントロールを表示することに用いられるコントロール表示モジュールであって、前記ビデオ再生インターフェースがビデオを再生することに用いられる、コントロール表示モジュールと、
前記トリガーコントロールに対するアクティブ化操作に応答して、前記ビデオの再生を一時停止して、前記ビデオ再生インターフェースに参照画面フレームを表示することに用いられる一時停止モジュールであって、前記参照画面フレームが前記ビデオにおける一時停止時点での画面フレームである、一時停止モジュールと、
前記トリガーコントロールに対するドラッグ操作に応答して、目標オブジェクトを取得することに用いられるオブジェクト取得モジュールであって、前記目標オブジェクトが前記参照画面フレームにおける前記ドラッグ操作の終了位置での表示オブジェクトである、オブジェクト取得モジュールと、
前記ビデオを再生するとき、前記目標オブジェクトに対応するように前記トリガーコントロールに対応する追加オブジェクトを前記ビデオの画面フレームに表示することに用いられるオブジェクト表示モジュールと、を備える。
好ましくは、前記装置は、更に、前記オブジェクト表示モジュールが前記目標オブジェクトに対応するように前記トリガーコントロールに対応する追加オブジェクトを前記ビデオに表示する前に、前記ビデオにおける各画面フレームにおいて前記目標オブジェクトを追跡して、第1表示情報を取得することに用いられる追跡モジュールであって、前記第1表示情報が前記各画面フレームにおける前記目標オブジェクトの表示位置、表示サイズ及び表示姿勢のうちの少なくとも1つを示すことに用いられる、追跡モジュールと、
前記第1表示情報に基づいて第2表示情報を生成することに用いられる情報生成モジュールであって、前記第2表示情報が前記各画面フレームにおける前記追加オブジェクトの表示位置、表示サイズ及び表示姿勢のうちの少なくとも1つを示すことに用いられる情報生成モジュールと、
前記ビデオを再生するとき、前記第2表示情報に基づき、それぞれ前記各画面フレームに前記追加オブジェクトを表示することに用いられる前記オブジェクト表示モジュールと、を備える。
好ましくは、前記第1表示情報が前記各画面フレームにおける前記目標オブジェクトの目標点のピクセル座標を含み、前記目標点が前記目標オブジェクトにおける前記ドラッグ操作の終了位置に対応する位置点であり、前記情報生成モジュールは、具体的に、前記各画面フレームにおける前記目標オブジェクトの目標点のピクセル座標及び前記追加オブジェクトと前記目標点との相対位置情報に基づき、前記各画面フレームにおける前記追加オブジェクトのピクセル座標を取得することと、前記各画面フレームにおける前記追加オブジェクトのピクセル座標を含む前記第2表示情報を生成することと、に用いられる。
好ましくは、前記装置は、更に、前記ビデオ再生インターフェースに前記追加オブジェクトのプレビュー図を表示することに用いられるプレビュー図表示モジュールと、
前記参照画面フレームにおける前記プレビュー図の表示位置を取得することに用いられる表示位置取得モジュールと、
前記参照画面フレームにおける前記プレビュー図の表示位置及び前記参照画面フレームにおける前記ドラッグ操作の終了位置に基づき、前記追加オブジェクトと前記目標点との相対位置情報を取得することに用いられる相対位置取得モジュールと、を備える。
好ましくは、前記装置は、更に、前記追加オブジェクトのプレビュー図に対するドラッグ操作に応答して、前記ビデオ再生インターフェースにおける前記追加オブジェクトのプレビュー図の位置を移動させることに用いられる移動モジュールを備える。
好ましくは、前記第1表示情報が前記各画面フレームにおける前記目標オブジェクトの表示サイズを含み、前記情報生成モジュールは、具体的に、前記各画面フレームにおける前記目標オブジェクトの表示サイズ及び前記目標オブジェクトの元のサイズに基づき、前記各画面フレームにおける前記追加オブジェクトの拡大縮小倍率を計算し、前記目標オブジェクトの元のサイズが前記参照画面フレームにおける前記目標オブジェクトの表示サイズであることと、前記追加オブジェクトの元のサイズ及び前記拡大縮小倍率に基づいて前記各画面フレームにおける前記追加オブジェクトの表示サイズを取得することと、前記各画面フレームにおける前記追加オブジェクトの表示サイズを含む前記第2表示情報を生成することと、に用いられる。
好ましくは、前記第1表示情報が前記各画面フレームにおける前記目標オブジェクトの表示位置及び表示姿勢を含み、前記情報生成モジュールは、具体的に、前記各画面フレームにおける前記目標オブジェクトの表示位置及び表示姿勢並びに前記追加オブジェクトと前記目標点との相対位置情報に基づき、前記各画面フレームにおける前記追加オブジェクトの表示位置及び表示姿勢を取得することと、前記各画面フレームにおける前記追加オブジェクトの表示位置及び表示姿勢を含む前記第2表示情報を生成することと、に用いられる。
好ましくは、前記追跡モジュールは、具体的に、前記参照画面フレームから開始して、再生時間順序及び/又は再生時間順序の逆順序で前記各画面フレームにおいて前記目標オブジェクトを1フレームずつ追跡して、前記第1表示情報を取得することに用いられる。
好ましくは、前記追跡モジュールは、具体的に、変形可能オブジェクト追跡の静的適応対応クラスタリング(CMT)アルゴリズムによって前記ビデオにおける各画面フレームにおいて前記目標オブジェクトを追跡して、前記第1表示情報を取得することに用いられる。
好ましくは、前記装置は、更に、前記トリガーコントロールに対応して、前記ビデオ再生インターフェースにスイッチコントロールを表示することに用いられるスイッチコントロール表示モジュールと、
前記スイッチコントロールに対するアクティブ化操作に応答して、追加オブジェクト選択インターフェースを表示することに用いられる選択インターフェース表示モジュールであって、前記追加オブジェクト選択インターフェースに少なくとも2つの候補オブジェクトが含まれる、選択インターフェース表示モジュールと、
前記追加オブジェクト選択インターフェースでの選択操作に応答して、前記選択操作に対応する候補オブジェクトを前記トリガーコントロールに対応する新しい追加オブジェクトとして取得することに用いられる追加オブジェクト取得モジュールと、を備える。
好ましくは、前記追加オブジェクトが静的表示オブジェクトであり、又は、前記追加オブジェクトが動的表示オブジェクトである。
一態様に係るコンピュータ装置であって、前記コンピュータ装置はプロセッサ及びメモリを備え、前記メモリに少なくとも1つの命令、少なくとも一部のプログラム、コードセット又は命令セットが記憶され、上記追加オブジェクトの表示方法を実現するよう、前記少なくとも1つの命令、前記少なくとも一部のプログラム、前記コードセット又は命令セットが前記プロセッサによりロードして実行される。
一態様に係るコンピュータ可読記憶媒体であって、前記記憶媒体に少なくとも1つの命令、少なくとも一部のプログラム、コードセット又は命令セットが記憶され、上記追加オブジェクトの表示方法を実現するよう、前記少なくとも1つの命令、前記少なくとも一部のプログラム、前記コードセット又は命令セットがプロセッサによりロードして実行される。
本願に係る技術案は以下の有益な効果を有してもよい。
ビデオ再生インターフェースに1つのトリガーコントロールを予め表示し、ユーザーの該トリガーコントロールに対するアクティブ化操作を検出した場合、ビデオの再生を一時停止してもよく、トリガーコントロールに対するドラッグ操作を受信した場合、ドラッグ操作の終了位置に対応する表示オブジェクトを目標オブジェクトとして決定し、後続の再生過程において各画面フレームにおける同様の目標オブジェクトに対応するように追加オブジェクトを表示する。これにより、ビデオ再生過程において追加オブジェクトとビデオ再生画面とがマッチングするように維持する効果を実現する。
理解すべきものは、以上の一般的な説明及び以後の詳細な説明は例示的・解釈的なものであって、本願を制限するためのものではない。
図1は本願の例示的な実施例に係る追加オブジェクトを表示する基本的なフローチャートである。 図2は図1に示される実施例に係るトリガーコントロールを表示するインターフェースを示す図である。 図3は本願の例示的な実施例に係る追加オブジェクトの表示方法のフローチャートである。 図4は図3に示される実施例に係るトリガーコントロール及び追加オブジェクトのプレビュー図を表示するインターフェースを示す図である。 図5は図3に示される実施例に係る追加オブジェクトを切り替える模式図である。 図6は図3に示される実施例に係る追加オブジェクトを拡大縮小する模式図である。 図7は図3に示される実施例に係るトリガーコントロール及び追加オブジェクトのプレビュー図を表示するインターフェースを示す図である。 図8は図3に示される実施例に係るCMTアルゴリズムの初期化プロセスを示す図である。 図9は図3に示される実施例に係るCMTアルゴリズムの各画面フレームの処理フローチャートである。 図10は図3に示される実施例に係るオブジェクトを追跡するフローチャートである。 図11は本願の例示的な実施例に係る密着追従モードの操作模式図である。 図12は本願の例示的な実施例に係る他の密着追従モードの操作模式図である。 図13は本願の例示的な実施例に係るカイトモードの操作模式図である。 図14は本願の例示的な実施例に係る他の密着追従モードの操作模式図である。 図15は本願の例示的な実施例に係る追加オブジェクトの表示装置のブロック図である。 図16は本願の例示的な実施例に係るコンピュータ装置のブロック図である。
本図面は明細書に合せられ本明細書の一部を構成し、本願に適合する実施例を示し、明細書と共に本願の原理を解釈するのに用いられる。
ここで例示的な実施例を詳しく説明し、その例を図面に示す。以下の説明は図面に関わる場合、特に示さない限り、異なる図面における同じ数字が同様又は類似の要素を示す。以下の例示的な実施例に説明される実施形態は本願に一致するすべての実施形態を代表しない。逆に、それらは添付の特許請求の範囲に詳しく説明した、本願のいくつかの態様に一致する装置及び方法の例に過ぎない。
本願に係る技術案は一定の計算能力を有し、ビデオ再生機能を持つ端末に適用されてもよい。例えば、該端末はスマートフォン、タブレットコンピュータ又は電子ブックリーダー等のモバイル端末であってもよく、又は、該端末は更にデスクトップパソコン又はノートパソコン等のパーソナルコンピュータ装置であってもよい。
本願に係る技術案を理解しやすくするために、以下に本願に関わるいくつかの用語を解釈する。
1、追加オブジェクト
本願の実施例では、追加オブジェクトはステッカー又はビデオステッカーとも称され、後期に既存のビデオ上位層に追加して表示する文字又は画像要素である。
追加オブジェクトはタイプに応じて動的オブジェクト(動的ステッカーとも称される)及び静的オブジェクト(静的ステッカーとも称される)に分けられてもよい。動的オブジェクトは自身にアニメーション効果を有するオブジェクトを指し、アニメーション表情に類似する。そして、静的オブジェクトはアニメーション効果を有しないオブジェクトを指し、静的画像に類似する。
追加オブジェクトは透明、半透明又は不透明な表示オブジェクトであってもよい。
2、画面フレーム
本願の画面フレームはビデオ再生過程においてタイムスタンプに基づいて再生する画像データを指す。
3、オブジェクト追跡
本願のオブジェクト追跡とは、ビデオの画面フレームシーケンスにおいて、1フレームの画面フレームに含まれる各表示オブジェクトのうちの指定された表示オブジェクトに対して、ビデオの画面フレームシーケンスにおける該画面フレーム以外の他の画面フレームから該指定された表示オブジェクトを見つけて、他の各画面フレームでの該指定された表示オブジェクトの位置、サイズ及び姿勢(一般的に回転角度であってもよい)等の情報を取得することを意味する。
ここで、1つの画面フレームにおける表示オブジェクトは該画面フレームにおける可視化要素を指し、例えば画面フレームにおける人物、顔、机、石、部屋、雲又は空等はいずれも該画面フレームにおける表示オブジェクトであってもよい。
4、変形可能オブジェクト追跡の静的適応対応クラスタリングアルゴリズム
変形可能オブジェクト追跡の静的適応対応クラスタリング(CMT:Clustering of Static-Adaptive Correspondences for Deformable Object Tracking)アルゴリズムは、オブジェクト追跡アルゴリズムの1つであり、ビデオシーンにおける表示オブジェクト(例えば、人又は物体)の追跡に適用されてもよい。CMTアルゴリズムは特徴による追跡方法であり、代表的な光束法をアルゴリズムの一部として使用する。
5、辞書
本願に関わる辞書はマッピング関係を有するデータを保存するための集合であり、キーバリュー(key-value)ペアを記憶するための容器として見なされてもよく、1つのキーバリューペアが1つのエントリー(entry)であると見なされてもよい。辞書はkeyによって要素をアクセスし、且つkeyが繰り返し不可能であり、valueが必ずオブジェクトでなければならず、キーバリューペアが辞書に秩序的に記憶されてもよいし、無秩序で記憶されてもよい。
図1は本願の例示的な実施例に係る追加オブジェクトを表示する基本的なフローチャートであり、該プロセスは端末により実現されてもよい。図1に示すように、該プロセスは以下のステップを含んでもよい。
ステップ11において、ビデオ再生インターフェースにトリガーコントロールを表示し、該ビデオ再生インターフェースがビデオを再生することに用いられる。
本願の実施例では、端末はビデオを再生するとき、ビデオ再生インターフェースに1つのトリガーコントロールを表示してもよく、該トリガーコントロールはビデオ再生インターフェースの上位層にフローティングされており、ユーザーの操作、例えばカーソル操作又はタッチ操作等を受け取ることができる。
例えば、図2は本願の実施例に係るトリガーコントロールを表示するインターフェースを示す図である。図2に示すように、端末はビデオ再生インターフェース20にビデオ画面21を再生し、該ビデオ画面21にトリガーコントロール22が含まれており、該トリガーコントロール22はビデオ画面21に元々含まれる表示オブジェクトではなく、端末がビデオ画面21の上位層に追加したフローティング表示されているオブジェクトである。
ステップ12において、ビデオを再生するとき、該トリガーコントロールに対するアクティブ化操作に応答して、該ビデオの再生を一時停止して、該ビデオ再生インターフェースに参照画面フレームを表示し、該参照画面フレームがビデオにおける一時停止時点での画面フレームである。
ビデオが目標オブジェクトを含む画面まで再生される場合、ユーザーはトリガーコントロールに対してアクティブ化操作(例えば、クリックタッチ操作)を実行してもよく、このとき、ユーザーが追加オブジェクトを追加すべき目標オブジェクトを選択するよう、端末はビデオの再生を一時停止してもよい。
図2に示すように、トリガーコントロール22はユーザーのクリックタッチ操作を受け取ってもよく、ユーザーのトリガーコントロール22に対するクリックタッチ操作を検出した場合、端末がビデオの再生を一時停止すると同時に、トリガーコントロール22がアクティブ化状態に入り、このとき、一時停止したビデオ画面フレームが上記参照画面フレームである。
ステップ13において、該トリガーコントロールに対するドラッグ操作に応答して、目標オブジェクトを取得し、該目標オブジェクトが該参照画面フレームにおける該ドラッグ操作の終了位置での表示オブジェクトである。
本願の実施例では、端末がユーザーのトリガーコントロールに対するアクティブ化操作に応答した後、該トリガーコントロールはユーザーのドラッグ操作を受け取ってもよく、ドラッグ操作が終了する場合、端末はドラッグ操作の終了位置に基づいて参照画面フレームにおける目標オブジェクトを取得してもよい。
図2に示すように、参照画面フレームには若干の表示オブジェクト、例えば人物オブジェクト23、家屋24及び丘25等が含まれる。トリガーコントロール22がアクティブ化状態に入った後、ユーザーはタッチスワイプ操作によってトリガーコントロール22をドラッグして、ドラッグ操作が終了する際のトリガーコントロール22の位置する箇所での表示オブジェクト(すなわち、図2における人物オブジェクト23)を目標オブジェクトとして決定してもよい。
参照画面フレームから目標オブジェクトを取得した後、端末は該ビデオにおける各画面フレームにおいて該目標オブジェクトを追跡して、第1表示情報を取得してもよく、該第1表示情報が該各画面フレームにおける該目標オブジェクトの表示位置、表示サイズ及び表示姿勢のうちの少なくとも1つを示すことに用いられ、端末は該第1表示情報に基づいて第2表示情報を生成し、該第2表示情報が該各画面フレームにおける該追加オブジェクトの表示位置、表示サイズ及び表示姿勢のうちの少なくとも1つを示すことに用いられる。
ステップ14において、該ビデオを再生するとき、該目標オブジェクトに対応するように該トリガーコントロールに対応する追加オブジェクトを該ビデオの画面フレームに表示する。
本願の実施例では、端末は目標オブジェクトを決定した後、後続に該ビデオを再生するとき、該目標オブジェクトに対応するように該トリガーコントロールに対応する追加オブジェクトをビデオ再生インターフェースに表示してもよい。該目標オブジェクトに対応するように該トリガーコントロールに対応する追加オブジェクトを表示することとは、目標オブジェクト上位層に追加オブジェクトをオーバーレイ表示することを意味してもよく、又は、目標オブジェクトの周りに追加オブジェクトを表示することを意味してもよく、又は、該目標オブジェクトのある相対位置で該追加オブジェクトを表示することを意味してもよい。
例えば、該目標オブジェクトに対応するように該トリガーコントロールに対応する追加オブジェクトを表示するとき、目標オブジェクトを決定した後、端末は該ビデオを再生するとき、上記第2表示情報に基づき、それぞれ各画面フレームに該追加オブジェクトを表示してもよい。
図2に示すように、端末は人物オブジェクト23が目標オブジェクトであると決定した後、後続に該ビデオを再生する過程において、再生した画面フレームに該人物オブジェクト23が含まれる場合、該人物オブジェクト23に対応するように追加オブジェクト24を表示する。
図1に示されるプロセスによれば、端末はビデオ再生インターフェースに1つのトリガーコントロールを予め表示し、ユーザーの該トリガーコントロールに対するアクティブ化操作を検出した場合、ビデオの再生を一時停止してもよく、後続にトリガーコントロールに対するドラッグ操作を再び受信した場合、ドラッグ操作の終了位置に対応する表示オブジェクトを目標オブジェクトとして決定し、後続の再生過程において各画面フレームにおける同様の目標オブジェクトに対応するように追加オブジェクトを表示し、これにより、ビデオ再生過程において追加オブジェクトとビデオ再生画面とがマッチングするように維持する効果を実現する。
本願の上記図1に示される実施例に係る技術案において、トリガーコントロールに対応する追加オブジェクトをビデオに表示するとき、端末は予め設定された追加オブジェクトと目標オブジェクトとの位置関係に応じて追加オブジェクトを表示してもよく、又は、端末は更にユーザーが目標オブジェクトを選択する際に設定した追加オブジェクトと目標オブジェクトとの位置関係に応じて追加オブジェクトを表示してもよい。
図3は本願の例示的な実施例に係る追加オブジェクトの表示方法のフローチャートであり、該追加オブジェクトの表示方法は端末により実行されてもよい。該方法は以下のステップを含んでもよい。
ステップ301において、ビデオ再生インターフェースにトリガーコントロールを表示する。
ステップ302において、ビデオを再生するとき、該トリガーコントロールに対するアクティブ化操作に応答して、該ビデオの再生を一時停止して、該ビデオ再生インターフェースに参照画面フレームを表示する。該参照画面フレームは、ビデオにおける一時停止時点での画面フレームである。
ステップ303において、該トリガーコントロールに対するドラッグ操作に応答して、目標オブジェクトを取得する。該目標オブジェクトは、該参照画面フレームにおける該ドラッグ操作の終了位置での表示オブジェクトである。
上記ステップ301~ステップ303に示される技術案は上記図1におけるステップ11~ステップ13を参照してもよく、ここで詳細な説明は省略する。
好ましくは、端末は更にビデオ再生インターフェースに追加オブジェクトのプレビュー図を表示する。
本願の実施例では、トリガーコントロールがアクティブ化された(つまり、該トリガーコントロールに対するアクティブ化操作を受け取った)後、該追加オブジェクトのプレビュー図がトリガーコントロールに追従してビデオ再生インターフェースを移動してもよい。
例えば、図4は本願の実施例に係るトリガーコントロール及び追加オブジェクトのプレビュー図を表示するインターフェースを示す図である。図4に示すように、端末はビデオ再生インターフェース40にビデオ画面41を再生し、該ビデオ画面41にトリガーコントロール42及び追加オブジェクトのプレビュー図43が含まれている。ユーザーのトリガーコントロール42に対するドラッグ操作を受け取った場合、トリガーコントロール42と追加オブジェクトのプレビュー図43とは、ビデオ画面41の新しい位置まで一緒に移動する。
好ましくは、トリガーコントロールに対するドラッグ操作の操作点がトリガーコントロール又は追加オブジェクトのプレビュー図に対応する領域にある。つまり、本願の実施例では、ユーザーがトリガーコントロール又は追加オブジェクトのプレビュー図において実行したドラッグ操作はいずれもトリガーコントロールに対するドラッグ操作と見なされてもよい。
例えば、図4では、ユーザーはトリガーコントロール42又は追加オブジェクトのプレビュー図43の位置する箇所からドラッグし始めるとき、いずれもトリガーコントロール42及びビデオ画面41における追加オブジェクトのプレビュー図43の位置を移動することができる。
好ましくは、端末はビデオ再生インターフェースにおいて、該トリガーコントロールに対応して、該ビデオ再生インターフェースにスイッチコントロールを表示し、該スイッチコントロールに対するアクティブ化操作に応答して、追加オブジェクト選択インターフェースを表示し、該追加オブジェクト選択インターフェースに少なくとも2つの候補オブジェクトが含まれており、該追加オブジェクト選択インターフェースでの選択操作に応答して、該選択操作に対応する候補オブジェクトを該トリガーコントロールに対応する新しい追加オブジェクトとして取得する。
好ましくは、該追加オブジェクトが静的表示オブジェクトであり、又は、該追加オブジェクトが動的表示オブジェクトである。
本願の実施例では、ユーザーは更にトリガーコントロールに対応する追加オブジェクトを自在に切り替えてもよい。例えば、図5は本願の実施例に係る追加オブジェクトを切り替える模式図である。図5に示すように、端末はビデオ再生インターフェース50にビデオ画面51を再生し、該ビデオ画面51にトリガーコントロール52、追加オブジェクトのプレビュー図53及びスイッチコントロール54が含まれており、ユーザーのスイッチコントロール54に対するクリック操作(すなわち、上記スイッチコントロールに対するアクティブ化操作)を受け取った場合、端末は追加オブジェクト選択インターフェース55を表示し、該追加オブジェクト選択インターフェース55に候補オブジェクト55a及び候補オブジェクト55bが含まれており、候補オブジェクト55aが現在の追加オブジェクトに対応する。更に、ユーザーの候補オブジェクト55bに対するクリック操作(すなわち、上記選択操作)を受け取った場合、端末は追加オブジェクトのプレビュー図53に表示している内容を候補オブジェクト55bのプレビュー図に切り替える。
好ましくは、端末はビデオ再生インターフェースに追加オブジェクトのプレビュー図を表示する場合、更に該追加オブジェクトのプレビュー図に対応するように拡大縮小コントロールを表示し、該拡大縮小コントロールに対する拡大縮小操作に応答して、該追加オブジェクトのプレビュー図を拡大縮小すると同時に、拡大縮小後の追加オブジェクトのプレビュー図のサイズを該追加オブジェクトの新しい表示サイズとして取得する。
本願の実施例では、端末はビデオ再生インターフェースにおける追加オブジェクトのプレビュー図のサイズを該追加オブジェクトの表示サイズとして記録してもよく、且つ、ユーザーは該追加オブジェクトの表示サイズを自在に拡大縮小してもよい。
例えば、図6は本願の実施例に係る追加オブジェクトを拡大縮小する模式図である。図6に示すように、端末はビデオ再生インターフェース60にビデオ画面61を再生し、該ビデオ画面61にトリガーコントロール62、追加オブジェクトのプレビュー図63及び拡大縮小コントロール66が含まれており、ユーザーの拡大縮小コントロール66に対するドラッグ操作(すなわち、上記拡大縮小コントロールに対する拡大縮小操作)を受け取った場合、端末は追加オブジェクトのプレビュー図63のサイズを調整して、調整後の追加オブジェクトのプレビュー図63のサイズを該追加オブジェクトの新しい表示サイズとして取得する。
好ましくは、端末は該参照画面フレームにおける該プレビュー図の表示位置を取得し、該参照画面フレームにおける該プレビュー図の表示位置及び該参照画面フレームにおける該ドラッグ操作の終了位置に基づき、該追加オブジェクトとドラッグ操作の終了位置との相対位置情報を取得する。
本願の実施例では、ユーザーがトリガーコントロールをドラッグする過程において、追加オブジェクトのプレビュー図がトリガーコントロールに追従して移動しなくてもよく、トリガーコントロールに対するドラッグ操作を受信した後、端末は参照画面フレームにおける該プレビュー図の位置及びドラッグ操作の終了位置に基づき、追加オブジェクトと目標点との相対位置情報を取得してもよい。
例えば、初期時刻において、トリガーコントロールがプレビュー図の左下にあり、ユーザーがトリガーコントロールをドラッグした後、トリガーコントロールがプレビュー図の左下の下方左寄り30度で200個のピクセル離れる箇所にあり、そうすると端末は追加オブジェクトと目標点との相対位置情報「目標点がプレビュー図の左下の下方左寄り30度で200ピクセル離れる箇所にある」を取得することができる。
好ましくは、端末は該追加オブジェクトのプレビュー図に対するドラッグ操作に応答して、該ビデオ再生インターフェースにおける該追加オブジェクトのプレビュー図の位置を移動する。
本願の実施例では、ユーザーはそれぞれトリガーコントロール及び追加オブジェクトのプレビュー図を位置移動してもよい。例えば、図7は本願の実施例に係るトリガーコントロール及び追加オブジェクトのプレビュー図を表示するインターフェースを示す図である。図7に示すように、端末はビデオ再生インターフェース70にビデオ画面71を再生し、該ビデオ画面71にトリガーコントロール72及び追加オブジェクトのプレビュー図73が含まれており、ユーザーのトリガーコントロール72に対するドラッグ操作を受け取った場合、トリガーコントロール72が新しい位置まで移動し、この過程において追加オブジェクトのプレビュー図73の位置が変化しないことに対応して、ユーザーのプレビュー図73に対するドラッグ操作を受け取った場合、プレビュー図73が新しい位置まで移動し、このとき、トリガーコントロール72の位置が変化しない。
ステップ304において、該ビデオにおける各画面フレームにおいて該目標オブジェクトを追跡して、第1表示情報を取得し、該第1表示情報が該各画面フレームにおける該目標オブジェクトの表示位置、表示サイズ及び表示姿勢のうちの少なくとも1つを示すことに用いられる。
上記各画面フレームはビデオにおけるすべての画面フレームであってもよく、又は、上記各画面フレームは更にビデオにおける一部の画面フレームであってもよい。例えば、上記各画面フレームがビデオにおける一部の画面フレームである場合、上記各画面フレームはビデオにおける参照画面フレームの後のすべての画面フレームであってもよく、又は、上記各画面フレームは更にビデオにおける参照画面フレームの前のすべての画面フレームであってもよく、又は、上記各画面フレームは更にビデオにおける参照画面フレームの前又は後の所定期間内の画面フレームであってもよい。
好ましくは、端末はCMTアルゴリズムによってビデオにおける各画面フレームにおいて目標オブジェクトを追跡して、該第1表示情報を取得する。
本願の実施例では、異なる端末のオペレーティングシステムに対して、追跡アルゴリズムはいずれもCMTアルゴリズムを用いてもよく、つまり本願の技術案はマルチプラットフォームをサポートすることができる。CMTアルゴリズムによって各画面フレームにおける目標オブジェクトを追跡するとき、端末はまず初期化アルゴリズム、追跡すべき画像及び追跡領域を処理し、次に後続の各画面フレームをマッチング処理する必要がある。図8及び図9に示すように、図8は本願の実施例に係るCMTアルゴリズムの初期化プロセスを示す図であり、図9は本願の実施例に係るCMTアルゴリズムの各画面フレームの処理プロセス(画面フレームにおけるマッチングする領域を見つける)を示す図である。
図8に示されるCMTアルゴリズムの初期化についての具体的な説明は以下のとおりである。
1、初期化された変数を作成し、該初期化された変数は追跡領域、初期フレームのグレースケールマップ、物体の中心位置及び結果に含まれる位置を含み、初期化された画像の特徴検出アルゴリズムは加速化断片試験による特徴抽出(FAST:Features from Accelerated Segment Test)アルゴリズムであってもよく、特徴点記述アルゴリズムはバイナリ・ロバスト不変拡張可能キーポイント(BRISK:Binary Robust Invariant Scalable Keypoints)アルゴリズムであってもよい。
2、第1フレームの画像の特徴点を検出し、該特徴点は前景点(目標選択ブロックにおける点)、背景特徴点(目標選択ブロック以外の点)を含み、前景点と背景点とを含む潜在的なデータベース(database_potential)のデータセットを構築する。
3、特徴点マッチャーmatcherを初期化し、該特徴点マッチャーは2枚の画像の特徴点をマッチングすることに用いられる。一致器を初期化し、該一致器は目標となる回転角度及び尺度因子を評価することと、目標領域の(前景点)特徴点及び番号を保存することと、に用いられる。
図9に示すように、CMTアルゴリズムによって各画面フレームを処理する過程についての説明は以下のとおりである。
1、特徴点検出(FAST)及び記述(BRISK)アルゴリズムによって現在の画像特徴点に対して特徴検出及び記述を行う。
2、以前に保存される第1フレームの目標特徴点と現在の特徴点とをグローバルマッチングして、マッチングした点を取得する。
3、光束法によって前回マッチングして得られた目標特徴点に基づいて現在のフレームにおける目標となる特徴点を予測する。
4、グローバルマッチングした点と光束法によって追跡した点とを融合する(つまり、和集合を取る)。
5、目標に対して拡大縮小及び回転の推定を行い、次にローカルマッチングする点と一致器によって計算して得られた点とを融合して目標特徴点を取得する。
一致器による計算の目的は回転及び拡大縮小によって目標領域の点を推定することである。そして、ローカルマッチングとは、現在フレームにおける検出により得られた各キーポイントと、第1フレームにおける回転及び尺度変換後のすべての前景のキーポイントとのユークリッド距離を意味する。該ユークリッド距離が閾値より小さい(例えば、閾値は、予め20に設定されてもよい)場合、該前景のキーポイントは現在フレームにおいて検出されたキーポイントにマッチングする可能性があることを意味し、つぎにこれらの可能な前景のキーポイントは、1つの特徴記述データベースdatabase_potentialを構成するために用いられる。更に現在フレームにおける検出により得られた各キーポイントの特徴記述は、knnMatchでdatabase_potentialにマッチングされ、各特徴記述子についてdatabase_potentialから複数(例えば、2つ)の最適なマッチング結果を探す。安定しないキーポイントを排除するポリシーは、グローバルマッチングのものと類似する。
上記CMTアルゴリズムによって、端末はビデオの各画面フレームに含まれる上記目標オブジェクトの位置、サイズ及び姿勢等の情報(すなわち、上記第1表示情報)を追跡してもよい。
ステップ305において、該第1表示情報に基づいて第2表示情報を生成し、該第2表示情報が該各画面フレームにおける該追加オブジェクトの表示位置、表示サイズ及び表示姿勢のうちの少なくとも1つを示すことに用いられる。
好ましくは、上記第1表示情報が該各画面フレームにおける該目標オブジェクトの目標点のピクセル座標を含み、端末は該各画面フレームにおける該目標オブジェクトの目標点のピクセル座標及び該追加オブジェクトと該目標点との相対位置情報に基づき、該各画面フレームにおける該追加オブジェクトのピクセル座標を取得して、該各画面フレームにおける該追加オブジェクトのピクセル座標を含む該第2表示情報を生成する。
本願の実施例では、第1表示情報で示される位置情報は該各画面フレームにおける目標オブジェクトの目標点のピクセル座標であってもよく、目標点はユーザーの上記トリガーコントロールに対するドラッグ操作の終了位置の目標オブジェクトでの位置点であってもよく、例えば、ユーザーが参照画面フレームにおいてトリガーコントロールを人物Aの鼻の先までドラッグする場合、該人物Aを含む各画面フレームの目標点が画面フレームにおける人物Aの鼻の先の位置する位置点であることに対応して、生成された第1表示情報にも各画面フレームにおける人物Aの鼻の先の位置する位置点のピクセル座標が含まれる。端末は後続に各画面フレームにおける人物Aの鼻の先の位置する位置点のピクセル座標及び追加オブジェクトと目標点との相対位置情報に基づき、各画面フレームにおける追加オブジェクトのピクセル座標を取得する。
好ましくは、端末は参照画面フレームにおけるプレビュー図の表示位置を取得して、該参照画面フレームにおける該プレビュー図の表示位置及び該参照画面フレームにおける該ドラッグ操作の終了位置に基づき、該追加オブジェクトと該目標点との相対位置情報を取得する。
例えば、図5では、追加オブジェクトの参照画面フレームにおけるプレビュー図の表示位置の左下が目標点(すなわち、ドラッグ後のトリガーコントロールの位置する位置点)と重なる場合、追加オブジェクトと該目標点との相対位置情報は目標点が追加オブジェクトの左下と重なることであってもよい。
好ましくは、第1表示情報が該各画面フレームにおける該目標オブジェクトの表示サイズを含み、該第1表示情報に基づいて第2表示情報を生成するとき、端末は該各画面フレームにおける該目標オブジェクトの表示サイズ及び該目標オブジェクトの元のサイズに基づき、該各画面フレームにおける該追加オブジェクトの拡大縮小倍率を計算し、該目標オブジェクトの元のサイズが該参照画面フレームにおける該目標オブジェクトの表示サイズであり、該追加オブジェクトの元のサイズ及び該拡大縮小倍率に基づいて該各画面フレームにおける該追加オブジェクトの表示サイズを取得し、該各画面フレームにおける追加オブジェクトの表示サイズを含む該第2表示情報を生成する。
本願の実施例では、異なる画面フレームにおける目標オブジェクトの表示サイズが異なる可能性があることに対応して、第2表示情報を生成するとき、追加オブジェクトを異なる画面フレームにおける目標オブジェクトのサイズの変化につれて拡大縮小させるよう、端末は各画面フレームにおける目標オブジェクトの表示サイズと目標オブジェクトの元のサイズとの倍数関係(すなわち、上記拡大縮小倍率)に基づき、追加オブジェクトの元のサイズと組み合わせて、各異なる画面フレームにおける追加オブジェクトの表示サイズを決定してもよい。
好ましくは、該第1表示情報が該各画面フレームにおける該目標オブジェクトの表示位置及び表示姿勢を含み、該第1表示情報に基づいて第2表示情報を生成するとき、端末は該各画面フレームにおける該目標オブジェクトの表示位置及び表示姿勢並びに該追加オブジェクトと該目標点との相対位置情報に基づき、該各画面フレームにおける該追加オブジェクトの表示位置及び表示姿勢を取得し、該各画面フレームにおける該追加オブジェクトの表示位置及び表示姿勢を含む該第2表示情報を生成する。
本願の実施例では、異なる画面フレームにおける目標オブジェクトの位置及び姿勢が異なる可能性があることに対応して、第2表示情報を生成するとき、追加オブジェクトの位置及び姿勢を異なる画面フレームにおける目標オブジェクトの位置及び姿勢に追従して変化(例えば、偏移)させるよう、端末は各画面フレームにおける目標オブジェクトの位置及び姿勢に基づき、各異なる画面フレームにおける追加オブジェクトの位置及び姿勢を決定してもよい。
好ましくは、該ビデオにおける各画面フレームにおいて該目標オブジェクトを追跡して、第1表示情報を取得するとき、端末は該参照画面フレームから開始して、再生時間順序及び/又は再生時間順序の逆順序で該各画面フレームにおいて該目標オブジェクトを1フレームずつ追跡して、上記第1表示情報を取得する。
本願の実施例では、端末は再生時間順序のみで参照画面フレームから開始して、参照画面フレームの後の画面フレームにおいて目標オブジェクトを追跡してもよく、又は、端末は更に再生時間順序の逆順序で参照画面フレームから開始して、参照画面フレームの前の画面フレームにおいて目標オブジェクトを追跡してもよく、又は、端末は更に再生時間順序及び再生時間順序の逆順序で参照画面フレームから開始して、それぞれ参照画面フレームの前及び後の画面フレームにおいて目標オブジェクトを追跡してもよい。
好ましくは、ビデオにおける各画面フレームにおいて目標オブジェクトを追跡するとき、参照画面フレームから開始して、参照画面フレームの前及び/又は後の所定期間内の目標オブジェクトのみを追跡してもよい。例えば、参照画面フレームの後の所定期間内の目標オブジェクトを追跡する場合を例とすれば、可能な実現方式では、端末はデフォルトの追跡時間(例えば、5s)に応じて参照画面フレームに対応する再生時点の後のデフォルトの追跡時間内に再生する画面フレームを決定して、決定された画面フレームのみにおいて目標オブジェクトを追跡してもよく、上記デフォルトの追跡時間は開発者が端末に予め設定されたものであってもよいし、ユーザーが設定したものであってもよい。
又は、他の可能な実現方式では、端末は更に参照画面フレームから開始して、再生時間順序で目標オブジェクトを1フレームずつ追跡してもよく、目標オブジェクトを追跡した場合、次の画面フレームにおいて該目標オブジェクトを追跡し続け、ある画面フレームにおいて該目標オブジェクトを追跡できない場合、端末が該目標オブジェクトに対する追跡を停止する。
ステップ306において、該ビデオを再生するとき、該第2表示情報に基づき、それぞれ該各画面フレームに該追加オブジェクトを表示する。
オブジェクトを追跡する(すなわち、第1表示情報及び第2表示情報を生成する過程)プロセス及び該各画面フレームに該追加オブジェクトを表示するプロセスは同時に行われる2つのプロセスであってもよい。図10は本願の実施例に係るオブジェクトを追跡するフローチャートであり、図10に示すように、追加オブジェクトがステッカーである場合を例とすれば、該オブジェクト追跡プロセスは以下のステップを含む。
ステップ101において、ステッカーに対応する目標オブジェクトを取得した後、追跡し始める操作(例えば、ユーザーがビデオ再生インターフェースにおけるステッカー以外の他の領域をクリックする)を検出した後に追跡し始め、ビデオ停止時のビデオフレーム画像Aを取得し、ステッカーの位置する領域Bを追跡し、画像A及び領域Bに基づいて追跡オブジェクト(順方向に同時に追跡できるよう、2つの追跡オブジェクトを含む)を初期化すると同時に、現在のビデオのタイムスタンプC及びビデオ時間Dを取得する。
ステップ102において、2つのスレッドを開始し、タイムスタンプCでビデオを同時に順方向/逆方向に復号し、一方のスレッドがタイムスタンプCから0時刻まで復号し、他方のスレッドがタイムスタンプCからビデオ時間Dまで復号する。
ステップ103において、2つのスレッドがビデオを復号して、1フレームのフレーム画像及び対応するタイムスタンプを取得することとなり、端末が各フレームの画像を追跡オブジェクトに送って追跡処理を行う。
ステップ104において、追跡処理によって2種類の結果が得られることとなり、画像において目標オブジェクトを追跡した場合、中心点及び拡大縮小値を取得することとなり、前フレームのオブジェクトに対応するタイムスタンプを押して、ステッカーが表示可能であるとマーキングして、辞書に保存する。
ステップ105において、追跡できない場合、同様にタイムスタンプを押して、ステッカーが表示不可能であるとマーキングして、辞書に保存する。
追跡が完了した後、端末はタイムスタンプkey且つ追跡データvalueの辞書を取得し、追跡データは目標オブジェクトを追跡したかどうかを示す情報(ステッカーが対応するタイムスタンプに表示されるかどうかを制御することに用いられる)を含み、更に中心点及び拡大縮小値を含み、該中心点及び拡大縮小値がステッカーの位置及びサイズの変化を制御することに用いられる。ビデオプレビューインターフェースが継続再生し、再生過程において、描画された各フレームにいずれもタイムスタンプがあり、端末はタイムスタンプに基づき、辞書には該タイムスタンプに対応する追跡データがあるかどうかを検索し、YESの場合、これらの追跡データに基づいてステッカーの属性を変化させると同時に、動的ステッカーもタイムスタンプに基づいて表示中の画像を変化させる。プレビュー時、ステッカーとビデオとが分離した2つのviewであり、このように、ステッカーを絶えず処理し、ビデオを生成して表示する際にビデオ画面とステッカーとを合成し、合成時にビデオにおける各フレームにいずれもタイムスタンプがあり、端末はこのタイムスタンプに基づいてステッカーの情報(位置、サイズ及びステッカー画像)を取得し、変化後のステッカーを生成し、次にビデオフレームと融合する。
要するに、本願の実施例の技術案では、端末はビデオ再生インターフェースに1つのトリガーコントロールを予め表示し、ユーザーの該トリガーコントロールに対するアクティブ化操作を検出した場合、ビデオの再生を一時停止してもよく、後続にトリガーコントロールに対するドラッグ操作を再び受信した場合、ドラッグ操作の終了位置に対応する表示オブジェクトを目標オブジェクトとして決定し、後続の再生過程において各画面フレームにおける同様の目標オブジェクトに対応するように追加オブジェクトを表示する。これにより、ビデオ再生過程において追加オブジェクトとビデオ再生画面とがマッチングするように維持する効果を実現する。
なお、本願の実施例の技術案では、トリガーコントロールがビデオ再生インターフェースに予め表示されているため、ユーザーはアクティブ化及びドラッグ操作によって追加オブジェクトを現在のインターフェースに追加してもよく、それにより追加オブジェクトを追加表示する効率を向上させる。
本技術案では、主にステッカー(すなわち、追加表示オブジェクト)に追従する機能及び相互作用に対して設計するとともに、物体の追跡精度の面でより高いレベルを維持している。機能の面で、本技術案は静的ステッカー及び動的ステッカーの追跡をサポートし、且つビデオ全体における目標を追跡することができ、相互作用の面で、ユーザーはネイル(すなわち、追加表示オブジェクトに対応するタッチコンポーネント)をクリックして画面を停止させてもよく、このとき、ステッカーをドラッグして目標位置を定め、任意の領域をクリックした後に追跡を処理し始め、処理を完了した後に継続再生し、再生過程において追跡データに基づいてステッカーの属性を変化させる。
動的ステッカーのリソースはアニメイテッドポータブルネットワーク グラフィックス(APNG:Animated Portable Network Graphics)のフォーマットファイルを用いてもよく、動的ステッカーを追加した後、端末はAPNGファイルを復号し、次にタイムスタンプに基づいて対応する画面フレームに描画し、ビデオ描画時のタイムスタンプに基づいてAPNGに対応する画像を見つける。APNGはPNGのビットマップアニメーション拡張であり、PNGフォーマットの動的画像効果を実現することができる。
上記図3に示される実施例の技術案はショートビデオを撮影した後にステッカー遊び方を追加するシーンに適用されてもよい。つまり、撮影後に静的又は動的ステッカーを追加して、必要に応じて追跡目標を選択し、次に密着追従モードで追跡してもよい。
上記密着追従モードはステッカー追加オブジェクトが各画面フレームにおいて目標オブジェクトに密着して表示されるモードを指す。
追加オブジェクトがステッカーである場合を例とすれば、図11は本願の例示的な実施例に係る密着追従モードの操作模式図である。図11に示すように、ステッカーの密着追従モードにおける使用方式は主に以下のステップを含む。
1、ビデオ(例えば、撮影ビデオ)を取得した後に自動的にビデオ編集インターフェースに入り、編集欄に1つのステッカー(静的又は動的)を追加する。
2、編集すべきステッカーをクリックして編集状態に入り、編集ブロックが出現する。
3、ビデオ再生過程において、選択すべき追跡目標がある場合、ユーザーは編集ブロック左下のネイルボタン(すなわち、トリガーコントロール)をクリックすると、ビデオプレビューインターフェースが再生を停止すると同時に、追跡操作過程に直観的に表示するよう、ステッカー下方に透明な灰色マスク層が出現することとなる。
4、ユーザーがステッカーをドラッグして正確に測位し、次にステッカー以外の他の領域をクリックする。
5、プレビューインターフェースにloading状態が出現することとなり、追跡処理を行い、処理を完了した後にビデオの再生が再開され、選択中のステッカーも追跡データに基づいて位置及びサイズの変化を行うこととなる。
ステッカーの密着追従モードは実際の使用過程において顔を選択し、顔を遮る役割を果たし、且つ動的ステッカーによって娯楽化されたビデオ画面を作り、顔を遮る以外に、他のシーン、例えば物体を遮る等に使用されてもよい。
図12は本願の例示的な実施例に係る他の密着追従モードの操作模式図であり、図12に示すように、ビデオ再生過程において、画面上位層に1つのネイルのアイコン(すなわち、トリガーコントロール)及びステッカーを表示する。ユーザーがネイルをクリックすると、ビデオの再生が一時停止し、このとき、画面が停止する。画面が停止した後、ステッカーが追従する目標(すなわち、図12における人物の頭)を選択するよう、ユーザーは停止した画面においてステッカーをドラッグしてもよい。ユーザーが停止した画面におけるステッカーとネイルとを除く他の領域をクリックすると、ビデオの再生が再開され、且つステッカーが選択された目標(人物の頭)に追従して運動し始める。
上記図3に示される実施例の技術案は更にショートビデオを撮影した後にステッカー遊び方を追加するシーンに適用されてもよい。つまり、撮影後に静的又は動的ステッカーを追加して、必要に応じて追跡目標を選択し、次にカイトモードにおける追跡を行ってもよい。
カイトモードはステッカーが目標オブジェクトに追従して一緒に移動変化するが、目標オブジェクトを遮ることがないモードを意味し、密着追従モードは厳格的にはカイトモードにおける1つの特別なシーンにまとめられてもよく、測位追跡目標領域がステッカーそのものの位置する領域であるが、カイトモードにおける選択中の領域が随意にドラッグされてもよく、ステッカーが選択中の領域の相対位置情報に基づいて位置及びサイズを適切に変化させるだけであり、図13は本願の例示的な実施例に係るカイトモードの操作模式図である。図13に示すように、カイトモードは以下のとおりである。
1、ビデオ(例えば、撮影されたビデオ)を取得した後に自動的にビデオ編集インターフェースに入り、編集欄に1つのステッカー(静的又は動的)を追加する。
2、編集すべきステッカーをクリックして編集状態に入り、編集ブロックが出現する。
3、ビデオ再生過程において、選択すべき追跡目標がある場合、ユーザーは編集ブロック左下のネイルボタン(すなわち、トリガーコントロール)をクリックしてもよく、ビデオプレビューインターフェースが再生を停止すると同時に、追跡操作過程に直観的に表示するよう、ステッカー下方に透明な灰色マスク層が出現することとなる。
4、ユーザーがネイルをドラッグすると、ネイルが選択状態でステッカーから独立したままドラッグされ、追跡すべき目標の上方にドラッグされると同時に、ステッカーをドラッグして正確に測位し、端末がステッカーとネイルとの相対位置を処理し、次にユーザーがステッカー以外の他の領域をクリックする。
5、プレビューインターフェースにloading状態が出現することとなり、追跡処理を行い、処理を完了した後にビデオの再生が再開され、選択中のステッカーも追跡データに基づいて位置及びサイズを変化させることとなる。
ステッカーのカイトモードは使用シーンにおいて、1つの動的ステッカーが追跡目標、例えば建物を追跡する目標に基づくように選択してもよく、このとき、建物等をマーキングするよう、ステッカーが地理位置の識別子として表示される。
図14は本願の例示的な実施例に係る他のカイトモードの操作模式図であり、図14に示すように、ビデオ再生過程において、画面上位層に1つのネイルのアイコン(すなわち、トリガーコントロール)及びステッカーを表示する。図12と異なるのは、図14に示されるモードにおいて、画面が停止した場合、ユーザーがネイルを押さえると、該ネイルがステッカーから離れてユーザーにドラッグされることが可能であり、ユーザーがステッカーに対応する目標を選択するようにネイルをドラッグするとき、ネイルとステッカーとの相対位置関係を示すよう、ネイルとステッカーとの間に1本の接続線を表示してもよいということである。ユーザーはドラッグを完了して指を離すと、ネイルが点滅するアニメーション形式で表示され、ユーザーが停止した画面におけるステッカーとネイルとを除く他の領域をクリックした後、ビデオの再生が再開され、且つステッカーが選択された目標に追従してカイトと類似の形式で運動し始める。
本願の技術案はビデオ編集段階に追加オブジェクトを追加表示する効率がより低いという問題を解決することを目的とし、ユーザーに2種類の追跡モード(密着追従モード及びカイトモード)を提供することができ、フレンドリーな操作を提供することにより追跡目標を正確に選択することができ、ショートビデオにおけるどのタイムスタンプで追跡目標を選択したかにかかわらず、いずれもショートビデオ全体を追跡することとなる。動的ステッカーの追跡能力をサポートし、娯楽性を向上させるように確保するとともに、追跡精度も確保すべきである。
図15は例示的な実施例に係る追加オブジェクトの表示装置のブロック図である。図1又は図3のいずれか1つの実施例に示される方法の全部又は一部のステップを実行するよう、該バーチャルオブジェクト制御装置は端末に適用されてもよい。該追加オブジェクトの表示装置は、
ビデオ再生インターフェースにトリガーコントロールを表示することに用いられるコントロール表示モジュール1501であって、前記ビデオ再生インターフェースがビデオを再生することに用いられる、コントロール表示モジュール1501と、
前記ビデオ再生インターフェースに参照画面フレームを表示するよう、前記トリガーコントロールに対するアクティブ化操作に応答して、前記ビデオの再生を一時停止することに用いられる一時停止モジュール1502であって、前記参照画面フレームが前記ビデオにおける一時停止時点での画面フレームである、一時停止モジュール1502と、
前記トリガーコントロールに対するドラッグ操作に応答して、目標オブジェクトを取得することに用いられるオブジェクト取得モジュール1503であって、前記目標オブジェクトが前記参照画面フレームにおける前記ドラッグ操作の終了位置での表示オブジェクトである、オブジェクト取得モジュール1503と、
前記ビデオを再生するとき、前記目標オブジェクトに対応するように前記トリガーコントロールに対応する追加オブジェクトを前記ビデオの画面フレームに表示することに用いられるオブジェクト表示モジュール1504と、を備えてもよい。
好ましくは、前記装置は、更に、前記オブジェクト表示モジュール1504が前記目標オブジェクトに対応するように前記トリガーコントロールに対応する追加オブジェクトを前記ビデオに表示する前に、前記ビデオにおける各画面フレームにおいて前記目標オブジェクトを追跡して、第1表示情報を取得することに用いられる追跡モジュールであって、前記第1表示情報が前記各画面フレームにおける前記目標オブジェクトの表示位置、表示サイズ及び表示姿勢のうちの少なくとも1つを示すことに用いられる、追跡モジュールと、
前記第1表示情報に基づいて第2表示情報を生成することに用いられる情報生成モジュールであって、前記第2表示情報が前記各画面フレームにおける前記追加オブジェクトの表示位置、表示サイズ及び表示姿勢のうちの少なくとも1つを示すことに用いられる、情報生成モジュールと、
具体的に、前記ビデオを再生するとき、前記第2表示情報に基づき、それぞれ前記各画面フレームに前記追加オブジェクトを表示することに用いられる前記オブジェクト表示モジュール1504と、を備える。
好ましくは、前記第1表示情報が前記各画面フレームにおける前記目標オブジェクトの目標点のピクセル座標を含み、前記目標点が前記目標オブジェクトにおける前記ドラッグ操作の終了位置に対応する位置点であり、前記情報生成モジュールは、具体的に、
前記各画面フレームにおける前記目標オブジェクトの目標点のピクセル座標及び前記追加オブジェクトと前記目標点との相対位置情報に基づき、前記各画面フレームにおける前記追加オブジェクトのピクセル座標を取得することと、
前記各画面フレームにおける前記追加オブジェクトのピクセル座標を含む前記第2表示情報を生成することと、に用いられる。
好ましくは、前記装置は、更に、前記ビデオ再生インターフェースに前記追加オブジェクトのプレビュー図を表示することに用いられるプレビュー図表示モジュールと、
前記参照画面フレームにおける前記プレビュー図の表示位置を取得することに用いられる表示位置取得モジュールと、
前記参照画面フレームにおける前記プレビュー図の表示位置及び前記参照画面フレームにおける前記ドラッグ操作の終了位置に基づき、前記追加オブジェクトと前記目標点との相対位置情報を取得することに用いられる相対位置取得モジュールと、を備える。
好ましくは、前記装置は、更に、前記追加オブジェクトのプレビュー図に対するドラッグ操作に応答して、前記ビデオ再生インターフェースにおける前記追加オブジェクトのプレビュー図の位置を移動させることに用いられる移動モジュールを備える。
好ましくは、前記第1表示情報が前記各画面フレームにおける前記目標オブジェクトの表示サイズを含み、前記情報生成モジュールは、具体的に、
前記各画面フレームにおける前記目標オブジェクトの表示サイズ及び前記目標オブジェクトの元のサイズに基づき、前記各画面フレームにおける前記追加オブジェクトの拡大縮小倍率を計算し、前記目標オブジェクトの元のサイズが前記参照画面フレームにおける前記目標オブジェクトの表示サイズであることと、
前記追加オブジェクトの元のサイズ及び前記拡大縮小倍率に基づいて前記各画面フレームにおける前記追加オブジェクトの表示サイズを取得することと、
前記各画面フレームにおける前記追加オブジェクトの表示サイズを含む前記第2表示情報を生成することと、に用いられる。
好ましくは、前記第1表示情報が前記各画面フレームにおける前記目標オブジェクトの表示位置及び表示姿勢を含み、前記情報生成モジュールは、具体的に、
前記各画面フレームにおける前記目標オブジェクトの表示位置及び表示姿勢並びに前記追加オブジェクトと前記目標点との相対位置情報に基づき、前記各画面フレームにおける前記追加オブジェクトの表示位置及び表示姿勢を取得することと、
前記各画面フレームにおける前記追加オブジェクトの表示位置及び表示姿勢を含む前記第2表示情報を生成することと、に用いられる。
好ましくは、前記追跡モジュールは、具体的に、前記参照画面フレームから開始して、再生時間順序及び/又は再生時間順序の逆順序で前記各画面フレームにおいて前記目標オブジェクトを1フレームずつ追跡して、前記第1表示情報を取得することに用いられる。
好ましくは、前記追跡モジュールは、具体的に、変形可能オブジェクト追跡の静的適応対応クラスタリング(CMT)アルゴリズムによって前記ビデオにおける各画面フレームにおいて前記目標オブジェクトを追跡して、前記第1表示情報を取得することに用いられる。
好ましくは、前記装置は、更に、前記トリガーコントロールに対応して、前記ビデオ再生インターフェースにスイッチコントロールを表示することに用いられるスイッチコントロール表示モジュールと、
前記スイッチコントロールに対するアクティブ化操作に応答して、追加オブジェクト選択インターフェースを表示することに用いられる選択インターフェース表示モジュールであって、前記追加オブジェクト選択インターフェースに少なくとも2つの候補オブジェクトが含まれる、選択インターフェース表示モジュールと、
前記追加オブジェクト選択インターフェースでの選択操作に応答して、前記選択操作に対応する候補オブジェクトを前記トリガーコントロールに対応する新しい追加オブジェクトとして取得することに用いられる追加オブジェクト取得モジュールと、を備える。
好ましくは、前記追加オブジェクトが静的表示オブジェクトであり、又は、前記追加オブジェクトが動的表示オブジェクトである。
図16は本願の例示的な実施例に係る端末1600のブロック図である。該端末1600はスマートフォン、タブレットコンピュータ、MP3プレーヤー(Moving Picture Experts Group Audio Layer III、動画専門家集団圧縮規格オーディオレイヤ3)、MP4(Moving Picture Experts Group Audio Layer IV、動画専門家集団圧縮規格オーディオレイヤ4)プレーヤー、ノートパソコン又はデスクトップパソコンであってもよい。端末1600は更にユーザー装置、携帯式端末、ラップトップ端末、デスクトップ端末等の他の名称と呼ばれる可能性がある。
一般的に、端末1600はプロセッサ1601及びメモリ1602を備える。
プロセッサ1601は1つ又は複数の処理コア、例えば4コアプロセッサ、8コアプロセッサ等を含んでもよい。プロセッサ1601はDSP(Digital Signal Processing、デジタル信号処理)、FPGA(Field-Programmable Gate Array、フィールドプログラマブルゲートアレイ)、PLA(Programmable Logic Array、プログラマブルロジックアレイ)のうちの少なくとも1つのハードウェア形式で実現されてもよい。プロセッサ1601は更にメインプロセッサ及びコプロセッサを含んでもよく、メインプロセッサはウェイクアップ状態におけるデータを処理するためのプロセッサであって、CPU(Central Processing Unit、中央処理装置)とも称されるが、コプロセッサは待機状態におけるデータを処理するための低消費電力プロセッサである。いくつかの実施例では、プロセッサ1601はGPU(Graphics Processing Unit、グラフィックス処理ユニット)に統合されてもよく、GPUはディスプレイに表示すべき内容の描画及びレンダリングを担うことに用いられる。いくつかの実施例では、プロセッサ1601は更にAI(Artificial Intelligence、人工知能)プロセッサを含んでもよく、該AIプロセッサは機械学習に関連する計算操作を処理することに用いられる。
メモリ1602は1つ又は複数のコンピュータ可読記憶媒体を含んでもよく、該コンピュータ可読記憶媒体は非一時的なものであってもよい。メモリ1602は更に高速ランダムアクセスメモリと、不揮発性メモリ例えば1つ又は複数のディスクストレージデバイス、フラッシュストレージデバイスとを含んでもよい。いくつかの実施例では、メモリ1602の非一時的コンピュータ可読記憶媒体は少なくとも1つの命令を記憶することに用いられ、本願の方法実施例に係る追加オブジェクトの表示方法を実現するよう、該少なくとも1つの命令がプロセッサ1601により実行される。
いくつかの実施例では、端末1600は更に周辺装置インターフェース1603及び少なくとも1つの周辺装置を含むことが好ましい。プロセッサ1601、メモリ1602及び周辺装置インターフェース1603がバス又は信号線によって接続されてもよい。各周辺装置がバス、信号線又は回路基板によって周辺装置インターフェース1603に接続されてもよい。具体的に、周辺装置は無線周波数回路1604、タッチスクリーン1605、カメラ1606、オーディオ回路1607、測位コンポーネント1608及び電源1609のうちの少なくとも1つを含む。
周辺装置インターフェース1603はI/O(Input/Output、入力/出力)に関連する少なくとも1つの周辺装置をプロセッサ1601及びメモリ1602に接続することに用いられてもよい。いくつかの実施例では、プロセッサ1601、メモリ1602及び周辺装置インターフェース1603が同じチップ又は回路基板に統合され、他のいくつかの実施例では、プロセッサ1601、メモリ1602及び周辺装置インターフェース1603のうちのいずれか1つ又は2つがチップ又は回路基板において独立して実現されてもよく、本実施例は制限しない。
無線周波数回路1604は電磁信号とも称されるRF(Radio Frequency、無線周波数)信号を送受信することに用いられる。無線周波数回路1604が電磁信号によって通信ネットワーク及び他の通信装置と通信する。無線周波数回路1604が電気信号を電磁信号に変換して送信し、又は、受信された電磁信号を電気信号に変換する。好ましくは、無線周波数回路1604はアンテナシステム、RF送受信機、1つ又は複数の増幅器、チューナー、発振器、デジタル信号プロセッサ、符号復号チップセット、加入者識別モジュールカード等を含む。無線周波数回路1604が少なくとも1種類の無線通信プロトコルによって他の端末と通信する。該無線通信プロトコルはワールドワイドウェブ、メトロポリタンエリアネットワーク、イントラネット、各世代の移動通信ネットワーク(2G、3G、4G及び5G)、無線ローカルエリヤネットワーク及び/又はWiFi(Wireless Fidelity、ワイヤレスフィデリティ)ネットワークを含むが、それらに限らない。いくつかの実施例では、無線周波数回路1604は更にNFC(Near Field Communication、近距離無線通信)に関連する回路を含んでもよく、本願は制限しない。
ディスプレイ1605はUI(User Interface、ユーザーインターフェース)を表示することに用いられる。該UIは図形、テキスト、アイコン、ビデオ及びそれらの任意の組み合わせを含んでもよい。ディスプレイ1605がタッチスクリーンである場合、ディスプレイ1605は更にディスプレイ1605の表面又は表面上方でのタッチ信号を収集する能力を有する。該タッチ信号は制御信号としてプロセッサ1601に入力して処理されてもよい。このとき、ディスプレイ1605は更にソフトボタン及び/又はソフトキーボードとも称されるバーチャルボタン及び/又はバーチャルキーボードを提供することに用いられる。いくつかの実施例では、ディスプレイ1605は1つであってもよく、端末1600のフロントパネルに設置され、他のいくつかの実施例では、ディスプレイ1605は少なくとも2つであってもよく、それぞれ端末1600の異なる表面に設置され又は折り畳み設計され、別のいくつかの実施例では、ディスプレイ1605はフレキシブルディスプレイであってもよく、端末1600の湾曲表面又は折り畳み面に設置される。ひいては、ディスプレイ1605は更に矩形ではない不規則な図形、すなわち異形スクリーンに設置されてもよい。ディスプレイ1605はLCD(Liquid Crystal Display、液晶ディスプレイ)、OLED(Organic Light-Emitting Diode、有機発光ダイオード)等の材質で製造されてもよい。
カメラコンポーネント1606は画像又はビデオを収集することに用いられる。好ましくは、カメラコンポーネント1606は前置カメラ及び後置カメラを含む。一般的に、前置カメラが端末のフロントパネルに設置されるが、後置カメラが端末の背面に設置される。いくつかの実施例では、主カメラ及び被写界深度カメラの融合による背景ボケ機能、主カメラ及び広角カメラの融合によるパノラマ撮影及びVR(Virtual Reality、仮想現実)撮影機能又は他の融合撮影機能を実現するよう、後置カメラは少なくとも2つであり、それぞれ主カメラ、被写界深度カメラ、広角カメラ、望遠カメラのうちのいずれか1つである。いくつかの実施例では、カメラコンポーネント1606は更にフラッシュを含んでもよい。フラッシュはモノクロ温度フラッシュであってもよいし、デュアル色温度フラッシュであってもよい。デュアル色温度フラッシュは暖光フラッシュ及び冷光フラッシュの組み合わせを指し、異なる色温度における光補償に使用されてもよい。
オーディオ回路1607はマイクロフォン及び拡声器を含んでもよい。マイクロフォンはユーザー及び環境の音波を収集して、音波を電気信号に変換してプロセッサ1601に入力して処理し、又は音声通信を実現するように無線周波数回路1604に入力することに用いられる。ステレオ収集又は騒音低減のため、マイクロフォンは複数であってもよく、それぞれ端末1600の異なる箇所に設置される。マイクロフォンは更にアレイマイクロフォン又は全方向収集型のマイクロフォンであってもよい。拡声器はプロセッサ1601又は無線周波数回路1604からの電気信号を音波に変換することに用いられる。拡声器は従来の薄膜拡声器であってもよいし、圧電セラミック拡声器であってもよい。拡声器が圧電セラミック拡声器である場合、距離測定等の用途に使用されるよう、電気信号を人間の聞こえる音波に変換することができるだけでなく、電気信号を人間の聞こえない音波に変換することもできる。いくつかの実施例では、オーディオ回路1607は更にヘッドホンジャックを含んでもよい。
ナビゲーション又はLBS(Location Based Service、位置情報サービス)を実現するよう、測位コンポーネント1608は端末1600の現在の地理位置を測位することに用いられる。測位コンポーネント1608は米国のGPS(Global Positioning System、全地球測位システム)、中国の北斗システム又はロシアのガリレオシステムに基づく測位コンポーネントであってもよい。
電源1609は端末1600の各コンポーネントに給電することに用いられる。電源1609は交流電流、直流電流、一次電池又は可充電電池であってもよい。電源1609が可充電電池を含む場合、該可充電電池は有線充電電池又はインダクティブ充電電池であってもよい。有線充電電池は有線回線により充電される電池であるが、インダクティブ充電電池はワイヤレスコイルにより充電される電池である。該可充電電池は更に急速充電技術をサポートすることに用いられてもよい。
いくつかの実施例では、端末1600は更に1つ又は複数のセンサ1610を備える。該1つ又は複数のセンサ1610は加速度センサ1611、ジャイロセンサ1612、圧力センサ1613、指紋センサ1614、光センサ1615及び近接センサ1616を含むが、それらに限らない。
加速度センサ1611は端末1600の確立した座標系の3つの座標軸における加速度サイズを検出してもよい。例えば、加速度センサ1611は3つの座標軸での重力加速度の成分を検出することに用いられてもよい。プロセッサ1601は加速度センサ1611の収集した重力加速度信号に基づき、タッチスクリーン1605が水平ビュー又は垂直ビューでユーザーインターフェースの表示を行うように制御してもよい。加速度センサ1611は更にゲーム又はユーザーの運動データを収集することに用いられてもよい。
ジャイロセンサ1612は端末1600の本体方向及び回転角度を検出することができ、ジャイロセンサ1612は加速度センサ1611と協働してユーザーの端末1600に対する3Dアクションを収集することができる。プロセッサ1601はジャイロセンサ1612の収集したデータに基づき、アクションセンシング(例えば、ユーザーの傾斜操作によってUIを変化させる)、撮影時の画像の安定化、ゲーム制御及び慣性ナビゲーション機能を実現することができる。
圧力センサ1613は端末1600の側枠及び/又はタッチスクリーン1605の下位層に設置されてもよい。圧力センサ1613が端末1600の側枠に設置される場合、ユーザーの端末1600に対する把持信号を検出し、プロセッサ1601が圧力センサ1613の収集した把持信号に基づいて左手・右手の識別又はショートカット操作を行ってもよい。圧力センサ1613がタッチスクリーン1605の下位層に設置される場合、プロセッサ1601がユーザーのタッチスクリーン1605に対する圧力操作によってUIインターフェースにおける実行可能なコントロールに対する制御を実現する。実行可能なコントロールはボタンコントロール、スクロールバーコントロール、アイコンコントロール、メニューコントロールのうちの少なくとも1つを含む。
指紋センサ1614はユーザーの指紋を収集することに用いられ、プロセッサ1601が指紋センサ1614の収集した指紋に基づいてユーザーの身分を識別し、又は、指紋センサ1614が収集された指紋に基づいてユーザーの身分を識別する。ユーザーの身分が信頼できる身分であると識別される場合、プロセッサ1601は該ユーザーが関連する敏感な操作を実行することを許可し、該敏感な操作はスクリーンをロック解除する、暗号化された情報を表示する、ソフトウェアをダウンロードする、支払及び設置を変更する等を含む。指紋センサ1614は端末1600の正面、背面又は側面に設置されてもよい。端末1600に物理ボタン又はメーカーLogoが設置される場合、指紋センサ1614は物理ボタン又はメーカーLogoと一体に統合されてもよい。
光センサ1615は環境光強度を収集することに用いられる。一実施例では、プロセッサ1601は光センサ1615の収集した環境光強度に基づき、タッチスクリーン1605の表示輝度を制御することができる。具体的に、環境光強度がより高い場合、タッチスクリーン1605の表示輝度を高くし、環境光強度がより低い場合、タッチスクリーン1605の表示輝度を低くする。他の実施例では、プロセッサ1601は更に光センサ1615の収集した環境光強度に基づき、カメラコンポーネント1606の撮影パラメータを動的に調整してもよい。
近接センサ1616は距離センサとも称され、一般的に端末1600のフロントパネルに設置される。近接センサ1616はユーザーと端末1600の正面との間の距離を収集することに用いられる。一実施例では、近接センサ1616はユーザーと端末1600の正面との間の距離が徐々に短くなると検出する場合、プロセッサ1601はタッチスクリーン1605が画面点灯状態から画面消灯状態に切り替えるように制御し、近接センサ1616はユーザーと端末1600の正面との間の距離が徐々に長くなると検出する場合、プロセッサ1601はタッチスクリーン1605が画面消灯状態から画面点灯状態に切り替えるように制御する。
当業者であれば理解されるように、図16に示される構造は端末1600を制限するものではなく、図示より多く又は少ないコンポーネントを備え、又はいくつかのコンポーネントを組み合わせ、又は異なるコンポーネントを用いて配置してもよい。
例示的な実施例では、更に命令を含む非一時的コンピュータ可読記憶媒体、例えば少なくとも1つの命令、少なくとも一部のプログラム、コードセット又は命令セットを含むメモリを提供し、上記図1又は図3におけるいずれか1つの実施例の方法の全部又は一部のステップを完了するよう、上記少なくとも1つの命令、少なくとも一部のプログラム、コードセット又は命令セットがプロセッサにより実行されてもよい。例えば、前記非一時的コンピュータ可読記憶媒体はROM、ランダムアクセスメモリ(RAM)、CD-ROM、磁気テープ、フロッピーディスク及び光データ記憶装置等であってもよい。
当業者が明細書を考慮し及びここで開示される発明を実践した後、本願の他の実施形態に容易に想到し得る。本願は本願のいかなる変形、用途又は適応変化を含むように意図され、これらの変形、用途又は適応変化は本願の一般的な原理に従い本願に開示されていない本技術分野における周知技術又は慣用の技術手段を含むものである。明細書及び実施例は例示的なものであると見なされ、本願の真の範囲及び精神は以下の特許請求の範囲によって示される。
理解すべきものは、本願は以上に説明されて図面に示される正確な構造に制限されるものではなく、その範囲を逸脱せずに種々の修正や変更を行うことができる。本願の範囲は単に添付の特許請求の範囲により制限される。
1600 端末
1601 プロセッサ
1602 メモリ
1603 周辺装置インターフェース
1604 無線周波数回路
1605 ディスプレイ
1606 カメラコンポーネント
1607 オーディオ回路
1608 測位コンポーネント
1609 電源
1610 センサ
1611 加速度センサ
1612 ジャイロセンサ
1613 圧力センサ
1614 指紋センサ
1615 光センサ
1616 近接センサ

Claims (15)

  1. 端末における追加オブジェクトの表示方法であって、
    ビデオを再生するとき、ビデオ再生インターフェースにユーザの操作を受け取ることが可能なトリガーコントロールを表示する第1のステップと、
    前記トリガーコントロールに対するアクティブ化操作に応答して前記ビデオの再生を一時停止し、前記ビデオ再生インターフェースに参照画面フレームを表示する第2のステップであって、前記参照画面フレームが前記ビデオにおける一時停止時点での画面フレームである、ステップと、
    前記トリガーコントロールに対するドラッグ操作に応答して、前記参照画面フレームにおける前記ドラッグ操作の終了位置での表示オブジェクトである目標オブジェクトを取得する第3のステップと
    前記ビデオの再生の一時停止を解除するとき、前記目標オブジェクトに対応するように前記トリガーコントロールに対応する追加オブジェクトを前記ビデオの画面フレームに表示する第4のステップであって、前記追加オブジェクトは、文字または画像要素である、ステップと、を含む、前記追加オブジェクトの表示方法。
  2. 前記第4のステップの前に、更に、
    前記ビデオにおける各画面フレームにおいて前記目標オブジェクトを追跡して、第1表示情報を取得する第5のステップであって、前記第1表示情報が前記各画面フレームにおける前記目標オブジェクトの表示位置、表示サイズ及び表示姿勢のうちの少なくとも1つを示すことに用いられる、ステップと、
    前記第1表示情報に基づいて第2表示情報を生成する第6のステップであって、前記第2表示情報が前記各画面フレームにおける前記追加オブジェクトの表示位置、表示サイズ及び表示姿勢のうちの少なくとも1つを示すことに用いられる、ステップと、を含み、
    前記第4のステップは、
    前記ビデオの一時停止を解除するとき、前記第2表示情報に基づいて前記各画面フレームに前記追加オブジェクトをそれぞれ表示するステップを含む
    請求項1に記載の方法。
  3. 前記第1表示情報が前記各画面フレームにおける前記目標オブジェクトの目標点のピクセル座標を含み、前記目標点が前記目標オブジェクトにおける前記ドラッグ操作の終了位置に対応する位置点であり、
    前記第6のステップは、
    前記各画面フレームにおける前記目標オブジェクトの目標点のピクセル座標及び前記追加オブジェクトと前記目標点との相対位置情報に基づき、前記各画面フレームにおける前記追加オブジェクトのピクセル座標を取得する第7のステップと、
    前記各画面フレームにおける前記追加オブジェクトのピクセル座標を含む前記第2表示情報を生成する第8のステップと、を含む
    請求項2に記載の方法。
  4. 前記方法は、更に、
    前記ビデオ再生インターフェースに前記追加オブジェクトのプレビュー図を表示する第9のステップと、
    前記参照画面フレームにおける前記プレビュー図の表示位置を取得する第10のステップと、
    前記参照画面フレームにおける前記プレビュー図の表示位置及び前記参照画面フレームにおける前記ドラッグ操作の終了位置に基づき、前記追加オブジェクトと前記目標点との相対位置情報を取得する第11のステップと、を含むことを特徴とする
    請求項3に記載の方法。
  5. 前記方法は、更に、
    前記追加オブジェクトのプレビュー図に対するドラッグ操作に応答して前記ビデオ再生インターフェースにおける前記追加オブジェクトのプレビュー図の位置を移動させる第12のステップを含む
    請求項4に記載の方法。
  6. 前記第1表示情報が前記各画面フレームにおける前記目標オブジェクトの表示サイズを含み、
    前記第6のステップは、
    前記各画面フレームにおける前記目標オブジェクトの表示サイズ及び前記目標オブジェクトの元のサイズに基づき、前記各画面フレームにおける前記追加オブジェクトの拡大縮小倍率を計算する第13のステップであって、前記目標オブジェクトの元のサイズが前記参照画面フレームにおける前記目標オブジェクトの表示サイズであるステップと、
    前記追加オブジェクトの元のサイズ及び前記拡大縮小倍率に基づいて前記各画面フレームにおける前記追加オブジェクトの表示サイズを取得する第14のステップと、
    前記各画面フレームにおける前記追加オブジェクトの表示サイズを含む前記第2表示情報を生成する第15のステップと、を含むことを特徴とする
    請求項2に記載の方法。
  7. 前記第1表示情報が前記各画面フレームにおける前記目標オブジェクトの表示位置及び表示姿勢を含み、
    前記第6のステップは、
    前記各画面フレームにおける前記目標オブジェクトの表示位置及び表示姿勢並びに前記追加オブジェクトと前記目標点との相対位置情報に基づき、前記各画面フレームにおける前記追加オブジェクトの表示位置及び表示姿勢を取得する第16のステップと、
    前記各画面フレームにおける前記追加オブジェクトの表示位置及び表示姿勢を含む前記第2表示情報を生成する第17のステップと、を含むことを特徴とする
    請求項に記載の方法。
  8. 前記第5のステップは、
    前記参照画面フレームから開始して、再生時間順序及び/又は再生時間順序の逆順序で前記各画面フレームにおいて前記目標オブジェクトを1フレームずつ追跡して、前記第1表示情報を取得する第18のステップを含むことを特徴とする
    請求項2に記載の方法。
  9. 前記第5のステップは、
    変形可能オブジェクト追跡の静的適応対応クラスタリング(CMT)アルゴリズムによって前記ビデオにおける各画面フレームにおいて前記目標オブジェクトを追跡して、前記第1表示情報を取得する第19のステップを含むことを特徴とする
    請求項2に記載の方法。
  10. 前記方法は、更に、
    前記トリガーコントロールに対応して、前記ビデオ再生インターフェースにスイッチコントロールを表示する第20のステップと、
    前記スイッチコントロールに対するアクティブ化操作に応答して、追加オブジェクト選択インターフェースを表示する第21のステップであって、前記追加オブジェクト選択インターフェースに少なくとも2つの候補オブジェクトが含まれる、ステップと、
    前記追加オブジェクト選択インターフェースでの選択操作に応答して、前記選択操作に対応する候補オブジェクトを前記トリガーコントロールに対応する新しい追加オブジェクトとして取得する第22のステップと、を含むことを特徴とする
    請求項1~9のいずれか1項に記載の方法。
  11. 前記追加オブジェクトが静的表示オブジェクトであり、又は、前記追加オブジェクトが動的表示オブジェクトであることを特徴とする
    請求項1~9のいずれか1項に記載の方法。
  12. 端末に適用される追加オブジェクトの表示装置であって、
    ビデオ再生インターフェースにユーザの操作を受け取ることが可能なトリガーコントロールを表示することに用いられるコントロール表示モジュールであって、前記ビデオ再生インターフェースがビデオを再生することに用いられる、コントロール表示モジュールと、
    前記トリガーコントロールに対するアクティブ化操作に応答して、前記ビデオの再生を一時停止して、前記ビデオ再生インターフェースに参照画面フレームを表示することに用いられる一時停止モジュールであって、前記参照画面フレームが前記ビデオにおける一時停止時点での画面フレームである、一時停止モジュールと、
    前記トリガーコントロールに対するドラッグ操作に応答して、前記参照画面フレームにおける前記ドラッグ操作の終了位置での表示オブジェクトである目標オブジェクトを取得することに用いられるオブジェクト取得モジュールと
    前記ビデオの再生の一時停止を解除するとき、前記目標オブジェクトに対応するように前記トリガーコントロールに対応する追加オブジェクトを前記ビデオの画面フレームに表示することに用いられるオブジェクト表示モジュールであって、前記追加オブジェクトは、文字または画像要素である、オブジェクト表示モジュールと、を備えることを特徴とする、前記追加オブジェクトの表示装置。
  13. 前記装置は、更に、
    前記オブジェクト表示モジュールが前記目標オブジェクトに対応するように前記トリガーコントロールに対応する追加オブジェクトを前記ビデオに表示する前に、前記ビデオにおける各画面フレームにおいて前記目標オブジェクトを追跡して、第1表示情報を取得することに用いられる追跡モジュールであって、前記第1表示情報が前記各画面フレームにおける前記目標オブジェクトの表示位置、表示サイズ及び表示姿勢のうちの少なくとも1つを示すことに用いられる、追跡モジュールと、
    前記第1表示情報に基づいて第2表示情報を生成することに用いられる情報生成モジュールであって、前記第2表示情報が前記各画面フレームにおける前記追加オブジェクトの表示位置、表示サイズ及び表示姿勢のうちの少なくとも1つを示すことに用いられる、情報生成モジュールと、
    前記ビデオの再生の一時停止を解除するとき、前記第2表示情報に基づき、それぞれ前記各画面フレームに前記追加オブジェクトを表示することに用いられる前記オブジェクト表示モジュールと、を備えることを特徴とする
    請求項12に記載の装置。
  14. コンピュータであって、
    プロセッサ及びメモリを備え、前記メモリには少なくとも1つの命令、少なくとも一部のプログラム、コードセット又は命令セットが記憶され、請求項1~11のいずれか1項に記載の追加オブジェクトの表示方法を実現するよう、前記少なくとも1つの命令、前記少なくとも一部のプログラム、前記コードセット又は命令セットが前記プロセッサによりロードして実行されることを特徴とする、前記コンピュータ。
  15. 前記端末のコンピュータによって実行された場合に請求項1~11のいずれか1項に記載の追加オブジェクトの表示方法を行うよう構成された命令を備える、コンピュータプログラム。
JP2020539223A 2018-01-18 2019-01-07 追加オブジェクトの表示方法及びその、装置、コンピュータ装置並びに記憶媒体 Active JP7109553B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810050497.6A CN110062269A (zh) 2018-01-18 2018-01-18 附加对象显示方法、装置及计算机设备
CN201810050497.6 2018-01-18
PCT/CN2019/070616 WO2019141100A1 (zh) 2018-01-18 2019-01-07 附加对象显示方法、装置、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
JP2021511728A JP2021511728A (ja) 2021-05-06
JP7109553B2 true JP7109553B2 (ja) 2022-07-29

Family

ID=67302011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020539223A Active JP7109553B2 (ja) 2018-01-18 2019-01-07 追加オブジェクトの表示方法及びその、装置、コンピュータ装置並びに記憶媒体

Country Status (5)

Country Link
US (1) US11640235B2 (ja)
EP (1) EP3742743A4 (ja)
JP (1) JP7109553B2 (ja)
CN (1) CN110062269A (ja)
WO (1) WO2019141100A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11605137B2 (en) 2019-09-11 2023-03-14 Oracle International Corporation Expense report submission interface
US20210073921A1 (en) * 2019-09-11 2021-03-11 Oracle International Corporation Expense report reviewing interface
CN110765015B (zh) * 2019-10-24 2023-06-16 北京云聚智慧科技有限公司 一种对被测应用进行测试的方法和电子设备
CN110782510B (zh) * 2019-10-25 2024-06-11 北京达佳互联信息技术有限公司 一种贴纸生成方法及装置
CN113132795A (zh) 2019-12-30 2021-07-16 北京字节跳动网络技术有限公司 图像处理方法及装置
CN111726701B (zh) * 2020-06-30 2022-03-04 腾讯科技(深圳)有限公司 信息植入方法、视频播放方法、装置和计算机设备
CN111901662A (zh) * 2020-08-05 2020-11-06 腾讯科技(深圳)有限公司 视频的扩展信息处理方法、设备和存储介质
CN111954075B (zh) * 2020-08-20 2021-07-09 腾讯科技(深圳)有限公司 视频处理模型状态调整方法、装置、电子设备及存储介质
CN112100437A (zh) * 2020-09-10 2020-12-18 北京三快在线科技有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
CN112181556B (zh) * 2020-09-21 2024-04-19 北京字跳网络技术有限公司 终端控件的处理方法、装置、电子设备及存储介质
CN112153475B (zh) * 2020-09-25 2022-08-05 北京字跳网络技术有限公司 用于生成文字模式的视频的方法、装置、设备和介质
CN112181572B (zh) * 2020-09-28 2024-06-07 北京达佳互联信息技术有限公司 互动特效展示方法、装置、终端及存储介质
CN112218136B (zh) * 2020-10-10 2021-08-10 腾讯科技(深圳)有限公司 视频处理方法、装置、计算机设备及存储介质
CN114546228B (zh) * 2020-11-12 2023-08-25 腾讯科技(深圳)有限公司 表情图像发送方法、装置、设备及介质
CN114584824A (zh) * 2020-12-01 2022-06-03 阿里巴巴集团控股有限公司 数据处理方法、***、电子设备、服务端及客户端设备
CN112822544B (zh) * 2020-12-31 2023-10-20 广州酷狗计算机科技有限公司 视频素材文件生成方法、视频合成方法、设备及介质
CN113709545A (zh) * 2021-04-13 2021-11-26 腾讯科技(深圳)有限公司 视频的处理方法、装置、计算机设备和存储介质
CN113158621B (zh) * 2021-05-18 2022-03-11 掌阅科技股份有限公司 书架页面的显示方法、计算设备及计算机存储介质
CN113613067B (zh) * 2021-08-03 2023-08-22 北京字跳网络技术有限公司 视频处理方法、装置、设备及存储介质
CN113676765B (zh) * 2021-08-20 2024-03-01 上海哔哩哔哩科技有限公司 交互动画展示方法及装置
CN115878844A (zh) * 2021-09-27 2023-03-31 北京有竹居网络技术有限公司 基于视频的信息展示方法及装置、电子设备和存储介质
CN113873294A (zh) * 2021-10-19 2021-12-31 深圳追一科技有限公司 视频处理方法、装置、计算机存储介质及电子设备
CN114125555B (zh) * 2021-11-12 2024-02-09 深圳麦风科技有限公司 编辑数据的预览方法、终端和存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012144225A1 (ja) 2011-04-21 2012-10-26 パナソニック株式会社 分類装置および分類方法
JP2013115691A (ja) 2011-11-30 2013-06-10 Jvc Kenwood Corp 撮像装置及び撮像装置に用いる制御プログラム
JP2013115692A (ja) 2011-11-30 2013-06-10 Jvc Kenwood Corp 撮像装置及び撮像装置に用いる制御プログラム
JP5671671B1 (ja) 2013-12-09 2015-02-18 株式会社Pumo 視聴者用インタフェース装置及びコンピュータプログラム
US20150277686A1 (en) 2014-03-25 2015-10-01 ScStan, LLC Systems and Methods for the Real-Time Modification of Videos and Images Within a Social Network Format
US20170018289A1 (en) 2015-07-15 2017-01-19 String Theory, Inc. Emoji as facetracking video masks
CN106385591A (zh) 2016-10-17 2017-02-08 腾讯科技(上海)有限公司 视频处理方法及视频处理装置
JP2017169222A (ja) 2017-05-10 2017-09-21 合同会社IP Bridge1号 リンク先指定用インタフェース装置、視聴者用インタフェース装置、及びコンピュータプログラム
CN107274431A (zh) 2017-03-07 2017-10-20 阿里巴巴集团控股有限公司 视频内容增强方法及装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6144972A (en) * 1996-01-31 2000-11-07 Mitsubishi Denki Kabushiki Kaisha Moving image anchoring apparatus which estimates the movement of an anchor based on the movement of the object with which the anchor is associated utilizing a pattern matching technique
JP3438580B2 (ja) * 1998-04-21 2003-08-18 松下電器産業株式会社 画像認識方法及び画像認識装置
EP1622081A1 (en) * 2003-04-21 2006-02-01 NEC Corporation Video object recognition device and recognition method, video annotation giving device and giving method, and program
US10003781B2 (en) * 2006-08-04 2018-06-19 Gula Consulting Limited Liability Company Displaying tags associated with items in a video playback
US8640030B2 (en) * 2007-10-07 2014-01-28 Fall Front Wireless Ny, Llc User interface for creating tags synchronized with a video playback
US9390169B2 (en) * 2008-06-28 2016-07-12 Apple Inc. Annotation of movies
US8522144B2 (en) * 2009-04-30 2013-08-27 Apple Inc. Media editing application with candidate clip management
US20110261258A1 (en) * 2009-09-14 2011-10-27 Kumar Ramachandran Systems and methods for updating video content with linked tagging information
US9323438B2 (en) * 2010-07-15 2016-04-26 Apple Inc. Media-editing application with live dragging and live editing capabilities
JP5838791B2 (ja) * 2011-12-22 2016-01-06 富士通株式会社 プログラム、画像処理装置及び画像処理方法
WO2014013690A1 (ja) * 2012-07-17 2014-01-23 パナソニック株式会社 コメント情報生成装置およびコメント情報生成方法
JP6179889B2 (ja) * 2013-05-16 2017-08-16 パナソニックIpマネジメント株式会社 コメント情報生成装置およびコメント表示装置
CN104346095B (zh) * 2013-08-09 2018-07-06 联想(北京)有限公司 一种信息处理方法及电子设备
CN104394313A (zh) * 2014-10-27 2015-03-04 成都理想境界科技有限公司 特效视频生成方法及装置
CN104469179B (zh) * 2014-12-22 2017-08-04 杭州短趣网络传媒技术有限公司 一种将动态图片结合到手机视频中的方法
US20160196584A1 (en) * 2015-01-06 2016-07-07 Facebook, Inc. Techniques for context sensitive overlays
WO2016121329A1 (ja) * 2015-01-29 2016-08-04 パナソニックIpマネジメント株式会社 画像処理装置、スタイラス、および画像処理方法
US10095396B2 (en) * 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
CN106034256B (zh) * 2015-03-10 2019-11-05 腾讯科技(北京)有限公司 视频社交方法及装置
CN105068748A (zh) * 2015-08-12 2015-11-18 上海影随网络科技有限公司 触屏智能设备的摄像头实时画面中用户界面交互方法
CN106611412A (zh) * 2015-10-20 2017-05-03 成都理想境界科技有限公司 贴图视频生成方法及装置
JP6777089B2 (ja) * 2015-11-04 2020-10-28 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
WO2017203432A1 (en) * 2016-05-23 2017-11-30 Robert Brouwer Video tagging and annotation
US20190246165A1 (en) * 2016-10-18 2019-08-08 Robert Brouwer Messaging and commenting for videos
CN106683120B (zh) * 2016-12-28 2019-12-13 杭州趣维科技有限公司 追踪并覆盖动态贴纸的图像处理方法
US10613725B2 (en) * 2017-10-13 2020-04-07 Adobe Inc. Fixing spaced relationships between graphic objects
US10592091B2 (en) * 2017-10-17 2020-03-17 Microsoft Technology Licensing, Llc Drag and drop of objects to create new composites

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012144225A1 (ja) 2011-04-21 2012-10-26 パナソニック株式会社 分類装置および分類方法
JP2013115691A (ja) 2011-11-30 2013-06-10 Jvc Kenwood Corp 撮像装置及び撮像装置に用いる制御プログラム
JP2013115692A (ja) 2011-11-30 2013-06-10 Jvc Kenwood Corp 撮像装置及び撮像装置に用いる制御プログラム
JP5671671B1 (ja) 2013-12-09 2015-02-18 株式会社Pumo 視聴者用インタフェース装置及びコンピュータプログラム
US20150277686A1 (en) 2014-03-25 2015-10-01 ScStan, LLC Systems and Methods for the Real-Time Modification of Videos and Images Within a Social Network Format
US20170018289A1 (en) 2015-07-15 2017-01-19 String Theory, Inc. Emoji as facetracking video masks
CN106385591A (zh) 2016-10-17 2017-02-08 腾讯科技(上海)有限公司 视频处理方法及视频处理装置
CN107274431A (zh) 2017-03-07 2017-10-20 阿里巴巴集团控股有限公司 视频内容增强方法及装置
JP2017169222A (ja) 2017-05-10 2017-09-21 合同会社IP Bridge1号 リンク先指定用インタフェース装置、視聴者用インタフェース装置、及びコンピュータプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Clustering of Static-Adaptive Correspondences for Deformable Object Tracking,2015IEEE Conference on Computer Vision and Pattern Recognition,2015年01月06日,2784-2791
Mediocre Tutorials and Reviews:"Tutorial I How to Create Moving Emojis on Snapchat",Youtube[online][video],2017年02月10日,[検索日2021年10月7日],インターネット:<URL:https://www.youtube.com/watch?v=Lvn53BDFbRs>

Also Published As

Publication number Publication date
US11640235B2 (en) 2023-05-02
EP3742743A1 (en) 2020-11-25
JP2021511728A (ja) 2021-05-06
US20200272309A1 (en) 2020-08-27
CN110062269A (zh) 2019-07-26
WO2019141100A1 (zh) 2019-07-25
EP3742743A4 (en) 2021-07-28

Similar Documents

Publication Publication Date Title
JP7109553B2 (ja) 追加オブジェクトの表示方法及びその、装置、コンピュータ装置並びに記憶媒体
CN110971930B (zh) 虚拟形象直播的方法、装置、终端及存储介质
CN112181572B (zh) 互动特效展示方法、装置、终端及存储介质
US20190267037A1 (en) Method, apparatus and terminal for controlling video playing
CN109874312B (zh) 播放音频数据的方法和装置
CN110213638B (zh) 动画显示方法、装置、终端及存储介质
CN108737897B (zh) 视频播放方法、装置、设备及存储介质
JP2022537614A (ja) マルチ仮想キャラクターの制御方法、装置、およびコンピュータプログラム
CN108694073B (zh) 虚拟场景的控制方法、装置、设备及存储介质
CN108965922B (zh) 视频封面生成方法、装置和存储介质
CN112044065B (zh) 虚拟资源的显示方法、装置、设备及存储介质
WO2020125340A1 (zh) 控制信息处理方法、装置、电子设备及存储介质
WO2021073293A1 (zh) 动画文件的生成方法、装置及存储介质
WO2022028241A1 (zh) 预览封面生成方法及电子设备
WO2019192061A1 (zh) 图形码的识别及生成方法、装置及计算机可读存储介质
CN112565806B (zh) 虚拟礼物赠送方法、装置、计算机设备及介质
CN113411680A (zh) 多媒体资源播放方法、装置、终端及存储介质
CN111459363A (zh) 信息展示方法、装置、设备及存储介质
CN110991260B (zh) 场景标注方法、装置、设备及存储介质
CN111437600A (zh) 剧情展示方法、装置、设备及存储介质
CN113377270B (zh) 信息显示方法、装置、设备及存储介质
CN113160031B (zh) 图像处理方法、装置、电子设备及存储介质
CN112258385B (zh) 多媒体资源的生成方法、装置、终端及存储介质
CN111312207B (zh) 文本转音频方法、装置、计算机设备及存储介质
CN112004134B (zh) 多媒体数据的展示方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220719

R150 Certificate of patent or registration of utility model

Ref document number: 7109553

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150