CN111309206A - 数据处理方法、装置、电子设备及存储介质 - Google Patents

数据处理方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN111309206A
CN111309206A CN202010079952.2A CN202010079952A CN111309206A CN 111309206 A CN111309206 A CN 111309206A CN 202010079952 A CN202010079952 A CN 202010079952A CN 111309206 A CN111309206 A CN 111309206A
Authority
CN
China
Prior art keywords
candidate
image
area
touch point
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010079952.2A
Other languages
English (en)
Inventor
于洋
张建芳
陈锐
向松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Reach Best Technology Co Ltd
Beijing Dajia Internet Information Technology Co Ltd
Original Assignee
Reach Best Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Reach Best Technology Co Ltd filed Critical Reach Best Technology Co Ltd
Priority to CN202010079952.2A priority Critical patent/CN111309206A/zh
Publication of CN111309206A publication Critical patent/CN111309206A/zh
Priority to US17/137,184 priority patent/US11662896B2/en
Priority to EP21155171.8A priority patent/EP3863235B1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Computing Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开公开了一种数据处理方法、装置、电子设备及存储介质,用于提高图像互动度,该方法包括:获取账户发送的图像播放请求,在预设的图像播放界面中播放图像;获取账户对图像播放界面的触摸操作,确定图像播放界面中的目标呈现区域,以及基于获取的图像对应的特征标签,确定相应的反馈表情集合;最后将各个反馈表情渲染到目标呈现区域中。这样,在用户查看图像时,在图像播放界面的目标呈现区域中生成,与所述图像的特征标签匹配的反馈表情集合,用户可以通过点击相应的反馈表情,更加形象直观地展示查看图像时的感受,进而提高图像互动度。

Description

数据处理方法、装置、电子设备及存储介质
技术领域
本公开涉及计算机技术领域,尤其涉及一种数据处理方法、装置、电子设备及存储介质。
背景技术
随着科学技术的发展,可在手机、平板电脑等可触摸的终端设备上播放的图像作品越来越受到人们的追捧,用户可通过评论作品、点赞作品等方式,表达自己对作品的喜爱。
然而,随着图像作品的数量增多,单一的点赞行为无法准确表达出用户的观看体验,降低视频图像互动度。
因此,为了提高图像互动度,需要设计一种新的数据处理方法、装置、电子设备及存储介质,以克服上述缺陷。
发明内容
本公开提供一种数据处理方法、装置、电子设备及存储介质,用于提高图像互动度。本公开的技术方案如下:
根据本公开实施例的第一方面,提供一种数据处理方法,包括:
获取账户发送的图像播放请求,在预设的图像播放界面中播放图像;
获取所述账户对所述图像播放界面的触摸操作,确定所述图像播放界面中的目标呈现区域,所述目标呈现区域用于呈现图像反馈信息;
获取所述图像对应的特征标签,并基于所述特征标签,确定相应的反馈表情集合;
将所述反馈表情集合中的各个反馈表情,渲染至所述目标呈现区域。
可选的,所述获取所述账户对所述图像播放界面的触摸操作,确定所述图像播放界面中的目标呈现区域,包括:
基于所述触摸操作,在所述图像播放界面中确定相应的触摸点,以及基于所述触摸点确定相应的候选呈现区域;
基于所述触摸点和预设的角度范围集合,在所述候选呈现区域中,筛选出符合预设位置呈现规则的候选位置集合;所述候选位置表征在所述候选呈现区域中对反馈表情执行渲染操作的位置;
将已确定所述候选位置集合的所述候选呈现区域,作为所述目标呈现区域输出。
可选的,所述基于所述触摸操作,在所述图像播放界面中确定相应的触摸点,以及基于所述触摸点确定相应的候选呈现区域,包括:
基于所述触摸操作,在所述图像播放界面中确定相应的初始的触摸点,并基于初始的触摸点坐标,生成相应的初始的候选呈现区域;
采用循环迭代方式执行以下操作,直到生成的候选呈现区域符合预设的区域呈现规则为止:
确定当前生成的候选呈现区域不符合预设的区域呈现规则时,对当前生成的触摸点坐标进行调整,获得调整后的触摸点坐标;
基于调整后的触摸点坐标,重新生成相应的新的候选呈现区域。
可选的,所述确定当前生成的候选呈现区域不符合预设的区域呈现规则时,对当前生成的触摸点坐标进行调整,获得调整后的触摸点坐标,包括:
确定所述当前生成的候选呈现区域与所述图像播放界面之间的重合度,未达到设定阈值范围时,基于所述图像播放界面的中心点位置,调整当前生成的触摸点坐标,获取调整后的触摸点坐标。
可选的,所述基于所述触摸点和预设的角度范围集合,在所述候选呈现区域中,筛选出符合预设位置呈现规则的候选位置集合,包括:
采用循环方式执行以下操作,直到生成的候选位置集合符合所述位置呈现规则为止:
从预设的角度范围集合中读取一个角度范围,按照设定划分规则对所述一个角度范围进行划分,并基于划分结果确定所述各个反馈表情在所述候选呈现区域中对应的偏移角度;
基于预设的位置区域半径与获得的各个偏移角度,分别计算所述各个反馈表情在所述候选呈现区域对应的候选位置;
在确定获得的各个候选位置均位于图像播放界面时,判定所述各个候选位置均符合所述位置呈现规则。
可选的,所述特征标签为以下任意一种或组合:
所述图像的类别;
所述账户使用频率达到设定门限值的表情;
所述账户的登录地理位置;
在预设时间段内的各个账户查看所述图像时,使用频率达到所述设定门限值的表情。
根据本公开实施例的第二方面,提供一种数据处理装置,包括:
呈现单元,被配置为获取账户发送的图像播放请求,在预设的图像播放界面中播放图像;
确定单元,被配置为获取所述账户对所述图像播放界面的触摸操作,确定所述图像播放界面中的目标呈现区域,所述目标呈现区域用于呈现图像反馈信息;
获取所述图像对应的特征标签,并基于所述特征标签,确定相应的反馈表情集合;
渲染单元,被配置为将所述反馈表情集合中的各个反馈表情,渲染至所述目标呈现区域。
可选的,所述获取所述账户对所述图像播放界面的触摸操作,确定所述图像播放界面中的目标呈现区域,所述确定单元被配置为:
基于所述触摸操作,在所述图像播放界面中确定相应的触摸点,以及基于所述触摸点确定相应的候选呈现区域;
基于所述触摸点和预设的角度范围集合,在所述候选呈现区域中,筛选出符合预设位置呈现规则的候选位置集合;所述候选位置表征在所述候选呈现区域中对反馈表情执行渲染操作的位置;
将已确定所述候选位置集合的所述候选呈现区域,作为所述目标呈现区域输出。
可选的,所述基于所述触摸操作,在所述图像播放界面中确定相应的触摸点,以及基于所述触摸点确定相应的候选呈现区域,所述确定单元被配置为:
基于所述触摸操作,在所述图像播放界面中确定相应的初始的触摸点,并基于初始的触摸点坐标,生成相应的初始的候选呈现区域;
采用循环迭代方式执行以下操作,直到生成的候选呈现区域符合预设的区域呈现规则为止:
确定当前生成的候选呈现区域不符合预设的区域呈现规则时,对当前生成的触摸点坐标进行调整,获得调整后的触摸点坐标;
基于调整后的触摸点坐标,重新生成相应的新的候选呈现区域。
可选的,所述确定当前生成的候选呈现区域不符合预设的区域呈现规则时,对当前生成的触摸点坐标进行调整,获得调整后的触摸点坐标,所述确定单元被配置为:
确定所述当前生成的候选呈现区域与所述图像播放界面之间的重合度,未达到设定阈值范围时,基于所述图像播放界面的中心点位置,调整当前生成的触摸点坐标,获取调整后的触摸点坐标。
可选的,所述基于所述触摸点和预设的角度范围集合,在所述候选呈现区域中,筛选出符合预设位置呈现规则的候选位置集合,所述确定单元被配置为:
采用循环方式执行以下操作,直到生成的候选位置集合符合所述位置呈现规则为止:
从预设的角度范围集合中读取一个角度范围,按照设定划分规则对所述一个角度范围进行划分,并基于划分结果确定所述各个反馈表情在所述候选呈现区域中对应的偏移角度;
基于预设的位置区域半径与获得的各个偏移角度,分别计算所述各个反馈表情图像在所述候选呈现区域对应的候选位置;
在确定获得的各个候选位置均位于图像播放界面时,判定所述各个候选位置均符合所述位置呈现规则。
可选的,所述确定单元使用的所述特征标签为以下任意一种或组合:
所述图像的类别;
所述账户使用频率达到设定门限值的表情;
所述账户的登录地理位置;
在预设时间段内的各个账户查看所述图像时,使用频率达到所述设定门限值的表情。
根据本公开实施例的第三方面,提供一种电子设备,包括:
存储器,用于存储可执行指令;
处理器,用于读取并执行所述存储器中存储的可执行指令,以实现上述任一项方法。
根据本公开实施例的第四方面,提供一种存储介质,当所述存储介质中的指令由处理器执行时,使得能够执行上述任一项方法的步骤。
本公开的实施例提供的技术方案至少带来以下有益效果:
在本公开实施例中,获取账户发送的图像播放请求,在预设的图像播放界面中播放图像;获取账户对图像播放界面的触摸操作,确定图像播放界面中的目标呈现区域,以及基于获取的图像对应的特征标签,确定相应的反馈表情集合;最后将各个反馈表情渲染到目标呈现区域中。这样,在用户查看图像时,可以触摸图像播放界面的任意位置,并基于触摸点确定相应的目标呈现区域,并在图像播放界面的目标呈现区域中生成,与所述图像的特征标签匹配的反馈表情集合,用户可以通过点击相应的反馈表情,更为精准地表达用户查看图像时的感受反馈,从而可以进一步触发良好互动,提高图像互动度,增加了图像查看的趣味性,吸引更多***查看图像,有利于图像的传播与曝光,还方便用户寻找与自身观看感受相同的其他用户,构建新的社交关系。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1是根据一示例性实施例示出的一种数据处理的流程示意图。
图2是根据一示例性实施例示出了基于初始的触摸点生成候选呈现区域的示意图。
图3是根据一示例性实施例示出了基于调整后的触摸点坐标生成候选呈现区域的示意图。
图4是根据一示例性实施例示出了各个反馈表情的候选位置示意图。
图5是根据一示例性实施例示出了目标呈现区域的示意图。
图6a是根据一示例性实施例示出了在视频播放界面中向左上展开的目标呈现区域示意图。
图6b是根据一示例性实施例示出了在视频播放界面中向左展开的目标呈现区域示意图。
图6c是根据一示例性实施例示出了在视频播放界面中向右上展开的目标呈现区域示意图。
图6d是根据一示例性实施例示出了在视频播放界面中向右展开的目标呈现区域示意图。
图6e是根据一示例性实施例示出了在视频播放界面中向左下展开的目标呈现区域示意图。
图6f是根据一示例性实施例示出了在视频播放界面中向右下展开的目标呈现区域示意图。
图6g是根据一示例性实施例示出了在视频播放界面中向上展开的目标呈现区域示意图。
图6h是根据一示例性实施例示出了在视频播放界面中向下展开的目标呈现区域示意图。
图6i是根据一示例性实施例示出了位于视频播放界面中心点的目标呈现区域示意图。
图6j是根据一示例性实施例示出了在图片播放界面向左上展开的目标呈现区域示意图。
图6k是根据一示例性实施例示出了位于图片播放界面中心点的目标呈现区域示意图。
图7是根据一示例性实施例示出的一种数据处理装置的框图。
图8是根据一示例性实施例示出的一种电子设备的结构示意图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
为了提高视频互动度,在本公开实施例中提供了一种解决方案,该方案为:获取账户发送的图像播放请求,在预设的图像播放界面中播放图像;获取账户对图像播放界面的触摸操作,确定图像播放界面中的目标呈现区域;再基于获取的图像的特征标签,确定相应的反馈表情集合;最后将各个反馈表情渲染到目标呈现区域。
下面结合附图对本公开优选实施方式进行详细说明。
参阅图1所示,本公开实施例中,数据处理的详细过程如下:
S101:获取账户发送的图像播放请求,在预设的图像播放界面中播放图像。
S102:获取账户对图像播放界面的触摸操作,确定图像播放界面中的目标呈现区域,目标呈现区域用于呈现图像反馈信息。
本公开实施例中的触摸操作可为以下任意一种操作:长按屏幕任意区域、单击屏幕任意区域、双击屏幕任意区域。
可选的,在执行S102时,基于触摸操作确定目标呈现区域的过程如下:
A1、基于触摸操作,在图像播放界面中确定相应的触摸点,以及基于触摸点确定相应的候选呈现区域。
本公开实施例中的图像播放界面可以为视频播放界面,也可以为图片播放界面。例如,以视频播放界面为例,将视频播放界面的左上方像素点确定为原点,建立如图2所示的平面直角坐标系。
可选的,在执行A1时,基于触摸点确定候选呈现区域的过程如下:
a11、基于触摸操作,在图像播放界面中确定相应的初始的触摸点,并基于初始的触摸点坐标,确定相应的候选呈现区域。
例如,以视频播放界面为例,基于图2所示的平面直角坐标系确定初始的触摸点坐标;再将初始触摸点的横纵坐标分别加上预设位置区域半径,得到候选呈现区域中距离原点最远点的坐标;同样地,初始触摸点的横纵坐标分别减去呈现区域半径,得到候选呈现区域中距离原点最近点的坐标;其中所述位置区域半径用于确定各个反馈表情在候选呈现区域中相应的位置;
再以初始的触摸点坐标为圆心,以最远点坐标和最近点坐标为圆上端点,确定一个圆形区域,并将所述一个圆形区域确定为候选呈现区域。
为了便于理解,以一具体实施例进行描述。
初始的触摸点坐标A(6,5),位置区域半径为7cm,经过计算可知,最远点坐标为(13,12),最近点坐标为(-1,-2),并将图2所示的圆形区域,确定为相应的候选呈现区域。
a12、判断当前生成的候选呈现区域是否符合预设的区域呈现规则,若是,则输出当前生成的候选呈现区域;否则,执行步骤a13。
若最远点坐标和/或最近点坐标位于视频播放界面外,则判定当前生成的候选呈现区域与视频播放界面之间的重合度,未达到设定阈值范围,即当前生成的候选呈现区域不符合区域呈现规则。当最远点坐标和/或最近点坐标位于视频播放界面外时,会出现在候选呈现区域中无法完整呈现,所述视频对应的反馈表情图像集合的情况,因此,需要调整触摸点的位置,以确保重新生成的候选呈现位置能完整呈现各个反馈表情。
例如,初始的触摸点坐标A(6,5),位置区域半径R为7cm,经过计算可知,最远点坐标为(13,12),最近点坐标为(-1,-2),由于最近点坐标位于视频播放界面外,判定当前生成的候选呈现区域不符合区域呈现规则。
又例如,初始的触摸点坐标A(6,5),位置区域半径R为5cm,经过计算可知,最远点坐标为(11,10),最近点坐标为(1,0),最近点坐标和最远点坐标均位于图片播放界面内,判定当前生成的候选呈现区域符合区域呈现规则。
a13、对当前生成的触摸点坐标进行调整,获得调整后的触摸点坐标,并返回执行步骤a12。
可选的,调整当前生成的触摸点坐标的过程如下:
确定当前生成的候选呈现区域与图像播放界面之间的重合度,未达到设定阈值范围时,基于图像播放界面的中心点位置,调整当前生成的触摸点坐标,并获取调整后的触摸点坐标。
本公开实施例中,将初始触摸点的横纵坐标分别沿着x轴正方向和y轴正方向移动设定距离,以缩短触摸点与图像播放界面的中心点之间的距离。
a14、基于调整后的触摸点坐标,重新生成相应的候选呈现区域,并返回步骤a12。
例如,将初始触摸点(6,5)分别沿x轴正方向和y轴正方向移动1个单位长度,得到调整后的触摸点坐标为A'(7,6)。设定位置区域半径R为7cm,经过计算可知,最远点坐标为(14,13),最近点坐标为(0,-1),由于最近点坐标位于图片播放界面外,判定当前生成的候选呈现区域不符合区域呈现规则,需要再次调整当前生成的触摸点坐标。
又例如,将初始触摸点(6,5)分别沿x轴正方向和y轴正方向移动2个单位长度,得到调整后的触摸点坐标为A'(8,7)。位置区域半径R为7cm,经过计算可知,最远点坐标为(15,14),最近点坐标为(1,0),由于最近点坐标和最远点坐标均位于视频播放界面内,判定当前生成的候选呈现区域符合区域呈现规则。其中,基于A'(8,7)生成的候选呈现区域如图3所示。
A2、基于触摸点和预设的角度范围集合,在候选呈现区域中,筛选出符合预设位置呈现规则的候选位置集合;所述候选位置集合表征在候选呈现区域中对反馈表情执行渲染操作的位置。
本公开实施例中,将候选呈现区域的展开方向划分为八个方向,以及每个方向的角度范围各不相同,具体为——向左上展开[45°,225°]、向左展开[90°,270°]、向右上展开[315°,135°]、向右展开[270°,90°]、向左下展开[135°,315°]、向右下展开[225°,45°]、向上展开[0°,180°],以及向下展开[180°,360°]。
可选的,在执行A2时,基于触摸点和角度范围集合,筛选出符合位置呈现规则的候选位置集合的过程如下:
a21、按照优先级顺序,从预设的角度范围集合中读取一个角度范围。
设定展开方向的优先级从高到低的顺序为——向左上展开,向左展开,向右上展开,向右展开,向左下展开,向右下展开,向上展开,向下展开。
a22、按照设定划分规则对一个角度范围进行划分,并基于划分结果确定各个反馈表情在候选呈现区域中对应的偏移角度。
先基于一个角度范围,确定展开方向对应的总偏移角度θ;
将θ/(n-1)的比值,确定为一个反馈表情在候选呈现区域中对应的偏移量,其中n表示反馈表情总数;
最后,基于所述偏移量,确定各个反馈表情在候选呈现区域中对应的偏移角度。
例如,向右下展开的角度范围[225°,45°],总偏移角度为180°,反馈表情共5个,所以一个反馈表情在候选呈现区域中对应的偏移量为45°,因此,第一个反馈表情对应的偏移角度为225°,第二个反馈表情对应的偏移角度为270°,第三个反馈表情对应的偏移角度为315°,第四个反馈表情对应的偏移角度为360°,第五个反馈表情对应的偏移角度为45°。
a23、基于预设的位置区域半径与获得的各个偏移角度,分别计算各个反馈表情在候选呈现区域对应的候选位置。
参阅图4所示,以触摸点坐标A'(8,7)为原点,建立一个平面直角坐标系,基于各个反馈表情与x轴之间的夹角,和位置区域半径,确定各个反馈表情在候选呈现区域对应的候选位置。以计算第一个反馈表情为例,其横坐标为7×cos 225°,其纵坐标为7×sin 225°,最终得到第一个反馈表情在候选呈现区域的候选位置为
Figure BDA0002379939010000111
a24、判断获得的各个候选位置是否均符合位置呈现规则,若是,输出候选位置集合;否则,返回步骤a21。
判断一个候选位置X是否均位于图像播放界面内,若是,判定候选位置X符合位置呈现规则,表征候选位置X对应的反馈表情能完整呈现在候选呈现区域中;否则,判定候选位置X不符合位置呈现规则,表征候选位置X对应的反馈表情无法完整呈现在候选呈现区域中。
A3、将已确定候选位置集合的候选呈现区域,作为目标呈现区域输出。
具体的,最终输出的目标呈现区域参阅图5所示。
S103:获取视频对应的特征标签,并基于特征标签,确定相应的反馈表情集合。
本公开实施例中,特征标签可为以下任意一种或组合:图像的类别、账户使用频率达到设定门限值的表情、账户的登录地理位置,和在预设时间段内的各个账户查看所述图像时,使用频率达到设定门限值的表情。使用下述多个具体实施例,描述建立特征标签与反馈表情集合的映射关系的过程,不过,本公开实施例对一个特征标签对应的反馈表情总数不作限制。
例如,建立视频的类别与反馈表情集合的映射关系,搞笑类视频对应的反馈表情为,微笑、偷笑、大笑、笑哭和点赞;
又例如,建立图片的类别与反馈表情集合的映射关系,感动类图片对应的反馈表情为,点赞、哭泣、大哭和加油;
又例如,账户使用频率达到设定门限值的表情为点赞、愤怒和大笑,将这三个表情确定为反馈表情;
又例如,建立账户的登录地理位置与反馈表情集合的映射关系,通过定位获取账户在茶餐厅中登录账号,对应的反馈表情为开心、大笑、饮品、食品和点赞;
又例如,一周内各个账户查看该图像时,使用频率达到设定门限值的表情为点赞、哭泣、愤怒、大笑和鼓掌,将这五个表情确定为反馈表情;
又例如,账户在家中观看搞笑类视频时,对应的反馈表情为大笑、微笑、偷笑、点赞、房子图标。
S104:将反馈表情集合中的各个反馈表情,渲染至目标呈现区域。
具体的,最终输出的渲染后的目标呈现区域参阅图6a~图6k所示。
基于上述实施例,参阅图7所示,本公开实施例中,提供一种数据处理装置700,至少包括呈现单元701,确定单元702和渲染单元703,其中,
呈现单元701,被配置为获取账户发送的图像播放请求,在预设的图像播放界面中播放图像;
确定单元702,被配置为获取所述账户对所述图像播放界面的触摸操作,确定所述图像播放界面中的目标呈现区域,所述目标呈现区域用于呈现图像反馈信息;
获取所述图像对应的特征标签,并基于所述特征标签,确定相应的反馈表情集合;
渲染单元703,被配置为将所述反馈表情集合中的各个反馈表情,渲染至所述目标呈现区域。
可选的,所述获取所述账户对所述图像播放界面的触摸操作,确定所述图像播放界面中的目标呈现区域,所述确定单元702被配置为:
基于所述触摸操作,在所述图像播放界面中确定相应的触摸点,以及基于所述触摸点确定相应的候选呈现区域;
基于所述触摸点和预设的角度范围集合,在所述候选呈现区域中,筛选出符合预设位置呈现规则的候选位置集合;所述候选位置表征在所述候选呈现区域中对反馈表情执行渲染操作的位置;
将已确定所述候选位置集合的所述候选呈现区域,作为所述目标呈现区域输出。
可选的,所述基于所述触摸操作,在所述图像播放界面中确定相应的触摸点,以及基于所述触摸点确定相应的候选呈现区域,所述确定单元702被配置为:
基于所述触摸操作,在所述图像播放界面中确定相应的初始的触摸点,并基于初始的触摸点坐标,生成相应的初始的候选呈现区域;
采用循环迭代方式执行以下操作,直到生成的候选呈现区域符合预设的区域呈现规则为止:
确定当前生成的候选呈现区域不符合预设的区域呈现规则时,对当前生成的触摸点坐标进行调整,获得调整后的触摸点坐标;
基于调整后的触摸点坐标,重新生成相应的新的候选呈现区域。
可选的,所述确定当前生成的候选呈现区域不符合预设的区域呈现规则时,对当前生成的触摸点坐标进行调整,获得调整后的触摸点坐标,所述确定单元702被配置为:
确定所述当前生成的候选呈现区域与所述图像播放界面之间的重合度,未达到设定阈值范围时,基于所述图像播放界面的中心点位置,调整当前生成的触摸点坐标,获取调整后的触摸点坐标。
可选的,所述基于所述触摸点和预设的角度范围集合,在所述候选呈现区域中,筛选出符合预设位置呈现规则的候选位置集合,所述确定单元702被配置为:
采用循环方式执行以下操作,直到生成的候选位置集合符合所述位置呈现规则为止:
从预设的角度范围集合中读取一个角度范围,按照设定划分规则对所述一个角度范围进行划分,并基于划分结果确定所述各个反馈表情在所述候选呈现区域中对应的偏移角度;
基于预设的位置区域半径与获得的各个偏移角度,分别计算所述各个反馈表情图像在所述候选呈现区域对应的候选位置;
在确定获得的各个候选位置均位于图像播放界面时,判定所述各个候选位置均符合所述位置呈现规则。
可选的,所述确定单元702使用的特征标签为以下任意一种或组合:
所述图像的类别;
所述账户使用频率达到设定门限值的表情;
所述账户的登录地理位置;
在预设时间段内的各个账户查看所述图像时,使用频率达到所述设定门限值的表情。
基于上述实施例,参阅图8所示,本公开实施例中,提供一种电子设备,至少包括存储器801和处理器802,其中,
存储器801,用于存可执行指令;
处理器802,用于读取并执行所述存储器中存储的可执行指令,以实现获取账户发送的图像播放请求,在预设的图像播放界面中播放图像;
获取所述账户对所述图像播放界面的触摸操作,确定所述图像播放界面中的目标呈现区域,所述目标呈现区域用于呈现图像反馈信息;
获取所述图像对应的特征标签,并基于所述特征标签,确定相应的反馈表情集合;
将所述反馈表情集合中的各个反馈表情,渲染至所述目标呈现区域;
电源组件803,用于提供电能;
通信组件804,用于实现通信功能。
可选的,所述获取所述账户对所述图像播放界面的触摸操作,确定所述图像播放界面中的目标呈现区域,所述处理器802被配置为:
基于所述触摸操作,在所述图像播放界面中确定相应的触摸点,以及基于所述触摸点确定相应的候选呈现区域;
基于所述触摸点和预设的角度范围集合,在所述候选呈现区域中,筛选出符合预设位置呈现规则的候选位置集合;所述候选位置表征在所述候选呈现区域中对反馈表情执行渲染操作的位置;
将已确定所述候选位置集合的所述候选呈现区域,作为所述目标呈现区域输出。
可选的,所述基于所述触摸操作,在所述图像播放界面中确定相应的触摸点,以及基于所述触摸点确定相应的候选呈现区域,所述处理器802被配置为:
基于所述触摸操作,在所述图像播放界面中确定相应的初始的触摸点,并基于初始的触摸点坐标,生成相应的初始的候选呈现区域;
采用循环迭代方式执行以下操作,直到生成的候选呈现区域符合预设的区域呈现规则为止:
确定当前生成的候选呈现区域不符合预设的区域呈现规则时,对当前生成的触摸点坐标进行调整,获得调整后的触摸点坐标;
基于调整后的触摸点坐标,重新生成相应的新的候选呈现区域。
可选的,所述确定当前生成的候选呈现区域不符合预设的区域呈现规则时,对当前生成的触摸点坐标进行调整,获得调整后的触摸点坐标,所述处理器802被配置为:
确定所述当前生成的候选呈现区域与所述图像播放界面之间的重合度,未达到设定阈值范围时,基于所述图像播放界面的中心点位置,调整当前生成的触摸点坐标,获取调整后的触摸点坐标。
可选的,所述基于所述触摸点和预设的角度范围集合,在所述候选呈现区域中,筛选出符合预设位置呈现规则的候选位置集合,所述处理器802被配置为:
采用循环方式执行以下操作,直到生成的候选位置集合符合所述位置呈现规则为止:
从预设的角度范围集合中读取一个角度范围,按照设定划分规则对所述一个角度范围进行划分,并基于划分结果确定所述各个反馈表情在所述候选呈现区域中对应的偏移角度;
基于预设的位置区域半径与获得的各个偏移角度,分别计算所述各个反馈表情图像在所述候选呈现区域对应的候选位置;
在确定获得的各个候选位置均位于图像播放界面时,判定所述各个候选位置均符合所述位置呈现规则。
可选的,所述特征标签为以下任意一种或组合:
所述图像的类别;
所述账户使用频率达到设定门限值的表情;
所述账户的登录地理位置;
在预设时间段内的各个账户查看所述图像时,使用频率达到所述设定门限值的表情。
基于上述实施例,提供一种存储介质,至少包括:当所述存储介质中的指令由的处理器执行时,使得能够执行上述任一项方法的步骤。
综上所述,在本公开实施例中,获取账户发送的图像播放请求,在预设的图像播放界面中播放图像;获取账户对图像播放界面的触摸操作,确定图像播放界面中的目标呈现区域,以及基于获取的图像对应的特征标签,确定相应的反馈表情集合;最后将各个反馈表情渲染到目标呈现区域中。
相比于单一的点赞行为,多个反馈表情能够更加形象直观地展示了用户查看图像时的感受,这样,在用户查看图像时,可以触摸图像播放界面的任意位置,并基于触摸点确定相应的目标呈现区域,并在图像播放界面的目标呈现区域中生成,与所述图像的特征标签匹配的反馈表情集合,用户可以通过点击相应的反馈表情,可以更为精准地表达用户查看图像时的感受反馈,从而可以进一步触发良好互动,提高图像互动度,增加了图像观看的趣味性,吸引更多***查看图像,有利于图像的传播与曝光,还方便用户寻找与自身观看感受相同的其他用户,构建新的社交关系。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (10)

1.一种数据处理方法,其特征在于,包括:
获取账户发送的图像播放请求,在预设的图像播放界面中播放图像;
获取所述账户对所述图像播放界面的触摸操作,确定所述图像播放界面中的目标呈现区域,所述目标呈现区域用于呈现图像反馈信息;
获取所述图像对应的特征标签,并基于所述特征标签,确定相应的反馈表情集合;
将所述反馈表情集合中的各个反馈表情,渲染至所述目标呈现区域。
2.根据权利要求1所述的方法,其特征在于,所述获取所述账户对所述图像播放界面的触摸操作,确定所述图像播放界面中的目标呈现区域,包括:
基于所述触摸操作,在所述图像播放界面中确定相应的触摸点,以及基于所述触摸点确定相应的候选呈现区域;
基于所述触摸点和预设的角度范围集合,在所述候选呈现区域中,筛选出符合预设位置呈现规则的候选位置集合;所述候选位置表征在所述候选呈现区域中对反馈表情执行渲染操作的位置;
将已确定所述候选位置集合的所述候选呈现区域,作为所述目标呈现区域输出。
3.根据权利要求2所述的方法,其特征在于,所述基于所述触摸操作,在所述图像播放界面中确定相应的触摸点,以及基于所述触摸点确定相应的候选呈现区域,包括:
基于所述触摸操作,在所述图像播放界面中确定相应的初始的触摸点,并基于初始的触摸点坐标,生成相应的初始的候选呈现区域;
采用循环迭代方式执行以下操作,直到生成的候选呈现区域符合预设的区域呈现规则为止:
确定当前生成的候选呈现区域不符合预设的区域呈现规则时,对当前生成的触摸点坐标进行调整,获得调整后的触摸点坐标;
基于调整后的触摸点坐标,重新生成相应的新的候选呈现区域。
4.根据权利要求3所述的方法,其特征在于,所述确定当前生成的候选呈现区域不符合预设的区域呈现规则时,对当前生成的触摸点坐标进行调整,获得调整后的触摸点坐标,包括:
确定所述当前生成的候选呈现区域与所述图像播放界面之间的重合度,未达到设定阈值范围时,基于所述图像播放界面的中心点位置,调整当前生成的触摸点坐标,获取调整后的触摸点坐标。
5.根据权利要求2所述的方法,其特征在于,所述基于所述触摸点和预设的角度范围集合,在所述候选呈现区域中,筛选出符合预设位置呈现规则的候选位置集合,包括:
采用循环方式执行以下操作,直到生成的候选位置集合符合所述位置呈现规则为止:
从预设的角度范围集合中读取一个角度范围,按照设定划分规则对所述一个角度范围进行划分,并基于划分结果确定所述各个反馈表情在所述候选呈现区域中对应的偏移角度;
基于预设的位置区域半径与获得的各个偏移角度,分别计算所述各个反馈表情在所述候选呈现区域对应的候选位置;
在确定获得的各个候选位置均位于图像播放界面时,判定所述各个候选位置均符合所述位置呈现规则。
6.根据权利要求1所述的方法,其特征在于,所述特征标签为以下任意一种或组合:
所述图像的类别;
所述账户使用频率达到设定门限值的表情;
所述账户的登录地理位置;
在预设时间段内的各个账户查看所述图像时,使用频率达到所述设定门限值的表情。
7.一种数据处理装置,其特征在于,包括:
呈现单元,被配置为获取账户发送的图像播放请求,在预设的图像播放界面中播放图像;
确定单元,被配置为获取所述账户对所述图像播放界面的触摸操作,确定所述图像播放界面中的目标呈现区域,所述目标呈现区域用于呈现图像反馈信息;
获取所述图像对应的特征标签,并基于所述特征标签,确定相应的反馈表情集合;
渲染单元,被配置为将所述反馈表情集合中的各个反馈表情,渲染至所述目标呈现区域。
8.根据权利要求7所述的装置,其特征在于,所述获取所述账户对所述图像播放界面的触摸操作,确定所述图像播放界面中的目标呈现区域,所述确定单元被配置为:
基于所述触摸操作,在所述图像播放界面中确定相应的触摸点,以及基于所述触摸点确定相应的候选呈现区域;
基于所述触摸点和预设的角度范围集合,在所述候选呈现区域中,筛选出符合预设位置呈现规则的候选位置集合;所述候选位置表征在所述候选呈现区域中对反馈表情执行渲染操作的位置;
将已确定所述候选位置集合的所述候选呈现区域,作为所述目标呈现区域输出。
9.一种电子设备,其特征在于,包括:
存储器,用于存储可执行指令;
处理器,用于读取并执行所述存储器中存储的可执行指令,以实现如权利要求1至6中任一项所述的数据处理方法。
10.一种存储介质,其特征在于,当所述存储介质中的指令由处理器执行时,使得能够执行如权利要求1至6中任一项所述的数据处理方法。
CN202010079952.2A 2020-02-04 2020-02-04 数据处理方法、装置、电子设备及存储介质 Pending CN111309206A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202010079952.2A CN111309206A (zh) 2020-02-04 2020-02-04 数据处理方法、装置、电子设备及存储介质
US17/137,184 US11662896B2 (en) 2020-02-04 2020-12-29 Method of content presentation, electronic device and storage medium
EP21155171.8A EP3863235B1 (en) 2020-02-04 2021-02-04 Method and apparatus for processing data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010079952.2A CN111309206A (zh) 2020-02-04 2020-02-04 数据处理方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN111309206A true CN111309206A (zh) 2020-06-19

Family

ID=71145680

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010079952.2A Pending CN111309206A (zh) 2020-02-04 2020-02-04 数据处理方法、装置、电子设备及存储介质

Country Status (3)

Country Link
US (1) US11662896B2 (zh)
EP (1) EP3863235B1 (zh)
CN (1) CN111309206A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113934491A (zh) * 2021-09-30 2022-01-14 阿里云计算有限公司 一种大数据处理方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6961912B2 (en) * 2001-07-18 2005-11-01 Xerox Corporation Feedback mechanism for use with visual selection methods
CN105549830A (zh) * 2015-12-08 2016-05-04 广州视睿电子科技有限公司 智能显示的方法及装置
CN106462354A (zh) * 2014-04-04 2017-02-22 贝壳网际(北京)安全技术有限公司 管理多个显示窗口的设备、方法和图形用户界面
CN106445378A (zh) * 2016-09-12 2017-02-22 青岛海信电器股份有限公司 触控菜单显示控制方法、装置及触控显示设备
CN107977126A (zh) * 2016-10-25 2018-05-01 阿里巴巴集团控股有限公司 一种功能选项的展现方法、装置、设备和展现界面
CN108390991A (zh) * 2018-01-09 2018-08-10 深圳市金立通信设备有限公司 一种操作控制方法、终端及计算机可读存储介质
CN109634489A (zh) * 2018-12-13 2019-04-16 北京达佳互联信息技术有限公司 发表评论的方法、装置、设备及可读存储介质
CN110377192A (zh) * 2019-06-18 2019-10-25 北京字节跳动网络技术有限公司 一种实现互动效果的方法、装置、介质和电子设备

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070006477A (ko) * 2005-07-08 2007-01-11 삼성전자주식회사 가변적 메뉴 배열 방법 및 이를 이용한 디스플레이 장치
US8074178B2 (en) * 2007-06-12 2011-12-06 Microsoft Corporation Visual feedback display
US10503376B2 (en) * 2007-12-20 2019-12-10 Samsung Electronics Co., Ltd. Method and apparatus for adjusting an image and control guides displayed on a display
JP5402322B2 (ja) * 2009-07-02 2014-01-29 ソニー株式会社 情報処理装置および情報処理方法
JP4865063B2 (ja) * 2010-06-30 2012-02-01 株式会社東芝 情報処理装置、情報処理方法およびプログラム
JP5844707B2 (ja) * 2012-09-28 2016-01-20 富士フイルム株式会社 画像表示制御装置、画像表示装置、プログラム及び画像表示方法
US8812995B1 (en) * 2013-04-10 2014-08-19 Google Inc. System and method for disambiguating item selection
US10050926B2 (en) * 2014-02-05 2018-08-14 Facebook, Inc. Ideograms based on sentiment analysis
US9043196B1 (en) 2014-07-07 2015-05-26 Machine Zone, Inc. Systems and methods for identifying and suggesting emoticons

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6961912B2 (en) * 2001-07-18 2005-11-01 Xerox Corporation Feedback mechanism for use with visual selection methods
CN106462354A (zh) * 2014-04-04 2017-02-22 贝壳网际(北京)安全技术有限公司 管理多个显示窗口的设备、方法和图形用户界面
CN105549830A (zh) * 2015-12-08 2016-05-04 广州视睿电子科技有限公司 智能显示的方法及装置
CN106445378A (zh) * 2016-09-12 2017-02-22 青岛海信电器股份有限公司 触控菜单显示控制方法、装置及触控显示设备
CN107977126A (zh) * 2016-10-25 2018-05-01 阿里巴巴集团控股有限公司 一种功能选项的展现方法、装置、设备和展现界面
CN108390991A (zh) * 2018-01-09 2018-08-10 深圳市金立通信设备有限公司 一种操作控制方法、终端及计算机可读存储介质
CN109634489A (zh) * 2018-12-13 2019-04-16 北京达佳互联信息技术有限公司 发表评论的方法、装置、设备及可读存储介质
CN110377192A (zh) * 2019-06-18 2019-10-25 北京字节跳动网络技术有限公司 一种实现互动效果的方法、装置、介质和电子设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113934491A (zh) * 2021-09-30 2022-01-14 阿里云计算有限公司 一种大数据处理方法及装置
CN113934491B (zh) * 2021-09-30 2023-08-22 阿里云计算有限公司 一种大数据处理方法及装置

Also Published As

Publication number Publication date
US20210141522A1 (en) 2021-05-13
EP3863235B1 (en) 2022-08-24
US11662896B2 (en) 2023-05-30
EP3863235A1 (en) 2021-08-11

Similar Documents

Publication Publication Date Title
CN109313812B (zh) 具有上下文增强的共享体验
US8942729B2 (en) Location based methods, systems, and program products for performing an action at a user device
US9007524B2 (en) Techniques and apparatus for audio isolation in video processing
CN109618212B (zh) 信息显示方法、装置、终端及存储介质
US10667307B2 (en) Disambiguation of target devices using ambient signal data
US10013136B2 (en) User interface, method and system for crowdsourcing event notification sharing using mobile devices
US9715751B2 (en) Zooming to faces depicted in images
EP3466058A1 (en) Video pinning
US20140092306A1 (en) Apparatus and method for receiving additional object information
CN110149332B (zh) 直播方法、装置、设备及存储介质
EP2732391A1 (en) Geo-tagging digital images
EP2884377B1 (en) Information processing device and recording medium
US11321886B2 (en) Apparatus and associated methods
CN104010206B (zh) 基于地理位置的虚拟现实视频播放的方法和***
CN111858971A (zh) 多媒体资源推荐方法、装置、终端及服务器
CN112817790A (zh) 模拟用户行为的方法
CN111652675A (zh) 展示方法、装置和电子设备
WO2022179080A1 (zh) 定位方法、装置、电子设备、存储介质、程序及产品
CN111309206A (zh) 数据处理方法、装置、电子设备及存储介质
US20230403413A1 (en) Method and apparatus for displaying online interaction, electronic device and computer readable medium
US20230043683A1 (en) Determining a change in position of displayed digital content in subsequent frames via graphics processing circuitry
CN111710046A (zh) 交互方法、装置和电子设备
CN104244112A (zh) 一种多媒体处理方法、装置及服务器
US20220350650A1 (en) Integrating overlaid digital content into displayed data via processing circuitry using a computing memory and an operating system memory
CN113518198B (zh) 会话界面显示方法、会议界面显示方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200619