CN101382938A - 一种基于用户关注时间的网络视频排序方法 - Google Patents

一种基于用户关注时间的网络视频排序方法 Download PDF

Info

Publication number
CN101382938A
CN101382938A CNA2008101216493A CN200810121649A CN101382938A CN 101382938 A CN101382938 A CN 101382938A CN A2008101216493 A CNA2008101216493 A CN A2008101216493A CN 200810121649 A CN200810121649 A CN 200810121649A CN 101382938 A CN101382938 A CN 101382938A
Authority
CN
China
Prior art keywords
video
user
time
key frame
user concerned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2008101216493A
Other languages
English (en)
Other versions
CN101382938B (zh
Inventor
徐颂华
江浩
刘智满
***
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN2008101216493A priority Critical patent/CN101382938B/zh
Publication of CN101382938A publication Critical patent/CN101382938A/zh
Application granted granted Critical
Publication of CN101382938B publication Critical patent/CN101382938B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于用户关注时间的网络视频排序方法,利用用户关注时间对网络视频搜索引擎得到的搜索结果进行个性化改进,使网络视频的搜索排序结果更加符合用户需求。本发明包括以下步骤:1)利用自定义网页浏览器,获得用户对网络视频搜索结果中各个网络视频的关注时间;2)对获得的每个用户关注时间进行校正;3)基于图像相似度来预测未知网络视频中各个关键帧的用户关注时间;4)对未知网络视频,通过该视频各关键帧的用户关注时间,计算该视频的用户关注时间;5)利用获得或预测得的用户关注时间分别对网络视频搜索引擎得到的网络视频进行重新排序。本发明有效地将用户的喜好结合在网络视频搜索过程中,使得最终的网络视频排序结果更加接近用户期待的理想排序。

Description

一种基于用户关注时间的网络视频排序方法
技术领域
本发明涉及计算机网络搜索领域,尤其涉及一种基于用户关注时间的网络视频排序方法。
背景技术
现有的个性化引擎依靠的是用户的反馈,它可以分为显式反馈和隐式反馈。我们从这两种反馈中都可以得到用户的喜好特征。但是用户一般都不愿意去提供显式的反馈,所以现在的研究越来越多的研究都转向隐式反馈。研究表明,隐式反馈可以很好的反映用户的搜索意图,并且从大量的隐式反馈中得到的用户喜好往往比显式反馈更加可靠。
查询历史:现代研究中,用得最多的隐式反馈就是用户的查询历史。Google的个性化搜索(http://www.***.com/psearch)就是基于用户的查询历史的。总的来说,基于查询历史的算法又可以分为以下两类:一类是基于整个查询历史的算法,另一类是基于某个查询会话(指的是一连串相关的查询)。对于前者来说,通常算法会产生一个该用户的概要文档用来描述用户的搜索喜好。
点击数据:点击数据是另一种非常重要的隐式反馈。在一个搜索结果页面上,我们假设用户点击过的链接比用户没有点过的链接对于此用户来说更加重要。研究者们用了很多中方法从用户的点击行为中获取用户的喜好特征。举例来说,有些研究者用一种叫Ranking SVM的算法通过用户的点击信息来获得对该用户来说最好的网页排序。在2005年Radlinski与Joachims的研究中,不但从用户的单次查询中提取用户喜好,同时也从用户对同一信息的一连串查询中提取用户的喜好,这些喜好特征然后通过Ranking SVM的改进算法来进行训练。Sun等人于2005年提出了一种基于Singluar Value Decomposition的算法,它通过分析用户的点击数据来提高搜索引擎的建议***的准确率。
关注时间:相对来说,关注时间是一个新型的隐式用户反馈。虽然它在近期的研究中越来越多被提到,但是关于它是否真的能够反映用户意图仍然有争辩。Kelly和Belkin建议说,在文档的关注时间和它对用户的有用度之间并没有非常可靠的相互关系。但是不同的是,在他们的研究当中,关注时间是通过测量一组用户阅读不同主题的文章而得到的平均关注时间。Halabi等人认为对于一个的用户在同一个搜索行为中关注时间,它可以很好的反映出用户的喜好。我们认为以上两个研究并不矛盾,因为他们所计算的关注时间并不相同。
发明内容
本发明的目的是克服现有技术的不足,提供一种基于用户关注时间的网络视频排序方法。
基于用户关注时间的网络视频排序方法,包括以下步骤:
1)利用自定义网页浏览器,获得用户对网络视频搜索结果中各个网络视频的关注时间;
2)对获得的每个用户关注时间进行校正;
3)基于图像相似度来预测未知网络视频中各个关键帧的用户关注时间;
4)对未知网络视频,通过该视频各关键帧的用户关注时间,计算该视频的用户关注时间;
5)利用获得或预测得的用户关注时间分别对网络视频搜索引擎得到的网络视频进行重新排序;
所述的利用自定义网页浏览器,获得用户对网络视频搜索结果中各个网络视频的关注时间步骤:
(a)使用一个自定义的网页浏览器,在网络视频搜索引擎获得的搜索结果页面中,追踪鼠标的移动位置,记录用户鼠标在各个搜索结果项的文本概要及缩略图上的停留时间,即为用户对网络视频概要的阅读时间;
(b)在用户通过搜索结果页面打开的视频中,记录用户在该视频中播放过的视频片段时间和,即为用户对网络视频的播放时间;
(c)网络视频的用户关注时间为用户对视频概要的阅读时间与对视频的播放时间之和;
所述的对获得的每个用户关注时间进行校正步骤:
(d)对获取到的用户关注时间样本通过公式:
t att inf ( u , v ) = max ( t att raw ( u , v ) - t basic ( u ) , 0 )
进行校正,其中
Figure A200810121649D00062
为从步骤1)中获得的用户关注时间,tbasic(v)为用户判断此视频是否值得观看所花费的时间,
Figure A200810121649D00063
为校正后的该视频的用户关注时间;tbasic(u)通常预设为2~10秒;
所述的基于图像相似度来预测未知网络视频中各个关键帧的用户关注时间步骤:
(e)对该未知视频,使用视频关键帧提取算法,提取出该视频关键帧;设提取出了m关键帧图像I1,I2...Im
(f)对每个用户播放过的视频vi,使用视频关键帧提取算法,在被用户播放过的视频片段中提取出关键帧图像;设提取出了m(i)个关键帧图像Ii1,Ii,2...Ii,m(i)
(g)对经步骤(e)提取出的未知视频中的每个关键帧图像Ij(j=1,2...m),计算该视频与经步骤(f)提取出的每个关键帧图像Ii,k(k=1,2...m(i)),利用图像相似度计算方法,计算出Ij与Ii,k间的相似度,记为Sim(Ij,Ii,k),Sim(Ij,Ii,k)取值为0~1间的实数;
(h)在每个用户播放过的视频vi的m(i)个关键帧图像中,找到使Sim(Ij,Ii,k)取值最大的n个关键帧图像;设这样的n个关键帧图像为Ii,1(j),Ii,2(j)...Ii,n(j);n通常预设为min(m(i),10);
(i)预测未知视频中每个关键帧图像Ij(j=1,2...m)的用户关注时间:
t att ( u , I j ) = Σ i = 1 m ( i ) Σ k = 1 n t att inf ( u , I i , n ( j ) ) Sim ( I j , I i , n ( j ) ) δ ( I j , I i , n ( j ) ) Σ i = 1 m ( i ) Σ k = 1 n Sim ( I j , I i , n ( j ) ) δ ( I j , I i , n ( j ) ) + ϵ
其中,
Figure A200810121649D00072
(u,Ii,n(j))为用户在关键帧图像为Ii,1(j)所代表的视频片段上的关注时间;ε为一个很小的正实数用来防止分母为0,预设为10-10;若Sim(di,dx)的值小于0.01,δ(di,dx)的取值为1,否则取值为0;
所述的对未知网络视频,通过该视频各关键帧的用户关注时间,计算该视频的用户关注时间步骤:
(j)对该未知视频v,通过公式:
t att ( u , v ) = Σ j = 1 m t att ( u , I j )
计算该视频的用户关注时间tatt(u,v);其中tatt(u,Ij)为在步骤(i)中预测得到的关键帧图像Ij的用户关注时间;
所述的利用获得或预测得的用户关注时间分别对网络视频搜索引擎得到的网络视频进行重新排序步骤:
(k)当用户提交一个网络视频搜索请求时,首先将查询重定向至现有的网络视频搜索引擎,搜索获得的前10~50个网络视频,对于其中的每个网络视频,使用如步骤(j)所述的方法预测该网络视频的用户关注时间;
(1)计算用户关注时间偏差;记第i个网络视频的用户关注时间偏差为
Figure A200810121649D00074
计算公式为:
t att offset ( i ) = 2 exp ( - κ · rand ( i ) ) 1 + exp ( - κ · rank ( i ) )
其中rank(i)表示第i个网络视频在由现有网络视频搜索引擎得到的搜索结果中的排名名次;参数κ用来控制用户关注时间随排名下降的速度,κ的值预设为0.2;
(m)对第i个网络视频,根据该视频用户关注时间tatt(i)和用户关注时间偏差
Figure A200810121649D00081
计算该视频全局关注时间
Figure A200810121649D00082
计算公式为:
t att overall ( i ) = κ overall t att ( i ) + t att offset ( i )
其中κoverall为用户自定义参数,用来控制网络视频排名受用户关注时间的影响程度,κoverall的值预设为0.1;
(n)对搜索获得的前10~50个网络视频,按照每个网络视频的总关注时间,从大到小对搜索获得的网络视频重新排序。
本发明有效地将用户的喜好结合在搜索过程中,更加准确的预测了未知网络视频对用户的潜在吸引力,使得最终的搜索排名结果更加接近用户期待的理想排名,从而使得网络视频搜索引擎为用户提供更好的个性化服务。
附图说明
图1是基于用户关注时间的网络视频排序方法的实施流程图;
图2是10组视频搜索的实验结果图表;从左到右是用户理想排名分别与视频搜索引擎YouTube的排名、以及用户观看过1,2,...,15个视频之后的排名之间的排名绝对误差总和。
具体实施方式
基于用户关注时间的网络视频排序方法,包括以下步骤:
1)利用自定义网页浏览器,获得用户对网络视频搜索结果中各个网络视频的关注时间;
2)对获得的每个用户关注时间进行校正;
3)基于图像相似度来预测未知网络视频中各个关键帧的用户关注时间;
4)对未知网络视频,通过该视频各关键帧的用户关注时间,计算该视频的用户关注时间;
5)利用获得或预测得的用户关注时间分别对网络视频搜索引擎得到的网络视频进行重新排序;
所述的利用自定义网页浏览器,获得用户对网络视频搜索结果中各个网络视频的关注时间步骤:
(a)使用一个自定义的网页浏览器,在网络视频搜索引擎获得的搜索结果页面中,追踪鼠标的移动位置,记录用户鼠标在各个搜索结果项的文本概要及缩略图上的停留时间,即为用户对网络视频概要的阅读时间;
(b)在用户通过搜索结果页面打开的视频中,记录用户在该视频中播放过的视频片段时间和,即为用户对网络视频的播放时间;
(c)网络视频的用户关注时间为用户对视频概要的阅读时间与对视频的播放时间之和;
所述的对获得的每个用户关注时间进行校正步骤:
(d)对获取到的用户关注时间样本通过公式:
t att inf ( u , v ) = max ( t att raw ( u , v ) - t basic ( u ) , 0 )
进行校正,其中
Figure A200810121649D00092
为从步骤1)中获得的用户关注时间,tbasic(v)为用户判断此视频是否值得观看所花费的时间,
Figure A200810121649D00093
为校正后的该视频的用户关注时间;tbasic(u)通常预设为2~10秒;
所述的基于图像相似度来预测未知网络视频中各个关键帧的用户关注时间步骤:
(e)对该未知视频,使用视频关键帧提取算法,提取出该视频关键帧;设提取出了m关键帧图像I1,I2...Im
(f)对每个用户播放过的视频vi,使用视频关键帧提取算法,在被用户播放过的视频片段中提取出关键帧图像;设提取出了m(i)个关键帧图像Ii,1,Ii,2...Ii,m(i)
(g)对经步骤(e)提取出的未知视频中的每个关键帧图像Ij(j=1,2...m),计算该视频与经步骤(f)提取出的每个关键帧图像Ii,k(k=1,2...m(i)),利用图像相似度计算方法,计算出Ij与Ii,k间的相似度,记为Sim(Ij,Ii,k),Sim(Ij,Ii,k)取值为0~1间的实数;
(h)在每个用户播放过的视频vi的m(i)个关键帧图像中,找到使Sim(Ij,Ii,k)取值最大的n个关键帧图像;设这样的n个关键帧图像为Ii,1(j),Ii,2(j)...Ii,n(j);n通常预设为min(m(i),10);
(i)预测未知视频中每个关键帧图像Ij(j=1,2...m)的用户关注时间:
t att ( u , I j ) = Σ i = 1 m ( i ) Σ k = 1 n t att inf ( u , I i , n ( j ) ) Sim ( I j , I i , n ( j ) ) δ ( I j , I i , n ( j ) ) Σ i = 1 m ( i ) Σ k = 1 n Sim ( I j , I i , n ( j ) ) δ ( I j , I i , n ( j ) ) + ϵ
其中,
Figure A200810121649D00095
(u,Ii,n(j))为用户在关键帧图像为Ii,1(j)所代表的视频片段上的关注时间;ε为一个很小的正实数用来防止分母为0,预设为10-10;若Sim(di,dx)的值小于0.01,δ(di,dx)的取值为1,否则取值为0;
所述的对未知网络视频,通过该视频各关键帧的用户关注时间,计算该视频的用户关注时间步骤:
(j)对该未知视频v,通过公式:
t att ( u , v ) = Σ j = 1 m t att ( u , I j )
计算该视频的用户关注时间tatt(u,v);其中tatt(u,Ij)为在步骤(i)中预测得到的关键帧图像Ij的用户关注时间;
所述的利用获得或预测得的用户关注时间分别对网络视频搜索引擎得到的网络视频进行重新排序步骤:
(k)当用户提交一个网络视频搜索请求时,首先将查询重定向至现有的网络视频搜索引擎,搜索获得的前10~50个网络视频,对于其中的每个网络视频,使用如步骤(j)所述的方法预测该网络视频的用户关注时间;
(1)计算用户关注时间偏差;记第i个网络视频的用户关注时间偏差为
Figure A200810121649D00102
计算公式为:
t att offset ( i ) = 2 exp ( - κ · rank ( i ) ) 1 + exp ( - κ · rank ( i ) )
其中rank(i)表示第i个网络视频在由现有网络视频搜索引擎得到的搜索结果中的排名名次;参数κ用来控制用户关注时间随排名下降的速度,κ的值预设为0.2;
(m)对第i个网络视频,根据该视频用户关注时间tatt(i)和用户关注时间偏差
Figure A200810121649D00104
计算该视频全局关注时间
Figure A200810121649D00105
计算公式为:
t att overall ( i ) = κ overall t att ( i ) + t att offset ( i )
其中κoverall为用户自定义参数,用来控制网络视频排名受用户关注时间的影响程度,κoverall的值预设为0.1;
(n)对搜索获得的前10~50个网络视频,按照每个网络视频的总关注时间,从大到小对搜索获得的网络视频重新排序。
实施例:
本发明的基于用户关注时间的网络视频排序方法的流程结构如图1所示。该个性化排序***包括客户端和服务端两部分,客户端20、自定义浏览器来获取用户的关注时间,服务端包括30、样本收集模块,40、关注时间校正,50、用户数据库和60、视频数据库,70、查询界面,80、传统引擎模块,90、视频预处理模块,100、视频比较模块,110、关注时间预测模块,120、排序模块。
自定义浏览器20,对用户的鼠标移动进行追踪分析,得出用户在各个视频概要上的关注时间;对网页上的视频播放控件进行监控,得出用户播放各个视频片段的时间。
样本收集模块30,将客户端发送的样本数据存入对应用户的数据库中,如果某视频在视频数据库中不存在,则下载并存入视频数据库。
关注时间校正模块40,直接从客户端获得的预测关注时间还需要进行校正,当用户浏览一个视频时,不管此视频是否对该用户有用,用户都得花一段时间去粗略的浏览此视频。一般来说,此时获得关注时间既包括了用户的实际关注时间也包括了用户粗略浏览该视频的时间,为了克服这个问题,我们以下这个方程来校正我们原先获得的关注时间:
t att inf ( u , d ) = max ( t att raw ( u , d ) - t basic ( u ) , 0 )
Figure A200810121649D00112
是我们原先获得的关注时间,tbasic(u)是用户用来判断此视频是否值得一读的时间,
Figure A200810121649D00113
则是潜在的该视频d包含的关注时间。
用户数据库50,存储***各个用户对视频的关注时间,在本例中用MYSQL存储。
视频数据库60,存储视频的数据,在本例中用flv文件格式存储原始视频,以MYSQL数据库存储视频的关键帧图像。
查询界面70,提供一个用户查询的web入口,提供视频文本搜索服务。在本例中,此查询界面用jsp实现。
传统引擎模块80,当用户提交一个查询请求时,服务端会对传统搜索引擎(比如YouTube)的结果页面进行解析并获取其返回结果中的前300个视频,并将视频下载存至视频服务器。
视频预处理模块90,直接从网站下载下来的视频页包含很多无用信息,比如HTML标签,广告栏,导航栏等。此模块用于去除网页中的无用信息,保留用户将关注的主体视频。在本例中,我们实现了,去除HTML标签功能。
视频比较模块100,我们采用了2000年IEEE的一篇论文Key frame selectionto represent a video中的视频关键帧提取方法,并选用基于“Auto ColorCorrelogram”(Huang et al.1997)的相似度算法为图片相似度算法。
关注时间预测模块110,包含以下几个步骤:
a.)此模块对于传统引擎模块中的每个视频都进行关注时间的预测。首先我们把每个训练样本表示为{tatt(u,Vi)|i=1,...n},其中n是当前用户阅读过的视频的个数。阅读过的视频表示为Vi(i=1,...,n)。对于传统引擎返回的视频Vx的时候,我们会计算视频文档Vx和测试集中的所有视频进行相似度计算。然后我们会挑选出k个具有最高相似度的视频。在我们的实验中,我们把k设为min(10,n)。我们挑选出来的视频为Vi(i=1,...,k).然后我们用以下这个方程来预测Vx的关注时间。
t att ( u , V x ) = Σ i = 1 k ( t att ( u , V x ) Sim γ ( V i , V x ) δ ( V i , V x ) ) Σ i = 1 k ( Sim γ ( V i , V x ) δ ( V i , V x ) ) + ϵ
其中γ用来控制Sim(,)的值占多的比重,ε是一个很小的正整数用来防止表达式的分母为0。函数δ(,)用来去除一些相似度非常低的图像,它被定义为
δ ( d i , d x ) = 1 If Sim γ ( d i , d x ) > 0.01 0 Otherwise
b.)在***运行的初期,我们还会将传统引擎的排名转化成一个关注时间偏差。我们用下面这个方程将传统排名转化成一个值在0和1之间的标准化关注时间偏差:
t atten offset ( i ) = 2 exp ( - κ d · rank ( i ) ) 1 + exp ( - κ d · rank ( i ) )
其中rank(i)表示的视频i在传统搜索引擎的排名。我们之所以选择这样一个式子是因为它可以把网页排名信息转换成关注时间,而且让排名较低的视频转化所得的关注时间相对更短。参数κd用来控制关注时间随排名下降的坡度,在我们是实验中,我们设定为0.2。
c.)一旦我们得到了视频i的关注时间tatten(i)和偏差
Figure A200810121649D00124
我们可以获得该视频的全局关注时间: t atten overall i = κ overall t atten i t atten offset i . 参数κoverall是一个用户变量,用来控制该用户希望个性化的排名占的比重。最终视频的排名就是按照全局关注时间的降序来排列的。我们实现了种自动设置κoverall值的方法,当训练集中的样本很少的时候,κoverall值较小,并且当训练集中的样本变的越来越多的时候,κoverall值越来越大。之所以这样是因为我们的排序算法从根本上来说是一个学习算法。但是,就像其他学习算法一样,当训练样本集还很小的时候,算法会产生比较差的结果,因此我们需要借鉴传统引擎的排序结果。在我们的实验中,我们一个S形函数去自动验证κoverall的值,发现它是一个常量,通常为0.1。
排序模块120,排序模块将结果按照所有视频按照全局关注时间进行倒序排列,并将结果返回给用户。
图2的实验结果清晰的显示出本方法的优越性;图2以图形化的形式显示了10个不同的用户对不同关键词做视频搜索的实验数据;每一行表示每组实验中所得排名与用户理想排名之间的排名绝对误差总和。
上述结果表明,本发明有效地将用户的喜好结合在搜索过程中,使得最终的排名结果更加接近用户期待的理想排名,从而使得网络视频搜索引擎为用户提供更好的个性化服务。
以上所述仅为本发明的基于用户关注时间的网络视频排序方法的较佳实施例,并非用以限定本发明的实质技术内容的范围。本发明的基于用户关注时间的网络视频排序方法,其实质技术内容是广泛的定义于权利要求书中,任何他人所完成的技术实体或方法,若是与权利要求书中所定义者完全相同,或是同一等效的变更,均将被视为涵盖于此专利保护范围之内。

Claims (6)

1.一种基于用户关注时间的网络视频排序方法,其特征在于包括以下步骤:
1)利用自定义网页浏览器,获得用户对网络视频搜索结果中各个网络视频的关注时间;
2)对获得的每个用户关注时间进行校正;
3)基于图像相似度来预测未知网络视频中各个关键帧的用户关注时间;
4)对未知网络视频,通过该视频各关键帧的用户关注时间,计算该视频的用户关注时间;
5)利用获得或预测得的用户关注时间分别对网络视频搜索引擎得到的网络视频进行重新排序。
2.根据权利要求1所述的一种基于用户关注时间的网络视频排序方法,其特征在于所述的利用自定义网页浏览器,获得用户对网络视频搜索结果中各个网络视频的关注时间步骤:
(a)使用一个自定义的网页浏览器,在网络视频搜索引擎获得的搜索结果页面中,追踪鼠标的移动位置,记录用户鼠标在各个搜索结果项的文本概要及缩略图上的停留时间,即为用户对网络视频概要的阅读时间;
(b)在用户通过搜索结果页面打开的视频中,记录用户在该视频中播放过的视频片段时间和,即为用户对网络视频的播放时间;
(c)网络视频的用户关注时间为用户对视频概要的阅读时间与对视频的播放时间之和。
3.根据权利要求1所述的一种基于用户关注时间的网络视频排序方法,其特征在于所述的对获得的每个用户关注时间进行校正步骤:
(d)对获取到的用户关注时间样本通过公式:
t att inf ( u , v ) = max ( t att raw ( u , v ) - t basic ( u ) , 0 )
进行校正,其中
Figure A200810121649C00022
为从步骤1)中获得的用户关注时间,tbasic(v)为用户判断此视频是否值得观看所花费的时间,
Figure A200810121649C00023
为校正后的该视频的用户关注时间;tbasic(u)通常预设为2~10秒。
4.根据权利要求1所述的一种基于用户关注时间的网络视频排序方法,其特征在于所述的基于图像相似度来预测未知网络视频中各个关键帧的用户关注时间步骤:
(e)对该未知视频,使用视频关键帧提取算法,提取出该视频关键帧;设提取出了m关键帧图1像I1,I2...Im
(f)对每个用户播放过的视频vi,使用视频关键帧提取算法,在被用户播放过的视频片段中提取出关键帧图像;设提取出了m(i)个关键帧图像Ii,1,Ii,2...Ii,m(i)
(g)对经步骤(e)提取出的未知视频中的每个关键帧图像Ij(j=1,2...m),计算该视频与经步骤(f)提取出的每个关键帧图像Ii,k(k=1,2...m(i)),利用图像相似度计算方法,计算出Ij与Ii,k间的相似度,记为Sim(Ij,Ii,k),Sim(Ij,Ii,k)取值为0~1间的实数;
(h)在每个用户播放过的视频vi的m(i)个关键帧图像中,找到使Sim(Ij,Ii,k)取值最大的n个关键帧图像;设这样的n个关键帧图像为Ii,1(j),Ii,2(j)...Ii,n(j);n通常预设为min(m(i),10);
(i)预测未知视频中每个关键帧图像Ij(j=1,2...m)的用户关注时间:
t att ( u , I j ) = Σ i = 1 m ( i ) Σ k = 1 n t att inf ( u , I i , n ( j ) ) Sim ( I j , I i , n ( j ) ) δ ( I j , I i , n ( j ) ) Σ i = 1 m ( i ) Σ k = 1 n Sim ( I j , I i , n ( j ) ) δ ( I j , I i , n ( j ) ) + ϵ
其中,为用户在关键帧图像为Ii,1(j)所代表的视频片段上的关注时间;ε为一个很小的正实数用来防止分母为0,预设为10-10;若Sim(di,dx)的值小于0.01,δ(di,dx)的取值为1,否则取值为0。
5.根据权利要求1所述的一种基于用户关注时间的网络视频排序方法,其特征在于所述的对未知网络视频,通过该视频各关键帧的用户关注时间,计算该视频的用户关注时间步骤:
(j)对该未知视频v,通过公式:
t att ( u , v ) = Σ j = 1 m t att ( u , I j )
计算该视频的用户关注时间tatt(u,v);其中tatt(u,Ij)为在步骤(i)中预测得到的关键帧图像Ij的用户关注时间。
6.根据权利要求1所述的一种基于用户关注时间的网络视频排序方法,其特征在于所述的利用获得或预测得的用户关注时间分别对网络视频搜索引擎得到的网络视频进行重新排序步骤:
(k)当用户提交一个网络视频搜索请求时,首先将查询重定向至现有的网络视频搜索引擎,搜索获得的前10~50个网络视频,对于其中的每个网络视频,使用如步骤(j)所述的方法预测该网络视频的用户关注时间;
(1)计算用户关注时间偏差;记第i个网络视频的用户关注时间偏差为计算公式为:
t att offset ( i ) = 2 exp ( - κ · rank ( i ) ) 1 + exp ( - κ · rank ( i ) )
其中rank(i)表示第i个网络视频在由现有网络视频搜索引擎得到的搜索结果中的排名名次;参数κ用来控制用户关注时间随排名下降的速度,κ的值预设为0.2;
(m)对第i个网络视频,根据该视频用户关注时间tatt(i)和用户关注时间偏差
Figure A200810121649C00042
计算该视频全局关注时间计算公式为:
t att overall ( i ) = κ overall t att ( i ) + t att offset ( i )
其中κoverall为用户自定义参数,用来控制网络视频排名受用户关注时间的影响程度,κoverall的值预设为0.1;
(n)对搜索获得的前10~50个网络视频,按照每个网络视频的总关注时间,从大到小对搜索获得的网络视频重新排序。
CN2008101216493A 2008-10-23 2008-10-23 一种基于用户关注时间的网络视频排序方法 Expired - Fee Related CN101382938B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2008101216493A CN101382938B (zh) 2008-10-23 2008-10-23 一种基于用户关注时间的网络视频排序方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2008101216493A CN101382938B (zh) 2008-10-23 2008-10-23 一种基于用户关注时间的网络视频排序方法

Publications (2)

Publication Number Publication Date
CN101382938A true CN101382938A (zh) 2009-03-11
CN101382938B CN101382938B (zh) 2012-01-04

Family

ID=40462781

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008101216493A Expired - Fee Related CN101382938B (zh) 2008-10-23 2008-10-23 一种基于用户关注时间的网络视频排序方法

Country Status (1)

Country Link
CN (1) CN101382938B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102682132A (zh) * 2012-05-18 2012-09-19 合一网络技术(北京)有限公司 一种基于词频、播放量和创建时间检索信息的方法及***
CN102740143A (zh) * 2012-07-03 2012-10-17 合一网络技术(北京)有限公司 一种基于用户行为的网络视频榜单生成***及其方法
CN102855261A (zh) * 2011-07-01 2013-01-02 上海聚力传媒技术有限公司 一种用于确定视频权威值的方法与设备
CN103559203A (zh) * 2013-10-08 2014-02-05 北京奇虎科技有限公司 网页排序方法、装置和***
CN104462573A (zh) * 2014-12-29 2015-03-25 北京奇艺世纪科技有限公司 一种视频搜索结果展示方法及装置
CN109299324A (zh) * 2018-10-19 2019-02-01 四川巧夺天工信息安全智能设备有限公司 一种标签式视频文件的检索方法
CN113596556A (zh) * 2021-07-02 2021-11-02 咪咕互动娱乐有限公司 视频传输方法、服务器及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109947957A (zh) * 2017-07-27 2019-06-28 环球智达科技(北京)有限公司 一种实现媒体文件综合排序的方法和装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102855261A (zh) * 2011-07-01 2013-01-02 上海聚力传媒技术有限公司 一种用于确定视频权威值的方法与设备
CN102682132A (zh) * 2012-05-18 2012-09-19 合一网络技术(北京)有限公司 一种基于词频、播放量和创建时间检索信息的方法及***
CN102740143A (zh) * 2012-07-03 2012-10-17 合一网络技术(北京)有限公司 一种基于用户行为的网络视频榜单生成***及其方法
CN102740143B (zh) * 2012-07-03 2014-08-20 合一网络技术(北京)有限公司 一种基于用户行为的网络视频榜单生成***及其方法
CN103559203A (zh) * 2013-10-08 2014-02-05 北京奇虎科技有限公司 网页排序方法、装置和***
CN104462573A (zh) * 2014-12-29 2015-03-25 北京奇艺世纪科技有限公司 一种视频搜索结果展示方法及装置
CN104462573B (zh) * 2014-12-29 2019-04-12 北京奇艺世纪科技有限公司 一种视频搜索结果展示方法及装置
CN109299324A (zh) * 2018-10-19 2019-02-01 四川巧夺天工信息安全智能设备有限公司 一种标签式视频文件的检索方法
CN113596556A (zh) * 2021-07-02 2021-11-02 咪咕互动娱乐有限公司 视频传输方法、服务器及存储介质
CN113596556B (zh) * 2021-07-02 2023-07-21 咪咕互动娱乐有限公司 视频传输方法、服务器及存储介质

Also Published As

Publication number Publication date
CN101382938B (zh) 2012-01-04

Similar Documents

Publication Publication Date Title
Afoudi et al. Hybrid recommendation system combined content-based filtering and collaborative prediction using artificial neural network
US20210271975A1 (en) User tag generation method and apparatus, storage medium, and computer device
CN110162700B (zh) 信息推荐及模型的训练方法、装置、设备以及存储介质
CN102929928B (zh) 基于多维相似度的个性化新闻推荐方法
CN101382938A (zh) 一种基于用户关注时间的网络视频排序方法
Bogers Movie recommendation using random walks over the contextual graph
Gantner et al. Learning attribute-to-feature mappings for cold-start recommendations
CN102982042B (zh) 一种个性化内容推荐方法、平台以及***
US20240220554A1 (en) Enhanced search to generate a feed based on a user's interests
CN108280114B (zh) 一种基于深度学习的用户文献阅读兴趣分析方法
CN105426528A (zh) 一种商品数据的检索排序方法及***
Zhang et al. Hashtag recommendation for photo sharing services
CN105022827A (zh) 一种面向领域主题的Web新闻动态聚合方法
CN101382939A (zh) 基于眼球跟踪的网页文本个性化搜索方法
US20170199930A1 (en) Systems Methods Devices Circuits and Associated Computer Executable Code for Taste Profiling of Internet Users
Wang et al. Towards accurate and interpretable sequential prediction: A CNN & attention-based feature extractor
Khoali et al. Advanced recommendation systems through deep learning
Jariha et al. A state-of-the-art Recommender Systems: An overview on Concepts, Methodology and Challenges
Wang et al. A personalized movie recommendation system based on LSTM-CNN
Koutrika Modern recommender systems: from computing matrices to thinking with neurons
Guha Improving the performance of an artificial intelligence recommendation engine with deep learning neural nets
Yang et al. Design and application of handicraft recommendation system based on improved hybrid algorithm
CN111859138B (zh) 搜索方法及装置
Weimer et al. Adaptive collaborative filtering
Song et al. QIVISE: a quantum-inspired interactive video search engine in VBS2023

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120104

Termination date: 20151023

EXPY Termination of patent right or utility model