CN109257584A - 360度视频传输的用户观看视点序列预测方法 - Google Patents

360度视频传输的用户观看视点序列预测方法 Download PDF

Info

Publication number
CN109257584A
CN109257584A CN201810886661.7A CN201810886661A CN109257584A CN 109257584 A CN109257584 A CN 109257584A CN 201810886661 A CN201810886661 A CN 201810886661A CN 109257584 A CN109257584 A CN 109257584A
Authority
CN
China
Prior art keywords
view sequence
viewpoint position
viewpoint
user
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810886661.7A
Other languages
English (en)
Other versions
CN109257584B (zh
Inventor
邹君妮
杨琴
刘昕
李成林
熊红凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN201810886661.7A priority Critical patent/CN109257584B/zh
Publication of CN109257584A publication Critical patent/CN109257584A/zh
Application granted granted Critical
Publication of CN109257584B publication Critical patent/CN109257584B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种360度视频传输的用户观看视点序列预测方法,所述方法包括:将用户过去时刻的视点位置作为视点序列预测模型的输入,通过所述视点序列预测模型预测未来多个时刻的视点位置,所述未来多个时刻的视点位置构成第一视点序列;通过视点跟踪模型,将视频内容作为所述视点跟踪模型的输入,通过所述视点跟踪模型预测未来多个时刻的视点位置,所述未来多个时刻的视点位置构成第二视点序列;结合第一视点序列和第二视点序列,确定用户未来的观看视点序列。本发明中的预测方法能够具有良好的实用性和扩展性,能够根据用户头部运动速度改变预测视点的序列长度。

Description

360度视频传输的用户观看视点序列预测方法
技术领域
本发明涉及视频通信技术领域,具体地,涉及360度视频传输的用户观看视点序列预测方法。
背景技术
360度视频是虚拟现实技术的一种重要应用,与传统视频相比,360度视频采用全方位摄像头捕捉现实世界每个方位景象,并将这些景象拼接以形成全景图像。当观看360度视频时,用户可以自由转动头部调整观看视角,获得沉浸式体验。然而,360度视频有超高的分辨率,传输完整360度视频需要消耗的带宽高达传统视频的6倍以上。在网络带宽资源受限的情况下,特别是对于移动网络来说,传输完整的360度视频是很困难的。
受限于头戴式显示器的视场区域,每个时刻用户只能观看360度视频的一部分。因此根据用户头部运动选择用户感兴趣的视频区域进行传输能够更加有效利用带宽。从获取用户的需求信息,并将这一信息反馈至服务器端,直至用户接收到视频内容,会经历从用户到服务器的往返时延(Round-Trip Time,RTT)。而用户在这一时间段内可能已经发生了头部位置移动,导致用户接收到的内容不再是其感兴趣的部分。为了避免RTT时延带来的传输滞后性,需要对用户的视点进行预测。
经过对现有技术的检索发现,为了实现用户的视点预测,一种常用方法是通过对过去时刻的视点位置来推断未来时刻的视点位置。Y.Bao等人在《IEEE InternationalConference on Big Data》会议上发表了题为“Shooting a moving target:Motion-prediction-based transmission for 360-degree videos”的文章,该文章提出了直接将当前时刻的视点位置作为未来时刻的视点位置的简单模型,及采用线性回归、前馈神经网络对用户视点位置随时间的变化关系进行回归分析,进而预测未来时刻的视点位置等三种回归模型。但是,诸如用户职业,年龄,性别,偏好等因素会影响用户对于360度视频的感兴趣区域,未来时刻的视点位置与过去时刻的视点位置之间的关系可以表征为非线性和长时间依赖关系,该文章提出的三种预测模型只能预测单个视点位置,无法预测未来多个时刻的视点位置。
经检索还发现,A.D.Aladagli等人在《International Conference on 3dImmersion,2018,pp.1-6》发表了题为“Predicting head trajectories in 360virtualreality videos”的文章,该文章考虑了视频内容对于用户视点位置的影响,基于显著性算法预测视频的显著性区域,以此预测用户视点位置。但是,该文章没有考虑过去时刻视点位置对于观看视点的影响。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种360度视频传输的用户观看视点序列预测方法。
本发明提供一种360度视频传输的用户观看视点序列预测方法,包括:
将用户过去时刻的视点位置作为视点序列预测模型的输入,通过所述视点序列预测模型预测未来多个时刻的视点位置,所述未来多个时刻的视点位置构成第一视点序列;
通过视点跟踪模型,将视频内容作为所述视点跟踪模型的输入,通过所述视点跟踪模型预测未来多个时刻的视点位置,所述未来多个时刻的视点位置构成第二视点序列;
结合第一视点序列和第二视点序列,确定用户未来的观看视点序列。
可选地,在将用户过去时刻的视点位置作为视点序列预测模型的输入,通过所述视点序列预测模型预测未来多个时刻的视点位置之前,还包括:
基于循环神经网络构建视点序列预测模型;其中,所述视点序列预测模型用于将输入的视点位置编码后输入到循环神经网络,计算隐藏单元和输出单元的值,学习用户不同时刻的观看视点间的长时间依赖关系,输出未来多个时刻的视点位置;所述视点位置包括:俯仰角、偏航角、滚动角的单位圆投影,所述视点位置的变化范围为-1到1;采用双曲正切函数作为输出单元的激活函数,所述激活函数限定所述视点位置的输出范围。
可选地,所述将用户过去时刻的视点位置作为视点序列预测模型的输入,通过所述视点序列预测模型预测未来多个时刻的视点位置,包括:
将用户当前时刻的视点位置作为所述视点序列预测模型第一次迭代的输入,得到第一次迭代的预测视点位置;
循环将上一次迭代的预测视点位置作为所述视点序列预测模型下一次迭代的输入,得到未来多个时刻的预测视点位置。
可选地,所述第一视点序列的长度与用户观看时头部运动的速度有关,用户头部运动速度越慢,则对应的第一视点序列的长度越长;用户头部运动速度越快,则对应的第一视点序列的长度越短。
可选地,在通过视点跟踪模型,将视频内容作为所述视点跟踪模型的输入,通过所述视点跟踪模型预测未来多个时刻的视点位置之前,还包括:
根据目标跟踪相关的滤波器算法构建视点跟踪模型,其中,所述相关的滤波器算法是指:设置相关滤波器,所述相关滤波器对视点位置的视频区域会形成最大响应值。
可选地,所述通过视点跟踪模型,将视频内容作为所述视点跟踪模型的输入,通过所述视点跟踪模型预测未来多个时刻的视点位置,包括:
采用等距圆柱投影方式,将未来时刻的360度视频帧的球形图像投影成平面图像;
通过所述视点跟踪模型在所述平面图像中确定一个边界框,所述边界框中的区域即为视点区域,根据所述视点区域确定对应的视点位置。
可选地,所述结合第一视点序列和第二视点序列,确定用户未来的观看视点序列,包括:
为所述第一视点序列中的视点位置和所述第二视点序列中的视点位置,分别设置不同的权重值w1和w2;且权重w1和w2满足w1+w2=1;其中:权重值w1和w2的设置需要满足预测的用户未来的观看视点位置与实际用户观看视点位置的误差最小原则;
根据权重值w1和w2,以及第一视点序列中的视点位置、第二视点序列中的视点位置,计算用户未来的观看视点序列;计算公式中如下:
其中:为t+1时刻到t+tw时刻用户未来的观看视点位置,w1为第一视点序列的权重值,为t+1时刻到t+tw时刻第一视点序列中的视点位置,w2为第二视点序列的权重值,为t+1时刻到t+tw时刻第二视点序列中的视点位置,⊙表示逐元素相乘运算,t为当前时刻,tw为预测时间窗。
可选地,随着预测时刻的增大,所述视点跟踪模型所预测的第二视点序列的权重w2逐渐减小。
与现有技术相比,本发明具有如下的有益效果:
本发明提供的360度视频传输的用户观看视点序列预测方法,结合了循环神经网络学习用户不同时刻的观看视点之间的长时间依赖关系,基于过去时刻的用户视点位置预测未来多个时刻的视点位置;同时考虑了视频内容对观看视点的影响,基于视频内容预测未来的视点序列;最后综合循环神经网络和视频内容对观看视点的影响,得到用户未来的观看视点序列,能够根据用户头部运动速度改变预测视点序列的长度,具有良好的实用性和扩展性。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明一实施例提供的应用360度视频传输的用户观看视点序列预测方法的***框图;
图2为本发明一实施例提供的视点区域的原理示意图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
图1为本发明一实施例提供的应用360度视频传输的用户观看视点序列预测方法的***框图,如图1所示,包括:基于循环神经网络的视点预测模块,基于相关滤波器的视点跟踪模块,融合模块,其中:循环神经网络视点预测模块,结合循环神经网络学习用户不同时刻的观看视点之间的长时间依赖关系,基于过去时刻的用户视点位置预测未来多个时刻的视点位置;相关滤波器视点跟踪模块,考虑了视频内容对观看视点的影响,提出基于相关滤波器的视点跟踪模块,探索视频内容和视点序列之间的关系,基于视频内容预测未来的视点序列;融合模块,结合了循环神经网络视点预测模块和相关滤波器视点跟踪模块的预测结果,两个模块优势互补,提高了模型的预测准确度。
本实施例中,结合循环神经网络学习用户不同时刻的观看视点之间的长时间依赖关系,基于过去时刻的用户视点位置预测未来多个时刻的视点位置;同时考虑了视频内容对观看视点的影响,提出基于相关滤波器的视点跟踪模块,探索视频内容和视点序列之间的关系,基于视频内容预测未来的视点序列;最后通过融合模块结合了循环神经网络视点预测模块和相关滤波器视点跟踪模块的预测结果,两个模块优势互补,提高了模型的预测准确度。本发明提出的视点序列预测结构,能够根据用户头部运动速度改变预测视点的序列长度,具有良好的实用性和扩展性,为360度视频的高效传输打下了坚实基础。
具体地,本实施例中,预测视点位置实际为预测俯仰角(θ)、偏航角和滚动角(ψ)的单位圆投影位置,其中预测俯仰角(θ)、偏航角和滚动角(ψ)对应用户头部绕X轴,Y轴和Z轴进行旋转的角度。图2为本发明一实施例提供的视点区域的原理示意图,参见图2;定义用户头部的初始位置的这三个角度均为0度,每个角度变化范围在-180°到180°之间。对于采用头戴式显示器观看视频的用户来说,这三个角度确定了唯一的视点位置,当用户转动头部时,实验表明偏航角相对于另外两个角度变化最明显,所以最难预测。
在本实例中,主要关注对于偏航角的预测,提出的***结构可以直接延伸到另外两个角的预测。根据角度定义,-180°和179°相差1°而不是359°,为了避免这个问题,首选需要对预测角度进行变换,采用作为输入,其中在输出预测结果之前,对预测得到的Vt做反变换,其中其中,Vt为t时刻偏航角经过g函数变换后所得输出向量,为t时刻偏航角的正弦值,为t时刻偏航角的余弦值,为t时刻对偏航角的函数变换。
本实施例中,所述循环神经网络视点预测模块采用当前时刻视点位置作为输入,预测多个时刻偏航角其中tw是预测时间窗,为t+1时刻偏航角的值,为t+tw时刻偏航角的值。如果用户头部运动缓慢,可以选择一个较大预测时间窗tw,反之预测时间窗需要设置一个较小值。在训练过程中,对于每一个时间步i,将编码为128维向量xi,i的取值范围为t到t+tw-1。然后将xi输入到循环神经网络中,计算隐藏单元hi,和输出单元从t到t+tw-1每个时间步,应用至以下更新方程:
hi=σ2(Whxxi+Whhhi-1+bh) (2)
yi=Wohhi+bo (3)
其中,Wxv为将偏航角编码为128维向量xi过程的权重矩阵,Whx为输入单元xi到隐藏单元hi连接的权重矩阵,Whh为i-1时刻的隐藏单元hi-1到i时刻的隐藏单元hi连接的权重矩阵,Woh为隐藏单元hi到输出单元oi连接的权重矩阵,bx为编码过程的偏置向量,bh为计算隐藏单元hi的偏置向量,bo为计算输出单元oi的偏置向量。在测试过程中,采用当前时刻视点位置作为第一次迭代的输入,对于其他时间步,采用上一次迭代的预测结果作为下一次迭代的输入,即σ1和σ2是激活函数,其中,σ1是线性整流函数,σ2是双曲正切函数;为i+1时刻用户视点位置的预测值,为对i时刻偏航角的函数变换值,hi-1为i-1时刻的隐藏单元,g-1(yi)为对于输出结果yi的g函数反变换。
本实施例中,所述相关滤波器视点跟踪模块根据目标跟踪相关滤波器算法,设计的相关滤波器对于视点所在区域有最大响应,采用未来时刻360度视频帧作为输入,基于视频内容对视点位置做出预测;其中:Ft+1为t+1时刻360度视频帧,为t+tw时刻360度视频帧。由于目标跟踪相关滤波器算法主要用于跟踪视频中的具体物体,本实施例中跟踪的视点相比具体物体更加抽象。因此,需要先采用等距圆柱投影方式将360度视频帧的球形图像投影成平面图像,在平面图像上重新定位视点对应区域。对于投影得到的平面图像来说,靠近极点的图像内容被水平展开,相应的视点对应区域不再是矩形,所以在视点周围设定一个边界框,重新定义视点区域大小和形状。由此,可以基于视频内容预测出视点的边界框,从而预测出视点位置
本实施例中,结合了循环神经网络视点预测模块和相关滤波器视点跟踪模块的预测结果,赋予不同权重以得到最终预测结果,即 其中,是最终的预测结果,分别是循环神经网络视点预测模块和相关滤波器视点跟踪模块的预测结果,⊙和逐元素相乘,权重w1和w2满足w1+w2=1,采用使得最终的视点位置预测值误差最小的权重值。其中,所述相关滤波器视点跟踪模块,滤波器无法进行更新,视点估计值和真实值之间的差距随着误差累积逐渐增加,对于大的预测窗,相关滤波器视点跟踪的预测结果的权重逐渐减小。将基于循环神经网络的视点序列预测模块和基于相关滤波器的视点跟踪***模块优势互补,提高了预测准确度。
本实施例中关键参数的设置为:实验数据来源于Y.Bao等人在《IEEEInternational Conference on Big Data》会议上发表了题为“Shooting a movingtarget:Motion-prediction-based transmission for 360-degree videos”的文章,该数据采集了153个志愿者观看16段360度视频时的头部运动信息,部分志愿者只观看部分视频,共采集985个观看样本。在本实施例数据预处理中,对每个观看样本进行每秒10次的采样,每个观看样本共记录289个运动数据,共得到285665个运动数据。采用80%的运动数据作为训练集,20%的运动数据作为测试集。对所述循环神经网络模块,隐藏单元大小设为256,采用Adam(自适应矩估计)优化方法,动量和权重衰减分别设置为0.8和0.999。批量大小为128,共训练500个周期。学习率在前250个周期训练过程中从0.001到0.0001线性衰减。对所述相关滤波器视点跟踪模块,调整图像大小为1800×900,设置边界框大小为10×10。对于所述融合模块,对w1和w2赋不同值,选择使得最终的视点位置预测值误差最小的作为最终权重值。
本发明为适应360度视频传输中提高带宽利用率的需要,提出了基于用户过去时刻视点位置和360度视频内容的视点序列预测***。本发明提出的视点序列预测结构,能够预测未来多个时刻用户的视点位置,并且能够根据用户头部运动速度改变预测视点的序列长度,具有良好的实用性和扩展性,为360度视频的高效传输打下了坚实基础。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。

Claims (8)

1.一种360度视频传输的用户观看视点序列预测方法,其特征在于,包括:
将用户过去时刻的视点位置作为视点序列预测模型的输入,通过所述视点序列预测模型预测未来多个时刻的视点位置,所述未来多个时刻的视点位置构成第一视点序列;
通过视点跟踪模型,将视频内容作为所述视点跟踪模型的输入,通过所述视点跟踪模型预测未来多个时刻的视点位置,所述未来多个时刻的视点位置构成第二视点序列;
结合第一视点序列和第二视点序列,确定用户未来的观看视点序列。
2.根据权利要求1所述的360度视频传输的用户观看视点序列预测方法,其特征在于,在将用户过去时刻的视点位置作为视点序列预测模型的输入,通过所述视点序列预测模型预测未来多个时刻的视点位置之前,还包括:
基于循环神经网络构建视点序列预测模型;其中,所述视点序列预测模型用于将输入的视点位置编码后输入到循环神经网络,计算隐藏单元和输出单元的值,学习用户不同时刻的观看视点间的长时间依赖关系,输出未来多个时刻的视点位置;所述视点位置包括:俯仰角、偏航角、滚动角的单位圆投影,所述视点位置的变化范围为-1到1;采用双曲正切函数作为输出单元的激活函数,所述激活函数限定所述视点位置的输出范围。
3.根据权利要求2所述的360度视频传输的用户观看视点序列预测方法,其特征在于,所述将用户过去时刻的视点位置作为视点序列预测模型的输入,通过所述视点序列预测模型预测未来多个时刻的视点位置,包括:
将用户当前时刻的视点位置作为所述视点序列预测模型第一次迭代的输入,得到第一次迭代的预测视点位置;
循环将上一次迭代的预测视点位置作为所述视点序列预测模型下一次迭代的输入,得到未来多个时刻的预测视点位置。
4.根据权利要求1所述的360度视频传输的用户观看视点序列预测方法,其特征在于,所述第一视点序列的长度与用户观看时头部运动的速度有关,用户头部运动速度越慢,则对应的第一视点序列的长度越长;用户头部运动速度越快,则对应的第一视点序列的长度越短。
5.根据权利要求1所述的360度视频传输的用户观看视点序列预测方法,其特征在于,在通过视点跟踪模型,将视频内容作为所述视点跟踪模型的输入,通过所述视点跟踪模型预测未来多个时刻的视点位置之前,还包括:
根据目标跟踪相关的滤波器算法构建视点跟踪模型,其中,所述相关的滤波器算法是指:设置相关滤波器,所述相关滤波器对视点位置的视频区域会形成最大响应值。
6.根据权利要求5所述的360度视频传输的用户观看视点序列预测方法,其特征在于,所述通过视点跟踪模型,将视频内容作为所述视点跟踪模型的输入,通过所述视点跟踪模型预测未来多个时刻的视点位置,包括:
采用等距圆柱投影方式,将未来时刻的360度视频帧的球形图像投影成平面图像;
通过所述视点跟踪模型在所述平面图像中确定一个边界框,所述边界框中的区域即为视点区域,根据所述视点区域确定对应的视点位置。
7.根据权利要求1-6中任一项所述的360度视频传输的用户观看视点序列预测方法,其特征在于,所述结合第一视点序列和第二视点序列,确定用户未来的观看视点序列,包括:
为所述第一视点序列中的视点位置和所述第二视点序列中的视点位置,分别设置不同的权重值w1和w2;且权重w1和w2满足w1+w2=1;其中:权重值w1和w2的设置需要满足预测的用户未来的观看视点位置与实际用户观看视点位置的误差最小原则;
根据权重值w1和w2,以及第一视点序列中的视点位置、第二视点序列中的视点位置,计算用户未来的观看视点序列;计算公式中如下:
其中:为t+1时刻到t+tw时刻用户未来的观看视点位置,w1为第一视点序列的权重值,为t+1时刻到t+tw时刻第一视点序列中的视点位置,w2为第二视点序列的权重值,为t+1时刻到t+tw时刻第二视点序列中的视点位置,⊙表示逐元素相乘运算,t为当前时刻,tw为预测时间窗。
8.根据权利要7所述的360度视频传输的用户观看视点序列预测方法,其特征在于,随着预测时刻的增大,所述视点跟踪模型所预测的第二视点序列的权重w2逐渐减小。
CN201810886661.7A 2018-08-06 2018-08-06 360度视频传输的用户观看视点序列预测方法 Active CN109257584B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810886661.7A CN109257584B (zh) 2018-08-06 2018-08-06 360度视频传输的用户观看视点序列预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810886661.7A CN109257584B (zh) 2018-08-06 2018-08-06 360度视频传输的用户观看视点序列预测方法

Publications (2)

Publication Number Publication Date
CN109257584A true CN109257584A (zh) 2019-01-22
CN109257584B CN109257584B (zh) 2020-03-10

Family

ID=65048730

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810886661.7A Active CN109257584B (zh) 2018-08-06 2018-08-06 360度视频传输的用户观看视点序列预测方法

Country Status (1)

Country Link
CN (1) CN109257584B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109862019A (zh) * 2019-02-20 2019-06-07 联想(北京)有限公司 数据处理方法、装置以及***
CN110166850A (zh) * 2019-05-30 2019-08-23 上海交通大学 多重cnn网络预测全景视频观看位置的方法和***
CN110248178A (zh) * 2019-06-18 2019-09-17 深圳大学 利用物体跟踪和历史轨迹全景视频的视口预测方法及***
CN110248212A (zh) * 2019-05-27 2019-09-17 上海交通大学 多用户360度视频流服务器端码率自适应传输方法及***
CN114040184A (zh) * 2021-11-26 2022-02-11 京东方科技集团股份有限公司 图像显示方法、***、存储介质及计算机程序产品

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104768018A (zh) * 2015-02-04 2015-07-08 浙江工商大学 一种基于深度图的快速视点预测方法
CN106612426A (zh) * 2015-10-26 2017-05-03 华为技术有限公司 一种多视点视频传输方法及装置
US20170302972A1 (en) * 2016-04-15 2017-10-19 Advanced Micro Devices, Inc. Low latency wireless virtual reality systems and methods
CN107274472A (zh) * 2017-06-16 2017-10-20 福州瑞芯微电子股份有限公司 一种提高vr播放帧率的方法和装置
CN107422844A (zh) * 2017-03-27 2017-12-01 联想(北京)有限公司 一种信息处理方法及电子设备
CN107533230A (zh) * 2015-03-06 2018-01-02 索尼互动娱乐股份有限公司 头戴式显示器用追踪***
US20180020201A1 (en) * 2016-07-18 2018-01-18 Apple Inc. Light Field Capture
CN107770561A (zh) * 2017-10-30 2018-03-06 河海大学 一种利用眼动跟踪数据的多分辨率虚拟现实设备屏幕内容编码算法
CN108134941A (zh) * 2016-12-01 2018-06-08 联发科技股份有限公司 自适应视频解码方法及其装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104768018A (zh) * 2015-02-04 2015-07-08 浙江工商大学 一种基于深度图的快速视点预测方法
CN107533230A (zh) * 2015-03-06 2018-01-02 索尼互动娱乐股份有限公司 头戴式显示器用追踪***
CN106612426A (zh) * 2015-10-26 2017-05-03 华为技术有限公司 一种多视点视频传输方法及装置
US20170302972A1 (en) * 2016-04-15 2017-10-19 Advanced Micro Devices, Inc. Low latency wireless virtual reality systems and methods
US20180020201A1 (en) * 2016-07-18 2018-01-18 Apple Inc. Light Field Capture
CN108134941A (zh) * 2016-12-01 2018-06-08 联发科技股份有限公司 自适应视频解码方法及其装置
CN107422844A (zh) * 2017-03-27 2017-12-01 联想(北京)有限公司 一种信息处理方法及电子设备
CN107274472A (zh) * 2017-06-16 2017-10-20 福州瑞芯微电子股份有限公司 一种提高vr播放帧率的方法和装置
CN107770561A (zh) * 2017-10-30 2018-03-06 河海大学 一种利用眼动跟踪数据的多分辨率虚拟现实设备屏幕内容编码算法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WANG XIAOCHUAN,LIANG XIAOHUI: "Viewpoint-predicting-based Remote Rendering on Mobile Devices using Multiple", 《2015 INTERNATIONAL CONFERENCE ON VIRTUAL REALITY AND VISUALIZATION》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109862019A (zh) * 2019-02-20 2019-06-07 联想(北京)有限公司 数据处理方法、装置以及***
CN110248212A (zh) * 2019-05-27 2019-09-17 上海交通大学 多用户360度视频流服务器端码率自适应传输方法及***
CN110248212B (zh) * 2019-05-27 2020-06-02 上海交通大学 多用户360度视频流服务器端码率自适应传输方法及***
CN110166850A (zh) * 2019-05-30 2019-08-23 上海交通大学 多重cnn网络预测全景视频观看位置的方法和***
CN110248178A (zh) * 2019-06-18 2019-09-17 深圳大学 利用物体跟踪和历史轨迹全景视频的视口预测方法及***
CN110248178B (zh) * 2019-06-18 2021-11-23 深圳大学 利用物体跟踪和历史轨迹全景视频的视口预测方法及***
CN114040184A (zh) * 2021-11-26 2022-02-11 京东方科技集团股份有限公司 图像显示方法、***、存储介质及计算机程序产品

Also Published As

Publication number Publication date
CN109257584B (zh) 2020-03-10

Similar Documents

Publication Publication Date Title
CN109257584A (zh) 360度视频传输的用户观看视点序列预测方法
Liang et al. Transcrowd: weakly-supervised crowd counting with transformers
Li et al. Very long term field of view prediction for 360-degree video streaming
CN103795976B (zh) 一种全时空立体可视化方法
Liu et al. Learning to factorize and relight a city
Zhou et al. Optimization of wireless video surveillance system for smart campus based on internet of things
Yang et al. Single and sequential viewports prediction for 360-degree video streaming
CN111462324A (zh) 一种在线时空语义融合方法和***
CN111950404A (zh) 一种基于深度学习视频监督的单图像三维重建方法
Xiong et al. Contextual Sa-attention convolutional LSTM for precipitation nowcasting: A spatiotemporal sequence forecasting view
Desai et al. Next frame prediction using ConvLSTM
Huang et al. Toward holographic video communications: a promising AI-driven solution
Jin et al. Sun-sky model estimation from outdoor images
Li et al. Blinkflow: A dataset to push the limits of event-based optical flow estimation
CN115103161A (zh) 基于视频推进的巡防方法、***、设备及介质
Yuan et al. A novel deep pixel restoration video prediction algorithm integrating attention mechanism
Wang et al. JAWS: just a wild shot for cinematic transfer in neural radiance fields
Huang et al. One-shot imitation drone filming of human motion videos
CN117911886A (zh) 一种基于数字孪生技术的空间目标智能检测***及方法
CN117221633A (zh) 一种基于元宇宙和数字孪生技术的虚拟现实直播***
Xu The research on applying artificial intelligence technology to virtual youtuber
Henderson et al. Unsupervised video prediction from a single frame by estimating 3d dynamic scene structure
Shi et al. Garf: Geometry-aware generalized neural radiance field
CN114900506B (zh) 面向用户体验质量的360度视频视口预测方法
Fang et al. STUNNER: Radar echo extrapolation model based on spatiotemporal fusion neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant