CN111340686B - 一种具有人群偏向的虚拟现实场景评估方法、***及介质 - Google Patents

一种具有人群偏向的虚拟现实场景评估方法、***及介质 Download PDF

Info

Publication number
CN111340686B
CN111340686B CN202010101931.6A CN202010101931A CN111340686B CN 111340686 B CN111340686 B CN 111340686B CN 202010101931 A CN202010101931 A CN 202010101931A CN 111340686 B CN111340686 B CN 111340686B
Authority
CN
China
Prior art keywords
scene
virtual reality
sequence
prediction
dimensional space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010101931.6A
Other languages
English (en)
Other versions
CN111340686A (zh
Inventor
晋建秀
朱焕升
青春美
徐向民
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202010101931.6A priority Critical patent/CN111340686B/zh
Publication of CN111340686A publication Critical patent/CN111340686A/zh
Application granted granted Critical
Publication of CN111340686B publication Critical patent/CN111340686B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/08Projecting images onto non-planar surfaces, e.g. geodetic screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种具有人群偏向的虚拟现实场景评估方法、***及介质,***包括虚拟现实场景生成模块、路径自定义模块、三维空间到全景图序列的映射模块、具有人群偏向的显著性区域预测模块、显著性图序列到三维空间的映射模块以及带有不同用户特征下显著性预测结果的虚拟场景显示模块。本发明利用虚拟现实场景下的三维空间到全景图序列的映射与反向映射技术,解决了现有技术无法直接应用在虚拟现实场景中的问题。

Description

一种具有人群偏向的虚拟现实场景评估方法、***及介质
技术领域
本发明涉及信息技术领域,具体涉及一种具有人群偏向的虚拟现实场景评估方法、***及介质。
背景技术
随着虚拟现实技术应用的普及,在虚拟现实技术的完善和硬件的加强下,基于虚拟现实技术的广告设计和室内场景设计技术应运而生。但是现在虚拟现实产品的体验并不是很广泛,更重要的是虚拟现实产品缺少大量的软件市场。可以说,虚拟现实产品的前景很有吸引力,但体验市场较小。基于虚拟现实的广告设计和室内场景设计本身需要很专业的知识和丰富的从业经验,但是由于体验市场较小,难以有效的验证设计出来的方案的质量,需要投入很大的成本才能获得足够的信息反馈,这极大地制约了设计者经验的积累,而这个现状也很大程度上阻碍了这个行业的深入发展。
目前已经有技术可以对一张广告设计进行智能评估,主要是通过深度学习的方法,对输入的广告设计图片进行计算,预测出人类可能会重点关注的区域。设计者可以根据这个结果进行设计修正或者重新设计,以吸引更多的受众,实现利益的最大化。但这种技术目前还局限于二维的图片,并不能直接搬到虚拟现实场景设计的评估中来,而且也没法针对不同的受众做不同的预测,也就没法帮助设计者做出针对性的改动。
发明内容
为了克服现有技术存在的缺点与不足,本发明提供一种具有人群偏向的虚拟现实场景评估方法、***及介质,本发明主要是针对一个虚拟场景,该虚拟场景可以是广告或者室内设计等场景,对于不同人群在观看时候可能中点关注或者感兴趣的区域,并可视化呈现给设计者,设计者根据相应需求做出改动。
本发明采用如下技术方案:
一种具有人群偏向的虚拟现实场景评估方法,包括如下:
将一个完整可运行的虚拟现实场景,根据设定路径进行采样,得到一组三维空间坐标序列,定义为(x1,y1,z1),(x2,y2,z2),(x3,y3,z3),…(xn,yn,zn),该序列表示浏览的路径;
根据给定的场景和三维空间坐标序列,得到一组全景图序列,定义为;(x1,y1,z1,I1),(x2,y2,z2,I2),(x3,y3,z3,I3),…,(xn,yn,zn,In),其中In表示第n个全景图;
将全景图序列依次进行具有人群偏向的显著性区域预测,得到带有不同用户特征的显著性预测结果,定义为(x1,y1,z1,Pk1),(x2,y2,z2,Pk2),(x3,y3,z3,Pk3),…(xn,yn,zn,Pkn),其中Pkn指第n个全景图在Fk特征下的显著性图;
根据某个用户特征对应预测出来的显著性结果图序列,得到该用户特征下用户对场景感兴趣区域的预测结果。
所述根据给定的场景和三维空间坐标序列,得到一组全景图序列,具体为:
将场景内部的摄像头放置到某个空间坐标处,获得对应的一张虚拟现实场景全景图,以此类推,得到一组全景图序列。
所述将全景图序列依次进行具有特定人群偏向的显著性区域预测,得到带有不同用户特征的显著性预测结果,具体为:
将全景图送入卷积神经网络进行特征提取,得到一组对应的特征矩阵;送入针对不同用户特征的显著性预测分支,得到不同用户特征下的显著性预测结果。
本发明中显著性预测分支也是由训练好的卷积神经网络构成,训练的时候需要将数据根据用户特征进行划分,针对每个特征训练一个卷积神经网络分支。
所述根据某个用户特征对应预测出来的显著性结果图序列,得到该用户特征下用户对场景感兴趣区域的预测结果,具体为:
提取第一个预测结果,提取其中的三维空间坐标(x1,y1,z1),将场景中的Camera移动到该坐标上,并将显著性图Pk1进行半透明化处理,之后将其像素投射到虚拟现实场景中的三维物体的表面;
提取下一个预测结果,获得其中的三维空间坐标(x2,y2,z2),用同样的方式将显著性图Pk2投射到虚拟现实场景中;
重复上一个步骤,将所有预测结果均投射到场景当中,这样,设计者在场景中观察到具有该特征Fk的用户在预设路径进行浏览时可能关注的区域。
一种具有人群偏向的虚拟现实场景评估***,包括:
虚拟现实场景生成模块,用于将预先给定的场景实时渲染到显示设备中;
路径自定义模块,用于在场景中自定义移动路径,即浏览的路径,模拟观众在观看场景时的先后顺序;
三维空间到全景图序列的映射模块,用来将场景和路径坐标进行结合,输出各个坐标下对应的全景图;
具有人群偏向的显著性区域预测模块,可以得到每张全景图在不同人群特征下的显著性结果;
显著性图序列到三维空间的映射模块,用来将每个坐标下的预测结果反向映射到场景当中;
虚拟场景显示模块,根据需要选择指定人群特征下的显著性预测结果,实时渲染到场景中进行效果预览。
一种存储介质,存储权利要求1-5任一项所述的虚拟现实场景评估方法。
本发明的有益效果:
(1)本发明提出一种基于具有人群偏向的显著性区域预测的虚拟现实场景评估的方法及***,利用虚拟现实场景下的三维空间到全景图序列的映射与反向映射技术,解决了现有技术无法直接应用在虚拟现实场景中的问题;
(2)本发明可以对设计好的一个虚拟现实场景,给出针对某些特定特征的人群在观看该场景时可能重点关注或者感兴趣的区域,并可视化的呈现给设计者。这样设计者在作品设计初期就可以几乎零成本地获得不同人群对该作品的反馈信息,后续的改进也可以更有针对性。
附图说明
图1是本发明***的结构示意图;
图2是本发明方法的流程图;
图3是本发明实施例中三维空间坐标序列示意图;
图4是本发明实施例中某个空间坐标下Camera放置的示意图。
具体实施方式
下面结合实施例及附图,对本发明作进一步地详细说明,但本发明的实施方式不限于此。
实施例
本发明提出的虚拟现实场景中具有特定人群偏向的显著性区域预测的方法及***,用于对给定的虚拟现实场景给出针对某些特定特征的人群在观看该场景时可能重点关注或者感兴趣的区域,并可视化的呈现给设计者。
为了更好地对本发明的虚拟现实场景中具有特定人群偏向的显著性区域预测的方法及***进行描述,结合附图说明。如图1所示,本发明提出一种基于具有人群偏向的显著性区域预测的虚拟现实场景评估***,所述***包括:虚拟现实场景生成模块、路径自定义模块、三维空间到全景图序列的映射模块、具有人群偏向的显著性区域预测模块、显著性图序列到三维空间的映射模块以及带有不同用户特征下显著性预测结果的虚拟场景显示模块。
所述虚拟现实场景生成模块,用于将预先设计好的场景实时渲染到显示设备当中;
本实施例中的场景是指在一个VR场景内。
所述路径自定义模块,用于在场景中自定义移动路径,模拟观众在观看场景时的先后顺序;
所述三维空间到全景图序列的映射模块,用来将场景和路径坐标进行结合,输出各个坐标下对应的全景图;
所述具有人群偏向的显著性区域预测模块,可以得到每张全景图在不同人群特征下的显著性结果;
所述显著性图序列到三维空间的映射模块,用来将每个坐标下的预测结果反向映射到场景当中;
所述带有不同用户特征下显著性预测结果的虚拟场景显示模块,可以根据需要选择指定人群特征下的显著性预测结果,实时渲染到场景中进行效果预览。
所述三维空间到全景图序列的映射模块,其数据输入是给定的虚拟现实场景和三维空间坐标序列。首先会将场景内部的Camera放置到第一个空间坐标(x1,y1,z1)处,获取此时的虚拟现实场景全景图I1,然后将Camera位置移动到第二个空间坐标(xn,yn,zn)处,同样的方式获得虚拟现实场景全景图I2,以此类推,可以得到一组全景图序列。
就是三维空间内在不同的地方进行采样全景图,可以得到一系列的全景图,构成一个序列。
所述显著性区域预测模块,输入的是一张全景图,然后送入卷积神经网络进行特征提取,得到一组对应的特征矩阵;再将这组特征矩阵,送入针对不同用户特征的显著性预测分支,得到不同用户特征下的显著性预测结果。
所述显著性预测分支由训练好的卷积神经网络(CNN)构成,训练的时候需要将数据根据用户特征进行划分,针对每个特征训练一个CNN分支,
本实施例中,用户特征是指用户的属性,如性别,年龄段等,训练显著性模型使用的数据,一般是通过观测素材加标注结果观测素材这里指的是图片,标注指的是用户在观看图片时记录的眼动数据。
所述的显著性图序列到三维空间的映射模块,其特征在于,模块的输入是一组显著性图序列,该序列包含了各个显著性图对应的三维空间坐标。可分以下步骤执行:
提取第一个预测结果,提取其中的三维空间坐标(x1,y1,z1),将场景中的Camera移动到该坐标上,并将显著性图Pk1进行半透明化处理,之后将其像素投射到虚拟现实场景中的三维物体的表面;
提取下一个预测结果,获得其中的三维空间坐标(x2,y2,z2),用同样的方式将显著性图Pk2投射到虚拟现实场景中;
重复上一个步骤,可以将所有预测结果均投射到场景当中,这样,设计者就可以在场景中观察到具有该特征Fk的用户在预设路径进行浏览时可能关注的区域。
如图2所示,本发明一种具有人群偏向的虚拟现实场景评估方法,在采用本方法之前,需要提供一个完整的可运行的虚拟现实场景,然后相应需要提供三维空间坐标序列,该序列表示用户在虚拟现实场景内可能经过的路径,或者设计者希望用户浏览的路径。该序列定义为(x1,y1,z1),(x2,y2,z2),(x3,y3,z3),…(xn,yn,zn)。不失一般性地,假定在某个水平面上设置4个空间坐标,场景内有两个物体,定义为物体A和物体B,如图3所示。本实施例中显著性预测包括针对青少年用户及中老年用户的,情绪特征包括正向情绪特征及负向情绪特征。
根据给定的虚拟现实场景和三维空间坐标序列,首先会将场景内部的Camera放置到第一个空间坐标(x1,y1,z1)处,获取此时的虚拟现实场景全景图I1,然后将Camera位置移动到第二个空间坐标(x2,y2,z2)处,同样的方式获得虚拟现实场景全景图I2,以此类推,可以得到一组全景图序列,定义为;(x1,y1,z1,I1),(x2,y2,z2,I2),(x3,y3,z3,I3),…,(xn,yn,zn,In),其中In表示第n个全景图。结合附图4解释,在第4个坐标点处放置场景的Camera,可以得到当前位置下的全景图。
将全景图序列依次送入具有特定人群偏向的显著性区域预测模块进行计算,首先会对其送入卷积神经网络进行特征提取,得到一组对应的特征矩阵;再将这组特征矩阵,送入针对不同用户特征的显著性预测分支,得到不同用户特征下的显著性预测结果得到带有不同用户特征(定义为F1,F2,F3,…,Fk)的显著性预测结果,定义为(x1,y1,z1,Pk1),(x2,y2,z2,Pk2),(x3,y3,z3,Pk3),…(xn,yn,zn,Pkn),其中Pkn指第n个全景图在Fk特征下的显著性图。
将某个用户特征对应预测出来的显著性结果图序列送入显著性图序列到三维空间的映射模块进行计算,已知该序列包含了各个显著性图对应的三维空间坐标。
首先提取第一个预测结果,提取其中的三维空间坐标(x1,y1,z1);将场景中的Camera移动到该坐标上,并将显著性图Pk1进行半透明化处理,之后将其像素投射到虚拟现实场景中的三维物体的表面。
接着提取第二个预测结果,获得其中的三维空间坐标(x2,y2,z2),用同样的方式将显著性图Pk2投射到虚拟现实场景中。
以此类推,可以将所有预测结果均投射到场景当中,这样,设计者就可以在场景中观察到具有该特征Fk的用户在预设路径进行浏览时可能关注的区域。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受所述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (6)

1.一种具有人群偏向的虚拟现实场景评估方法,其特征在于,包括如下:
将一个完整可运行的虚拟现实场景,根据设定路径进行采样,得到一组三维空间坐标序列,定义为(x1,y1,z1),x2,y2,z2),(x3,y3,z3),…(xn,yn,zn),该序列表示浏览的路径;
根据给定的场景和三维空间坐标序列,得到一组全景图序列,定义为;(x1,y1,z1,I1),(x2,y2,z2,I2),(x3,y3,z3,I3),…,(xn,yn,zn,In),其中In表示第n个全景图;
将全景图序列依次进行具有人群偏向的显著性区域预测,得到带有不同用户特征的显著性预测结果,定义为(x1,y1,z1,Pk1),(x2,y2,z2,Pk2),(x3,y3,z3,Pk3),…(xn,yn,zn,Pkn),其中Pkn指第n个全景图在Fk特征下的显著性图;
根据某个用户特征对应预测出来的显著性结果图序列,得到该用户特征下用户对场景感兴趣区域的预测结果,具体为:
提取第一个预测结果,提取其中的三维空间坐标(x1,y1,z1),将场景中的Camera移动到该坐标上,并将显著性图Pk1进行半透明化处理,之后将其像素投射到虚拟现实场景中的三维物体的表面;
提取下一个预测结果,获得其中的三维空间坐标(x2,y2,z2),用同样的方式将显著性图Pk2投射到虚拟现实场景中;
重复上一个步骤,将所有预测结果均投射到场景当中,这样,设计者在场景中观察到具有该特征Fk的用户在预设路径进行浏览时可能关注的区域。
2.根据权利要求1所述的虚拟现实场景评估方法,其特征在于,所述根据给定的场景和三维空间坐标序列,得到一组全景图序列,具体为:
将场景内部的摄像头放置到某个空间坐标处,获得对应的一张虚拟现实场景全景图,以此类推,得到一组全景图序列。
3.根据权利要求1所述的虚拟现实场景评估方法,其特征在于,所述将全景图序列依次进行具有特定人群偏向的显著性区域预测,得到带有不同用户特征的显著性预测结果,具体为:
将全景图送入卷积神经网络进行特征提取,得到一组对应的特征矩阵;送入针对不同用户特征的显著性预测分支,得到不同用户特征下的显著性预测结果。
4.根据权利要求3所述的虚拟现实场景评估方法,其特征在于,显著性预测分支也是由训练好的卷积神经网络构成,训练的时候需要将数据根据用户特征进行划分,针对每个特征训练一个卷积神经网络分支。
5.一种实现权利要求1-4任一项所述的虚拟现实场景评估方法的***,其特征在于,包括:
虚拟现实场景生成模块,用于将预先给定的场景实时渲染到显示设备中;
路径自定义模块,用于在场景中自定义移动路径,即浏览的路径,模拟观众在观看场景时的先后顺序;
三维空间到全景图序列的映射模块,用来将场景和路径坐标进行结合,输出各个坐标下对应的全景图;
具有人群偏向的显著性区域预测模块,可以得到每张全景图在不同人群特征下的显著性结果;
显著性图序列到三维空间的映射模块,用来将每个坐标下的预测结果反向映射到场景当中;
虚拟场景显示模块,根据需要选择指定人群特征下的显著性预测结果,实时渲染到场景中进行效果预览。
6.一种存储介质,其特征在于,存储权利要求1-4任一项所述的虚拟现实场景评估方法。
CN202010101931.6A 2020-02-19 2020-02-19 一种具有人群偏向的虚拟现实场景评估方法、***及介质 Active CN111340686B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010101931.6A CN111340686B (zh) 2020-02-19 2020-02-19 一种具有人群偏向的虚拟现实场景评估方法、***及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010101931.6A CN111340686B (zh) 2020-02-19 2020-02-19 一种具有人群偏向的虚拟现实场景评估方法、***及介质

Publications (2)

Publication Number Publication Date
CN111340686A CN111340686A (zh) 2020-06-26
CN111340686B true CN111340686B (zh) 2023-05-23

Family

ID=71184404

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010101931.6A Active CN111340686B (zh) 2020-02-19 2020-02-19 一种具有人群偏向的虚拟现实场景评估方法、***及介质

Country Status (1)

Country Link
CN (1) CN111340686B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115346002B (zh) * 2022-10-14 2023-01-17 佛山科学技术学院 一种虚拟场景构建方法及其康复训练应用

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107248138A (zh) * 2017-06-16 2017-10-13 中国科学技术大学 虚拟现实环境中的人类视觉显著性预测方法
CN108257219A (zh) * 2018-01-31 2018-07-06 广东三维家信息科技有限公司 一种实现全景多点漫游的方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170154468A1 (en) * 2015-12-01 2017-06-01 Le Holdings (Beijing) Co., Ltd. Method and electronic apparatus for constructing virtual reality scene model
US20190362034A1 (en) * 2018-05-28 2019-11-28 Chun-Sheng Chiang Design Method for Civil Engineering of Reality Scenery

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107248138A (zh) * 2017-06-16 2017-10-13 中国科学技术大学 虚拟现实环境中的人类视觉显著性预测方法
CN108257219A (zh) * 2018-01-31 2018-07-06 广东三维家信息科技有限公司 一种实现全景多点漫游的方法

Also Published As

Publication number Publication date
CN111340686A (zh) 2020-06-26

Similar Documents

Publication Publication Date Title
CN110390048A (zh) 基于大数据分析的信息推送方法、装置、设备及存储介质
CN104394422A (zh) 一种视频分割点获取方法及装置
CN107145280B (zh) 一种图像数据处理方法和装置
WO2019089097A1 (en) Systems and methods for generating a summary storyboard from a plurality of image frames
Fernandes et al. Identifying and extracting football features from real-world media sources using only synthetic training data
CN111145135B (zh) 一种图像去扰处理方法、装置、设备及存储介质
CN113411550B (zh) 视频上色方法、装置、设备及存储介质
CN113709549A (zh) 特效数据包生成、图像处理方法、装置、设备及存储介质
CN110516598B (zh) 用于生成图像的方法和装置
CN113516666A (zh) 图像裁剪方法、装置、计算机设备及存储介质
CN116664726B (zh) 视频获取方法、装置和存储介质及电子设备
CN111556336A (zh) 一种多媒体文件处理方法、装置、终端设备及介质
CN114697721B (zh) 弹幕显示方法及电子设备
Langlotz et al. AR record&replay: situated compositing of video content in mobile augmented reality
CN111340686B (zh) 一种具有人群偏向的虚拟现实场景评估方法、***及介质
JP2023098937A (ja) 多次元反応型映像を再生する方法及び装置
CN112906553B (zh) 图像处理方法、装置、设备及介质
CN114170472A (zh) 图像处理方法、可读存储介质及计算机终端
CN113269781A (zh) 数据生成方法、装置及电子设备
CN113673567B (zh) 基于多角度子区域自适应的全景图情感识别方法及***
CN116962749A (zh) 视频的合成方法和装置、存储介质及电子设备
Comino Trinidad et al. Easy authoring of image-supported short stories for 3d scanned cultural heritage
Okura et al. Addressing temporal inconsistency in indirect augmented reality
KR20230022153A (ko) 소프트 레이어링 및 깊이 인식 복원을 사용한 단일 이미지 3d 사진
JP2001051579A (ja) 映像表示方法、映像表示装置及び映像表示プログラムを記録した記録媒体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant