CN117425076B - 一种虚拟相机拍摄方法和*** - Google Patents

一种虚拟相机拍摄方法和*** Download PDF

Info

Publication number
CN117425076B
CN117425076B CN202311736198.5A CN202311736198A CN117425076B CN 117425076 B CN117425076 B CN 117425076B CN 202311736198 A CN202311736198 A CN 202311736198A CN 117425076 B CN117425076 B CN 117425076B
Authority
CN
China
Prior art keywords
shooting
virtual camera
picture
angle
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311736198.5A
Other languages
English (en)
Other versions
CN117425076A (zh
Inventor
曾建华
于洪举
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan MgtvCom Interactive Entertainment Media Co Ltd
Original Assignee
Hunan MgtvCom Interactive Entertainment Media Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan MgtvCom Interactive Entertainment Media Co Ltd filed Critical Hunan MgtvCom Interactive Entertainment Media Co Ltd
Priority to CN202311736198.5A priority Critical patent/CN117425076B/zh
Publication of CN117425076A publication Critical patent/CN117425076A/zh
Application granted granted Critical
Publication of CN117425076B publication Critical patent/CN117425076B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种虚拟相机拍摄方法和***,所述方法包括:基于预设识别模型对拍摄任务进行处理,输出每一虚拟摄像机的运镜方式,以便虚拟摄像机按照对应的运镜方式进行拍摄,针对每一虚拟摄像机,基于拍摄画面大小确定基准线;对拍摄画面的人物标记点进行追踪,所述标记点是基于所述运镜方式确定的;若基于所述人物标记点的变化和基准线确定需要调整拍摄角度,并控制所述虚拟摄像机根据所述人物标记点的移动调整拍摄角度。本发明通过训练得到的预设识别模型对拍摄任务中的拍摄画面进行识别确定对应的运镜方式,以对镜头作出区分,以控制人物主体在拍摄画面的占比,从而提高拍摄效果。

Description

一种虚拟相机拍摄方法和***
技术领域
本发明涉及数据处理技术领域,尤其涉及一种虚拟相机拍摄方法和***。
背景技术
目前的虚拟拍摄常常通过固定的参数进行进行拍摄,由于拍摄的场景不同,因此通过上述方式进行拍摄,会导致精彩镜头未能及时捕捉到,从而影响拍摄效果。
发明内容
有鉴于此,本发明实施例提供一种虚拟相机拍摄方法和***,以解决现有技术中存在的影响拍摄效果的问题。
为实现上述目的,本发明实施例提供如下技术方案:
本发明实施例第一方面示出了一种虚拟相机拍摄方法,应用于虚拟相机拍摄***,所述方法包括:
获取虚拟摄像机拍摄指令;
基于所述虚拟摄像机拍摄指令控制对应摄像机数量的虚拟摄像机启动;
按照所述虚拟摄像机拍摄指令中携带的拍摄任务和摄像机数量输入预设识别模型,基于所述预设识别模型对所述拍摄任务和摄像机数量进行处理,输出每一虚拟摄像机的运镜方式,以便所述虚拟摄像机按照对应的运镜方式进行拍摄,所述预设识别模型是基于样本数据进行构建的;
针对每一虚拟摄像机,基于拍摄画面大小确定基准线,所述拍摄画面大小是通过所述虚拟摄像机拍摄指令中携带的拍摄任务确定的;
对拍摄画面的人物标记点进行追踪,所述标记点是基于所述运镜方式确定的;
若基于所述人物标记点的变化和基准线确定需要调整拍摄角度,并控制所述虚拟摄像机根据所述人物标记点的移动调整拍摄角度。
可选的,针对每一虚拟摄像机,采集所述虚拟摄像机拍摄的每一帧拍摄画面;
针对每一帧拍摄画面,对所述拍摄画面进行多维度识别出来,得到各个维度对应的拍摄画面要素;
判断每一维度对应的拍摄画面要素是否存在异常要素;
若不存在,确定所述拍摄画面为有效拍摄画面,并保存。
可选的,若所述维度为多人物主体交互维度时,触发预设数量个虚拟摄像机对拍摄画面中的人物进行预设多角度拍摄。
可选的,基于样本数据进行构建预设识别模型的过程包括:
获取不同拍摄场景的拍摄类型和拍摄时长组成的历史拍摄任务,以及每一拍摄任务中每一帧拍摄画面的历史运镜方式;
基于所述历史拍摄任务,所述历史拍摄任务所需的摄像机数量以及历史运镜方式进行深度学习训练,得到训练完成的预设识别模型。
可选的,所述基于拍摄画面大小确定基准线,包括:
从所述虚拟摄像机拍摄指令中携带的拍摄任务获取对应的拍摄边界线;
基于所述拍摄边界线确定拍摄边界比;
利用所述拍摄边界比确定对应的基准角度组;
基于所述基准角度和拍摄边界线确定对应的基准线。
可选的,所述利用所述拍摄边界比确定对应的基准角度组,包括:
将所述拍摄边界比输入处理模型,基于所述处理模型对所述拍摄边界比进行处理,输出基准角度组,所述处理模型是预先构建的;
其中,预先构建处理模型的过程包括:
采集的不同拍摄边界比,及所述不同拍摄边界比在不同基准角度下所确定的基准线内的拍摄效果;
将所述不同拍摄边界比,不同基准角度,及所述不同拍摄边界比在不同基准角度下所确定的基准线内的拍摄效果对初始模型进行训练,直至输出的拍摄效果在预设范围内,确定当前训练得到的初始模型为处理模型。
可选的,所述对拍摄画面的人物标记点进行追踪,包括:
根据人物参考线和运镜方式设置人物标记点;
根据每一帧拍摄画面中的人物标记点进行追踪。
可选的,基于所述人物标记点的变化和基准线确定需要调整拍摄角度,包括:
记录每一所述人物标记点分别在预设帧拍摄画面中的移动范围,得到标记移动范围;
基于标记移动范围确定所述人物标记点所处基准线;
基于每一人物标记点的基准线区间是否在对应的预设基准范围内;
若在,基于所述人物标记点所绘制的三角形的内角是否分别满足对应的阈值条件;
若任意一不满足,确定需要调整拍摄角度。
本发明实施例第二方面示出了一种虚拟相机拍摄***,所述***包括:
启动单元,用于获取虚拟摄像机拍摄指令;基于所述虚拟摄像机拍摄指令控制对应数量的虚拟摄像机启动;
预设识别模型,用于按照所述虚拟摄像机拍摄指令中携带的拍摄任务输入预设识别模型,基于所述预设识别模型对所述拍摄任务进行处理,输出每一虚拟摄像机的运镜方式,以便所述虚拟摄像机按照对应的运镜方式进行拍摄,所述预设识别模型是基于样本数据进行构建的;
处理单元,用于针对每一虚拟摄像机,基于拍摄画面大小确定基准线,所述拍摄画面大小是通过所述虚拟摄像机拍摄指令中携带的拍摄任务确定的;对拍摄画面的人物标记点进行追踪,所述标记点是基于所述运镜方式确定的;
调整单元,用于若基于所述人物标记点的变化和基准线确定需要调整拍摄角度,并控制所述虚拟摄像机根据所述人物标记点的移动调整拍摄角度。
本发明实施例第三方面示出了一种存储介质,所述存储介质包括存储程序,其中,在所述程序运行时控制所述存储介质所在设备执行如本发明实施例第一方面示出的虚拟相机拍摄方法。
基于上述本发明实施例提供的一种虚拟相机拍摄方法和***,所述方法包括:在接收到虚拟摄像机拍摄指令时,基于所述虚拟摄像机拍摄指令控制对应数量的虚拟摄像机启动;按照所述虚拟摄像机拍摄指令中携带的拍摄任务输入预设识别模型,基于所述预设识别模型对所述拍摄任务进行处理,输出每一虚拟摄像机的运镜方式,以便所述虚拟摄像机按照对应的运镜方式进行拍摄,所述预设识别模型是基于样本数据进行构建的;针对每一虚拟摄像机,基于拍摄画面大小确定基准线,所述拍摄画面大小是通过所述虚拟摄像机拍摄指令中携带的拍摄任务确定的;对拍摄画面的人物标记点进行追踪,所述标记点是基于所述运镜方式确定的;若基于所述人物标记点的变化和基准线确定需要调整拍摄角度,并控制所述虚拟摄像机根据所述人物标记点的移动调整拍摄角度。在本发明实施例中,通过训练得到的预设识别模型对拍摄任务中的拍摄画面进行识别确定对应的运镜方式,运镜方式中拍摄画面的近景,中景,远景,空镜等镜头作出区分,以控制人物主体在拍摄画面的占比,从而提高拍摄效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例示出的虚拟相机拍摄***与虚拟摄像机的连接架构示意图;
图2为本发明实施例示出的一种虚拟相机拍摄***的结构示意图;
图3为本发明实施例示出的一种虚拟相机拍摄方法的流程示意图;
图4为本发明实施例示出的一示例示出的基准线的示意图;
图5为本发明实施例示出的人物标注点的标记示意图;
图6为本发明实施例示出的另一种虚拟相机拍摄方法的流程示意图;
图7为本发明实施例示出的拍摄画面检测的架构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要说明的是,在本发明中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
在本申请中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
参见图1,为本发明实施例示出的虚拟相机拍摄***与虚拟摄像机的连接架构示意图。
所述虚拟相机拍摄***20通过无线通信设备与虚拟摄像机10连接。
其中,所述虚拟相机拍摄***20可设置于上位机中;虚拟摄像机10可为AI虚拟摄像机等其他类型的虚拟摄像机。
基于上述图1示出的架构,本发明实施例还示出了虚拟相机拍摄***20的具体架构,如图2所示,所述虚拟相机拍摄***20包括:
启动单元201,用于获取虚拟摄像机拍摄指令;基于所述虚拟摄像机拍摄指令控制对应数量的虚拟摄像机启动。
预设识别模型202,用于按照所述虚拟摄像机拍摄指令中携带的拍摄任务输入预设识别模型,基于所述预设识别模型对所述拍摄任务进行处理,输出每一虚拟摄像机的运镜方式,以便所述虚拟摄像机按照对应的运镜方式进行拍摄,所述预设识别模型是基于样本数据进行构建的。
处理单元203,用于针对每一虚拟摄像机,基于拍摄画面大小确定基准线,所述拍摄画面大小是通过所述虚拟摄像机拍摄指令中携带的拍摄任务确定的;对拍摄画面的人物标记点进行追踪,所述人物标记点是基于所述运镜方式确定的。
调整单元204,用于若基于所述人物标记点的变化和基准线确定需要调整拍摄角度,并控制所述虚拟摄像机根据所述人物标记点的移动调整拍摄角度。
可选的,基于样本数据进行构建预设识别模型202的过程包括:
获取不同拍摄场景的拍摄类型和拍摄时长组成的历史拍摄任务,以及每一拍摄任务中每一帧拍摄画面的历史运镜方式;基于所述历史拍摄任务以及历史运镜方式进行深度学习训练,得到训练完成的预设识别模型。
需要说明的是,上述示出各个单元的具体实现过程与虚拟相机拍摄方法的具体实现过程相同,可相互参见。
在本发明实施例中,通过训练得到的预设识别模型对拍摄任务中的拍摄画面进行识别确定对应的运镜方式,运镜方式中拍摄画面的近景,中景,远景,空镜等镜头作出区分,针对每一虚拟摄像机,基于拍摄画面大小确定基准线,所述拍摄画面大小是通过所述虚拟摄像机拍摄指令中携带的拍摄任务确定的;对拍摄画面的人物标记点进行追踪,所述标记点是基于所述运镜方式确定的;若基于所述人物标记点的变化和基准线确定需要调整拍摄角度,并控制所述虚拟摄像机根据所述人物标记点的移动调整拍摄角度。以控制人物主体在拍摄画面的占比,从而提高拍摄效果。
可选的,基于上述本发明实施例示出的虚拟相机拍摄***,处理单元203,还用于:
针对每一虚拟摄像机,采集所述虚拟摄像机拍摄的每一帧拍摄画面;针对每一帧拍摄画面,对所述拍摄画面进行多维度识别出来,得到各个维度对应的拍摄画面要素;判断每一维度对应的拍摄画面要素是否存在异常要素;若不存在,确定所述拍摄画面为有效拍摄画面,并保存。
需要说明的是,若所述维度为多人物主体交互维度时,触发预设数量个虚拟摄像机对拍摄画面中的人物进行预设多角度拍摄。
可选的,基于上述本发明实施例示出的虚拟相机拍摄***,基于拍摄画面大小确定基准线的处理单元203,还用于:
从所述虚拟摄像机拍摄指令中携带的拍摄任务获取对应的拍摄边界线;基于所述拍摄边界线确定拍摄边界比;利用所述拍摄边界比确定对应的基准角度组;基于所述基准角度和拍摄边界线确定对应的基准线。
可选的,所述利用所述拍摄边界比确定对应的基准角度组,包括:
将所述拍摄边界比输入处理模型,基于所述处理模型对所述拍摄边界比进行处理,输出基准角度组,所述处理模型是预先构建的。
其中,预先构建处理模型的过程包括:
采集的不同拍摄边界比,及所述不同拍摄边界比在不同基准角度下所确定的基准线内的拍摄效果;将所述不同拍摄边界比,不同基准角度,及所述不同拍摄边界比在不同基准角度下所确定的基准线内的拍摄效果对初始模型进行训练,直至输出的拍摄效果在预设范围内,确定当前训练得到的初始模型为处理模型。
可选的,基于上述本发明实施例示出的虚拟相机拍摄***,所述对拍摄画面的人物标记点进行追踪的处理单元203,还用于:
根据人物参考线和运镜方式设置人物标记点;根据每一帧拍摄画面中的人物标记点进行追踪。
可选的,基于上述本发明实施例示出的虚拟相机拍摄***,于所述人物标记点的变化和基准线确定需要调整拍摄角度的处理单元203,还用于:
记录每一所述人物标记点分别在预设帧拍摄画面中的移动范围,得到标记移动范围;基于标记移动范围确定所述人物标记点所处基准线;基于每一人物标记点的基准线区间是否在对应的预设基准范围内;若在,基于所述人物标记点所绘制的三角形的内角是否分别满足对应的阈值条件;若任意一不满足,确定需要调整拍摄角度。
参见图3,为本发明实施例示出的一种虚拟相机拍摄方法的流程示意图,所述方法:
步骤S301:获取虚拟摄像机拍摄指令。
可选的,用户基于虚拟相机拍摄***的前端界面输入所需要拍摄的场景参数,虚拟空间时间,需要控制的虚拟摄像机的设备参数等信息,或者,用户基于虚拟相机拍摄***的前端界面输入拍摄任务,和虚拟摄像机数量等信息。
需要说明的是,拍摄任务包括拍摄场景,拍摄时长,及拍摄画面大小和拍摄边界线。
在具体实现步骤S301的过程中,虚拟相机拍摄***基于所需要拍摄的场景参数,虚拟空间时间,需要控制的虚拟摄像机的设备参数等信息生成所述虚拟摄像机拍摄指令。
步骤S302:基于所述虚拟摄像机拍摄指令控制对应摄像机数量的虚拟摄像机启动。
在具体实现步骤S302的过程中,按照所述虚拟摄像机拍摄指令中的虚拟摄像机的数量控制对应数量的虚拟摄像机启动。
步骤S303:按照所述虚拟摄像机拍摄指令中携带的拍摄任务和摄像机数量输入预设识别模型,基于所述预设识别模型对所述拍摄任务和摄像机数量进行处理,输出每一虚拟摄像机的运镜方式,以便所述虚拟摄像机按照对应的运镜方式进行拍摄。
在步骤S303中,所述预设识别模型是基于样本数据进行构建的;
需要说明的是,基于样本数据进行构建预设识别模型的过程包括:
步骤S11:获取不同拍摄场景的拍摄类型和拍摄时长组成的历史拍摄任务,所述历史拍摄任务所需的摄像机数量,以及每一拍摄任务中每一帧拍摄画面的历史运镜方式。
步骤S12:基于所述历史拍摄任务,所述历史拍摄任务所需的摄像机数量以及历史运镜方式进行深度学习训练,得到训练完成的预设识别模型。
在具体实现步骤S12的过程中,利用深度学习算法构建的初始模型对所述历史拍摄任务,所述历史拍摄任务所需的摄像机数量以及历史运镜方式进行训练,直至初始模型输出的摄像机数量个虚拟摄像机的运镜方式与对应的历史运镜方式相同,确定当前的初始模型为预设识别模型。
在具体实现步骤S303的具体实现过程中,通过预设识别模型对所述虚拟摄像机拍摄指令中携带的拍摄任务和摄像机数量进行处理,输出摄像机数量个虚拟摄像机的运镜方式,以便所述虚拟摄像机按照对应的运镜方式进行拍摄。
需要说明的是,运镜方式包括近景拍摄,中景拍摄和远景拍摄等。
步骤S304:针对每一虚拟摄像机,基于拍摄画面大小确定基准线。
在步骤S304中,所述拍摄画面大小是通过所述虚拟摄像机拍摄指令中携带的拍摄任务确定的。
需要说明的是,具体实现步骤S304的过程包括以下步骤:
步骤S21:从所述虚拟摄像机拍摄指令中携带的拍摄任务获取对应的拍摄边界线。
需要说明的是,拍摄边界线包括摄像头的长边边界线和宽边边界线。
其中,长边边界线包括上边界线和下边界线,宽边边界线包括左边界线和右边界线。
步骤S22:基于所述拍摄边界线确定拍摄边界比。
在具体实现步骤S22的过程中,通过拍摄边界线计算长边边界线和宽边边界线的比,得到拍摄边界比。
步骤S23:利用所述拍摄边界比确定对应的基准角度组。
需要说明的是,可通过预设构建处理模型,或者,预先存储的拍摄边界比与基准角度组的对应关系确定对应的基准角度组。
在第一种实施方式中,预设构建处理模型的过程包括:
步骤S31:采集的不同拍摄边界比,及所述不同拍摄边界比在不同基准角度下所确定的基准线内的拍摄效果。
步骤S32:将所述不同拍摄边界比,不同基准角度,及所述不同拍摄边界比在不同基准角度下所确定的基准线内的拍摄效果对初始模型进行训练,直至输出的拍摄效果在预设范围内,确定当前训练得到的初始模型为处理模型。
在具体实现步骤S32的过程中,将所述不同拍摄边界比,不同基准角度,及所述不同拍摄边界比在不同基准角度下所确定的基准线内的拍摄效果作为所述样本数据,并将样本数据划分成训练集和测试集;基于训练集对初始模型进行训练,得到训练完成的初始模型;利用测试集对所述初始模型进行测试,得到预测基准角度组;判断所述预测电压组中的每一预测基准角度组是否在预设范围内,若均处于,确定当前训练得到的初始模型为预测模型。
需要说明的是,预设范围包括所述测试集中所有拍摄效果为优先的基准角度。
在具体实现步骤S23的过程中,将所述拍摄边界比输入处理模型,基于所述处理模型对所述拍摄边界比进行处理,输出基准角度组,也就是说,基于上述步骤S31至步骤S32训练得到处理模型对拍摄边界比进行处理,输出对应的基准角度组。
在第二种实施方式中,需要说明的是,预先存储的拍摄边界比与基准角度组的对应关系,具体的,针对每一拍摄边界比,记录拍摄边界比在不同基准角度下所能够确定的基准线内的拍摄效果;确定拍摄效果为优秀的基准角度,并设置其与所述拍摄边界比之间的对应关系,依次类推,直至确定不同的拍摄边界比与基准角度组的对应关系。
需要说明的是,拍摄效果为优秀的基准角度至少为3个。
在具体实现步骤S23的过程中,查找预先存储的拍摄边界比与基准角度组的对应关系,确定与所述拍摄边界对应的基准角度组。
步骤S24:基于所述基准角度组和拍摄边界线绘制对应的基准线。
需要说明的是,具体实现步骤S24的过程中,包括以下步骤:
首先,按照所述基准角度组中的第一个基准角度,以拍摄边界线中的左边界线和右边界线作为三角形的底边,第一个基准角度作为底角分别绘制第一三角形;将每一所述第一三角形的顶角作为基准点;接着以上边界线,下边界线为底边,第一三角形的腰线为延长线分别绘制第二三角形,并每一所述第二三角形的顶角作为基准点;并以所述基准点为基点,平行或垂直于左边界线和右边界线绘制对应的基准线;接着,按照所述基准角度组中的第二个基准角度,调整上述第一三角形和第二三角形的位置,确定新的基准点;并以所述新的基准点为基点,平行或垂直于左边界线和右边界线绘制对应的基准线,以此类推,直至绘制所有的基准线。
为了更好的理解上述步骤S24示出的过程,下面通过一个示例进行举例说明,如图4所示。
例如:若所述拍摄边界比16:9确定对应的基准角度组Q,基准角度组Q包括第一个基准角度r1,第二基准角度r2,第三基准角度r3,第四基准角度r4和第五基准角度r5。
按照所述基准角度组Q中的第一个基准角度r1,即角a2为45°,角a3为45°,以拍摄边界线中的左边界线A1为三角形的底边,角a2为45°,即角a3为45°作为底角绘制第一三角形S1,此时通过第一三角形S1可以确定角a1为直角,确立顶点为基准点H1;按照所述基准角度组Q中的第一个基准角度r1,即角b2为45°,角b3为45°,以拍摄边界线中的右边界B1为三角形的底边,角b2为45°,即角b3为45°作为底角绘制第一三角形S2,此时通过第一三角形S2确定角b1为直角,确立顶点为基准点H3。将所述第一三角形S1和第一三角形S2的顶角作为基点,接着以下边界线F1为底边,第一三角形S1和第一三角形S2的腰线为延长线绘制第二三角形Y1,此时通过第二三角形Y1确定顶点为基准点H2;将所述第一三角形S1和第一三角形S2的顶角作为基点,接着以上边界线F4为底边第一三角形S1和第一三角形S2的腰线为延长线绘制第二三角形Y2,此时通过第二三角形Y2确定顶点为基准点H4。
以基准点H2,H3为基点,平行于左边界线A1,右边界线B1做画,绘制对应的基准线G7;以基准点H1,H3,平行于左边界线A1,右边界线B1做画,绘制对应的基准线G2,G3。以基准点H2,H4为基点,垂直于左边界线A1,右边界线B1做画,绘制对应的基准线F6,F7。
接着,按照所述基准角度组中的第二基准角度r2,即角a3和b2为20°,角a2,b3为70°,以调整上述第一三角形S1,S2和第二三角形Y1,Y2的位置,确定新的基准点H1,H2,H3,和H4;以新的基准点H1,H3为基点,平行于左边界线A1,右边界线B1做画,绘制对应的基准线G1,G4。
接着,按照所述基准角度组中的第三基准角度r3,即角a2和角a3共110°,角b2和角b3共110°,也就是说,此时角a1的角度为70°,角b1的角度也为70°;以调整上述第一三角形S1,S2和第二三角形Y1,Y2的位置,确定新的基准点H1,H2,H3,和H4;以新的基准点H1,H3为基点,平行于左边界线A1,右边界线B1做画,绘制对应的基准线G5,G6。
然后,按照所述基准角度组中的第四基准角度r4,角d1为86°,同理角c1为86°。以下边界线F1为底边,角d1为86°,第一三角形S1和第一三角形S2的腰线,为延长线绘制第二三角形Y1,确定此时顶点的位置基准点为H2;以基准点H2为基点,垂直于左边界线A1,右边界线B1做画,绘制对应的基准线F5;同理,以上边界线F4为底边,角c1为86°,第一三角形S1和第一三角形S2的腰线,为延长线绘制第二三角形Y2,确定此时顶点的位置基准点为H4,以基准点H4为基点,垂直于左边界线A1,右边界线B1做画,绘制对应的基准线F8。
需要说明的是,角d1角度设定值为86°是指当d2,d3保持角度不变时,根据余弦定理,顶d1的角度最小约为83.3°,因此将其设置为大于83.3°的角度,即设置为86°,同理,角c1也设置为86°。
最后,按照所述基准角度组中的第五基准角度r5,角d1为140°,同理角c1为140°。以下边界线F1为底边,角d1为140°,第一三角形S1和第一三角形S2的腰线,为延长线绘制第二三角形Y1,确定此时顶点的位置基准点为H2;以基准点H2为基点,垂直于左边界线A1,右边界线B1做画,绘制对应的基准线F11;同理,以上边界线F4为底边,角c1为140°,第一三角形S1和第一三角形S2的腰线,为延长线绘制第二三角形Y2,确定此时顶点的位置基准点为H4,以基准点H4为基点,垂直于左边界线A1,右边界线B1做画,绘制对应的基准线F12。
需要说明的是,已知当前拍摄画面比是16:9,基于屏幕的三分法,将角d1和角c1角度设定值为140°。
步骤S305:对拍摄画面的人物标记点进行追踪。
在步骤S305中,所述标记点是基于所述运镜方式确定的。
需要说明的是,具体实现步骤S305的过程包括以下步骤:
步骤S31:根据人物参考线和运镜方式设置人物标记点。
需要说明的是,根据运镜方式的不同所对应的标记点也不同。
其中,标记点的数量根据运镜方式的不同也变化。
若所述运镜方式为近景拍摄时,标记点的数量为3个,具体包括:标记点R1、R2和R3,标记点R1为头部标试点,R2为左肩膀标识点,R3为右肩膀标识点,如图5中x1部分所示。
若所述运镜方式为中景拍摄时,标记点的数量为3个,具体包括:标记点R1、R2和R3,标记点R1为头部标试点,R2为左腰部标识点,R3为右腰部标识点,如图5中x2部分所示。
若所述运镜方式为全景拍摄时,标记点的数量为5个,具体包括:标记点R1、R2、R3、R4和R5,标记点R1为头部标试点,R2为左腰部标识点,R3为右腰部标识点,R4为左脚踝识别点,R5为右脚踝识别点,如图5中x3部分所示。
在具体实现步骤S31的过程中,若所述运镜方式为近景拍摄时,根据人物参考线标记每一帧拍摄画面中的头部标试点R1,左肩膀标识点R2和右肩膀标识点R3;若所述运镜方式为中景拍摄时,根据人物参考线标记每一帧拍摄画面中的头部标试点R1,左腰部标识点R2和右腰部标识点R3;若所述运镜方式为全景拍摄时,根据人物参考线标记每一帧拍摄画面中的头部标试点R1,左腰部标识点R2,右腰部标识点R3,左脚踝识别点R4,和右脚踝识别点R5。
需要说明的是,人物参考线是技术人员根据人体工学实验设置的人体不同位置的参考线。
步骤S32:根据每一帧拍摄画面中的人物标记点进行追踪。
在具体实现步骤S32的过程中,根据拍摄画面的变化,对每一个人物标记点的移动进行标注,即形成对人物标记点的追踪。
步骤S306:基于所述人物标记点的变化确定是否需要调整拍摄角度,若是,则执行步骤S307,若否,返回执行步骤S305。
需要说明的是,具体实现步骤S306的过程存在多次实现方式。
第一种实施方式,包括以下步骤:
步骤S41:记录每一所述人物标记点分别在预设帧拍摄画面中的移动范围,得到标记移动范围。
需要说明的是,标记移动范围包括头部标记移动范围等各个标记点的移动范围。
步骤S42:基于标记移动范围确定所述人物标记点所处基准线。
在具体实现步骤S42的过程中,通过标记移动范围,分别确定每一人物标记点所述基准线区间。
例如:确定人物标记点R1的移动范围在[基准线F5,基准线F6]之间,及[基准线G5,基准线G6]之间。
步骤S43:基于每一人物标记点的基准线区间是否在对应的预设基准范围内,若任意一不在,则执行步骤S44,若均在,返回执行步骤S305。
需要说明的是,预设基准范围是根据多次试验设置的。
在具体实现步骤S43的过程中,分别比较每一人物标记点的基准线区间是否在对应的预设基准范围内,若任意一不在,则执行步骤S44,若均在,返回执行步骤S305。
步骤S44:基于所述人物标记点所绘制的三角形的内角是否分别满足对应的阈值条件,若任意一不满足,则执行步骤S46,若均满足,返回执行步骤S305。
需要说明的是,具体实现步骤S44的过程中,包括以下步骤:
步骤S51:将所述人物标记点中的第二标记点和第三标记点作为第一三角形的基准点,以调整第一三角形的内角,也就是说,将所述人物标记点中的第二标记点和第三标记点分别作为一个第一三角形的顶点,绘制第一三角形,并确定每一三角形的内角。
步骤S52:判断所述第一三角形中的内角的角度是否分别满足对应的阈值条件,在具体实现步骤S45的过程中,将基准点H1与人物标记点中的第二标记点R2重合,以及将基准点H3与人物标记点中的第三标记点R3重合,从而调整第一三角形S1和S2;并确定调整后第一三角形S1和S2的内角是否分别满足对应的阈值条件,若任意一不满足,则执行步骤S46,若均满足,返回执行步骤S305。
需要说明的是,若所述运镜方式为近景时,阈值条件为调整后第一三角形S1和S2的内角是否小于均第一角度,且内角的临界值为第一角度,在实际应用时候,超出阈值比范围,会对镜头进行拍摄画面调整。
其中,第一角度是通过多次实验设置的,比如可设置为45°。
第一三角形S1和S2的内角多对应的第一角度可以相同,也可以不同。
可选的,若所述运镜方式为近景时,还包括:判断第二标记点R2和第三标记点R3是否不低于基准线F11,若不是,确定其可执行步骤S46,若是,则返回执行步骤S305。
若所述运镜方式为中景时,阈值条件为调整后第一三角形S1和S2的内角是否小于均第二角度,且内角的临界值为第二角度,在实际应用时候,超出阈值比范围,会对镜头进行拍摄画面调整。
可选的,若所述运镜方式为中景时,还包括:判断第二标记点R2和第三标记点R3是否不低于基准线F11,若不是,确定其可执行步骤S46,若是,则返回执行步骤S305。
其中,第二角度也是通过多次实验设置的,第二角度可以与第一角度相同,也可以不同,第二角度也可设置为45°。
第一三角形S1和S2的内角多对应的第二角度可以相同,也可以不同。
若所述运镜方式为远景时,阈值条件为调整后第一三角形S1和S2的内角是否均大于第三角度,且内角的临界值为第三角度,在实际应用时候,超出阈值比范围,会对镜头进行拍摄画面调整。
可选的,若所述运镜方式为远景时,还包括:判断第四标记点R4第五标记点R5是否不低于基准线F11,若不是,确定其可执行步骤S46,若是,则返回执行步骤S305。
其中,第三角度也是通过多次实验设置的,第三角度可以与第二角度和/或第一角度相同,也可以不同,第三角度也可设置为45°。
第一三角形S1和S2的内角多对应的第三角度可以相同,也可以不同。
为了更好的理解上述步骤S44示出的方法,下面通过不同的示例进行举例说明。
第一个示例,若在所述近景或中景的运镜方式下,在第n1帧拍摄画面,确定R1的移动范围在[基准线F5,基准线F6]之间,及[基准线G5,基准线G6]之间;在第n1+1帧拍摄画面,锁定R1在[基准线G6,基准线G7]之间,此时角d2的角度会缩小,d3的角度会增大,从而进行判断当前人物面部主体朝向右边界线B1移动。
当人物面部主体偏向B1线时,R2,R3的移动范围区间分别为[基准线G1,基准线G6]之间,[基准线G5,基准线G4]之间,将基准点H1,H3分别与R2,R3进行重合,以调整第一三角形,获取此时以调整第一三角形的内角是否小于对应的阈值条件,在实际应用时候,不满足阈值条件,会对镜头进行拍摄画面调整。
第二个示例,若在所述远景的运镜方式下,在第n1帧拍摄画面,确定R1的移动范围在[基准线F5,基准线F6]之间,及[基准线G5,基准线G6]之间;在第n1+1帧拍摄画面,锁定R1在[基准线G6,基准线G7]之间,此时角d2的角度会缩小,d3的角度会增大,以G7线为分割,从而进行判断当前人物面部主体朝向右边界线B1移动。
当人物面部主体偏向B1线时,R2,R3的移动范围区间分别为[基准线G1,基准线G6]之间,[基准线G5,基准线G4]之间,将基准点H1,H3分别与R2,R3进行重合,以调整第一三角形,获取此时以调整第一三角形的内角是否大于对应的阈值条件,在实际应用时候,不满足阈值条件,会对镜头进行拍摄画面调整。
步骤S45:确定需要调整拍摄角度。
步骤S307:控制所述虚拟摄像机根据所述人物标记点的移动调整拍摄角度。
在具体实现步骤S307的过程中,当人物转身或者侧身的时候,人物标记点R1,R2,R3是会发生位移的变化;通过人物标记点R1,R2,R3绘制三角形,其之对应的内角r11,r22,r33在人物标记点R1,R2,R3发生位移的变化也会发生变化;记录内角r11,r22,r33的角度阈值比,查找内角r11,r22,r33的角度阈值比与拍摄角度之间的对应关系,确定对应的拍摄角度,并控制所述虚拟摄像机按照拍摄角度进行拍摄。
需要说明的是,内角r11,r22,r33的角度阈值比与拍摄角度之间的对应关系是预先根据多次实验设置的。
例如:当人物向左侧转身时候,R3点因为透视关系,会往下偏移的同时,R3,R2的距离也会缩短,内角r22,r33的角度会增加,而内角r11角度会减少,摄像机会参考初始均值角度值,调整r11,r22,r33的角度回复原位,虚拟相机也往左旋转移动,同时结合主体头部模块判断,当前人物主体的朝向,前进方向,调整r22,r33角度的大小,对人物主体的朝向留更多的空间,避免正前方怼脸,可以调整成侧面,微侧面,45°侧面,更好的拍摄画面表达。通过不断增加有人工标注的标准素材进行不断学习,调整r11,r22,r33的角度阈值比,形成内角r11,r22,r33的角度阈值比与拍摄角度之间的对应关系。
在本发明实施例中,通过训练得到的预设识别模型对拍摄任务中的拍摄画面进行识别确定对应的运镜方式,运镜方式中拍摄画面的近景,中景,远景,空镜等镜头作出区分,针对每一虚拟摄像机,基于拍摄画面大小确定基准线,所述拍摄画面大小是通过所述虚拟摄像机拍摄指令中携带的拍摄任务确定的;对拍摄画面的人物标记点进行追踪,所述标记点是基于所述运镜方式确定的;若基于所述人物标记点的变化和基准线确定需要调整拍摄角度,并控制所述虚拟摄像机根据所述人物标记点的移动调整拍摄角度。以控制人物主体在拍摄画面的占比,从而提高拍摄效果。
可选的,基于上述本发明实施例示出的方法,如图6所示,所述方法还包括:
步骤S601:针对每一虚拟摄像机,采集所述虚拟摄像机拍摄的每一帧拍摄画面;
步骤S602:针对每一帧拍摄画面,对所述拍摄画面进行多维度识别出来,得到各个维度对应的拍摄画面要素;
在具体实现步骤S601至步骤S602的过程中,针对每一虚拟摄像机,首先,采集所述虚拟摄像机拍摄的每一帧拍摄画面;并按照背景提取维度,头部主体维度,事件维度,人物主体特征维度以及拍摄画面构成维度等维度对每一帧拍摄画面进行识别,得到每一维度对应的拍摄画面要素。
需要说明的是,事件维度中还包括多人物主体交互维度。
步骤S603:判断每一维度对应的拍摄画面要素是否存在异常要素,若不存在,则执行步骤S604,若任意一存在,将该帧拍摄画面删除。
在具体实现步骤S603的过程中,若为背景提取维度,确定拍摄画面要素中的前景要素,后景要素和场景碰撞要素;针对前景要素,判断前景要素中是否有对人物主体的遮挡物要素;针对后景要素,判断后景要素中的天空光源方向是否与预设光源方向一致;针对场景碰撞要素,判断场景碰撞要素中是否存在与场景不符的障碍物要素;若均不存在,则执行下一维度的判断,若任意一存在,将该帧拍摄画面删除。
若为头部主体维度,拍摄画面要素中包括头部的正面,侧面,及背面等要素;判断正面要素是否符合预设要素条件,若符合,则执行下一维度的判断,若不符合,将该帧拍摄画面删除。
其中,预设要素条件是指将人物头部的正面方向保持预设数量的拍摄画面空镜。
若为事件维度,拍摄画面要素中是否存在多个主体人物,若存在,确定存在多人物主体交互维度,并触发预设数量个虚拟摄像机对拍摄画面中的人物进行预设多角度拍摄。
需要说明的是,预设数量是根据主体人物的数量确定的。
可选的,多个主体人物的创建会附带一个位置信息同步挂点,虚拟摄像机会不断的进行信息交换,判断出多主体人物的位置范围,当位置达到可能会交互的位置阈值,会创建多个另外的AI虚拟相机,进行全景拍摄,无论是否会进行交互,都能够多角度的记录多个主体会面的事件,避免发生交互缺少拍摄画面素材。
可选的,还包括人物主体特征维度抽取,按照运镜方式的不同对主体人物进行三角形标记点标记,在不同运镜方式的镜头中,标识点的位置不同。
具体的,若所述运镜方式为近景时,标记点的数量为3个,具体包括:标记点R1、R2和R3,标记点R1为头部标试点,R2为左肩膀标识点,R3为右肩膀标识点。
若所述运镜方式为中景时,标记点的数量为3个,具体包括:标记点R1、R2和R3,标记点R1为头部标试点,R2为左腰部标识点,R3为右腰部标识点。
若所述运镜方式为全景时,标记点的数量为5个,具体包括:标记点R1、R2、R3、R4和R5,标记点R1为头部标试点,R2为左腰部标识点,R3为右腰部标识点,R4为左脚踝识别点,R5为右脚踝识别点。
若为拍摄画面构成维度,判断拍摄画面要素是否为拍摄画面构成要素,若是,则执行步骤S604,若否,则将该帧拍摄画面删除。
需要说明的是,拍摄画面构成要素是预先自定义的拍摄画面构成的数据。
需要说明的是,具体实现步骤S603的过程可通过图7示出。
步骤S604:确定所述拍摄画面为有效拍摄画面,并保存。
在本发明实施例中,针对每一虚拟摄像机,采集所述虚拟摄像机拍摄的每一帧拍摄画面;针对每一帧拍摄画面,对所述拍摄画面进行多维度识别出来,得到各个维度对应的拍摄画面要素;判断每一维度对应的拍摄画面要素是否存在异常要素;若不存在,确定所述拍摄画面为有效拍摄画面,并保存。通过判断每一帧拍摄画面将有效拍摄画面保存,从而提高拍摄效果。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于***或***实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的***及***实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种虚拟相机拍摄方法,其特征在于,应用于虚拟相机拍摄***,所述方法包括:
获取虚拟摄像机拍摄指令;
基于所述虚拟摄像机拍摄指令控制对应摄像机数量的虚拟摄像机启动;
按照所述虚拟摄像机拍摄指令中携带的拍摄任务和摄像机数量输入预设识别模型,基于所述预设识别模型对所述拍摄任务和摄像机数量进行处理,输出每一虚拟摄像机的运镜方式,以便所述虚拟摄像机按照对应的运镜方式进行拍摄,所述预设识别模型是基于样本数据进行构建的;
针对每一虚拟摄像机,基于拍摄画面大小确定基准线,所述拍摄画面大小是通过所述虚拟摄像机拍摄指令中携带的拍摄任务确定的;
对拍摄画面的人物标记点进行追踪,所述标记点是基于所述运镜方式确定的;
若基于所述人物标记点的变化和基准线确定需要调整拍摄角度,并控制所述虚拟摄像机根据所述人物标记点的移动调整拍摄角度。
2.根据权利要求1所述的方法,其特征在于,还包括:
针对每一虚拟摄像机,采集所述虚拟摄像机拍摄的每一帧拍摄画面;
针对每一帧拍摄画面,对所述拍摄画面进行多维度识别出来,得到各个维度对应的拍摄画面要素;
判断每一维度对应的拍摄画面要素是否存在异常要素;
若不存在,确定所述拍摄画面为有效拍摄画面,并保存。
3.根据权利要求2所述的方法,其特征在于,还包括:
若所述维度为多人物主体交互维度时,触发预设数量个虚拟摄像机对拍摄画面中的人物进行预设多角度拍摄。
4.根据权利要求1所述的方法,其特征在于,基于样本数据进行构建预设识别模型的过程包括:
获取不同拍摄场景的拍摄类型和拍摄时长组成的历史拍摄任务,以及每一拍摄任务中每一帧拍摄画面的历史运镜方式;
基于所述历史拍摄任务,所述历史拍摄任务所需的摄像机数量以及历史运镜方式进行深度学习训练,得到训练完成的预设识别模型。
5.根据权利要求1所述的方法,其特征在于,所述基于拍摄画面大小确定基准线,包括:
从所述虚拟摄像机拍摄指令中携带的拍摄任务获取对应的拍摄边界线;
基于所述拍摄边界线确定拍摄边界比;
利用所述拍摄边界比确定对应的基准角度组;
基于所述基准角度和拍摄边界线确定对应的基准线。
6.根据权利要求5所述的方法,其特征在于,所述利用所述拍摄边界比确定对应的基准角度组,包括:
将所述拍摄边界比输入处理模型,基于所述处理模型对所述拍摄边界比进行处理,输出基准角度组,所述处理模型是预先构建的;
其中,预先构建处理模型的过程包括:
采集的不同拍摄边界比,及所述不同拍摄边界比在不同基准角度下所确定的基准线内的拍摄效果;
将所述不同拍摄边界比,不同基准角度,及所述不同拍摄边界比在不同基准角度下所确定的基准线内的拍摄效果对初始模型进行训练,直至输出的拍摄效果在预设范围内,确定当前训练得到的初始模型为处理模型。
7.根据权利要求1所述的方法,其特征在于,所述对拍摄画面的人物标记点进行追踪,包括:
根据人物参考线和运镜方式设置人物标记点;
根据每一帧拍摄画面中的人物标记点进行追踪。
8.根据权利要求1所述的方法,其特征在于,基于所述人物标记点的变化和基准线确定需要调整拍摄角度,包括:
记录每一所述人物标记点分别在预设帧拍摄画面中的移动范围,得到标记移动范围;
基于标记移动范围确定所述人物标记点所处基准线;
基于每一人物标记点的基准线区间是否在对应的预设基准范围内;
若在,基于所述人物标记点所绘制的三角形的内角是否分别满足对应的阈值条件;
若任意一不满足,确定需要调整拍摄角度。
9.一种虚拟相机拍摄***,其特征在于,所述***包括:
启动单元,用于获取虚拟摄像机拍摄指令;基于所述虚拟摄像机拍摄指令控制对应数量的虚拟摄像机启动;
预设识别模型,用于按照所述虚拟摄像机拍摄指令中携带的拍摄任务和摄像机数量输入预设识别模型,基于所述预设识别模型对所述拍摄任务和摄像机数量进行处理,输出每一虚拟摄像机的运镜方式,以便所述虚拟摄像机按照对应的运镜方式进行拍摄,所述预设识别模型是基于样本数据进行构建的;
处理单元,用于针对每一虚拟摄像机,基于拍摄画面大小确定基准线,所述拍摄画面大小是通过所述虚拟摄像机拍摄指令中携带的拍摄任务确定的;对拍摄画面的人物标记点进行追踪,所述标记点是基于所述运镜方式确定的;
调整单元,用于若基于所述人物标记点的变化和基准线确定需要调整拍摄角度,并控制所述虚拟摄像机根据所述人物标记点的移动调整拍摄角度。
10.一种存储介质,其特征在于,所述存储介质包括存储程序,其中,在所述程序运行时控制所述存储介质所在设备执行如权利要求1-8中任一所述的虚拟相机拍摄方法。
CN202311736198.5A 2023-12-18 2023-12-18 一种虚拟相机拍摄方法和*** Active CN117425076B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311736198.5A CN117425076B (zh) 2023-12-18 2023-12-18 一种虚拟相机拍摄方法和***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311736198.5A CN117425076B (zh) 2023-12-18 2023-12-18 一种虚拟相机拍摄方法和***

Publications (2)

Publication Number Publication Date
CN117425076A CN117425076A (zh) 2024-01-19
CN117425076B true CN117425076B (zh) 2024-02-20

Family

ID=89531114

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311736198.5A Active CN117425076B (zh) 2023-12-18 2023-12-18 一种虚拟相机拍摄方法和***

Country Status (1)

Country Link
CN (1) CN117425076B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111447340A (zh) * 2020-05-29 2020-07-24 深圳市瑞立视多媒体科技有限公司 混合现实虚拟预演拍摄***
JP2020167499A (ja) * 2019-03-29 2020-10-08 株式会社 零Space 写真撮影支援装置
CN115294212A (zh) * 2022-08-04 2022-11-04 广州博冠信息科技有限公司 虚拟运镜序列生成方法、装置、电子设备及存储介质
WO2023174009A1 (zh) * 2022-03-17 2023-09-21 北京字跳网络技术有限公司 基于虚拟现实的拍摄处理方法、装置及电子设备
CN116966557A (zh) * 2022-04-19 2023-10-31 网易(杭州)网络有限公司 游戏视频流分享方法、装置、存储介质与电子设备
CN117061857A (zh) * 2023-08-25 2023-11-14 深圳互酷科技有限公司 一种无人机自动拍摄的方法、装置、无人机及介质
CN117119294A (zh) * 2023-08-24 2023-11-24 腾讯科技(深圳)有限公司 虚拟场景的拍摄方法、装置、设备、介质和程序

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108306965B (zh) * 2018-01-31 2021-02-02 上海小蚁科技有限公司 摄像头的数据处理方法及装置、存储介质、摄像头
JP2022060900A (ja) * 2020-10-05 2022-04-15 キヤノン株式会社 制御装置および学習装置及び制御方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020167499A (ja) * 2019-03-29 2020-10-08 株式会社 零Space 写真撮影支援装置
CN111447340A (zh) * 2020-05-29 2020-07-24 深圳市瑞立视多媒体科技有限公司 混合现实虚拟预演拍摄***
WO2023174009A1 (zh) * 2022-03-17 2023-09-21 北京字跳网络技术有限公司 基于虚拟现实的拍摄处理方法、装置及电子设备
CN116966557A (zh) * 2022-04-19 2023-10-31 网易(杭州)网络有限公司 游戏视频流分享方法、装置、存储介质与电子设备
CN115294212A (zh) * 2022-08-04 2022-11-04 广州博冠信息科技有限公司 虚拟运镜序列生成方法、装置、电子设备及存储介质
CN117119294A (zh) * 2023-08-24 2023-11-24 腾讯科技(深圳)有限公司 虚拟场景的拍摄方法、装置、设备、介质和程序
CN117061857A (zh) * 2023-08-25 2023-11-14 深圳互酷科技有限公司 一种无人机自动拍摄的方法、装置、无人机及介质

Also Published As

Publication number Publication date
CN117425076A (zh) 2024-01-19

Similar Documents

Publication Publication Date Title
JP5178553B2 (ja) 撮像装置
KR101503333B1 (ko) 촬상장치 및 그 제어 방법
US8300136B2 (en) Imaging apparatus for detecting a face image and imaging method
CN103081455B (zh) 从手持设备所捕获的多个图像进行肖像图像合成
JP6101397B2 (ja) 写真出力方法および装置
US7973833B2 (en) System for and method of taking image and computer program
CN110542975B (zh) 变焦控制装置、摄像设备和变焦控制装置的控制方法
US20140092272A1 (en) Apparatus and method for capturing multi-focus image using continuous auto focus
JP5016909B2 (ja) 撮像装置
CN109379537A (zh) 滑动变焦效果实现方法、装置、电子设备及计算机可读存储介质
CN103534726A (zh) 用于全景摄影的位置传感器辅助的图像配准
CN101010942A (zh) 捕获图像序列
CN108702456A (zh) 一种对焦方法、设备及可读存储介质
JP6516434B2 (ja) 画像処理装置、撮像装置、画像処理方法
CN104867125B (zh) 获取图像的方法以及装置
WO2021134179A1 (zh) 对焦方法、装置、拍摄设备、可移动平台和存储介质
CN108600610A (zh) 拍摄辅助方法和装置
CN112995507A (zh) 提示对象位置的方法及装置
CN110278366B (zh) 一种全景图像虚化方法、终端及计算机可读存储介质
CN114788254A (zh) 辅助对焦方法、装置及***
JP7158841B2 (ja) 撮像装置、撮像方法、プログラム、記録媒体および画像処理装置
JP2020107956A (ja) 撮像装置、撮像方法およびプログラム
CN117425076B (zh) 一种虚拟相机拍摄方法和***
CN110930437B (zh) 目标跟踪方法和装置
CN112673621A (zh) 自动对焦方法、装置、云台、设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant