CN109120849B - 一种用于微课跟踪的智能拍摄方法 - Google Patents

一种用于微课跟踪的智能拍摄方法 Download PDF

Info

Publication number
CN109120849B
CN109120849B CN201811090606.3A CN201811090606A CN109120849B CN 109120849 B CN109120849 B CN 109120849B CN 201811090606 A CN201811090606 A CN 201811090606A CN 109120849 B CN109120849 B CN 109120849B
Authority
CN
China
Prior art keywords
point
positioning
shooting
ssx
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811090606.3A
Other languages
English (en)
Other versions
CN109120849A (zh
Inventor
朱玉荣
彭泽波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Wenxiang Information Technology Co Ltd
Original Assignee
Anhui Wenxiang Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Wenxiang Information Technology Co Ltd filed Critical Anhui Wenxiang Information Technology Co Ltd
Priority to CN201811090606.3A priority Critical patent/CN109120849B/zh
Publication of CN109120849A publication Critical patent/CN109120849A/zh
Application granted granted Critical
Publication of CN109120849B publication Critical patent/CN109120849B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种用于微课跟踪的智能拍摄方法,解决的是拍摄不居中、易用性差的技术问题,通过采用包括:步骤1,定义分析检测的区域的边缘与拍摄定位的对应关系,同时定义二维空间坐标系为Z系坐标;步骤2,利用三维空间到二维空间坐标系的转换,将Z系坐标四个点的放大值转换为对应的放大值,根据四边形相似原理计算出检测点的z坐标为拍摄摄像机的放大指令;步骤3,使用分析检测的区域的平面的多点定位,利用图像分析检测到移动的目标点,计算出检测点和实际绝对坐标xy的映射,计算出拍摄摄像机的定位指令;步骤4,拍摄摄像机根据步骤2和步骤3的定位指令和放大指令工作,拍摄居中的技术方案,较好的解决了该问题,可用于微课中。

Description

一种用于微课跟踪的智能拍摄方法
技术领域
本发明涉及领域,具体涉及一种用于微课跟踪的智能拍摄方法。
背景技术
微课是指以视频为主要载体记录教师在教学过程中围绕单个或多个知识点而开展的教学全过程。对拍摄的视频质量显得非常重要,而微课主体是老师,所以主要还在于对老师的跟踪拍摄,目前在微课拍摄过程中把讲台分成几个区域,每个区域用拍摄摄像头设定一个固定拍摄点,当老师进入某个区域则切换该区域的拍摄点,但这个方式有局限性,因为拍摄点已经固定,当不同高矮胖瘦的老师授课时,人物在画面中不会居中拍摄,影响教学。
为了有效减少垃圾画面,完美呈现整堂微课程它的核心组成内容是课堂教学视频的课例片段,本发明提供一种用于微课跟踪的智能拍摄方法。
发明内容
本发明所要解决的技术问题是现有技术中存在的拍摄不居中、易用性差的技术问题。提供一种新的用于微课跟踪的智能拍摄方法,该用于微课跟踪的智能拍摄方法具有拍摄居中方便、精准、不依靠目标检测点的特征变化而使得目标始终居中在平面中的特点。
为解决上述技术问题,采用的技术方案如下:
一种用于微课跟踪的智能拍摄方法,所述用于微课跟踪的智能拍摄方法包括:
步骤1,定义分析检测的区域的边缘与拍摄定位的对应关系,同时定义二维空间坐标系为Z系坐标;
步骤2,利用三维空间到二维空间坐标系的转换,将Z系坐标四个点的放大值转换为对应的放大值,根据四边形相似原理计算出检测点的z坐标为拍摄摄像机的放大指令;
步骤3,使用分析检测的区域的平面的多点定位,利用图像分析检测到移动的目标点,计算出检测点和实际绝对坐标xy的映射,计算出拍摄摄像机的定位指令;
步骤4,拍摄摄像机根据步骤2和步骤3的定位指令和放大指令工作,拍摄居中。
本发明的工作原理:本发明首先定义一种分析检测的区域的边缘与拍摄定位的对应关系。利用三维空间到二维空间坐标系的转换,利用Z系坐标离原点越近放大值的变化成线性关系的变化,在Z系坐标四个点的放大值转换为对应的放大值根据四边形相似原理得到检测点的z坐标。根据检测区域的平面的多点定位,利用图像分析检测到移动的合理的目标点,只要检测点属于该平面区域的点,在多点形成的数学模型的映射关系,根据比例公式可以随时精准的算出检测点和实际绝对坐标xy的映射,使得画面居中。
上述方案中,为优化,进一步地,步骤1中的拍摄定位由4个定位摄像机完成,4个定位摄像机的分别设置在A点、B点、C点、D点;
Z坐标系中A点为(X1,Y1)、B点为(X2,Y2)、C点为(X3,Y3)、D点为(X4,Y4)。
进一步地,步骤2包括:
步骤A1,将拍摄摄像机的画面中心设置在各定位摄像机位置,计算对应的放大值;
步骤A2,定义跟踪点的坐标为SourceX,SourceY,定位摄像头检测到跟踪点坐标时,计算出横向比例SSX=SourceX/MaxX,纵向比例SSY=SourceY/MaxY;
步骤A3,根据步骤A1中的放大值,计算出目标点的放大值为:
CZ=(Q-P)*SSY+P,P=(B-A)*SSX+A,Q=(D-C)*SSX+C;
CZ=((D-C)*SSX+C-((B-A)*SSX+A))*SSY+(B-A)*SSX+A
最终计算出拍摄摄像机的放大指令CZ为:
CZ=((Z4-Z3)*SSX+Z3-((Z2-Z1)*SSX+Z1))*SSY+(Z2-Z1)*SSX+Z1。
进一步地,所述步骤A1包括:
设定A定位摄像机的位置A点(X1,Y1),将拍摄摄像机画面正中心设置在A点(X1,Y1),计算出放大值Z1;
设定B定位摄像机的位置B点(X2,Y2),将拍摄摄像机画面正中心设置在B点(X2,Y2),计算出放大值Z2;
设定C定位摄像机的位置C点(X3,Y3),将拍摄摄像机画面正中心设置在C点(X3,Y3),计算出放大值Z3;
设定D定位摄像机的位置D点(X4,Y4),将拍摄摄像机画面正中心设置在D点(X4,Y4),计算出放大值Z4。
进一步地,步骤3包括:
步骤B1,根据步骤1中的四个A、B、C、D点,计算出:
PX=(X2-X1)*SSX+X1,PY=(Y2-Y1)*SSY+Y1,QX=(X4-X3)*SSX+X3,QY=(Y4-Y3)*SSY+Y3;
计算出拍摄摄像机的定位指令(CX,CY):
CX=(X4-X3-X2+X1)*SSX*SSX+(X3+X2-2*X1)*SSX+X1;
CY=(Y4-Y3-Y2+Y1)*SSY*SSY+(Y3+Y2-2*Y1)*SSY+Y1。
本发明的有益效果:本发明利用数学模型建立几何使用三维空间到二维平面的映射变化,通过定位坐标可以快速计算物理坐标的转换,非常方便而且精准,不依靠目标检测点的特征变化而使得目标始终居中在平面中,在微课拍摄动态变化的场景非常适用。
附图说明
下面结合附图和实施例对本发明进一步说明。
图1,定位摄像机设置示意图。
图2,计算比例示意图。
图3,放大值计算示意图。
图4,定位坐标计算示意图。
图5,用于微课跟踪的智能拍摄方法流程示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
实施例1
本实施例提供一种用于微课跟踪的智能拍摄方法,如图5,所述用于微课跟踪的智能拍摄方法包括:
步骤1,定义分析检测的区域的边缘与拍摄定位的对应关系,同时定义二维空间坐标系为Z系坐标;
步骤2,利用三维空间到二维空间坐标系的转换,将Z系坐标四个点的放大值转换为对应的放大值,根据四边形相似原理计算出检测点的z坐标为拍摄摄像机的放大指令;
步骤3,使用分析检测的区域的平面的多点定位,利用图像分析检测到移动的目标点,计算出检测点和实际绝对坐标xy的映射,计算出拍摄摄像机的定位指令;
步骤4,拍摄摄像机根据步骤2和步骤3的定位指令和放大指令工作,拍摄居中。
具体地,如图2,步骤1中的拍摄定位由4个定位摄像机完成,4个定位摄像机的分别设置在A点、B点、C点、D点;
Z坐标系中A点为(X1,Y1)、B点为(X2,Y2)、C点为(X3,Y3)、D点为(X4,Y4)。
具体地,步骤2包括:
步骤A1,将拍摄摄像机的画面中心设置在各定位摄像机位置,计算对应的放大值;
步骤A2,定义跟踪点的坐标为SourceX,SourceY,定位摄像头检测到跟踪点坐标时,计算出横向比例SSX=SourceX/MaxX,纵向比例SSY=SourceY/MaxY;
步骤A3,根据步骤A1中的放大值,计算出目标点的放大值为:
CZ=(Q-P)*SSY+P,P=(B-A)*SSX+A,Q=(D-C)*SSX+C;
CZ=((D-C)*SSX+C-((B-A)*SSX+A))*SSY+(B-A)*SSX+A
如图3,最终计算出拍摄摄像机的放大指令CZ为:
CZ=((Z4-Z3)*SSX+Z3-((Z2-Z1)*SSX+Z1))*SSY+(Z2-Z1)*SSX+Z1。
具体地,所述步骤A1包括:
设定A定位摄像机的位置A点(X1,Y1),将拍摄摄像机画面正中心设置在A点(X1,Y1),计算出放大值Z1;
设定B定位摄像机的位置B点(X2,Y2),将拍摄摄像机画面正中心设置在B点(X2,Y2),计算出放大值Z2;
设定C定位摄像机的位置C点(X3,Y3),将拍摄摄像机画面正中心设置在C点(X3,Y3),计算出放大值Z3;
设定D定位摄像机的位置D点(X4,Y4),将拍摄摄像机画面正中心设置在D点(X4,Y4),计算出放大值Z4。
具体地,步骤3包括:
步骤B1,根据步骤1中的四个A、B、C、D点,计算出:
PX=(X2-X1)*SSX+X1,PY=(Y2-Y1)*SSY+Y1,QX=(X4-X3)*SSX+X3,QY=(Y4-Y3)*SSY+Y3;
如图4,计算出拍摄摄像机的定位指令(CX,CY):
CX=(X4-X3-X2+X1)*SSX*SSX+(X3+X2-2*X1)*SSX+X1;
CY=(Y4-Y3-Y2+Y1)*SSY*SSY+(Y3+Y2-2*Y1)*SSY+Y1。
本实施例利用数学模型建立几何使用三维空间到二维平面的映射变化,通过定位坐标可以快速计算物理坐标的转换,非常方便而且精准,不依靠目标检测点的特征变化而使得目标始终居中在平面中,在微课拍摄动态变化的场景非常适用。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员能够理解本发明,但是本发明不仅限于具体实施方式的范围,对本技术领域的普通技术人员而言,只要各种变化只要在所附的权利要求限定和确定的本发明精神和范围内,一切利用本发明构思的发明创造均在保护之列。

Claims (2)

1.一种用于微课跟踪的智能拍摄方法,其特征在于:所述用于微课跟踪的智能拍摄方法包括:
步骤1,定义分析检测的区域的边缘与拍摄定位的对应关系,同时定义二维空间坐标系为Z系坐标,,所述拍摄定位由4个定位摄像机完成,4个定位摄像机的分别设置在A点、B点、C点、D点,Z坐标系中A点为(X1,Y1)、B点为(X2,Y2)、C点为(X3,Y3)、D点为(X4,Y4);
步骤2,利用三维空间到二维空间坐标系的转换,将Z系坐标四个点的放大值转换为对应的放大值,根据四边形相似原理计算出检测点的z坐标为拍摄摄像机的放大指令;
步骤3,使用分析检测的区域的平面的多点定位,利用图像分析检测到移动的目标点,计算出检测点和实际绝对坐标xy的映射,计算出拍摄摄像机的定位指令;
步骤4,拍摄摄像机根据步骤2和步骤3的定位指令和放大指令工作,拍摄居中,
其中,所述步骤2包括:
步骤A1,将拍摄摄像机的画面中心设置在各定位摄像机位置,计算对应的放大值,具体的设定A定位摄像机的位置A点(X1,Y1),将拍摄摄像机画面正中心设置在A点(X1,Y1),计算出放大值Z1;
设定B定位摄像机的位置B点(X2,Y2),将拍摄摄像机画面正中心设置在B点(X2,Y2),计算出放大值Z2;
设定C定位摄像机的位置C点(X3,Y3),将拍摄摄像机画面正中心设置在C点(X3,Y3),计算出放大值Z3;
设定D定位摄像机的位置D点(X4,Y4),将拍摄摄像机画面正中心设置在D点(X4,Y4),计算出放大值Z4;
步骤A2,定义跟踪点的坐标为SourceX,SourceY,定位摄像头检测到跟踪点坐标时,计算出横向比例SSX=SourceX/MaxX,纵向比例SSY=SourceY/MaxY;
步骤A3,根据步骤A1中的放大值,计算出目标点的放大值为:
CZ=(Q-P)*SSY+P,P=(B-A)*SSX+A,Q=(D-C)*SSX+C;
CZ=((D-C)*SSX+C-((B-A)*SSX+A))*SSY+(B-A)*SSX+A
最终计算出拍摄摄像机的放大指令CZ为:
CZ=((Z4-Z3)*SSX+Z3-((Z2-Z1)*SSX+Z1))*SSY+(Z2-Z1)*SSX+Z1。
2.根据权利要求1所述的用于微课跟踪的智能拍摄方法,其特征在于:步骤3包括:
步骤B1,根据步骤1中的四个A、B、C、D点,计算出:
PX=(X2-X1)*SSX+X1,PY=(Y2-Y1)*SSY+Y1,QX=(X4-X3)*SSX+X3,QY=(Y4-Y3)*SSY+Y3;
计算出拍摄摄像机的定位指令(CX,CY):
CX=(X4-X3-X2+X1)*SSX*SSX+(X3+X2-2*X1)*SSX+X1;
CY=(Y4-Y3-Y2+Y1)*SSY*SSY+(Y3+Y2-2*Y1)*SSY+Y1。
CN201811090606.3A 2018-09-19 2018-09-19 一种用于微课跟踪的智能拍摄方法 Active CN109120849B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811090606.3A CN109120849B (zh) 2018-09-19 2018-09-19 一种用于微课跟踪的智能拍摄方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811090606.3A CN109120849B (zh) 2018-09-19 2018-09-19 一种用于微课跟踪的智能拍摄方法

Publications (2)

Publication Number Publication Date
CN109120849A CN109120849A (zh) 2019-01-01
CN109120849B true CN109120849B (zh) 2020-09-18

Family

ID=64859761

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811090606.3A Active CN109120849B (zh) 2018-09-19 2018-09-19 一种用于微课跟踪的智能拍摄方法

Country Status (1)

Country Link
CN (1) CN109120849B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003346132A (ja) * 2002-05-28 2003-12-05 Toshiba Corp 座標変換装置、座標変換プログラム
CN1554985A (zh) * 2002-02-28 2004-12-15 ���չ�˾ 摄像***、显示以及控制方法、控制程序和可读记录介质
CN102629986A (zh) * 2012-04-10 2012-08-08 广州市奥威亚电子科技有限公司 一种自动跟踪拍摄方法
CN105354578A (zh) * 2015-10-27 2016-02-24 安徽大学 一种多目标物体图像匹配方法
CN105894702A (zh) * 2016-06-21 2016-08-24 南京工业大学 一种基于多摄像机数据融合的入侵检测报警***及其检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9749594B2 (en) * 2011-12-22 2017-08-29 Pelco, Inc. Transformation between image and map coordinates

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1554985A (zh) * 2002-02-28 2004-12-15 ���չ�˾ 摄像***、显示以及控制方法、控制程序和可读记录介质
JP2003346132A (ja) * 2002-05-28 2003-12-05 Toshiba Corp 座標変換装置、座標変換プログラム
CN102629986A (zh) * 2012-04-10 2012-08-08 广州市奥威亚电子科技有限公司 一种自动跟踪拍摄方法
CN105354578A (zh) * 2015-10-27 2016-02-24 安徽大学 一种多目标物体图像匹配方法
CN105894702A (zh) * 2016-06-21 2016-08-24 南京工业大学 一种基于多摄像机数据融合的入侵检测报警***及其检测方法

Also Published As

Publication number Publication date
CN109120849A (zh) 2019-01-01

Similar Documents

Publication Publication Date Title
CN110300292B (zh) 投影畸变校正方法、装置、***及存储介质
CN109559349B (zh) 一种用于标定的方法和装置
CN103617615B (zh) 径向畸变参数获取方法及获取装置
CN104715479A (zh) 基于增强虚拟的场景复现检测方法
CN112686877B (zh) 基于双目相机的三维房屋损伤模型构建测量方法及***
JP2014112055A (ja) カメラ姿勢の推定方法およびカメラ姿勢の推定システム
CN102509304A (zh) 基于智能优化的摄像机标定方法
CN108362205B (zh) 基于条纹投影的空间测距方法
CN105701828A (zh) 一种图像处理方法和装置
CN114792345B (zh) 一种基于单目结构光***的标定方法
CN112288815B (zh) 一种目标模位置测量方法、***、存储介质及设备
CN111080776A (zh) 人体动作三维数据采集和复现的处理方法及***
CN113450416B (zh) 一种应用于三目相机立体标定的tcsc方法
CN107851301A (zh) 用于选择图像变换的***和方法
CN114640833A (zh) 投影画面调整方法、装置、电子设备和存储介质
JP6579727B1 (ja) 動体検出装置、動体検出方法、動体検出プログラム
CN103533326A (zh) 用于立体视图对齐的***和方法
JP2011155412A (ja) 投影システムおよび投影システムにおける歪み修正方法
CN101729739A (zh) 一种图像纠偏处理方法
CN109120849B (zh) 一种用于微课跟踪的智能拍摄方法
CN102023763A (zh) 触摸***摄像头的定位方法
CN111145266B (zh) 一种鱼眼相机标定方法、装置、鱼眼相机及可读存储介质
CN109318235B (zh) 一种机器人视觉伺服***的快速聚焦方法
CN104156952B (zh) 一种抵抗形变的图像匹配方法
CN104732538B (zh) 摄像头定位跟踪方法及相关***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20200824

Address after: 247126 workshop C2, science and Technology Incubation Park, Jiangnan industrial concentration zone, Chizhou City, Anhui Province

Applicant after: Anhui Wenxiang Information Technology Co.,Ltd.

Address before: 100075 Beijing Daxing District, Beijing Economic and Technological Development Zone, No. 26 Kechuang Thirteenth Street, 1 5-storey 501

Applicant before: BEIJING WENXIANG INFORMATION TECHNOLOGY Co.,Ltd.

GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: An Intelligent Shooting Method for Micro Course Tracking

Granted publication date: 20200918

Pledgee: Anhui Jiangnan Industrial Concentration Zone Construction Investment Development (Group) Co.,Ltd.

Pledgor: Anhui Wenxiang Information Technology Co.,Ltd.

Registration number: Y2024980010826