CN103327356B - 一种视频匹配方法、装置 - Google Patents
一种视频匹配方法、装置 Download PDFInfo
- Publication number
- CN103327356B CN103327356B CN201310268664.1A CN201310268664A CN103327356B CN 103327356 B CN103327356 B CN 103327356B CN 201310268664 A CN201310268664 A CN 201310268664A CN 103327356 B CN103327356 B CN 103327356B
- Authority
- CN
- China
- Prior art keywords
- frame
- video
- characteristic information
- key
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明适用于视频技术领域,提供了一种视频匹配方法、装置,所述方法包括:提取目标视频的所有关键帧,并保存每个目标关键帧的特征信息;将所述目标关键帧的特征信息与预先生成的源视频关键帧的特征信息进行比对,得到目标视频与源视频的匹配度。本发明,采用预先对教学源视频进行分析,学习者在学习的时候,应用软件只需要分析学习者的目标视频,避免了要同时分析两路视频的情况,减轻一半的CPU运算消耗。
Description
技术领域
本发明属于视频技术领域,尤其涉及一种视频匹配方法、装置。
背景技术
目前,研发人员开发的视频学习应用软件,如高尔夫学习应用软件,一般是播放高尔夫视频教学片,同时通过摄像头捕获正在学习、模仿教学片里动作的学习者的视频,采用逐帧对比教学片和学习者的视频图像帧的动作,来指导学习者。但通常这种直接的两幅视频帧数据对比,会花费大量的中央处理器(CentralProcessingUnit,CPU)资源,在电视机(television,TV)等消费类电子设备使用的初级CPU上,对比的速度会比较慢,导致TV或者其他消费类电子设备响应速度较慢。
发明内容
本发明实施例提供了一种视频匹配方法、装置,旨在解决现有技术在逐帧对比教学片和学习者的视频图像帧的动作时会花费大量CPU运算消耗的问题。
一方面,提供一种视频匹配方法,所述方法包括:
提取目标视频的所有关键帧,并保存每个目标关键帧的特征信息;
将所述目标关键帧的特征信息与预先生成的源视频关键帧的特征信息进行比对,得到目标视频与源视频的匹配度。
进一步地,所述提取目标视频的关键帧具体包括:
读取目标视频的当前视频帧,并将所述当前视频帧作为第一关键帧;
获取所述第一关键帧的特征信息;
读取下一帧视频帧;
获取所述下一帧视频帧的特征信息;
将两帧视频帧中的特征信息做比对,得出匹配度;
如果匹配度低于预设的匹配阈值,则将读取的所述下一视频帧作为第二关键帧,否则继续读取下一帧视频帧,直至目标视频中的所有视频帧读取完毕。
进一步地,所述获取视频帧的特征信息包括:
对一帧关键帧进行背景擦除处理,留下人体模型;
水平垂直扫描所述人体模型,得出人体所在的矩形区域;
将所述矩形区域从上到下n等分做等高线;
获取每条等高线的特征信息,将每条等高线的特征信息作为该关键帧的特征信息。
进一步地,所述获取视频帧的特征信息包括:
对一帧关键帧进行背景擦除处理,留下人体模型;
利用人体模型各顶点间测地距离的几何关系识别出人***于四肢和头顶的5个特征点;
根据所述5个特征点生成5条骨骼中心线;
根据所述5条骨骼中心线确定关节点的位置,将各个关节点的位置作为该关键帧的特征信息。
另一方面,提供一种视频匹配装置,所述装置包括:
特征信息获取单元,用于提取目标视频的所有关键帧,并保存每个目标关键帧的特征信息;
匹配度获取单元,用于将所述目标关键帧的特征信息与预先生成的源视频关键帧的特征信息进行比对,得到目标视频与源视频的匹配度。
进一步地,所述特征信息提取单元包括:
视频帧读取模块,用于读取目标视频的当前视频帧和下一帧视频帧,并将所述当前视频帧作为第一关键帧;
特征信息获取模块,用于获取所述第一关键帧和所述下一帧视频帧的特征信息;
匹配度获取模块,用于将两帧视频帧中的特征信息进行比对,得出匹配度,如果匹配度低于预设的匹配阈值,则将读取的所述下一视频帧作为第二关键帧,否则继续读取下一帧视频帧,直至目标视频中的所有视频帧读取完毕。
进一步地,所述特征信息获取模块包括:
第一背景擦除子模块,用于对一帧关键帧进行背景擦除处理,留下人体模型;
矩形区域获取子模块,用于水平垂直扫描所述人体模型,得出人体所在的矩形区域;
等高划分子模块,用于将所述矩形区域从上到下n等分做等高线;
等高线信息获取子模块,用于获取每条等高线的特征信息,将每条等高线的特征信息作为该关键帧的特征信息。
进一步地,所述特征信息获取模块包括:
第二背景擦除子模块,用于对一帧关键帧进行背景擦除处理,留下人体模型;
特征点获取子模块,用于利用人体模型各顶点间测地距离的几何关系识别出人***于四肢和头顶的5个特征点;
骨骼中心线生成子模块,用于根据所述5个特征点生成5条骨骼中心线;
关节点位置获取子模块,用于根据所述5条骨骼中心线确定关节点的位置,将各个关节点的位置作为该关键帧的特征信息。
在本发明实施例,采用预先对教学源视频进行分析,学习者在学习的时候,应用软件只需要分析学习者的目标视频,避免了要同时分析两路视频的情况,减轻一半的CPU运算消耗。另外,目标视频和源视频之间的匹配并不是对视频帧中的每个像素点都进行匹配,而只是针对两个视频帧中的特征信息进行匹配,匹配速度更快。还有,对源视频,根据源视频的人体运动的快慢,设定取帧间隔i,例如,对于瑜伽视频来说,运动的速度相对慢,则可将i值取一个相对大的值,1秒甚至更长时间,取一帧视频帧进行特征信息提取,而不是对每一帧都提取,这样在一定精度范围内,可以成倍节省特征提取的运算时间。还有,并不是对提取的每对视频帧进行比对,而是提取出其中人体形态变化最大的视频帧作为关键帧,只对关键帧进行比对,在一定精度范围内,也可以成倍节省特征提取的运算时间。
附图说明
图1是本发明实施例一提供的视频匹配方法的实现流程图;
图2是本发明实施例一提供的提取目标视频的所有关键帧的实现流程图;
图3是本发明实施例一提供的一种关键帧的特征信息的提取方法的实现流程图;
图4是本发明实施例一提供的另一种关键帧的特征信息的提取方法的实现流程图;
图5是本发明实施例一提供的对一帧视频帧进行背景擦除处理后,留下的人体模型示意图;
图6是本发明实施例一提供的人体所在的矩形区域示意图;
图7是本发明实施例一提供的人体所在的矩形区域被从上到下等分做的等高线示意图;
图8是本发明实施例二提供的视频匹配装置的结构框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在本发明实施例中,先提取目标视频的关键帧,并记录每个目标关键帧的特征信息;再将目标关键帧的特征信息与预先生成的源视频关键帧的特征信息进行比对,以得出目标视频帧与源视频帧之间的匹配情况。
以下结合具体实施例对本发明的实现进行详细描述:
实施例一
图1示出了本发明实施例一提供的视频匹配方法的实现流程,详述如下:
在步骤S101中,提取目标视频的所有关键帧,并保存每个目标关键帧的特征信息。
其中,目标视频是正在学习、模仿教学片里动作的学习者的视频,提取目标视频的所有关键帧的流程如图2所示,具体包括:
步骤S201、读取目标视频的当前视频帧,并将所述当前视频帧作为第一关键帧;
步骤S202、获取所述第一关键帧的特征信息;
步骤S203、读取下一帧视频帧;
步骤S204、获取所述下一帧视频帧的特征信息;
步骤S205、将两帧视频帧中的特征信息进行比对,得出匹配度;
步骤S206、如果匹配度低于预设的匹配阈值,则将读取的所述下一视频帧作为第二关键帧,否则继续读取下一帧视频帧,直至目标视频中的所有视频帧读取完毕。
在本实施例中,将目标视频中出现的第一帧视频帧作为关键帧,然后读取下一帧视频帧,将两帧中的特征信息进行比对,得出匹配度(两帧的特征信息如果完全相同,则匹配度为1),如果匹配度低于预设的匹配阈值,则认为两帧中的人体形态发生了较大变化,则将读取的下一视频帧作为关键帧,否则继续读取下一帧视频帧,直至目标视频中的所有视频帧读取完毕。需要说明的是:视频每一秒30帧,不需要一帧一帧的读取,可以设定一秒读取一帧,这里的下一帧指下一秒的视频帧,当然也可以设定二秒读取一帧,在此不做限制,这种方法在一定精度范围内,也可以成倍节省特征提取的运算时间。
其中,关键帧的特征信息的提取可以通过以下步骤实现,具体流程如图3所示:
步骤S211、对一帧关键帧进行背景擦除处理,留下人体模型,如图4所示。
步骤S212、水平垂直扫描,得出人体所在的矩形区域,并计算所述矩形区域的宽高比关系。
人体所在的矩形区域也称之为感兴趣区域,如图5所示,记录下感兴趣区域的宽高比例关系,在之后与源视频帧进行比对时,若待比对源视频帧的感兴趣区域的宽高比例关系符合预设误差范围,则继续进行对比,否则认定目标视频帧与源视频帧不匹配。其中,源视频帧是教学片的视频帧。
步骤S213、将感兴趣区域从上到下n等分做等高线。
步骤S214、获取每条等高线的特征信息,将每条等高线的特征信息作为该关键帧的特征信息。
如图6所示,n=8。每一等高线会被截断成黑(背景)白(人体)相间的线段,记录每条等高线被截断的线段的比例关系,注意标注第一条线段的颜色(0代表背景色黑,1代表人体白),如下图最高的等高线的信息可能为(0,0.5,0.2,0.3),由此可得到每一关键帧的特征信息。其中,关键帧的特征信息除了包括每一关键帧的等高线的信息,还包括关键帧的数量、每一关键帧出现的时间。
另外,关键帧的特征信息也可以通过下述步骤如图7所示进行获取,包括:
步骤S221、对一帧关键帧进行背景擦除处理,留下人体模型,如图4所示。
步骤S222、利用人体模型各顶点间测地距离的几何关系识别出人***于四肢和头顶的5个特征点。
在本实施例中,在人体模型上任取一点,求解与该点测地距离最大的顶点v,将顶点v作为末端特征点之一,添加入末端特征点集合V。然后在人体模型中搜索与集合V中各点的测地距离之和最大的点,作为新的末端特征点,直到新的末端特征点与集合V中的末端特征点测地距离小于预设的阈值为止,该阈值是一个经验值。其中,测地距离是空间连接两点(或两集合)的最短路径的长度,通过上述方法计算得到的末端特征点集合V中的特征点是识别出的5个特征点。
由于人体模型具有对称性,头部末端到2个上肢末端的距离相等,同样到2个下肢末端的距离也相等。本发明实施例可以利用该特性,从5个末端特征点中自动提取出头部的末端特征点Vhead。
步骤S223、根据所述5个特征点生成5条骨骼中心线。
在本实施例中,首先以头部的末端特征点Vhead为起点,依次确定N个层次的测地距离等值曲线,每层等值曲线相差的距离为d。求得每层等值曲线相差的距离后,就可以以头部的末端特征点Vhead为起点,求得整个人体模型共N层的测地距离等值曲线函数。当层数逐渐增加时,第一次出现某一层的测地距离等值曲线有3个(两个测地距离等值曲线组成的封闭曲线是微椭圆)时,就可以确定其中两个周长较小的封闭曲线即为手臂与躯干的分界线。当某一层的测地距离等值曲线有4个时,可以确定两个周长较大的封闭曲线即为腿部与躯干的分界线,据此可以区分开四肢与躯干部分。
确定人体四肢的范围后,分别以四肢的末端特征点为起点,按照每层递增d来对四肢部分分别计算测地距离等值曲线,这样四肢上的测地距离等值曲线截面可以更好地垂直四肢上的骨骼中心线,截面轮廓更符合医学所指截面,因此当骨骼中心线弯曲很小时可以更准确地利用截面的似圆性判定关节点位置。最后将这些相邻测地距离等值曲线中心连接起来便生成5条骨骼中心线,之后就可以在中心线上确定关节点的位置。
步骤S224、根据所述5条骨骼中心线确定关节点的位置,将各个关节点的位置作为该关键帧的特征信息。
在本实施例中,确定骨骼中心线后,可以用中心线各段夹角极小值的方法来确定关节点的位置,将各个关节点的位置作为该视频帧的特征信息。假设第i个测地距离等值曲线中心为Ci,线段Ci-tCi与线段Ci+tCi的夹角即为测地距离等值曲线中心夹角。t的大小根据骨骼中心线所分的测地距离等值曲线层数确定,一般层数越多t越大,t的作用是为了减少局部数据波动影响夹角的计算。
在步骤S102中,将目标关键帧的特征信息与预先生成的源视频关键帧的特征信息进行比对,得到目标视频与源视频的匹配度。
在本实施例中,源视频关键帧的特征信息是按照与目标视频关键帧的特征信息相同的提取方法提取出来的。将两者的关键帧的特征信息进行对比,当两者的差异大于预设的差异阈值时,表示学习者的动作与教学片的动作不一致,另外,也可以根据差异值,给学习者提供相应的学习分数。
本实施例预先对教学源视频进行分析,学习者在学习的时候,应用软件只需要分析学习者的目标视频,避免了要同时分析两路视频的情况,减轻一半的CPU运算消耗。另外,目标视频和源视频之间的匹配并不是对视频帧中的每个像素点都进行匹配,而只是针对两个视频帧中的特征信息进行匹配,匹配速度更快。另外,对源视频,根据源视频的人体运动的快慢,设定取帧间隔i,例如,对于瑜伽视频来说,运动的速度相对慢,则可将i值取一个相对大的值,1秒甚至更长时间,取一帧视频帧进行特征信息提取,而不是对每一帧都提取,这样在一定精度范围内,可以成倍节省特征提取的运算时间。并且本实施例中,并不是对提取的每对视频帧进行比对,而是根据视频帧的特征信息的变化提取出其中人体形态变化最大的视频帧作为关键帧,只对关键帧进行比对,在一定精度范围内,也可以成倍节省特征提取的运算时间。
本领域普通技术人员可以理解实现上述各实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,相应的程序可以存储于一计算机可读取存储介质中,所述的存储介质,如ROM/RAM、磁盘或光盘等。
实施例二
图8示出了本发明实施例二提供的视频匹配装置的具体结构框图,为了便于说明,仅示出了与本发明实施例相关的部分。该视频匹配装置可以是内置于电脑、电视机或者移动终端中的软件单元、硬件单元或者软硬件结合的单元,该视频匹配装置包括:特征信息获取单元51和匹配度获取单元52。
其中,特征信息获取单元51,用于提取目标视频的所有关键帧,并保存每个目标关键帧的特征信息;
匹配度获取单元52,用于将所述特征信息获取单元51保存的每个目标关键帧的特征信息与预先生成的源视频关键帧的特征信息进行比对,得到目标视频与源视频的匹配度。
具体的,所述特征信息获取单元51包括:
视频帧读取模块,用于读取目标视频的当前视频帧和下一帧视频帧,并将所述当前视频帧作为第一关键帧;
特征信息获取模块,用于获取所述视频帧读取模块读取的当前视频帧和所述视频帧读取模块读取的下一帧视频帧的特征信息;
匹配度获取模块,用于将所述特征信息获取模块获取的两帧视频帧中的特征信息做比对,得出匹配度,如果匹配度低于预设的匹配阈值,则将读取的所述下一视频帧作为第二关键帧,否则继续读取下一帧视频帧。
该实施例中,通过所述特征信息获取单元51和匹配度获取单元52预先对教学源视频进行分析,学习者在学习的时候,应用软件只需要分析学习者的目标视频,避免了要同时分析两路视频的情况,减轻一半的CPU运算消耗。
具体的,作为一实施方式,所述特征信息获取模块51包括:
第一背景擦除子模块,用于对一帧关键帧进行背景擦除处理,留下人体模型;
矩形区域获取子模块,用于水平垂直扫描所述第一背景擦除子模块对一帧关键帧进行背景擦除处理后留下的人体模型,得出人体所在的矩形区域;
等高划分子模块,用于将所述矩形区域获取子模块得出的人体所在的矩形区域从上到下n等分做等高线;
等高线信息获取子模块,用于获取所述等高划分子模块得到的等高线中的每条等高线的特征信息,将每条等高线的特征信息作为该关键帧的特征信息。
该实施例中,所述述特征信息获取模块51根据获取的关键帧的每条等高线的特征信息来进行视频帧的匹配,学习者在学习的时候,应用软件只需要分析学习者的目标视频的关键帧的每条等高线的特征信息,避免了要同时分析两路视频的情况,减轻一半的CPU运算消耗。
作为另一实施方式,所述特征信息获取模块51包括:
第二背景擦除子模块,用于对一帧关键帧进行背景擦除处理,留下人体模型;
特征点获取子模块,用于利用所述第二背景擦除子模块对一帧关键帧进行背景擦除处理留下的人体模型各顶点间测地距离的几何关系识别出人***于四肢和头顶的5个特征点;
骨骼中心线生成子模块,用于根据所述特征点获取子模块识别出的5个特征点生成5条骨骼中心线;
关节点位置获取子模块,用于根据所述骨骼中心线生成子模块生成的5条骨骼中心线确定关节点的位置,将各个关节点的位置作为该关键帧的特征信息。
该实施例中,所述述特征信息获取模块51根据从关键帧中识别出的5个特征点确定人体各个关节点的位置,学习者在学习的时候,应用软件只需要分析学习者的目标视频的关键帧中的特征信息,避免了要同时分析两路视频的情况,减轻一半的CPU运算消耗。
本实施例预先对教学源视频进行分析,学习者在学习的时候,应用软件只需要分析学习者的目标视频,避免了要同时分析两路视频的情况,减轻一半的CPU运算消耗。另外,目标视频和源视频之间的匹配并不是对视频帧中的每个像素点都进行匹配,而只是针对两个视频帧中的特征信息进行匹配,匹配速度更快。此外,对源视频,根据源视频的人体运动的快慢,设定取帧间隔i,例如,对于瑜伽视频来说,运动的速度相对慢,则可将i值取一个相对大的值,1秒甚至更长时间,取一帧视频帧进行特征信息提取,而不是对每一帧都提取,这样在一定精度范围内,可以成倍节省特征提取的运算时间。并且,本实施例并不是对提取的每对视频帧进行比对,而是根据视频帧的特征信息的变化提取出其中人体形态变化最大的视频帧作为关键帧,只对关键帧进行比对,在一定精度范围内,也可以成倍节省特征提取的运算时间。
本发明实施例提供的视频匹配装置可以应用在前述对应的方法实施例一中,详情参见上述实施例一的描述,在此不再赘述。
值得注意的是,上述***实施例中,所包括的各个单元只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.一种视频匹配方法,其特征在于,所述方法包括:
提取目标视频的所有关键帧,并保存每个目标关键帧的特征信息;
将所述目标关键帧的特征信息与预先生成的源视频关键帧的特征信息进行比对,得到目标视频与源视频的匹配度;
获取关键帧的特征信息包括:
对一帧关键帧进行背景擦除处理,留下人体模型;
水平垂直扫描所述人体模型,得出人体所在的矩形区域;
将所述矩形区域从上到下n等分做等高线;
获取每条等高线的特征信息,将每条等高线的特征信息作为该关键帧的特征信息;
或者,
获取关键帧的特征信息包括:
对一帧关键帧进行背景擦除处理,留下人体模型;
利用人体模型各顶点间测地距离的几何关系识别出人***于四肢和头顶的5个特征点;
根据所述5个特征点生成5条骨骼中心线;
根据所述5条骨骼中心线确定关节点的位置,将各个关节点的位置作为该关键帧的特征信息。
2.如权利要求1所述的方法,其特征在于,所述提取目标视频的所有关键帧具体包括:
读取目标视频的当前视频帧,并将所述当前视频帧作为第一关键帧;
获取所述第一关键帧的特征信息;
读取下一帧视频帧;
获取所述下一帧视频帧的特征信息;
将两帧视频帧中的特征信息进行比对,得出匹配度;
如果匹配度低于预设的匹配阈值,则将读取的所述下一帧视频帧作为第二关键帧,否则继续读取下一帧视频帧,直至目标视频中的所有视频帧读取完毕。
3.一种视频匹配装置,其特征在于,所述装置包括:
特征信息获取单元,用于提取目标视频的所有关键帧,并保存每个目标关键帧的特征信息;
匹配度获取单元,用于将所述目标关键帧的特征信息与预先生成的源视频关键帧的特征信息进行比对,得到目标视频与源视频的匹配度;
所述特征信息获取模块包括:
第一背景擦除子模块,用于对一帧关键帧进行背景擦除处理,留下人体模型;
矩形区域获取子模块,用于水平垂直扫描所述人体模型,得出人体所在的矩形区域;
等高划分子模块,用于将所述矩形区域从上到下n等分做等高线;
等高线信息获取子模块,用于获取每条等高线的特征信息,将每条等高线的特征信息作为该关键帧的特征信息;
或者,
所述特征信息获取模块包括:
第二背景擦除子模块,用于对一帧关键帧进行背景擦除处理,留下人体模型;
特征点获取子模块,用于利用人体模型各顶点间测地距离的几何关系识别出人***于四肢和头顶的5个特征点;
骨骼中心线生成子模块,用于根据所述5个特征点生成5条骨骼中心线;
关节点位置获取子模块,用于根据所述5条骨骼中心线确定关节点的位置,将各个关节点的位置作为该关键帧的特征信息。
4.如权利要求3所述的装置,其特征在于,所述特征信息获取单元包括:
视频帧读取模块,用于读取目标视频的当前视频帧和下一帧视频帧,并将所述当前视频帧作为第一关键帧;
特征信息获取模块,用于获取所述第一关键帧和所述下一帧视频帧的特征信息;
匹配度获取模块,用于将两帧视频帧中的特征信息进行比对,得出匹配度,如果匹配度低于预设的匹配阈值,则将读取的所述下一帧视频帧作为第二关键帧,否则继续读取下一帧视频帧,直至目标视频中的所有视频帧读取完毕。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310268664.1A CN103327356B (zh) | 2013-06-28 | 2013-06-28 | 一种视频匹配方法、装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310268664.1A CN103327356B (zh) | 2013-06-28 | 2013-06-28 | 一种视频匹配方法、装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103327356A CN103327356A (zh) | 2013-09-25 |
CN103327356B true CN103327356B (zh) | 2016-02-24 |
Family
ID=49195846
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310268664.1A Expired - Fee Related CN103327356B (zh) | 2013-06-28 | 2013-06-28 | 一种视频匹配方法、装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103327356B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104038848A (zh) * | 2014-05-30 | 2014-09-10 | 无锡天脉聚源传媒科技有限公司 | 一种视频处理方法及装置 |
CN105809653B (zh) * | 2014-12-29 | 2019-01-01 | 深圳Tcl数字技术有限公司 | 图像处理方法及装置 |
CN109801193B (zh) * | 2017-11-17 | 2020-09-15 | 深圳市鹰硕教育服务股份有限公司 | 一种具有语音评价功能的跟随教学*** |
CN113678137B (zh) * | 2019-08-18 | 2024-03-12 | 聚好看科技股份有限公司 | 显示设备 |
CN113537162B (zh) * | 2021-09-15 | 2022-01-28 | 北京拓课网络科技有限公司 | 一种视频处理方法、装置及电子设备 |
CN115979350A (zh) * | 2023-03-20 | 2023-04-18 | 北京航天华腾科技有限公司 | 一种海洋监测设备数据采集*** |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101374234A (zh) * | 2008-09-25 | 2009-02-25 | 清华大学 | 一种基于内容的视频拷贝监测方法及装置 |
CN101394522A (zh) * | 2007-09-19 | 2009-03-25 | 中国科学院计算技术研究所 | 一种视频拷贝的检测方法和*** |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100986223B1 (ko) * | 2008-08-07 | 2010-10-08 | 한국전자통신연구원 | 불법 동영상 데이터 검색 장치 및 방법 |
US8731292B2 (en) * | 2011-01-07 | 2014-05-20 | Alcatel Lucent | Method and apparatus for comparing videos |
-
2013
- 2013-06-28 CN CN201310268664.1A patent/CN103327356B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101394522A (zh) * | 2007-09-19 | 2009-03-25 | 中国科学院计算技术研究所 | 一种视频拷贝的检测方法和*** |
CN101374234A (zh) * | 2008-09-25 | 2009-02-25 | 清华大学 | 一种基于内容的视频拷贝监测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN103327356A (zh) | 2013-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103327356B (zh) | 一种视频匹配方法、装置 | |
Mnih et al. | Learning to label aerial images from noisy data | |
Kliper-Gross et al. | Motion interchange patterns for action recognition in unconstrained videos | |
CN113963445B (zh) | 一种基于姿态估计的行人摔倒动作识别方法及设备 | |
CN101470809B (zh) | 一种基于扩展混合高斯模型的运动目标检测方法 | |
CN109190561B (zh) | 一种视频播放中的人脸识别方法及*** | |
CN106874826A (zh) | 人脸关键点跟踪方法和装置 | |
CN106469298A (zh) | 基于人脸图像的年龄识别方法及装置 | |
CN101751668B (zh) | 一种人群密度检测方法及装置 | |
Tang et al. | Facial landmark detection by semi-supervised deep learning | |
CN102385695A (zh) | 人体三维姿势识别方法和装置 | |
CN104715256A (zh) | 一种基于图像方法的书法练习辅助***及评价方法 | |
CN104331151A (zh) | 基于光流法的手势运动方向识别方法 | |
CN105528601A (zh) | 基于接触式传感器的身份证图像采集、识别***及采集识别方法 | |
Xu et al. | Video salient object detection via robust seeds extraction and multi-graphs manifold propagation | |
CN109034099A (zh) | 一种表情识别方法及装置 | |
Huynh-The et al. | Hierarchical topic modeling with pose-transition feature for action recognition using 3D skeleton data | |
Li et al. | Primary video object segmentation via complementary CNNs and neighborhood reversible flow | |
Khurana et al. | Deep learning approaches for human activity recognition in video surveillance-a survey | |
CN112257665A (zh) | 图像内容的识别方法、图像识别模型的训练方法及介质 | |
Han et al. | Weakly-supervised learning of category-specific 3D object shapes | |
Zhao et al. | Generalized symmetric pair model for action classification in still images | |
CN106407978B (zh) | 一种结合似物度的无约束视频中显著物体检测方法 | |
Zhou et al. | Classroom learning status assessment based on deep learning | |
CN103020614A (zh) | 基于时空兴趣点检测的人体运动识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160224 |