CN109063667A - 一种基于场景的视频识别方式优化及推送方法 - Google Patents
一种基于场景的视频识别方式优化及推送方法 Download PDFInfo
- Publication number
- CN109063667A CN109063667A CN201810921834.4A CN201810921834A CN109063667A CN 109063667 A CN109063667 A CN 109063667A CN 201810921834 A CN201810921834 A CN 201810921834A CN 109063667 A CN109063667 A CN 109063667A
- Authority
- CN
- China
- Prior art keywords
- video
- scene
- analyzed
- frequent
- correlation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明涉及视频识别及处理技术领域,具体涉及一种基于场景的视频识别方式优化及推送方法。包括如下步骤:S1:根据视频内容对视频进行场景分类;S2:分类后的视频传输至与该类视频相匹配的处理设备进行处理,以得到处理结果。本发明通过对视频监控场景的半监督学习,达到智能识别和算力调度的优化和推送。通过对视频内容的自动识别,将不同视频内容进行标注,同时自动将不同的视频内容分配给不同的处理设备进行处理。识别速度快,资源占用少,同时起到削峰填谷,算力优化的作用。
Description
技术领域
本发明涉及视频识别及处理技术领域,具体涉及一种基于场景的视频识别方式优化及推送方法。
背景技术
传统视频监控***智能化程度较低,一般不具备机器学习的能力,是由摄像、传输、控制、显示、记录登记5大部分组成。摄像机通过同轴视频电缆将视频图像传输到控制主机,控制主机再将视频信号分配到各监视器及录像设备,同时可将需要传输的语音信号同步录入到录像机内。通过控制主机,操作人员可发出指令,对云台的上、下、左、右的动作进行控制及对镜头进行调焦变倍的操作,并可通过控制主机实现在多路摄像机及云台之间的切换。利用特殊的录像处理模式,可对图像进行录入、回放、处理等操作,使录像效果达到最佳。
监控视频处理技术可分为三个层次,从低到高分别为视频处理、视频分析和智能视频分析,三个层次都很重要,都有继续发展的空间,但智能分析这一层的技术成熟度相对较低,目前视频分析技术正处于在向智能化分析发展的阶段。
视频信号处理是基础部分,处理对象为像素或像块,不涉及视频内容,为视频分析提供清晰、连续的高质量信源,除了比较成熟的视频采集、滤波、压缩、存储、去噪、增强、传输等常规处理技术外,为了有助于视频分析,还有不少处理工作必须改进,例如:提供更多图像细节的高动态范围(HDR)视频图像的均衡;提高视频图像空间分辨率的超分辨率重建;对雾天、暗光、遮挡等多种受损图像的处理;去除传输引起的帧间抖动等等。
监控视频分析(VA)处理涉及到视频内容。由于应用的场合和H标的不同.监控视频分析包含的内容十分繁杂,如:
1)场景分割,特征提取,前后景分离等;
2)目标检测和跟踪,人脸/车牌识别等;
3)行为识别,异常行为检测,群体行为识别;
4)人流/车流统计,人侵检测等。
智能监控视频分析,不仅和视频内容有关,还和视频所表达的语义有关,希望从视频内容分析中得到场景状态、目标类别、动作或场景的含义等信息。总之,希望通过智能分析,由计算机自主得到视频内容的语义结论,或者说用人工智能的方法为人们提供多种“视觉服务”。智能视频分析技术属于人工智能的范畴,实现智能分析的方法有多种,机器学习的方法是普遍采用的分析方法。
机器学习模型包含大量学习算法,例如KMeans、朴素贝叶斯、人工神经网络等等,但不论哪种学习模型都可泛化成一个通用模型。
机器学习四个基本组成部分为输入、学习过程、知识存储和知识评价。输入又称为环境,是机器学习算法要处理的外部信息源,主要为机器学习过程提供训练数据和测试样本,输入数据抽象程度对模型计算性能以及模型使用场景有较大影响,一般情况下高具化信息适用于特定具化分析场景,而高度抽象化信息由于其抽象化程度较高,所以适合解决泛化问题;而输入数据质量也决定着学习效果和模型性能,因此对输入数据通常都会进行预处理操作,来消除输入信息的缺失值、噪点等数据障碍,如果输入数据完整准确,由此模型归纳总结知识过程较为容易,能够达到预期效果,如果数据格式缺失或者异常,则其效果较差。
学习过程是通过外部输入信息来进行学习,模型在学习过程中发现归纳总结出知识,将知识存储在***中,并且通过知识评价反馈来不断地完善知识。学习过程以输入数据为基础,经过构建模型分析,归纳能够得到训练模型,学习模型训练过程是机器学习步骤中最为重要环节,涉及大量参数配置和参数调整。
知识存储是将学习过程学习的知识进行固化,主要涉及到知识库创建、知识存储和知识表示,对知识库和知识存储有较大影响的为知识表示,根据知识修改难易、表达能力、扩充能力和推理能力来决定知识表示形式。
知识评价模型是机器学习整体模型最具研究价值部分,扮演着教练的角色,模型表现好坏与知识评价密不可分。这个环节主要解决当前面临实际的问题,实际结果对比算法模型结果,使得算法结果能够得到反馈而模型自动优化,形成实际情况和运行结果间的良性循环。
视频场景分割的算法主要有:基于镜头聚类与视频转换图算法、基于后向镜头一致性和场景动态算法、基于NCuts算法、基于平滑视觉词袋算法、基于镜头聚类与序列比对算法等。然而这些算法仍存在一些问题。其一是在镜头描述方面,要么依赖全局特征如颜色、纹理等,要么依赖局部特征如尺度不变变换和上下文对比度直方图等,没能将两者的各自优势相结合发挥最有效的描述能力;其二是在场景分割方面,以上方法一直都在寻找一种全局最优的解决方法,而实际中考虑到视频种类与视频内容的丰富多样,视频制作过程的复杂多变占用的处理硬件资源也较多,同时运算速度也较慢。
发明内容
本发明目提供了一种基于场景的视频识别方式优化及推送方法,解决了现有技术中视频内容识别占用资源多、识别速度慢的问题。
本发明所采用的技术方案为:
一种基于场景的视频识别方式优化及推送方法,包括如下步骤:
S1:根据视频内容对视频进行场景分类;
S2:分类后的视频传输至与该类视频相匹配的处理设备进行处理,以得到处理结果。
进一步地,所述步骤S1包括:
a1:预先根据视频内容划分多个不同的视频场景类型,给每个视频类型预设频繁镜头集合和标签;
a2:将待分析的视频与频繁镜头集合进行相关性对比,相关性最高的频繁镜头集合的场景类型即为待分析视频的场景类型;
a3:相关性对比后将选定的视频场景类型的标签标记在待分析视频上。
进一步地,所述步骤S2包括:
b1:预先给不同的处理设备匹配对应的标签;
b2:当接收到标记后的待分析视频的信号后,读取待分析视频上的标签,将对应标签的待分析视频分配到对应的处理设备进行处理;
b3:对应的处理设备对待分析视频进行处理,得出处理结果。
进一步地,所述步骤a2包括:
c1:镜头检测,先对待分析视频进行视频帧描述,然后建立视频连续信号,再进行基于阈值边界检测;
c2:关键帧提取,对待分析视频进行关键帧提取,去除冗余内容;
c3:场景分割,先对经过关键帧提取操作后的视频镜头进行描述;然后进行镜头间相关性计算,将视频内容与频繁镜头集合进行相关性比对,选出相关性最高的频繁镜头集合;再将该视频与频繁镜头集合共同组成新的频
繁镜头集合。
进一步地,所述步骤c3中,还包括未分配镜头的处理;若经过镜头间相关性计算后,各个频繁镜头集合与待分析视频的相关性都低于50%,则将该视频进行特殊标记,以待人工处理。
进一步地,所述步骤S1中,视频内容的分类包括主要是车辆的场景、主要是人且人数稀疏的场景、主要是人且人数稠密的场景以及下雨时因为打伞人脸被遮挡的场景中的一种或多种。
进一步地,所述步骤S2或b2中的处理设备包括百度人脸识别设备、深瞐车辆识别设备、人人智能的人脸识别设备和格灵深瞳的人脸识别设备中的一种或多种。
进一步地,所述步骤a1中预设的频繁镜头集合中,包括相同的场景类型500个以上。
进一步地,定期对步骤c3中形成的新的频繁镜头集合进行抽检,保证频繁镜头集合的准确度在85%以上。
进一步地,所述步骤c1中,边界检测在阈值为10-1000的情况下进行。
本发明的有益效果为:
本发明通过对视频监控场景的半监督学习,达到智能识别和算力调度的优化和推送。通过对视频内容的自动识别,将不同视频内容进行标注,同时自动将不同的视频内容分配给不同的处理设备进行处理。识别速度快,资源占用少,同时起到削峰填谷,算力优化的作用。
附图说明
图1是本发明视频场景分类流程图。
具体实施方式
下面结合附图及具体实施例对本发明做进一步阐释。
实施例1:
本实施例提供了一种基于场景的视频识别方式优化及推送方法,待处理的视频为安装在某旅游景点的一处摄像头拍摄的画面,预先划分多个不同的视频场景类型,给每个视频类型预设频繁尽头集合和标签。预设的场景如下:1、人员密集场景,选择500个人员密集的场景作为预设频繁镜头集合,并给该场景命名为0001;2、人员稀疏场景,选择500个人员稀疏的场景作为预设频繁镜头集合,并给该场景命名为0010;3、环境模糊场景,选择500个因为下雨、阴天或者雾天等情况下能见度不高的场景作为预设频繁镜头集合,并给该场景命名为0011;4、有遮挡物的场景,选择500个因为下雨行人被雨伞遮挡面部或因为需要遮挡阳光而被太阳伞遮挡面部的场景作为预设频繁镜头集合,并给该场景命名为0100;5、车辆场景,选择500个主要是车辆的场景作为预设频繁镜头集合,并给该场景命名为0101。
将待分析的视频与频繁镜头集合进行相关性对比,相关性最高的频繁镜头集合的场景类型即为待分析视频的场景类型,相关性对比后将选定的视频场景类型的标签标记在待分析视频上。当摄像头拍摄到的画面与预设场景进行相关性对比,若拍摄到的画面里人员稀疏,预设的人员稀疏场景与拍摄到的画面相关性最高,则标记为0010;当摄像头拍摄到的画面里面人员密集,预设的人员密集场景与拍摄到的画面相关性最高,则标记为0001;当因为雾天而导致能见度不高,拍摄到的画面比较模糊时,预设的环境模糊场景与拍摄到的画面相关性最高,则标记为0011;当因为雨天行人大多数都打有雨伞的情况下,面部被雨伞遮挡的情况下,预设的有遮挡物的场景与拍摄到的画面相关性最高,则标记为0100。
预设将标记为0001的视频推送给适合人多的场景分析的百度人脸识别设备进行处理;将标记为0010的视频推送给准确度更高的人人智能的人脸识别设备进行处理;将标记为0011和0100的视频推送给格灵深瞳的人脸识别设备进行处理;将标记为0101的视频推送给深瞐车辆识别设备进行处理。
当需要通过该摄像头实时监测该区域的人员密集程度时,人少的时候可以将视频推送给人人智能的人脸识别设备进行处理,当人数超过预设值时,自动将视频推送给百度人脸识别设备进行处理,当百度人脸识别设备检测到该区域人员密集程度超过安全值时,立即进行示警操作。
当景区有小孩走失,需要通过摄像头进行通过人脸识别进行自动寻找时,在该区域人员较为稀疏时,由人人智能的人脸识别设备进行处理,识别速度更快,找到的概率更大。当该区域人员较为密集时,由百度人脸识别设备进行处理,识别速度更快,找到的概率更大。当下雨时,则由格灵深瞳人脸识别设备进行处理,识别速度更快,准确率更高,找到的概率更大。
本发明可以根据不同的环境选择不同的处理设备,使处理速度更快,资源占用更小。
实施例2:
本实施例提供了一种基于场景的视频识别方式优化及推送方法,本实施例与实施例1基本相同,区别在于:若待处理的视频为安装在街道上十字路口的摄像头拍摄的画面时,当某个时段拍摄到的视频里主要是车辆时,则分配给深瞐车辆识别设备进行处理。
实施例3:
本实施例提供了一种基于场景的视频识别方式优化及推送方法,包括如下步骤:
S1:根据视频内容对视频进行场景分类;
S2:分类后的视频传输至与该类视频相匹配的处理设备进行处理,以得到
处理结果。
所述步骤S1中,视频内容的分类包括主要是车辆的场景、主要是人且人数稀疏的场景、主要是人且人数稠密的场景以及下雨时因为打伞人脸被遮挡的场景中的一种或多种。
所述步骤S1包括:
a1:预先根据视频内容划分多个不同的视频场景类型,给每个视频类型预设频繁镜头集合和标签;
a2:将待分析的视频与频繁镜头集合进行相关性对比,相关性最高的频繁镜头集合的场景类型即为待分析视频的场景类型;
a3:相关性对比后将选定的视频场景类型的标签标记在待分析视频上。
所述步骤a1中预设的频繁镜头集合中,包括相同的场景类型500个以上。
所述步骤S2包括:
b1:预先给不同的处理设备匹配对应的标签;
b2:当接收到标记后的待分析视频的信号后,读取待分析视频上的标签,
将对应标签的待分析视频分配到对应的处理设备进行处理;
b3:对应的处理设备对待分析视频进行处理,得出处理结果。
所述步骤S2或b2中的处理设备包括百度人脸识别设备、深瞐车辆识别设备、人人智能的人脸识别设备和格灵深瞳的人脸识别设备中的一种或多种。
所述步骤a2包括:
c1:镜头检测,先对待分析视频进行视频帧描述,然后建立视频连续信号,
再进行基于阈值边界检测;
c2:关键帧提取,对待分析视频进行关键帧提取,去除冗余内容;
c3:场景分割,先对经过关键帧提取操作后的视频镜头进行描述;然后进
行镜头间相关性计算,将视频内容与频繁镜头集合进行相关性比对,选出
相关性最高的频繁镜头集合;再将该视频与频繁镜头集合共同组成新的频
繁镜头集合。
所述步骤c1中,边界检测在阈值为10的情况下进行。
所述步骤c3中,还包括未分配镜头的处理;若经过镜头间相关性计算后,各个频繁镜头集合与待分析视频的相关性都低于50%,则将该视频进行特殊标记,以待人工处理。
本发明采用半监督学习的方式对频繁镜头集合进行完善,能够使视频的场景标记更加准确,且能够适应更加多变的环境。半监督学习,即模型训练输入数据为混合数据,这里混合数据为标签数据和非标签数据,在实际操作中,模型训练需要大量训练数据,但是通常标签数据需要人工进行标注,这类数据较少,而非标前数据却较多,该种方法可以缓解标签数据不足等缺点,从而对模型进行成熟化训练。
实施例4:
本实施例提供了一种基于场景的视频识别方式优化及推送方法,本实施例与实施例3基本相同,区别在于:
在本方法的进行处理的过程中,需要定期对步骤c3中形成的新的频繁镜头集合进行抽检,保证频繁镜头集合的准确率在85%以上。抽检的时间间隔为7天-15天。若抽检后发现准确率低于85%,则更换该频镜头集合。
实施例5:
本实施例提供了一种基于场景的视频识别方式优化及推送方法,包括如下步骤:
S1:根据视频内容对视频进行场景分类;
S2:分类后的视频传输至与该类视频相匹配的处理设备进行处理,以得到
处理结果。
所述步骤S1中,视频内容的分类包括主要是车辆的场景、主要是人且人数稀疏的场景、主要是人且人数稠密的场景以及下雨时因为打伞人脸被遮挡的场景中的一种或多种。
所述步骤S1包括:
a1:预先根据视频内容划分多个不同的视频场景类型,给每个视频类型预设频繁镜头集合和标签;
a2:将待分析的视频与频繁镜头集合进行相关性对比,相关性最高的频繁镜头集合的场景类型即为待分析视频的场景类型;
a3:相关性对比后将选定的视频场景类型的标签标记在待分析视频上。
所述步骤a1中预设的频繁镜头集合中,包括相同的场景类型500个以上。
所述步骤S2包括:
b1:预先给不同的处理设备匹配对应的标签;
b2:当接收到标记后的待分析视频的信号后,读取待分析视频上的标签,
将对应标签的待分析视频分配到对应的处理设备进行处理;
b3:对应的处理设备对待分析视频进行处理,得出处理结果。
所述步骤S2或b2中的处理设备包括百度人脸识别设备、深瞐车辆识别设备、人人智能的人脸识别设备和格灵深瞳的人脸识别设备中的一种或多种。
所述步骤a2包括:
c1:镜头检测,先对待分析视频进行视频帧描述,然后建立视频连续信号,
再进行基于阈值边界检测;
c2:关键帧提取,对待分析视频进行关键帧提取,去除冗余内容;
c3:场景分割,先对经过关键帧提取操作后的视频镜头进行描述;然后进
行镜头间相关性计算,将视频内容与频繁镜头集合进行相关性比对,选出
相关性最高的频繁镜头集合;再将该视频与频繁镜头集合共同组成新的频
繁镜头集合。
所述步骤c1中,边界检测在阈值为1000的情况下进行。
所述步骤c3中,还包括未分配镜头的处理;若经过镜头间相关性计算后,各个频繁镜头集合与待分析视频的相关性都低于50%,则将该视频进行特殊标记,以待人工处理。
实施例6:
本实施例提供了一种基于场景的视频识别方式优化及推送方法,包括如下步骤:
S1:根据视频内容对视频进行场景分类;
S2:分类后的视频传输至与该类视频相匹配的处理设备进行处理,以得到
处理结果。
所述步骤S1中,视频内容的分类包括主要是车辆的场景、主要是人且人数稀疏的场景、主要是人且人数稠密的场景以及下雨时因为打伞人脸被遮挡的场景中的一种或多种。
所述步骤S1包括:
a1:预先根据视频内容划分多个不同的视频场景类型,给每个视频类型预设频繁镜头集合和标签;
a2:将待分析的视频与频繁镜头集合进行相关性对比,相关性最高的频繁镜头集合的场景类型即为待分析视频的场景类型;
a3:相关性对比后将选定的视频场景类型的标签标记在待分析视频上。
所述步骤a1中预设的频繁镜头集合中,包括相同的场景类型500个以上。
所述步骤S2包括:
b1:预先给不同的处理设备匹配对应的标签;
b2:当接收到标记后的待分析视频的信号后,读取待分析视频上的标签,
将对应标签的待分析视频分配到对应的处理设备进行处理;
b3:对应的处理设备对待分析视频进行处理,得出处理结果。
所述步骤S2或b2中的处理设备包括百度人脸识别设备、深瞐车辆识别设备、人人智能的人脸识别设备和格灵深瞳的人脸识别设备中的一种或多种。
所述步骤a2包括:
c1:镜头检测,先对待分析视频进行视频帧描述,然后建立视频连续信号,
再进行基于阈值边界检测;
c2:关键帧提取,对待分析视频进行关键帧提取,去除冗余内容;
c3:场景分割,先对经过关键帧提取操作后的视频镜头进行描述;然后进
行镜头间相关性计算,将视频内容与频繁镜头集合进行相关性比对,选出
相关性最高的频繁镜头集合;再将该视频与频繁镜头集合共同组成新的频
繁镜头集合。
所述步骤c1中,边界检测在阈值为500的情况下进行。
所述步骤c3中,还包括未分配镜头的处理;若经过镜头间相关性计算后,各个频繁镜头集合与待分析视频的相关性都低于50%,则将该视频进行特殊标记,以待人工处理。
本发明不局限于上述可选的实施方式,任何人在本发明的启示下都可得出其他各种形式的产品。上述具体实施方式不应理解成对本发明的保护范围的限制,本发明的保护范围应当以权利要求书中界定的为准,并且说明书可以用于解释权利要求书。
Claims (10)
1.一种基于场景的视频识别方式优化及推送方法,其特征在于,包括如下步骤:
S1:根据视频内容对视频进行场景分类;
S2:分类后的视频传输至与该类视频相匹配的处理设备进行处理,以得到处理结果。
2.根据权利要求1所述的一种基于场景的视频识别方式优化及推送方法,其特征在于,所述步骤S1包括:
a1:预先根据视频内容划分多个不同的视频场景类型,给每个视频类型预设频繁镜头集合和标签;
a2:将待分析的视频与频繁镜头集合进行相关性对比,相关性最高的频繁镜头集合的场景类型即为待分析视频的场景类型;
a3:相关性对比后将选定的视频场景类型的标签标记在待分析视频上。
3.根据权利要求2所述的一种基于场景的视频识别方式优化及推送方法,其特征在于:所述步骤a1中预设的频繁镜头集合中,包括相同的场景类型500个以上。
4.根据权利要求2所述的一种基于场景的视频识别方式优化及推送方法,其特征在于,所述步骤a2包括:
c1:镜头检测,先对待分析视频进行视频帧描述,然后建立视频连续信号,
再进行基于阈值边界检测;
c2:关键帧提取,对待分析视频进行关键帧提取,去除冗余内容;
c3:场景分割,先对经过关键帧提取操作后的视频镜头进行描述;然后进行镜头间相关性计算,将视频内容与频繁镜头集合进行相关性比对,选出相关性最高的频繁镜头集合;再将该视频与频繁镜头集合共同组成新的频繁镜头集合。
5.根据权利要求4所述的一种基于场景的视频识别方式优化及推送方法,其特征在于:定期对步骤c3中形成的新的频繁镜头集合进行抽检,保证频繁镜头集合的准确度在85%以上。
6.根据权利要求4所述的一种基于场景的视频识别方式优化及推送方法,其特征在于:所述步骤c1中,边界检测在阈值为10-1000的情况下进行。
7.根据权利要求4所述的一种基于场景的视频识别方式优化及推送方法,其特征在于:所述步骤c3中,还包括未分配镜头的处理;若经过镜头间相关性计算后,各个频繁镜头集合与待分析视频的相关性都低于50%,则将该视频进行特殊标记,以待人工处理。
8.根据权利要求1所述的一种基于场景的视频识别方式优化及推送方法,其特征在于,所述步骤S2包括:
b1:预先给不同的处理设备匹配对应的标签;
b2:当接收到标记后的待分析视频的信号后,读取待分析视频上的标签,
将对应标签的待分析视频分配到对应的处理设备进行处理;
b3:对应的处理设备对待分析视频进行处理,得出处理结果。
9.根据权利要求8所述的一种基于场景的视频识别方式优化及推送方法,其特征在于:所述步骤S2或b2中的处理设备包括百度人脸识别设备、深瞐车辆识别设备、人人智能的人脸识别设备和格灵深瞳的人脸识别设备中的一种或多种。
10.根据权利要求1所述的一种基于场景的视频识别方式优化及推送方法,其特征在于:所述步骤S1中,视频内容的分类包括主要是车辆的场景、主要是人且人数稀疏的场景、主要是人且人数稠密的场景以及下雨时因为打伞人脸被遮挡的场景中的一种或多种。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810921834.4A CN109063667B (zh) | 2018-08-14 | 2018-08-14 | 一种基于场景的视频识别方式优化及推送方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810921834.4A CN109063667B (zh) | 2018-08-14 | 2018-08-14 | 一种基于场景的视频识别方式优化及推送方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109063667A true CN109063667A (zh) | 2018-12-21 |
CN109063667B CN109063667B (zh) | 2021-02-19 |
Family
ID=64683897
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810921834.4A Active CN109063667B (zh) | 2018-08-14 | 2018-08-14 | 一种基于场景的视频识别方式优化及推送方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109063667B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109815936A (zh) * | 2019-02-21 | 2019-05-28 | 深圳市商汤科技有限公司 | 一种目标对象分析方法及装置、计算机设备和存储介质 |
CN111209897A (zh) * | 2020-03-09 | 2020-05-29 | 腾讯科技(深圳)有限公司 | 视频处理的方法、装置和存储介质 |
CN111401239A (zh) * | 2020-03-16 | 2020-07-10 | 科大讯飞(苏州)科技有限公司 | 一种视频分析方法、装置、***、设备及存储介质 |
WO2020248386A1 (zh) * | 2019-06-14 | 2020-12-17 | 平安科技(深圳)有限公司 | 视频分析方法、装置、计算机设备及存储介质 |
CN112799826A (zh) * | 2019-11-14 | 2021-05-14 | 杭州海康威视数字技术股份有限公司 | 智能分析算法选取方法、装置、***及电子设备 |
CN112911234A (zh) * | 2021-01-26 | 2021-06-04 | 上海商米科技集团股份有限公司 | 一种适用于智能ipc的功耗控制方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101021904A (zh) * | 2006-10-11 | 2007-08-22 | 鲍东山 | 视频内容分析*** |
CN101834837A (zh) * | 2009-12-18 | 2010-09-15 | 北京邮电大学 | 基于宽带网络的旅游景区景点在线景观视频主动信息服务*** |
CN102214222A (zh) * | 2011-06-15 | 2011-10-12 | 中国电信股份有限公司 | 通过手机摄像获取景物资讯的预分类及交互***和方法 |
CN102508246A (zh) * | 2011-10-13 | 2012-06-20 | 吉林大学 | 车辆前方障碍物检测跟踪方法 |
US20180032846A1 (en) * | 2016-08-01 | 2018-02-01 | Nvidia Corporation | Fusing multilayer and multimodal deep neural networks for video classification |
CN108009518A (zh) * | 2017-12-19 | 2018-05-08 | 大连理工大学 | 一种基于快速二分卷积神经网络的层次化交通标识识别方法 |
-
2018
- 2018-08-14 CN CN201810921834.4A patent/CN109063667B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101021904A (zh) * | 2006-10-11 | 2007-08-22 | 鲍东山 | 视频内容分析*** |
CN101834837A (zh) * | 2009-12-18 | 2010-09-15 | 北京邮电大学 | 基于宽带网络的旅游景区景点在线景观视频主动信息服务*** |
CN102214222A (zh) * | 2011-06-15 | 2011-10-12 | 中国电信股份有限公司 | 通过手机摄像获取景物资讯的预分类及交互***和方法 |
CN102508246A (zh) * | 2011-10-13 | 2012-06-20 | 吉林大学 | 车辆前方障碍物检测跟踪方法 |
US20180032846A1 (en) * | 2016-08-01 | 2018-02-01 | Nvidia Corporation | Fusing multilayer and multimodal deep neural networks for video classification |
CN108009518A (zh) * | 2017-12-19 | 2018-05-08 | 大连理工大学 | 一种基于快速二分卷积神经网络的层次化交通标识识别方法 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109815936A (zh) * | 2019-02-21 | 2019-05-28 | 深圳市商汤科技有限公司 | 一种目标对象分析方法及装置、计算机设备和存储介质 |
CN109815936B (zh) * | 2019-02-21 | 2023-08-22 | 深圳市商汤科技有限公司 | 一种目标对象分析方法及装置、计算机设备和存储介质 |
WO2020248386A1 (zh) * | 2019-06-14 | 2020-12-17 | 平安科技(深圳)有限公司 | 视频分析方法、装置、计算机设备及存储介质 |
CN112799826A (zh) * | 2019-11-14 | 2021-05-14 | 杭州海康威视数字技术股份有限公司 | 智能分析算法选取方法、装置、***及电子设备 |
WO2021093625A1 (zh) * | 2019-11-14 | 2021-05-20 | 杭州海康威视数字技术股份有限公司 | 智能分析算法选取方法、装置、***及电子设备 |
CN112799826B (zh) * | 2019-11-14 | 2024-07-05 | 杭州海康威视数字技术股份有限公司 | 智能分析算法选取方法、装置、***及电子设备 |
CN111209897A (zh) * | 2020-03-09 | 2020-05-29 | 腾讯科技(深圳)有限公司 | 视频处理的方法、装置和存储介质 |
CN111209897B (zh) * | 2020-03-09 | 2023-06-20 | 深圳市雅阅科技有限公司 | 视频处理的方法、装置和存储介质 |
CN111401239A (zh) * | 2020-03-16 | 2020-07-10 | 科大讯飞(苏州)科技有限公司 | 一种视频分析方法、装置、***、设备及存储介质 |
CN111401239B (zh) * | 2020-03-16 | 2021-04-20 | 科大讯飞(苏州)科技有限公司 | 一种视频分析方法、装置、***、设备及存储介质 |
CN112911234A (zh) * | 2021-01-26 | 2021-06-04 | 上海商米科技集团股份有限公司 | 一种适用于智能ipc的功耗控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109063667B (zh) | 2021-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109063667A (zh) | 一种基于场景的视频识别方式优化及推送方法 | |
CN109948582B (zh) | 一种基于跟踪轨迹分析的车辆逆行智能检测方法 | |
CN109376572B (zh) | 基于深度学习的交通视频中实时车辆检测与轨迹跟踪方法 | |
CN105574543B (zh) | 一种基于深度学习的车辆品牌型号识别方法和*** | |
US20230289979A1 (en) | A method for video moving object detection based on relative statistical characteristics of image pixels | |
Fregin et al. | The driveu traffic light dataset: Introduction and comparison with existing datasets | |
CN103824070B (zh) | 一种基于计算机视觉的快速行人检测方法 | |
CN110472467A (zh) | 基于YOLO v3的针对交通枢纽关键物体的检测方法 | |
CN104915655A (zh) | 一种多路监控视频的管理方法与设备 | |
CN103942751B (zh) | 一种视频关键帧提取方法 | |
CN108304798A (zh) | 基于深度学习及运动一致性的街面秩序事件视频检测方法 | |
CN108776974B (zh) | 一种适用于公共交通场景的实时目标跟踪方法 | |
CN104378582A (zh) | 一种基于ptz摄像机巡航的智能视频分析***及方法 | |
CN107424171A (zh) | 一种基于分块的抗遮挡目标跟踪方法 | |
CN108182447A (zh) | 一种基于深度学习的自适应粒子滤波目标跟踪方法 | |
CN105989358A (zh) | 一种自然场景视频识别方法 | |
CN111340855A (zh) | 一种基于轨迹预测的道路移动目标检测方法 | |
CN112241969A (zh) | 基于交通监控视频的目标检测跟踪方法、装置及存储介质 | |
CN103886089B (zh) | 基于学习的行车记录视频浓缩方法 | |
CN102799900A (zh) | 一种基于检测中支持在线聚类学习的对象跟踪方法 | |
CN112464933B (zh) | 一种地基凝视红外成像弱小目标智能识别方法 | |
CN105512618A (zh) | 视频跟踪方法 | |
WO2019043406A1 (en) | DETECTION OF ANOMALY FROM VIDEO DATA FROM SURVEILLANCE CAMERAS | |
CN103150552A (zh) | 一种基于人头计数的驾驶培训管理方法 | |
CN114463724A (zh) | 一种基于机器视觉的车道提取识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: Optimization and Push Method of a Scene Based Video Recognition Method Effective date of registration: 20230822 Granted publication date: 20210219 Pledgee: Dongshan Branch of Guangzhou Bank Co.,Ltd. Pledgor: SHIYUN RONGJU (GUANGZHOU) TECHNOLOGY Co.,Ltd. Registration number: Y2023980053288 |