CN104463231A - 对表情识别内容标注后进行纠错的方法 - Google Patents

对表情识别内容标注后进行纠错的方法 Download PDF

Info

Publication number
CN104463231A
CN104463231A CN201410844999.8A CN201410844999A CN104463231A CN 104463231 A CN104463231 A CN 104463231A CN 201410844999 A CN201410844999 A CN 201410844999A CN 104463231 A CN104463231 A CN 104463231A
Authority
CN
China
Prior art keywords
attribute information
video
subject matter
error correction
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410844999.8A
Other languages
English (en)
Inventor
付鹏
卢学裕
白雪
吴凯凯
吴鑫
姚键
潘柏宇
卢述奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
1Verge Internet Technology Beijing Co Ltd
Original Assignee
1Verge Internet Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 1Verge Internet Technology Beijing Co Ltd filed Critical 1Verge Internet Technology Beijing Co Ltd
Priority to CN201410844999.8A priority Critical patent/CN104463231A/zh
Publication of CN104463231A publication Critical patent/CN104463231A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了一种对表情识别内容标注后进行纠错的方法,包括:通过设置在客户端的采集设备,采用观看的视频时用户相应的表情信息;对不同的视频按照预置的时间段对应的所采集到的表情信息进行分类分析,得出不同视频所对应的属性信息;当不同视频所对应的所述属性信息与对应同一视频上已建立的题材属性信息对比不一致时,将该视频上标记的所述题材属性信息的内容更新为与其对比的所述属性信息。本发明可根据用户每次的观看反馈,矫正视频的题材标注,让后续观众选择内容上更准确。

Description

对表情识别内容标注后进行纠错的方法
技术领域
本申请涉及表情识别领域,具体地说,涉及一种对表情识别内容标注后进行纠错的方法。
背景技术
现有技术中,当每个人感受到不同的感情时,多数情况都会通过表情表达出来,如喜怒哀乐,激情或平淡等表情。于是,通过对于用户面部表情的变化分析,可以了解用户在特定场景下的情绪及感受如何,进而可以对该场景营造的氛围进行定义
现有的视频内容标注,带有强烈的主观性。即视频题材的标注人对内容的理解及感受进行标注,而这种定义,对于观众而言,可能判断上会有较大偏差(如一些历史电影有打斗场面,是否就算动作电影等等)。
因此,随着视频资源越来越丰富,观众必须从大量视频中,筛选出自己更喜欢的内容。在影视剧方面,观众通常通过题材(如动作、言情、恐怖或悬疑等)做内容选择。题材通常由制作方或媒体给出,具有很强的主观性。甚至有片方为提高收视,人为标注不相关的题材。导致的结果是,内容与观众的预期偏差很大,导致用户反感。而如果可根据用户每次的观看反馈,矫正视频的题材标注,让后续观众选择内容上更准确,是很有价值解决的问题。所以如何解决上述问题,便成为亟待解决的技术问题。
发明内容
有鉴于此,本申请所要解决的技术问题是提供了对表情识别内容标注后进行纠错的方法,可根据用户每次的观看反馈,矫正视频的题材标注,让后续观众选择内容上更准确。
为了解决上述技术问题,本申请有如下技术方案:一种对表情识别内容标注后进行纠错的方法,其特征在于,包括:
通过设置在客户端的采集设备,采用观看的视频时用户相应的表情信息;
对不同的视频按照预置的时间段对应的所采集到的表情信息进行分类分析,得出不同视频所对应的属性信息;
当不同视频所对应的所述属性信息与对应同一视频上已建立的题材属性信息对比不一致时,将该视频上标记的所述题材属性信息的内容更新为与其对比的所述属性信息。
优选地,其中,进一步还包括:将更新后的该视频上的所述题材属性信息储存在特征库中并发布出去。
优选地,其中,所述当不同视频所对应的所述属性信息与对应同一视频上已建立的题材属性信息对比不一致时,将该视频上标记的所述题材属性信息的内容更新为与其对比的所述属性信息,进一步为:
当不同视频所对应的所述属性信息与对应同一视频上已建立的题材属性信息对比的匹配程度达到相似度在50%以下时,将该视频上的所述题材属性信息的内容更新为与其对比的所述属性信息。当不同视频所对应的所述属性信息与对应同一视频上已建立的题材属性信息对比的匹配程度达到相似度在50%以上时,对该视频上标记的所述题材属性信息的内容继续保留。
优选地,其中,所述预置的时间段,进一步为:小时、月或日。
优选地,其中,所述特征库为设置在服务器中。
与现有技术相比,本申请所述的对表情识别内容标注后进行纠错的方法,达到了如下效果:
(1)本发明通过对用户的表情变化的捕获,一方面,可以基于已有题材进行表情特征分类;同时另一方面,也可以针对表情相似性对表情变化进行聚类,在原有题材的基础上,发现一些更适合被放在一起的新的题材定义,以适应文化的演进发展;
(2)本发明能够更准确的对视频进行题材分类,提高视频服务质量;全过程通过自动化方式,对用户0干扰,无附加成本,同时,通过对海量视频的分析挖掘,能从中获取知识,对固有题材体系发展有额外帮助。
当然,实施本申请的任一产品必不一定需要同时达到以上所述的所有技术效果。
 
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本申请实施例所述对表情识别内容标注后进行纠错的方法流程图。
 
具体实施方式
如在说明书及权利要求当中使用了某些词汇来指称特定组件。本领域技术人员应可理解,硬件制造商可能会用不同名词来称呼同一个组件。本说明书及权利要求并不以名称的差异来作为区分组件的方式,而是以组件在功能上的差异来作为区分的准则。如在通篇说明书及权利要求当中所提及的“包含”为一开放式用语,故应解释成“包含但不限定于”。“大致”是指在可接收的误差范围内,本领域技术人员能够在一定误差范围内解决所述技术问题,基本达到所述技术效果。此外,“耦接”一词在此包含任何直接及间接的电性耦接手段。因此,若文中描述一第一装置耦接于一第二装置,则代表所述第一装置可直接电性耦接于所述第二装置,或通过其他装置或耦接手段间接地电性耦接至所述第二装置。说明书后续描述为实施本申请的较佳实施方式,然所述描述乃以说明本申请的一般原则为目的,并非用以限定本申请的范围。本申请的保护范围当视所附权利要求所界定者为准。
 
参见图1所示,为本申请实施例所述对表情识别内容标注后进行纠错的方法的具体实施例。本实施例中将从服务器一侧体现所述方法。本实施例中所述方法包括以下步骤:
步骤101,通过设置在客户端的采集设备,采用观看的视频时用户相应的表情信息;
步骤102,对不同的视频按照预置的时间段对应的所采集到的表情信息进行分类分析,得出不同视频所对应的属性信息;
步骤103,当不同视频所对应的所述属性信息与对应同一视频上已建立的题材属性信息对比不一致时,将该视频上标记的所述题材属性信息的内容更新为与其对比的所述属性信息。
同时步骤103继续启动执行步骤104,将更新后的该视频上的所述题材属性信息储存在特征库中(也就是服务器一侧)并发布出去。
步骤104,重复继续执行步骤101至103。(该步骤目的是达到持续优化结果的目的)。
 
具体地,步骤103还可以为:当不同视频所对应的所述属性信息与对应同一视频上已建立的题材属性信息对比的匹配程度达到相似度在50%以下时,将该视频上的所述题材属性信息的内容更新为与其对比的所述属性信息。当不同视频所对应的所述属性信息与对应同一视频上已建立的题材属性信息对比的匹配程度达到相似度在50%以上时,对该视频上标记的所述题材属性信息的内容继续保留(也就是无需更新为步骤102得出的不同视频所对应的属性信息)。
结合图1所示的实施例一,这里在以一个具体实施例进行说明:
步骤1,通过设置在客户端的采集设备(摄像头),采用观看的视频时用户相应的表情信息,如该视频为喜剧视频,采集到的表情信息为笑脸信息;
步骤2,对该喜剧视频,按照1小时为时间段采集的所有表情信息进行分类分析,得出该视频所对应的属性信息主要为喜剧片;
步骤3,当该视频所对应的所述属性信息与对应同一视频上已建立的题材属性信息对比不一致时,如:当该视频所所对应的所述属性信息为喜剧片,而该视频上已建立的题材属性信息为剧情片,则将所述题材属性信息中保存的剧情片改为喜剧片。
同时步骤3继续启动执行步骤4,将更新后的该视频上的所述题材属性信息为喜剧片,储存在特征库中(也就是服务器一侧)并发布出去。
步骤4,重复继续执行步骤1至3。(该步骤目的是达到持续优化结果的目的)。
再比如,对于恐怖片,用户表情也有典型变化,如瞳孔变化等,而一些片子,实际上恐怖程度很差,难以达到用户预期,那么这种片子,也可以在响应题材上,设置匹配成度等指标,以标识片子的类别属性。
 
与现有技术相比,本申请所述的对表情识别内容标注后进行纠错的方法,达到了如下效果:
(1)本发明通过对用户的表情变化的捕获,一方面,可以基于已有题材进行表情特征分类;同时另一方面,也可以针对表情相似性对表情变化进行聚类,在原有题材的基础上,发现一些更适合被放在一起的新的题材定义,以适应文化的演进发展;
(2)本发明能够更准确的对视频进行题材分类,提高视频服务质量;全过程通过自动化方式,对用户0干扰,无附加成本,同时,通过对海量视频的分析挖掘,能从中获取知识,对固有题材体系发展有额外帮助。
本领域内的技术人员应明白,本申请的实施例可提供为方法、装置、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
上述说明示出并描述了本申请的若干优选实施例,但如前所述,应当理解本申请并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本文所述发明构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本申请的精神和范围,则都应在本申请所附权利要求的保护范围内。

Claims (5)

1.一种对表情识别内容标注后进行纠错的方法,其特征在于,包括:
通过设置在客户端的采集设备,采用观看的视频时用户相应的表情信息;
对不同的视频按照预置的时间段对应的所采集到的表情信息进行分类分析,得出不同视频所对应的属性信息;
当不同视频所对应的所述属性信息与对应同一视频上已建立的题材属性信息对比不一致时,将该视频上标记的所述题材属性信息的内容更新为与其对比的所述属性信息。
2. 根据权利要求1所述对表情识别内容标注后进行纠错的方法,其特征在于,进一步还包括:将更新后的该视频上的所述题材属性信息储存在特征库中并发布出去。
3. 根据权利要求1所述对表情识别内容标注后进行纠错的方法,其特征在于,所述当不同视频所对应的所述属性信息与对应同一视频上已建立的题材属性信息对比不一致时,将该视频上标记的所述题材属性信息的内容更新为与其对比的所述属性信息,进一步为:
当不同视频所对应的所述属性信息与对应同一视频上已建立的题材属性信息对比的匹配程度达到相似度在50%以下时,将该视频上的所述题材属性信息的内容更新为与其对比的所述属性信息;当不同视频所对应的所述属性信息与对应同一视频上已建立的题材属性信息对比的匹配程度达到相似度在50%以上时,对该视频上标记的所述题材属性信息的内容继续保留。
4. 根据权利要求1所述对表情识别内容标注后进行纠错的方法,其特征在于,所述预置的时间段,进一步为:小时、月或日。
5. 根据权利要求1所述对表情识别内容标注后进行纠错的方法,其特征在于,所述特征库为设置在服务器中。
CN201410844999.8A 2014-12-31 2014-12-31 对表情识别内容标注后进行纠错的方法 Pending CN104463231A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410844999.8A CN104463231A (zh) 2014-12-31 2014-12-31 对表情识别内容标注后进行纠错的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410844999.8A CN104463231A (zh) 2014-12-31 2014-12-31 对表情识别内容标注后进行纠错的方法

Publications (1)

Publication Number Publication Date
CN104463231A true CN104463231A (zh) 2015-03-25

Family

ID=52909245

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410844999.8A Pending CN104463231A (zh) 2014-12-31 2014-12-31 对表情识别内容标注后进行纠错的方法

Country Status (1)

Country Link
CN (1) CN104463231A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106503744A (zh) * 2016-10-26 2017-03-15 长沙军鸽软件有限公司 对聊天过程中的输入表情进行自动纠错的方法及装置
CN107454346A (zh) * 2017-07-03 2017-12-08 李洪海 影视数据解析方法、视频制作模板推荐方法、装置及设备
CN109902606A (zh) * 2019-02-21 2019-06-18 维沃移动通信有限公司 一种操作方法及终端设备
CN110650364A (zh) * 2019-09-27 2020-01-03 北京达佳互联信息技术有限公司 视频态度标签提取方法及基于视频的交互方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030118974A1 (en) * 2001-12-21 2003-06-26 Pere Obrador Video indexing based on viewers' behavior and emotion feedback
CN102402765A (zh) * 2011-12-27 2012-04-04 纽海信息技术(上海)有限公司 基于用户表情分析的电子商务推荐方法
CN103049479A (zh) * 2012-11-26 2013-04-17 北京奇虎科技有限公司 一种在线视频标签生成方法和***
CN103339649A (zh) * 2011-02-27 2013-10-02 阿弗科迪瓦公司 基于情感的视频推荐
CN103530788A (zh) * 2012-07-02 2014-01-22 纬创资通股份有限公司 多媒体评价***、多媒体评价装置以及多媒体评价方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030118974A1 (en) * 2001-12-21 2003-06-26 Pere Obrador Video indexing based on viewers' behavior and emotion feedback
CN103339649A (zh) * 2011-02-27 2013-10-02 阿弗科迪瓦公司 基于情感的视频推荐
CN102402765A (zh) * 2011-12-27 2012-04-04 纽海信息技术(上海)有限公司 基于用户表情分析的电子商务推荐方法
CN103530788A (zh) * 2012-07-02 2014-01-22 纬创资通股份有限公司 多媒体评价***、多媒体评价装置以及多媒体评价方法
CN103049479A (zh) * 2012-11-26 2013-04-17 北京奇虎科技有限公司 一种在线视频标签生成方法和***

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106503744A (zh) * 2016-10-26 2017-03-15 长沙军鸽软件有限公司 对聊天过程中的输入表情进行自动纠错的方法及装置
CN107454346A (zh) * 2017-07-03 2017-12-08 李洪海 影视数据解析方法、视频制作模板推荐方法、装置及设备
CN109902606A (zh) * 2019-02-21 2019-06-18 维沃移动通信有限公司 一种操作方法及终端设备
CN109902606B (zh) * 2019-02-21 2021-03-12 维沃移动通信有限公司 一种操作方法及终端设备
CN110650364A (zh) * 2019-09-27 2020-01-03 北京达佳互联信息技术有限公司 视频态度标签提取方法及基于视频的交互方法
CN110650364B (zh) * 2019-09-27 2022-04-01 北京达佳互联信息技术有限公司 视频态度标签提取方法及基于视频的交互方法

Similar Documents

Publication Publication Date Title
US8032539B2 (en) Method and apparatus for semantic assisted rating of multimedia content
CN106303675B (zh) 一种视频片段提取方法和装置
CN110740387B (zh) 一种弹幕编辑方法、智能终端及存储介质
Dhall et al. Emotion recognition in the wild challenge 2013
CN106331778B (zh) 视频推荐方法和装置
AU2016277657B2 (en) Methods and systems for identifying media assets
CN109756751B (zh) 多媒体数据处理方法及装置、电子设备、存储介质
CN103686344B (zh) 增强视频***及方法
CN106202475B (zh) 一种视频推荐列表的推送方法及装置
US9202251B2 (en) System and method for granular tagging and searching multimedia content based on user reaction
CN110008378B (zh) 基于人工智能的语料收集方法、装置、设备及存储介质
CN104813674B (zh) 用于优化视频的***和方法
JP2012533803A (ja) タイムベースメディアにおけるソーシャルインタレストの推定および表示
CN104463231A (zh) 对表情识别内容标注后进行纠错的方法
CN108197336B (zh) 一种视频查找的方法及装置
CN107896335B (zh) 基于大数据技术的视频检测和评级方法
US11392791B2 (en) Generating training data for natural language processing
CN104378659A (zh) 基于智能电视的个性化推荐方法
US10897658B1 (en) Techniques for annotating media content
CN113392273A (zh) 视频播放方法、装置、计算机设备及存储介质
US20210126945A1 (en) Illegal content search device, illegal content search method, and program
US20150278292A1 (en) Identifying matching video content
US20210097151A1 (en) Illegal content search device, illegal content search method, and program
CN105912544A (zh) 视频内容的匹配方法、装置、服务器及视频播放***
KR20190063650A (ko) 위키 기반의 지능형 수술영상 지식 공유 플랫폼

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20150325

RJ01 Rejection of invention patent application after publication