CN107368495A - 确定用户对互联网对象的情绪的方法及装置 - Google Patents
确定用户对互联网对象的情绪的方法及装置 Download PDFInfo
- Publication number
- CN107368495A CN107368495A CN201610317976.0A CN201610317976A CN107368495A CN 107368495 A CN107368495 A CN 107368495A CN 201610317976 A CN201610317976 A CN 201610317976A CN 107368495 A CN107368495 A CN 107368495A
- Authority
- CN
- China
- Prior art keywords
- user
- mood
- state information
- internet
- internet object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开一种确定用户对互联网对象的情绪的方法及装置,用于通过真实的人脸图像,提高了确定用户对互联网对象情绪表达结果的准确性。所述方法包括:当互联网对象处于被打开状态时,获取用户的人脸图像;对获取到的人脸图像进行人脸表情识别,根据识别结果确定所述人脸图像对应的情绪状态信息;根据所述情绪状态信息确定用户对所述互联网对象表达的情绪。
Description
技术领域
本申请涉及计算机领域,尤其涉及一种确定用户对互联网对象的情绪的方法及装置。
背景技术
随着互联网的发展,用户会在互联网中获取各种各样的互联网对象,并且可以通过对互联网对象进行评论,来表达用户对该互联网对象的情绪。比如,用户会对负面新闻进行批评指责表达愤怒不满的情绪,对正面消息进行表扬和赞赏表达兴奋喜悦的情绪;又如,对具有不稳定性的对象(天气、政策、股市、房价等)进行预测和表达看法来体现期望、失望、恐慌的情绪;还如,对旅游景点、餐厅酒店进行评价表达是否满意等情绪。
目前,确定用户对互联网对象的情绪都是通过文字的形式,比如“好”、“不好”、“失望透顶”,但是文字是具有欺骗性的,比如炒作行为、误导行为等,这些都不能准确地体现用户对互联网对象的真实情绪,也就导致在确定用户对互联网对象的情绪时,存在确定结果偏差较大的情况,所以现有技术通过文字确定用户对互联网对象的情绪就存在准确性较低的问题。
发明内容
本申请实施例提供一种确定用户对互联网对象的情绪的方法,用于通过真实的人脸图像,提高确定用户对互联网对象情绪表达结果的准确性。
本申请实施例提供一种确定用户对互联网对象的情绪的装置,用于通过真实的人脸图像,提高确定用户对互联网对象情绪表达结果的准确性。
本申请实施例采用下述技术方案:
一种确定用户对互联网对象的情绪的方法,包括:
当互联网对象处于被打开状态时,获取用户的人脸图像;
对获取到的人脸图像进行人脸表情识别,根据识别结果确定所述人脸图像对应的情绪状态信息;
根据所述情绪状态信息确定用户对所述互联网对象表达的情绪。
优选地,根据所述情绪状态信息确定用户对所述互联网对象表达的情绪,包括:
根据所述情绪状态信息确定用户对所述互联网对象表达的每种情绪的比例。
优选地,所述方法还包括:
根据所述情绪状态信息实时更新用户对所述互联网对象表达的每种情绪的比例。
优选地,根据所述情绪状态信息确定用户对所述互联网对象表达的情绪,包括:
根据所述情绪状态信息确定用户对所述互联网对象的历史情绪变化。
优选地,根据所述情绪状态信息确定用户对所述互联网对象表达的情绪,包括:
根据所述情绪状态信息确定并展示用户对所述互联网对象表达的情绪。
优选地,当互联网对象处于被打开状态时,获取用户的人脸图像,包括:
当互联网对象处于被打开状态时,按照指定时间间隔,获取用户的人脸图像;则
根据所述情绪状态信息确定用户对所述互联网对象表达的情绪,包括:
根据所述情绪状态信息,确定用户按照所述指定时间间隔对所述互联网对象表达的情绪。
优选地,当互联网对象被开启时,获取用户的人脸图像,包括:
当互联网对象处于被打开状态时,按照指定内容间隔,获取用户的人脸图像;则
根据所述情绪状态信息确定用户对所述互联网对象表达的情绪,包括:
根据所述情绪状态信息,确定用户按照所述指定内容间隔对所述互联网对象表达的情绪。
优选地,所述方法执行主体为移动终端,则当互联网对象处于被打开状态时,获取用户的人脸图像包括:
当互联网对象在移动终端处于被打开状态时,通过所述移动终端的前置摄像头采集用户的人脸图像。
优选地,所述互联网对象为理财产品。
一种确定用户对互联网对象的情绪的装置,包括:图像获取单元、情绪第一确定单元以及情绪第二确定单元,其中,
所述图像获取单元,用于当互联网对象处于被打开状态时,获取用户的人脸图像;
所述情绪第一确定单元,用于对获取到的人脸图像进行人脸表情识别,根据识别结果确定所述人脸图像对应的情绪状态信息;
所述情绪第二确定单元,用于根据所述情绪状态信息确定用户对所述互联网对象表达的情绪。
优选地,所述情绪第二确定单元,具体用于:
根据所述情绪状态信息确定用户对所述互联网对象表达的每种情绪的比例。
优选地,所述情绪第二确定单元,还用于:
根据所述情绪状态信息实时更新用户对所述互联网对象表达的每种情绪的比例。
优选地,所述情绪第二确定单元,具体用于:
根据所述情绪状态信息确定用户对所述互联网对象的历史情绪变化。
优选地,所述情绪第二确定单元,具体用于:
根据所述情绪状态信息确定并展示用户对所述互联网对象的历史情绪变化。
优选地,所述图像获取单元,具体用于:
当互联网对象处于被打开状态时,按照指定时间间隔,获取用户的人脸图像;则
所述情绪第二确定单元,具体用于:
根据所述情绪状态信息,确定用户按照所述指定时间间隔对所述互联网对象表达的情绪。
优选地,所述图像获取单元,具体用于:
当互联网对象处于被打开状态时,按照指定内容间隔,获取用户的人脸图像;则
所述情绪第二确定单元,具体用于:
根据所述情绪状态信息,确定用户按照所述指定内容间隔对所述互联网对象表达的情绪。
优选地,所述方法执行主体为移动终端,则所述图像获取单元,具体用于:
当互联网对象在移动终端处于被打开状态时,调用所述移动终端的前置摄像头采集用户的人脸图像。
本申请实施例采用的上述至少一个技术方案能够达到以下有益效果:当互联网对象处于被打开状态时,也就可以认为当用户浏览互联网对象时,获取用户的人脸图像,并通过人脸表情识别,确定出用户对互联网对象表达的情绪,相比于现有技术通过文字确定用户对互联网对象表达的情绪时,由于文字欺骗性较高而导致体现用户对互联网对象表达的情绪存在准确性较低的问题,本方法通过真实的人脸表情,来体现用户对互联网对象表达的情绪,提高了确定用户对互联网对象情绪表达结果的准确性。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本申请实施例1提供的确定用户对互联网对象的情绪的方法的流程示意图;
图2为本申请实施例2提供的确定用户对互联网对象的情绪的装置的结构框图;
图3为本申请实施例3提供的展示用户对股票表达情绪的方法的流程示意图;
图4为本申请实施例3提供的展示用户的情绪比例的示意图;
图5为本申请实施例3提供的更新展示用户的情绪比例的示意图;
图6为本申请实施例4提供的展示一段时间内用户对理财产品的情绪波动的方法的流程示意图;
图7为本申请实施例4提供的展示用户的历史情绪变化的示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
以下结合附图,详细说明本申请各实施例提供的技术方案。
实施例1
如前所述,目前用户对互联网对象表达情绪时,通常是通过文字来表达,比如“好”、“不好”、“失望透顶”,等,但是单纯的文字是具有欺骗性的,比如炒作行为,误导行为等,对于一家餐厅,就可能出现恶意发表负面的评论;对于一个电商店铺,故意并多次发表正面评论,又或者对于股票的行情,不负责任的随意误导投资者。所以仅通过文字的形式确定用户对互联网对象的情绪,会存在准确性较低的问题。基于此缺陷,本申请实施例提供一种确定用户对互联网对象的情绪的方法,用于通过真实的人脸图像,提高确定用户对互联网对象情绪表达结果的准确性。该方法的流程示意图如图1所示,包括下述步骤:
步骤11:当互联网对象处于被打开状态时,获取用户的人脸图像。
互联网对象可以是指在互联网中的多媒体对象,可以包括字符、音视频、图像等。当用户开启互联网对象后,也就是互联网对象处于被打开状态时,如果是在查看该对象,那么相比于对互联网对象做出文字评论而言,人的脸部本能出现的表情能够比较真实的反应对该对象的情绪,比如,对于一个旅游景点而言,如果用户心里感觉很好,那么看到这个消息时,脸部本能出现的表情就可能比较轻松,并透露出喜悦之情;又如,当用户观看某个视频时,也会通过本能的表情流露出比较真实的情绪;还如,出当用户在查看股票行情时,也可能通过本能的表情表达真实的情绪。所以就可以在互联网对象被开启时,获取用户的人脸图像。为了实现获取人脸图像,可以通过调用图像获取设备来获取,比如摄像头(笔记本的或手机的前置摄像头)等。
需要说明的是,本步骤中的“获取”动作,不仅能够表示实时性,并且能够表示一种结果,比如,一般可以将获取用户的人脸图像理解为当用户打开某个互联网对象时,实时地采集用户的人脸图像;还可以理解为,在互联网对象出于被打开状态时,先采集用户的人脸图像并保存在终端中,过一段时间后,获取保存的用户的人脸图像。
需要说明的是,在用户对互联网对象发送打开指令和关闭指令的瞬间,都可以认为是互联网对象处于被打开的状态,比如,当用户打开股票行情的瞬间,或者关闭股票行情的瞬间,都可以认为是被处于打开状态,都可以获取用户的人脸图像。
在实际应用中,对于某些互联网对象(尤其是多媒体对象),用户会长时间的查看,对于这种情况,用户的表情是会出现变化的,比如一部电影,一组图片集,一部小说等。所以,在一种实施方式中,本步骤还可以包括:当互联网对象处于被打开状态时,按照指定时间间隔,获取用户的人脸图像。具体地,比如针对一部电影,当用户观看影片时,可以按照20分钟一次,获取用户人脸表情,又如针对股票行情,当用户开启股票行情的应用程序后,可以按照一刻钟一次,获取用户人脸表情;也可以在早间开盘、午间停盘、午后开盘以及当日收盘时,各获取一次用户人脸表情。在一种实际的应用场景中,在股票交易大厅会有大屏幕展示个股(包括股指)的动态信息,可以在大屏幕的上方放置一个摄像头,定时的获取座位上的股民的人脸图像。
上面介绍了按照指定时间间隔获取,还有一种情况,可以在互联网对象处于被打开状态时,按照指定互联网对象的内容间隔,获取用户的人脸图像。具体地,对于一本电子书,可以按章节获取用户的人脸图像,对于一组图片集,可以按照图片切换,来获取用户的人脸图像,这些方式都可以称为按照内容间隔获取用户的人脸图像。
随着移动终端和移动互联网的发展,越来越多的用户会通过移动终端结合移动互联网的方式获取互联网对象,比如,实时股票行情,在线视频,电子书等。所以本步骤乃至本申请实施例的执行主体完全可以是移动终端,那么本步骤就可以包括:当互联网对象在移动终端处于被打开状态时,通过该移动终端的前置摄像头获取用户的人脸图像。具体地,当移动终端接收到用户的指令打开某个互联网对象时,就可以开启这个移动终端的前置摄像头,通过拍照的方式,采集用户的人脸图像。
步骤12:对获取到的人脸图像进行人脸表情识别,根据识别结果确定该人脸图像对应的情绪状态信息。
人脸表情识别大致包括人脸检测,特征提取和表情分类这三个主要步骤,在进行人脸表情识别之前,先要进行人脸检测,在检测到人脸之后可以将人脸从背景中分割出来,并可以进行尺寸,灰度等归一化处理;然后在特征提取过程中可以分为静态图像提取和动态图像提取两种情况。最后,可以按照预先设定的分类方法,对特征提取结果进行分类,每个分类结果都可以对应一种情绪状态信息,这样就可以达到确定人脸图像对应的情绪状态信息的目的。在具体的人脸表情识别方法上,主要有三个:整体识别法和局部识别法、形变提取法和运动提取法、几何特征法和容貌特征法。
在步骤11中,获取到了人脸图像,所以本步骤中,就可以对人脸图像进行表情识别,从而根据识别结果得到人脸图像对应的情绪状态信息。现有技术对人类情绪进行了分类,提出6种基本情绪:高兴、悲伤、惊讶、恐惧、厌恶、愤怒,每种基本情绪都对应着一个独特的较为典型的人脸表情,通过人脸表情识别,可以得到情绪状态信息,通过预先对情绪状态信息进行定义,定义出情绪状态信息1至情绪状态信息6,分别对应6种基本情绪,当对人脸图像进行人脸表情识别时,可以确定出情绪状态信息,并且在后续步骤中确定出对应的情绪。需要说明的是,在实际应用中或者通过技术的革新与发展,本步骤还可以通过其他人脸表情识别方法达到确定出情绪状态信息的目的,并且可以基于以上6种基本情绪,衍生出如轻蔑、失望、担忧等其他情绪。
步骤13:根据该情绪状态信息确定用户对互联网对象表达的情绪。
由于上一步骤确定出了用户对互联网对象表达的情绪状态信息,本步骤就可以根据该情绪状态信息确定出用户对互联网对象表达的情绪。具体地,可以在通过步骤12得到情绪状态信息的基础上,与预先定义出的情绪状态信息1至情绪状态信息6进行匹配,确定出6种基本情绪中的哪一种,从而确定出用户对互联网对象表达的情绪。
在实际应用中,确定出人脸图像对应的情绪状态信息后,还可以建立互联网对象与用户对这个互联网对象表达的情绪的对应关系,并且存储到数据库中,以便后续便于调用、查看等操作。比如,对于电影a,当某个用户观看这个电影时,就可以获取这个用户的人脸图像,并确定出该用户观看时的情绪,之后建立电影a与这个用户观看时的情绪的对应关系。具体实现可以通过键值对的形式。
在步骤11中已经介绍,在获取人脸图像时,可以按照指定时间间隔或者指定内容间隔进行获取,所以在本步骤中,也可以有不同的确定用户对互联网对象表达的情绪的方式:
当按照指定时间间隔,获取用户的人脸图像时,本步骤可以根据情绪状态信息,确定用户按照指定时间间隔对互联网对象表达的情绪。比如,对于电影a,可以确定用户在0-10分钟内的情绪,以及确定用户在50-60分钟内的情绪。
当按照指定内容间隔,获取用户的人脸图像时,本步骤可以根据情绪状态信息,确定用户按照指定内容间隔对互联网对象表达的情绪。比如,对于一组图片集,可以确定用户对第一张图片的情绪,以及确定用户对第n张图片的情绪。
不同用户对不同互联网对象表达的情绪可能不尽相同,比如不同年龄段的用户出于阅历的积累;不同身份的用户出于对事物的理解,都有可能出现对同一互联网对象表达出不同的情绪。比如对于一部电影,年龄段的区别可能会导致表达出不同情绪,对于股市行情,散户和机构出于不同的社会位置会导致表达出不同的情绪,所以,在建立了互联网对象与情绪的对应关系后,就可以确定用户对互联网对象的情绪。
上一段已经介绍,不同用户对不同互联网对象表达的情绪可能不尽相同,所以在一种实施方式中,本步骤可以包括根据情绪状态信息确定用户对互联网对象表达的每种情绪的比例。
具体地,对于某个互联网对象,会有多种情绪,就如步骤12中提到的高兴、悲伤、惊讶、恐惧、厌恶、愤怒这6种最基本的情绪,可以确定每种情绪的比例,比如,对于某个互联网对象,一共有10000个用户浏览过,并且获取到了这10000个用户的人脸图像,通过人脸表情识别后得到情绪状态信息后,确定并保存了每个用户的情绪记录,其中惊讶40%、恐惧3%、厌恶1%、愤怒1%、高兴55%、悲伤1%。当确定出每种情绪的比例结果后,便可以从确定出的情绪比例结果中看出绝大多数人对此互联网对象是高兴和惊讶的情绪。
在实际应用中,有些互联网对象是时刻都在发生变化的,比如股票行情,体育直播等,所以本步骤也可以根据情绪状态信息实时更新用户对互联网对象表达的每种情绪的比例。比如,预先划分6个情绪,实时获取用户打开上证指数后的人脸图像并且确定每位用户对上证指数的情绪,实时更新用户对上证指数表达的6种情绪的比例,也可以对6个情绪中的用户个数进行更新。
为了达到了解一段时间内用户对互联网对象的情绪变化的目的,在一种实施方式中,本步骤还可以根据情绪状态信息确定用户对互联网对象的历史情绪变化。
在确定对互联网对象的历史情绪变化时,可以以指定时间段(小时、日、周)为单位时间,为每位用户确定出一个综合的情绪,再确定出每位用户在多个单位时间内情绪的变化,最后确定出多位用户在多个单位时间内情绪的变化。比如,对于股票行情而言,以日为单位,为每位用户确定每日的综合情绪(当日高兴的情绪比例较多,就可以确定这个人当日情绪为高兴),再将这位用户一个季度的每日情绪整合在一起,最后将多位用户这个季度的每日情绪整合在一起,就可以确定出多位用户在这一个季度内,对于股票行情的情绪变化。又如,确定在一个赛季内所有关注NBA(National Basketball Association,美国职业篮球联赛)相关互联网对象的用户的情绪,就可以得到所有关注NBA的用户在整个赛季的情绪变化。
通过历史情绪变化,不仅可以了解用户的情绪,还可以进行推测,比如,可以确定出股民在一个季度中的情绪,从而推测后续的走势;又如,可以通过比赛输赢和球队球员的新闻,推测出那些球队的球迷较多,等。
在实际应用中,还可以通过用户对互联网对象表达的情绪,对互联网对象进行筛选,比如,筛选出最近一周股民情绪为高兴的股票。筛选出最近一周网友情绪为高兴的新闻,等。
本步骤是将用户对互联网对象表达的情绪进行确定,实际上也可以将其展示给用户,所以本步骤还可以包括根据情绪状态信息确定并展示用户对互联网对象表达的情绪。具体地,可以将用户对互联网对象表达的每种情绪的比例进行展示,也可以将实时更新的用户对互联网对象表达的每种情绪的比例进行展示,还可以将用户对互联网对象的历史情绪变化进行展示。采用实施例1提供的该方法,当互联网对象在被打开状态时,也就可以认为当用户浏览互联网对象时,获取用户的人脸图像,并通过人脸表情识别,确定出用户对互联网对象表达的情绪,相比于现有技术通过文字确定用户对互联网对象表达的情绪时,由于文字欺骗性较高而导致体现用户对互联网对象表达的情绪存在准确性较低的问题,本方法通过真实的人脸表情,来确定用户对互联网对象表达的情绪,提高了确定用户对互联网对象情绪表达结果的准确性。
实施例2
基于相同的发明构思,实施例2提供了一种确定用户对互联网对象表达情绪的装置,用于通过真实的人脸图像,提高了确定用户对互联网对象情绪表达结果的准确性。图2为该装置的结构框图,该装置包括:图像获取单元21、情绪第一确定单元22以及情绪第二确定单元23,其中,
图像获取单元21,可以用于当互联网对象处于被打开状态时,获取用户的人脸图像;
在实施例1中已经介绍,获取这个动作可以有两层意思,所以图像获取单元21也就可以有两个功能,第一种就可以是调用图像采集设备,实时采集用户的人脸图像,第二种就可以是获取保存在终端中的、在这之前采集到的人脸图像。
情绪第一确定单元22,可以用于对获取到的人脸图像进行表情识别,根据识别结果确定人脸图像对应的情绪状态信息;
情绪第二确定单元23,可以用于根据情绪状态信息确定用户对互联网对象表达的情绪。
在一种实施方式中,情绪第二确定单元23,可以用于:
根据情绪状态信息确定用户对互联网对象表达的每种情绪的比例。
在一种实施方式中,情绪第二确定单元23,还可以用于:
根据情绪状态信息实时更新用户对互联网对象表达的每种情绪的比例。
在一种实施方式中,情绪第二确定单元23,可以用于:
根据情绪状态信息确定用户对互联网对象的历史情绪变化。
在一种实施方式中,情绪第二确定单元23,可以用于:
根据情绪状态信息确定并展示用户对所述互联网对象的历史情绪变化。
在一种实施方式中,图像获取单元21,可以用于:
当互联网对象处于被打开状态时,按照指定时间间隔,获取用户的人脸图像;则
情绪第二确定单元23,可以用于:
根据情绪状态信息,确定用户按照指定时间间隔对互联网对象表达的情绪。
在一种实施方式中,图像获取单元21,可以用于:
当互联网对象处于被打开状态时,按照指定内容间隔,获取用户的人脸图像;则
情绪第二确定单元23,可以用于:
根据情绪状态信息,确定用户按照指定时间间隔对互联网对象表达的情绪。
在一种实施方式中,该装置可以被设置在移动终端中,则图像获取单元21,可以用于:
当互联网对象在移动终端处于被打开状态时,调用移动终端的前置摄像头获取用户的人脸图像。
采用实施例2提供的该装置,当互联网对象在被打开状态时,也就可以认为当用户浏览互联网对象时,获取用户的人脸图像,并通过人脸表情识别,确定出用户对互联网对象表达的情绪,相比于现有技术通过文字确定用户对互联网对象表达的情绪时,由于文字欺骗性较高而导致体现用户对互联网对象表达的情绪存在准确性较低的问题,本方法通过真实的人脸表情,来确定用户对互联网对象表达的情绪,提高了确定用户对互联网对象情绪表达结果的准确性。
实施例3
基于相同的发明思路,作为前述实施例的引申,本实施例提供了一种展示用户对股票表达情绪的方法。用于通过真实的人脸图像,提高展示用户对股票行情情绪表达的准确性。该方法的流程示意图如图3所示,假设执行主体是移动终端,该方法包括下述步骤:
步骤31:当某支股票被打开后,通过移动终端的前置摄像头采集用户的人脸图像。
比如当打开上证指数的分时图、日K图、周K图等所有与上证指数相关的信息时,开启移动终端的前置摄像头,采集用户的人脸图像,可以按照每隔15分钟获取一次,也可以在打开所有与上证指数相关的信息后,立刻获取用户的人脸图像。
步骤32:对采集到的人脸图像进行人脸表情识别,并确定人脸图像对应的情绪状态信息。
本步骤与实施例1中步骤12介绍的方法类似,此处不再赘述。现有技术对人类情绪进行了分类,提出6种基本情绪,本步骤就可以确定每位用户分别都是哪一种。
步骤33:根据情绪状态信息确定并展示用户对这支股票表达的每种情绪的比例。
在步骤32中已经确定出所有打开与上证指数相关的信息的用户的情绪状态信息,本步骤中,就可以确定出6种情绪分别占到的比例,比如如图4所示,在上证指数的分时图上方,展示6种情绪分别占到的比例。
步骤34:每隔5分钟,更新用户对这支股票表达的每种情绪的比例。
由于股指的波动会导致股民情绪的波动,所以就可以每隔一段时间,对6种情绪分别占到的比例进行更新,比如如图5所示,5分钟后,6种情绪分别占到的比例随着行情的变化,以及收盘的临近,股民出现了一些情绪变化。
采用实施例3提供的该方法,当一支股票以及与这支股票相关的所有信息被打开后,通过移动终端前置摄像头获取用户的人脸图像,并通过人脸表情识别,确定并展示用户对这支股票表达的每种情绪的比例,相比于现有技术通过文字展示用户对某支股票表达的情绪时,由于文字欺骗性较高而导致体现用户情绪存在准确性较低的问题,本方法通过真实的人脸表情,来确定用户对一支股票表达的情绪,提高了展示用户对股票情绪表达的准确性。
实施例4
基于相同的发明思路,本实施例又提供了一种展示一段时间内用户对理财产品的情绪波动的方法。用于通过真实的人脸图像,提高展示用户对理财产品的情绪波动的准确性。该方法的流程示意图如图6所示,假设执行主体是移动终端,该方法包括下述步骤:
步骤41:当某个理财产品以及与该理财产品相关的信息处于打开状态时,通过移动终端的前置摄像头采集用户的人脸图像。
比如当某个基金产品以及与该理财产品相关的信息处于打开状态时,开启移动终端的前置摄像头,采集用户的人脸图像,可以在用户每次打开时,均获取一次。
步骤42:对采集到的人脸图像进行人脸表情识别,并根据识别结果确定人脸图像对应的情绪状态信息。
步骤43:建立确定出的情绪状态信息与这支股票的日对应关系。
在步骤42确定出若干用户对这个理财产品的情绪状态信息后,可以以日为单位,建立若干用户在与这个理财产品的对应关系。具体地,比如用户A在2016年4月2日只看了一次基金a,并获取到了用户A的人脸图像以及确定出情绪为高兴,那么就可以以这个高兴的情绪为准,建立用户A的在2016年4月2日的高兴情绪与基金a的对应关系。如果用户B在2016年4月10日,查看了3次基金a,并获取到了用户B的人脸图像以及确定出情绪为高兴-惊讶-高兴,那么就可以确定出用户B的在2016年4月10日的综合情绪为高兴,建立用户B的在2016年4月10日的高兴情绪与理财产品a的对应关系。
步骤44:确定并展示用户对这个理财产品的历史情绪变化。
在步骤42中已经确定出所有打开与上证指数相关的信息的用户的情绪状态信息,以及在步骤43中建立了以日为单位的情绪状态信息与某个基金产品的对应关系,本步骤中,就可以根据情绪状态信息与这支股票的日对应关系,确定并展示一段时间内用户对这个理财产品的历史情绪变化,在这个过程中,对于不同用户而言,对于同一个基金的情绪都是不同的,比如,在2016年4月2日,用户A对基金a的情绪是高兴,但用户B对基金a的情绪是可能就是伤心。所以,在确定每日若干用户对基金a的情绪时,可以综合若干用户的情绪,通过预定的规则确定这一日,若干用户对基金a的情绪,比如,如果80%的用户都表现为高兴,那么在2016年4月2日,用户对基金a的情绪就是高兴。在确定出每一日用户对对基金a的情绪后,就可以确定近一个月,或近一个季度内,用户对基金a的历史情绪变化。比如如图7所示,在净值走势图上方,展示用户对基金a在近三月的历史情绪变化。
采用实施例4提供的该方法,当理财产品以及与该理财产品相关的所有信息被打开后,通过移动终端前置摄像头获取若干用户的人脸图像,并通过人脸表情识别,确定出若干用户的情绪状态信息,建立每日每个用户对该理财产品的情绪状态信息的对应关系,确定并展示用户对这个理财产品的历史情绪变化,通过真实的人脸表情,较为真实地确定用户对理财产品表达的情绪变化。
本领域内的技术人员应明白,本申请的实施例可提供为方法、***、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、***或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
以上仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (17)
1.一种确定用户对互联网对象的情绪的方法,其特征在于,包括:
当互联网对象处于被打开状态时,获取用户的人脸图像;
对获取到的人脸图像进行人脸表情识别,根据识别结果确定所述人脸图像对应的情绪状态信息;
根据所述情绪状态信息确定用户对所述互联网对象表达的情绪。
2.如权利要求1所述的方法,其特征在于,根据所述情绪状态信息确定用户对所述互联网对象表达的情绪,包括:
根据所述情绪状态信息确定用户对所述互联网对象表达的每种情绪的比例。
3.如权利要求2所述的方法,其特征在于,所述方法还包括:
根据所述情绪状态信息实时更新用户对所述互联网对象表达的每种情绪的比例。
4.如权利要求1所述的方法,其特征在于,根据所述情绪状态信息确定用户对所述互联网对象表达的情绪,包括:
根据所述情绪状态信息确定用户对所述互联网对象的历史情绪变化。
5.如权利要求1所述的方法,其特征在于,根据所述情绪状态信息确定用户对所述互联网对象表达的情绪,包括:
根据所述情绪状态信息确定并展示用户对所述互联网对象表达的情绪。
6.如权利要求1所述的方法,其特征在于,当互联网对象处于被打开状态时,获取用户的人脸图像,包括:
当互联网对象处于被打开状态时,按照指定时间间隔,获取用户的人脸图像;则
根据所述情绪状态信息确定用户对所述互联网对象表达的情绪,包括:
根据所述情绪状态信息,确定用户按照所述指定时间间隔对所述互联网对象表达的情绪。
7.如权利要求1所述的方法,其特征在于,当互联网对象处于被打开状态时,获取用户的人脸图像,包括:
当互联网对象处于被打开状态时,按照指定内容间隔,获取用户的人脸图像;则
根据所述情绪状态信息确定用户对所述互联网对象表达的情绪,包括:
根据所述情绪状态信息,确定用户按照所述指定内容间隔对所述互联网对象表达的情绪。
8.如权利要求1所述的方法,其特征在于,所述方法执行主体为移动终端,则当互联网对象处于被打开状态时,获取用户的人脸图像包括:
当互联网对象在移动终端处于被打开状态时,通过所述移动终端的前置摄像头采集用户的人脸图像。
9.如权利要求1所述的方法,其特征在于,所述互联网对象为理财产品。
10.一种确定用户对互联网对象的情绪的装置,其特征在于,包括:图像获取单元、情绪第一确定单元以及情绪第二确定单元,其中,
所述图像获取单元,用于当互联网对象处于被打开状态时,获取用户的人脸图像;
所述情绪第一确定单元,用于对获取到的人脸图像进行人脸表情识别,根据识别结果确定所述人脸图像对应的情绪状态信息;
所述情绪第二确定单元,用于根据所述情绪状态信息确定用户对所述互联网对象表达的情绪。
11.如权利要求8所述的装置,其特征在于,所述情绪第二确定单元,具体用于:
根据所述情绪状态信息确定用户对所述互联网对象表达的每种情绪的比例。
12.如权利要求9所述的装置,其特征在于,所述情绪第二确定单元,还用于:
根据所述情绪状态信息实时更新用户对所述互联网对象表达的每种情绪的比例。
13.如权利要求8所述的装置,其特征在于,所述情绪第二确定单元,具体用于:
根据所述情绪状态信息确定用户对所述互联网对象的历史情绪变化。
14.如权利要求8所述的装置,其特征在于,所述情绪第二确定单元,具体用于:
根据所述情绪状态信息确定并展示用户对所述互联网对象的历史情绪变化。
15.如权利要求8所述的装置,其特征在于,所述图像获取单元,具体用于:
当互联网对象处于被打开状态时,按照指定时间间隔,获取用户的人脸图像;则所述情绪第二确定单元,具体用于:
根据所述情绪状态信息,确定用户按照所述指定时间间隔对所述互联网对象表达的情绪。
16.如权利要求8所述的装置,其特征在于,所述图像获取单元,具体用于:
当互联网对象处于被打开状态时,按照指定内容间隔,获取用户的人脸图像;则所述情绪第二确定单元,具体用于:
根据所述情绪状态信息,确定用户按照所述指定内容间隔对所述互联网对象表达的情绪。
17.如权利要求8所述的装置,其特征在于,所述方法执行主体为移动终端,则所述图像获取单元,具体用于:
当互联网对象在移动终端处于被打开状态时,调用所述移动终端的前置摄像头采集用户的人脸图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610317976.0A CN107368495A (zh) | 2016-05-12 | 2016-05-12 | 确定用户对互联网对象的情绪的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610317976.0A CN107368495A (zh) | 2016-05-12 | 2016-05-12 | 确定用户对互联网对象的情绪的方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107368495A true CN107368495A (zh) | 2017-11-21 |
Family
ID=60304619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610317976.0A Pending CN107368495A (zh) | 2016-05-12 | 2016-05-12 | 确定用户对互联网对象的情绪的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107368495A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110580648A (zh) * | 2018-06-07 | 2019-12-17 | 上海诺亚投资管理有限公司 | 基于人工智能的金融理财信息处理方法及装置 |
CN110677685A (zh) * | 2019-09-06 | 2020-01-10 | 腾讯科技(深圳)有限公司 | 网络直播显示方法及装置 |
CN111859025A (zh) * | 2020-07-03 | 2020-10-30 | 广州华多网络科技有限公司 | 表情指令生成方法、装置、设备及存储介质 |
CN113709165A (zh) * | 2021-08-31 | 2021-11-26 | 贵州东冠科技有限公司 | 用于微表情的信息安全过滤***及方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110219042A1 (en) * | 2006-10-27 | 2011-09-08 | Samsung Electronics Co., Ltd. | Method and apparatus for generating meta data of content |
CN102523493A (zh) * | 2011-12-09 | 2012-06-27 | 深圳Tcl新技术有限公司 | 电视节目心情评分的方法及*** |
CN103164691A (zh) * | 2012-09-20 | 2013-06-19 | 深圳市金立通信设备有限公司 | 基于手机用户的情绪识别***及方法 |
CN104298682A (zh) * | 2013-07-18 | 2015-01-21 | 广州华久信息科技有限公司 | 一种基于人脸表情图像的信息推荐效果的评价方法及手机 |
-
2016
- 2016-05-12 CN CN201610317976.0A patent/CN107368495A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110219042A1 (en) * | 2006-10-27 | 2011-09-08 | Samsung Electronics Co., Ltd. | Method and apparatus for generating meta data of content |
CN102523493A (zh) * | 2011-12-09 | 2012-06-27 | 深圳Tcl新技术有限公司 | 电视节目心情评分的方法及*** |
CN103164691A (zh) * | 2012-09-20 | 2013-06-19 | 深圳市金立通信设备有限公司 | 基于手机用户的情绪识别***及方法 |
CN104298682A (zh) * | 2013-07-18 | 2015-01-21 | 广州华久信息科技有限公司 | 一种基于人脸表情图像的信息推荐效果的评价方法及手机 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110580648A (zh) * | 2018-06-07 | 2019-12-17 | 上海诺亚投资管理有限公司 | 基于人工智能的金融理财信息处理方法及装置 |
CN110677685A (zh) * | 2019-09-06 | 2020-01-10 | 腾讯科技(深圳)有限公司 | 网络直播显示方法及装置 |
CN110677685B (zh) * | 2019-09-06 | 2021-08-31 | 腾讯科技(深圳)有限公司 | 网络直播显示方法及装置 |
CN111859025A (zh) * | 2020-07-03 | 2020-10-30 | 广州华多网络科技有限公司 | 表情指令生成方法、装置、设备及存储介质 |
CN113709165A (zh) * | 2021-08-31 | 2021-11-26 | 贵州东冠科技有限公司 | 用于微表情的信息安全过滤***及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210232589A1 (en) | Ephemeral Content Digests for Assistant Systems | |
US10862836B2 (en) | Automatic response suggestions based on images received in messaging applications | |
Zadeh et al. | Multimodal language analysis in the wild: Cmu-mosei dataset and interpretable dynamic fusion graph | |
US10424290B2 (en) | Cross device companion application for phone | |
US10078909B1 (en) | Video stream customization using graphics | |
JP6529503B2 (ja) | ソーシャル・ネットワーキング・システムのユーザについての感情極性 | |
US20210157872A1 (en) | Method and system to filter out unwanted content from incoming social media data | |
US20190122093A1 (en) | Artificial intelligence system for supporting communication | |
CN110046304A (zh) | 一种用户推荐方法和装置 | |
Isson | Unstructured data analytics: how to improve customer acquisition, customer retention, and fraud detection and prevention | |
CN107239725A (zh) | 一种信息展示方法、装置及*** | |
CN108369715A (zh) | 基于视频内容特性的交互式评述 | |
CN113901320A (zh) | 场景服务推荐方法、装置、设备及存储介质 | |
CN107679082A (zh) | 问答搜索方法、装置以及电子设备 | |
CN108139918A (zh) | 以每用户为基础定制程序特征 | |
CN107368495A (zh) | 确定用户对互联网对象的情绪的方法及装置 | |
US11615485B2 (en) | System and method for predicting engagement on social media | |
CN104423945B (zh) | 一种信息处理方法及电子设备 | |
CN109614414B (zh) | 一种用户信息的确定方法及装置 | |
CN110389662A (zh) | 应用程序的内容展示方法、装置、存储介质和计算机设备 | |
PH12017000225A1 (en) | Social network data processing and profiling | |
CN115443459A (zh) | 具有内容的趋势分析的消息收发*** | |
US11501059B2 (en) | Methods and systems for auto-filling fields of electronic documents | |
CN110032685A (zh) | 馈送优化 | |
CN115129829A (zh) | 问答计算方法、服务器及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 1246886 Country of ref document: HK |
|
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171121 |
|
RJ01 | Rejection of invention patent application after publication |