CN104881642A - 一种内容推送方法、装置及设备 - Google Patents

一种内容推送方法、装置及设备 Download PDF

Info

Publication number
CN104881642A
CN104881642A CN201510267665.3A CN201510267665A CN104881642A CN 104881642 A CN104881642 A CN 104881642A CN 201510267665 A CN201510267665 A CN 201510267665A CN 104881642 A CN104881642 A CN 104881642A
Authority
CN
China
Prior art keywords
human
target body
content
target
body object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510267665.3A
Other languages
English (en)
Other versions
CN104881642B (zh
Inventor
王震
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Hisense Laser Display Co Ltd
Original Assignee
Hisense Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hisense Group Co Ltd filed Critical Hisense Group Co Ltd
Priority to CN201510267665.3A priority Critical patent/CN104881642B/zh
Publication of CN104881642A publication Critical patent/CN104881642A/zh
Application granted granted Critical
Publication of CN104881642B publication Critical patent/CN104881642B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例公开了一种内容推送方法、装置及设备,涉及显示技术领域,用以提高内容推荐的精准度。在本发明实施例中,检测连续若干个视频帧中的人体对象,并根据人体对象在连续若干个视频帧中的位置,确定出人体对象在预设时间间隔内的停留时间;在人体对象的停留时间大于预设时间阈值时,将停留时间大于预设阈值的人体对象确定为目标人体对象,并检测目标人体对象的人脸信息和人体轮廓信息;根据预设模型,对人脸信息和人体轮廓信息分别进行匹配,根据匹配结果,确定目标人体对象的属性;统计属于同一属性的目标人体对象在全部目标人体对象中所占的比例,并确定出所占比例最大的属性;显示所占比例最大的属性对应的内容;从而解决了上述问题。

Description

一种内容推送方法、装置及设备
技术领域
本发明涉及显示技术领域,尤其涉及一种内容推送方法、装置及设备。
背景技术
显示设备,也可以称为显示器、显示屏、荧幕等,是一种可输出图像或感触信息(例如为盲人设计的盲文显示器)的设备。日益发展的互联网技术为各类显示设备提供了更丰富、更智能的功能。
目前,显示设备不仅能够与网络侧进行交互,从而获取由网络侧推送的各类信息,还能够与用户进行交互,从而为用户提供更有针对性的信息。由于这种显示设备多设置于街上、商场、广场等公开场合,其面向的用户群也具有很大的不确定性。现有的显示设备上可以设置有人脸识别装置,利用人脸识别装置获取到的用户的性别、年龄等用户信息,并对用户群中的性别比例和年龄比例进行统计,根据统计结果,获取到针对比例较大的用户群的推送内容,由于该推送内容可能是比例较大的用户群最感兴趣的,因此这种方式能够较好的满足大多数用户的需求。
然而,现有的这种显示设备能够识别的人脸信息比较单一,仅能对静态的人脸进行识别;或当人脸被部分遮挡时,现有的这种显示设备便无法获取到准确的用户信息,从而影响了内容推荐的精准性。
发明内容
本发明实施例提供一种内容推送方法、装置及设备,用以提高内容推荐的精准度。
本发明实施例提供一种内容推送方法,该方法包括:
检测连续若干个视频帧中的人体对象,并根据所述人体对象在所述连续若干个视频帧中的位置,确定出所述人体对象在预设时间间隔内的停留时间;
在所述人体对象的停留时间大于预设时间阈值时,将停留时间大于所述预设阈值的人体对象确定为目标人体对象,并检测所述目标人体对象的人脸信息和人体轮廓信息;
根据预设模型,对所述人脸信息和人体轮廓信息分别进行匹配,根据匹配结果,确定所述目标人体对象的属性;
统计属于同一属性的目标人体对象在全部目标人体对象中所占的比例,并确定出所占比例最大的属性;
显示所述所占比例最大的属性对应的内容。
本发明实施例还提供一种内容推送装置,该装置包括:
检测单元,用于检测连续若干个视频帧中的人体对象,并根据所述人体对象在所述连续若干个视频帧中的位置,确定出所述人体对象在预设时间间隔内的停留时间;
目标确定单元,用于在所述人体对象的停留时间大于预设时间阈值时,将停留时间大于所述预设阈值的人体对象确定为目标人体对象,并检测所述目标人体对象的人脸信息和人体轮廓信息;
分析单元,用于根据预设模型,对所述人脸信息和人体轮廓信息分别进行匹配,根据匹配结果,确定所述目标人体对象的属性;
统计单元,用于统计属于同一属性的目标人体对象在全部目标人体对象中所占的比例,并确定出所占比例最大的属性;
推送单元,用于显示所述所占比例最大的属性对应的内容。
本发明实施例还提供一种显示设备,该设备包括:
图像传感器,用于按照预设拍摄模式,拍摄视频帧;
处理器,用于检测连续若干个视频帧中的人体对象,并根据所述人体对象在所述连续若干个视频帧中的位置,确定出所述人体对象在预设时间间隔内的停留时间;在所述人体对象的停留时间大于预设时间阈值时,将停留时间大于预设阈值的人体对象确定为目标人体对象,并检测所述目标人体对象的人脸信息和人体轮廓信息;根据预设模型,对所述人脸信息和人体轮廓信息分别进行匹配,根据匹配结果,确定所述目标人体对象的属性;统计属于同一属性的目标人体对象在全部目标人体对象中所占的比例,并确定出所占比例最大的属性;并将用于表示所述所占比例最大的属性对应的内容的图像信号发送至显示屏幕;
所述显示屏幕,用于根据由所述处理器发送的图像信号进行显示。
从上述技术方案可以看出,本发明实施例首先能够检测连续若干个视频帧中的人体对象,并根据人体对象在连续若干个视频帧中的位置,确定出人体对象在预设时间间隔内的停留时间;在人体对象的停留时间大于预设时间阈值时,将停留时间大于预设阈值的人体对象确定为目标人体对象;从而确定出了待分析的用户;然后,检测目标人体对象的人脸信息和人体轮廓信息,可见本发明实施例不仅能够检测到人脸信息(如人脸宽度、高度、五官特征、皮肤颜色、头发区域等基本特征),还能获取到人体轮廓信息(如,身高、肩宽、三围等信息),根据获取到的上述信息对用户群的性别、年龄等属性进行识别和统计,从而提高了识别的准确性,进而能够提高针对不同用户群推送内容的准确性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种显示设备的侧面示意图;
图2为本发明实施例提供的一种应用场景的示意图;
图3为本发明实施例提供的一种内容推送方法的流程示意图;
图4为本发明实施例提供的一种向指定用户群推送内容的流程示意图;
图5为本发明实施例提供的一种内容推送装置的结构示意图;
图6为本发明实施例提供的一种显示设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本发明实施例可以应用于各种显示设备中,上述显示设备可以包括但不限于设备:智能电视、电脑、电子广告牌、室外大型液晶显示屏、背投等,本发明实施例还可以较优的适用于具有各类外置或内置的图像采集装置的显示装备中,上述外置或内置的图像采集装置可以包括但不限于如下装置:彩色摄像头、红外线摄像头、3D(三维,three-dimensional)摄像头、深度摄像头等摄像或摄影装置。
本发明实施例仅以举例的方式对一种较优的应用场景进行描述。图1示出了本发明实施例提供的一种显示设备的侧面示意图,如图1所示,设置有投影背投屏幕11,在投影背投屏幕11的正面可以设置有至少一个RGB(R红色、G绿色、B蓝色)彩色摄像头12和深度摄像头13,在投影背投屏幕11的背面设置有投影仪14。其中,RGB彩色摄像头12和深度摄像头13可以用于捕获流动的人群中的目标用户群。图2示出了本发明实施例提供的一种应用场景的示意图,如图2所示,在显示屏幕21的顶端设置有图像传感器22(即图像采集装置),该图像传感器22用于捕获流动的人群中的目标用户群。
本发明实施例提供了一种面向各种显示设备的内容推送方法,图3示出了本发明实施例提供的一种内容推送方法的流程示意图,如图3所示,该流程可以包括:
步骤31:检测连续若干个视频帧中的人体对象,并根据人体对象在连续若干个视频帧中的位置,确定出人体对象在预设时间间隔内的停留时间。
步骤32:在人体对象的停留时间大于预设时间阈值时,将停留时间大于预设阈值的人体对象确定为目标人体对象,并检测目标人体对象的人脸信息和人体轮廓信息。
步骤33:根据预设模型,对人脸信息和人体轮廓信息分别进行匹配,根据匹配结果,确定目标人体对象的属性。
步骤34:统计属于同一属性的目标人体对象在全部目标人体对象中所占的比例,并确定出所占比例最大的属性。
步骤35:显示所占比例最大的属性对应的内容。
可选的,在上述步骤35之后,检测各个目标人体对象中的人脸特征变化和/或人体轮廓特征变化;根据预设特征模型,对各个目标人体对象的人脸特征变化和/或人体轮廓特征变化进行匹配,根据匹配结果,确定各个目标人体对象对当前显示的内容的是否满意,并统计满意的目标人体对象在全部目标人体对象中所占的比例,或者,统计不满意的目标人体对象在全部目标人体对象中所占的比例;当满意的目标人体对象在全部目标人体对象中所占的比例大于或等于第一预设阈值时,继续显示当前内容;当满意的目标人体对象在全部目标人体对象中所占的比例小于第一预设阈值时,按照预设规则,更换当前显示的内容;或者当不满意的目标人体对象在全部目标人体对象中所占的比例大于第二预设阈值时,按照预设规则,更换当前显示的内容;当不满意的目标人体对象在全部目标人体对象中所占的比例小于或等于第二预设阈值时,继续显示当前内容。
可选的,在上述步骤33中,获取预设人脸特征模型;根据预设人脸特征模型,对各个目标人体对象的人脸特征变化进行匹配,根据匹配结果,确定各个目标人体对象对当前显示的内容的是否满意。
可选的,在上述步骤33中,分别检测各个目标人体对象在若干个视频帧中的位置变化;根据检测到的位置变化,确定各个目标人体对象对当前显示的内容的是否满意。
可选的,在上述步骤31中,对于每一个视频帧,分别检测该视频帧中的人体轮廓,并剔除该视频帧中的背景干扰;根据连续若干个视频帧中的人体轮廓的变化情况,确定人体对象的停留时间。
下面对本发明实施例进行详细描述。
本发明实施例采用彩色摄像头与深度摄像头相结合的方式,共同对人物的性别、年龄进行检测,不但能提高检测的准确性,而且还能够避免由于图像传感器无法检测到人脸,而导致检测失败的问题。另外,本发明实施例还能够进一步检测并统计用户(也就是观众)对当前显示的内容是否满意,增加了针对于用户对推荐内容的满意度的关注,从而能够搜集到为后续推送内容提供参考的信息,进而能够为用户提供更具有针对性的推荐内容。
本发明实施例可以通过给显示设备加装图像传感器实现对流动人群的性别和年龄的检测。本发明实施例采用彩色摄像头与深度摄像头相结合的图像传感器,其中,彩色摄像头可以对人体的肤色等一些基本特征进行检测,而深度摄像头可以实现对人体的身高、三围等的检测,两种摄像头的结合可以更加准确的检测人物的年龄和性别,而且结合深度摄像头可以避免由于光照或者因为检测不到人脸而导致的检测失败的现象。
图4示出了本发明实施例提供的一种向指定用户群推送内容的流程示意图,如图4所示,该流程可以包括:
步骤41:对场景中的人体轮廓进行检测,对背景进行去除,并对检测到的人体轮廓进行跟踪,利用不同标识的矩形框住识别出来的人体轮廓。
具体实现时,参照图2,针对不同场合用户群(观众)的检测,首先,通过图像传感器22获取整个场景的图像帧(即视频帧),对于彩色摄像头获取的图像和深度摄像头获取的图像都要进行前景和背景的分割,即去除无关背景的干扰。在本发明实施例中,首先在合适的环境光下建立人体颜色信息样本(其中包括有:人体RGB信息的正样本和负样本)和人体深度信息样本(其中包括有:人体深度信息的正样本和负样本),其中人体RGB信息的正样本选取的是通过RGB摄像头采集姿势不同、衣着不同的人体在不同背景下的固定大小的图片,其中人体RGB信息的负样本选取的是不带有人体只含有不同背景的固定大小的图片,然后分别求取人体RGB正样本的HOG特征和人体RGB负样本的HOG特征(梯度方向直方图,Histogram of Oriented Gradient),最后利用SVM(支持向量机,Support Vector Machine)算法训练得出HOG特征检测模型。人体深度信息的正样本和负样本是通过深度摄像头采集姿势不同、衣着不同的人体在不同背景下的固定大小的图片,然后分别求取深度信息正样本的HOD特征和深度信息负样本的HOD特征,最后利用SVM算法训练得出HOD特征检测模型。
由于人体有大有小,需要用到多尺度的概念来解决视频窗口中不同大小的行人的检测,同时深度数据图跟距离之间存在一定的关系,因此可以理解成不同距离范围内的行人的大小尺度是不同的,本发明实施例根据样本的数据可以做到将深度数据分成若干个范围,每个范围可以对应一个标准的尺度,即每个不同大小的人物对应一个检测窗口,最后分别用SVM训练出来的RGB检测模型和深度检测模型来判断检测窗口是人体的概率。本发明实施例还会为每个被判断为人体的检测窗口标识一个ID。举例来说,继续参照图2,在确定出窗口中的对象为人体对象后,按照预设规则为每个检测窗口进行标识。
步骤42:检测不同颜色矩形框在画面中的停留时间。
获取每个人物的检测窗口后,本发明实施例可以采用Camshift(连续自适应的MeanShift(聚类)算法,Continuously Adaptive Mean-SHIFT)跟踪算法对人物检测窗口进行跟踪锁定,并用不同颜色标识检测窗口(参照图2,在本发明实施例中,可以认为窗口A、窗口B、窗口C和窗口D均被标记为不同的颜色),同时求取矩形框的质心,实时获取矩形质心在图像内的坐标,即人物运动,框选人物轮廓的矩形框也随着运动,矩形框的质心坐标实时发生变化,通过实时计算矩形框质心的坐标与图像宽、高的关系,判断矩形框的质心是否在图像范围内,如果矩形框的质心在图像范围内存在的时间超过一个时间阈值Tset,就判断矩形框内的人物停留在显示设备前方;如果矩形框的质心在图像范围内存在的时间不超过Tset,就确定矩形框内的人物没有在显示设备前方进行停留。
步骤43:判断停留时间是否超过预设时间阈值,若是,则执行步骤44;否则,跳回执行步骤41。
步骤44:对矩形框内的人物进行多人脸检测。
具体实现时,如果判断人物在显示设备前方停留,将会使用深度摄像头对人体进行骨骼检测,检测出人体的躯干与人体的头部,获取深度图像中人体头部的质心,并将头部质心的三维坐标转换为二维坐标,即人体头部在RGB摄像头获取的二维图像中的位置,然后根据深度摄像头获取人体头部的高度h'和宽度w',结合二维图像中人体头部质心的位置,可以在RGB摄像头获取的二维图像中绘制出人体头部的轮廓,本发明实施例可以根据人物头发的一般厚度设定一个高度阈值h",这里以头部轮廓中的最低点作为原点,h'-h"的高度范围内判定为人脸范围,h"高度范围内判定为人体头发所在的范围。在人体头发范围内程序将会对该区域内的像素的颜色值进行计算,即通过RGB摄像头获取人体头发的颜色,通过对人体头部进行颜色阈值分割,计算头发所在区域的面积,估算出头发的长度,头发的颜色和长度可以对人物性别和年龄的推断提供一定的依据。
步骤45:根据人脸特征推断人物的年龄段和性别。
具体实现时,获取人脸的区域后,即开始进行人脸检测。本发明实施例首先会对人脸区域内的图像进行截取并进行保存,然后与之前存储的人脸库模板进行比对,如果检测人脸区域内的图像不具备人脸的基本特征,即判断人物是背对屏幕,如果检测人脸区域内的图像具备人脸的基本特征,即判断人物是面对屏幕。如果判断人物是背对屏幕,就通过彩色摄像头对人物头发的颜色和头发的长度进行检测,简单的推断人物的性别和年龄,默认是短发为男性,长发为女性,黑发为青年,白发为老年;如果判断人物是面对屏幕,不但要通过彩色摄像头对人物头发的颜色和长度进行检测,还要对人脸特征进行检测,根据人脸的宽度特征、高度特征、眼睛、鼻子、嘴的特征推断人物的性别和年龄,其中老年人和青年人的肤色有一定的差异,老年人的皮肤上有可能还有一些斑点等特征,胡须也是年龄和性别的重要区别特征,对人物年龄和性别的检测。
步骤46:结合深度摄像头检测人体表面不同的深度数据,进一步确定人物的年龄段和性别。
具体实现时,本发明实施例还结合了深度摄像头进行检测,根据男女三围尺寸的差异,检测人物的三围,具体做法是在深度图像中绘制出人体轮廓,求取人体轮廓中每个像素点对应的深度值,根据头部和躯干的位置,大体划定胸部所在的区域,并且计算胸部所在区域内每个像素的深度值,然后通过得到的人体的厚度,估算出人体的胸围、肩宽、臀围等信息;根据成年人和儿童身高的差异,本发明实施例借助深度摄像头检测人物的身高,将彩色摄像头得到的信息与深度摄像头得到的信息进行结合,相对准确的推断出人物的性别和年龄,而且可以避免单纯依赖检测人脸造成的性别和年龄段检测失败的现象。
这样,本发明实施例不仅能够利用人脸检测技术,通过人脸特征识别出目标人体的性别、年龄等,进一步的,还可以利用增强视觉(计算机视觉)技术,获取更准确的目标人体的信息,举例来说:利用目标人体的三维信息并结合人脸特征信息确定性别、利用目标人体的身高信息并结合人脸特征信息确定年龄等;可见,本发明实施例能够根据更多样的信息识别出目标人体对象的属性,使识别出的结果更加精准,从而可以为用户提供更加精准的推送内容。
步骤47:判断每个矩形框内的人物的年龄和性别是否都已确定,若是,则执行步骤48;否则,跳回执行步骤44。
步骤48:统计人群中的年龄比例和性别比例。
具体实现时,图像检测和处理完成后,本发明实施例可以将对人群中人物的性别和年龄比例进行统计。举例来说,在本发明实施例中,年龄段大体分为老年、青年、儿童。
步骤49:根据年龄比例和性别比例所占比重推送占比较大的人群感兴趣的显示内容。
步骤410:在显示推送的内容之后,继续检测人物眼部、鼻部、嘴部特征变化。
步骤411:根据人物眼部、鼻部、嘴部特征变化,统计人物对显示内容的满意程度。
步骤412:判断人群中的满意程度是否大于或等于50%,若是,则执行步骤413;否则,执行步骤414。
需要说明的是,上述满意程度是否大于或等于50%仅作为举例说明,在实际应用中,可以根据实际情况设置该阈值。
步骤413:继续推送当前的显示内容。
步骤414:按照预设规则,更换当前显示的内容之后,跳回执行步骤410。
举例来说,如果老年男性在人群中占比较高,将会发送信号给控制单元,推送老年男性感兴趣的显示内容,此时***中的图像传感器将会对人群中每个人的脸部进行重新检测,根据人脸的眼部、鼻部、嘴部特征的变化,推测人物的表情变化,即判断观众对当前播放的内容是否满意或者感兴趣,通过检测到人脸表情变化间接获取观看者对投放内容的兴趣程度或满意程度,能够提高投放内容的针对性和准确性,也提高了投放内容设备的智能化程度。以下将具体举例,具体做法是准备人物的七种表情图片库,这七种表情分别是anger(生气)、disgust(反感)、fear(恐惧)、happy(开心)、sadness(悲伤)、surprise(惊喜),每种表情库中都储存有不同人物该种表情的大量图片,***将捕获的观众的人脸特征与表情库中的人脸表情特征进行相似度匹配,如果检测观众的表情特征与anger中表情图片匹配度高,那么说明观众对当前播放的内容不满意或者不感兴趣,每个人物的表情都按照此方法依次与七种表情中的图片进行相似度匹配,判断观众对当前播放内容是否满意。
如果观众的脸部受到遮挡,***还会借助深度摄像头检测人物在图像中的位置变化,根据常理推测,如果观众对当前播放的内容不满意或者不感兴趣,那么观众在显示屏幕前方停留的时间将大幅度的缩短,甚至会马上转身离开,所以当显示内容播放后,如果彩色摄像头没有捕捉到人脸,那么深度摄像头会在第一时间检测人物与显示屏幕之间距离的变化,同时检测人物在图像中位置的变化,如果检测人物的距离与显示屏幕的距离越来越远,那么就判断被检测人物对当前播放的内容不感兴趣或不满意。当***对人群中的每个人物检测完毕,***将统计人群中对当前播放内容不满意观众的数量,然后计算人群中满意度的占比,如果人群中满意的比例大于等于一个比例阈值P%,那么***将继续播放当前的内容,如果人群中满意的比例小于比例阈值P%,那么***将重新根据除了老年男性以外的其他年龄性别占比较高的群体进行内容推送,然后继续对人群的满意度进行检测,直到人群的满意程度比例大于等于比例阈值P%。
再举例来说,如果青年男性在人群中占比较高,将会发送信号给控制单元,推送青年男性感兴趣的显示内容,此时***中的图像传感器将会对人群中每个人的脸部进行重新检测,根据人脸的眼部、鼻部、嘴部特征的变化,推测人物的表情变化,即判断观众对当前播放的内容是否满意或者感兴趣,具体做法是准备人物的七种表情图片库,这七种表情分别是anger(生气)、disgust(反感)、fear(恐惧)、happy(开心)、sadness(悲伤)、surprise(惊喜),每种表情库中都储存有不同人物该种表情的大量图片,***将捕获的观众的人脸特征与表情库中的人脸表情特征进行相似度匹配,如果检测观众的表情特征与anger中表情图片匹配度高,那么说明观众对当前播放的内容不满意或者不感兴趣,每个人物的表情都按照此方法依次与七种表情中的图片进行相似度匹配,判断观众对当前播放内容是否满意。如果观众的脸部受到遮挡,***还会借助深度摄像头检测人物在图像中的位置变化,根据常理推测,如果观众对当前播放的内容不满意或者不感兴趣,那么观众在显示屏幕前方停留的时间将大幅度的缩短,甚至会马上转身离开,所以当显示内容播放后,如果彩色摄像头没有捕捉到人脸,那么深度摄像头会在第一时间检测人物与显示屏幕之间距离的变化,同时检测人物在图像中位置的变化,如果检测人物的距离与显示屏幕的距离越来越远,那么就判断被检测人物对当前播放的内容不感兴趣或不满意。当***对人群中的每个人物检测完毕,***将统计人群中对当前播放内容不满意观众的数量,然后计算人群中满意度的占比,如果人群中满意的比例大于等于比例阈值P%,那么***将继续播放当前的内容,如果人群中满意的比例小于比例阈值P%,那么***将重新根据除了青年男性以外的其他年龄性别占比较高的群体进行内容推送,然后继续对人群的满意度进行检测,直到人群的满意程度比例大于等于比例阈值P%。
再举例来说,如果男孩在人群中占比较高,将会发送信号给控制单元,推送男孩感兴趣的显示内容,此时***中的图像传感器将会对人群中每个人的脸部进行重新检测,根据人脸的眼部、鼻部、嘴部特征的变化,推测人物的表情变化,即判断观众对当前播放的内容是否满意或者感兴趣,具体做法是准备人物的七种表情图片库,这七种表情分别是anger(生气)、disgust(反感)、fear(恐惧)、happy(开心)、sadness(悲伤)、surprise(惊喜),每种表情库中都储存有不同人物该种表情的大量图片,***将捕获的观众的人脸特征与表情库中的人脸表情特征进行相似度匹配,如果检测观众的表情特征与anger中表情图片匹配度高,那么说明观众对当前播放的内容不满意或者不感兴趣,每个人物的表情都按照此方法依次与七种表情中的图片进行相似度匹配,判断观众对当前播放内容是否满意。如果观众的脸部受到遮挡,***还会借助深度摄像头检测人物在图像中的位置变化,根据常理推测,如果观众对当前播放的内容不满意或者不感兴趣,那么观众在显示屏幕前方停留的时间将大幅度的缩短,甚至会马上转身离开,所以当显示内容播放后,如果彩色摄像头没有捕捉到人脸,那么深度摄像头会在第一时间检测人物与显示屏幕之间距离的变化,同时检测人物在图像中位置的变化,如果检测人物的距离与显示屏幕的距离越来越远,那么就判断被检测人物对当前播放的内容不感兴趣或不满意。当***对人群中的每个人物检测完毕,***将统计人群中对当前播放内容不满意观众的数量,然后计算人群中满意度的占比,如果人群中满意的比例大于等于比例阈值P%,那么***将继续播放当前的内容,如果人群中满意的比例小于比例阈值P%,那么***将重新根据除了男孩以外的其他年龄性别占比较高的群体进行内容推送,然后继续对人群的满意度进行检测,直到人群的满意程度比例大于等于比例阈值P%。
再举例来说,如果老年女性在人群中占比较高,将会发送信号给控制单元,推送老年女性感兴趣的显示内容,此时***中的图像传感器将会对人群中每个人的脸部进行重新检测,根据人脸的眼部、鼻部、嘴部特征的变化,推测人物的表情变化,即判断观众对当前播放的内容是否满意或者感兴趣,具体做法是准备人物的七种表情图片库,这七种表情分别是anger(生气)、disgust(反感)、fear(恐惧)、happy(开心)、sadness(悲伤)、surprise(惊喜),每种表情库中都储存有不同人物该种表情的大量图片,***将捕获的观众的人脸特征与表情库中的人脸表情特征进行相似度匹配,如果检测观众的表情特征与anger中表情图片匹配度高,那么说明观众对当前播放的内容不满意或者不感兴趣,每个人物的表情都按照此方法依次与七种表情中的图片进行相似度匹配,判断观众对当前播放内容是否满意。如果观众的脸部受到遮挡,***还会借助深度摄像头检测人物在图像中的位置变化,根据常理推测,如果观众对当前播放的内容不满意或者不感兴趣,那么观众在显示屏幕前方停留的时间将大幅度的缩短,甚至会马上转身离开,所以当显示内容播放后,如果彩色摄像头没有捕捉到人脸,那么深度摄像头会在第一时间检测人物与显示屏幕之间距离的变化,同时检测人物在图像中位置的变化,如果检测人物的距离与显示屏幕的距离越来越远,那么就判断被检测人物对当前播放的内容不感兴趣或不满意。当***对人群中的每个人物检测完毕,***将统计人群中对当前播放内容不满意观众的数量,然后计算人群中满意度的占比,如果人群中满意的比例大于等于比例阈值P%,那么***将继续播放当前的内容,如果人群中满意的比例小于比例阈值P%,那么***将重新根据除了老年女性以外的其他年龄性别占比较高的群体进行内容推送,然后继续对人群的满意度进行检测,直到人群的满意程度比例大于等于比例阈值P%。
再举例来说,如果青年女性在人群中占比较高,将会发送信号给控制单元,推送青年女性感兴趣的显示内容,此时***中的图像传感器将会对人群中每个人的脸部进行重新检测,根据人脸的眼部、鼻部、嘴部特征的变化,推测人物的表情变化,即判断观众对当前播放的内容是否满意或者感兴趣,具体做法是准备人物的七种表情图片库,这七种表情分别是anger(生气)、disgust(反感)、fear(恐惧)、happy(开心)、sadness(悲伤)、surprise(惊喜),每种表情库中都储存有不同人物该种表情的大量图片,***将捕获的观众的人脸特征与表情库中的人脸表情特征进行相似度匹配,如果检测观众的表情特征与anger中表情图片匹配度高,那么说明观众对当前播放的内容不满意或者不感兴趣,每个人物的表情都按照此方法依次与七种表情中的图片进行相似度匹配,判断观众对当前播放内容是否满意。如果观众的脸部受到遮挡,***还会借助深度摄像头检测人物在图像中的位置变化,根据常理推测,如果观众对当前播放的内容不满意或者不感兴趣,那么观众在显示屏幕前方停留的时间将大幅度的缩短,甚至会马上转身离开,所以当显示内容播放后,如果彩色摄像头没有捕捉到人脸,那么深度摄像头会在第一时间检测人物与显示屏幕之间距离的变化,同时检测人物在图像中位置的变化,如果检测人物的距离与显示屏幕的距离越来越远,那么就判断被检测人物对当前播放的内容不感兴趣或不满意。当***对人群中的每个人物检测完毕,***将统计人群中对当前播放内容不满意观众的数量,然后计算人群中满意度的占比,如果人群中满意的比例大于等于比例阈值P%。那么***将继续播放当前的内容,如果人群中满意的比例小于比例阈值P%,那么***将重新根据除了青年女性以外的其他年龄性别占比较高的群体进行内容推送,然后继续对人群的满意度进行检测,直到人群的满意程度比例大于等于比例阈值P%。
再举例来说,如果女孩在人群中占比较高,将会发送信号给控制单元,推送女孩感兴趣的显示内容,此时***中的图像传感器将会对人群中每个人的脸部进行重新检测,根据人脸的眼部、鼻部、嘴部特征的变化,推测人物的表情变化,即判断观众对当前播放的内容是否满意或者感兴趣,具体做法是准备人物的七种表情图片库,这七种表情分别是anger(生气)、disgust(反感)、fear(恐惧)、happy(开心)、sadness(悲伤)、surprise(惊喜),每种表情库中都储存有不同人物该种表情的大量图片,***将捕获的观众的人脸特征与表情库中的人脸表情特征进行相似度匹配,如果检测观众的表情特征与anger中表情图片匹配度高,那么说明观众对当前播放的内容不满意或者不感兴趣,每个人物的表情都按照此方法依次与七种表情中的图片进行相似度匹配,判断观众对当前播放内容是否满意。如果观众的脸部受到遮挡,***还会借助深度摄像头检测人物在图像中的位置变化,根据常理推测,如果观众对当前播放的内容不满意或者不感兴趣,那么观众在显示屏幕前方停留的时间将大幅度的缩短,甚至会马上转身离开,所以当显示内容播放后,如果彩色摄像头没有捕捉到人脸,那么深度摄像头会在第一时间检测人物与显示屏幕之间距离的变化,同时检测人物在图像中位置的变化,如果检测人物的距离与显示屏幕的距离越来越远,那么就判断被检测人物对当前播放的内容不感兴趣或不满意。当***对人群中的每个人物检测完毕,***将统计人群中对当前播放内容不满意观众的数量,然后计算人群中满意度的占比,如果人群中满意的比例大于等于比例阈值P%,那么***将继续播放当前的内容,如果人群中满意的比例小于比例阈值P%,那么***将重新根据除了女孩以外的其他年龄性别占比较高的群体进行内容推送,然后继续对人群的满意度进行检测,直到人群的满意程度比例大于等于比例阈值P%。
可见,本发明实施例首先能够检测连续若干个视频帧中的人体对象,并根据人体对象在连续若干个视频帧中的位置,确定出人体对象在预设时间间隔内的停留时间;在人体对象的停留时间大于预设时间阈值时,将停留时间大于预设阈值的人体对象确定为目标人体对象;从而确定出了待分析的用户;然后,检测目标人体对象的人脸信息和人体轮廓信息,可见本发明实施例不仅能够检测到人脸信息(如人脸宽度、高度、五官特征、皮肤颜色、头发区域等基本特征),还能获取到人体轮廓信息(如,身高、肩宽、三围等信息),根据获取到的上述信息对用户群的性别、年龄等属性进行识别和统计,从而提高了识别的准确性,进而能够提高针对不同用户群推送内容的准确性。进一步的,本发明实施例在保证了推荐内容的精准度的基础上,还增加了一种检测用户满意度的方案,能够通过检测人脸特征变化和/或人体轮廓特征变化的方式,判断出每个目标人体对当前显示的内容的满意程度,进而根据大部分用户的满意程度判断是否需要更换当前显示的内容,改变了仅由网络侧单方面决定推送内容的类别的传统方式,这样,本发明实施例提供了一种双向的推送模式,不仅能够由网络侧服务器根据最新的内容向用户推送,还能够获取用户对当前显示内容的反馈,进而实现了一种交互度更高的推送模式,使推送内容更具有针对性,也能使推送方式更加智能化,从而提高了用户体验。
需要说明的是,本发明实施例仅以上述具体实施方式进行举例说明,本发明实施例提供的方法、装置及设备可以根据各类人体特征(不限于肤色、身高、头发颜色、头发区域、三围信息等基本特征),本发明实施例甚至还可以配合虹膜检测装置、3D拍摄装置等其他计算机视觉装置,进一步提高推送内容的精准性和针对性,这里不再赘述。
还需要说明的是,本发明实施例尤其适用于公共场合下,比如投影显示广告屏、置于广场的大型背投设备和液晶屏幕等等,这里不再一一举例说明。
基于相同的技术构思,本发明实施例还提供一种内容推送装置,图5示出了本发明实施例提供的一种内容推送装置的结构示意图,如图5所示,该装置包括:
检测单元51,用于检测连续若干个视频帧中的人体对象,并根据所述人体对象在所述连续若干个视频帧中的位置,确定出所述人体对象在预设时间间隔内的停留时间;
目标确定单元52,用于在所述人体对象的停留时间大于预设时间阈值时,将停留时间大于预设阈值的人体对象确定为目标人体对象,并检测所述目标人体对象的人脸信息和人体轮廓信息;
分析单元53,用于根据预设模型,对所述人脸信息和人体轮廓信息分别进行匹配,根据匹配结果,确定所述目标人体对象的属性;
统计单元54,用于统计属于同一属性的目标人体对象在全部目标人体对象中所占的比例,并确定出所占比例最大的属性;
推送单元55,用于显示所述所占比例最大的属性对应的内容。
可选的,所述目标确定单元52还用于:
在所述推送单元55显示所述所占比例最大的属性对应的内容之后,检测各个目标人体对象中的人脸特征变化和/或人体轮廓特征变化;
所述分析单元53还用于:根据预设特征模型,对所述各个目标人体对象的人脸特征变化和/或人体轮廓特征变化进行匹配,根据匹配结果,确定各个目标人体对象对当前显示的内容的是否满意,并统计满意的目标人体对象在全部目标人体对象中所占的比例,或者,统计不满意的目标人体对象在全部目标人体对象中所占的比例;
所述推送单元55还用于:当所述满意的目标人体对象在全部目标人体对象中所占的比例大于或等于第一预设阈值时,继续显示当前内容;当所述满意的目标人体对象在全部目标人体对象中所占的比例小于所述第一预设阈值时,按照预设规则,更换当前显示的内容;或者当所述不满意的目标人体对象在全部目标人体对象中所占的比例大于第二预设阈值时,按照预设规则,更换当前显示的内容;当所述不满意的目标人体对象在全部目标人体对象中所占的比例小于或等于所述第二预设阈值时,继续显示当前内容。
可选的,所述分析单元53具体用于:获取预设人脸特征模型;根据所述预设人脸特征模型,对所述各个目标人体对象的人脸特征变化进行匹配,根据匹配结果,确定各个目标人体对象对当前显示的内容的是否满意。
可选的,所述分析单元53具体用于:分别检测所述各个目标人体对象在若干个视频帧中的位置变化;根据检测到的位置变化,确定各个目标人体对象对当前显示的内容的是否满意。
可选的,所述检测单元51具体用于:对于每一个视频帧,分别检测该视频帧中的人体轮廓,并剔除该视频帧中的背景干扰;根据连续若干个视频帧中的人体轮廓的变化情况,确定所述人体对象的停留时间。
基于相同的技术构思,本发明实施例还提供一种显示设备,图6示出了本发明实施例提供的一种显示设备的结构示意图,如图6所示,该设备包括:
图像传感器61,用于按照预设拍摄模式,拍摄视频帧;
处理器62,用于检测连续若干个视频帧中的人体对象,并根据所述人体对象在所述连续若干个视频帧中的位置,确定出所述人体对象在预设时间间隔内的停留时间;在所述人体对象的停留时间大于预设时间阈值时,将停留时间大于预设阈值的人体对象确定为目标人体对象,并检测所述目标人体对象的人脸信息和人体轮廓信息;根据预设模型,对所述人脸信息和人体轮廓信息分别进行匹配,根据匹配结果,确定所述目标人体对象的属性;统计属于同一属性的目标人体对象在全部目标人体对象中所占的比例,并确定出所占比例最大的属性;并将用于表示所述所占比例最大的属性对应的内容的图像信号发送至显示屏幕63;
所述显示屏幕63,用于根据由所述处理器62发送的图像信号进行显示。
可选的,所述处理器62还用于:在所述显示屏幕63显示所述所占比例最大的属性对应的内容之后,检测各个目标人体对象中的人脸特征变化和/或人体轮廓特征变化;根据预设特征模型,对所述各个目标人体对象的人脸特征变化和/或人体轮廓特征变化进行匹配,根据匹配结果,确定各个目标人体对象对当前显示的内容的是否满意,并统计满意的目标人体对象在全部目标人体对象中所占的比例,或者,统计不满意的目标人体对象在全部目标人体对象中所占的比例;当所述满意的目标人体对象在全部目标人体对象中所占的比例大于或等于第一预设阈值时,继续显示当前内容;当所述满意的目标人体对象在全部目标人体对象中所占的比例小于所述第一预设阈值时,按照预设规则,更换当前显示的内容;或者当所述不满意的目标人体对象在全部目标人体对象中所占的比例大于第二预设阈值时,按照预设规则,更换当前显示的内容;当所述不满意的目标人体对象在全部目标人体对象中所占的比例小于或等于所述第二预设阈值时,继续显示当前内容。
可选的,所述处理器62具体用于:获取预设人脸特征模型;
根据所述预设人脸特征模型,对所述各个目标人体对象的人脸特征变化进行匹配,根据匹配结果,确定各个目标人体对象对当前显示的内容的是否满意。
可选的,所述处理器62具体用于:分别检测所述各个目标人体对象在若干个视频帧中的位置变化;根据检测到的位置变化,确定各个目标人体对象对当前显示的内容的是否满意。
可选的,所述处理器62具体用于:对于每一个视频帧,分别检测该视频帧中的人体轮廓,并剔除该视频帧中的背景干扰;
根据连续若干个视频帧中的人体轮廓的位置变化情况,确定出所述人体对象在预设时间间隔内的停留时间。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器,使得通过该计算机或其他可编程数据处理设备的处理器执行的指令可实现流程图中的一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图的一个流程或多个流程和/或方框图的一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (11)

1.一种内容推送方法,其特征在于,该方法包括:
检测连续若干个视频帧中的人体对象,并根据所述人体对象在所述连续若干个视频帧中的位置,确定出所述人体对象在预设时间间隔内的停留时间;
在所述人体对象的停留时间大于预设时间阈值时,将停留时间大于所述预设阈值的人体对象确定为目标人体对象,并检测所述目标人体对象的人脸信息和人体轮廓信息;
根据预设模型,对所述人脸信息和人体轮廓信息分别进行匹配,根据匹配结果,确定所述目标人体对象的属性;
统计属于同一属性的目标人体对象在全部目标人体对象中所占的比例,并确定出所占比例最大的属性;
显示所述所占比例最大的属性对应的内容。
2.如权利要求1所述的方法,其特征在于,在显示所述所占比例最大的属性对应的内容之后,该方法还包括:
检测各个目标人体对象中的人脸特征变化和/或人体轮廓特征变化;
根据预设特征模型,对所述各个目标人体对象的人脸特征变化和/或人体轮廓特征变化进行匹配,根据匹配结果,确定各个目标人体对象对当前显示的内容的是否满意,并统计满意的目标人体对象在全部目标人体对象中所占的比例,或者,统计不满意的目标人体对象在全部目标人体对象中所占的比例;
当所述满意的目标人体对象在全部目标人体对象中所占的比例大于或等于第一预设阈值时,继续显示当前内容;当所述满意的目标人体对象在全部目标人体对象中所占的比例小于所述第一预设阈值时,按照预设规则,更换当前显示的内容;或者
当所述不满意的目标人体对象在全部目标人体对象中所占的比例大于第二预设阈值时,按照预设规则,更换当前显示的内容;当所述不满意的目标人体对象在全部目标人体对象中所占的比例小于或等于所述第二预设阈值时,继续显示当前内容。
3.如权利要求2所述的方法,其特征在于,所述根据预设特征模型,对所述各个目标人体对象的人脸特征变化进行匹配,根据匹配结果,确定各个目标人体对象对当前显示的内容的是否满意,具体为:
获取预设人脸特征模型;
根据所述预设人脸特征模型,对所述各个目标人体对象的人脸特征变化进行匹配,根据匹配结果,确定各个目标人体对象对当前显示的内容的是否满意。
4.如权利要求2所述的方法,其特征在于,所述对所述各个目标人体对象的人体轮廓特征变化进行匹配,根据匹配结果,确定各个目标人体对象对当前显示的内容的是否满意,具体为:
分别检测所述各个目标人体对象在若干个视频帧中的位置变化;根据检测到的位置变化,确定各个目标人体对象对当前显示的内容的是否满意。
5.如权利要求1-4中任一项所述的方法,其特征在于,所述检测连续若干个视频帧中的人体对象,并根据所述人体对象在所述连续若干个视频帧中的位置,确定出所述人体对象在预设时间间隔内的停留时间;具体为:
对于每一个视频帧,分别检测该视频帧中的人体轮廓,并剔除该视频帧中的背景干扰;
根据连续若干个视频帧中的人体轮廓的位置变化情况,确定出所述人体对象在预设时间间隔内的停留时间。
6.一种内容推送装置,其特征在于,该装置包括:
检测单元,用于检测连续若干个视频帧中的人体对象,并根据所述人体对象在所述连续若干个视频帧中的位置,确定出所述人体对象在预设时间间隔内的停留时间;
目标确定单元,用于在所述人体对象的停留时间大于预设时间阈值时,将停留时间大于所述预设阈值的人体对象确定为目标人体对象,并检测所述目标人体对象的人脸信息和人体轮廓信息;
分析单元,用于根据预设模型,对所述人脸信息和人体轮廓信息分别进行匹配,根据匹配结果,确定所述目标人体对象的属性;
统计单元,用于统计属于同一属性的目标人体对象在全部目标人体对象中所占的比例,并确定出所占比例最大的属性;
推送单元,用于显示所述所占比例最大的属性对应的内容。
7.如权利要求6所述的装置,其特征在于,所述目标确定单元还用于:
在所述推送单元显示所述所占比例最大的属性对应的内容之后,检测各个目标人体对象中的人脸特征变化和/或人体轮廓特征变化;
所述分析单元还用于:根据预设特征模型,对所述各个目标人体对象的人脸特征变化和/或人体轮廓特征变化进行匹配,根据匹配结果,确定各个目标人体对象对当前显示的内容的是否满意,并统计满意的目标人体对象在全部目标人体对象中所占的比例,或者,统计不满意的目标人体对象在全部目标人体对象中所占的比例;
所述推送单元还用于:当所述满意的目标人体对象在全部目标人体对象中所占的比例大于或等于第一预设阈值时,继续显示当前内容;当所述满意的目标人体对象在全部目标人体对象中所占的比例小于所述第一预设阈值时,按照预设规则,更换当前显示的内容;或者当所述不满意的目标人体对象在全部目标人体对象中所占的比例大于第二预设阈值时,按照预设规则,更换当前显示的内容;当所述不满意的目标人体对象在全部目标人体对象中所占的比例小于或等于所述第二预设阈值时,继续显示当前内容。
8.如权利要求7所述的装置,其特征在于,所述分析单元具体用于:
获取预设人脸特征模型;
根据所述预设人脸特征模型,对所述各个目标人体对象的人脸特征变化进行匹配,根据匹配结果,确定各个目标人体对象对当前显示的内容的是否满意。
9.如权利要求7所述的装置,其特征在于,所述分析单元具体用于:
分别检测所述各个目标人体对象在若干个视频帧中的位置变化;根据检测到的位置变化,确定各个目标人体对象对当前显示的内容的是否满意。
10.如权利要求6-9中任一项所述的装置,其特征在于,所述检测单元具体用于:
对于每一个视频帧,分别检测该视频帧中的人体轮廓,并剔除该视频帧中的背景干扰;
根据连续若干个视频帧中的人体轮廓的位置变化情况,确定出所述人体对象在预设时间间隔内的停留时间。
11.一种显示设备,其特征在于,该设备包括:
图像传感器,用于按照预设拍摄模式,拍摄视频帧;
处理器,用于检测连续若干个视频帧中的人体对象,并根据所述人体对象在所述连续若干个视频帧中的位置,确定出所述人体对象在预设时间间隔内的停留时间;在所述人体对象的停留时间大于预设时间阈值时,将停留时间大于预设阈值的人体对象确定为目标人体对象,并检测所述目标人体对象的人脸信息和人体轮廓信息;根据预设模型,对所述人脸信息和人体轮廓信息分别进行匹配,根据匹配结果,确定所述目标人体对象的属性;统计属于同一属性的目标人体对象在全部目标人体对象中所占的比例,并确定出所占比例最大的属性;并将用于表示所述所占比例最大的属性对应的内容的图像信号发送至显示屏幕;
所述显示屏幕,用于根据由所述处理器发送的图像信号进行显示。
CN201510267665.3A 2015-05-22 2015-05-22 一种内容推送方法、装置及设备 Active CN104881642B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510267665.3A CN104881642B (zh) 2015-05-22 2015-05-22 一种内容推送方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510267665.3A CN104881642B (zh) 2015-05-22 2015-05-22 一种内容推送方法、装置及设备

Publications (2)

Publication Number Publication Date
CN104881642A true CN104881642A (zh) 2015-09-02
CN104881642B CN104881642B (zh) 2018-10-26

Family

ID=53949130

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510267665.3A Active CN104881642B (zh) 2015-05-22 2015-05-22 一种内容推送方法、装置及设备

Country Status (1)

Country Link
CN (1) CN104881642B (zh)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106412007A (zh) * 2016-08-26 2017-02-15 珠海格力电器股份有限公司 智能终端的消息推送方法和装置
CN106507145A (zh) * 2016-11-08 2017-03-15 天脉聚源(北京)传媒科技有限公司 一种基于人物特征的直播切换方法及***
CN106504283A (zh) * 2016-09-26 2017-03-15 深圳奥比中光科技有限公司 信息播放方法、装置及***
CN106529399A (zh) * 2016-09-26 2017-03-22 深圳奥比中光科技有限公司 人体信息采集方法、装置及***
CN106529400A (zh) * 2016-09-26 2017-03-22 深圳奥比中光科技有限公司 移动终端及其人体监测方法、装置
WO2017049918A1 (zh) * 2015-09-25 2017-03-30 杭州海康威视数字技术股份有限公司 信息发布终端和方法
CN106557937A (zh) * 2015-09-24 2017-04-05 杭州海康威视数字技术股份有限公司 广告推送方法和装置
CN106776619A (zh) * 2015-11-20 2017-05-31 百度在线网络技术(北京)有限公司 用于确定目标对象的属性信息的方法和装置
CN107016321A (zh) * 2016-01-28 2017-08-04 青岛海尔智能技术研发有限公司 商用柜人员流量检测统计方法
CN107463608A (zh) * 2017-06-20 2017-12-12 上海汇尔通信息技术有限公司 一种基于人脸识别的信息推送方法及***
CN107483636A (zh) * 2017-09-22 2017-12-15 百度在线网络技术(北京)有限公司 用于推送信息的方法和装置
CN107807999A (zh) * 2017-11-07 2018-03-16 杭州盟山网络科技有限公司 基于摄像头的信息推送方法及装置
CN107862241A (zh) * 2017-06-06 2018-03-30 哈尔滨工业大学深圳研究生院 一种基于明星识别的衣服时尚挖掘方法及视觉感知***
CN107993599A (zh) * 2017-12-29 2018-05-04 黄睿 一种服装推荐方法及广告机
CN108197971A (zh) * 2017-12-08 2018-06-22 北京天正聚合科技有限公司 信息采集方法、信息处理方法、装置及***
CN108230033A (zh) * 2018-01-04 2018-06-29 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置
CN109146605A (zh) * 2018-07-06 2019-01-04 深圳市科脉技术股份有限公司 信息推送方法及相关产品
CN109345953A (zh) * 2018-08-28 2019-02-15 信利光电股份有限公司 基于广告机的广告推送方法及***、存储介质和移动终端
CN109753264A (zh) * 2017-11-08 2019-05-14 阿里巴巴集团控股有限公司 一种任务处理方法和设备
CN111078014A (zh) * 2019-12-16 2020-04-28 深圳数拓科技有限公司 一种多维数据采集应用方法及***
CN111246296A (zh) * 2020-01-17 2020-06-05 北京市商汤科技开发有限公司 数据推送方法、装置、电子设备和计算机存储介质
CN111291264A (zh) * 2020-01-23 2020-06-16 腾讯科技(深圳)有限公司 基于机器学习的访问对象预测方法、装置和计算机设备
WO2020207413A1 (zh) * 2019-04-09 2020-10-15 华为技术有限公司 一种内容推送方法、装置与设备
CN113421130A (zh) * 2021-07-20 2021-09-21 重庆京东方智慧科技有限公司 一种广告推送方法和装置、电子设备和可读存储介质
CN114157905A (zh) * 2021-11-22 2022-03-08 深圳康佳电子科技有限公司 基于图像识别的电视声音调节方法、装置、电视机
CN116957680A (zh) * 2023-08-03 2023-10-27 深圳花旦传媒有限公司 一种广告投放效果监控***
WO2024108606A1 (zh) * 2022-11-26 2024-05-30 广州视源电子科技股份有限公司 人物身份识别方法、***、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103514242A (zh) * 2012-12-19 2014-01-15 Tcl集团股份有限公司 一种电子广告牌的智能交互方法及***
CN103634680A (zh) * 2013-11-27 2014-03-12 青岛海信电器股份有限公司 一种智能电视的播放控制方法及装置
CN103794159A (zh) * 2012-10-30 2014-05-14 中国电信股份有限公司 多媒体广告的播放方法、装置与***
CN104112209A (zh) * 2013-04-16 2014-10-22 苏州和积信息科技有限公司 显示终端的受众统计方法和***
CN104573619A (zh) * 2014-07-25 2015-04-29 北京智膜科技有限公司 基于人脸识别的智能广告大数据分析方法及***

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103794159A (zh) * 2012-10-30 2014-05-14 中国电信股份有限公司 多媒体广告的播放方法、装置与***
CN103514242A (zh) * 2012-12-19 2014-01-15 Tcl集团股份有限公司 一种电子广告牌的智能交互方法及***
CN104112209A (zh) * 2013-04-16 2014-10-22 苏州和积信息科技有限公司 显示终端的受众统计方法和***
CN103634680A (zh) * 2013-11-27 2014-03-12 青岛海信电器股份有限公司 一种智能电视的播放控制方法及装置
CN104573619A (zh) * 2014-07-25 2015-04-29 北京智膜科技有限公司 基于人脸识别的智能广告大数据分析方法及***

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106557937A (zh) * 2015-09-24 2017-04-05 杭州海康威视数字技术股份有限公司 广告推送方法和装置
CN106557937B (zh) * 2015-09-24 2020-02-18 杭州海康威视数字技术股份有限公司 广告推送方法和装置
CN106557940B (zh) * 2015-09-25 2019-09-17 杭州海康威视数字技术股份有限公司 信息发布终端和方法
CN106557940A (zh) * 2015-09-25 2017-04-05 杭州海康威视数字技术股份有限公司 信息发布终端和方法
WO2017049918A1 (zh) * 2015-09-25 2017-03-30 杭州海康威视数字技术股份有限公司 信息发布终端和方法
CN106776619A (zh) * 2015-11-20 2017-05-31 百度在线网络技术(北京)有限公司 用于确定目标对象的属性信息的方法和装置
CN107016321A (zh) * 2016-01-28 2017-08-04 青岛海尔智能技术研发有限公司 商用柜人员流量检测统计方法
CN106412007A (zh) * 2016-08-26 2017-02-15 珠海格力电器股份有限公司 智能终端的消息推送方法和装置
CN106529400A (zh) * 2016-09-26 2017-03-22 深圳奥比中光科技有限公司 移动终端及其人体监测方法、装置
CN106529399A (zh) * 2016-09-26 2017-03-22 深圳奥比中光科技有限公司 人体信息采集方法、装置及***
CN106504283A (zh) * 2016-09-26 2017-03-15 深圳奥比中光科技有限公司 信息播放方法、装置及***
CN106507145A (zh) * 2016-11-08 2017-03-15 天脉聚源(北京)传媒科技有限公司 一种基于人物特征的直播切换方法及***
CN107862241B (zh) * 2017-06-06 2021-07-20 哈尔滨工业大学深圳研究生院 一种基于明星识别的衣服时尚挖掘方法及视觉感知***
CN107862241A (zh) * 2017-06-06 2018-03-30 哈尔滨工业大学深圳研究生院 一种基于明星识别的衣服时尚挖掘方法及视觉感知***
CN107463608A (zh) * 2017-06-20 2017-12-12 上海汇尔通信息技术有限公司 一种基于人脸识别的信息推送方法及***
CN107483636A (zh) * 2017-09-22 2017-12-15 百度在线网络技术(北京)有限公司 用于推送信息的方法和装置
CN107807999A (zh) * 2017-11-07 2018-03-16 杭州盟山网络科技有限公司 基于摄像头的信息推送方法及装置
CN109753264A (zh) * 2017-11-08 2019-05-14 阿里巴巴集团控股有限公司 一种任务处理方法和设备
CN108197971A (zh) * 2017-12-08 2018-06-22 北京天正聚合科技有限公司 信息采集方法、信息处理方法、装置及***
CN107993599A (zh) * 2017-12-29 2018-05-04 黄睿 一种服装推荐方法及广告机
CN108230033A (zh) * 2018-01-04 2018-06-29 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置
CN109146605A (zh) * 2018-07-06 2019-01-04 深圳市科脉技术股份有限公司 信息推送方法及相关产品
CN109345953A (zh) * 2018-08-28 2019-02-15 信利光电股份有限公司 基于广告机的广告推送方法及***、存储介质和移动终端
US11809479B2 (en) 2019-04-09 2023-11-07 Huawei Technologies Co., Ltd. Content push method and apparatus, and device
WO2020207413A1 (zh) * 2019-04-09 2020-10-15 华为技术有限公司 一种内容推送方法、装置与设备
CN111797249A (zh) * 2019-04-09 2020-10-20 华为技术有限公司 一种内容推送方法、装置与设备
CN111078014A (zh) * 2019-12-16 2020-04-28 深圳数拓科技有限公司 一种多维数据采集应用方法及***
CN111078014B (zh) * 2019-12-16 2023-11-24 深圳数拓科技有限公司 一种多维数据采集应用方法及***
CN111246296A (zh) * 2020-01-17 2020-06-05 北京市商汤科技开发有限公司 数据推送方法、装置、电子设备和计算机存储介质
CN111291264A (zh) * 2020-01-23 2020-06-16 腾讯科技(深圳)有限公司 基于机器学习的访问对象预测方法、装置和计算机设备
CN113421130A (zh) * 2021-07-20 2021-09-21 重庆京东方智慧科技有限公司 一种广告推送方法和装置、电子设备和可读存储介质
CN114157905A (zh) * 2021-11-22 2022-03-08 深圳康佳电子科技有限公司 基于图像识别的电视声音调节方法、装置、电视机
CN114157905B (zh) * 2021-11-22 2023-12-05 深圳康佳电子科技有限公司 基于图像识别的电视声音调节方法、装置、电视机
WO2024108606A1 (zh) * 2022-11-26 2024-05-30 广州视源电子科技股份有限公司 人物身份识别方法、***、设备及存储介质
CN116957680A (zh) * 2023-08-03 2023-10-27 深圳花旦传媒有限公司 一种广告投放效果监控***

Also Published As

Publication number Publication date
CN104881642B (zh) 2018-10-26

Similar Documents

Publication Publication Date Title
CN104881642A (zh) 一种内容推送方法、装置及设备
US7529388B2 (en) Methods for automatically tracking moving entities entering and exiting a specified region
CN103310444B (zh) 一种基于头顶摄像头的监控行人计数的方法
US20150243031A1 (en) Method and device for determining at least one object feature of an object comprised in an image
CN107679503A (zh) 一种基于深度学习的人群计数算法
CN109345568A (zh) 基于计算机视觉算法的运动场智能化实现方法及***
CN107481067B (zh) 一种智能广告***及其交互方法
CN107707839A (zh) 图像处理方法及装置
CN109086724A (zh) 一种加速的人脸检测方法及存储介质
CN102156985A (zh) 基于虚拟卡口的行人及车辆数目计数方法
CN106530328B (zh) 一种基于视频图像对运动目标检测和平滑跟随的方法
CN102609724B (zh) 一种基于双摄像头的周围环境信息提示方法
CN103971103A (zh) 一种人数统计***
CN107507269A (zh) 个性化三维模型生成方法、装置和终端设备
CN104182970A (zh) 一种基于摄影构图规则的留念照人像站位推荐方法
CN110032932A (zh) 一种基于视频处理和决策树设定阈值的人体姿态识别方法
CN106327525A (zh) 一种机房重地越界行为实时监测方法
CN106570885A (zh) 基于亮度和纹理融合阈值的背景建模方法
CN112926464A (zh) 一种人脸活体检测方法以及装置
JP6080572B2 (ja) 通行物体検出装置
Karbasi et al. Real-time hands detection in depth image by using distance with Kinect camera
CN105938603A (zh) 一种基于机器视觉的人员感兴趣程度检测***及方法
JP7099809B2 (ja) 画像監視システム
CN106360941A (zh) 一种指甲定位方法及美甲设备
Rother et al. What can casual walkers tell us about a 3D scene?

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20200818

Address after: 266000, No. 218, Bay Road, Qingdao economic and Technological Development Zone, Shandong

Patentee after: Qingdao Hisense Laser Display Co.,Ltd.

Address before: 266100 Zhuzhou Road, Laoshan District, Shandong, No. 151, No.

Patentee before: HISENSE Co.,Ltd.

TR01 Transfer of patent right