CN110991528A - 一种线下新零售门店客流多属性单模型识别方法 - Google Patents
一种线下新零售门店客流多属性单模型识别方法 Download PDFInfo
- Publication number
- CN110991528A CN110991528A CN201911214045.8A CN201911214045A CN110991528A CN 110991528 A CN110991528 A CN 110991528A CN 201911214045 A CN201911214045 A CN 201911214045A CN 110991528 A CN110991528 A CN 110991528A
- Authority
- CN
- China
- Prior art keywords
- network
- loss
- model
- attribute
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000012549 training Methods 0.000 claims abstract description 37
- 238000001514 detection method Methods 0.000 claims description 49
- 230000006399 behavior Effects 0.000 claims description 30
- 239000013598 vector Substances 0.000 claims description 27
- 238000000605 extraction Methods 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 20
- 238000012544 monitoring process Methods 0.000 claims description 14
- 230000002776 aggregation Effects 0.000 claims description 9
- 238000004220 aggregation Methods 0.000 claims description 9
- 238000013135 deep learning Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000003786 synthesis reaction Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010348 incorporation Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005206 flow analysis Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Business, Economics & Management (AREA)
- Development Economics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Accounting & Taxation (AREA)
- Computational Linguistics (AREA)
- Entrepreneurship & Innovation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Game Theory and Decision Science (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及一种线下新零售门店客流多属性单模型识别方法,包括单模型多属性识别网络模型的构建、反向误差传播的损失函数设计与模型训练;其优点表现在:通过本方法实现的单模型对购物场景的识别分析,提议提高优化品牌店铺运营效率和店铺管理效率,优化运营营销策略、提高销售转换率、提升服务效率和消费体验等助力零售产业的升级。
Description
技术领域
本发明涉及客流多属性单模型识别技术领域,具体地说,是一种线下新零售门店客流多属性单模型识别方法。
背景技术
随着近几年人工智能概念的火速传播,人工智能的应用场景在各行各业中也不断地推出。结合当前的零售产业来说,传统零售企业也希望借助人工智能的场景落地实现产业的升级,于是催生出诸如新零售、智慧零售等一系列商业概念。俨然,新零售已成为当前零售行业的风口亮点。尤其以亚马逊、阿里巴巴等推出的线下无人零售店,通过计算机视觉技术,利用人脸识别等技术,可以实现无人管理,扫脸支付等商业行为。
在传统线下零售场景中,已经存在通过监控摄像进行客流计数统计等功能,但是更多的监控摄像依然更多的只是应用于安全事务中,对于零售产业的升级并没有起到推动作用。而市场上已经存在的新零售解决方案,大部分集中在客流分析统计、用户画像构建等应用方面,真正针对导购行为、消费者行为识别分析与洞察零售行业的痛点与创新并没有实质性的进展。很多品牌店铺依旧采用传统的问卷调查、寻找分析咨询公司等昂贵的手段进行优化店铺运营效率和店铺管理效率。
与此同时,监控摄像只能作为单一的功能使用,即人脸识别的监控摄像只能进行人脸识别,车辆识别的监控摄像只能进行车辆识别。那么在当前线下新零售的场景中,针对多方位、多功能的需求,大量监控摄像的部署成为企业高昂的成本。
因此,如何在控制成本的情况下,基于监控摄像对线下零售品牌店铺场景,围绕零售场景中的两大核心人员——消费者与店铺导购,对其身份、属性、行为等进行智能识别和分析,提出新零售的解决方案非常有必要。
中国专利文献:CN108921054A,公开日:2018.11.30,公开了一种基于语义分割的行人多属性识别方法,本发明方法在线下训练阶段,首先选择比较普遍的行人属性,在行人属性数据集上训练行人多属性识别模型。该模型有三条输出分支,其中两条分支采用语义分割结合特征融合策略分别输出颜色属性和类型属性。第三条分支输出性别属性。综合模型的三条分支输出得到行人多属性。在线上查询阶段,用行人多属性识别模型对行人图像库提取属性,然后就可以通过属性查询库中有该属性的行人图像。
中国专利文献:CN107886073A,公开日:2018.04.06,公开了一种基于卷积神经网络的细粒度车辆多属性识别方法,包括以下步骤:设计神经网络结构,包括卷积层、池化层和全连接层,其中卷积层与池化层负责特征提取,在最后一层全连接层通过计算目标损失函数输出分类结果;利用细粒度车辆数据集和标签数据集进行神经网络的训练,训练方式为有监督学习,并利用随机梯度下降算法进行权重矩阵和偏移量的调整;训练好的神经网络模型,用于进行车辆属性识别。
但是关于本发明的一种线下新零售门店客流多属性单模型识别方法目前还未见报道。
发明内容
本发明的目的是,提供一种通过单个模型在单个监控摄像中够实现多人物的多重属性识别,识别的结果可以通过后续的有效分析手段,进而提高品牌店铺运营和管理效率,实现零售产业升级的一种线下新零售门店客流多属性单模型识别方法。
为实现上述目的,本发明采取的技术方案是:
一种线下新零售门店客流多属性单模型识别方法,所述的线下新零售门店客流多属性单模型识别方法包括单模型多属性识别网络模型的构建、反向误差传播的损失函数设计与模型训练;
S1、单模型多属性识别网络模型的构建:
S11、多属性识别网络模型主要包括基础特征提取网络以及多属性识别网络;基础特征提取网络的主要作用是提取图像中的基础特征,并为后续的多属性识别网络构建多重嵌入特征向量;
S12、所述的多属性识别网络主要包括了消费者店员检测网络、人物性别年龄识别网络、人物行为识别网络、人物姿态检测网络以及结果聚合模块;
S13、所述的消费者店员检测网络接收基础特征提取网络输出的多重嵌入特征向量,并将消费者与店铺店员的识别结果与位置结果输出给结果聚合模块,同时将位置结果分别输出给人物性别年龄识别网络、人物行为识别网络、人物姿态检测网络;
S14、所述的人物性别年龄识别网络接收基础特征提取网络的输出特征向量以及消费者店员检测网络输出的人物位置特征,通过位置特征的信息降低了网络的计算量,提高了网络的速度,同时也提高了识别结果的准确率;
S15、所述的人物行为识别网络同样接收基础特征提取网络的输出特征向量以及消费者店员检测网络输出的人物位置特征,并作出人物是否在玩手机、打电话等行为的识别;
S16、所述的人物姿态检测网络接收基础特征提取网络的输出特征向量以及消费者店员检测网络输出的人物位置特征,并且预测出人物的具体姿态,可供后续分析人物的行为导向;
S17、所述的结果聚合模块将消费者店员检测网络、人物性别年龄识别网络、人物行为识别网络、人物姿态检测网络的识别结果进行聚合拼接得到最终的结果;
S2、反向误差传播的损失函数设计与模型训练:
损失函数主要包括两类,即分类损失和回归损失。回归损失使用常见的平方误差项;而对于分类损失采用关注损失;同时本发明中设计的单模型多属性识别网络实现了多任务的端到端训练方式;
S21、消费者店员检测网络的损失包含两部分,即回归损失Lloc和分类的关注损失Lcls,其定义分别如下:
其中,m表示训练集的样本数量,pi为类别i的预测概率向量,γ为关注参数,α为关注损失的权重因子;
因此,消费者店员检测网络的总体损失为回归损失Lloc与分类的关注损失Lcls的和:
L1=Lcls+Lloc
S22、由于人物性别年龄识别网络已经使用了消费者店员检测网络输出的人物位置信息,因此没有必要再使用分类关注损失,使用交叉熵损失即可,其定义如下:
其中,m表示训练集的样本数量,pi为类别i的预测概率向量;
S23、人物行为识别网络的损失与人物性别年龄识别网络的损失函数一样,均为交叉熵损失L3;
S24、人物姿态检测网络的损失L4即为回归损失,其定义与消费者店员检测网络中的回归损失Lloc一致;
S25、综合S21、S22、S23、S24中的所述,本发明所设计的单模型的总体损失为Ltotal:
Ltotal=PL1+(1-β)L2+(1-β)L3+(1-β)L4
其中,β为权重参数,由于消费者店员检测网络会将位置信息输出给其他三个网络,因此其所占的权重应该高于其他三个网络所得到的权重值,这里β的取值范围为(0.5,1)。
所述的线下新零售门店客流多属性单模型识别方法的实现流程:
获取大量线下店铺监控摄像的多媒体画面数据,并对该数据进行预处理,剔除模糊的画面数据;
获取大量线下店铺监控摄像的多媒体画面数据,并对该数据进行预处理,剔除模糊的画面数据;
将多媒体画面数据处理成三维特征数据作为网络模型的输入;
设计专用多属性深度学习网络模型;
将三维特征多媒体数据输入多功能深度学习网络进行前向传播计算与反向传播训练;
根据步骤4获得的网络模型权重进行新数据的推断测试,获取识别结果。
所述的线下新零售门店客流多属性单模型识别方法,在单一深度网络模型中实现了多功能的识别。
所述消费者店员检测网络输出的位置特征会输出给人物性别年龄识别网络、人物行为识别网络和人物姿态检测网络。
所述的线下新零售门店客流多属性单模型识别方法,网络的损失函数中对消费者店员检测网络的损失给出了相较于其他三个网络更高的权重,这对模型的精度提高起到了关键作用;另外本网络可以进行端到端的训练,而不需要单独多某一功能链路进行训练后整合;并且经过验证,通过统一的端到端训练比单独对某一功能链路训练得到的模型精度高出10%。
所述的基础特征提取网络可以使用流行的VGG16网络、ResNet-50网络、 ResNet-101网络以及Google Inception网络。
所述的人物性别年龄识别网络对于年龄的识别并不是具体到某个数字,而是分为了幼儿、少年、青年、中年、老年几个年龄级别。
本发明优点在于:
1、由于只要单模型就能识别人物的多重属性,可以避免使用多个摄像进行功能的多重扩展部署,因此可以实现低成本的监控摄像部署。
2、本方法实现的单模型可以识别消费者的多重属性,因此可以深度洞察消费者的行为需求,建立消费者用户画像,优化线下门店的消费体验。
3、本方法实现的单模型可以识别门店雇员的多重属性,因此可以判断分析门店雇员的工作表现,提升门店运营的服务表现。
4、本方法实现的单模型通过对消费者以及门店雇员的识别判断,能够分析出热门商品与长尾商品,热门商品展位与冷门展位,帮助店铺铺货管理。
5、通过本方法实现的单模型对购物场景的识别分析,提议提高优化品牌店铺运营效率和店铺管理效率,优化运营营销策略、提高销售转换率、提升服务效率和消费体验等助力零售产业的升级。
附图说明
附图1是一种线下新零售门店客流多属性单模型识别方法的组成模块图。
附图2是一种线下新零售门店客流多属性单模型识别方法的实现流程图。
附图3是一种线下新零售门店客流多属性单模型识别方法的识别流程示意图。
附图4是一种线下新零售门店客流多属性单模型识别方法的多属性识别网络组成模块图。
具体实施方式
下面结合实施例并参照附图对本发明作进一步描述。
实施例1
请参照附图1、附图3,附图1是本实施例的一种线下新零售门店客流多属性单模型识别方法的组成模块图,附图3是本实施例的一种线下新零售门店客流多属性单模型识别方法的识别流程示意图。所述的线下新零售门店客流多属性单模型识别方法包括单模型多属性识别网络模型的构建、反向误差传播的损失函数设计与模型训练;
S1、单模型多属性识别网络模型的构建:
S11、多属性识别网络模型主要包括基础特征提取网络以及多属性识别网络;基础特征提取网络的主要作用是提取图像中的基础特征,并为后续的多属性识别网络构建多重嵌入特征向量;
请参照附图4,附图4是本实施例的一种线下新零售门店客流多属性单模型识别方法的多属性识别网络组成模块图。
S12、所述的多属性识别网络主要包括了消费者店员检测网络、人物性别年龄识别网络、人物行为识别网络、人物姿态检测网络以及结果聚合模块;
S13、所述的消费者店员检测网络接收基础特征提取网络输出的多重嵌入特征向量,并将消费者与店铺店员的识别结果与位置结果输出给结果聚合模块,同时将位置结果分别输出给人物性别年龄识别网络、人物行为识别网络、人物姿态检测网络;
S14、所述的人物性别年龄识别网络接收基础特征提取网络的输出特征向量以及消费者店员检测网络输出的人物位置特征,通过位置特征的信息降低了网络的计算量,提高了网络的速度,同时也提高了识别结果的准确率;
S15、所述的人物行为识别网络同样接收基础特征提取网络的输出特征向量以及消费者店员检测网络输出的人物位置特征,并作出人物是否在玩手机、打电话等行为的识别;
S16、所述的人物姿态检测网络接收基础特征提取网络的输出特征向量以及消费者店员检测网络输出的人物位置特征,并且预测出人物的具体姿态,可供后续分析人物的行为导向;
S17、所述的结果聚合模块将消费者店员检测网络、人物性别年龄识别网络、人物行为识别网络、人物姿态检测网络的识别结果进行聚合拼接得到最终的结果;
S2、反向误差传播的损失函数设计与模型训练:
损失函数主要包括两类,即分类损失和回归损失。回归损失使用常见的平方误差项;而对于分类损失采用关注损失;同时本发明中设计的单模型多属性识别网络实现了多任务的端到端训练方式;
S21、消费者店员检测网络的损失包含两部分,即回归损失Lloc和分类的关注损失Lcls,其定义分别如下:
其中,m表示训练集的样本数量,pi为类别i的预测概率向量,γ为关注参数,α为关注损失的权重因子;
因此,消费者店员检测网络的总体损失为回归损失Lloc与分类的关注损失Lcls的和:
L1=Lcls+Lloc
S22、由于人物性别年龄识别网络已经使用了消费者店员检测网络输出的人物位置信息,因此没有必要再使用分类关注损失,使用交叉熵损失即可,其定义如下:
其中,m表示训练集的样本数量,pi为类别i的预测概率向量;
S23、人物行为识别网络的损失与人物性别年龄识别网络的损失函数一样,均为交叉熵损失L3;
S24、人物姿态检测网络的损失L4即为回归损失,其定义与消费者店员检测网络中的回归损失Lloc一致;
S25、综合S21、S22、S23、S24中的所述,本发明所设计的单模型的总体损失为Ltotal:
Ltotal=PL1+(1-β)L2+(1-β)L3+(1-β)L4
其中,β为权重参数,由于消费者店员检测网络会将位置信息输出给其他三个网络,因此其所占的权重应该高于其他三个网络所得到的权重值,这里β的取值范围为(0.5,1)。
实施例2
请参照附图2,附图2是一种线下新零售门店客流多属性单模型识别方法的实现流程图。
所述的线下新零售门店客流多属性单模型识别方法的实现流程:
获取大量线下店铺监控摄像的多媒体画面数据,并对该数据进行预处理,剔除模糊的画面数据;
获取大量线下店铺监控摄像的多媒体画面数据,并对该数据进行预处理,剔除模糊的画面数据;
将多媒体画面数据处理成三维特征数据作为网络模型的输入;
设计专用多属性深度学习网络模型;
将三维特征多媒体数据输入多功能深度学习网络进行前向传播计算与反向传播训练;
根据步骤4获得的网络模型权重进行新数据的推断测试,获取识别结果。
需要说明的是:
所述的线下新零售门店客流多属性单模型识别方法,在单一深度网络模型中实现了多功能的识别;所述消费者店员检测网络输出的位置特征会输出给人物性别年龄识别网络、人物行为识别网络和人物姿态检测网络;所述的线下新零售门店客流多属性单模型识别方法,网络的损失函数中对消费者店员检测网络的损失给出了相较于其他三个网络更高的权重,这对模型的精度提高起到了关键作用;另外本网络可以进行端到端的训练,而不需要单独多某一功能链路进行训练后整合;并且经过验证,通过统一的端到端训练比单独对某一功能链路训练得到的模型精度高出10%;所述的基础特征提取网络可以使用流行的VGG16网络、ResNet-50网络、ResNet-101网络以及Google Inception网络;所述的人物性别年龄识别网络对于年龄的识别并不是具体到某个数字,而是分为了幼儿、少年、青年、中年、老年几个年龄级别。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员,在不脱离本发明原理的前提下,还可以做出若干改进和补充,这些改进和补充也应视为本发明的保护范围。
Claims (7)
1.一种线下新零售门店客流多属性单模型识别方法,其特征在于,所述的线下新零售门店客流多属性单模型识别方法包括单模型多属性识别网络模型的构建、反向误差传播的损失函数设计与模型训练;
S1、单模型多属性识别网络模型的构建:
S11、多属性识别网络模型主要包括基础特征提取网络以及多属性识别网络;基础特征提取网络的主要作用是提取图像中的基础特征,并为后续的多属性识别网络构建多重嵌入特征向量;
S12、所述的多属性识别网络主要包括了消费者店员检测网络、人物性别年龄识别网络、人物行为识别网络、人物姿态检测网络以及结果聚合模块;
S13、所述的消费者店员检测网络接收基础特征提取网络输出的多重嵌入特征向量,并将消费者与店铺店员的识别结果与位置结果输出给结果聚合模块,同时将位置结果分别输出给人物性别年龄识别网络、人物行为识别网络、人物姿态检测网络;
S14、所述的人物性别年龄识别网络接收基础特征提取网络的输出特征向量以及消费者店员检测网络输出的人物位置特征,通过位置特征的信息降低了网络的计算量,提高了网络的速度,同时也提高了识别结果的准确率;
S15、所述的人物行为识别网络同样接收基础特征提取网络的输出特征向量以及消费者店员检测网络输出的人物位置特征,并作出人物是否在玩手机、打电话等行为的识别;
S16、所述的人物姿态检测网络接收基础特征提取网络的输出特征向量以及消费者店员检测网络输出的人物位置特征,并且预测出人物的具体姿态,可供后续分析人物的行为导向;
S17、所述的结果聚合模块将消费者店员检测网络、人物性别年龄识别网络、人物行为识别网络、人物姿态检测网络的识别结果进行聚合拼接得到最终的结果;
S2、反向误差传播的损失函数设计与模型训练:
损失函数主要包括两类,即分类损失和回归损失;回归损失使用常见的平方误差项;而对于分类损失采用关注损失;同时本发明中设计的单模型多属性识别网络实现了多任务的端到端训练方式;
S21、消费者店员检测网络的损失包含两部分,即回归损失Lloc和分类的关注损失Lcls,其定义分别如下:
其中,m表示训练集的样本数量,pi为类别i的预测概率向量,γ为关注参数,α为关注损失的权重因子;
因此,消费者店员检测网络的总体损失为回归损失Lloc与分类的关注损失Lcls的和:
L1=Lcls+Lloc
S22、由于人物性别年龄识别网络已经使用了消费者店员检测网络输出的人物位置信息,因此没有必要再使用分类关注损失,使用交叉熵损失即可,其定义如下:
其中,m表示训练集的样本数量,pi为类别i的预测概率向量;
S23、人物行为识别网络的损失与人物性别年龄识别网络的损失函数一样,均为交叉熵损失L3;
S24、人物姿态检测网络的损失L4即为回归损失,其定义与消费者店员检测网络中的回归损失Lloc一致;
S25、综合S21、S22、S23、S24中的所述,本发明所设计的单模型的总体损失为Ltotal:
Ltotal=βL1+(1-β)L2+(1-β)L3+(1-β)L4
其中,β为权重参数,由于消费者店员检测网络会将位置信息输出给其他三个网络,因此其所占的权重应该高于其他三个网络所得到的权重值,这里β的取值范围为(0.5,1)。
2.根据权利要求1所述的线下新零售门店客流多属性单模型识别方法,其特征在于,所述的线下新零售门店客流多属性单模型识别方法的实现流程:
获取大量线下店铺监控摄像的多媒体画面数据,并对该数据进行预处理,剔除模糊的画面数据;
获取大量线下店铺监控摄像的多媒体画面数据,并对该数据进行预处理,剔除模糊的画面数据;
将多媒体画面数据处理成三维特征数据作为网络模型的输入;
设计专用多属性深度学习网络模型;
将三维特征多媒体数据输入多功能深度学习网络进行前向传播计算与反向传播训练;
根据步骤4获得的网络模型权重进行新数据的推断测试,获取识别结果。
3.根据权利要求1所述的线下新零售门店客流多属性单模型识别方法,其特征在于,所述的线下新零售门店客流多属性单模型识别方法,在单一深度网络模型中实现了多功能的识别。
4.根据权利要求1所述的线下新零售门店客流多属性单模型识别方法,其特征在于,所述消费者店员检测网络输出的位置特征会输出给人物性别年龄识别网络、人物行为识别网络和人物姿态检测网络。
5.根据权利要求1所述的线下新零售门店客流多属性单模型识别方法,其特征在于,所述的线下新零售门店客流多属性单模型识别方法,网络的损失函数中对消费者店员检测网络的损失给出了相较于其他三个网络更高的权重,这对模型的精度提高起到了关键作用;另外本网络可以进行端到端的训练,而不需要单独多某一功能链路进行训练后整合;并且经过验证,通过统一的端到端训练比单独对某一功能链路训练得到的模型精度高出10%。
6.根据权利要求1所述的线下新零售门店客流多属性单模型识别方法,其特征在于,所述的基础特征提取网络可以使用流行的VGG16网络、ResNet-50网络、ResNet-101网络以及Google Inception网络。
7.根据权利要求1所述的线下新零售门店客流多属性单模型识别方法,其特征在于,所述的人物性别年龄识别网络对于年龄的识别并不是具体到某个数字,而是分为了幼儿、少年、青年、中年、老年几个年龄级别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911214045.8A CN110991528A (zh) | 2019-12-02 | 2019-12-02 | 一种线下新零售门店客流多属性单模型识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911214045.8A CN110991528A (zh) | 2019-12-02 | 2019-12-02 | 一种线下新零售门店客流多属性单模型识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110991528A true CN110991528A (zh) | 2020-04-10 |
Family
ID=70089208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911214045.8A Pending CN110991528A (zh) | 2019-12-02 | 2019-12-02 | 一种线下新零售门店客流多属性单模型识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110991528A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112257791A (zh) * | 2020-10-26 | 2021-01-22 | 重庆邮电大学 | 一种基于cnn和pca的多属性分类任务的分类方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109583942A (zh) * | 2018-11-07 | 2019-04-05 | 浙江工业大学 | 一种基于密集网络的多任务卷积神经网络顾客行为分析方法 |
CN109871804A (zh) * | 2019-02-19 | 2019-06-11 | 上海宝尊电子商务有限公司 | 一种店铺人流识别分析的方法和*** |
US20190205643A1 (en) * | 2017-12-29 | 2019-07-04 | RetailNext, Inc. | Simultaneous Object Localization And Attribute Classification Using Multitask Deep Neural Networks |
-
2019
- 2019-12-02 CN CN201911214045.8A patent/CN110991528A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190205643A1 (en) * | 2017-12-29 | 2019-07-04 | RetailNext, Inc. | Simultaneous Object Localization And Attribute Classification Using Multitask Deep Neural Networks |
CN109583942A (zh) * | 2018-11-07 | 2019-04-05 | 浙江工业大学 | 一种基于密集网络的多任务卷积神经网络顾客行为分析方法 |
CN109871804A (zh) * | 2019-02-19 | 2019-06-11 | 上海宝尊电子商务有限公司 | 一种店铺人流识别分析的方法和*** |
Non-Patent Citations (1)
Title |
---|
陈宗海: "《***仿真技术及其应用》", pages: 394 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112257791A (zh) * | 2020-10-26 | 2021-01-22 | 重庆邮电大学 | 一种基于cnn和pca的多属性分类任务的分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Pan et al. | Study on convolutional neural network and its application in data mining and sales forecasting for E-commerce | |
CN110910199B (zh) | 项目信息的排序方法、装置、计算机设备及存储介质 | |
CN109658194A (zh) | 一种基于视频追踪的客户推荐方法及*** | |
CN114550053A (zh) | 一种交通事故定责方法、装置、计算机设备及存储介质 | |
CN116468460B (zh) | 基于人工智能的消费金融客户画像识别***及其方法 | |
CN111523421A (zh) | 基于深度学习融合各种交互信息的多人行为检测方法及*** | |
CN114331512B (zh) | 一种可视化数据建模及大数据画像的方法 | |
CN112819024B (zh) | 模型处理方法、用户数据处理方法及装置、计算机设备 | |
CN111784405A (zh) | 基于人脸智能识别knn算法的线下门店智能导购方法 | |
CN109493186A (zh) | 确定推送信息的方法和装置 | |
Wang et al. | An enhanced multi-modal recommendation based on alternate training with knowledge graph representation | |
CN115545832A (zh) | 商品搜索推荐方法及其装置、设备、介质 | |
CN114201516A (zh) | 一种用户画像构建的方法、信息推荐的方法以及相关装置 | |
Iyer et al. | Sign language detection using action recognition | |
CN117608650B (zh) | 业务流程图生成方法、处理设备及存储介质 | |
CN110991528A (zh) | 一种线下新零售门店客流多属性单模型识别方法 | |
CN114255377A (zh) | 一种智能货柜的差异商品检测分类方法 | |
CN116823321B (zh) | 一种电商用经济管理数据分析方法及*** | |
Suman et al. | Age gender and sentiment analysis to select relevant advertisements for a user using cnn | |
CN113449103A (zh) | 融入标签与文本交互机制的银行交易流水分类方法及*** | |
CN111539782A (zh) | 基于深度学习的商户信息数据处理方法及其*** | |
CN115618079A (zh) | 会话推荐方法、装置、电子设备及存储介质 | |
CN114519600A (zh) | 一种融合相邻节点方差的图神经网络ctr预估算法 | |
Li et al. | Predicting consumer in-store purchase using real-time retail video analytics | |
KR20220014543A (ko) | 이용자와 판매자의 자발적 참여로 선순환 연결되는 온라인 플랫폼의 방법과 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200410 |