CN113761985A - 用于确定影响面部衰老程度的局部区域的方法和装置 - Google Patents

用于确定影响面部衰老程度的局部区域的方法和装置 Download PDF

Info

Publication number
CN113761985A
CN113761985A CN202010505109.6A CN202010505109A CN113761985A CN 113761985 A CN113761985 A CN 113761985A CN 202010505109 A CN202010505109 A CN 202010505109A CN 113761985 A CN113761985 A CN 113761985A
Authority
CN
China
Prior art keywords
face image
image
facial
apparent age
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010505109.6A
Other languages
English (en)
Inventor
汪思佳
王馥迪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Institute of Nutrition and Health of CAS
Original Assignee
Shanghai Institute of Nutrition and Health of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Institute of Nutrition and Health of CAS filed Critical Shanghai Institute of Nutrition and Health of CAS
Priority to CN202010505109.6A priority Critical patent/CN113761985A/zh
Priority to PCT/CN2021/095753 priority patent/WO2021244352A1/zh
Publication of CN113761985A publication Critical patent/CN113761985A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本申请涉及面部衰老预测技术,公开了一种用于确定影响面部衰老程度的局部区域的方法和装置,能够准确地评估面部局部区域对面部衰老的影响程度。该方法包括:获取一对象的第一面部图像;将该第一面部图像输入人面部的表观年龄预测模型,以获得第一表观年龄;对该第一面部图像进行图像处理,改变该第一面部图像中预定数量的像素点和/或预定区域,以获得第二面部图像;以及根据该第一表观年龄、该表观年龄预测模型和该第二面部图像确定该第二面部图像中发生改变的像素点和/或区域对于该第一表观年龄的影响程度。

Description

用于确定影响面部衰老程度的局部区域的方法和装置
技术领域
本申请涉及面部衰老预测技术,特别涉及确定影响面部衰老程度的局部区域技术。
背景技术
面部衰老是指随时间的推移,面部形态、结构等发生改变的一个复杂生物学过程。随着生活质量的提高,人们对面部衰老的关注度日渐增长。面部衰老已不仅是一个生物医学领域的健康状况判断标准,更是一个社会普遍关注的问题。因此,准确预判面部衰老区域,从而更有针对性的帮助个体延缓或改善面部衰老状况,具有极其重要的研究和应用价值。
发明内容
本申请的目的在于提供一种用于确定影响面部衰老程度的局部区域的方法和装置,能够准确地评估面部局部区域对面部衰老的影响程度。
本申请公开了一种用于确定影响面部衰老程度的局部区域的方法,包括:
获取一对象的第一面部图像;
将所述第一面部图像输入人面部的表观年龄预测模型,以获得第一表观年龄;
对所述第一面部图像进行图像处理,改变所述第一面部图像中预定数量的像素点和/或预定区域,以获得第二面部图像;
根据所述第一表观年龄、所述表观年龄预测模型和所述第二面部图像确定所述第二面部图像中发生改变的像素点和/或区域对于所述第一表观年龄的影响程度。
在一个优选例中,所述图像处理采用选自下组的方法:
像素求导法、区域遮盖法、或其组合。
在一个优选例中,所述预定数量的像素点为所述第一面部图像的所有像素点。
在一个优选例中,所述预定区域选自下组的一个或多个:
眼部区域、面颊区域、嘴部区域、前额部区域。
在一个优选例中,所述图像处理采用像素求导法;
所述对所述第一面部图像进行图像处理,改变所述第一面部图像中预定数量的像素点和/或预定区域,以获得第二面部图像,进一步包括:
采用像素求导法对所述第一面部图像进行图像处理,在所述预定数量的像素点上添加高斯噪声,以获得第二面部图像;
根据所述第一表观年龄、所述表观年龄预测模型和所述第二面部图像确定所述第二面部图像中发生改变的像素点和/或区域对于所述第一表观年龄的影响程度,进一步包括:
使用所述表观年龄预测模型对所述第二面部图像求导得到对应于第二面部图像上每一像素点的导数值,基于各像素点的导数值计算发生改变的像素点对于所述第一表观年龄的影响程度。
在一个优选例中,所述使用所述表观年龄预测模型对所述第二面部图像求导得到对应于第二面部图像上每一像素点的导数值,基于各像素点的导数值计算发生改变的像素点对于所述第一表观年龄的影响程度之后,还包括:
将所述第一面部图像划分成多个局部区域,分别统计每个局部区域的所有像素点的导数值的和作为该局部区域对整体面部衰老程度的影响权重系数;
基于每个局部区域的所述影响权重系数,在所述第一面部图像上对所述每个局部区域进行标注,以获得第三面部图像。
在一个优选例中,所述图像处理采用区域遮盖法;
所述对所述第一面部图像进行图像处理,改变所述第一面部图像中预定数量的像素点和/或预定区域,以获得第二面部图像进一步包括:
采用区域遮盖法对所述第一面部图像进行图像处理,用所述第一面部图像的像素均值遮盖所述预定区域,以获得第二面部图像;
所述根据所述第一表观年龄、所述表观年龄预测模型和所述第二面部图像确定所述第二面部图像中发生改变的像素点和/或区域对于所述第一表观年龄的影响程度,进一步包括:
将所述第二面部图像输入所述表观年龄预测模型,以获得第二表观年龄;
比对所述第二表观年龄和所述第一表观年龄,并基于比对结果计算所述预设区域对于人面部的表观年龄的影响程度。
在一个优选例中,所述采用区域遮盖法对所述第一面部图像进行图像处理,用所述第一面部图像的像素均值遮盖所述预定区域,以获得第二面部图像进一步包括:
将所述第一面部图像划分为多个局部区域,采用区域遮盖法对所述第一面部图像进行图像处理,依次用所述第一面部图像的像素均值遮盖每个局部区域,以获得对应的遮盖每个局部区域的第二面部图像;
所述将所述第一面部图像划分为多个局部区域,采用区域遮盖法对所述第一面部图像进行图像处理,依次用所述第一面部图像的像素均值遮盖每个局部区域,以获得对应的遮盖每个局部区域的第二面部图像之后,还包括:
分别统计每个局部区域对应的所述第二表观年龄和所述第一表观年龄的差作为该局部区域对整体面部衰老程度的影响权重系数;
基于每个局部区域的所述影响权重系数,在所述第一面部图像上对所述每个局部区域进行标注,以获得第三面部图像。
在一个优选例中,所述将所述第一面部图像划分为多个局部区域,采用区域遮盖法对所述第一面部图像进行图像处理,依次用所述第一面部图像的像素均值遮盖每个局部区域,以获得对应的遮盖每个局部区域的第二面部图像进一步包括:
将所述第一面部图像划分为眼部区域、面颊区域、嘴部区域、前额部区域的四个局部区域,采用区域遮盖法对所述第一面部图像进行图像处理,依次用所述第一面部图像的像素均值遮盖每个局部区域,以获得对应的遮盖每个局部区域的第二面部图像。
在一个优选例中,所述表观年龄预测模型是采用包括以下步骤的方法获得:
利用感知实验定量面部样本图像的年龄分布、年龄均值或年龄中位数作为深度学习训练标签,得到训练样本集;和
用所述训练样本集训练卷积神经网络模型得到所述表观年龄预测模型。
在一个优选例中,所述卷积神经网络模型是ResNet18模型。
本申请还公开了一种用于确定影响面部衰老程度的局部区域的装置包括:
图像获取模块,用于获取一对象的第一面部图像;
图像处理模块,用于对所述第一面部图像进行图像处理,改变所述第一面部图像中预定数量的像素点和/或预定区域,以获得第二面部图像;
年龄预测模块,用于将所述第一面部图像输入人面部的表观年龄预测模型,以获得第一表观年龄;
影响程度确定模块,用于根据所述第一表观年龄、所述表观年龄预测模型和所述第二面部图像确定所述第二面部图像中发生改变的像素点和/或区域对于所述第一表观年龄的影响程度。
本申请还公开了一种用于确定影响面部衰老程度的局部区域的装置包括:
存储器,用于存储计算机可执行指令;以及,
处理器,用于在执行所述计算机可执行指令时实现如前文描述的方法中的步骤。
本申请还公开了一种计算机可读存储介质所述计算机可读存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器执行时实现如前文描述的方法中的步骤。
本申请实施方式中,至少包括以下优点和有益效果:
选用面部感知实验方法将面部衰老表型作为整体进行量化,并结合深度学习和可视化方法,定位整体面部衰老的主要影响区域,可以客观有效地评估面部局部区域对面部衰老的影响程度。
进一步地,通过像素求导法和/或区域遮盖法等可视化方法,可以更准确更客观地定位影响面部衰老的面部区域,为医疗、美容等领域提供更科学的决策依据。
进一步地,采用ResNet18等深度学习模型,同时利用年龄分布等作为训练标签,并且准确模拟人类进行感知年龄实验来定量整体面部衰老表型,更加快速有效地评估面部局部区域对面部衰老的影响程度。
本申请的说明书中记载了大量的技术特征,分布在各个技术方案中,如果要罗列出本申请所有可能的技术特征的组合(即技术方案)的话,会使得说明书过于冗长。为了避免这个问题,本申请上述发明内容中公开的各个技术特征、在下文各个实施方式和例子中公开的各技术特征、以及附图中公开的各个技术特征,都可以自由地互相组合,从而构成各种新的技术方案(这些技术方案均因视为在本说明书中已经记载),除非这种技术特征的组合在技术上是不可行的。例如,在一个例子中公开了特征A+B+C,在另一个例子中公开了特征A+B+D+E,而特征C和D是起到相同作用的等同技术手段,技术上只要择一使用即可,不可能同时采用,特征E技术上可以与特征C相组合,则,A+B+C+D的方案因技术不可行而应当不被视为已经记载,而A+B+C+E的方案应当视为已经被记载。
附图说明
图1是根据本申请第一实施方式的用于确定影响面部衰老程度的局部区域的方法流程示意图。
图2显示了本申请一个实施例中的面部图像数据预处理流程示意图。其中,图A为对面部区域106个面部关键点的识别示意图;图B为利用回归模型计算出面部中轴线的位置示意图;图C为按照倾斜角对面部图片进行旋转以将面部竖直对齐示意图;图D和图E分别是根据下颌点、左右面颊点及上额点对两张图片进行了截取效果示意图。
图3显示了本申请一个实施例的面部区域划分示意图。
图4显示了本申请一个实施例中的采用1000例抽样方差随评测者数量变化曲线示意图。
图5显示了本申请一个实施例中的深度学习、可视化及其检验流程示意图。
图6显示了本申请一个实施例中的ResNet18网络结构示意图。其中,图a为残差网络基本模块,建立了从输入到输出的快捷链接;图b为ResNet18的网络结构,其中虚线指特征翻倍。
图7显示了本申请一个实施例中的采用三种不同深度学习模型和三种不同训练标签的训练效果比较示意图。
图8显示了本申请一个实施例中的对面部区域进行划分及可视化处理示意图。其中,图a为面部区域划分示意图,展示了面部的四个分区;图b为基于像素求导法获得的第二面部图像的示意图;图d为将图b的像素求导结果被统计到四个部位的衰老程度热图;图c为将区域遮盖法的结果得到四个部位的衰老程度热图。
图9显示了本申请一个实施例中的采用像素求导法的流程示意图。
图10显示了本申请一个实施例中的采用区域遮盖法的流程示意图。
图11显示了本申请一个实施例中的一致性检验的示意图。其中,图A为深度学习排序结果示例,数字代表不同区域的重要性排列顺序;图B-D展示了眼动实验(或人工评测)排序结果,加粗虚线框为主要对比的区域,其中图B表示四个区域顺序完全一致,图C表示仅有最重要区域一致,图D表示最重要区域与次重要区域一致。
图12显示了本申请第二实施方式的用于确定影响面部衰老程度的局部区域的装置结构示意图。
具体实施方式
在以下的叙述中,为了使读者更好地理解本申请而提出了许多技术细节。但是,本领域的普通技术人员可以理解,即使没有这些技术细节和基于以下各实施方式的种种变化和修改,也可以实现本申请所要求保护的技术方案。
术语解释:
可视化:将神经网络进行决策的依据以图像或图片的方式展示。
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请的实施方式作进一步地详细描述。
本申请的第一实施方式涉及一种用于确定影响面部衰老程度的局部区域的方法,其流程如图1所示,该方法包括以下步骤:
步骤101中,获取一对象的第一面部图像;
步骤102中,将该第一面部图像输入人面部的表观年龄预测模型,以获得第一表观年龄;
步骤103中,对该第一面部图像进行图像处理,改变该第一面部图像中预定数量的像素点和/或预定区域,以获得第二面部图像;
步骤104中,根据该第一表观年龄、该表观年龄预测模型和该第二面部图像确定该第二面部图像中发生改变的像素点和/或区域对于该第一表观年龄的影响程度。
可选地,在步骤101中的第一面部图像可以是整体面部图像也可以是部分面部图像。
可选地,在步骤102之前,预先通过以下步骤①和②得到该表观年龄预测模型:在步骤①中,利用感知实验定量面部样本图像的年龄分布、年龄均值或年龄中位数作为深度学习训练标签,得到训练样本集;之后执行步骤②,用该训练样本集训练卷积神经网络模型得到该表观年龄预测模型。
优选地,该步骤①中采用年龄分布作为训练标签。
可选地,该卷积神经网络模型可以但不限于是VGG 16模型、ResNet 18模型或ResNet 50。优选地,该卷积神经网络模型是ResNet18模型。
可选地,在步骤103中,该图像处理可以采用像素求导法、区域遮盖法、或其组合。
可选地,该预定数量的像素点为该第一面部图像的所有像素点。
可选地,该预定区域为m1像素×m2像素的子区域,m1和m2各自独立地为1-1000的正整数,较佳地2-500,更佳地3-250,最佳地5-100。可选地,该预定区域为整个面部区域0.01%-25%,较佳地0.1-10%,更佳地1-5%。
优选地,该预定区域选自下组的一个或多个:眼部区域、面颊区域、嘴部区域、前额部区域。
在一个实施例中,该步骤103可以进一步实现为以下步骤:采用像素求导法对该第一面部图像进行图像处理,在该预定数量的像素点上添加高斯噪声,以获得第二面部图像,例如,可以在第一面部图像的所有像素点添加随机高斯噪声,但不限于此。进一步地,该步骤104可以进一步实现为以下步骤:使用该表观年龄预测模型对该第二面部图像求导得到对应于第二面部图像上每一像素点的导数值,基于各像素点的导数值计算发生改变的像素点对于该第一表观年龄的影响程度。
可选地,上述“使用该表观年龄预测模型对该第二面部图像求导得到对应于第二面部图像上每一像素点的导数值,基于各像素点的导数值计算发生改变的像素点对于该第一表观年龄的影响程度”之后,还包括以下步骤①和②:在步骤①中,将该第一面部图像划分成多个局部区域,分别统计每个局部区域的所有像素点的导数值的和作为该局部区域对整体面部衰老程度的影响权重系数;以及在步骤②中,基于每个局部区域的该影响权重系数,在该第一面部图像上对该每个局部区域进行标注,以获得第三面部图像。
在另一个实施例中,该步骤103可以进一步实现为以下步骤:采用区域遮盖法对该第一面部图像进行图像处理,用该第一面部图像的像素均值遮盖该预定区域,以获得第二面部图像。进一步地,该步骤104可以进一步实现为以下步骤:将该第二面部图像输入该人面部的表观年龄预测模型,以获得第二表观年龄,比对该第二表观年龄和该第一表观年龄,并基于比对结果计算该预设区域对于人面部的表观年龄的影响程度。
可选地,上述“采用区域遮盖法对该第一面部图像进行图像处理,用该第一面部图像的像素均值遮盖该预定区域,以获得第二面部图像”进一步实现为:将该第一面部图像划分为多个局部区域,采用区域遮盖法对该第一面部图像进行图像处理,依次用该第一面部图像的像素均值遮盖每个局部区域,以获得对应的遮盖每个局部区域的第二面部图像。例如,可以将该第一面部图像划分为眼部区域、面颊区域、嘴部区域、前额部区域的四个局部区域,采用区域遮盖法对该第一面部图像进行图像处理,依次用该第一面部图像的像素均值遮盖每个局部区域,以获得对应的遮盖每个局部区域的第二面部图像。
可选地,上述“将该第一面部图像划分为多个局部区域,采用区域遮盖法对该第一面部图像进行图像处理,依次用该第一面部图像的像素均值遮盖每个局部区域,以获得对应的遮盖每个局部区域的第二面部图像”之后,还包括以下步骤①和②:在步骤①中,分别统计每个局部区域对应的该第二表观年龄和该第一表观年龄的差作为该局部区域对整体面部衰老程度的影响权重系数;以及在步骤②中,基于每个局部区域的该影响权重系数,在该第一面部图像上对该每个局部区域进行标注,以获得第三面部图像。
下面结合具体实施例,进一步阐述本发明。应理解,该实施例仅用于说明本发明而不用于限制本发明的范围。
在本实施例中,采用了ResNet 18等深度学习网络搭建面部衰老的评价体系,同时使用像素求导或面部遮盖等深度学习可视化方法,定位面部衰老的主要区域。具体方案如下:
一、数据采集
为了进行面部感知实验,本示例需要将图像包含受试者发型及衣着等部分信息去除。根据实验要求,设计了一套自动化流程进行图片预处理流程,如图2所示。
首先,选用了face++软件进行面部区域106个面部关键点的识别(图2A,https://www.faceplusplus.com/)。而后,根据关键点中眼部、鼻部及嘴部的位置坐标,利用回归模型计算出面部中轴线的位置(图2B,红色实线),同时计算出中轴线与数值方向垂直线(图2B,红色虚线)的倾斜角。据此,按照倾斜角对面部图片进行旋转,从而将面部竖直对齐(图2C)。最后,我们根据下颌点、左右面颊点及上额点对图片进行了截取,截取最终效果如图2D及图2E。截取后的图片被用于进行后续实验及分析。
二、感知年龄人工评测
招募了22位评测者对样本进行感知年龄评测,包括10名男性评测者和12名女性评测者。为尽可能缩小实验误差,评测者采用统一显示设备进行感知年龄评测。实验前,评测者均不知道样本的年龄及数据集的年龄分布等信息。在评测时,评测者需要观察所有5,768例样本图片,而后预测每个样本的年龄并记录。另外,我们挑选了1,014张样本照片(500名男性,514名女性)。对于这1,014张样本照片,评测者需根据图3评测其在评测样本年龄时所关注的面部区域,然后勾选在评测表中,评测表样例如下表1,其中区域部分可多选。
表1
图片编号 感知年龄 眼睛 嘴巴 额头 脸颊 所有区域
15HanTZ0005TB1_F
15HanTZ0010TB1_F
15HanTZ0014TB1_F
15HanTZ0022TB1_F
15HanTZ0023TB1_F
三、评测者评测质量分析
采用感知实验定量整体面部衰老,获得高质量深度学习训练标签。
为了验证深度学***均值、标准误两个统计量与评测者数量的关系进行学习,以此反映评测者数量与评测质量的关系。
首先,将22位评测者对每个样本评测值的算术平均值作为样本真实值,将每位评测者对每例样本的评测值与样本真实值相减,对其差值取算术平均值作为评测者的***误差。而后,每位评测者对每例样本的评测值与***误差相减之后的数据作为评测者随机误差,我们计算不同评测者的随机误差的标准差σij,假设随机误差服从N(0,σij)。随后,我们根据得出的模拟参数(样本真实值、***误差、随机误差等参数)产生了1000位评测者的10000例感知年龄数据模拟数据。随后,按照不同评测者数量(ni=1-100)分别从模拟数据中抽样。并对第i次抽样重复抽取1000例感知年龄模拟数值,以此计算i次每例感知年龄的方差。计算公式如下式(1),Xi表示第i次抽样中,每例受试者感知年龄的模拟数值,n表示选取的评测者数量。
Figure BDA0002526260740000111
图4为1000例随机抽样的方差随评测者数量的变化曲线。由此图可见,随评测者数量不断增加,方差降低趋势逐渐缓慢。对该曲线求导,找出拐点位置(n=12),该位置为评测者数量的最优选取方法。即在保证数据质量的前提下,评测者数量最小数量为12,且评测者越多,数据质量越好。在我们的感知实验中,共有22位评测者,数量远超过最优方案,从根本上保证了感知数据质量。
四、深度学习得到局部衰老模型
如图5所示,深度学习以5,768例样本照片作为训练数据,利用感知实验所评估的感知年龄定量面部衰老,作为深度学习训练标签;而后利用深度学习可视化定位影响面部衰老的主要区域。
(1)训练数据集增强
由于训练数据集仅有5,768例样本,较少的训练数据不仅会影响网络参数的学习,也容易出现过拟合。因此,在实际训练过程前,我们按照传统深度学习数据增强方法,对训练数据集进行镜像及剪裁两种方式的增强。镜像增强将一张图片相对于Y轴反射生成的像,即一张原图片生成两张镜像图片;裁剪增强则分别在左上下、右上下、中央截取五次,生成五张不同的区域图片。据此,可以将训练数据集扩增十倍。
(2)深度学习模型选择
选取卷积神经网络模型VGG 16、ResNet 18及ResNet 50进行年龄预测。其中,ResNet18是ResNet网络结构的五种主要模型之一,其主要包括三个部分:输入(Input)、输出(Output)及中间卷积(Stages)。训练深度神经网络的一个主要困难之处在于,随着网络层数的增加,神经网络的参数会变得难以优化,出现网络退化的问题,也就是训练后的模型的拟合数据的能力甚至低于网络层数更少的模型。与目前常用的其他深度学习模型相比,ResNet通过引入残差模块建立了从浅层特征到深层特征的快捷链接,用神经网络建模深层特征与浅层特征之间的残差而不是深层特征本身,使得在利用反向传播算法优化网络参数的时候梯度可以更加有效地回传,故可以较好地解决深度学习网络的退化问题。此外,为验证ResNet18的鲁棒性(Robust),本项目使用VGG16和ResNet50对样本的训练效果进行衡量。在训练三种神经网络时,都使用在ImageNet上预训练的模型初始化网络参数,批量大小(batch size)设置为64,学习率设置为0.001,共训练100个时期(epoch)。
图6(a)为残差网络基本模块,建立了从输入到输出的快捷链接,其中weightlayer指权重层,relu为一种激活函数。图6(b)为ResNet18的网络结构,其中虚线指特征翻倍。实线的连接部分:表示通道相同,如3*3conv,64指使用64个大小为3*3的卷积核进行卷积;虚线的连接部分:表示通道不同,特征进行了翻倍,如3*3conv,128,/2指使用128个大小为3*3的卷积核进行卷积,/2表示特征层于上层64相比翻倍。
模型训练时,分别采用了22位年龄评测者的评测结果分布、评测中位数及评测均值作为标签进行深度学习模型训练。模型训练后,采用预测结果与真实结果的误差方差作为效果评判标准挑选模型。
此外,项目采用了10倍交叉验证法获取训练数据集的预测数据,即将样本数据分为10份,每次使用9份进行训练得到模型,来预测剩下1份的年龄,循环重复10次即可使用深度学习模型得到所有样本预测的感知年龄数据。
(3)深度学习模型训练效果比较
利用深度学习方法模拟人类进行面部表观年龄评测,其相关性高达96%以上。模型评价分别采用了22位评测者的年龄分布、年龄均值及年龄中位数三种训练标签,以及VGG16、ResNet 18及ResNet 50三种深度学习模型。
评价结果如下表2所示。
表2
Figure BDA0002526260740000121
Figure BDA0002526260740000131
注:相关系数采用皮尔森相关系数计算,表中P值均小于0.001。
结果表明,使用ResNet18模型,采用年龄分布作为训练标签呈现最优结果(平均差值2.27岁,相关系数0.96,如图7)。优选地采用用年龄分布作为训练标签训练好的ResNet18模型进行后续过程。
五、深度学习可视化评估面部局部衰老
分别选取像素求导法和区域遮盖法实现可视化,并根据面部解剖结构及face++自动标定的106个面部特征点将面部划分为了额头、眼睛、嘴及脸颊四个区域(图8a)。
(1)像素求导法
像素求导法(SmoothGrad)的核心思想是将预测的感知年龄对像素的取值求导,用导数的大小衡量图片的各个像素点对感知年龄的重要程度。因为神经网络是高度非线性的映射,通常会有少量的像素点具有非常大的导数,给可视化带来困难,所以对图片加上随机噪声,对多次的求导结果取平均,得到更加光滑的可视化结果。为了确定深度学习模型在做出预测时所依据的特征,我们可以建立与原始图像尺寸相同的特征重要性蒙版,其亮度数值与每个像素点的重要性相对应,整个图像称为灵敏度蒙版(sensitivity mask)。像素求导法分别将每个像素点加上噪声,而后计算感知年龄对于加上噪声后的像素点的导数,并以该导数评估各像素点的重要程度。根据如下公式(2),式中n指计算次数,
Figure BDA0002526260740000132
指标准误差为σ的高斯噪声,x指原像素值,Mc指灵敏度:
Figure BDA0002526260740000133
得到各像素点重要性程度之后,我们在训练中统计了面部各区域的导数的均值,并以其大小排序定量面部局部区域对面部衰老的影响程度。在应用像素求导法时,计算次数n设置为10,高斯噪声的标准差σ设置为0.3。
具体如图9所示的流程图,在步骤901中,将第一面部图像输入训练好的ResNet18模型输出对应的第一表观年龄;在步骤902中,将第一面部图像复制n份,并分别添加上随机高斯噪声得到对应的n份第二面部图像;在步骤903中,对于每份第二面部图像,计算训练好的ResNet18模型对于该图像中各像素点的导数;在步骤904中,将n份第二面部图像的求导结果取平均值并可视化得到第二面部图像(如图8b所示,颜色越亮该点重要程度越强);在步骤905中,统计面部各局部区域(嘴巴、额头、眼睛、脸颊)的导数和,将各部位按照对应的和值排序,总和越高即该区域重要程度和衰老程度越高,并用颜色深浅表示衰老程度高低来对每个局部区域进行标注(如图8d所示,颜色越红则越显衰老)。
(2)区域遮盖法
区域遮盖法则是将各区域分别用数据集中所有像素的均值进行遮挡,并以遮挡前后的预测差值评估各区域的重要性。首先,用未遮挡的图片训练进行感知年龄估计的模型,然后计算该图所有像素点的均值,针对样本的每个面部分区(图8a)分别用像素点均值来遮盖四个区域,之后将遮盖后的图片通过网络预测得出年龄,继而得到遮挡后与遮挡前的年龄差。若年龄差为负,说明该遮挡区域会导致面部整体衰老程度增加;相反,说明该遮挡区域会导致面部整体衰老程度降低,差值越大则程度越强。
具体流程图如图10所示,在步骤1001中,将第一面部图像(未遮挡)输入训练好的ResNet18模型输出对应的第一表观年龄;在步骤1002中,分别将该第一面部图像的四个局部区域(嘴巴、额头、眼睛、脸颊)遮挡并用图像均值填补,得到对应的第二面部图像;在步骤1003中,将这四张遮挡的图片输入训练好的ResNet18模型,得出对应的第二表观年龄;在步骤1004中,用遮挡前后的表观年龄预测结果的差作为各区域的衰老程度,并排序(如图8c所示,颜色所对应的数值为遮挡后与遮挡前的预测年龄差,蓝色越强为越衰老,红色越强为越年轻)。
六、结果验证
为验证深度学习可视化结果的有效性,分别采集了感知实验数据、眼动实验数据以及面部局部区域衰老评分数据。
(1)感知实验数据(人工评测)
感知实验中,对于挑选出的1014张照片,选取22名评测者需要观察图片,预测年龄并记录判断所依据的面部区域。据此,我们统计了各区域被选中的次数,每个样本每个区域被几个评测者勾选就记为几,用该数值来定量面部区域对面部衰老评定的影响程度。
(2)眼动数据(机器测量)
另选取了20位评测者,针对18例受试者面部二维图像进行眼动实验。实验选用Eyelink 1000眼动仪观察并记录了评测者注视点在每个面部分区(图11)的停留时间与注视总时间比值,较为客观的定量面部局部区域对整体面部衰老评测的影响程度。
(3)一致性检验方法
为评价不同方法间的一致性(人工评测、眼动实验及深度学习可视化),本项目基于不同方法的数值特征,设计了三个一致性检验指标。利用该指标,结合人工评测及眼动实验的结果,验证本申请的深度学习可视化的可靠性。
指标介绍如下:
完全匹配率:不同方法中,区域重要性排序完全匹配的样本数与总样本数的比值(图11B)。该比值说明两个方法间具有完全一致性。
Top1匹配率:不同方法中,最重要区域相互匹配的样本个数(图11C)与总样本数的比值。该比值说明,当探寻对面部整体衰老影响最显著的局部区域时,两个方法具有完全一致性。
Top2匹配率:不同方法中,最重要区域相互匹配的样本个数(图11C)和最重要匹配次重要区域的样本(图11D)个数之和与总样本数的比值。该比值越高,说明两个方法间一致性越强。
(4)利用深度学习可视化方法定位影响面部衰老的关键区域,并验证了该结果的有效性
深度学习可视化分别采用了像素求导、区域遮盖两种方法,根据完全一致率、重点匹配率及次重点匹配率三个评价标准对可视化效果进行评价。
评价结果如下表3所示。
表3
Figure BDA0002526260740000161
结果表明,与区域遮盖法相比,使用像素求导获得了更好的结果。其中,深度学习-像素求导可视化结果与人工评测的完全一致率最高(0.18vs0.13),与区域遮盖法相比提高了约38%。
此外,采用深度学习-像素求导可视化时,Top1匹配率为0.52,Top2匹配率则达到0.89;其与眼动实验的Top1匹配率为0.61,Top2匹配率为0.85。
上述结果说明深度学习可视化与两种人工方法有极高的一致性,进而验证了深度学习可视化方法的可靠性。
本申请的第二实施方式涉及一种用于确定影响面部衰老程度的局部区域的装置,其结构如图12所示,该用于确定影响面部衰老程度的局部区域的装置包括:
图像获取模块,用于获取一对象的第一面部图像;
图像处理模块,用于对该第一面部图像进行图像处理,改变该第一面部图像中预定数量的像素点和/或预定区域,以获得第二面部图像;
年龄预测模块,用于将该第一面部图像输入人面部的表观年龄预测模型,以获得第一表观年龄;
影响程度确定模块,用于根据该第一表观年龄、该表观年龄预测模型和该第二面部图像确定该第二面部图像中发生改变的像素点和/或区域对于该第一表观年龄的影响程度。
第一实施方式是与本实施方式相对应的方法实施方式,第一实施方式中的技术细节可以应用于本实施方式,本实施方式中的技术细节也可以应用于第一实施方式。
需要说明的是,本领域技术人员应当理解,上述用于确定影响面部衰老程度的局部区域的装置的实施方式中所示的各模块的实现功能可参照前述确定影响面部衰老程度的局部区域的方法的相关描述而理解。上述用于确定影响面部衰老程度的局部区域的装置的实施方式中所示的各模块的功能可通过运行于处理器上的程序(可执行指令)而实现,也可通过具体的逻辑电路而实现。本申请实施例上述用于确定影响面部衰老程度的局部区域的装置如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本申请各个实施例该方法的全部或部分。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read Only Memory)、磁碟或者光盘等各种可以存储程序代码的介质。这样,本申请实施例不限制于任何特定的硬件和软件结合。
相应地,本申请实施方式还提供一种计算机可读存储介质,其中存储有计算机可执行指令,该计算机可执行指令被处理器执行时实现本申请的各方法实施方式。计算机可读存储介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括但不限于,相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读存储介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
此外,本申请实施方式还提供一种用于确定影响面部衰老程度的局部区域的装置,其中包括用于存储计算机可执行指令的存储器,以及,处理器;该处理器用于在执行该存储器中的计算机可执行指令时实现上述各方法实施方式中的步骤。其中,该处理器可以是中央处理单元(Central Processing Unit,简称“CPU”),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,简称“DSP”)、专用集成电路(ApplicationSpecific Integrated Circuit,简称“ASIC”)等。前述的存储器可以是只读存储器(read-only memory,简称“ROM”)、随机存取存储器(random access memory,简称“RAM”)、快闪存储器(Flash)、硬盘或者固态硬盘等。本发明各实施方式所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
需要说明的是,在本专利的申请文件中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个”限定的要素,并不排除在包括该要素的过程、方法、物品或者设备中还存在另外的相同要素。本专利的申请文件中,如果提到根据某要素执行某行为,则是指至少根据该要素执行该行为的意思,其中包括了两种情况:仅根据该要素执行该行为、和根据该要素和其它要素执行该行为。多个、多次、多种等表达包括2个、2次、2种以及2个以上、2次以上、2种以上。
在本申请提及的所有文献都被认为是整体性地包括在本申请的公开内容中,以便在必要时可以作为修改的依据。此外应理解,以上该仅为本说明书的较佳实施例而已,并非用于限定本说明书的保护范围。凡在本说明书一个或多个实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本说明书一个或多个实施例的保护范围之内。

Claims (14)

1.一种用于确定影响面部衰老程度的局部区域的方法,其特征在于,包括:
获取一对象的第一面部图像;
将所述第一面部图像输入人面部的表观年龄预测模型,以获得第一表观年龄;
对所述第一面部图像进行图像处理,改变所述第一面部图像中预定数量的像素点和/或预定区域,以获得第二面部图像;
根据所述第一表观年龄、所述表观年龄预测模型和所述第二面部图像确定所述第二面部图像中发生改变的像素点和/或区域对于所述第一表观年龄的影响程度。
2.如权利要求1所述用于确定影响面部衰老程度的局部区域的方法,其特征在于,所述图像处理采用选自下组的方法:
像素求导法、区域遮盖法、或其组合。
3.如权利要求1所述的用于确定影响面部衰老程度的局部区域的方法,其特征在于,所述预定数量的像素点为所述第一面部图像的所有像素点。
4.如权利要求1所述的用于确定影响面部衰老程度的局部区域的方法,其特征在于,所述预定区域选自下组的一个或多个:
眼部区域、面颊区域、嘴部区域、前额部区域。
5.如权利要求2所述的用于确定影响面部衰老程度的局部区域的方法,其特征在于,所述图像处理采用像素求导法;
所述对所述第一面部图像进行图像处理,改变所述第一面部图像中预定数量的像素点和/或预定区域,以获得第二面部图像,进一步包括:
采用像素求导法对所述第一面部图像进行图像处理,在所述预定数量的像素点上添加高斯噪声,以获得第二面部图像;
根据所述第一表观年龄、所述表观年龄预测模型和所述第二面部图像确定所述第二面部图像中发生改变的像素点和/或区域对于所述第一表观年龄的影响程度,进一步包括:
使用所述表观年龄预测模型对所述第二面部图像求导得到对应于第二面部图像上每一像素点的导数值,基于各像素点的导数值计算发生改变的像素点对于所述第一表观年龄的影响程度。
6.如权利要求5所述的用于确定影响面部衰老程度的局部区域的方法,其特征在于,所述使用所述表观年龄预测模型对所述第二面部图像求导得到对应于第二面部图像上每一像素点的导数值,基于各像素点的导数值计算发生改变的像素点对于所述第一表观年龄的影响程度之后,还包括:
将所述第一面部图像划分成多个局部区域,分别统计每个局部区域的所有像素点的导数值的和作为该局部区域对整体面部衰老程度的影响权重系数;
基于每个局部区域的所述影响权重系数,在所述第一面部图像上对所述每个局部区域进行标注,以获得第三面部图像。
7.如权利要求2所述的用于确定影响面部衰老程度的局部区域的方法,其特征在于,所述图像处理采用区域遮盖法;
所述对所述第一面部图像进行图像处理,改变所述第一面部图像中预定数量的像素点和/或预定区域,以获得第二面部图像进一步包括:
采用区域遮盖法对所述第一面部图像进行图像处理,用所述第一面部图像的像素均值遮盖所述预定区域,以获得第二面部图像;
所述根据所述第一表观年龄、所述表观年龄预测模型和所述第二面部图像确定所述第二面部图像中发生改变的像素点和/或区域对于所述第一表观年龄的影响程度,进一步包括:
将所述第二面部图像输入所述表观年龄预测模型,以获得第二表观年龄;
比对所述第二表观年龄和所述第一表观年龄,并基于比对结果计算所述预设区域对于人面部的表观年龄的影响程度。
8.如权利要求7所述的用于确定影响面部衰老程度的局部区域的方法,其特征在于,所述采用区域遮盖法对所述第一面部图像进行图像处理,用所述第一面部图像的像素均值遮盖所述预定区域,以获得第二面部图像进一步包括:
将所述第一面部图像划分为多个局部区域,采用区域遮盖法对所述第一面部图像进行图像处理,依次用所述第一面部图像的像素均值遮盖每个局部区域,以获得对应的遮盖每个局部区域的第二面部图像;
所述将所述第一面部图像划分为多个局部区域,采用区域遮盖法对所述第一面部图像进行图像处理,依次用所述第一面部图像的像素均值遮盖每个局部区域,以获得对应的遮盖每个局部区域的第二面部图像之后,还包括:
分别统计每个局部区域对应的所述第二表观年龄和所述第一表观年龄的差作为该局部区域对整体面部衰老程度的影响权重系数;
基于每个局部区域的所述影响权重系数,在所述第一面部图像上对所述每个局部区域进行标注,以获得第三面部图像。
9.如权利要求8所述的用于确定影响面部衰老程度的局部区域的方法,其特征在于,所述将所述第一面部图像划分为多个局部区域,采用区域遮盖法对所述第一面部图像进行图像处理,依次用所述第一面部图像的像素均值遮盖每个局部区域,以获得对应的遮盖每个局部区域的第二面部图像进一步包括:
将所述第一面部图像划分为眼部区域、面颊区域、嘴部区域、前额部区域的四个局部区域,采用区域遮盖法对所述第一面部图像进行图像处理,依次用所述第一面部图像的像素均值遮盖每个局部区域,以获得对应的遮盖每个局部区域的第二面部图像。
10.如权利要求1-9中任意一项所述的用于确定影响面部衰老程度的局部区域的方法,其特征在于,所述表观年龄预测模型是采用包括以下步骤的方法获得:
利用感知实验定量面部样本图像的年龄分布、年龄均值或年龄中位数作为深度学习训练标签,得到训练样本集;和
用所述训练样本集训练卷积神经网络模型得到所述表观年龄预测模型。
11.如权利要求10所述的用于确定影响面部衰老程度的局部区域的方法,其特征在于,所述卷积神经网络模型是ResNet18模型。
12.一种用于确定影响面部衰老程度的局部区域的装置,其特征在于,包括:
图像获取模块,用于获取一对象的第一面部图像;
图像处理模块,用于对所述第一面部图像进行图像处理,改变所述第一面部图像中预定数量的像素点和/或预定区域,以获得第二面部图像;
年龄预测模块,用于将所述第一面部图像输入人面部的表观年龄预测模型,以获得第一表观年龄;
影响程度确定模块,用于根据所述第一表观年龄、所述表观年龄预测模型和所述第二面部图像确定所述第二面部图像中发生改变的像素点和/或区域对于所述第一表观年龄的影响程度。
13.一种用于确定影响面部衰老程度的局部区域的装置,其特征在于,包括:
存储器,用于存储计算机可执行指令;以及,
处理器,用于在执行所述计算机可执行指令时实现如权利要求1至11中任意一项所述的方法中的步骤。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器执行时实现如权利要求1至11中任意一项所述的方法中的步骤。
CN202010505109.6A 2020-06-05 2020-06-05 用于确定影响面部衰老程度的局部区域的方法和装置 Pending CN113761985A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010505109.6A CN113761985A (zh) 2020-06-05 2020-06-05 用于确定影响面部衰老程度的局部区域的方法和装置
PCT/CN2021/095753 WO2021244352A1 (zh) 2020-06-05 2021-05-25 用于确定影响面部衰老程度的局部区域的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010505109.6A CN113761985A (zh) 2020-06-05 2020-06-05 用于确定影响面部衰老程度的局部区域的方法和装置

Publications (1)

Publication Number Publication Date
CN113761985A true CN113761985A (zh) 2021-12-07

Family

ID=78784947

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010505109.6A Pending CN113761985A (zh) 2020-06-05 2020-06-05 用于确定影响面部衰老程度的局部区域的方法和装置

Country Status (2)

Country Link
CN (1) CN113761985A (zh)
WO (1) WO2021244352A1 (zh)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100386778C (zh) * 2006-06-15 2008-05-07 西安交通大学 基于平均脸和衰老比例图的人脸图像年龄变换方法
KR101758825B1 (ko) * 2015-09-22 2017-07-18 한국과학기술연구원 얼굴 부위별 나이와 환경적 요인을 기반으로 하는 나이 변환 방법, 이를 수행하기 위한 기록 매체 및 장치
CN107315987B (zh) * 2016-04-27 2021-11-09 伽蓝(集团)股份有限公司 评估面部表观年龄、面部衰老程度的方法及其应用
US10579860B2 (en) * 2016-06-06 2020-03-03 Samsung Electronics Co., Ltd. Learning model for salient facial region detection
JP6849825B2 (ja) * 2017-05-31 2021-03-31 ザ プロクター アンド ギャンブル カンパニーThe Procter & Gamble Company 見掛け肌年齢を判定するためのシステム及び方法

Also Published As

Publication number Publication date
WO2021244352A1 (zh) 2021-12-09

Similar Documents

Publication Publication Date Title
Wang et al. Human visual system-based fundus image quality assessment of portable fundus camera photographs
Cerentini et al. Automatic identification of glaucoma using deep learning methods
Putra et al. Enhanced skin condition prediction through machine learning using dynamic training and testing augmentation
CN109508644A (zh) 基于深度视频数据分析的面瘫等级评估***
Adem et al. Detection of hemorrhage in retinal images using linear classifiers and iterative thresholding approaches based on firefly and particle swarm optimization algorithms
CN112016626A (zh) 基于不确定度的糖尿病视网膜病变分类***
CN111611851B (zh) 模型生成方法、虹膜检测方法及装置
Panda et al. Describing the structural phenotype of the glaucomatous optic nerve head using artificial intelligence
CN112446875A (zh) 基于黄斑注意力机制和不确定度的amd分级***
CN112348808A (zh) 屏幕透图检测方法及装置
CN116524356A (zh) 一种矿石图像小样本目标检测方法及***
Feng et al. Using eye aspect ratio to enhance fast and objective assessment of facial paralysis
CN110598652B (zh) 眼底数据预测方法和设备
Raza et al. Hybrid classifier based drusen detection in colored fundus images
Heng et al. Deep learning and explainable machine learning on hair disease detection
CN113761985A (zh) 用于确定影响面部衰老程度的局部区域的方法和装置
Chang et al. Image reconstruction reveals the impact of aging on face perception.
Thanh et al. A real-time classification of glaucoma from retinal fundus images using AI technology
Dimas et al. MedGaze: Gaze estimation on WCE images based on a CNN autoencoder
Chin et al. A facial pore aided detection system using CNN Deep Learning Algorithm
TW201535320A (zh) 增齡分析方法及增齡分析裝置
Deshpande et al. A method for evaluating deep generative models of images via assessing the reproduction of high-order spatial context
Kumari et al. Automated process for retinal image segmentation and classification via deep learning based cnn model
de Araújo XAIPrivacy-XAI with Differential Privacy
Shanthakumari et al. Glaucoma Detection using Fundus Images using Deep Learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination