CN106971735B - 一种定期更新缓存中训练语句的声纹识别的方法及*** - Google Patents

一种定期更新缓存中训练语句的声纹识别的方法及*** Download PDF

Info

Publication number
CN106971735B
CN106971735B CN201610025369.7A CN201610025369A CN106971735B CN 106971735 B CN106971735 B CN 106971735B CN 201610025369 A CN201610025369 A CN 201610025369A CN 106971735 B CN106971735 B CN 106971735B
Authority
CN
China
Prior art keywords
acoustic model
voice signal
caching
training sentence
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610025369.7A
Other languages
English (en)
Other versions
CN106971735A (zh
Inventor
祝铭明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yutou Technology Hangzhou Co Ltd
Original Assignee
Yutou Technology Hangzhou Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yutou Technology Hangzhou Co Ltd filed Critical Yutou Technology Hangzhou Co Ltd
Priority to CN201610025369.7A priority Critical patent/CN106971735B/zh
Publication of CN106971735A publication Critical patent/CN106971735A/zh
Application granted granted Critical
Publication of CN106971735B publication Critical patent/CN106971735B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明属于语音信号处理领域,尤其涉及一种定期更新缓存中训练语句的声纹识别方法及***,应用于家用机器人,包括:S1:采集语音信号;S2:对语音信号进行预处理;S3:自预处理后的语音信号中提取语音特征参数;S4:为每一个家庭成员建立声学模型;S5:预先根据使用频率将声学模型区分为常用的第一声学模型和不常用的第二声学模型,并在通电时将第一声学模型加载至缓存中;S6:对第一声学模型中的训练语句进行检测,若第一声学模型具有在该设定的时间段内一次未使用到的训练语句,则从第二声学模型中随机挑选相应数量的训练语句补充到第一声学模型中;S7:依据第一声学模型和第二声学模型对待测语音信号进行模式匹配,获取识别结果。

Description

一种定期更新缓存中训练语句的声纹识别的方法及***
技术领域
本发明属于语音信号处理领域,尤其涉及一种定期更新缓存中训练语句的声纹识别的方法及***。
背景技术
家用服务机器人是当今前沿高技术研究最活跃的领域之一,它可以完成有益于人类的服务工作,如提供家务、娱乐休闲、教育、安全监控等服务,拥有广泛的潜在客户群体与市场,现有的家用服务机器人广泛采用语音识别技术实现人机交互,让机器人能够听懂人类语音,以执行相应动作,然而,现有的机器人尚无法准确识别说话人身份,无法满足用户个性化的需求。随着计算机技术和数字信号处理理论的发展出现的声纹识别技术,通过从说话人的一段语音中,提取出反映该说话人生理、心理的语音特征参数,通过对语音特征参数进行分析建模与模式匹配,来实现辨认或确认未知说话人身份的目的。然而,现有的声纹识别***往往是针对一特定的应用场景进行设计,当***的应用场景发生改变时,自适应能力不强,无法实现人机自由交流,且由于声纹识别的速度过慢,造成用户体验差,这是本领域技术人员所不期望看到的。
发明内容
为解决以上技术问题,提供一种定期更新缓存中训练语句的声纹识别方法及***,解决现有识别方法的缺陷。
具体技术方案如下:
一种定期更新缓存中训练语句的声纹识别方法,其中,应用于家用机器人,具体工作步骤包括:
S1:采集语音信号;
S2:对所述语音信号进行预处理;
S3:自所述预处理后的语音信号中提取语音特征参数,所述语音特征参数包括线性预测得到的第一类特征参数及模拟人耳对声音频率的感知特性而提取的第二类特征参数;
S4:为每一个家庭成员建立一个码本存储在语音数据库中作为所述家庭成员的语音模板,所述家庭成员的所***本构成一声学模型;
S5:预先根据使用频率将所述声学模型区分为第一声学模型和第二声学模型,其中,所述第一声学模型的使用频率大于所述第二声学模型,并在通电时将所述第一声学模型加载至缓存中;
S6:在经过一设定的时间段之后,对所述第一声学模型中的训练语句进行检测,若所述第一声学模型具有在该设定的时间段内一次未使用到的训练语句,则从所述第二声学模型中随机挑选与所述第一声学模型中未使用到的训练语句相应数量的训练语句补充到所述第一声学模型中;
S7:依据所述第一声学模型和第二声学模型对待测语音信号进行模式匹配,获取识别结果。
上述的定期更新缓存中训练语句的声纹识别方法,所述步骤S2中,所述预处理的步骤依次包括:
步骤S21,对所述预处理后的语音信号进行采样和量化以获得数字语音信号;
步骤S22,所述数字语音信号通过一滤波器组以提升所述数字语音信号的高频成分;
步骤S23,对步骤S22得到的语音信号进行分帧与加窗,获得加窗后的语音信号。
上述的定期更新缓存中训练语句的声纹识别方法,所述步骤S3中提取所述第一类特征参数为线性预测系数,提取步骤如下:
步骤S31a,定义短时语音信号和误差信号;
步骤S32a,计算所述短时语音信号和所述误差信号的误差平方和;
步骤S33a,对所述误差平方和求导数,并求解方程组获得所述第一类特征参数。
上述的定期更新缓存中训练语句的声纹识别方法,所述步骤S3中提取所述第二类特征参数的步骤包括:
步骤S31b,对所述预处理后的语音信号进行傅里叶变换得到线性频谱;
步骤S32b,对所述线性频谱通过一三角形带通滤波器组得到相应的梅尔频谱;
步骤S33b,计算所述梅尔频谱的对数频谱;
步骤S34b,对所述对数频谱进行离散余弦变换得到第二类特征参数。
上述的定期更新缓存中训练语句的声纹识别方法,所述步骤S4的具体步骤如下:
步骤S41,自所述语音信号中提取N个特征矢量,通过聚类法对所述特征矢量进行归类得到M个码本;
步骤S42,得到每个类对应的码本矢量;
步骤S43,建立每一个家庭成员的码本矢量的集合构成声学模型。
上述的定期更新缓存中训练语句的声纹识别方法,所述步骤S7具体如下,步骤S71,将待识别的语音信号依次与所述第一声学模型和第二声学模型作相似性匹配,并根据加权欧式距离测度进行判断;
步骤S72,选取适当的距离度量作为门限值;
步骤S73,满足门限值范围内的结果作为识别结果。
还提供,一种定期更新缓存中训练语句的声纹识别***,包括
语音输入模块,用于捕获语音信号;
预处理模块,与所述语音输入模块连接,用于对所述语音信号进行预处理;
第一特征参数提取模块,与所述预处理模块连接,用于获取所述语音信号中的第一特征参数;
第二特征参数提取模块,与所述预处理模块连接,用于获取所述语音信号中的第二特征参数;
训练模块,与所述第一特征参数提取模块和所述第二特征参数提取模块连接,用于建立每个家庭成员的语音模板,所述家庭成员的所***本构成一声学模型;
分类处理模块,与所述训练模块连接,预先根据使用频率将所述声学模型区分为第一声学模型和第二声学模型,其中,所述第一声学模型的使用频率大于所述第二声学模型,并在通电时将所述第一声学模型加载至缓存中;
检测处理模块,与所述分类处理模块连接,在经过一设定的时间段之后,对所述第一声学模型中的训练语句进行检测,若所述第一声学模型具有在该设定的时间段内一次未使用到的训练语句,则从所述第二声学模型中随机挑选与所述第一声学模型中未使用到的训练语句相应数量的训练语句补充到所述第一声学模型中;
模板匹配模块,与所述分类处理模块连接,依据所述第一声学模型和第二声学模型对待测语音信号进行模式匹配,获取识别结果。
有益效果:以上技术方案可以自适应地实现声纹识别,并有效提高了声纹识别的速度,应对不同应用场景下的人机交流,有利于提升用户体验。
附图说明
图1为本发明的方法流程图;
图2为本发明的步骤2的方法流程图;
图3为本发明的***结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
参照图1,一种定期更新缓存中训练语句的声纹识别方法,其中,应用于家用机器人,具体工作步骤包括:
S1:采集语音信号;
S2:对语音信号进行预处理;
S3:自预处理后的语音信号中提取语音特征参数,语音特征参数包括线性预测得到的第一类特征参数及模拟人耳对声音频率的感知特性而提取的第二类特征参数;
S4:为每一个家庭成员建立一个码本存储在语音数据库中作为家庭成员的语音模板,家庭成员的所***本构成一声学模型;
S5:预先根据使用频率将声学模型区分为第一声学模型(常用)和第二声学模型(不常用),其中,第一声学模型的使用频率大于第二声学模型,并在通电时将第一声学模型加载至缓存中,将第二声学模型仍然存储在语音数据库中;
S6:在经过一设定的时间段(过期时间)之后,对第一声学模型中的训练语句进行检测,若第一声学模型具有在该设定的时间段内一次未使用到的训练语句,则从第二声学模型中随机挑选与第一声学模型中未使用到的训练语句相应数量的训练语句补充到第一声学模型中;
S7:依据第一声学模型和第二声学模型对待测语音信号进行模式匹配,获取识别结果。
每个人由于发音器官的生理差异会导致发音方式和说话习惯各不相同,本发明结合线性预测得到的第一类特征参数及模拟人耳对声音频率的感知特性而提取的第二类特征参数,获得声学模型,以改善现有的声纹识别效果,提升用户体验。
上述的定期更新缓存中训练语句的声纹识别方法,参照图2,步骤S2中,预处理的步骤依次包括:
步骤S21,对预处理后的语音信号进行采样和量化以获得数字语音信号;
步骤S22,数字语音信号通过一滤波器组以提升数字语音信号的高频成分;
步骤S23,对步骤S22得到的语音信号进行分帧与加窗,获得加窗后的语音信号。
上述的定期更新缓存中训练语句的声纹识别方法,步骤S3中提取第一类特征参数可以为线性预测系数,其提取步骤如下:
步骤S31a,定义短时语音信号和误差信号;
步骤S32a,计算短时语音信号和误差信号的误差平方和;
步骤S33a,对误差平方和求导数,并求解方程组获得第一类特征参数。
由于语音相邻样点间具有相关性,可以利用线性预测的方式,根据过去的语音样点值来预测现在或未来的样点值,即利用过去若干个语音抽样或它们的线性组合,来逼近语音现在的抽样值。
上述的定期更新缓存中训练语句的声纹识别方法,步骤S3中提取第二类特征参数的步骤,包括:
步骤S31b,对预处理后的语音信号进行傅里叶变换得到线性频谱;
步骤S32b,对线性频谱通过一三角形带通滤波器组得到相应的梅尔频谱;
步骤S33b,计算梅尔频谱的对数频谱;
步骤S34b,对对数频谱进行离散余弦变换得到第二类特征参数。
上述的定期更新缓存中训练语句的声纹识别方法,步骤S4的具体步骤如下:
步骤S41,自第一类特征参数和第二类特征参数中提取N个特征矢量,通过聚类法对特征矢量进行归类得到M个码本;
步骤S42,得到每个类对应的码本矢量;
步骤S43,建立每一个家庭成员的码本矢量的集合构成声学模型。
上述的定期更新缓存中训练语句的声纹识别方法,步骤S7具体如下,
步骤S71,将待识别的语音信号依次与第一声学模型和第二声学模型作相似性匹配,并根据加权欧式距离测度进行判断;
步骤S72,选取适当的距离度量作为门限值;
步骤S73,满足门限值范围内的结果作为识别结果。
还提供,一种定期更新缓存中训练语句的声纹识别***,参照图3,包括
语音输入模块1,用于捕获语音信号;
预处理模块2,与语音输入模块1连接,用于对语音信号进行预处理;
第一特征参数提取模块3,与预处理模块2连接,用于获取语音信号中的第一特征参数;
第二特征参数提取模块4,与预处理模块2连接,用于获取语音信号中的第二特征参数;
训练模块5,与第一特征参数提取模块和第二特征参数提取模块连接,用于建立每个家庭成员的语音模板,家庭成员的所***本构成一声学模型;
分类处理模块6,与训练模块5连接,预先根据使用频率将声学模型区分为第一声学模型和第二声学模型,其中,第一声学模型的使用频率大于第二声学模型,并在通电时将第一声学模型加载至缓存中,将第二声学模型存储在语音数据库中;
检测处理模块7,与分类处理模块6连接,在经过一设定的时间段之后,对第一声学模型中的训练语句进行检测,若第一声学模型具有在该设定的时间段内一次未使用到的训练语句,则从第二声学模型中随机挑选与第一声学模型中未使用到的训练语句相应数量的训练语句补充到第一声学模型中;
模板匹配模块8,与分类处理模块6连接,依次依据第一声学模型和第二声学模型对待测语音信号进行模式匹配,获取识别结果。
以上仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。

Claims (7)

1.一种定期更新缓存中训练语句的声纹识别方法,其特征在于,应用于家用机器人,具体工作步骤包括:
S1:采集语音信号;
S2:对所述语音信号进行预处理;
S3:自所述预处理后的语音信号中提取语音特征参数,所述语音特征参数包括线性预测得到的第一类特征参数及模拟人耳对声音频率的感知特性而提取的第二类特征参数;
S4:为每一个家庭成员建立一个码本存储在语音数据库中作为所述家庭成员的语音模板,所述家庭成员的所***本构成一声学模型;
S5:预先根据使用频率将所述声学模型区分为第一声学模型和第二声学模型,其中,所述第一声学模型的使用频率大于所述第二声学模型,并在通电时将所述第一声学模型加载至缓存中;
S6:在经过一设定的时间段之后,对所述第一声学模型中的训练语句进行检测,若所述第一声学模型具有在该设定的时间段内一次未使用到的训练语句,则从所述第二声学模型中随机挑选与所述第一声学模型中未使用到的训练语句相应数量的训练语句补充到所述第一声学模型中;
S7:依据所述第一声学模型和第二声学模型对待测语音信号进行模式匹配,获取识别结果。
2.根据权利要求1所述的定期更新缓存中训练语句的声纹识别方法,其特征在于,所述步骤S2中,所述预处理的步骤依次包括:
步骤S21,对所述预处理后的语音信号进行采样和量化以获得数字语音信号;
步骤S22,所述数字语音信号通过一滤波器组以提升所述数字语音信号的高频成分;
步骤S23,对步骤S22得到的语音信号进行分帧与加窗,获得加窗后的语音信号。
3.根据权利要求1所述的定期更新缓存中训练语句的声纹识别方法,其特征在于,所述步骤S3中提取所述第一类特征参数为线性预测系数,提取步骤如下:
步骤S31a,定义短时语音信号和误差信号;
步骤S32a,计算所述短时语音信号和所述误差信号的误差平方和;
步骤S33a,对所述误差平方和求导数,并求解方程组获得所述第一类特征参数。
4.根据权利要求1所述的定期更新缓存中训练语句的声纹识别方法,其特征在于,所述步骤S3中提取所述第二类特征参数的步骤包括:
步骤S31b,对所述预处理后的语音信号进行傅里叶变换得到线性频谱;
步骤S32b,对所述线性频谱通过一三角形带通滤波器组得到相应的梅尔频谱;
步骤S33b,计算所述梅尔频谱的对数频谱;
步骤S34b,对所述对数频谱进行离散余弦变换得到第二类特征参数。
5.根据权利要求1所述的定期更新缓存中训练语句的声纹识别方法,其特征在于,所述步骤S4的具体步骤如下:
步骤S41,自所述第一类特征参数和所述第二类特征参数中提取N个特征矢量,通过聚类法对所述特征矢量进行归类得到M个码本;
步骤S42,得到每个类对应的码本矢量;
步骤S43,建立每一个家庭成员的码本矢量的集合构成声学模型。
6.根据权利要求1所述的定期更新缓存中训练语句的声纹识别方法,其特征在于,所述步骤S7具体如下,
步骤S71,将待识别的语音信号依次与所述第一声学模型和所述第二声学模型作相似性匹配,并根据加权欧式距离测度进行判断;
步骤S72,选取适当的距离度量作为门限值;
步骤S73,满足门限值范围内的结果作为识别结果。
7.一种定期更新缓存中训练语句的声纹识别***,其特征在于,包括
语音输入模块,用于捕获语音信号;
预处理模块,与所述语音输入模块连接,用于对所述语音信号进行预处理;
第一特征参数提取模块,与所述预处理模块连接,用于获取所述语音信号中的第一特征参数;
第二特征参数提取模块,与所述预处理模块连接,用于获取所述语音信号中的第二特征参数;
训练模块,与所述第一特征参数提取模块和所述第二特征参数提取模块连接,用于建立每个家庭成员的语音模板,所述家庭成员的所***本构成一声学模型;
分类处理模块,与所述训练模块连接,预先根据使用频率将所述声学模型区分为第一声学模型和第二声学模型,其中,所述第一声学模型的使用频率大于所述第二声学模型,并在通电时将所述第一声学模型加载至缓存中;
检测处理模块,与所述分类处理模块连接,在经过一设定的时间段之后,对所述第一声学模型中的训练语句进行检测,若所述第一声学模型具有在该设定的时间段内一次未使用到的训练语句,则从所述第二声学模型中随机挑选与所述第一声学模型中未使用到的训练语句相应数量的训练语句补充到所述第一声学模型中;
模板匹配模块,与所述分类处理模块连接,依据所述第一声学模型和第二声学模型对待测语音信号进行模式匹配,获取识别结果。
CN201610025369.7A 2016-01-14 2016-01-14 一种定期更新缓存中训练语句的声纹识别的方法及*** Active CN106971735B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610025369.7A CN106971735B (zh) 2016-01-14 2016-01-14 一种定期更新缓存中训练语句的声纹识别的方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610025369.7A CN106971735B (zh) 2016-01-14 2016-01-14 一种定期更新缓存中训练语句的声纹识别的方法及***

Publications (2)

Publication Number Publication Date
CN106971735A CN106971735A (zh) 2017-07-21
CN106971735B true CN106971735B (zh) 2019-12-03

Family

ID=59334361

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610025369.7A Active CN106971735B (zh) 2016-01-14 2016-01-14 一种定期更新缓存中训练语句的声纹识别的方法及***

Country Status (1)

Country Link
CN (1) CN106971735B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109377997B (zh) * 2018-12-10 2021-06-01 珠海格力电器股份有限公司 一种家电的语音控制方法、装置、存储介质及家电***
CN110660398B (zh) * 2019-09-19 2020-11-20 北京三快在线科技有限公司 声纹特征更新方法、装置、计算机设备及存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080312926A1 (en) * 2005-05-24 2008-12-18 Claudio Vair Automatic Text-Independent, Language-Independent Speaker Voice-Print Creation and Speaker Recognition
CN102509547B (zh) * 2011-12-29 2013-06-19 辽宁工业大学 基于矢量量化的声纹识别方法及***
CN102760434A (zh) * 2012-07-09 2012-10-31 华为终端有限公司 一种声纹特征模型更新方法及终端
KR20140054643A (ko) * 2012-10-29 2014-05-09 삼성전자주식회사 음성인식장치 및 음성인식방법
CN103903617A (zh) * 2012-12-24 2014-07-02 联想(北京)有限公司 一种语音识别方法及电子设备
US9502038B2 (en) * 2013-01-28 2016-11-22 Tencent Technology (Shenzhen) Company Limited Method and device for voiceprint recognition
CN104167206B (zh) * 2013-05-17 2017-05-31 佳能株式会社 声学模型合并方法和设备以及语音识别方法和***
CN103700369B (zh) * 2013-11-26 2016-08-31 科大讯飞股份有限公司 语音导航方法及***

Also Published As

Publication number Publication date
CN106971735A (zh) 2017-07-21

Similar Documents

Publication Publication Date Title
CN109065027B (zh) 语音区分模型训练方法、装置、计算机设备及存储介质
CN104732978B (zh) 基于联合深度学习的文本相关的说话人识别方法
CN105023573B (zh) 使用听觉注意力线索的语音音节/元音/音素边界检测
CN110600017A (zh) 语音处理模型的训练方法、语音识别方法、***及装置
CN110299142B (zh) 一种基于网络融合的声纹识别方法及装置
CN111461176A (zh) 基于归一化互信息的多模态融合方法、装置、介质及设备
CN106251874A (zh) 一种语音门禁和安静环境监控方法及***
CN108281146A (zh) 一种短语音说话人识别方法和装置
CN107507625B (zh) 声源距离确定方法及装置
CN108922541A (zh) 基于dtw和gmm模型的多维特征参数声纹识别方法
WO2018166316A1 (zh) 融合多种端到端神经网络结构的说话人感冒症状识别方法
US20180053512A1 (en) Reverberation compensation for far-field speaker recognition
CN108986798B (zh) 语音数据的处理方法、装置及设备
CN109036460A (zh) 基于多模型神经网络的语音处理方法和装置
CN105679323B (zh) 一种号码发现方法及***
CN110136726A (zh) 一种语音性别的估计方法、装置、***及存储介质
CN109473102A (zh) 一种机器人秘书智能会议记录方法及***
CN106971735B (zh) 一种定期更新缓存中训练语句的声纹识别的方法及***
Stefanus et al. GMM based automatic speaker verification system development for forensics in Bahasa Indonesia
CN110556098B (zh) 语音识别结果测试方法、装置、计算机设备和介质
CN106971712A (zh) 一种自适应的快速声纹识别方法及***
CN111489763A (zh) 一种基于gmm模型的复杂环境下说话人识别自适应方法
CN110085236A (zh) 一种基于自适应语音帧加权的说话人识别方法
KR20190125668A (ko) 반려동물의 감정상태 분석장치 및 방법
CN106981287A (zh) 一种提高声纹识别速度的方法及***

Legal Events

Date Code Title Description
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant