CN105046215A - 不受个体佩戴位置和佩戴方式影响的姿态行为识别方法 - Google Patents
不受个体佩戴位置和佩戴方式影响的姿态行为识别方法 Download PDFInfo
- Publication number
- CN105046215A CN105046215A CN201510393345.2A CN201510393345A CN105046215A CN 105046215 A CN105046215 A CN 105046215A CN 201510393345 A CN201510393345 A CN 201510393345A CN 105046215 A CN105046215 A CN 105046215A
- Authority
- CN
- China
- Prior art keywords
- axis
- acceleration
- data
- standard deviation
- average
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明提供一种不受个体佩戴位置和方式影响的姿态行为识别方法,属于模式识别领域。通过采集原始加速度和陀螺仪数据,然后进行窗长度截取,再进行特征提取,提取的特征主要是三轴加速度数据的总体特性和三轴陀螺仪数据的总体特性,之后把特征进行归一化处理,最后使用高斯过程分类器进行分类处理。通过本发明所述方法,可以在把传感器设备以任意方向放置在较为紧身的裤子的任意裤兜内的情况下,精确识别走、跑、站三种动作,***运算复杂度较低,适用性较广泛。
Description
技术领域
本发明属于模式识别、传感器技术领域,具体涉及一种与传感器放置的裤兜位置和方向无关的人体行为识别方法。
背景技术
随着传感器技术的迅速发展,传感器计算能力不断提高、成本和尺寸不断降低,使得利用这些传感器设备与人们进行信息交互以提高生活质量越来越成为日常生活中的一部分。在这个领域中,基于传感器的人体行为分析和识别以其对医疗保健、安全应急、军事和体育竞技等的重要作用,成为了近年来研究的热点课题。
现在基于传感器的人体行为识别一般可分为两种实现方法,一是用外部传感器实现,二是用可穿戴式传感器来实现。外部传感器一般固定在环境中某些预定位置,如智能家居。可穿戴传感器一般固定在人身体中的一个或多个部位,此外,还有一些研究利用的是手机中的传感器进行人体行为识别。
然而,基于外部传感器的人体行为识别的实现对于环境的要求比较高,需要环境中特定位置固定好传感器设备,而在实际中,人的运动环境是不断改变的,这种方法就有很大的局限性。对于基于穿戴式传感器而言,目前的应用一般是需要把传感器固定在人体的固定位置,这样,用户使用时舒适度就会下降很多,且要保证传感器长时间的固定在用户身上某个或某些部位也是很难实现的。而对手机中的传感器的实现来说,由于人对手机的使用主要是通信、娱乐等需要手持式的应用,因此,要把手机持续固定在用户身体的某个位置也是不现实的。
发明内容
本发明的目的在于通过同时使用加速度和陀螺仪数据分析的方法,实现把传感器以任意方向放在较为紧身的裤子的任意裤兜里,都可以精确识别走、跑、站三种动作。
本发明不受个体佩戴位置和方式影响的姿态行为识别方法,该方法包括以下步骤:
1)利用终端设备上的加速度传感器和陀螺仪传感器分别采集获取不同方向上的走、跑、站三种姿态的加速度数据和陀螺仪数据;
2)然后把获取的加速度数据和陀螺仪数据以预设长度为窗长度进行截取,每个加速度数据和陀螺仪数据是有三轴加速度数据和三轴陀螺仪数据组成的六维矢量;
3)再进行特征提取:对每个窗内的所有原始数据取绝对值|ax|、|ay|、|az|、|gx|、|gx|、|gx|,其中ax表示x轴的原始加速度数据、ay表示y轴的原始加速度数据、az表示z轴的原始加速度数据、gx表示x轴的原始陀螺仪数据、gy表示y轴的原始陀螺仪数据、gz表示z轴的原始陀螺仪数据;接着对得到的加速度和陀螺仪数据的绝对值分别求均值和标准差;接着对得到的三轴的加速度和陀螺仪的标准差和均值进行绝对值求和;
4)对绝对值求和后的数据分别进行归一化处理;
5)将归一化处理后的数据作为输入数据,送入高斯过程分类器中进行分类。
本发明的有益结果是:通过采用本发明提供的方法,用户可以把传感器以任意方向放置在任意一个裤兜中,即可精确识别走、跑、站三种行为。这样,一方面可以使得用户操作更为方便和随意;另一方面,由于提高了对位置和方向的鲁棒性,使得此发明的应用范围更加广泛。此外,本发明中仅适用于了四维时域特征即可进行精确识别人体行为,这样减少了计算量和运算时间、降低了能量消耗、增加了***的实时性能,普适性好。与其他固定在身***置上进行人体行为识别的***相比,无论从使用范围上还是***性能上,都有很大改善。
附图说明
图1显示为本发明的***总体框图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
请参阅图1所示,本发明不受个体佩戴位置和方式影响的姿态行为识别方法包括以下步骤:
1)利用终端设备上的加速度传感器和陀螺仪传感器分别采集获取不同方向上的走、跑、站三种姿态的加速度数据和陀螺仪数据;
2)然后把获取的加速度数据和陀螺仪数据以预设长度为窗长度进行截取,每个加速度数据和陀螺仪数据是有三轴加速度数据和三轴陀螺仪数据组成的六维矢量;
3)再进行特征提取:对每个窗内的所有原始数据取绝对值|ax|、|ay|、|az|、|gx|、|gx|、|gx|,其中ax表示x轴的原始加速度数据、ay表示y轴的原始加速度数据、az表示z轴的原始加速度数据、gx表示x轴的原始陀螺仪数据、gy表示y轴的原始陀螺仪数据、gz表示z轴的原始陀螺仪数据;接着对得到的加速度和陀螺仪数据的绝对值分别求均值和标准差;接着对得到的三轴的加速度和陀螺仪的标准差和均值进行绝对值求和;
4)对绝对值求和后的数据分别进行归一化处理;
5)将归一化处理后的数据作为输入数据,送入高斯过程分类器中进行分类。
具体的,步骤如下:
1.数据采集及处理:在Android平台上编写数据采集程序并移植到手机中,采样频率设为100Hz。把设备(一个设备即包含加速度传感器和陀螺仪传感器)以五种方向(不仅仅限于五种方向,但是本实施例中采集数据的时候是以五种较为代表性的方向为主。)放置在右前裤兜中,每种方向要分别采集走、跑、站三种动作的数据,其中每种动作持续2分钟左右,设备中的数据传到手机上并存储到内存卡中。这样,分别在五种方向下做的每一个动作归为一类,即五种方向情况下“走”的数据统一为“走”,五种方向情况下“跑”的数据统一为“跑”,五种方向情况下“站”的数据统一为“站”。
2.窗长度截取:把所有的原始数据(包括加速度数据和陀螺仪数据)以100(约1秒)为窗长度进行截取(本实施例中的预设长度为100,实际应用中可以根据需要设定一个长度),即每100个原始数据矢量为一个窗,其中每个原始数据矢量是有3轴加速度数据和3轴陀螺仪数据组成的6维矢量。
3.特征提取:
3.1)对每个窗内的所有原始数据取绝对值|ax|、|ay|、|az|、|gx|、|gx|、|gx|,其中ax表示x轴的原始加速度数据、ay表示y轴的原始加速度数据、az表示z轴的原始加速度数据、gx表示x轴的原始陀螺仪数据、gy表示y轴的原始陀螺仪数据、gz表示z轴的原始陀螺仪数据。
3.2)对3.1)得到的加速度和陀螺仪的绝对值分别求均值和标准差
x轴的加速度的均值: y轴的加速度的均值:
z轴的加速度的均值: x轴的陀螺仪的均值:
y轴的陀螺仪的均值: z轴的陀螺仪的均值:
x轴的加速度的标准差:
y轴的加速度的标准差:
z轴的加速度的标准差:
x轴的陀螺仪的标准差:
y轴的陀螺仪的标准差:
z轴的陀螺仪的标准差:其中N=100,为窗长度。
3.3)对3.2)得到的三轴的加速度和陀螺仪的标准差和均值进行绝对值求和
加速度特征1:三轴加速度均值之和Ma=max+may+maz
加速度特征2:三轴加速度标准差的绝对值之和Va=|sax|+|say|+|saz|
陀螺仪特征1:三轴陀螺仪均值之和Mg=mgx+mgy+mgz
陀螺仪特征2:三轴陀螺仪标准差的绝对值之和Vg=|sgx|+|sgy|+|sgz|
4.把上一步得出的加速度特征1、加速度特征2、陀螺仪特征1和陀螺仪特征2分别进行归一化处理,通过公式压缩到[0,1]中。
5.把以上处理好的特征作为输入数据,送入高斯过程分类器进行分类。
本发明的有益结果是:通过采用本发明提供的方法,用户可以把传感器以任意方向放置在任意一个裤兜中,即可精确识别走、跑、站三种行为。这样,一方面可以使得用户操作更为方便和随意;另一方面,由于提高了对位置和方向的鲁棒性,使得此发明的应用范围更加广泛。此外,本发明中仅适用于了四维时域特征即可进行精确识别人体行为,这样减少了计算量和运算时间、降低了能量消耗、增加了***的实时性能,普适性好。与其他固定在身***置上进行人体行为识别的***相比,无论从使用范围上还是***性能上,都有很大改善。
综上所述,本发明有效克服了现有技术中的种种缺点而具高度产业利用价值。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。
Claims (5)
1.不受个体佩戴位置和方式影响的姿态行为识别方法,其特征在于:该方法包括以下步骤:
1)利用终端设备上的加速度传感器和陀螺仪传感器分别采集获取不同方向上的走、跑、站三种姿态的加速度数据和陀螺仪数据;
2)然后把获取的加速度数据和陀螺仪数据以预设长度为窗长度进行截取,每个加速度数据和陀螺仪数据是有三轴加速度数据和三轴陀螺仪数据组成的六维矢量;
3)再进行特征提取:对每个窗内的所有原始数据取绝对值|ax|、|ay|、|az|、|gx|、|gx|、|gx|,其中ax表示x轴的原始加速度数据、ay表示y轴的原始加速度数据、az表示z轴的原始加速度数据、gx表示x轴的原始陀螺仪数据、gy表示y轴的原始陀螺仪数据、gz表示z轴的原始陀螺仪数据;接着对得到的加速度和陀螺仪数据的绝对值分别求均值和标准差;接着对得到的三轴的加速度和陀螺仪的标准差和均值进行绝对值求和;
4)对绝对值求和后的数据分别进行归一化处理;
5)将归一化处理后的数据作为输入数据,送入高斯过程分类器中进行分类。
2.根据权利要求1所述的不受个体佩戴位置和方式影响的姿态行为识别方法,其特征在于:所述步骤2)中预设长度为100,即以100为窗长度进行截取,即每100个原始数据矢量为一个窗。
3.根据权利要求1所述的不受个体佩戴位置和方式影响的姿态行为识别方法,其特征在于:对得到的加速度和陀螺仪数据的绝对值分别求均值和标准差采用如下公式:
x轴的加速度的均值:
y轴的加速度的均值:
z轴的加速度的均值:x轴的陀螺仪的均值:
y轴的陀螺仪的均值:z轴的陀螺仪的均值:
x轴的加速度的标准差:
y轴的加速度的标准差:
z轴的加速度的标准差:
x轴的陀螺仪的标准差:
y轴的陀螺仪的标准差:
z轴的陀螺仪的标准差:其中N=100为窗长度,表示在一个窗长度中j轴的第i个加速度数据,表示在一个窗长度中j轴的第i个陀螺仪数据。
4.根据权利要求1所述的不受个体佩戴位置和方式影响的姿态行为识别方法,其特征在于:对得到的三轴的加速度和陀螺仪的标准差和均值进行绝对值求和的公式如下:
加速度特征1:三轴加速度均值之和Ma=max+may+maz
加速度特征2:三轴加速度标准差的绝对值之和Va=|sax|+|say|+|saz|
陀螺仪特征1:三轴陀螺仪均值之和Mg=mgx+mgy+mgz
陀螺仪特征2:三轴陀螺仪标准差的绝对值之和Vg=|sgx|+|sgy|+|sgz|。
5.根据权利要求1所述的不受个体佩戴位置和方式影响的姿态行为识别方法,其特征在于:所述步骤4)中对绝对值求和后的数据分别进行归一化处理的方式为通过公式压缩到[0,1]中。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510393345.2A CN105046215B (zh) | 2015-07-07 | 2015-07-07 | 不受个体佩戴位置和佩戴方式影响的姿态行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510393345.2A CN105046215B (zh) | 2015-07-07 | 2015-07-07 | 不受个体佩戴位置和佩戴方式影响的姿态行为识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105046215A true CN105046215A (zh) | 2015-11-11 |
CN105046215B CN105046215B (zh) | 2018-11-16 |
Family
ID=54452744
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510393345.2A Active CN105046215B (zh) | 2015-07-07 | 2015-07-07 | 不受个体佩戴位置和佩戴方式影响的姿态行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105046215B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105447467A (zh) * | 2015-12-01 | 2016-03-30 | 北京航空航天大学 | 一种用户行为模式的识别***和识别方法 |
CN105678222A (zh) * | 2015-12-29 | 2016-06-15 | 浙江大学 | 一种基于移动设备的人体行为识别方法 |
CN105877757A (zh) * | 2016-03-30 | 2016-08-24 | 哈尔滨理工大学 | 多传感器集成的人体运动姿态捕获与识别装置 |
CN106228200A (zh) * | 2016-10-17 | 2016-12-14 | 中北大学 | 一种不依赖于动作信息采集设备的动作识别方法 |
CN106370180A (zh) * | 2016-08-29 | 2017-02-01 | 常州市钱璟康复股份有限公司 | 基于动态时间规整算法的惯性传感器初始位置识别方法 |
CN109189221A (zh) * | 2018-08-23 | 2019-01-11 | 郑州航空工业管理学院 | 一种跨手机平台的用户行为识别方法 |
CN109938739A (zh) * | 2017-12-20 | 2019-06-28 | 深圳先进技术研究院 | 一种颈椎监测装置 |
CN110333366A (zh) * | 2019-07-08 | 2019-10-15 | 电子科技大学 | 一种具有姿态无关性的加速度信号特征的构造方法 |
CN110929766A (zh) * | 2019-11-11 | 2020-03-27 | 南京航空航天大学 | 一种基于高斯混合聚类算法的自适应行人手机姿态识别方法 |
CN112370050A (zh) * | 2020-11-17 | 2021-02-19 | 哈尔滨理工大学 | 一种人体姿态与运动能量消耗识别***及识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103886323A (zh) * | 2013-09-24 | 2014-06-25 | 清华大学 | 基于移动终端的行为识别方法及移动终端 |
CN104268577A (zh) * | 2014-06-27 | 2015-01-07 | 大连理工大学 | 一种基于惯性传感器的人体行为识别方法 |
CN104598880A (zh) * | 2015-03-06 | 2015-05-06 | 中山大学 | 一种基于模糊支持向量机的行为识别方法 |
-
2015
- 2015-07-07 CN CN201510393345.2A patent/CN105046215B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103886323A (zh) * | 2013-09-24 | 2014-06-25 | 清华大学 | 基于移动终端的行为识别方法及移动终端 |
CN104268577A (zh) * | 2014-06-27 | 2015-01-07 | 大连理工大学 | 一种基于惯性传感器的人体行为识别方法 |
CN104598880A (zh) * | 2015-03-06 | 2015-05-06 | 中山大学 | 一种基于模糊支持向量机的行为识别方法 |
Non-Patent Citations (2)
Title |
---|
徐川龙等: "一种基于三维加速度传感器的人体行为识别方法", 《计算机***应用》 * |
李丹等: "基于三轴加速度传感器的人体日常体力活动识别***设计", 《仪表技术》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105447467A (zh) * | 2015-12-01 | 2016-03-30 | 北京航空航天大学 | 一种用户行为模式的识别***和识别方法 |
CN105678222A (zh) * | 2015-12-29 | 2016-06-15 | 浙江大学 | 一种基于移动设备的人体行为识别方法 |
CN105877757A (zh) * | 2016-03-30 | 2016-08-24 | 哈尔滨理工大学 | 多传感器集成的人体运动姿态捕获与识别装置 |
CN106370180B (zh) * | 2016-08-29 | 2019-06-04 | 常州市钱璟康复股份有限公司 | 基于动态时间规整算法的惯性传感器初始位置识别方法 |
CN106370180A (zh) * | 2016-08-29 | 2017-02-01 | 常州市钱璟康复股份有限公司 | 基于动态时间规整算法的惯性传感器初始位置识别方法 |
CN106228200A (zh) * | 2016-10-17 | 2016-12-14 | 中北大学 | 一种不依赖于动作信息采集设备的动作识别方法 |
CN106228200B (zh) * | 2016-10-17 | 2020-01-14 | 中北大学 | 一种不依赖于动作信息采集设备的动作识别方法 |
CN109938739A (zh) * | 2017-12-20 | 2019-06-28 | 深圳先进技术研究院 | 一种颈椎监测装置 |
CN109189221A (zh) * | 2018-08-23 | 2019-01-11 | 郑州航空工业管理学院 | 一种跨手机平台的用户行为识别方法 |
CN109189221B (zh) * | 2018-08-23 | 2021-07-16 | 郑州航空工业管理学院 | 一种跨手机平台的用户行为识别方法 |
CN110333366A (zh) * | 2019-07-08 | 2019-10-15 | 电子科技大学 | 一种具有姿态无关性的加速度信号特征的构造方法 |
CN110929766A (zh) * | 2019-11-11 | 2020-03-27 | 南京航空航天大学 | 一种基于高斯混合聚类算法的自适应行人手机姿态识别方法 |
CN110929766B (zh) * | 2019-11-11 | 2023-02-03 | 南京航空航天大学 | 一种基于高斯混合聚类算法的自适应行人手机姿态识别方法 |
CN112370050A (zh) * | 2020-11-17 | 2021-02-19 | 哈尔滨理工大学 | 一种人体姿态与运动能量消耗识别***及识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105046215B (zh) | 2018-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105046215A (zh) | 不受个体佩戴位置和佩戴方式影响的姿态行为识别方法 | |
Zou et al. | Deep learning-based gait recognition using smartphones in the wild | |
Henpraserttae et al. | Accurate activity recognition using a mobile phone regardless of device orientation and location | |
Ha et al. | Multi-modal convolutional neural networks for activity recognition | |
Siirtola et al. | Ready-to-use activity recognition for smartphones | |
Gu et al. | Paws: Passive human activity recognition based on wifi ambient signals | |
Kolosnjaji et al. | Neural network-based user-independent physical activity recognition for mobile devices | |
Romera-Paredes et al. | A One-Vs-One Classifier Ensemble With Majority Voting for Activity Recognition. | |
CN107679446B (zh) | 人脸姿态检测方法、装置及存储介质 | |
Thiemjarus et al. | A study on instance-based learning with reduced training prototypes for device-context-independent activity recognition on a mobile phone | |
Chakravarthi et al. | Accelerometer based static gesture recognition and mobile monitoring system using neural networks | |
CN106981174A (zh) | 一种基于智能手机的老人跌倒检测方法 | |
CN104780217A (zh) | 检测用户工作效率的方法、***及客户端 | |
Siirtola et al. | User-independent human activity recognition using a mobile phone: Offline recognition vs. real-time on device recognition | |
Oshin et al. | ERSP: An energy-efficient real-time smartphone pedometer | |
Imran et al. | Hharnet: Taking inspiration from inception and dense networks for human activity recognition using inertial sensors | |
CN104899564A (zh) | 一种人体行为实时识别方法 | |
Jiang et al. | Development of a real-time hand gesture recognition wristband based on sEMG and IMU sensing | |
CN113239803A (zh) | 一种基于行人运动状态识别的航迹推算定位方法 | |
CN110533699A (zh) | 基于光流法的像素变化的动态多帧测速方法 | |
CN105447467A (zh) | 一种用户行为模式的识别***和识别方法 | |
Liu et al. | Automatic fall risk detection based on imbalanced data | |
EP4020403A1 (en) | Systems and methods for privacy-preserving facemask-compliance-level measurement | |
Theekakul et al. | A rule-based approach to activity recognition | |
Harasimowicz et al. | Accelerometer-based human activity recognition and the impact of the sample size |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |