CN109350072B - 一种基于人工神经网络的步频探测方法 - Google Patents

一种基于人工神经网络的步频探测方法 Download PDF

Info

Publication number
CN109350072B
CN109350072B CN201811359980.9A CN201811359980A CN109350072B CN 109350072 B CN109350072 B CN 109350072B CN 201811359980 A CN201811359980 A CN 201811359980A CN 109350072 B CN109350072 B CN 109350072B
Authority
CN
China
Prior art keywords
data
neural network
window
acceleration
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811359980.9A
Other languages
English (en)
Other versions
CN109350072A (zh
Inventor
黄裕梁
张勇波
卫宗敏
王治华
王俊玲
黄达
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhou Sihua
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN201811359980.9A priority Critical patent/CN109350072B/zh
Publication of CN109350072A publication Critical patent/CN109350072A/zh
Application granted granted Critical
Publication of CN109350072B publication Critical patent/CN109350072B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/112Gait analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Physiology (AREA)
  • Veterinary Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Dentistry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开一种基于人工神经网络的步频探测方法:步骤1、采集神经网络模型训练数据;步骤2、数据预处理;步骤3、对步骤2得到的数据进行波峰检测,为数据制作标签,波峰的标签为1,非波峰或伪波峰的标签为0;步骤4、采用滑动窗口截取训练数据;步骤5、突出窗口内训练数据的波形特征;步骤6、取窗口内中间数据对应的标签作为窗口数据的标签;步骤7、平衡训练数据中正负样本比例;步骤8、神经网络模型搭建与训练;步骤9、在线步频检测时,将接收到的加速度数据依次存入滑动窗口中,并对窗口内的数据按步骤2和5处理;步骤10、将步骤9处理后的数据输入神经网络模型;步骤11、采样时间阈值剔除多余步点。

Description

一种基于人工神经网络的步频探测方法
【技术领域】
本发明属于导航定位领域,具体涉及一种基于人工神经网络的步频探测方法。
【背景技术】
随着社会和科学技术的快速发展,人们在室内日常生活中对基于位置服务的需求正变得越来越大,室内定位技术也得到了广泛的研究,其中行人航迹推算(PedestrianDead Reckoning,PDR)技术凭借其独有的优势获得了大量的研究,步频探测方法是PDR技术的至关重要的一部分。同时随着智能手机的普及,人们对身体健康和身体锻炼问题也越来越关注,基于智能手机的计步方法也越来越多,步频探测是计步方法的基础。
目前,步频探测方法主要基于加速度实现,常用的方法有平滑区域检测、零点交叉检测、峰值检测及自相关等。但是,他们都有一些缺陷。其中最常用的方法是峰值检测,峰值检测通过检测波峰或者波谷来判断行人是否行走一步,通常需要一系列的辅助阈值来筛选峰值,剔除一些因身体手臂异常抖动等原因造成的波峰波谷。因此峰值检测需要通过大量的数据和实验来训练这些阈值。训练出的阈值往往是固定的,以固定的阈值来处理动态的加速度数据,往往容易漏检或者多检。
【发明内容】
本发明的目的是提供一种基于人工神经网络的步频探测方法,利用神经网络算法强大的拟合能力,对加速度数据波形进行处理,实现自动探测步频的目的。
本发明一种基于人工神经网络的步频探测方法,它的步骤如下:
步骤1、采集神经网络模型训练数据,行人手持手机分别以不同的速度和步长行走多次,记录保存行走时硬件设备采集到的加速度数据。
步骤2、预处理,将步骤1采集到的加速度数据按照如下步骤进行预处理:
步骤21、将三轴加速度合成三轴总加速度,计算方法如下:
Figure BDA0001867077070000011
其中ai表示第i个采样点的总加速度数据,
Figure BDA0001867077070000012
表示第i个采样点三轴加速度计x,y,z轴的加速度值。
步骤22、对经过步骤21处理后的加速度数据进行平滑去噪。
步骤3、找到步骤2预处理后的数据中的波峰,对于是波峰的加速度值打上标签1,不是波峰的加速度值打上标签0。将加速度数据波形可视化,根据已知的步数,人为的将不是步点的波峰的标签1改为0。这样,每一个加速度值对应了一个标签。其中步点是指能代表行人行走了一步的加速度数据时间点,一般以波峰对应的时刻作为步点。
步骤4、采用滑动窗口截取训练数据。滑动窗口包含奇数个连续的加速度数据。数据形式如下:
[ai-j,…,ai-2,ai-1,ai,ai+1,ai+2,…,ai+j]
其中j表示窗口内中点左右两边加速度数据的个数,窗口内数据个数2j+1不超过一个步态周期内的加速度数据个数,不小于半个步态周期内加速度数据个数,行人自然行走时的步态周期一般在0.40~0.70秒。因此,j的大小可以由加速度计采样频率和窗口内数据个数范围确定。
步骤5、突出窗口内加速度数据的波形特征,定义符号函数sign:
Figure BDA0001867077070000021
Figure BDA0001867077070000022
其中|x|表示x的绝对值。
步骤6、取窗口内中间加速度的标签(步骤3获得的标签)作为窗口数据的标签。数据形式如下:
[ai-j,…,ai-2,ai-1,ai,ai+1,ai+2,…,ai+j,labeli]
步骤7、对数据集进行重采样或者调整正负样本权重,平衡训练数据中正负样本比例。
步骤8、神经网络模型搭建与训练。人工神经网络采用BP神经网络,模型输入神经元个数为窗口内加速度数据个数。隐藏层层数和每个隐藏层神经元个数通过多次实验获得,每次实验取不同的层数和神经元个数,取使得模型预测准确性最高的隐藏层个数和相应神经元个数即可,实验次数不限。输出神经元输出值表征该输入波形为步点的概率。将经过步骤2、3、4、5、6、7处理得到的训练数据输入神经网络模型进行训练,得到训练好的神经网络模型。
步骤9、在线步频检测时,依照步骤4,将行人行走时携带的硬件接收到的加速度数据依次存入滑动窗口中,并对窗口内的数据依次按照步骤2和步骤5进行处理。
步骤10、将步骤9处理后的数据输入步骤8得到的神经网络模型。若神经网络模型预测概率小于或者等于0.5,则直接判定为非步点,若预测概率大于0.5,则按照步骤11处理。
步骤11、剔除多余步点。设置一个时间阈值δΔt,δΔt取2~3个相邻加速度采样时间间隔即可。用窗口内中间数据对应的时间Tt减去上一个步点对应的时间Tt-1得到时间差Δt,若Δt>δΔt,则窗口内中间加速度数据判定为步点,否则判定为非步点。
本发明提供一种基于人工神经网络的步频探测方法,按照步骤1、2、3、4、5、6、7、8得到步频检测神经网络模型。在线步频检测时,按照步骤9、10、11,完成步频检测。
本发明提出的一种基于人工神经网络的步频探测方法,与现有技术相比,其优点在于:1、在保留了加速度数据绝对值大小的基础上,引入窗口内左右加速度值与中间加速度值相减后的符号,加强了波形特征,能够更加有效提取行人行走时加速度数据反映出的步态特征;2、模型利用了人工神经网络强大的拟合能力,同时辅以时间阈值δΔt,达到了更加精准的识别步频的能力。如果对本发明的各种改动和变形不脱离本发明范围,仍然属于本发明的权利要求和同等技术范围之内。
【附图说明】
图1为本发明一种基于人工神经网络的步频探测方法流程示意图。
【具体实施方式】
本发明提出了一种基于人工神经网络的步频探测方法,其流程图如附图1所示,它包含以下十一个步骤:
步骤1、采集神经网络模型训练数据,行人手持手机分别以不同的速度和步长行走多次,记录保存行走时硬件设备采集到的加速度数据。
步骤2、预处理,将步骤1采集到的加速度数据按照如下步骤进行处理:
步骤21、将三轴加速度合成三轴总加速度,计算方法如下:
Figure BDA0001867077070000041
其中ai表示第i个采样点的总加速度数据,
Figure BDA0001867077070000042
分别表示第i个采样点三轴加速度计x,y,z轴的加速度值。
步骤22、对经过步骤21处理后的加速度数据进行平滑去噪。
步骤3、找到步骤2预处理后的数据中的波峰,对于是波峰的加速度值打上标签1,不是波峰的加速度值打上标签0。将数据波形可视化,根据已知的步数,人为的将不是步点的波峰的标签1改为0。这样,每一个加速度值对应了一个标签。其中步点是指能代表行人行走了一步的加速度数据时间点,一般以波峰对应的时刻作为步点。
步骤4、采用滑动窗口截取训练数据。滑动窗口包含奇数个连续的加速度数据。数据形式如下:
[ai-j,…,ai-2,ai-1,ai,ai+1,ai+2,…,ai+j]
其中j表示窗口内中点左右两边加速度数据的个数,窗口内数据个数2j+1不超过步行周期内加速度数据个数,不小于半个步行周期内加速度数据个数,行人自然行走时的步态周期一般在0.40~0.70秒。因此,j的大小可以由加速度计采样频率和窗口内数据个数范围确定。
步骤5、突出窗口内加速度数据的波形特征,定义符号函数sign:
Figure BDA0001867077070000043
Figure BDA0001867077070000051
其中|x|表示x的绝对值。
步骤6、取窗口内中间加速度对应的标签(步骤3获得的标签)作为窗口数据的标签。数据形式如下:
[ai-j,…,ai-2,ai-1,ai,ai+1,ai+2,…,ai+j,labeli]
步骤7、对数据集重采样或者调整正负样本权重,平衡训练数据中正负样本比例。
步骤8、神经网络模型搭建与训练。人工神经网络采用BP神经网络,模型输入神经元个数为窗口内加速度数据个数。隐藏层层数和每个隐藏层神经元个数通过多次实验获得,每次实验取不同的层数和神经元个数,取使得模型预测准确性最高的隐藏层个数和相应神经元个数即可,实验次数不限。输出神经元输出值表征该输入波形为步点的概率。将经过步骤2、3、4、5、6、7处理得到的训练数据输入神经网络模型进行训练,得到训练好的神经网络模型。
步骤9、在线步频检测时,依照步骤4,将行人行走时携带的硬件接收到的加速度数据依次存入滑动窗口中,并对窗口内的数据依次按照步骤2和步骤5进行处理。
步骤10、将步骤9处理后的数据输入步骤8得到的神经网络模型。若神经网络模型预测概率小于或者等于0.5,则直接判定为非步点,若预测概率大于0.5,则按照步骤11处理。
步骤11、用窗口内中间数据对应的时间Tt减去上一个步点对应的时间Tt-1得到时间差Δt,若Δt>δΔt,则窗口内中间加速度数据判定为步点,并记录Tt。否则判定为非步点。

Claims (3)

1.一种基于人工神经网络的步频探测方法,其特征在于:该方法步骤如下:
步骤1、采集神经网络模型训练数据,行人手持手机分别以不同的速度和步长行走多次,记录保存行走时硬件设备采集到的加速度数据;
步骤2、预处理;具体包括将步骤1采集到的加速度数据按照如下步骤进行预处理:
步骤2.1、将三轴加速度合成三轴总加速度,计算方法如下:
Figure FDA0002460268150000011
其中ai表示第i个采样点的总加速度数据,
Figure FDA0002460268150000012
表示第i个采样点三轴加速度计x,y,z轴的加速度值;
步骤2.2、对经过步骤2.1处理后的加速度数据进行平滑去噪;
步骤3、找到步骤2预处理后的数据中的波峰,对于是波峰的加速度值打上标签1,不是波峰的加速度值打上标签0;将加速度数据波形可视化,根据已知的步数,人为的将不是步点的波峰的标签1改为0;这样,每一个加速度值对应了一个标签;
步骤4、采用滑动窗口截取训练数据;具体过程如下:滑动窗口包含奇数个连续的加速度数据,数据形式如下:
[ai-j,…,ai-2,ai-1,ai,ai+1,ai+2,…,ai+j]
其中j表示窗口内中点左右两边加速度数据的个数,窗口内数据个数2j+1不超过一个步态周期内的加速度数据个数,不小于半个步态周期内加速度数据个数;
步骤5、突出窗口内加速度数据的波形特征,定义符号函数sign:
Figure FDA0002460268150000013
Figure FDA0002460268150000021
其中|x|表示x的绝对值;
步骤6、取窗口内中间加速度的标签作为窗口数据的标签;数据形式如下:
[ai-j,…,ai-2,ai-1,ai,ai+1,ai+2,…,ai+j,labeli]
步骤7、对数据集进行重采样或者调整正负样本权重,平衡训练数据中正负样本比例;
步骤8、神经网络模型搭建与训练;
步骤9、在线步频检测时,依照步骤4,将行人行走时携带的硬件接收到的加速度数据依次存入滑动窗口中,并对窗口内的数据依次按照步骤2和步骤5进行处理;
步骤10、将步骤9处理后的数据输入步骤8得到的神经网络模型;若神经网络模型预测概率小于或者等于0.5,则直接判定为非步点,若预测概率大于0.5,则按照步骤11处理;
步骤11、剔除多余步点。
2.根据权利要求1所述的一种基于人工神经网络的步频探测方法,其特征在于:所述步骤8的具体过程如下:人工神经网络采用BP神经网络,模型输入神经元个数为窗口内加速度数据个数;隐藏层层数和每个隐藏层神经元个数通过多次实验获得,每次实验取不同的层数和神经元个数,取使得模型预测准确性最高的隐藏层个数和相应神经元个数即可,实验次数不限;输出神经元输出值表征该输入波形为步点的概率;将经过步骤2、3、4、5、6、7处理得到的训练数据输入神经网络模型进行训练,得到训练好的神经网络模型。
3.根据权利要求1所述的一种基于人工神经网络的步频探测方法,其特征在于:所述步骤11具体过程如下:设置一个时间阈值δΔt,δΔt取2~3个相邻加速度采样时间间隔,用窗口内中间数据对应的时间Tt减去上一个步点对应的时间Tt-1得到时间差Δt,若Δt>δΔt,则窗口内中间加速度数据判定为步点,否则判定为非步点。
CN201811359980.9A 2018-11-15 2018-11-15 一种基于人工神经网络的步频探测方法 Active CN109350072B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811359980.9A CN109350072B (zh) 2018-11-15 2018-11-15 一种基于人工神经网络的步频探测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811359980.9A CN109350072B (zh) 2018-11-15 2018-11-15 一种基于人工神经网络的步频探测方法

Publications (2)

Publication Number Publication Date
CN109350072A CN109350072A (zh) 2019-02-19
CN109350072B true CN109350072B (zh) 2020-08-04

Family

ID=65345227

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811359980.9A Active CN109350072B (zh) 2018-11-15 2018-11-15 一种基于人工神经网络的步频探测方法

Country Status (1)

Country Link
CN (1) CN109350072B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110553643B (zh) * 2019-09-17 2021-12-21 电子科技大学 一种基于神经网络的行人自适应零速更新点选取方法
WO2021237659A1 (en) * 2020-05-29 2021-12-02 Beijing Didi Infinity Technology And Development Co., Ltd. Indoor navigation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1691170B1 (en) * 2005-02-11 2009-06-10 Samsung Electronics Co., Ltd. Stride-based route guiding apparatus and method
CN102646198A (zh) * 2012-02-21 2012-08-22 温州大学 具有层次结构的混合线性svm分类器的模式识别方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005037103A1 (en) * 2003-10-17 2005-04-28 M.B.T.L. Limited Measuring forces in athletics
CN103371814A (zh) * 2012-04-14 2013-10-30 兰州大学 基于智能诊断的远程无线心电监护***及特征提取方法
CN104567912B (zh) * 2015-02-02 2017-05-17 河海大学 一种在Android手机上实现计步器的方法
CN107091650A (zh) * 2017-04-27 2017-08-25 重庆邮电大学 一种基于手机加速度和距离传感器的软件计步方法
CN107462258B (zh) * 2017-07-13 2020-06-16 河海大学 一种基于手机三轴加速度传感器的计步方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1691170B1 (en) * 2005-02-11 2009-06-10 Samsung Electronics Co., Ltd. Stride-based route guiding apparatus and method
CN102646198A (zh) * 2012-02-21 2012-08-22 温州大学 具有层次结构的混合线性svm分类器的模式识别方法

Also Published As

Publication number Publication date
CN109350072A (zh) 2019-02-19

Similar Documents

Publication Publication Date Title
Zhu et al. Efficient human activity recognition solving the confusing activities via deep ensemble learning
Lu et al. Multimodal fusion convolutional neural network with cross-attention mechanism for internal defect detection of magnetic tile
Liang et al. A convolutional neural network for transportation mode detection based on smartphone platform
CN106096662B (zh) 基于加速度传感器的人体运动状态识别
CN112801000B (zh) 一种基于多特征融合的居家老人摔倒检测方法及***
WO2011092639A1 (en) Systems, methods, and apparatuses for providing context-based navigation services
CN109350072B (zh) 一种基于人工神经网络的步频探测方法
CN112396001B (zh) 基于人体姿态估计和tpa注意力机制的跳绳个数统计方法
CN112464738B (zh) 改进朴素贝叶斯算法基于手机传感器的用户行为识别方法
Yanyun et al. A convolutional neural networks based transportation mode identification algorithm
CN111695413A (zh) 联合U-Net和Temporal Ensembling的信号初至拾取方法及装置
CN109637126A (zh) 一种基于v2x终端的交通对象识别***及其方法
CN110132276B (zh) 一种基于行人运动状态的自适应步长估计方法
CN110163264B (zh) 一种基于机器学习的行走模式识别方法
CN111126718A (zh) 一种台风路径预测方法
CN107346207A (zh) 一种基于隐马尔科夫模型的动态手势切分识别方法
CN111262637A (zh) 一种基于Wi-Fi信道状态信息CSI的人体行为识别方法
CN112420079B (zh) 语音端点检测方法和装置、存储介质及电子设备
CN113327269A (zh) 一种无标记颈椎运动检测方法
CN109271889A (zh) 一种基于双层lstm神经网络的动作识别方法
CN114757237B (zh) 一种基于WiFi信号的速度无关步态识别方法
CN104850225A (zh) 一种基于多层次融合的活动识别方法
CN105512480A (zh) 基于编辑距离的可穿戴设备数据优化处理方法
CN111623797A (zh) 一种基于深度学习的步数测量方法
CN109325428B (zh) 基于多层次端到端神经网络的人类活动姿态识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210201

Address after: 315100 b-211-47, Kexin building, 655 bachelor Road, Yinzhou District, Ningbo City, Zhejiang Province

Patentee after: NINGBO ZHIZHENG WEIYING INFORMATION TECHNOLOGY Co.,Ltd.

Address before: 100191 No. 37, Haidian District, Beijing, Xueyuan Road

Patentee before: BEIHANG University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20211124

Address after: 314500 01, No. 4, South Zaoqiang street, No. 1, Nanmen Gongnong Road, Chongfu Town, Tongxiang City, Jiaxing City, Zhejiang Province

Patentee after: Jiaxing Qiyuan Network Information Technology Co.,Ltd.

Address before: 315100 b-211-47, Kexin building, 655 bachelor Road, Yinzhou District, Ningbo City, Zhejiang Province

Patentee before: NINGBO ZHIZHENG WEIYING INFORMATION TECHNOLOGY Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20240516

Address after: 100010 Zuoanmen Neizuoanyiyuan 1-5-1301, Dongcheng District, Beijing

Patentee after: Zhou Sihua

Country or region after: China

Address before: 314500 01, No. 4, South Zaoqiang street, No. 1, Nanmen Gongnong Road, Chongfu Town, Tongxiang City, Jiaxing City, Zhejiang Province

Patentee before: Jiaxing Qiyuan Network Information Technology Co.,Ltd.

Country or region before: China