CN109472353B - 一种卷积神经网络量化电路及量化方法 - Google Patents

一种卷积神经网络量化电路及量化方法 Download PDF

Info

Publication number
CN109472353B
CN109472353B CN201811398233.6A CN201811398233A CN109472353B CN 109472353 B CN109472353 B CN 109472353B CN 201811398233 A CN201811398233 A CN 201811398233A CN 109472353 B CN109472353 B CN 109472353B
Authority
CN
China
Prior art keywords
quantization
neural network
convolutional neural
quantized
zero value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811398233.6A
Other languages
English (en)
Other versions
CN109472353A (zh
Inventor
王子彤
姜凯
于治楼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inspur Group Co Ltd
Original Assignee
Inspur Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Inspur Group Co Ltd filed Critical Inspur Group Co Ltd
Priority to CN201811398233.6A priority Critical patent/CN109472353B/zh
Publication of CN109472353A publication Critical patent/CN109472353A/zh
Application granted granted Critical
Publication of CN109472353B publication Critical patent/CN109472353B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Complex Calculations (AREA)

Abstract

本发明公开了一种卷积神经网络量化电路及量化方法,属于人工智能数据处理技术领域,包括原始参数池、比较器阵列、量化参数计算单元和算术运算单元,所述原始参数池用于存储卷积神经网络每层计算所需的原始参数数据,包括每层所有卷积核各通道数据和偏置数据;所述比较器阵列用于对原始参数池中的数据进行统计运算,迭代比较得到卷积神经网络各层参数的最大值及最小值;所述量化参数计算单元用于对所述最大值及最小值进行算术运算,得到模型量化所用的各参数;所述算术运算单元用于对模型进行量化,所得结果均以无符号位指定位数的整数格式表示。本发明经过量化可以降低***功耗,使卷积神经网络在端上的部署运行得到更可靠的保证。

Description

一种卷积神经网络量化电路及量化方法
技术领域
本发明涉及人工智能数据处理技术领域,具体地说是一种卷积神经网络量化电路及量化方法。
背景技术
卷积神经网络作为人工智能发展大潮中一支重要方向,已呈白热化发展状态。各种新模型新算法层出不穷,为这一领域源源不断注入新的推动力量。其中,网络模型深度增加和规模增大是主要发展方向,在精度不断提高的过程中,神经网络的部署与实现却面临巨大挑战。
由于移动端处理和存储水平发展限制,深度和尺寸成倍增长的人工神经网络只能在大规模计算资源的处理机器中运行,设备功耗和运行速度达不到要求。无法进行端的移植,进而无法集群部署。一些适用于各种场景的新型网络无法得到应用与验证,一定程度上阻碍着算法的优化和网络的进步。
发明内容
本发明的技术任务是针对以上不足之处,提供一种卷积神经网络量化电路及量化方法,可以降低***功耗,使卷积神经网络在端上的部署运行得到更可靠的保证。
本发明解决其技术问题所采用的技术方案是:
一种卷积神经网络量化电路,包括原始参数池、比较器阵列、量化参数计算单元和算术运算单元,
所述原始参数池用于存储卷积神经网络每层计算所需的原始参数数据,包括每层所有卷积核各通道数据和偏置数据,均以有符号实数型数据格式表达;
所述比较器阵列用于对原始参数池中的数据进行统计运算,迭代比较得到卷积神经网络各层参数的最大值及最小值;
所述量化参数计算单元用于根据一定的算法,对所述最大值及最小值进行算术运算,得到模型量化所用的各参数;
所述算术运算单元用于根据所述量化后的参数,从卷积神经网络首层的原始输入开始,对卷积、累加、池化及全连接等过程进行量化,所得结果均以无符号位指定位数的整数格式表示。
通过量化计算,可以将有符号的实数型数据格式变为无符号指定位数的整数格式,可以降低模型存储容量和带宽需求。
进一步的,该量化电路还包括微调单元,用于对量化结果进行一定范围内的修正,以消除算术运算单元由于移位及乘除法运算带来的误差。
进一步的,该量化电路还包括激活单元,用于根据量化参数,将量化后的数据截短,以满足下一层卷积神经网络输入要求。
优选的,所述量化参数计算单元得到的量化参数包括:卷积核量化零值、量化扩展系数、量化移位位数一、量化移位位数二、输出量化零值、偏置扩展系数和全连接输出量化零值。
进一步的,所述算术运算单元包括加法阵列、位移阵列和乘法器阵列,以实现卷积、累加、池化及全连接等过程中的量化运算,包括:对输入特征图与输入特征图量化零值作差运算,对输入卷积核与卷积核量化零值作差运算,对减去零值的输入特征图及卷积核乘积运算,对乘积结果与量化扩展系数进行乘积运算,对二次乘积结果进行两次量化移位计算,对移位结果和输出量化零值进行求和运算,对原始偏置与偏置扩展系数进行乘积运算,对全连接输出和全连接输出量化零值进行求和。
其中,在量化扩展乘积运算之后以及第一次量化位移之后,需要经过微调单元对结果进行微调计算。
进一步的,所述输入特征图量化零值经模型重新训练得到。
本发明还提供一种卷积神经网络量化方法,该方法通过以下步骤实现:
1)、对原始卷积神经网络各层参数进行数据统计,得到每层每组参数的最大值和最小值;
2)、利用极值及特定算法得到量化过程所需参数,参数包括:卷积核量化零值、量化扩展系数、量化移位位数一、量化移位位数二、输出量化零值、偏置扩展系数和全连接输出量化零值;
3)、在原有卷积神经网络计算过程基础上添加量化计算,从卷积神经网络首层的原始输入开始,对卷积、累加、池化及全连接等过程进行量化,得到量化后的输出结果,所得结果均以无符号位指定位数的整数格式表示;
4)、对结果进行修正及激活截短,消除由于移位及乘除法运算带来的误差,并将量化后的数据截短,以适应下一层卷积神经网络输入。
具体的,所述量化后的输出结果均以无符号位指定位数的整数格式表示。
具体的,利用步骤2)所得到量化过程所需参数,所述量化计算为:对输入特征图与输入特征图量化零值作差运算,对输入卷积核与卷积核量化零值作差运算,对减去零值的输入特征图及卷积核乘积运算,对乘积结果与量化扩展系数进行乘积运算,对二次乘积结果进行两次量化移位计算,对移位结果和输出量化零值进行求和运算,对原始偏置与偏置扩展系数进行乘积运算,对全连接输出和全连接输出量化零值进行求和。
本发明的一种卷积神经网络量化电路及量化方法与现有技术相比,具有以下有益效果:
通过对卷积神经网络模型参数的量化,首先对存储***的要求放宽,由带符号多位实数转化为无符号八位整形数据,大大降低了模型存储容量与带宽需求,提高仿存速率;在保证计算精度的同时,量化后的模型计算消耗时延降低,业务效率得到提升;量化后***功耗降低,使得卷积神经网络在端上的部署与运行得到更可靠的保证。
附图说明
图1是本发明的卷积神经网络量化电路的结构框图;
图2是本发明的卷积神经网络量化方法的流程图。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
一种卷积神经网络量化电路,包括原始参数池、比较器阵列、量化参数计算单元、算术运算单元、微调单元和激活单元。
所述原始参数池用于存储卷积神经网络每层计算所需的原始参数数据,包括每层所有卷积核各通道数据和偏置数据,均以有符号实数型数据格式表达;
所述比较器阵列用于对原始参数池中的数据进行统计运算,迭代比较得到卷积神经网络各层参数的最大值及最小值;
所述量化参数计算单元用于根据一定的算法,对所述最大值及最小值进行算术运算,得到模型量化所用的各参数;
所述算术运算单元用于根据所述量化后的参数,从卷积神经网络首层的原始输入开始,对卷积、累加、池化及全连接等过程进行量化,所得结果均以无符号位指定位数的整数格式表示。
所述微调单元,用于对量化结果进行一定范围内的修正,以消除算术运算单元由于移位及乘除法运算带来的误差。
所述激活单元,用于根据量化参数,将量化后的数据截短,以满足下一层卷积神经网络输入要求。
其中,所述量化参数计算单元得到的量化参数包括:卷积核量化零值、量化扩展系数、量化移位位数一、量化移位位数二、输出量化零值、偏置扩展系数和全连接输出量化零值。
所述算术运算单元包括加法阵列、位移阵列和乘法器阵列,以实现卷积、累加、池化及全连接等过程中的量化运算,包括:对输入特征图与输入特征图量化零值作差运算,对输入卷积核与卷积核量化零值作差运算,对减去零值的输入特征图及卷积核乘积运算,对乘积结果与量化扩展系数进行乘积运算,对二次乘积结果进行两次量化移位计算,对移位结果和输出量化零值进行求和运算,对原始偏置与偏置扩展系数进行乘积运算,对全连接输出和全连接输出量化零值进行求和。
其中,在量化扩展乘积运算之后以及第一次量化位移之后,需要经过微调单元对结果进行微调计算。
其中,所述输入特征图量化零值经模型重新训练得到。
通过量化计算,可以将有符号的实数型数据格式变为无符号指定位数的整数格式,可以降低模型存储容量和带宽需求。
在发明的一个实施例中,还提供一种卷积神经网络量化方法,该方法通过以下步骤实现:
1)、对原始卷积神经网络各层参数进行数据统计,得到每层每组参数的最大值和最小值;
使用原始参数池存储卷积神经网络每层计算所需的原始参数数据,包括每层所有卷积核各通道数据和偏置数据,均以有符号实数型数据格式表达;
通过使用比较器阵列用于对原始参数池中的数据进行统计运算,迭代比较得到卷积神经网络各层参数的最大值及最小值。
2)、利用极值及特定算法,对所述最大值及最小值进行算术运算,得到量化过程所需参数,参数包括:卷积核量化零值、量化扩展系数、量化移位位数一、量化移位位数二、输出量化零值、偏置扩展系数和全连接输出量化零值;
3)、在原有卷积神经网络计算过程基础上添加量化计算,从卷积神经网络首层的原始输入开始,对卷积、累加、池化及全连接等过程进行量化,得到量化后的输出结果,所得结果均以无符号位指定位数的整数格式表示;
利用步骤2)所得到量化过程所需参数,所述量化计算为:对输入特征图与输入特征图量化零值作差运算,对输入卷积核与卷积核量化零值作差运算,对减去零值的输入特征图及卷积核乘积运算,对乘积结果与量化扩展系数进行乘积运算,对二次乘积结果进行两次量化移位计算,对移位结果和输出量化零值进行求和运算,对原始偏置与偏置扩展系数进行乘积运算,对全连接输出和全连接输出量化零值进行求和。
4)、对结果进行修正及激活截短,消除由于移位及乘除法运算带来的误差,并将量化后的数据截短,以适应下一层卷积神经网络输入。
在量化扩展乘积运算之后以及第一次量化位移之后,需要经过微调单元对结果进行微调计算。
其中,所述输入特征图量化零值经模型重新训练得到。
通过对卷积神经网络模型参数的量化,首先对存储***的要求放宽,由带符号多位实数转化为无符号八位整形数据,大大降低了模型存储容量与带宽需求,提高仿存速率;在保证计算精度的同时,量化后的模型计算消耗时延降低,业务效率得到提升;量化后***功耗降低,使得卷积神经网络在端上的部署与运行得到更可靠的保证。
通过上面具体实施方式,所述技术领域的技术人员可容易的实现本发明。但是应当理解,本发明并不限于上述的具体实施方式。在公开的实施方式的基础上,所述技术领域的技术人员可任意组合不同的技术特征,从而实现不同的技术方案。
除说明书所述的技术特征外,均为本专业技术人员的已知技术。

Claims (8)

1.一种卷积神经网络量化电路,其特征在于包括原始参数池、比较器阵列、量化参数计算单元和算术运算单元,
所述原始参数池用于存储卷积神经网络每层计算所需的原始参数数据,包括每层所有卷积核各通道数据和偏置数据;
所述比较器阵列用于对原始参数池中的数据进行统计运算,迭代比较得到卷积神经网络各层参数的最大值及最小值;
所述量化参数计算单元用于对所述最大值及最小值进行算术运算,得到模型量化所用的各参数;
所述算术运算单元用于根据所述量化后的参数,从卷积神经网络首层的原始输入开始,对卷积、累加、池化及全连接过程进行量化,所得结果均以无符号位指定位数的整数格式表示;
所述算术运算单元包括加法阵列、位移阵列和乘法器阵列,对输入特征图与输入特征图量化零值作差运算,对输入卷积核与卷积核量化零值作差运算,对减去零值的输入特征图及卷积核乘积运算,对乘积结果与量化扩展系数进行乘积运算,对二次乘积结果进行两次量化移位计算,对移位结果和输出量化零值进行求和运算,对原始偏置与偏置扩展系数进行乘积运算,对全连接输出和全连接输出量化零值进行求和。
2.根据权利要求1所述的一种卷积神经网络量化电路,其特征在于还包括微调单元,用于对量化结果进行修正,以消除算术运算单元运算产生的误差。
3.根据权利要求1或2所述的一种卷积神经网络量化电路,其特征在于还包括激活单元,用于根据量化参数,将量化后的数据截短,以满足下一层卷积神经网络输入要求。
4.根据权利要求3所述的一种卷积神经网络量化电路,其特征在于所述量化参数计算单元得到的量化参数包括:卷积核量化零值、量化扩展系数、量化移位位数一、量化移位位数二、输出量化零值、偏置扩展系数和全连接输出量化零值。
5.根据权利要求1所述的一种卷积神经网络量化电路,其特征在于在量化扩展乘积运算之后以及第一次量化位移之后,对结果进行微调计算。
6.根据权利要求1所述的一种卷积神经网络量化电路,其特征在于所述输入特征图量化零值经模型重新训练得到。
7.一种卷积神经网络量化方法,其特征在于该方法通过以下步骤实现:
1)、对原始卷积神经网络各层参数进行数据统计,得到每层每组参数的最大值和最小值;
2)、利用极值及特定算法得到量化过程所需参数;
3)、在原有卷积神经网络计算过程基础上添加量化计算,得到量化后的输出结果;
4)、对结果进行修正及激活截短,以适应下一层卷积神经网络输入;
所述量化计算为:对输入特征图与输入特征图量化零值作差运算,对输入卷积核与卷积核量化零值作差运算,对减去零值的输入特征图及卷积核乘积运算,对乘积结果与量化扩展系数进行乘积运算,对二次乘积结果进行两次量化移位计算,对移位结果和输出量化零值进行求和运算,对原始偏置与偏置扩展系数进行乘积运算,对全连接输出和全连接输出量化零值进行求和。
8.根据权利要求7所述的一种卷积神经网络量化方法,其特征在于所述量化后的输出结果均以无符号位指定位数的整数格式表示。
CN201811398233.6A 2018-11-22 2018-11-22 一种卷积神经网络量化电路及量化方法 Active CN109472353B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811398233.6A CN109472353B (zh) 2018-11-22 2018-11-22 一种卷积神经网络量化电路及量化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811398233.6A CN109472353B (zh) 2018-11-22 2018-11-22 一种卷积神经网络量化电路及量化方法

Publications (2)

Publication Number Publication Date
CN109472353A CN109472353A (zh) 2019-03-15
CN109472353B true CN109472353B (zh) 2020-11-03

Family

ID=65672971

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811398233.6A Active CN109472353B (zh) 2018-11-22 2018-11-22 一种卷积神经网络量化电路及量化方法

Country Status (1)

Country Link
CN (1) CN109472353B (zh)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11437032B2 (en) 2017-09-29 2022-09-06 Shanghai Cambricon Information Technology Co., Ltd Image processing apparatus and method
US11169803B2 (en) 2018-02-13 2021-11-09 Shanghai Cambricon Information Technology Co., Ltd. Computing device and method
CN116991226A (zh) 2018-02-14 2023-11-03 上海寒武纪信息科技有限公司 处理器的控制装置、方法及设备
WO2020001438A1 (zh) 2018-06-27 2020-01-02 上海寒武纪信息科技有限公司 片上代码断点调试方法、片上处理器及芯片断点调试***
CN110020616B (zh) * 2019-03-26 2021-05-11 深兰科技(上海)有限公司 一种目标识别方法及设备
CN110008952B (zh) * 2019-03-26 2021-06-15 深兰科技(上海)有限公司 一种目标识别方法及设备
CN111767204B (zh) * 2019-04-02 2024-05-28 杭州海康威视数字技术股份有限公司 溢出风险检测方法、装置及设备
CN111930681B (zh) * 2019-05-13 2023-10-10 中科寒武纪科技股份有限公司 一种计算装置及相关产品
CN112085190B (zh) * 2019-06-12 2024-04-02 上海寒武纪信息科技有限公司 一种神经网络的量化参数确定方法及相关产品
US11676029B2 (en) 2019-06-12 2023-06-13 Shanghai Cambricon Information Technology Co., Ltd Neural network quantization parameter determination method and related products
CN112085187A (zh) * 2019-06-12 2020-12-15 安徽寒武纪信息科技有限公司 数据处理方法、装置、计算机设备和存储介质
CN112085177A (zh) * 2019-06-12 2020-12-15 安徽寒武纪信息科技有限公司 数据处理方法、装置、计算机设备和存储介质
WO2021022903A1 (zh) * 2019-08-07 2021-02-11 安徽寒武纪信息科技有限公司 数据处理方法、装置、计算机设备和存储介质
CN110674924B (zh) * 2019-08-22 2022-06-03 苏州浪潮智能科技有限公司 一种深度学习推理自动量化方法和装置
EP4020321A4 (en) 2019-08-23 2024-01-17 Anhui Cambricon Information Technology Co., Ltd. DATA PROCESSING METHOD, APPARATUS, COMPUTER APPARATUS AND STORAGE MEDIUM
KR20210076687A (ko) 2019-12-16 2021-06-24 삼성전자주식회사 뉴럴 프로세싱 장치 및 뉴럴 프로세싱 장치에서 뉴럴 네트워크를 처리하는 방법
CN111291876B (zh) * 2020-01-21 2023-03-28 星宸科技股份有限公司 运算装置、运算方法和运算芯片
US11436011B2 (en) 2020-02-18 2022-09-06 Samsung Electronics Co., Ltd. Processing method and processing device with matrix multiplication computation
CN113298843B (zh) * 2020-02-24 2024-05-14 中科寒武纪科技股份有限公司 数据量化处理方法、装置、电子设备和存储介质
CN111914996A (zh) * 2020-06-30 2020-11-10 华为技术有限公司 一种提取数据特征的方法和相关装置
CN111783957B (zh) * 2020-07-02 2024-05-03 厦门美图之家科技有限公司 模型量化训练方法、装置、机器可读存储介质及电子设备
WO2022087953A1 (zh) * 2020-10-29 2022-05-05 华为技术有限公司 一种基于神经网络模型的量化方法及其相关设备
CN115879530B (zh) * 2023-03-02 2023-05-05 湖北大学 一种面向rram存内计算***阵列结构优化的方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105488565A (zh) * 2015-11-17 2016-04-13 中国科学院计算技术研究所 加速深度神经网络算法的加速芯片的运算装置及方法
CN107239826A (zh) * 2017-06-06 2017-10-10 上海兆芯集成电路有限公司 在卷积神经网络中的计算方法及装置
CN115841137A (zh) * 2017-06-06 2023-03-24 格兰菲智能科技有限公司 一种用于对待量化数据进行定点化处理的方法及计算装置
CN108364061B (zh) * 2018-02-13 2020-05-05 北京旷视科技有限公司 运算装置、运算执行设备及运算执行方法
CN108510067B (zh) * 2018-04-11 2021-11-09 西安电子科技大学 基于工程化实现的卷积神经网络量化方法

Also Published As

Publication number Publication date
CN109472353A (zh) 2019-03-15

Similar Documents

Publication Publication Date Title
CN109472353B (zh) 一种卷积神经网络量化电路及量化方法
CN111768002B (zh) 一种基于弹性有效位的深度神经网络量化方法
CN107516129B (zh) 基于维度自适应的Tucker分解的深度网络压缩方法
CN113315604B (zh) 一种联邦学习自适应梯度量化方法
CN107340993B (zh) 运算装置和方法
CN109214509B (zh) 一种用于深度神经网络高速实时量化结构和运算实现方法
CN110688088A (zh) 一种面向神经网络的通用非线性激活函数计算装置和方法
CN110276451A (zh) 一种基于权重归一化的深度神经网络压缩方法
CN111738427B (zh) 一种神经网络的运算电路
CN112633477A (zh) 一种基于现场可编程阵列的量化神经网络加速方法
CN111758104A (zh) 适合于硬件实现的神经网络参数优化方法、神经网络计算方法和装置
CN111199740A (zh) 一种基于边缘计算加速自动语音识别任务的卸载方法
CN113595993A (zh) 边缘计算下模型结构优化的车载感知设备联合学习方法
WO2022170811A1 (zh) 一种适用于混合精度神经网络的定点乘加运算单元及方法
CN110110852B (zh) 一种深度学***台的方法
CN110955405A (zh) 一种输入数据的处理及指数值获取方法、装置及电子设备
CN110837885B (zh) 一种基于概率分布的Sigmoid函数拟合方法
US20220036190A1 (en) Neural network compression device
CN113283591B (zh) 基于Winograd算法和近似乘法器的高效卷积实现方法及装置
CN107809399B (zh) 一种针对量化接收信号的多天线毫米波信道估计方法
CN111612859A (zh) 一种基于数据降维的三维点云模型压缩方法及其实现***
CN112561050A (zh) 一种神经网络模型训练方法及装置
CN115866253A (zh) 一种基于自调制的通道间变换方法、装置、终端及介质
CN112712164B (zh) 一种神经网络的非均匀量化方法
CN116128070A (zh) 基于无线空中计算和多比特量化压缩感知的联邦学习方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20201012

Address after: 250100 Ji'nan high tech Zone, Shandong, No. 1036 wave road

Applicant after: INSPUR GROUP Co.,Ltd.

Address before: 250100, Ji'nan province high tech Zone, Sun Village Branch Road, No. 2877, building, floor, building, on the first floor

Applicant before: JINAN INSPUR HI-TECH INVESTMENT AND DEVELOPMENT Co.,Ltd.

GR01 Patent grant
GR01 Patent grant