CN108053034B - 模型参数处理方法、装置、电子设备及存储介质 - Google Patents

模型参数处理方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN108053034B
CN108053034B CN201810001153.6A CN201810001153A CN108053034B CN 108053034 B CN108053034 B CN 108053034B CN 201810001153 A CN201810001153 A CN 201810001153A CN 108053034 B CN108053034 B CN 108053034B
Authority
CN
China
Prior art keywords
parameter
model
compressed
compression
strategy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810001153.6A
Other languages
English (en)
Other versions
CN108053034A (zh
Inventor
李亮
张文明
陈少杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Chun Kui Information Technology Co ltd
Original Assignee
Wuhan Douyu Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Douyu Network Technology Co Ltd filed Critical Wuhan Douyu Network Technology Co Ltd
Priority to CN201810001153.6A priority Critical patent/CN108053034B/zh
Publication of CN108053034A publication Critical patent/CN108053034A/zh
Application granted granted Critical
Publication of CN108053034B publication Critical patent/CN108053034B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明实施例提供了一种模型参数处理方法、装置、电子设备及存储介质。其中,所述方法包括获取所述待处理模型对应的待压缩参数集合,所述待压缩参数集合包括多个模型参数,根据所述待压缩参数集合内的模型参数,确定压缩策略。再将所述待压缩参数集合内的每个所述模型参数,按照所述压缩策略进行压缩处理,获得与所述压缩策略对应的数据类型的存储参数。通过本方案实现根据模型参数的具体情况灵活地选择压缩策略,转换模型参数对应的数据类型以降低模型的大小,实现简单高效。同时,通过选择适用的压缩策略避免了压缩过程造成模型参数失真。

Description

模型参数处理方法、装置、电子设备及存储介质
技术领域
本发明涉及机器学习技术领域,具体而言,涉及一种模型参数处理方法、装置、电子设备及存储介质。
背景技术
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。它是人工智能的核心,是使电子设备具有智能的根本途径,其应用遍及人工智能的各个领域。
机器学习算法是机器学习的核心。而机器学习算法的精准性取决于对应的模型参数。模型参数由大量的样本训练获得,数量多,所占存储空间也大。若将机器学习模型部署在服务端,那么模型的大小对服务器的影响不大。若将机器学习模型部署在移动终端,例如Android手机或者iphone手机,那么模型的大小对移动终端性能的影响较大,也会直接影响用户体验。进而限制了机器学习在移动终端上的应用。
发明内容
本发明的目的在于提供一种模型参数处理方法、装置、电子设备及存储介质,用以解决机器学习模型应用于电子设备时,模型的大小对电子设备产生影响的问题。
为了实现上述目的,本发明实施例采用的技术方案如下:
第一方面,本发明实施例提供了一种模型参数处理方法,所述方法包括:根据待处理模型,获取所述待处理模型对应的待压缩参数集合,所述待压缩参数集合包括多个模型参数;根据所述待压缩参数集合内的模型参数,确定压缩策略;将所述待压缩参数集合内的每个所述模型参数,按照所述压缩策略进行压缩处理,获得与所述压缩策略对应的数据类型的存储参数。
第二方面,本发明实施例提供了一种模型参数处理装置,所述装置包括:获取模块,用于根据待处理模型,获取所述待处理模型对应的待压缩参数集合,所述待压缩参数集合包括多个模型参数;确定模块,用于根据所述待压缩参数集合内的模型参数,确定压缩策略;压缩模块,用于将所述待压缩参数集合内的每个所述模型参数,按照所述压缩策略进行压缩处理,获得与所述压缩策略对应的数据类型的存储参数。
第三方面,本发明实施例提供了一种电子设备,所述电子设备包括:存储器;处理器;以及模型参数处理装置,所述模型参数处理装置存储于所述存储器中并包括一个或多个由所述处理器执行的软件功能模组,其包括:获取模块,用于根据待处理模型,获取所述待处理模型对应的待压缩参数集合,所述待压缩参数集合包括多个模型参数;确定模块,用于根据所述待压缩参数集合内的模型参数,确定压缩策略;压缩模块,用于将所述待压缩参数集合内的每个所述模型参数,按照所述压缩策略进行压缩处理,获得与所述压缩策略对应的数据类型的存储参数。
第四方面,本发明实施例提供了一种存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述的模型参数处理方法。
与现有技术相比,本发明提供的模型参数处理方,通过获取所述待处理模型对应的待压缩参数集合,再利用在根据待压缩参数集合内的模型参数确定的压缩策略将所述待压缩参数集合内的每个所述模型参数进行压缩处理,获得与所述压缩策略对应的数据类型的存储参数。从而通过根据模型参数的具体情况灵活地选择压缩策略,转换模型参数对应的数据类型以降低模型的大小,实现简单高效。同时,通过选择适用的压缩策略避免了压缩过程造成模型参数失真。克服了机器学习模型应用于移动的电子设备的限制。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明较佳实施例提供的电子设备的方框示意图。
图2示出了本发明实施例提供的模型参数处理方法流程图。
图3为图2中步骤S101的子步骤流程图。
图4示出了本发明实施例提供的模型参数处理方法流程图的另一部分。
图5示出了本发明实施例提供的模型参数处理装置的方框示意图。
图标:100-电子设备;101-存储器;102-存储控制器;103-处理器;200-模型参数处理装置;201-获取模块;202-确定模块;203-压缩模块。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
机器学习是人工智能的重要环节,且应用非常的广泛。相关技术中,使移动终端具有机器学习功能,需要先选择一机器学习初始模型进行训练获取对应的大量模型参数,再将具有大量模型参数的机器学习模型存储于移动终端内。在机器学习功能使用时,通过调用对应的模型参数实现。通常而言,机器学习功能实现的精准度取决于模型参数,理想的机器学习功能对应的模型参数数量是庞大的。为了确保模型参数能被正常使用,上述模型参数需要为float浮点型数据。但单个float浮点型数据所占字节为四个字节,因此,理想的机器学习功能所占的存储空间比较大,存储于移动终端时,对***资源占用大,直接影响用户体验,不利于在移动终端内应用。因此,本发明实施例提供一种模型参数处理方法、装置、电子终端及存储介质,以克服机器学习功能在移动终端中应用的局限性。
图1示出本发明较佳实施例提供的电子设备100的方框示意图。电子设备100优选为移动终端设备,例如可以包括智能手机、平板电脑、膝上型便携计算机、车载电脑、个人数字助理(personal digital assistant,PDA)、穿戴式移动终端等等。所述电子设备100包括模型参数处理装置200、存储器101、存储控制器102、处理器103。
所述存储器101、存储控制器102、处理器103各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。所述模型参数处理装置200包括至少一个可以软件或固件(firmware)的形式存储于所述存储器101中或固化在所述电子设备100的操作***(operating system,OS)中的软件功能模块。所述处理器103用于执行存储器101中存储的可执行模块,例如所述模型参数处理装置200包括的软件功能模块或计算机程序。
其中,存储器101可以是,但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。其中,存储器101用于存储程序,所述处理器103在接收到执行指令后,执行所述程序,本发明任一实施例揭示的流程定义的服务器所执行的方法可以应用于处理器103中,或者由处理器103实现。
处理器103可以是一种集成电路芯片,具有信号处理能力。上述的处理器103可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(NetworkProcessor,NP)、语音处理器以及视频处理器等;还可以是数字信号处理器、专用集成电路、现场可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器103也可以是任何常规的处理器等。
第一实施例
请参考图2,图2为本发明较佳实施例提供的一种模型参数处理方法的步骤流程图。所述方法可以包括以下步骤:
步骤S101,根据待处理模型,获取所述待处理模型对应的待压缩参数集合。
上述待处理模型可以是进行机器学习功能训练后生成的模型参数文件。上述模型参数文件可以包括多个模型参数。
为了更好的压缩效果,上述待处理模型可以是训练后经过模型修剪处理的模型。
在本发明实施例中,上述待压缩参数集合为与待处理模型对应的模型参数集。上述待压缩参数集合可以是一个集合,也可以是多个集合。每个待压缩参数集合内包括至少两个待处理模型对应的模型参数。作为一种实施方式,如图3所示,获取所述待处理模型对应的待压缩参数集合的步骤可以包括:
子步骤S1011,获取待处理模型对应的模型参数中参数数值最大的第一模型参数及参数数值最小的第二模型参数。
在本发明实施例中,将待处理模型对应的模型参数依次放入数组中,采用查询语句获取第一模型参数及第二模型参数度低于的参数数值。
作为一种实施方式,可以采用如下查询语句:
f_max=A[0];
f_min=A[0];
For(inti=0;i<n;++i)
{
If(f_max<A[i])
{
f_max=A[i];
}
Else if(f_min>A[i])
{
f_min=A[i];
}
}
上述f_max代表第一模型参数的参数数值,首先将数组中的排列于第一位的模型参数的参数数值赋予f_max,将f_max依次与数组中每一个模型参数的参数数值进行比较。当出现大于该f_max模型参数时,用将f_max的取值变更为该模型参数,继续重复比较,直到完成与数组中最后一个模型参数的比较,以f_max的取值最为第一模型参数的参数数值。上述f_min代表第二模型参数的参数数值,首先将数组中的排列于第一位的模型参数的参数数值赋予f_min,将f_min依次与数组中每一个模型参数的参数数值进行比较。当出现小于该f_min模型参数时,将f_min的取值变更为该模型参数,继续重复比较,直到完成与数组中最后一个模型参数的比较,以f_min的取值最为第二模型参数的参数数值。
子步骤S1012,当上述第一模型参数及第二模型参数之间的差值之间的差值超过预设的第一阈值时,按照预定规则对所述待处理模型进行分块,以获得待处理子模型。
在本实施例中,上述待处理子模块可以是待处理模块的一部分,将待处理模块对应的模型参数划分为多个参数矩阵。通过划分,以确保每个待处理子模块所包括的模型参数中参数数值最大的模型参数与参数数值最小的模型参数之间的差值小于第一阈值。
作为一种实施方式,上述第一阈值可以是63335。
子步骤S1013,分别基于每个所述待处理子模型对应的模型参数建立一对应的所述待压缩参数集合。
在本发明实施例中,分别根据每个待处理子模型对应的模型参数建立对应的待压缩参数集合,以获得多个待压缩参数集合。需要说明的是,每个待压缩参数集合中参数数值最大的第三模型参数与参数数值最小的第四模型参数之间的差值均小于第一阈值。当待处理模型仅对应一个待压缩参数集合时,则该待压缩参数集合对应的第三模型参数即为待处理模型对应的第一模型参数,该待压缩参数集合对应的第四模型参数即为待处理模型对应的第二模型参数。
子步骤S1014,当所述第一模型参数及第二模型参数之间的差值不超过所述第一阈值时,基于所述待处理模型对应的模型参数建立对应的所述待压缩参数集合。
在本发明实施例中,子步骤S1014与步骤S1012之间属于并列关系,不存在绝对的先后顺序。当所述第一模型参数及第二模型参数之间的差值不超过所述第一阈值时,则直接以待处理模型对应的所有模型参数建立一待压缩参数集合。
本实施例中,通过上述步骤可以避免模型参数之间的差值过大,造成压缩后的模型参数失真。
步骤S102,根据所述待压缩参数集合内的模型参数,确定压缩策略。
上述压缩策略可以包括第一策略及第二策略。
上述第一策略用于将所述模型参数转换为无符号型的存储参数。上述无符号型的数据仅占一个字节,因此,采用第二策略可以将原模型参数压缩到四分之一。具体地,选用预设的对应的映射函数将每个模型参数映射为小于预先设置的第二阈值的无符号型的存储数据。
上述第二策略用于将所述模型参数转换为短整型的存储数据。上述短整型的数据占二个字节,因此,采用第二策略可以将原模型参数压缩到二分之一。具体地,选用预设的对应的映射函数将每个模型参数映射为小于预先设置的第一阈值的短整型的存储数据。
作为一种实施方式,可以获取所述待压缩参数集合对应的第三模型参数及第四模型参数。需要说明的是,所述第三模型参数为所述待压缩参数集合中参数数值最大的模型参数,所述第四模型参数为所述待压缩参数集合中参数数值最小的模型参数。再根据所述第三模型参数及第四模型参数,确定对应的所述压缩策略。可选地,根据所述第三模型参数及第四模型参数,确定对应的所述压缩策略的方式可以是:当所述第三模型参数与第四模型参数之间的差值低于预设的第二阈值时,则确定对应的所述压缩策略为预设置的第一策略;当所述第三模型参数与第四模型参数之间的差值超过预设的第二阈值时,则确定对应的所述压缩策略为预设置的第二策略。上述第二阈值可以是255。上述第一策略及第二策略均各自对应一映射函数。上述映射函数的映射参数可以根据所述待压缩参数集合对应的第三模型参数及第四模型参数确定。
通过步骤S101及步骤S102的配合使得针对不同的待压缩参数集合采用不同的压缩策略,既保障了模型参数不失真,也可以做到最佳效果的压缩。
步骤S103,将所述待压缩参数集合内的每个所述模型参数,按照所述压缩策略进行压缩处理,获得与所述压缩策略对应的数据类型的存储参数。
在本发明实施例,先将所述待压缩参数集合中每个模型参数的参数数值利用对应的压缩策略的映射函数进行处理,再将处理后的参数数值以压缩策略对应的数据类型存储于电子设备100中,以获得存储参数。可选地,当所述压缩策略为所述第一策略时,依次将所述待压缩参数集合内的每个所述模型参数映射为数值小于所述第二阈值的无符号型的存储数据。当所述压缩策略为所述第二策略时,依次将所述待压缩参数集合内的每个所述模型参数映射为数值小于所述第一阈值的短整型的存储数据。
以采用第一策略及线性映射函数为例,先将待压缩参数集合对应的第三模型参数的参数数值映射为255,将对应的第四模型参数的参数数值映射为0,再利用该线性映射函数依次将待压缩参数集合中其他模型参数映射到0-255之间。作为一种实施方式,假设线性映射函数为:
y=kx+b,
分别将x取第三模型参数且y取255,及x取第四模型参数且y取0带入述映射关系中,以获得k与b的取值,上述k与b均为对应的映射参数,
k=255/(f_max-f_min),
b=f_min*255/(f_min-f_max),
上述f_max为对应第三模型参数的参数数值,上述f_min为对应第四模型参数的参数数值。再将k和b的取值以float浮点型进行保存。再将x依次取待压缩参数集合中的模型参数的参数数值,以获得对应y的取值,即为模型参数对应的映射后的参数数值。将待压缩参数集合每个模型参数对应的映射后的参数数值以无符号型数据的形式进行存储于电子设备100中,以获得对应的存储参数。
采用第二策略的远离与上述过程相同,二者区别在于将对应的第三模型参数对应的参数数值映射为第一阈值,并将待压缩参数集合中其他模型参数的数值进行映射处理为小于第一阈值的参数数值后,以短整型数据存储于电子设备100中,以获得对应的存储参数。
通过上述步骤可以高效的实现对模型的压缩并存储于电子设备100中。避免了模型大小对电子设备100性能的影响。当需要使用该模型时,如图4所示,所述方法还包括:
步骤S201,当侦测到所述待处理模型中一所述存储参数被调用,获取与被调用的存储参数对应的所述压缩策略。
在本发明实施例中,可以通过判断所述调用的存储参数所属的所述数据类型,再根据所述数据类型确定所述调用的存储参数对应的所述压缩策略。
步骤S202,根据所述压缩策略获取解压策略。
在本发明实施例中,可以根据压缩策略对应的映射函数,获取对应的反函数,并以该反函数作为解压策略。具体地,获取通过查询获取映射函数的映射参数,并根据映射参数获得反函数。接上例,可以根据已保存的k的值、b的值及对应的映射函数,获取反函数。
步骤S203,利用所述解压策略将所述被调用的存储参数进行解压处理,以获得对应的可用模型参数。
在本发明实施例中,可以利用解压策略对应的反函数对存储参数的数值进行处理,以生成解压后的模型参数的数值,并以浮点型数据存储,以便模型可识别的模型参数被调用。从而确保该机器学习功能可以正常使用。解压后的模型参数的数值与对应的压缩前的模型参数基本一致。在其他实施例中,在调用完毕后,确定该浮点型的模型参数不再使用之后,还可以对应的删除该浮点型的模型参数。
图5示出了与上述方法相对应的一种模型参数处理装置200,下述装置中的细节方案可以参照上述方法来实现,所述装置应用于电子设备100中。该模型参数处理包括:
获取模块201,用于根据待处理模型,获取所述待处理模型对应的待压缩参数集合,所述待压缩参数集合包括多个模型参数。
确定模块202,用于根据所述待压缩参数集合内的模型参数,确定压缩策略。
压缩模块203,用于将所述待压缩参数集合内的每个所述模型参数,按照所述压缩策略进行压缩处理,获得与所述压缩策略对应的数据类型的存储参数。
本发明实施例还揭示了一种存储介质,其上存储有计算机程序,所述计算机程序被处理器103执行时实现本发明前述实施例揭示的模型参数处理方法。
综上所述,本发明实施例提供了一种模型参数处理方法、装置、电子设备及存储介质。所述方法应用于所述电子设备,所述方法可以包括根据待处理模型,获取所述待处理模型对应的待压缩参数集合,所述待压缩参数集合包括多个模型参数;根据所述待压缩参数集合内的模型参数,确定压缩策略;将所述待压缩参数集合内的每个所述模型参数,按照所述压缩策略进行压缩处理,获得与所述压缩策略对应的数据类型的存储参数。从而通过根据模型参数的具体情况灵活地选择压缩策略,转换模型参数对应的数据类型以降低模型的大小,实现简单高效。同时,通过选择适用的压缩策略避免了压缩过程造成模型参数失真。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本发明各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (9)

1.一种模型参数处理方法,其特征在于,所述方法包括:
根据待处理模型,获取所述待处理模型对应的待压缩参数集合,所述待压缩参数集合包括多个模型参数;其中,包括:获取所述待处理模型对应的所述模型参数中参数数值最大的第一模型参数及参数数值最小的第二模型参数;
当所述第一模型参数及第二模型参数之间的差值超过预设的第一阈值时,按照预定规则对所述待处理模型进行分块,以使获得待处理子模型所对应的待压缩参数集合中最大参数数值与最小参数数值之间的差值不超过所述第一阈值;
分别基于每个所述待处理子模型对应的模型参数建立一对应的所述待压缩参数集合;
当所述第一模型参数及第二模型参数之间的差值不超过所述第一阈值时,基于所述待处理模型对应的模型参数建立对应的所述待压缩参数集合;
根据所述待压缩参数集合内的模型参数,确定压缩策略;其中,所述压缩策略包括第一策略和第二策略,所述第一策略用于将所述模型参数转换为无符号型的存储数据;所述第二策略用于将所述模型参数转换为短整型的存储数据;
将所述待压缩参数集合内的每个所述模型参数,按照所述压缩策略进行压缩处理,获得与所述压缩策略对应的数据类型的存储参数。
2.如权利要求1所述的方法,其特征在于,根据所述待压缩参数集合内的模型参数,确定压缩策略的步骤包括:
获取所述待压缩参数集合对应的第三模型参数及第四模型参数,所述第三模型参数为所述待压缩参数集合中参数数值最大的模型参数,所述第四模型参数为所述待压缩参数集合中参数数值最小的模型参数;
根据所述第三模型参数及第四模型参数,确定对应的所述压缩策略。
3.如权利要求2所述的方法,其特征在于,根据所述第三模型参数及第四模型参数,确定对应的所述压缩策略的步骤包括:
当所述第三模型参数与第四模型参数之间的差值低于预设的第二阈值时,则确定对应的所述压缩策略为预设置的所述第一策略;
当所述第三模型参数与第四模型参数之间的差值超过预设的第二阈值时,则确定对应的所述压缩策略为预设置的所述第二策略。
4.如权利要求3所述的方法,其特征在于,将所述待压缩参数集合内的每个所述模型参数,按照所述压缩策略进行处理,获得与所述压缩策略对应的数据类型的存储参数的步骤包括:
当所述压缩策略为所述第一策略时,依次将所述待压缩参数集合内的每个所述模型参数映射为数值小于所述第二阈值的无符号型的存储数据;
当所述压缩策略为所述第二策略时,依次将所述待压缩参数集合内的每个所述模型参数映射为数值小于所述第一阈值的短整型的存储数据。
5.如权利要求1所述的方法,其特征在于,所述方法还包括:
当侦测到所述待处理模型中一所述存储参数被调用,获取与被调用的存储参数对应的所述压缩策略;
根据所述压缩策略获取解压策略;
利用所述解压策略将所述被调用的存储参数进行解压处理,以获得对应的可用模型参数。
6.如权利要求5所述的方法,其特征在于,获取与被调用的存储参数对应的所述压缩策略包括:
判断所述调用的存储参数所属的所述数据类型;
根据所述数据类型确定所述调用的存储参数对应的所述压缩策略。
7.一种模型参数处理装置,其特征在于,所述装置包括:
获取模块,用于根据待处理模型,获取所述待处理模型对应的待压缩参数集合,所述待压缩参数集合包括多个模型参数;其中,所述获取模块具体用于:获取所述待处理模型对应的所述模型参数中参数数值最大的第一模型参数及参数数值最小的第二模型参数;当所述第一模型参数及第二模型参数之间的差值超过预设的第一阈值时,按照预定规则对所述待处理模型进行分块,以使获得待处理子模型对应的待压缩参数集合中最大参数数值与最小参数数值之间的差值不超过所述第一阈值;分别基于每个所述待处理子模型对应的模型参数建立一对应的所述待压缩参数集合;当所述第一模型参数及第二模型参数之间的差值不超过所述第一阈值时,基于所述待处理模型对应的模型参数建立对应的所述待压缩参数集合;
确定模块,用于根据所述待压缩参数集合内的模型参数,确定压缩策略;其中,所述压缩策略包括第一策略和第二策略,所述第一策略用于将所述模型参数转换为无符号型的存储数据;所述第二策略用于将所述模型参数转换为短整型的存储数据;
压缩模块,用于将所述待压缩参数集合内的每个所述模型参数,按照所述压缩策略进行压缩处理,获得与所述压缩策略对应的数据类型的存储参数。
8.一种电子设备,其特征在于,所述电子设备包括:
存储器;
处理器;以及
模型参数处理装置,所述模型参数处理装置存储于所述存储器中并包括一个或多个由所述处理器执行的软件功能模组,其包括:
获取模块,用于根据待处理模型,获取所述待处理模型对应的待压缩参数集合,所述待压缩参数集合包括多个模型参数;其中,所述获取模块具体用于:获取所述待处理模型对应的所述模型参数中参数数值最大的第一模型参数及参数数值最小的第二模型参数;当所述第一模型参数及第二模型参数之间的差值超过预设的第一阈值时,按照预定规则对所述待处理模型进行分块,以使获得待处理子模型对应的待压缩参数集合中最大参数数值与最小参数数值之间的差值不超过所述第一阈值;分别基于每个所述待处理子模型对应的模型参数建立一对应的所述待压缩参数集合;当所述第一模型参数及第二模型参数之间的差值不超过所述第一阈值时,基于所述待处理模型对应的模型参数建立对应的所述待压缩参数集合;
确定模块,用于根据所述待压缩参数集合内的模型参数,确定压缩策略;其中,所述压缩策略包括第一策略和第二策略,所述第一策略用于将所述模型参数转换为无符号型的存储数据;所述第二策略用于将所述模型参数转换为短整型的存储数据;
压缩模块,用于将所述待压缩参数集合内的每个所述模型参数,按照所述压缩策略进行压缩处理,获得与所述压缩策略对应的数据类型的存储参数。
9.一种存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1-6中任一项所述的方法。
CN201810001153.6A 2018-01-02 2018-01-02 模型参数处理方法、装置、电子设备及存储介质 Active CN108053034B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810001153.6A CN108053034B (zh) 2018-01-02 2018-01-02 模型参数处理方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810001153.6A CN108053034B (zh) 2018-01-02 2018-01-02 模型参数处理方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN108053034A CN108053034A (zh) 2018-05-18
CN108053034B true CN108053034B (zh) 2020-10-16

Family

ID=62126179

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810001153.6A Active CN108053034B (zh) 2018-01-02 2018-01-02 模型参数处理方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN108053034B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112035401A (zh) * 2019-06-03 2020-12-04 北京京东尚科信息技术有限公司 模型数据处理方法、装置、电子设备及可读介质
CN110991643B (zh) * 2019-12-25 2024-01-30 北京奇艺世纪科技有限公司 一种模型部署方法、装置、电子设备及存储介质
CN111680799B (zh) * 2020-04-08 2024-02-20 北京字节跳动网络技术有限公司 用于处理模型参数的方法和装置
EP3945471A1 (en) 2020-07-28 2022-02-02 Siemens Aktiengesellschaft Method for automated determination of a model compression technique for compression of an artificial intelligence-based model

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105763855A (zh) * 2016-04-22 2016-07-13 微景天下(北京)科技有限公司 图像传输***和图像传输方法
CN106485316A (zh) * 2016-10-31 2017-03-08 北京百度网讯科技有限公司 神经网络模型压缩方法以及装置
CN106936439A (zh) * 2016-09-20 2017-07-07 南开大学 一种通用的基于分块排序思想的压缩预处理方法及应用
CN107341763A (zh) * 2017-06-30 2017-11-10 北京金山安全软件有限公司 一种图像处理方法、装置、电子设备及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8503536B2 (en) * 2006-04-07 2013-08-06 Microsoft Corporation Quantization adjustments for DC shift artifacts
US8565531B2 (en) * 2009-10-09 2013-10-22 Xerox Corporation Edge detection for mixed raster content (MRC) images for improved compression and image quality

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105763855A (zh) * 2016-04-22 2016-07-13 微景天下(北京)科技有限公司 图像传输***和图像传输方法
CN106936439A (zh) * 2016-09-20 2017-07-07 南开大学 一种通用的基于分块排序思想的压缩预处理方法及应用
CN106485316A (zh) * 2016-10-31 2017-03-08 北京百度网讯科技有限公司 神经网络模型压缩方法以及装置
CN107341763A (zh) * 2017-06-30 2017-11-10 北京金山安全软件有限公司 一种图像处理方法、装置、电子设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
利用纹理信息的图像分块自适应压缩感知;王蓉芳等;《电子学报》;20130831;第1506-1514页 *

Also Published As

Publication number Publication date
CN108053034A (zh) 2018-05-18

Similar Documents

Publication Publication Date Title
CN108053034B (zh) 模型参数处理方法、装置、电子设备及存储介质
CN109409518B (zh) 神经网络模型处理方法、装置及终端
KR20210129031A (ko) 모델 압축 방법, 이미지 처리 방법 및 장치
CN112003625A (zh) 一种霍夫曼编码方法、***及设备
CN110175641B (zh) 图像识别方法、装置、设备和存储介质
CN107888197B (zh) 一种数据压缩方法和装置
CN102246165A (zh) 利用压缩梯度直方图来代表和标识特征描述符的方法和装置
CN116506073B (zh) 一种工业计算机平台数据快速传输方法及***
CN111181569A (zh) 一种时序数据的压缩方法、装置以及设备
CN111898751B (zh) 一种数据处理的方法、***、设备及可读存储介质
CN111491169B (zh) 一种数字图像压缩方法、装置、设备、介质
CN110769263A (zh) 一种图像压缩方法、装置及终端设备
CN113852379A (zh) 一种数据编码方法、***、设备及计算机可读存储介质
CN111353514A (zh) 模型训练方法、图像识别方法、装置及终端设备
CN113542225A (zh) 一种数据的压缩方法、装置、终端设备及存储介质
CN109981108B (zh) 数据压缩方法、解压缩方法、装置及设备
CN117095685A (zh) 一种联发科平台终端设备及其控制方法
US20220075437A1 (en) Electronic apparatus and control method thereof
CN115034375A (zh) 数据处理方法及装置、神经网络模型、设备、介质
CN107783990B (zh) 一种数据压缩方法及终端
CN115545943A (zh) 一种图谱的处理方法、装置及设备
CN116431585A (zh) 文件的压缩方法及其装置、文件的解压方法及其装置
CN114926706A (zh) 数据处理方法、装置及设备
CN113641643A (zh) 文件写入方法及装置
CN111242195B (zh) 模型、保险风控模型训练方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20240507

Address after: Room 403, Unit 1, Building 19, No. 2 Zhenzhu South Road, Pukou District, Nanjing City, Jiangsu Province, 210000

Patentee after: Chen Hua

Country or region after: China

Patentee after: Chen Xiang

Address before: 11 / F, building B1, software industry phase 4.1, No.1, Software Park East Road, Donghu New Technology Development Zone, Wuhan City, Hubei Province, 430000

Patentee before: WUHAN DOUYU NETWORK TECHNOLOGY Co.,Ltd.

Country or region before: China

TR01 Transfer of patent right

Effective date of registration: 20240717

Address after: 200131 building C, No. 888, Huanhu West 2nd Road, Lingang New District, China (Shanghai) pilot Free Trade Zone, Pudong New Area, Shanghai

Patentee after: Shanghai Chun Kui Information Technology Co.,Ltd.

Country or region after: China

Address before: Room 403, Unit 1, Building 19, No. 2 Zhenzhu South Road, Pukou District, Nanjing City, Jiangsu Province, 210000

Patentee before: Chen Hua

Country or region before: China

Patentee before: Chen Xiang