CN113412519A - 机器学习引导的多肽分析 - Google Patents

机器学习引导的多肽分析 Download PDF

Info

Publication number
CN113412519A
CN113412519A CN202080013315.3A CN202080013315A CN113412519A CN 113412519 A CN113412519 A CN 113412519A CN 202080013315 A CN202080013315 A CN 202080013315A CN 113412519 A CN113412519 A CN 113412519A
Authority
CN
China
Prior art keywords
layers
model
protein
amino acid
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202080013315.3A
Other languages
English (en)
Other versions
CN113412519B (zh
Inventor
J·D·菲拉
A·L·彼姆
M·K·吉布森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Flagship Development And Innovation Vi Co
Original Assignee
Flagship Development And Innovation Vi Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Flagship Development And Innovation Vi Co filed Critical Flagship Development And Innovation Vi Co
Publication of CN113412519A publication Critical patent/CN113412519A/zh
Application granted granted Critical
Publication of CN113412519B publication Critical patent/CN113412519B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16BBIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
    • G16B15/00ICT specially adapted for analysing two-dimensional or three-dimensional molecular structures, e.g. structural or functional relations or structure alignment
    • G16B15/20Protein or domain folding
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16BBIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
    • G16B20/00ICT specially adapted for functional genomics or proteomics, e.g. genotype-phenotype associations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16BBIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
    • G16B40/00ICT specially adapted for biostatistics; ICT specially adapted for bioinformatics-related machine learning or data mining, e.g. knowledge discovery or pattern finding
    • G16B40/20Supervised data analysis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16BBIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
    • G16B40/00ICT specially adapted for biostatistics; ICT specially adapted for bioinformatics-related machine learning or data mining, e.g. knowledge discovery or pattern finding
    • G16B40/30Unsupervised data analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Biotechnology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Bioethics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Genetics & Genomics (AREA)
  • Proteomics, Peptides & Aminoacids (AREA)
  • Analytical Chemistry (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)

Abstract

用于鉴定氨基酸序列和蛋白质功能或性质之间的关联的***、装置、软件和方法。机器学习的应用用于生成基于输入数据鉴定此类关联的模型,该输入数据是例如氨基酸序列信息。可以利用包括迁移学习的各种技术来增强关联的准确性。

Description

机器学习引导的多肽分析
相关申请
本申请要求于2019年2月11日提交的美国临时申请号62/804,034以及于2019年2月11日提交的美国临时申请号62/804,036的权益。将上述申请的全部传授内容通过援引并入本文。
背景技术
蛋白质是生物体所必需的大分子,并在生物体内执行许多功能或与许多功能相关,这些功能包括例如催化代谢反应、促进DNA复制、响应刺激、为细胞和组织提供结构、以及转运分子。蛋白质由一条或多条氨基酸链构成,并且典型地形成三维构象。
发明内容
本文描述了用于评估蛋白质或多肽信息以及在一些实施例中产生性质或功能的预测的***、装置、软件和方法。蛋白质性质和蛋白质功能是描述表型的可测量值。在实践中,蛋白质功能可以指主要治疗功能,并且蛋白质性质可以指其他所需的药物样性质。在本文描述的***、装置、软件和方法的一些实施例中,鉴定了氨基酸序列和蛋白质功能之间的以前未知的关系。
传统上,基于氨基酸序列的蛋白质功能预测具有很高的挑战性,至少部分是由于由看似简单的一级氨基酸序列可能产生的结构复杂性。传统的方法是基于具有已知功能的蛋白质之间的同源性(或其他类似方法)应用统计比较,这未能提供基于氨基酸序列预测蛋白质功能的准确且可重复的方法。
事实上,关于基于一级序列(例如DNA、RNA或氨基酸序列)的蛋白质预测的传统思想是,一级蛋白质序列不能与已知功能直接关联,因为如此多的蛋白质功能是通过其最终的三级(或四级)结构驱动的。
与关于蛋白质分析的传统方法和传统思想相反,本文描述的创新***、装置、软件和方法使用创新的机器学习技术和/或先进的分析来分析氨基酸序列,以准确和可重复地鉴定氨基酸序列和蛋白质功能之间的以前未知的关系。也就是说,鉴于关于蛋白质分析和蛋白质结构的传统思想,本文描述的创新是出乎意料的并且产生了出乎意料的结果。
本文描述了为所需蛋白质性质建模的方法,该方法包括:(a)提供包含神经网嵌入器和任选的神经网预测器的第一预训练***,该预训练***的神经网预测器不同于该所需蛋白质性质;(b)将预训练***的神经网嵌入器的至少一部分迁移到包含神经网嵌入器和神经网预测器的第二***,该第二***的神经网预测器提供该所需蛋白质性质;以及(c)通过该第二***分析蛋白质分析物的一级氨基酸序列,从而生成该蛋白质分析物的该所需蛋白质性质的预测。
本领域普通技术人员可以认识到,在一些实施例中,一级氨基酸序列可以是给定蛋白质分析物的完整或部分氨基酸序列。在实施例中,氨基酸序列可以是连续序列和不连续序列。在实施例中,氨基酸序列与蛋白质分析物的一级序列具有至少95%的同一性。
在一些实施例中,第一***和第二***的神经网嵌入器的架构是独立地选自VGG16、VGG19、Deep ResNet、Inception/GoogLeNet(V1-V4)、Inception/GoogLeNetResNet、Xception、AlexNet、LeNet、MobileNet、DenseNet、NASNet或MobileNet的卷积架构。在一些实施例中,第一***包含生成式对抗网络(GAN)、递归神经网络、或变分自编码器(VAE)。在一些实施例中,第一***包含选自条件式GAN、DCGAN、CGAN、SGAN或渐进式生成式对抗网络GAN、SAGAN、LSGAN、WGAN、EBGAN、BEGAN或infoGAN的(GAN)。在一些实施例中,第一***包含选自Bi-LSTM/LSTM、Bi-GRU/GRU或转换器网络的递归神经网络。在一些实施例中,第一***包含变分自编码器(VAE)。在一些实施例中,嵌入器用一组至少50、100、150、200、250、300、350、400、450、500、600、700、800、900或1000个或更多个氨基酸序列蛋白质氨基酸序列进行训练。在一些实施例中,氨基酸序列包括跨功能表示的注释,这些功能表示包括GP、Pfam、关键字、Kegg本体论、Interpro、SUPFAM或OrthoDB中的至少一种。在一些实施例中,蛋白质氨基酸序列具有至少约1万、2万、3万、4万、5万、7.5万、10万、12万、14万、15万、16万或17万个可能的注释。在一些实施例中,相对于未使用第一模型的迁移嵌入器而训练的模型,第二模型具有改进的性能指标。在一些实施例中,第一***或第二***由Adam、RMSprop、具有动量的随机梯度下降(SGD)、具有动量和Nestrov加速梯度的SGD、不具有动量的SGD、Adagrad、Adadelta或NAdam优化。可以使用以下激活函数中的中任一个来优化该第一模型和该第二模型:softmax、elu、SeLU、softplus、softsign、ReLU、tanh、sigmoid、hard_sigmoid、指数、PReLU和LeaskyReLU或线性。在一些实施例中,神经网嵌入器包含至少10、50、100、250、500、750或1000或更多个层,并且预测器包含至少1、2、3、4、5、6、7、8、9、10、11、12、13、14、15、16、17、18、19或20或更多个层。在一些实施例中,第一***或第二***中的至少一个利用选自以下的正则化:提前停止、L1-L2正则化、残差连接或其组合,其中在1、2、3、4、5或更多个层上执行该正则化。在一些实施例中,使用批归一化执行该正则化。在一些实施例中,使用组归一化执行该正则化。在一些实施例中,第二***的第二模型包含第一***的第一模型,其中去除了最后一层。在一些实施例中,在迁移到该第二模型时,该第一模型的2、3、4、5或更多个层被去除。在一些实施例中,在该第二模型的训练期间,这些迁移层被冻结。在一些实施例中,在该第二模型的训练期间,这些迁移层被解冻。在一些实施例中,该第二模型具有1、2、3、4、5、6、7、8、9、10或更多个层添加到该第一模型的迁移层。在一些实施例中,该第二***的神经网预测器预测蛋白质结合活性、核酸结合活性、蛋白质溶解度和蛋白质稳定性中的一种或多种。在一些实施例中,该第二***的神经网预测器预测蛋白荧光。在一些实施例中,该第二***的神经网预测器预测酶。
本文描述了一种用于鉴定氨基酸序列和蛋白质功能之间以前未知的关联的计算机实施的方法,该方法包括:(a)使用第一机器学习软件模块生成多个蛋白质性质和多个氨基酸序列之间的多个关联的第一模型;(b)将该第一模型或其部分迁移到第二机器学习软件模块;(c)由该第二机器学习软件模块生成包含该第一模型或其部分的第二模型;以及(d)基于该第二模型,鉴定该氨基酸序列和该蛋白质功能之间以前未知的关联。在一些实施例中,该氨基酸序列包含一级蛋白质结构。在一些实施例中,该氨基酸序列导致蛋白质构型,该蛋白质构型产生蛋白质功能。在一些实施例中,该蛋白质功能包含荧光。在一些实施例中,该蛋白质功能包含酶活性。在一些实施例中,该蛋白质功能包含核酸酶活性。示例核酸酶活性包括限制性、核酸内切酶活性和序列引导的核酸内切酶活性(例如Cas9核酸内切酶活性)。在一些实施例中,该蛋白质功能包含蛋白质稳定性程度。在一些实施例中,该多个蛋白质性质和该多个氨基酸序列来自UniProt。在一些实施例中,该多个蛋白质性质包含标签GP、Pfam、关键字、Kegg本体论、Interpro、SUPFAM和OrthoDB中的一种或多种。在一些实施例中,该多个氨基酸序列包括多个蛋白质的一级蛋白质结构、二级蛋白质结构和三级蛋白质结构。在一些实施例中,氨基酸序列包括可在折叠蛋白质中形成一级、二级和/或三级结构的序列。
在一些实施例中,该第一模型用输入数据进行训练,该输入数据包含多维张量、3维原子位置的表示、成对相互作用的邻接矩阵和字符嵌入中的一种或多种。在一些实施例中,该方法包括向第二机器学习模块输入与一级氨基酸序列的突变、氨基酸相互作用的接触图、三级蛋白质结构和来自可变剪接转录物的预测同种型相关的数据中的至少一种。在一些实施例中,该第一模型和该第二模型使用监督学习进行训练。在一些实施例中,该第一模型使用监督学习进行训练,并且该第二模型使用无监督学习进行训练。在一些实施例中,该第一模型和该第二模型包含含有卷积神经网络、生成式对抗网络、递归神经网络或变分自编码器的神经网络。在一些实施例中,该第一模型和该第二模型各自包含不同的神经网络架构。在一些实施例中,该卷积网络包含VGG16、VGG19、Deep ResNet、Inception/GoogLeNet(V1-V4)、Inception/GoogLeNet ResNet、Xception、AlexNet、LeNet、MobileNet、DenseNet、NASNet或MobileNet中的一个。在一些实施例中,该第一模型包含嵌入器,并且该第二模型包含预测器。在一些实施例中,第一模型架构包含多个层,并且第二模型架构包含该多个层中的至少两个层。在一些实施例中,该第一机器学习软件模块用包含至少10,000个蛋白质性质的第一训练数据集训练该第一模型,并且该第二机器学习软件模块使用第二训练数据集训练该第二模型。
本文描述了一种用于鉴定氨基酸序列和蛋白质功能之间以前未知的关联的计算机***,该***包含:(a)处理器;(b)用软件编码的非暂态计算机可读介质,该软件被配置用于使该处理器:(i)使用第一机器学习软件模型生成多个蛋白质性质和多个氨基酸序列之间的多个关联的第一模型;(ii)将该第一模型或其部分迁移到第二机器学习软件模块;(iii)由该第二机器学习软件模块生成包含该第一模型或其部分的第二模型;(iv)基于该第二模型,鉴定该氨基酸序列和该蛋白质功能之间以前未知的关联。在一些实施例中,该氨基酸序列包含一级蛋白质结构。在一些实施例中,该氨基酸序列导致蛋白质构型,该蛋白质构型产生蛋白质功能。在一些实施例中,该蛋白质功能包含荧光。在一些实施例中,该蛋白质功能包含酶活性。在一些实施例中,该蛋白质功能包含核酸酶活性。在一些实施例中,该蛋白质功能包含蛋白质稳定性程度。在一些实施例中,该多个蛋白质性质和该多个蛋白质标记物来自UniProt。在一些实施例中,该多个蛋白质性质包含标签GP、Pfam、关键字、Kegg本体论、Interpro、SUPFAM和OrthoDB中的一种或多种。在一些实施例中,该多个氨基酸序列包括多个蛋白质的一级蛋白质结构、二级蛋白质结构和三级蛋白质结构。在一些实施例中,该第一模型用输入数据进行训练,该输入数据包含多维张量、3维原子位置的表示、成对相互作用的邻接矩阵和字符嵌入中的一种或多种。在一些实施例中,该软件被配置为使该处理器向该第二机器学习模块输入与一级氨基酸序列的突变、氨基酸相互作用的接触图、三级蛋白质结构和来自可变剪接转录物的预测同种型相关的数据中的至少一种。在一些实施例中,该第一模型和该第二模型使用监督学习进行训练。在一些实施例中,该第一模型使用监督学习进行训练,并且该第二模型使用无监督学习进行训练。在一些实施例中,该第一模型和该第二模型包含含有卷积神经网络、生成式对抗网络、递归神经网络或变分自编码器的神经网络。在一些实施例中,该第一模型和该第二模型各自包含不同的神经网络架构。在一些实施例中,该卷积网络包含VGG16、VGG19、Deep ResNet、Inception/GoogLeNet(V1-V4)、Inception/GoogLeNet ResNet、Xception、AlexNet、LeNet、MobileNet、DenseNet、NASNet或MobileNet中的一个。在一些实施例中,该第一模型包含嵌入器,并且该第二模型包含预测器。在一些实施例中,第一模型架构包含多个层,并且第二模型架构包含该多个层中的至少两个层。在一些实施例中,该第一机器学习软件模块用包含至少10,000个蛋白质性质的第一训练数据集训练该第一模型,并且该第二机器学习软件模块使用第二训练数据集训练该第二模型。
在一些实施例中,对所需蛋白质性质建模的方法包括用第一组数据训练第一***。第一***包括第一神经网转换器编码器和第一解码器。预训练***的第一解码器被配置为生成与所需蛋白质性质不同的输出。该方法进一步包括将该预训练***的第一转换器编码器的至少一部分迁移到第二***,该第二***包含第二转换器编码器和第二解码器。该方法进一步包括用第二组数据训练该第二***。该第二组数据包括一组蛋白质,该组蛋白质表示比第一组数据数量更少的蛋白质类别,其中这些蛋白质类别包括以下中的一种或多种:(a)该第一组数据内的蛋白质类别,以及(b)从该第一组数据中排除的蛋白质类别。该方法进一步包括通过该第二***分析蛋白质分析物的一级氨基酸序列,从而生成该蛋白质分析物的所需蛋白质性质的预测。在一些实施例中,第二组数据可以包括一些与第一组数据重叠的数据,或者完全与第一组数据重叠的数据。可替代地,在一些实施例中,第二组数据与第一组数据没有重叠数据。
在一些实施例中,蛋白质分析物的一级氨基酸序列可以是一个或多个天冬酰胺酶序列和相应的活性标签。在一些实施例中,第一组数据包含一组蛋白质,该组蛋白质包括多种蛋白质类别。示例蛋白质类别包括结构蛋白、收缩蛋白、贮藏蛋白、防御蛋白(例如抗体)、转运蛋白、信号蛋白和酶蛋白。通常,蛋白质类别包括具有共享一种或多种功能相似性和/或结构相似性的氨基酸序列的蛋白质,并且包括以下描述的蛋白质类别。本领域普通技术人员可以进一步理解,这些类别可以包括基于生物物理性质的分组,例如溶解度、结构特征、二级或三级基序、热稳定性和本领域已知的其他特征。第二组数据可以是一个蛋白质类别,例如酶。在一些实施例中,***可被适配用于执行以上方法。
附图说明
本专利或申请文件包含至少一个彩色附图。应请求并且支付必要的费用后,具有一个或多个彩色附图的本专利或专利申请公开的副本将由专利局提供。
前述内容从接下来对示例性实施例进行的更具体的说明中将是明显的,如在附图中所示的,在附图中,相同的参考符号在不同图中代表相同部分。附图并非必定按比例,而是将重点放在说明实施例上。
本发明的新颖特征在所附权利要求书中详细阐述。通过参考下面的详细描述和附图,将获得对本发明特征和优点的更好理解,下面的详细描述阐述了说明性实施例,其中利用了本披露的原理,并且附图中:
图1示出了基础深度学习模型的输入块的综述;
图2示出了深度学习模型的恒等残差块(identity block)的实例;
图3示出了深度学习模型的卷积残差块(convolutional block)的实例;
图4示出了深度学习模型的输出层的实例;
图5示出了使用如实例1中描述的第一模型作为起点和如实例2中描述的第二模型,小蛋白的预期的稳定性相对于预测的稳定性;
图6示出了不同机器学习模型的预测的数据相对于测量的数据的皮尔逊(Pearson)相关性随模型训练中使用的经标记的蛋白序列的数量的变化;预训练表示第一模型被用作第二模型的起点的方法,如在特定蛋白的荧光功能上进行训练;
图7示出了不同机器学习模型的肯定预测能力随模型训练中使用的经标记的蛋白序列的数量的变化。预训练(完整模型)表示第一模型被用作第二模型的起点的方法,如在特定蛋白的荧光功能上进行训练;
图8示出了被配置为执行本披露的方法或功能的***的实施例;以及
图9示出了过程的实施例,通过该过程第一模型用带注释的UniProt序列进行训练并用于通过迁移学习生成第二模型。
图10A是说明本披露的示例性实施例的框图。
图10B是说明本披露的方法的示例性实施例的框图。
图11说明了按抗***置拆分的示例性实施例。
图12说明了使用随机拆分和按位置拆分的线性转换器、朴素转换器和预训练转换器结果的示例性结果。
图13是说明天冬酰胺酶序列的重构误差的图。
具体实施方式
示例性实施例的描述如下。
本文描述了用于评估蛋白质或多肽信息以及在一些实施例中产生性质或功能的预测的***、装置、软件和方法。机器学习方法允许生成接收输入数据(例如一级氨基酸序列)的模型,并预测至少部分由氨基酸序列定义的所得多肽或蛋白质的一种或多种功能或特征。输入数据可以包括另外的信息,例如氨基酸相互作用的接触图、三级蛋白质结构或与多肽结构有关的其他相关信息。在一些情况下,迁移学习用于在经标记的训练数据不足时提高模型的预测能力。
多肽性质或功能的预测
本文描述了设备、软件、***和方法,所述设备、软件、***和方法用于评估包含蛋白质或多肽信息(例如氨基酸序列(或编码氨基酸序列的核酸序列))的输入数据,以便基于输入数据预测一种或多种特定功能或性质。氨基酸序列(例如蛋白质)的一种或多种特定功能或性质的外推将对许多分子生物学应用是有益的。因此,本文所述的设备、软件、***和方法利用人工智能或机器学习技术对多肽或蛋白质分析的能力来预测结构和/或功能。与标准的非机器学习方法相比,机器学习技术能够生成具有增加的预测能力的模型。在一些情况下,当没有足够的数据来训练模型以获得所需的输出时,可以利用迁移学习来提高预测准确性。替代性地,在一些情况下,当有足够的数据来训练模型以实现与并入迁移学习的模型相当的统计参数时,不使用迁移学习。
在一些实施例中,输入数据包含蛋白质或多肽的一级氨基酸序列。在一些情况下,使用包含一级氨基酸序列的经标记的数据集训练模型。例如,数据集可以包括基于荧光强度的程度标记的荧光蛋白的氨基酸序列。因此,可以使用机器学习方法用该数据集训练模型以生成氨基酸序列输入的荧光强度的预测。在一些实施例中,输入数据还包含除一级氨基酸序列之外的信息,例如像表面电荷、疏水表面积、测量的或预测的溶解度或其他相关信息。在一些实施例中,输入数据包含多维输入数据,该多维输入数据包括多种类型或类别的数据。
在一些实施例中,本文描述的设备、软件、***和方法利用数据增强来增强一种或多种预测模型的性能。数据增强需要使用相似但不同的训练数据集的实例或变体进行训练。例如,在图像分类中,可以通过稍微改变图像的方向(例如,轻微旋转)来增强图像数据。在一些实施例中,数据输入(例如一级氨基酸序列)通过对一级氨基酸序列的随机突变和/或生物学上获知的突变、多序列比对、氨基酸相互作用的接触图和/或三级蛋白质结构而增强。另外的增强策略包括使用来自可变剪接转录物的已知的同种型和预测的同种型。例如,输入数据可以通过包括对应于相同功能或性质的可变剪接转录物的同种型来增强。因此,关于同种型或突变的数据可以允许鉴定不显著影响预测的功能或性质的一级序列的那些部分或特征。这允许模型解释信息,例如像增强、降低或不影响预测的蛋白质性质(例如稳定性)的氨基酸突变。例如,数据输入可以包含在已知不影响功能的位置处具有随机取代的氨基酸的序列。这允许以下模型,该模型用该数据训练以了解预测的功能相对于那些特定突变是不变的。
在一些实施例中,数据增强涉及“混合(mixup)”学习原理,该原理需要用实例对和相应标签的凸组合训练网络,如Zhang等人,Mixup:Beyond Empirical Risk Minimization[Mixup:超越经验风险最小化],Arxiv 2018中所述。该方法将网络正则化,以支持训练样本之间的简单线性行为。混合提供了与数据无关的数据增强方法。在一些实施例中,混合数据增强包含根据以下公式生成虚拟训练实例或数据:
Figure BDA0003202321360000081
Figure BDA0003202321360000082
参数χi和χj是原始输入向量,γi和γj是独热编码。(χi,γi)和(χj,γj)是随机选自训练数据集的两个实例或数据输入。
本文描述的设备、软件、***和方法可用于生成各种预测。预测可以涉及蛋白质功能和/或性质(例如,酶活性、稳定性等)。蛋白质稳定性可以根据各种指标进行预测,例如像热稳定性、氧化稳定性或血清稳定性。如由Rocklin定义的蛋白质稳定性可以被认为是一个指标(例如,对蛋白酶切割的易感性),但另一个指标可以是折叠(三级)结构的自由能。在一些实施例中,预测包含一个或多个结构特征,例如像二级结构、三级蛋白质结构、四级结构或其任何组合。二级结构可包括指定多肽中的氨基酸或氨基酸序列是否被预测为具有α螺旋结构、β折叠结构或无序或环结构。三级结构可包括氨基酸或多肽部分在三维空间中的位置或定位。四级结构可包括形成单个蛋白质的多个多肽的位置或定位。在一些实施例中,预测包含一种或多种功能。多肽或蛋白质功能可以属于各种类别,包括代谢反应、DNA复制、提供结构、运输、抗原识别、细胞内或细胞外信号传导以及其他功能类别。在一些实施例中,预测包含酶促功能,例如像催化效率(例如,特异性常数kcat/KM)或催化特异性。
在一些实施例中,预测包含蛋白质或多肽的酶功能。在一些实施例中,蛋白质功能是酶功能。酶可以进行各种酶促反应,并且可以归类为迁移酶(例如,将官能团从一个分子迁移到另一个分子)、氧化还原酶(例如,催化氧化还原反应)、水解酶(例如,经由水解切割化学键)、裂解酶(例如,产生双键)、连接酶(例如,经由共价键连接两个分子)和异构酶(例如,催化分子内从一种异构体到另一种异构体的结构变化)。在一些实施例中,水解酶包括蛋白酶,例如丝氨酸蛋白酶、苏氨酸蛋白酶、半胱氨酸蛋白酶、金属蛋白酶、天冬酰胺肽裂解酶、谷氨酸蛋白酶和天冬氨酸蛋白酶。丝氨酸蛋白酶在凝血、伤口愈合、消化、免疫反应和肿瘤侵袭和转移等方面具有多种生理作用。丝氨酸蛋白酶的实例包括胰凝乳蛋白酶、胰蛋白酶、弹性蛋白酶、因子10、因子11、凝血酶、纤溶酶、C1r、C1s和C3转化酶。苏氨酸蛋白酶包括在活性催化位点内具有苏氨酸的蛋白酶家族。苏氨酸蛋白酶的实例包括蛋白酶体的亚基。蛋白酶体是由α和β亚基组成的桶状蛋白质复合物。催化活性β亚基可在每个催化活性位点包括保守的N-末端苏氨酸。半胱氨酸蛋白酶具有利用半胱氨酸巯基基团的催化机制。半胱氨酸蛋白酶的实例包括木瓜蛋白酶、组织蛋白酶、半胱天冬酶和钙蛋白酶。天冬氨酸蛋白酶具有两个在活性位点参与酸/碱催化的天冬氨酸残基。天冬氨酸蛋白酶的实例包括消化酶胃蛋白酶、一些溶酶体蛋白酶和肾素。金属蛋白酶包括消化酶羧肽酶、在细胞外基质重塑和细胞信号传导中发挥作用的基质金属蛋白酶(MMP)、ADAM(解聚素和金属蛋白酶结构域)和溶酶体蛋白酶。酶的其他非限制性实例包括蛋白酶、核酸酶、DNA连接酶、聚合酶、纤维素酶、木质素酶、淀粉酶、脂肪酶、果胶酶、木聚糖酶、木质素过氧化物酶、脱羧酶、甘露聚糖酶、脱氢酶和其他基于多肽的酶。
在一些实施例中,酶促反应包括靶分子的翻译后修饰。翻译后修饰的实例包括乙酰化、酰胺化、甲酰化、糖基化、羟基化、甲基化、肉豆蔻酰化、磷酸化、脱酰胺、异戊二烯化(例如,法呢基化、香叶基化等)、泛素化、核糖基化和硫酸化。磷酸化可发生在氨基酸(例如酪氨酸、丝氨酸、苏氨酸或组氨酸)上。
在一些实施例中,蛋白质功能是发光,其是不需要应用加热的光发射。在一些实施例中,蛋白质功能是化学发光,例如生物发光。例如,化学发光酶(例如萤光素)可以作用于底物(萤光素),以催化底物氧化,从而释放光。在一些实施例中,蛋白质功能是荧光,其中荧光蛋白或肽吸收某些一种或多种波长的光并发射不同的一种或多种波长的光。荧光蛋白的实例包括绿色荧光蛋白(GFP)或GFP的衍生物,例如EBFP、EBFP2、石青蓝(Azurite)、mKalama1、ECFP、蔚蓝(Cerulean)、CyPet、YFP、柠檬色(Citrine)、Venus或YPet。一些蛋白质如GFP是天然荧光的。荧光蛋白的实例包括EGFP、蓝色荧光蛋白(EBFP、EBFP2、石青蓝、mKalamal)、青色荧光蛋白(ECFP、蔚蓝、CyPet)、黄色荧光蛋白(YFP、柠檬色、Venus、YPet)、氧化还原敏感GFP(roGFP)和单体GFP。
在一些实施例中,蛋白质功能包含酶功能、结合(例如,DNA/RNA结合、蛋白质结合等)、免疫功能(例如,抗体)、收缩(例如,肌动蛋白、肌球蛋白)以及其他功能。在一些实施例中,输出包含与蛋白质功能相关的值,例如像酶功能或结合的动力学。此类输出可以包括亲和力、特异性和反应速率的指标。
在一些实施例中,本文描述的一种或多种机器学习方法包含监督机器学习。监督机器学习包括分类和回归。在一些实施例中,一种或多种机器学习方法包含无监督机器学习。无监督机器学习包括聚类、自编码、变分自编码、蛋白质语言模型(例如,其中,当可以访问前一个氨基酸时,模型预测序列中的下一个氨基酸)和关联规则挖掘。
在一些实施例中,预测包含分类,例如二进制、多标签或多类别分类。在一些实施例中,预测可以是蛋白质性质。分类通常用于基于输入参数预测离散类别或标签。
二进制分类基于输入预测多肽或蛋白质属于两组中的哪一组。在一些实施例中,二进制分类包括对蛋白质或多肽序列的性质或功能的肯定或否定预测。在一些实施例中,二进制分类包括受制于阈值的任何定量读数,例如像,高于某亲和力水平结合至DNA序列、高于某动力学参数阈值催化反应或在高于某个解链温度时表现出热稳定性。二进制分类的实例包括以下的肯定/否定预测:多肽序列表现出自发荧光,是丝氨酸蛋白酶,或者是GPI锚定的跨膜蛋白。
在一些实施例中,(预测的)分类是多类别分类或多标签分类。例如,多类别分类可将输入多肽分类为两个以上互斥组或类别之一,而多标签分类将输入分类为多个标签或组。例如,多标签分类可以将多肽标记为细胞内蛋白(相对于细胞外)和蛋白酶。相比之下,多类别分类可以包括将氨基酸分类为属于α螺旋、β折叠或无序/环肽序列之一。因此,蛋白质性质可包括表现出自发荧光、为丝氨酸蛋白酶、为GPI锚定的跨膜蛋白、为细胞内蛋白(相对于细胞外)和/或蛋白酶,以及属于α螺旋、β折叠或无序/环肽序列。
在一些实施例中,预测包含提供连续变量或值(例如像蛋白质的自发荧光强度或稳定性)的回归。在一些实施例中,预测包含本文描述的任何性质或功能的连续变量或值。例如,连续变量或值可以指示基质金属蛋白酶对特定底物细胞外基质组分的靶向特异性。另外的实例包括各种定量读数,例如靶分子的结合亲和力(例如DNA结合)、酶的反应速率或热稳定性。
机器学习方法
本文描述了应用一种或多种用于分析输入数据的方法以生成与一种或多种蛋白质或多肽性质或功能相关的预测的设备、软件、***和方法。在一些实施例中,这些方法利用统计建模来生成关于一种或多种蛋白质或多肽功能或性质的预测或估计。在一些实施例中,机器学习方法用于训练预测模型和/或进行预测。在一些实施例中,该方法预测一种或多种性质或功能的可能性或概率。在一些实施例中,方法利用例如神经网络、决策树、支持向量机或其他适用模型的预测模型。使用训练数据,方法形成分类器,用于根据相关特征生成分类或预测。可以使用多种方法对选择用于分类的特征进行分类。在一些实施例中,训练方法包含机器学习方法。
在一些实施例中,机器学习方法使用支持向量机(SVM)、朴素贝叶斯分类、随机森林或人工神经网络。机器学习技术包括分装程序、升压程序、随机森林法及其组合。在一些实施例中,预测模型是深度神经网络。在一些实施例中,预测模型是深度卷积神经网络。
在一些实施例中,机器学习方法使用监督学习方法。在监督学习中,该方法从经标记的训练数据中生成函数。每个训练实例都是一对,包括输入对象和所需的输出值。在一些实施例中,最佳方案允许该方法针对未见情况正确确定类标签。在一些实施例中,监督学习方法需要用户确定一个或多个控制参数。通过优化训练集的子集(称为验证集)的性能,任选地调整这些参数。在参数调整和学习之后,任选地用与训练集分开的测试集测量所得函数的性能。回归方法常用于监督学习。因此,监督学习允许使用其中预期输出预先已知的训练数据生成或训练模型或分类器,例如在已知一级氨基酸序列时计算蛋白质功能中。
在一些实施例中,机器学习方法使用无监督学习方法。在无监督学习中,该方法生成函数以描述来自未标记数据的隐藏结构(例如,分类或归类不包括在观察中)。由于提供给学习者的实例是未标记的,因此没有对相关方法输出的结构的准确性进行评估。无监督学习的方法包括:聚类、异常检测和基于神经网络的方法,包括自动编码器和变分自编码器。
在一些实施例中,机器学习方法利用多类别学习。多任务学习(MTL)是机器学习的一个领域,在该领域中,以利用跨多项任务的共性和差异的方式同时解决一个以上学习任务。与单独训练那些模型相比,该方法的优点可以包括提高具体预测模型的学习效率和预测准确性。可以通过要求一种方法在相关任务上表现良好来提供正则化以防止过拟合。该方法可能比对所有复杂性应用相同罚分的正则化更好。当应用于具有显著共性和/或样本不足的任务或预测时,多类别学习可能尤其有用。在一些实施例中,多类别学习对于不具有显著共性的任务(例如,不相关的任务或分类)是有效的。在一些实施例中,多类别学习与迁移学习组合使用。
在一些实施例中,机器学习方法基于训练数据集和该批次的其他输入分批学习。在其他实施例中,机器学习方法在更新权重和误差计算的情况下(例如使用新的或更新的训练数据)执行另外的学习。在一些实施例中,机器学习方法基于新的或更新的数据更新预测模型。例如,机器学习方法可以应用于待重新训练或优化的新的或更新的数据,以生成新的预测模型。在一些实施例中,随着另外的数据变得可用,机器学习方法或模型被定期重新训练。
在一些实施例中,本披露的分类器或训练方法包含一个特征空间。在一些情况下,分类器包含两个或更多个特征空间。在一些实施例中,两个或更多个特征空间彼此不同。在一些实施例中,通过在分类器中组合两个或更多个特征空间而不是使用单个特征空间来提高分类或预测的准确性。属性通常构成特征空间的输入特征,并被标记以指示每个案例的针对对应于该案例的给定输入特征集的分类。
通过在预测模型或分类器中组合两个或更多个特征空间而不是使用单个特征空间,可以提高分类的准确性。在一些实施例中,预测模型包含至少两个、三个、四个、五个、六个、七个、八个、九个、或十个或更多个特征空间。多肽序列信息和任选另外的数据通常构成特征空间的输入特征,并被标记以指示每个案例的针对对应于该案例的给定输入特征集的分类。在许多情况下,分类是案例的结果。训练数据被输入到机器学习方法中,该方法处理输入特征和相关的结果以生成训练模型或预测器。在一些情况下,机器学习方法提供有包括分类的训练数据,从而使该方法能够通过将其输出与实际输出进行比较来“学习”,以修改和改进模型。这经常被称为监督学习。替代性地,在一些情况下,机器学习方法提供有未标记或未分类的数据,这留下了鉴定案例中隐藏结构的方法(例如,聚类)。这被称为无监督学习。
在一些实施例中,使用机器学习方法使用一组或多组训练数据来训练模型。在一些实施例中,本文所述的方法包括使用训练数据集训练模型。在一些实施例中,使用包含多个氨基酸序列的训练数据集训练模型。在一些实施例中,训练数据集包含至少1百万、2百万、3百万、4百万、5百万、6百万、7百万、8百万、9百万、1千万、1500万、2千万、2500万、3千万、3500万、4千万、4500万、5千万、5500万、5600万、5700万、5800万个蛋白质氨基酸序列。在一些实施例中,训练数据集包含至少10、20、30、40、50、60、70、80、90、100、150、200、250、300、350、400、450、500、600、700、800、900或1000或更多个氨基酸序列。在一些实施例中,训练数据集包含至少50、100、200、300、400、500、600、700、800、900、1000、2000、3000、4000、5000、6000、7000、8000、9000或10000或更多个注释。尽管本披露的实例性实施例包括使用深度神经网络的机器学习方法,但是设想了各种类型的方法。在一些实施例中,该方法利用例如神经网络、决策树、支持向量机或其他适用模型的预测模型。在一些实施例中,机器学习方法选自下组,该组包括监督学习、半监督学习和无监督学习,例如像支持向量机(SVM)、朴素贝叶斯分类、随机森林、人工神经网络、决策树、K均值、学习矢量量化(LVQ)、自组织图(SOM)、图模型、回归方法(例如,线性、逻辑、多变量、关联规则学习、深度学习、维度减少和集合选择方法。在一些实施例中,机器学习方法选自下组,该组包括支持向量机(SVM)、朴素贝叶斯分类、随机森林和人工神经网络。机器学习技术包括分装程序、升压程序、随机森林法及其组合。用于分析数据的说明性方法包括但不限于直接处理大量变量的方法,例如统计方法和基于机器学习技术的方法。统计方法包括惩罚逻辑回归、微阵列预测分析(PAM)、基于缩小的质心的方法、支持向量机分析和正则化线性辨别分析。
迁移学习
本文描述了用于基于例如一级氨基酸序列的信息预测一种或多种蛋白质或多肽性质或功能的设备、软件、***和方法。在一些实施例中,迁移学习用于提高预测准确性。迁移学习是一种机器学习技术,其中为一项任务开发的模型可以重复用作第二项任务的模型的起点。通过让模型在数据丰富的相关任务上学习,迁移学习可用于提高对数据有限的任务的预测准确性。因此,本文描述了用于从测序的蛋白质的大数据集中学习蛋白质的一般功能特征并将其用作模型的起点以预测任何特定蛋白质功能、性质或特征的方法。本披露认识到令人惊讶的发现,可以将在所有测序蛋白质中由第一预测模型编码的信息迁移以使用第二预测模型设计感兴趣的特定蛋白质功能。在一些实施例中,预测模型是神经网络,例如像深度卷积神经网络。
本披露可以经由一个或多个实施例来实施,以实现以下优势中的一个或多个。在一些实施例中,使用迁移学习训练的预测模块或预测器从资源消耗的角度表现出改进,例如表现出小的内存占用、低延迟或低计算成本。在可能需要巨大计算能力的复杂分析中,不能低估这一优势。在一些情况下,需要使用迁移学习来在合理的时间段内(例如,几天而不是几周)训练足够准确的预测器。在一些实施例中,与未使用迁移学习训练的预测器相比,使用迁移学习训练的预测器提供高准确性。在一些实施例中,与未使用迁移学习的其他方法或模型相比,在用于预测多肽结构、性质和/或功能的***中使用深度神经网络和/或迁移学习提高了计算效率。
本文描述了对所需蛋白质功能或性质进行建模的方法。在一些实施例中,提供包含神经网嵌入器的第一***。在一些实施例中,该神经网嵌入器包含一个或多个嵌入层。在一些实施例中,神经网络的输入包含表示为“独热”向量的蛋白质序列,该“独热”向量将氨基酸序列编码为矩阵。例如,在该矩阵内,每一行可以配置为恰好含有1个非零条目,该条目对应于存在于残基处的氨基酸。在一些实施例中,第一***包含神经网预测器。在一些实施例中,预测器包含用于基于输入生成预测或输出的一个或多个输出层。在一些实施例中,使用第一训练数据集对第一***进行预训练以提供预训练神经网嵌入器。使用迁移学习,预训练的第一***或其部分可以被迁移以形成第二***的部分。当在第二***中使用时,可以冻结神经网嵌入器的一个层或多个层。在一些实施例中,第二***包含来自第一***的神经网嵌入器或其部分。在一些实施例中,第二***包含神经网嵌入器和神经网预测器。神经网预测器可以包括一个或多个用于生成最终输出或预测的输出层。可以使用根据感兴趣的蛋白质功能或性质标记的第二训练数据集训练第二***。如本文所用,嵌入器和预测器可以指例如使用机器学习训练的神经网络的预测模型的组件。
在一些实施例中,迁移学习用于训练第一模型,该第一模型至少一部分用于形成第二模型的一部分。第一模型的输入数据可以包含已知的天然和合成蛋白质的大型数据储存库,而不管功能或其他性质。输入数据可以包括以下任何组合:一级氨基酸序列、二级结构序列、氨基酸相互作用的接触图、作为氨基酸物理化学性质的函数的一级氨基酸序列、和/或三级蛋白质结构。尽管本文提供了这些具体实例,但考虑了与蛋白质或多肽有关的任何另外的信息。在一些实施例中,输入数据被嵌入。例如,输入数据可以表示为序列的二进制独热编码的多维张量、实值(例如,在物理化学性质或来自三级结构的3维原子位置的情况下)、成对相互作用的邻接矩阵、或使用数据的直接嵌入(例如,一级氨基酸序列的字符嵌入)。
图9是说明应用于神经网络架构的迁移学习过程的实施例的框图。如图所示,第一***(左)具有带有嵌入向量和线性模型的卷积神经网络架构,该模型使用UniProt氨基酸序列和约70,000个注释(例如序列标签)进行训练。在迁移学习过程中,第一***或模型的嵌入向量和卷积神经网络部分被迁移以形成第二***或模型的核心,该第二***或模型还并入新的线性模型,该线性模型被配置为预测与第一模型或***中配置的任何预测不同的蛋白质性质或功能。具有与第一***分离的线性模型的第二***使用基于对应于蛋白质性质或功能的所需序列标签的第二训练数据集进行训练。一旦训练完成,可以针对验证数据集和/或测试数据集(例如,未在训练中使用的数据)评估第二***,并且一旦验证,第二***就可以用于针对蛋白质性质或功能分析序列。蛋白质性质可用于例如治疗应用。治疗应用除蛋白质主要治疗功能(例如,对酶的催化、对抗体的结合亲和力、刺激激素的信号传导途径等)以外,有时可能需要蛋白质具有多种药物样性质,包括稳定性、溶解度和表达(例如,用于制造)。
在一些实施例中,第一模型和/或第二模型的数据输入通过另外的数据(例如一级氨基酸序列的随机突变和/或生物学上获知的突变、氨基酸相互作用的接触图和/或三级蛋白质结构)增强。另外的增强策略包括使用来自可变剪接转录物的已知的同种型和预测的同种型。在一些实施例中,不同类型的输入(例如,氨基酸序列、接触图等)由一个或多个模型的不同部分处理。在初始处理步骤之后,来自多个数据源的信息可以在网络的层处进行组合。例如,网络可以包含序列编码器、接触图编码器和其他被配置为接收和/或处理各种类型的数据输入的编码器。在一些实施例中,数据被转为网络中一个或多个层内的嵌入。
第一模型的数据输入的标签可以从一个或多个公共蛋白质序列注释资源中提取,例如:基因本体(GO)、Pfam结构域、SUPFAM结构域、酶委员会(EC)编号、分类学、极端微生物名称、关键字、包括OrthoDB和KEGG直系同源的直系同源组分配。此外,可以基于数据库(例如SCOP、FSSP或CATH)指定的已知结构或折叠分类来分配标签,包括全α、全β、α+β、α/β、膜、固有无序、卷曲螺旋、小蛋白质或设计蛋白质。对于结构已知的蛋白质,定量全局特性(例如总表面电荷、疏水表面积、测量或预测的溶解度或其他数字量)可用作由预测模型(例如多任务模型)拟合的另外的标签。尽管这些输入是在迁移学习的上下文中描述的,但也考虑将这些输入应用于非迁移学习方法。在一些实施例中,第一模型包含被剥离以留下由编码器构成的核心网络的注释层。注释层可以包括多个独立的层,每个层对应于特定的注释,例如像一级氨基酸序列、GO、Pfam、Interpro、SUPFAM、KO、OrthoDB和关键字。在一些实施例中,注释层包含至少1、2、3、4、5、6、7、8、9、10、15、20、25、30、40、50、60、70、80、90、100、1000、5000、10000、50000、100000或150000或更多个独立的层。在一些实施例中,注释层包含180000个独立的层。在一些实施例中,使用至少1、2、3、4、5、6、7、8、9、10、15、20、25、30、40、50、60、70、80、90、100、1000、5000、10000、50000、100000、或150000个或更多个注释训练模型。在一些实施例中,使用大约180000个注释训练模型。在一些实施例中,使用跨多个功能表示(例如,GO、Pfam、关键字、Kegg本体论、Interpro、SUPFAM和OrthoDB中的一个或多个)的多个注释训练模型。氨基酸序列和注释信息可以从各种数据库(例如UniProt)中获得。
在一些实施例中,第一模型和第二模型包含神经网络架构。第一模型和第二模型可以是使用呈1D卷积(例如一级氨基酸序列)、2D卷积(例如氨基酸相互作用的接触图)或3D卷积(例如三级蛋白质结构)形式的卷积架构的监督模型。卷积架构可以是以下描述的架构之一:VGG16、VGG19、Deep ResNet、Inception/GoogLeNet(V1-V4)、Inception/GoogLeNetResNet、Xception、AlexNet、LeNet、MobileNet、DenseNet、NASNet或MobileNet。在一些实施例中,考虑了利用本文描述的任何架构的单一模型方法(例如,非迁移学习)。
第一模型也可以是使用生成式对抗网络(GAN)、递归神经网络或变分自编码器(VAE)的无监督模型。如果是GAN,第一模型可以是条件GAN、深度卷积GAN、StackGAN、infoGAN、Wasserstein GAN、用生成式对抗网络发现跨结构域关系(Disco GANS)。在递归神经网络的情况下,第一模型可以是Bi-LSTM/LSTM、Bi-GRU/GRU或转换器网络。在一些实施例中,考虑了利用本文描述的任何架构的单一模型方法(例如,非迁移学习)。在一些实施例中,GAN是DCGAN、CGAN、SGAN/渐进式GAN、SAGAN、LSGAN、WGAN、EBGAN、BEGAN、或infoGAN。递归神经网络(RNN)是为循序数据构建的传统神经网络的变体。LSTM是指长短期记忆(其是RNN中的一种神经元),其记忆允许它对数据中的顺序或时间依赖性进行建模。GRU是指门控递归单元(其是LSTM的变体),其试图解决LSTM的一些缺点。Bi-LSTM/Bi-GRU是指LSTM和GRU的“双向”变体。典型地,LSTM和GRU在“正向”方向上顺序处理,但双向版本也在“反向”方向学习。LSTM可以使用隐藏状态保存来自已经通过它的数据输入的信息。单向LSTM只保留过去的信息,因为它只看到过去的输入。相比之下,双向LSTM在从过去到未来的两个方向上运行数据输入,反之亦然。因此,正向和方向运行的双向LSTM保留了来自未来和过去的信息。
对于第一模型和第二模型以及监督模型和无监督模型,它们可以具有可替代的正则化方法,包括提前停止,包括在1、2、3、4个层直到所有层的退出,包括在1、2、3、4个层直到所有层的L1-L2正则化,包括在1、2、3、4个层直到所有层残差连接。对于第一模型和第二模型,可以使用批归一化或组归一化进行正则化。L1正则化(也称为LASSO)控制权重向量的L1范数(norm)允许的长度,而L2控制L2范数可能的大小。可以从Resnet架构获得残差连接。
可以使用以下优化程序的任一种来优化第一模型和第二模型:Adam、RMS prop、具有动量的随机梯度下降(SGD)、具有动量和Nestrov加速梯度的SGD、不具有动量的SGD、Adagrad、Adadelta或NAdam。可以使用以下激活函数中的中任一个来优化该第一模型和该第二模型:softmax、elu、SeLU、softplus、softsign、ReLU、tanh、sigmoid、hard_sigmoid、指数、PReLU和LeaskyReLU或线性。在一些实施例中,本文描述的方法包括对上面列出的优化器试图最小化的损失函数进行“重赋权”,使得在肯定实例和否定实例两者上放置大约相等的权重。例如,180,000个输出中的一个预测给定蛋白质是膜蛋白的概率。由于蛋白质只能是膜蛋白或不是膜蛋白,所以这是二进制分类任务,并且二进制分类任务的传统损失函数是“二元交叉熵”:loss(p,y)=-y*log(p)-(1-y)*log(1-p),其中p是根据网络成为膜蛋白的概率,并且y是“标签”,如果蛋白质是膜蛋白,则为1,如果蛋白质不是膜蛋白,则为0。如果y=0的实例多得多,则可能会出现问题,因为网络可能会学习总是预测该注释的极低概率的病理规则,因为它很少因总是预测y=0而受到罚分。为了解决该问题,在一些实施例中,损失函数被修改为以下:损失(p,y)=-w1*y*log(p)-w0*(1-y)*log(1-p),其中w1是肯定类别权重,w0是否定类别权重。该方法假设w0=1并且w1=1/√((1-f0)/f1),其中f0是否定实例的频率,f1是肯定实例的频率。该权重方案“增权重”罕见的肯定实例,并“减权重”了更常见的否定实例。
第二模型可以使用第一模型作为训练的起点。起点可以是除输出层之外冻结的完整第一模型,该模型对靶蛋白功能或蛋白质性质进行训练。起点可以是第一模型,其中嵌入层、最后2层、最后3层或所有层被解冻,模型的其余部分在对靶蛋白功能或蛋白质性质训练期间被冻结。起点可以是第一模型,其中去除了嵌入层,并添加了1、2、3个或更多个层,并对靶蛋白功能或蛋白质性质进行了训练。在一些实施例中,冻结层的数量为1至10。在一些实施例中,冻结层的数量为1至2、1至3、1至4、1至5、1至6、1至7、1至8、1至9、1至10、2至3、2至4、2至5、2至6、2至7、2至8、2至9、2至10、3至4、3至5、3至6、3至7、3至8、3至9、3至10、4至5、4至6、4至7、4至8、4至9、4至10、5至6、5至7、5至8、5至9、5至10、6至7、6至8、6至9、6至10、7至8、7至9、7至10、8至9、8至10、或9至10。在一些实施例中,冻结层的数量为1、2、3、4、5、6、7、8、9或10。在一些实施例中,冻结层的数量为至少1、2、3、4、5、6、7、8或9。在一些实施例中、冻结层的数量为至多2、3、4、5、6、7、8、9或10。在一些实施例中,在迁移学习期间没有层被冻结。在一些实施例中,在第一模型中冻结的层数至少部分地基于可用于训练第二模型的样本数来确定。本披露认识到冻结一个层或多个层或增加冻结层的数量可以增强第二模型的预测性能。在用于训练第二模型的样本量小的情况下,该效果可能更加突出。在一些实施例中,当第二模型在训练集中具有不超过200、190、180、170、160、150、140、130、120、110、100、90、80、70、60、50、40或30个样本时,来自第一模型的所有层被冻结。在一些实施例中,当用于训练第二模型的样本数在训练集中不超过200、190、180、170、160、150、140、130、120、110、100、90、80、70、60、50、40或30个样本时,第一模型中的至少1、2、3、4、5、6、7、8、9、10、11、12、13、14、15、16、17、18、19、20、25、30、35、40、45、50、55、60、65、70、75、80、85、90、95、或至少100个层被冻结以迁移至第二模型。
第一模型和第二模型可以具有10-100个层、100-500个层、500-1000个层、1000-10000个层、或多达1000000个层。在一些实施例中,第一模型和/或第二模型包含10个层或1,000,000个层。在一些实施例中,第一模型和/或第二模型包含10个层至50个层、10个层至100个层、10个层至200个层、10个层至500个层、10个层至1,000个层、10个层至5,000个层、10个层至10,000个层、10个层至50,000个层、10个层至100,000个层、10个层至500,000个层、10个层至1,000,000个层、50个层至100个层、50个层至200个层、50个层至500个层、50个层至1,000个层、50个层至5,000个层、50个层至10,000个层、50个层至50,000个层、50个层至100,000个层、50个层至500,000个层、50个层至1,000,000个层、100个层至200个层、100个层至500个层、100个层至1,000个层、100个层至5,000个层、100个层至10,000个层、100个层至50,000个层、100个层至100,000个层、100个层至500,000个层、100个层至1,000,000个层、200个层至500个层、200个层至1,000个层、200个层至5,000个层、200个层至10,000个层、200个层至50,000个层、200个层至100,000个层、200个层至500,000个层、200个层至1,000,000个层、500个层至1,000个层、500个层至5,000个层、500个层至10,000个层、500个层至50,000个层、500个层至100,000个层、500个层至500,000个层、500个层至1,000,000个层、1,000个层至5,000个层、1,000个层至10,000个层、1,000个层至50,000个层、1,000个层至100,000个层、1,000个层至500,000个层、1,000个层至1,000,000个层、5,000个层至10,000个层、5,000个层至50,000个层、5,000个层至100,000个层、5,000个层至500,000个层、5,000个层至1,000,000个层、10,000个层至50,000个层、10,000个层至100,000个层、10,000个层至500,000个层、10,000个层至1,000,000个层、50,000个层至100,000个层、50,000个层至500,000个层、50,000个层至1,000,000个层、100,000个层至500,000个层、100,000个层至1,000,000个层、或500,000个层至1,000,000个层。在一些实施例中,第一模型和/或第二模型包含10个层、50个层、100个层、200个层、500个层、1,000个层、5,000个层、10,000个层、50,000个层、100,000个层、500,000个层、或1,000,000个层。在一些实施例中,第一模型和/或第二模型包含至少10个层、50个层、100个层、200个层、500个层、1,000个层、5,000个层、10,000个层、50,000个层、100,000个层、或500,000个层。在一些实施例中,第一模型和/或第二模型包含至多50个层、100个层、200个层、500个层、1,000个层、5,000个层、10,000个层、50,000个层、100,000个层、500,000个层、或1,000,000个层。
在一些实施例中,本文描述了第一***,该第一***包含神经网嵌入器和任选的神经网预测器。在一些实施例中,第二***包含神经网嵌入器和神经网预测器。在一些实施例中,嵌入器包含10个层至200个层。在一些实施例中,嵌入器包含10个层至20个层、10个层至30个层、10个层至40个层、10个层至50个层、10个层至60个层、10个层至70个层、10个层至80个层、10个层至90个层、10个层至100个层、10个层至200个层、20个层至30个层、20个层至40个层、20个层至50个层、20个层至60个层、20个层至70个层、20个层至80个层、20个层至90个层、20个层至100个层、20个层至200个层、30个层至40个层、30个层至50个层、30个层至60个层、30个层至70个层、30个层至80个层、30个层至90个层、30个层至100个层、30个层至200个层、40个层至50个层、40个层至60个层、40个层至70个层、40个层至80个层、40个层至90个层、40个层至100个层、40个层至200个层、50个层至60个层、50个层至70个层、50个层至80个层、50个层至90个层、50个层至100个层、50个层至200个层、60个层至70个层、60个层至80个层、60个层至90个层、60个层至100个层、60个层至200个层、70个层至80个层、70个层至90个层、70个层至100个层、70个层至200个层、80个层至90个层、80个层至100个层、80个层至200个层、90个层至100个层、90个层至200个层、或100个层至200个层。在一些实施例中,嵌入器包含10个层、20个层、30个层、40个层、50个层、60个层、70个层、80个层、90个层、100个层、或200个层。在一些实施例中,嵌入器包含至少10个层、20个层、30个层、40个层、50个层、60个层、70个层、80个层、90个层、或100个层。在一些实施例中,嵌入器包含至多20个层、30个层、40个层、50个层、60个层、70个层、80个层、90个层、100个层、或200个层。
在一些实施例中,神经网预测器包含多个层。在一些实施例中,嵌入器包含1个层至20个层。在一些实施例中,嵌入器包含1个层至2个层、1个层至3个层、1个层至4个层、1个层至5个层、1个层至6个层、1个层至7个层、1个层至8个层、1个层至9个层、1个层至10个层、1个层至15个层、1个层至20个层、2个层至3个层、2个层至4个层、2个层至5个层、2个层至6个层、2个层至7个层、2个层至8个层、2个层至9个层、2个层至10个层、2个层至15个层、2个层至20个层、3个层至4个层、3个层至5个层、3个层至6个层、3个层至7个层、3个层至8个层、3个层至9个层、3个层至10个层、3个层至15个层、3个层至20个层、4个层至5个层、4个层至6个层、4个层至7个层、4个层至8个层、4个层至9个层、4个层至10个层、4个层至15个层、4个层至20个层、5个层至6个层、5个层至7个层、5个层至8个层、5个层至9个层、5个层至10个层、5个层至15个层、5个层至20个层、6个层至7个层、6个层至8个层、6个层至9个层、6个层至10个层、6个层至15个层、6个层至20个层、7个层至8个层、7个层至9个层、7个层至10个层、7个层至15个层、7个层至20个层、8个层至9个层、8个层至10个层、8个层至15个层、8个层至20个层、9个层至10个层、9个层至15个层、9个层至20个层、10个层至15个层、10个层至20个层、或15个层至20个层。在一些实施例中,嵌入器包含1个层、2个层、3个层、4个层、5个层、6个层、7个层、8个层、9个层、10个层、15个层、或20个层。在一些实施例中,嵌入器包含至少1个层、2个层、3个层、4个层、5个层、6个层、7个层、8个层、9个层、10个层、或15个层。在一些实施例中,嵌入器包含至多2个层、3个层、4个层、5个层、6个层、7个层、8个层、9个层、10个层、15个层、或20个层。
在一些实施例中,不使用迁移学习来生成最终的训练模型。例如,在有足够数据可用的情况下,与不使用迁移学习的模型(例如,针对测试数据集进行测试时)相比,至少部分使用迁移学习生成的模型在预测方面没有提供显著改进。因此,在一些实施例中,利用非迁移学习方法来生成训练模型。
在一些实施例中,训练模型包含10个层至1,000,000个层。在一些实施例中,模型包含10个层至50个层、10个层至100个层、10个层至200个层、10个层至500个层、10个层至1,000个层、10个层至5,000个层、10个层至10,000个层、10个层至50,000个层、10个层至100,000个层、10个层至500,000个层、10个层至1,000,000个层、50个层至100个层、50个层至200个层、50个层至500个层、50个层至1,000个层、50个层至5,000个层、50个层至10,000个层、50个层至50,000个层、50个层至100,000个层、50个层至500,000个层、50个层至1,000,000个层、100个层至200个层、100个层至500个层、100个层至1,000个层、100个层至5,000个层、100个层至10,000个层、100个层至50,000个层、100个层至100,000个层、100个层至500,000个层、100个层至1,000,000个层、200个层至500个层、200个层至1,000个层、200个层至5,000个层、200个层至10,000个层、200个层至50,000个层、200个层至100,000个层、200个层至500,000个层、200个层至1,000,000个层、500个层至1,000个层、500个层至5,000个层、500个层至10,000个层、500个层至50,000个层、500个层至100,000个层、500个层至500,000个层、500个层至1,000,000个层、1,000个层至5,000个层、1,000个层至10,000个层、1,000个层至50,000个层、1,000个层至100,000个层、1,000个层至500,000个层、1,000个层至1,000,000个层、5,000个层至10,000个层、5,000个层至50,000个层、5,000个层至100,000个层、5,000个层至500,000个层、5,000个层至1,000,000个层、10,000个层至50,000个层、10,000个层至100,000个层、10,000个层至500,000个层、10,000个层至1,000,000个层、50,000个层至100,000个层、50,000个层至500,000个层、50,000个层至1,000,000个层、100,000个层至500,000个层、100,000个层至1,000,000个层、或500,000个层至1,000,000个层。在一些实施例中,模型包含10个层、50个层、100个层、200个层、500个层、1,000个层、5,000个层、10,000个层、50,000个层、100,000个层、500,000个层、或1,000,000个层。在一些实施例中,模型包含至少10个层、50个层、100个层、200个层、500个层、1,000个层、5,000个层、10,000个层、50,000个层、100,000个层、或500,000个层。在一些实施例中,模型包含至多50个层、100个层、200个层、500个层、1,000个层、5,000个层、10,000个层、50,000个层、100,000个层、500,000个层、或1,000,000个层。
在一些实施例中,机器学习方法包括使用不用于训练的数据进行测试以评估其预测能力的训练模型或分类器。在一些实施例中,使用一种或多种性能指标来评估训练模型或分类器的预测能力。这些性能指标包括分类准确性、特异性、灵敏度、肯定预测值、否定预测值、受试者工作曲线下的测量面积(AUROC)、均方误差、错误发现率以及预测值和实际值之间的皮尔逊相关性,这些性能指标通过针对一组独立案例对它进行测试来确定模型。如果值是连续的,则预测值与测量值之间的均方误差(MSE)或皮尔逊相关系数是两个常见指标。对于离散分类任务,分类准确性、肯定预测值、精确率/召回率和ROC曲线下面积(AUC)是常见的性能指标。
在一些情况下,针对至少约50、60、70、80、90、100、110、120、130、140、150、160、170、180、190或200个独立案例(包括其中的增量),方法具有至少约60%、65%、70%、75%、80%、85%、90%、95%或更多的AUROC(包括其中的增量)。在一些情况下,针对至少约50、60、70、80、90、100、110、120、130、140、150、160、170、180、190或200个独立案例(包括其中的增量),方法具有至少约75%、80%、85%、90%、95%或更高的准确性(包括其中的增量)。在一些情况下,针对至少约50、60、70、80、90、100、110、120、130、140、150、160、170、180、190或200个独立案例(包括其中的增量),方法具有至少约75%、80%、85%、90%、95%或更高的特异性(包括其中的增量)。在一些情况下,针对至少约50、60、70、80、90、100、110、120、130、140、150、160、170、180、190或200个独立案例(包括其中的增量),方法具有至少约75%、80%、85%、90%、95%或更高的灵敏度(包括其中的增量)。在一些情况下,针对至少约50、60、70、80、90、100、110、120、130、140、150、160、170、180、190或200个独立案例(包括其中的增量),方法具有至少约75%、80%、85%、90%、95%或更高的肯定预测值(包括其中的增量)。在一些情况下,针对至少约50、60、70、80、90、100、110、120、130、140、150、160、170、180、190或200个独立案例(包括其中的增量),方法具有至少约75%、80%、85%、90%、95%或更高的否定预测值(包括其中的增量)。
计算***和软件
在一些实施例中,如本文所述的***被配置为提供软件应用,例如多肽预测引擎。在一些实施例中,多肽预测引擎包含用于基于输入数据例如一级氨基酸序列预测至少一种功能或性质的一个或多个模型。在一些实施例中,如本文所述的***包含计算设备,例如数字处理设备。在一些实施例中,如本文所述的***包含用于与服务器通信的网络元件。在一些实施例中,如本文所述的***包含服务器。在一些实施例中,***被配置为上载到服务器和/或从服务器下载数据。在一些实施例中,服务器被配置为存储输入数据、输出和/或其他信息。在一些实施例中,服务器被配置为从***或装置备份数据。
在一些实施例中,***包含一个或多个数字处理设备。在一些实施例中,***包含被配置为生成一个或多个训练模型的多个处理单元。在一些实施例中,***包含多个图形处理单元(GPU),这些图形处理单元适用于机器学习应用。例如,与中央处理单元(CPU)相比,GPU通常表征为由算术逻辑单元(ALU)、控制单元和存储器缓存构成的较小逻辑核的数量增加。因此,GPU被配置为并行处理更多数量的简单且相同的计算,这些计算适用于机器学习方法中常见的数学矩阵计算。在一些实施例中,***包含一个或多个张量处理单元(TPU),这些张量处理单元是由谷歌开发的用于神经网络机器学习的AI专用集成电路(ASIC)。在一些实施例中,本文描述的方法在包含多个GPU和/或TPU的***上实施。在一些实施例中,***包含至少2、3、4、5、6、7、8、9、10、15、20、30、40、50、60、70、80、90、或100个或更多个GPU或TPU。在一些实施例中,GPU或TPU被配置为提供并行处理。
在一些实施例中,***或装置被配置为加密数据。在一些实施例中,服务器上的数据被加密。在一些实施例中,***或装置包含用于存储数据的数据存储单元或存储器。在一些实施例中,使用高级加密标准(AES)来进行数据加密。在一些实施例中,使用128位、192位或256位AES加密来进行数据加密。在一些实施例中,数据加密包含数据存储单元的全盘加密。在一些实施例中,数据加密包含虚拟磁盘加密。在一些实施例中,数据加密包含文件加密。在一些实施例中,在***或装置与其他设备或服务器之间传输或以其他方式通信的数据在传输期间被加密。在一些实施例中,***或装置与其他设备或服务器之间的无线通信被加密。在一些实施例中,传输中的数据使用安全套接层(SSL)加密。
如本文所述的装置包含数字处理设备,该数字处理设备包括一个或多个执行设备功能的硬件中央处理单元(CPU)或通用图形处理单元(GPGPU)。数字处理设备进一步包含被配置为执行可执行指令的操作***。数字处理设备任选地连接到计算机网络。数字处理设备任选地连接到互联网,以便它访问万维网。数字处理设备任选地连接到云计算基础设施。合适的数字处理设备包括,以非限制性实例的方式,服务器计算机、台式计算机、膝上型计算机、笔记本计算机、小型笔记本计算机、上网本计算机、netpad计算机、机顶计算机、流媒体设备、手持式计算机、因特网设备、移动智能手机、平板计算机、个人数字助理、视频游戏控制台和传播媒介。本领域技术人员将认识到,许多智能手机适用于在本文描述的***中使用。
典型地,数字处理设备包括被配置为执行可执行指令的操作***。例如,操作***是软件,包括程序和数据,该操作***管理设备的硬件并为应用的执行提供服务。本领域技术人员将认识到,以非限制性实例的方式,合适的服务器操作***包括FreeBSD、OpenBSD、
Figure BDA0003202321360000231
Linux、
Figure BDA0003202321360000232
Mac OS X
Figure BDA0003202321360000233
Windows
Figure BDA0003202321360000234
Figure BDA0003202321360000235
Figure BDA0003202321360000236
本领域技术人员将认识到,以非限制性实例的方式,合适的个人计算机操作***包括
Figure BDA0003202321360000237
Mac OS
Figure BDA0003202321360000238
和类UNIX操作***,例如
Figure BDA0003202321360000239
在一些实施例中,操作***由云计算提供。
如本文所述的数字处理设备包括或可操作地耦合到存储和/或存储器设备。存储和/或存储器设备是一种或多种用于临时或永久存储数据或程序的物理装置。在一些实施例中,设备是易失性存储器并且需要电源来维持存储的信息。在一些实施例中,设备是非易失性存储器并且在数字处理设备未通电时保留存储的信息。在另外的实施例中,非易失性存储器包含闪存。在一些实施例中,非易失性存储器包含动态随机存取存储器(DRAM)。在一些实施例中,非易失性存储器包括铁电随机存取存储器(FRAM)。在一些实施例中,非易失性存储器包含相变随机存取存储器(PRAM)。在其他实施例中,设备是存储设备,以非限制性实例的方式,包括CD-ROM、DVD、闪存设备、磁盘驱动器、磁带驱动器、光盘驱动器、和基于云计算的存储。在另外的实施例中,存储和/或存储器设备是如本文所披露的那些设备的组合。
在一些实施例中,如本文所述的***或方法生成含有或包含输入和/或输出数据的数据库。本文描述的***的一些实施例是基于计算机的***。这些实施例包括CPU(包括处理器和存储器),其可以呈非暂态计算机可读存储介质的形式。这些***实施例进一步包括典型地存储在存储器(例如呈非暂态计算机可读存储介质的形式)中的软件,其中该软件被配置为使处理器执行功能。并入本文所述***的软件实施例含有一个或多个模块。
在各种实施例中,装置包含计算设备或组件,例如数字处理设备。在本文描述的一些实施例中,数字处理设备包括显示器以显示视觉信息。适用于与本文描述的***和方法一起使用的显示器的非限制性实例包括液晶显示器(LCD)、薄膜晶体管液晶显示器(TFT-LCD)、有机发光二极管(OLED)显示器、OLED显示器、有源矩阵OLED(AMOLED)显示器、或等离子显示器。
在本文描述的一些实施例中,数字处理设备包括用于接收信息的输入设备。适用于与本文描述的***和方法一起使用的输入设备的非限制性实例包括键盘、鼠标、轨迹球、轨迹板或手写笔。在一些实施例中,输入设备是触摸屏或多触摸屏。
本文描述的***和方法典型地包括一个或多个非暂态计算机可读存储介质,该存储介质用程序编码,该程序包括可由任选网络化的数字处理设备的操作***执行的指令。在本文描述的***和方法的一些实施例中,非暂态存储介质是数字处理设备的组件,该数字处理设备是***的组件或在方法中使用。在仍另外的实施例中,计算机可读存储介质任选地可从数字处理设备去除。在一些实施例中,计算机可读存储介质,以非限制性实例的方式,包括CD-ROM、DVD、闪存设备、固态存储器、磁盘驱动器、磁带驱动器、光盘驱动器、云计算***和服务器等。在一些情况下,程序和指令永久地、基本上永久地、半永久地或非暂态地编码在介质上。
典型地,本文描述的***和方法包括至少一个计算机程序或其使用。计算机程序包括一系列指令,其可在数字处理设备的CPU中执行,被编写以执行指定任务。计算机可读指令可以被实施为执行特定任务或实施特定抽象数据类型的程序模块,例如函数、对象、应用编程接口(API)、数据结构等。根据本文提供的披露内容,本领域技术人员将认识到可以以各种语言的各种版本来编写计算机程序。计算机可读指令的功能可以根据需要在各种环境中组合或分布。在一些实施例中,计算机程序包含一个指令序列。在一些实施例中,计算机程序包含多个指令序列。在一些实施例中,从一个位置提供计算机程序。在其他实施例中,从多个位置提供计算机程序。在各种实施例中,计算机程序包括一个或多个软件模块。在各种实施例中,计算机程序以部分地或全部地包括一个或多个网络应用、一个或多个移动应用、一个或多个独立应用、一个或多个网络浏览器插件、扩展、外接程序或附加组件、或其组合。在各种实施例中,软件模块包含文件、代码段、编程对象、编程结构或其组合。在另外的各种实施例中,软件模块包含多个文件、多个代码段、多个编程对象、多个编程结构或其组合。在各种实施例中,以非限制性实例的方式,一个或多个软件模块包含网络应用、移动应用和独立应用。在一些实施例中,软件模块在一个计算机程序或应用中。在其他实施例中,软件模块在一个以上的计算机程序或应用中。在一些实施例中,软件模块驻留在一台机器上。在其他实施例中,软件模块驻留在一台以上机器上。在另外的实施例中,软件模块驻留在云计算平台上。在一些实施例中,软件模块驻留在一个位置的一台或多台机器上。在其他实施例中,软件模块驻留在多于一个位置的一台或多台机器上。
典型地,本文描述的***和方法包括和/或利用一个或多个数据库。鉴于本文提供的披露内容,本领域技术人员将认识到,许多数据库适用于基线数据集、文件、文件***、对象、对象***以及本文描述的数据结构和其他类型信息的存储和检索。在各种实施例中,以非限制性实例的方式,合适的数据库包括关系型数据库、非关系型数据库、面向对象的数据库、对象数据库、实体关系模型数据库、关联数据库和XML数据库。另外的非限制性实例包括SQL、PostgreSQL、MySQL、Oracle、DB2和Sybase。在一些实施例中,数据库是基于互联网的。在另外的实施例中,数据库是基于网络的。在仍另外的实施例中,数据库是基于云计算的。在其他实施例中,数据库基于一个或多个本地计算机存储设备。
图8示出了如本文所述的***的示例性实施例,该***包含装置,例如数字处理设备801。数字处理设备801包括被配置为分析输入数据的软件应用。数字处理设备801可以包括中央处理单元(CPU,本文也称为“处理器”和“计算机处理器”)805,该中央处理单元可以是单核或多核处理器,或者是用于并行处理的多个处理器。数字处理设备801还包括存储器或存储器位置810(例如,随机存取存储器、只读存储器、闪存)、电子存储单元815(例如,硬盘)、通信接口820(例如,网络适配器、网络接口),用于与一个或多个其他***和***设备(例如缓存)进行通信。***设备可以包括经由存储接口870与设备的其余部分通信的一个或多个存储设备或存储介质865。存储器810、存储单元815、接口820和***设备被配置为通过通信总线825例如主板与CPU 805通信。数字处理设备801可以在通信接口820的帮助下可操作地耦合到计算机网络(“网络”)830。网络830可以包含因特网。网络830可以是电信和/或数据网络。
数字处理设备801包括一个或多个输入设备845以接收信息,该一个或多个输入设备经由输入接口850与设备的其他元件通信。数字处理设备801可以包括经由输出接口860与设备的其他元件通信的一个或多个输出设备855。
CPU 805被配置为执行体现在软件应用或模块中的机器可读指令。指令可以存储在存储器位置,例如存储器810。存储器810可以包括各种组件(例如,机器可读介质),包括但不限于随机存取存储器组件(例如,RAM)(例如,静态RAM“SRAM”、动态RAM“DRAM”等),或只读组件(例如,ROM)。存储器810还可以包括基本输入/输出***(BIOS),其包括有助于在数字处理设备内的元件之间传输信息的基本例行程序,例如在设备启动期间,可以存储在存储器810中。
存储单元815可被配置为存储文件,例如一级氨基酸序列。存储单元815还可用于存储操作***、应用程序等。任选地,存储单元815可以可移除地与数字处理设备接口(例如,经由外部端口连接器(未示出)和/或经由存储单元接口)。软件可以完全地或部分地驻留在存储单元815内部或外部的计算机可读存储介质中。在另一个实例中,软件可以完全地或部分地驻留在一个或多个处理器805内。
信息和数据可以通过显示器835显示给用户。显示器经由接口840连接到总线825,并且设备801的显示器其他元件之间的数据传输可以经由接口840来控制。
可以通过存储在数字处理设备801的电子存储位置(例如像存储器810或电子存储单元815)上的机器(例如,计算机处理器)可执行代码的方式来实施本文所述的方法。机器可执行或机器可读代码可以以软件应用或软件模块的形式提供。在使用期间,代码可由处理器805执行。在一些情况下,可以从存储单元815中检索代码并将其存储在存储器810上用于处理器805随时访问。在一些情况下,可以排除电子存储单元815,并且将机器可执行指令存储在存储器810上。
在一些实施例中,远程设备802被配置为与数字处理设备801通信,并且可以包含任何移动计算设备,该移动计算设备的非限制性实例包括平板计算机、膝上型计算机、智能电话或智能手表。例如,在一些实施例中,远程设备802是用户的智能电话,其被配置为从本文所述的装置或***的数字处理设备801接收信息,其中该信息可以包括汇总、输入、输出或其他数据。在一些实施例中,远程设备802是网络上的服务器,其被配置为向本文所述的装置或***发送和/或从本文所述的装置或***接收数据。
本文所述的***和方法的一些实施例被配置为生成含有或包括输入和/或输出数据的数据库。如本文所述,数据库被配置为用作例如用于输入和输出数据的数据储存库。在一些实施例中,数据库存储在网络上的服务器上。在一些实施例中,数据库本地地存储在装置(例如,装置的监视器组件)上。在一些实施例中,数据库与服务器提供的数据备份一起本地存储。
某些定义
如本文所有,单数形式“一个/一种(a/an)”以及“该(这些)”包括复数个指示物,除非上下文中另外明确指明。例如,术语“样本”包括多个样本,包括其混合物。除非另有说明,否则本文中对“或”的任何引用均旨在涵盖“和/或”。
如本文所用,术语“核酸”通常是指一种或多种核碱基、核苷或核苷酸。例如,核酸可以包括一个或多个选自腺苷(A)、胞嘧啶(C)、鸟嘌呤(G)、胸腺嘧啶(T)和尿嘧啶(U)或其变体的核苷酸。核苷酸通常包括核苷和至少1、2、3、4、5、6、7、8、9、10个或更多个磷酸(PO3)基团。核苷酸可以包括核碱基、五碳糖(核糖或脱氧核糖)以及一个或多个磷酸基团。核糖核苷酸包括其中糖为核糖的核苷酸。脱氧核糖核苷酸包括其中糖是脱氧核糖的核苷酸。核苷酸可以是核苷一磷酸、核苷二磷酸、核苷三磷酸或核苷多磷酸。
如本文所用,术语“多肽”、“蛋白质”和“肽”可互换使用,并且是指经由肽键连接的氨基酸残基的聚合物,并且其可由两条或更多条多肽链构成。术语“多肽”、“蛋白质”和“肽”是指通过酰胺键连接在一起的至少两个氨基酸单体的聚合物。氨基酸可以是L光学异构体或D光学异构体。更具体地说,术语“多肽”、“蛋白质”和“肽”是指由两个或更多个氨基酸以特定顺序构成的分子;例如,由编码蛋白质的基因或RNA中核苷酸的碱基序列决定的顺序。蛋白质对身体细胞、组织和器官的结构、功能和调节至关重要,并且每种蛋白质都具有独特的功能。实例是激素、酶、抗体及其任何片段。在一些情况下,蛋白质可以是蛋白质的部分,例如蛋白质的结构域、亚结构域或基序。在一些情况下,蛋白质可以是蛋白质的变体(或突变),其中一个或多个氨基酸残基被***到天然存在的(或至少已知的)蛋白质氨基酸序列中、从其中缺失和/或取代到其中。蛋白质或其变体可以是天然存在的或重组的。多肽可以是通过相邻氨基酸残基的羧基基团和氨基基团之间的肽键结合在一起的氨基酸的单一线性聚合物链。例如,可以通过添加碳水化合物、磷酸化等来修饰多肽。蛋白质可以包含一种或多种多肽。
如本文所用,术语“神经网”是指人工神经网络。人工神经网络具有互连的节点组的一般结构。节点通常被组织成多个层,其中每个层包含一个或多个节点。信号可以通过神经网络从一层传播到下一层。在一些实施例中,神经网络包含嵌入器。嵌入器可以包括一个层或多个层,例如嵌入层。在一些实施例中,神经网络包含预测器。预测器可以包括一个或多个生成输出或结果(例如,基于一级氨基酸序列的预测功能或性质)的输出层。
如本文所用,术语“预训练***”是指用至少一个数据集训练的至少一个模型。模型的实例可以是线性模型、转换器或神经网络,例如卷积神经网络(CNN)。预训练***可以包括用一个或多个数据集训练的一个或多个模型。该***还可以包括权重,例如模型或神经网络的嵌入权重。
如本文所用,术语“人工智能”通常是指能够以“智能”或非重复或死记硬背或预编程的方式执行任务的机器或计算机。
如本文所用,术语“机器学习”是指机器(例如,计算机程序)可以在没有被编程的情况下自行学习的一种学习类型。
如本文所用,术语“机器学习”是指机器(例如,计算机程序)可以在没有被编程的情况下自行学习的一种学习类型。
如本文所用,术语“约”数字是指该数字加上或减去该数字的10%。术语“约”范围是指该范围减去其最低值的10%,以及加上其最大值的10%。
如本文所用,短语“a、b、c和d中的至少一个”是指a、b、c或d,以及包含a、b、c和d中的两个或两个以上的任何和所有组合。
实例
实例1:构建所有蛋白质功能和特征的模型
本实例描述了针对特定蛋白质功能或蛋白质性质的迁移学习中第一模型的构建。第一模型是用来自Uniprot数据库(https://www.uniprot.org/)的5800万个蛋白质序列训练的,其中在跨7个不同的功能表示(GO、Pfam、关键字、Kegg本体论、Interpro、SUPFAM和OrthoDB)具有172,401+个注释。该模型是基于遵循残差学习架构的深度神经网络。网络的输入是表示为“独热”向量的蛋白质序列,该向量将氨基酸序列编码为矩阵,其中每行恰好含有1个非零条目,该条目对应于该残基处存在的氨基酸。该矩阵允许25种可能的氨基酸来覆盖所有典型和非典型氨基酸的可能性,并且所有长度长于1000个氨基酸的蛋白质被截短为前1000个氨基酸。然后输入通过以下进行处理:具有64个过滤器的1维卷积层,然后是批归一化、修正线性(ReLU)激活函数,并且最后通过1维最大池化操作。这被称为“输入块”并且在图1中示出。
在输入块之后,进行称为“恒等残差块”和“卷积残差块”的一系列重复的操作。恒等残差块进行一系列1维卷积、批归一化和ReLU激活,以将输入转换为块,同时保留输入的形状。然后将这些转换的结果添加回输入并使用ReLU激活转换,并且然后传递到后续层/块。图2中示出实例性恒等残差块。
卷积残差块类似于恒等残差块,不同的是该卷积残差块不是鉴定分支,它含有具有调整输入大小的单个卷积操作的分支。这些卷积残差块用于改变(例如,经常增加)网络内部蛋白质序列表示的大小。卷积残差块的实例在图3中示出。
在输入块之后,使用以卷积残差块形式的一系列操作(以调整表示的大小),然后使用2-5个恒等残差块来构建网络的核心。该方案(卷积残差块+多个恒等残差块)总共重复了5次。最后,执行全局平均合并层,然后是具有512个隐藏单元的密集层,以创建序列嵌入。嵌入可以被视为存在于512维空间中的向量,该向量对序列中与功能相关的所有信息进行编码。使用嵌入,使用每个注释的线性模型预测172,401个注释中的每个注释的存在或不存在。显示该过程的输出层在图4中示出。
在具有8个V100 GPU的计算节点上,使用称为Adam的随机梯度下降的变体通过训练数据集中的57,587,648个蛋白质对模型进行6次完整训练。训练大约需要一周。使用由大约700万个蛋白质构成的验证数据集对训练的模型进行了验证。
网络被训练以最小化每个注释的二元交叉熵总和,使用分类交叉熵损失的OrthoDB除外。由于一些注释非常罕见,因此损失再权重策略改进了性能。对于每个二进制分类任务,使用少数类别的逆频率的平方根,对少数类别(例如,肯定类别)的损失进行增权重。这鼓励网络大致相等地“关注”肯定实例和否定实例,即使大多数序列对于绝大多数注释都是否定实例。
最终模型导致总体经权重F1准确性结果为0.84(表1),以跨7个不同任务仅从一级蛋白质序列预测任何标签。F1是精确率和召回率的调和平均值的准确性测量,并且在1时是完美的,在0时完全失败。宏观和微观平均准确性示于表1。对于宏观平均值,每个类别的准确性都是独立计算的,并且然后确定平均值。这种方法同样地处理所有类别。微观平均准确性汇总了所有类别的贡献以计算平均指标。
表1:第一模型的预测准确性
来源 宏观 微观
GO 0.42 0.75
InterPro 0.63 0.83
关键字 0.80 0.88
KO 0.23 0.25
OrthoDB 0.76 0.91
Pfam 0.63 0.82
SUPFAM 0.77 0.91
实例2:蛋白质稳定性的深度神经网络分析技术
该实例描述了第二模型的训练,以直接从一级氨基酸序列预测特定蛋白质性质,即蛋白质稳定性。实例1中描述的第一模型用作第二模型训练的起点。
第二模型的数据输入获得自Rocklin等人,Science[科学],2017,并包括30,000种小蛋白,已在高通量酵母展示测定中评估了这些小蛋白的蛋白质稳定性。简而言之,为了生成该实例中第二模型的数据输入,通过使用酵母展示***来测定蛋白质的稳定性,其中每个测定的蛋白质都遗传地融合至可以被荧光标记的表达标签。将细胞与不同浓度的蛋白酶一起温育。通过荧光激活的细胞分选(FACS)分离那些展示稳定蛋白质的细胞,并通过深度测序确定每种蛋白质的身份。确定了最终稳定性评分,该评分表明了未折叠状态下该序列的测量的EC50和预测的EC50之间的差异。
该最终稳定性评分用作第二模型的数据输入。从Rocklin等人发表的补充数据中提取56,126个氨基酸序列的实值稳定性评分,然后打乱并随机分配到40,000个序列的训练集或16,126个序列的独立测试集。
通过去除注释预测的输出层并添加具有线性激活函数的密集连接的1维输出层来调整实例1的预训练模型的架构,以适应每个样本的蛋白质稳定性值。使用128个序列的批量大小和学习率为1x 10-4的Adam优化,该模型拟合90%的训练数据并使用剩余的10%进行验证,最小化均方误差(MSE),持续多达25轮(epoch)(如果连续两轮验证损失增加,则提前停止)。对预训练模型(其具有预训练权重的迁移学习模型)并且对具有随机初始化参数的相同模型架构(“朴素”模型)重复该过程。对于基线比较,具有L2正则化的线性回归模型(“岭”模型)拟合相同的数据。经由MSE和皮尔逊相关性评估独立测试集中的预测值与实际值的性能。接下来,通过从训练集中抽取10个随机样本来创建“学习曲线”,样本大小为10、50、100、500、1000、5000和10000,并对每个模型重复上述训练/测试程序。
在如实例1中所述训练第一模型并将其用作当前实例2中所述的第二模型训练的起点后,展示了预测稳定性和预期稳定性之间的皮尔逊相关系数为0.72,MSE为0.15(图5),其中预测能力与标准线性回归模型相比提高了24%。图6的学***,尽管这些模型似乎在高样本量时如预期的那样收敛。两种深度学习模型在一定样本量下都优于线性模型,因为线性模型的性能最终会饱和。
实例3:蛋白荧光的深度神经网络分析技术
该实例描述了第二模型的训练,以直接从一级序列预测特定蛋白质功能,即荧光。
实例1中描述的第一模型用作第二模型训练的起点。在该实例中,第二模型的数据输入来自Sarkisyan等人,Nature[自然],2016中,并包括51,715个经标记的GFP变体。简而言之,使用荧光激活细胞分选测定GFP活性以将表达每个变体的细菌分选为具有510nm发射的不同亮度的八个群体。
通过去除注释预测的输出层并添加具有sigmoid激活函数的密集连接的1维输出层来调整实例1的预训练模型的架构,以将每个序列分类为发荧光或不发荧光。使用128个序列的批量大小和Adam优化(具有1x10-4的学习率)训练模型以最小化二元交叉熵,持续200轮。对于具有预训练权重的迁移学习模型(“预训练”模型)以及对于具有随机初始化参数的相同模型架构(“朴素”模型)重复该过程。对于基线比较,具有L2正则化的线性回归模型(“岭”模型)拟合相同的数据。
完整数据拆分为训练集和验证集,其中验证数据是前20%最亮的蛋白质,训练集是后80%。为了估计迁移学习模型如何改进非迁移学习方法,对训练数据集进行二次采样,以创建40、50、100、500、1000、5000、10000、25000、40000和48000个序列的样本大小。对来自完整训练数据集的每个样本大小的10个实现进行随机抽样,以测量每种方法的性能和可变性。感兴趣的主要指标是肯定预测值,该预测值是来自模型的所有肯定预测中真肯定的百分比。
迁移学习的添加既增加了总肯定预测值,但也允许使用比任何其他方法更少的数据的预测能力(图7)。例如,用100个序列函数GFP对作为第二模型的输入数据,添加用于训练的第一模型导致错误预测减少了33%。此外,仅用40个序列函数GFP对作为第二模型的输入数据,添加用于训练的第一模型导致70%的肯定预测值,而单独的第二模型或标准逻辑回归模型未定义,具有0肯定预测值。
实例4:蛋白质酶活性的深度神经网络分析技术
该实例描述了第二模型的训练,以直接从一级氨基酸序列预测蛋白质酶活性。第二模型的数据输入来自Halabi等人,Cell[细胞],2009,并包括1,300个S1A丝氨酸蛋白酶。引自文章的数据说明如下:“包含S1A、PAS、SH2和SH3家族的序列是通过迭代PSI-BLAST(Altschul等人,1997),并用Cn3D(Wang等人,2000)和ClustalX(Thompson等人,1997)进行比对,然后是标准的手动调整方法(Doolittle,1996)从NCBI非冗余数据库(版本2.2.14,2006年5月7日)中收集的。”使用该数据训练第二模型,其目标是针对以下类别从一级氨基酸序列预测一级催化特异性:胰蛋白酶、胰凝乳蛋白酶、颗粒酶和激肽释放酶。对这4个类别共有422个序列。重要的是,所有模型都没有使用多序列比对,这表明该任务在无需多序列比对的情况下是可能的。
通过去除注释预测的输出层并添加具有softmax激活函数的密集连接的4维输出层来调整实例1的预训练模型的架构,以将每个序列分类为4个可能类别中的1个。使用128个序列的批量大小和学习率为1x10-4的Adam优化,该模型拟合90%的训练数据并使用剩余的10%进行验证,最小化分类交叉熵,持续多达500轮(如果连续十轮验证损失增加,则提前停止)。整个过程重复10次(称为10倍交叉验证),以评估每个模型的准确性和可变性。对预训练模型(其具有预训练权重的迁移学习模型)并且对具有随机初始化参数的相同模型架构(“朴素”模型)重复该过程。对于基线比较,具有L2正则化的线性回归模型(“岭”模型)拟合相同的数据。性能是评估每个折叠中保留的数据的分类准确性。
在如实例1中所述训练第一模型并将它用作当前实例2中描述的第二模型的训练起点后,结果表明与使用朴素模型为81%和使用线性回归为80%相比,使用预训练模型的中值分类准确性为93%。这示于表2中。
表2:S1A丝氨酸蛋白酶数据的分类准确性
Figure BDA0003202321360000321
实例5:蛋白溶解度的深度神经网络分析技术
许多氨基酸序列导致在溶液中聚集的结构。降低氨基酸序列聚集的趋势(例如,提高溶解度)是设计更好疗法的目标。因此,用于直接从序列预测聚集和溶解度的模型是实现这一目标的重要工具。该实例描述了转换器架构的自我监督预训练和随后的模型微调,以经由读取反向性质蛋白质聚集来预测淀粉样蛋白β(Aβ)溶解度。在高通量深度突变扫描中,对所有可能的单点突变使用聚集测定来测量数据。Gray等人,“Elucidating theMolecular Determinants of AβAggregation with Deep Mutational Scanning[用深度突变扫描阐明Aβ聚集的分子决定因素]”于G3,2019中,包括在至少一个实例中用于训练本模型的数据。然而,在一些实施例中,其他数据可用于训练。在该实例中,使用与之前实例不同的编码器架构展示了迁移学习的有效性,在此情况下使用的是转换器而不是卷积神经网络。迁移学习改善了模型对训练数据中看不到的蛋白质位置的泛化。
在该实例中,数据被收集并格式化为一组791个序列标签对。标签是每个序列经多次重复的实值聚集测定测量值的平均值。数据通过两种方法以4:1的比率拆分为训练集/测试集:(1)随机化,其中每个经标记的序列分配给训练集、验证集或测试集,或(2)通过残基,其中将在给定位置具有突变的所有序列聚集在训练或测试集中,使得该模型在训练期间与来自某些随机选择的位置的数据隔离(例如,从不暴露于),但被强制对保留的测试数据预测这些不可见位置处的输出。图11说明了按蛋白质位置拆分的示例性实施例。
该实例使用BERT语言模型的转换器架构来预测蛋白质的性质。模型以“自我监督”的方式进行训练,使得输入序列的某些残基对于模型被掩蔽或隐藏,并且该模型的任务是在给定未掩蔽残基的情况下确定被掩蔽残基的身份。在该实例中,模型使用超过1.56亿个蛋白质氨基酸序列的全集进行训练,这些氨基酸序列可在模型开发时从UniProtKB数据库下载。对于每个序列,从模型中随机掩蔽15%的氨基酸位置,将掩蔽序列转换为实例1中描述的“独热”输入格式,并训练模型以最大化掩蔽预测的准确性。本领域普通技术人员可以理解Rives等人,“Biological Structure and Function Emerge from ScalingUnsupervised Learning to 250M Protein Sequences[生物结构和功能从无监督学习扩展到2.5亿蛋白质序列]”,http://dx.doi.org/10.1101/622803,2019(以下简称“Rives”)描述了其他应用。
图10A是说明本披露的示例性实施例的框图1050。图1050说明了训练Omniprot(一种可以实施本披露中描述的方法的***)。Omniprot可以指预训练的转换器。可以理解,Omniprot的训练在多个方面与Rives等人相似,但也有变化。首先,序列和具有所述序列的性质(预测函数或其他性质)的相应注释预训练1052Omniprot的神经网络/模型。这些序列是巨大的数据集,并且在该实例中是1.56亿个序列。然后,较小的数据,特定的库测量值,微调1054Omniprot。在该特定的实例中,较小的数据集是791个淀粉样蛋白β序列聚集标签。然而,本领域普通技术人员可以认识到可以采用其他数量的序列和标签以及其他类型。一旦微调,Omniprot数据库就可以输出序列的预测函数。
在更详细的水平上,迁移学***均值,将该张量缩减为D维嵌入向量。然后,添加具有线性激活函数的新的密集连接的1维输出层,并拟合模型中所有层的权重到标量聚集测定值。对于基线比较,具有L2正则化的线性回归模型和朴素转换器(使用随机初始化而不是预训练权重)也拟合到训练数据。对于保留的测试数据,使用预测相对于真实标签的皮尔逊相关性来评估所有模型的性能。
图12说明了使用随机拆分和按位置拆分的线性转换器、朴素转换器和预训练转换器结果的示例性结果。对于所有三种模型,按位置拆分数据是一项更困难的任务,其中使用所有类型的模型,性能均下降。由于数据的本质,线性模型无法从基于位置的拆分中的数据中学习。对于任何特定的氨基酸变体,独热输入向量在训练集和测试集之间没有重叠。然而,两种转换器模型(例如,朴素转换器和预训练转换器)都能够将蛋白质聚集规则从一组位置泛化到训练数据中看不到的另一组位置,其中与数据的随机拆分相比,准确性只有很小的损失。朴素转换器的r=0.80,预训练转换器的r=0.87。此外,对于这两种类型的数据拆分,预训练转换器的准确性远高于朴素模型,证明了在具有与之前实例完全不同的深度学习架构情况下迁移学习对蛋白质的能力。
实例6:对于酶活性预测而言的连续靶向预训练
L-天冬酰胺酶是一种代谢酶,其将氨基酸天冬酰胺转化为天冬氨酸和铵。虽然人类自然会产生这种酶,但高活性细菌变体(源自大肠杆菌或菊欧文氏菌)通过直接注射到体内用来治疗某些白血病。天冬酰胺酶通过从血液中去除L-天冬酰胺发挥作用,杀死依赖该氨基酸的癌细胞。
以开发酶活性预测模型为目标,对一组197个天然存在的II型天冬酰胺酶序列变体进行了分析。所有序列都作为克隆质粒订购,在大肠杆菌中表达,分离,并测定酶的最大酶促速率,如下所示:96孔高结合板用抗6His标签抗体包被。然后使用BSA封闭缓冲液将孔清洗和封闭。封闭后,再次洗涤孔,并且然后与含有表达的His标签的ASN酶的适当稀释的大肠杆菌裂解物一起孵育。1小时后,洗涤板并加入天冬酰胺酶活性测定混合物(来自Biovision试剂盒K754)。酶活性通过分光光度法在540nm处测量,每分钟读取一次,持续25分钟。将4分钟窗口内的最高斜率作为每种酶的最大瞬时速率,以确定每个样本的速率。所述酶促速率是蛋白质功能的一个实例。这些活性经标记的序列被分成100个序列的训练集和97个序列的测试集。
图10B是说明本披露的方法的示例性实施例的框图1000。从理论上讲,对来自实例5的预训练模型的随后一轮无监督微调(使用所有已知的天冬酰胺酶样蛋白质)提高了模型在迁移学习任务中对少量测量序列的预测性能。实例5的预训练转换器模型(其最初在来自UniProtKB的所有已知蛋白质序列的全域内进行了训练)在使用InterPro家族IPR004550,“L-天冬酰胺酶,II型”注释的12,583个序列上进一步微调。这是一个两步预训练过程,其中两个步骤都应用与实例5相同的自监督方法。
具有转换器编码器和解码器1006的第一***1001使用具有所有蛋白质的组进行训练。在该实例中,使用了1.56亿个蛋白质序列,然而,本领域普通技术人员可以理解可以使用其他数量的序列。本领域普通技术人员可以进一步理解,用于训练模型1001的数据的大小大于用于训练第二***1011的数据的大小。第一模型生成预训练模型1008,该模型被发送到第二***1011。
第二***1011接受预训练模型1008,并用ASN酶序列1012的较小数据集训练模型。然而,本领域普通技术人员可以认识到,可以使用其他数据集进行该微调训练。然后第二***1011通过用线性回归层1026替换解码器层1016并进一步训练所得模型以预测标量酶促活性值1022(作为监督任务)来应用迁移学习方法以预测活性。经标记的序列被随机拆分成训练集和测试集。该模型用100个活性经标记的天冬酰胺酶序列1022的训练集进行训练,然后用保留的测试集评估性能。从理论上讲,具有第二预训练步骤的迁移学习(利用蛋白质家族中的所有可用序列)在低数据情景(即当第二训练的数据比初始训练少或少得多时)下显著提高了预测准确性。
图13A是说明1000个未标记的天冬酰胺酶序列的掩蔽预测的重构误差的图。图13A说明,与使用天然天冬酰胺酶序列模型(右)微调的Omniprot相比,天冬酰胺酶蛋白(左)的第二轮预训练后的重构误差降低了。图13B是说明仅用100个经标记的序列训练后,对97个保留的活性经标记的序列的预测准确性的图。与单(OmniProt)预训练步骤相比,两步预训练显著改善了测量的活性相对于模型预测的皮尔逊相关性。
在以上描述和实例中,本领域普通技术人员可以认识到样本大小、迭代、轮、批次大小、学习率、准确性、数据输入大小、过滤器、氨基酸序列和其他数字的特定数量可以调整或优化。尽管在实例中描述了特定实施例,但实例中列出的数字是非限制性的。
虽然本文已经显示和描述了本发明的优选实施例,但是本领域技术人员将理解的是,此类实施例仅以举例的方式提供。在不脱离本发明的情况下,现在本领域技术人员将想到许多改变、变化和取代。应该理解的是,本文所述的本发明的实施例的各种替代方案可用于实践本发明。其意图是以下权利要求限定本发明的范围,并且由此覆盖这些权利要求及其等同项范围内的方法和结构。虽然示例性实施例已进行了具体显示和描述,但本领域的技术人员应当理解,在不偏离由所附权利要求书涵盖的本实施例范围的情况下,可以在其中做出在形式和细节方面的各种改变。
所有专利、公开的申请以及在此引用的参考文献的传授内容都通过引用将其全文进行结合。

Claims (69)

1.一种为所需蛋白质性质建模的方法,该方法包括:
(a)提供包含第一神经网嵌入器和第一神经网预测器的第一预训练***,该预训练***的该第一神经网预测器不同于该所需蛋白质性质;
(b)将该预训练***的该第一神经网嵌入器的至少一部分迁移到第二***,该第二***包含第二神经网嵌入器和第二神经网预测器,该第二***的该第二神经网预测器提供该所需蛋白质性质;以及
(c)通过该第二***分析蛋白质分析物的一级氨基酸序列,以生成该蛋白质分析物的该所需蛋白质性质的预测。
2.如权利要求1所述的方法,其中该第一***和该第二***的神经网嵌入器的架构是独立地选自VGG16、VGG19、Deep ResNet、Inception/GoogLeNet(V1-V4)、Inception/GoogLeNet ResNet、Xception、AlexNet、LeNet、MobileNet、DenseNet、NASNet和MobileNet中的至少一个的卷积架构。
3.如权利要求1所述的方法,其中该第一***包含选自条件式GAN、DCGAN、CGAN、SGAN或渐进式GAN、SAGAN、LSGAN、WGAN、EBGAN、BEGAN或infoGAN的生成式对抗网络(GAN)。
4.如权利要求3所述的方法,其中该第一***包含选自Bi-LSTM/LSTM、Bi-GRU/GRU或转换器网络的递归神经网络。
5.如权利要求3所述的方法或***,其中该第一***包含变分自编码器(VAE)。
6.如前述权利要求中任一项所述的方法,其中该嵌入器用一组至少50、100、150、200、250、300、350、400、450、500、600、700、800、900或1000个或更多个氨基酸序列进行训练。
7.如权利要求6所述的方法,其中这些氨基酸序列包括跨一种或多种功能表示的注释,这些功能表示包括GP、Pfam、关键字、Kegg本体论、Interpro、SUPFAM或OrthoDB中的至少一种。
8.如权利要求7所述的方法,其中该氨基酸序列具有至少约1万、2万、3万、4万、5万、7.5万、10万、12万、14万、15万、16万或17万个可能的注释。
9.如前述权利要求中任一项所述的方法,其中相对于未使用该第一模型的该迁移嵌入器而训练的模型,该第二模型具有改进的性能指标。
10.如前述权利要求中任一项所述的方法,其中该第一***或该第二***由Adam、RMSprop、具有动量的随机梯度下降(SGD)、具有动量和Nestrov加速梯度的SGD、不具有动量的SGD、Adagrad、Adadelta或NAdam优化。
11.如前述权利要求中任一项所述的方法,其中可以使用以下激活函数中的中任一个来优化该第一模型和该第二模型:softmax、elu、SeLU、softplus、softsign、ReLU、tanh、sigmoid、hard_sigmoid、指数、PReLU和LeaskyReLU或线性。
12.如前述权利要求中任一项所述的方法,其中该神经网嵌入器包含至少10、50、100、250、500、750或1000或更多个层,并且该预测器包含至少1、2、3、4、5、6、7、8、9、10、11、12、13、14、15、16、17、18、19或20或更多个层。
13.如前述权利要求中任一项所述的方法,其中该第一***或该第二***中的至少一个利用选自以下的正则化:提前停止、L1-L2正则化、残差连接或其组合,其中在1、2、3、4、5或更多个层上执行该正则化。
14.如权利要求13所述的方法,其中使用批归一化执行该正则化。
15.如权利要求13所述的方法,其中使用组归一化执行该正则化。
16.如前述权利要求中任一项所述的方法,其中该第二***的第二模型包含该第一***的第一模型,其中去除了该第一模型的最后一层。
17.如权利要求16所述的方法,其中在迁移到该第二模型时,该第一模型的2、3、4、5或更多个层被去除。
18.如权利要求16或17所述的方法,其中在该第二模型的训练期间,这些迁移层被冻结。
19.如权利要求16或17所述的方法,其中在该第二模型的训练期间,这些迁移层被解冻。
20.如权利要求17-19中任一项所述的方法,其中该第二模型具有1、2、3、4、5、6、7、8、9、10或更多个层添加到该第一模型的迁移层。
21.如前述权利要求中任一项所述的方法,其中该第二***的该神经网预测器预测蛋白质结合活性、核酸结合活性、蛋白质溶解度和蛋白质稳定性中的一种或多种。
22.如前述权利要求中任一项所述的方法,其中该第二***的该神经网预测器预测蛋白荧光。
23.如前述权利要求中任一项所述的方法,其中该第二***的该神经网预测器预测酶活性。
24.一种用于鉴定氨基酸序列和蛋白质功能之间以前未知的关联的计算机实施的方法,该方法包括:
(a)使用第一机器学习软件模块生成多个蛋白质性质和多个氨基酸序列之间的多个关联的第一模型;
(b)将该第一模型或其部分迁移到第二机器学习软件模块;
(c)由该第二机器学习软件模块生成包含该第一模型的至少一部分的第二模型;以及
(d)基于该第二模型,鉴定该氨基酸序列和该蛋白质功能之间以前未知的关联。
25.如权利要求24所述的方法,其中该氨基酸序列包含一级蛋白质结构。
26.如权利要求24或25所述的方法,其中该氨基酸序列导致蛋白质构型,该蛋白质构型产生该蛋白质功能。
27.如权利要求24-26所述的方法,其中该蛋白质功能包含荧光。
28.如权利要求24-27所述的方法,其中该蛋白质功能包含酶活性。
29.如权利要求24-28所述的方法,其中该蛋白质功能包含核酸酶活性。
30.如权利要求24-29所述的方法,其中该蛋白质功能包含蛋白质稳定性程度。
31.如权利要求24-30所述的方法,其中该多个蛋白质性质和该多个氨基酸序列来自UniProt。
32.如权利要求24-31所述的方法,其中该多个蛋白质性质包含标签GP、Pfam、关键字、Kegg本体论、Interpro、SUPFAM和OrthoDB中的一种或多种。
33.如权利要求24-32所述的方法,其中该多个氨基酸序列形成多个蛋白质的一级蛋白质结构、二级蛋白质结构和三级蛋白质结构。
34.如权利要求24-33所述的方法,其中该第一模型用输入数据进行训练,该输入数据包含多维张量、3维原子位置的表示、成对相互作用的邻接矩阵和字符嵌入中的一种或多种。
35.如权利要求24-34所述的方法,该方法包括:向该第二机器学习模块输入与一级氨基酸序列的突变、氨基酸相互作用的接触图、三级蛋白质结构和来自可变剪接转录物的预测同种型相关的数据中的至少一种。
36.如权利要求24-35所述的方法,其中该第一模型和该第二模型使用监督学习进行训练。
37.如权利要求24-36所述的方法,其中该第一模型使用监督学习进行训练,并且该第二模型使用无监督学习进行训练。
38.如权利要求24-37所述的方法,其中该第一模型和该第二模型包含含有卷积神经网络、生成式对抗网络、递归神经网络或变分自编码器的神经网络。
39.如权利要求38所述的方法,其中该第一模型和该第二模型各自包含不同的神经网络架构。
40.如权利要求38-39所述的方法,其中该卷积网络包含VGG16、VGG19、Deep ResNet、Inception/GoogLeNet(V1-V4)、Inception/GoogLeNet ResNet、Xception、AlexNet、LeNet、MobileNet、DenseNet、NASNet或MobileNet中的一个。
41.如权利要求24-40所述的方法,其中该第一模型包含嵌入器,并且该第二模型包含预测器。
42.如权利要求41所述的方法,其中第一模型架构包含多个层,并且第二模型架构包含该多个层中的至少两个层。
43.如权利要求24-42所述的方法,其中该第一机器学习软件模块用包含至少10,000个蛋白质性质的第一训练数据集训练该第一模型,并且该第二机器学习软件模块使用第二训练数据集训练该第二模型。
44.一种用于鉴定氨基酸序列和蛋白质功能之间以前未知的关联的计算机***,该计算机***包含:
(a)处理器;
(b)存储有指令的非暂态计算机可读介质,这些指令当被执行时被配置用于使该处理器:
(i)使用第一机器学习软件模型生成多个蛋白质性质和多个氨基酸序列之间的多个关联的第一模型;
(ii)将该第一模型或其部分迁移到第二机器学习软件模块;
(iii)由该第二机器学习软件模块生成包含该第一模型的至少一部分的第二模型;
(iv)基于该第二模型,鉴定该氨基酸序列和该蛋白质功能之间以前未知的关联。
45.如权利要求44所述的***,其中该氨基酸序列包含一级蛋白质结构。
46.如权利要求44-45所述的***,其中该氨基酸序列导致蛋白质构型,该蛋白质构型产生该蛋白质功能。
47.如权利要求44-46所述的***,其中该蛋白质功能包含荧光。
48.如权利要求44-47所述的***,其中该蛋白质功能包含酶活性。
49.如权利要求44-48所述的***,其中该蛋白质功能包含核酸酶活性。
50.如权利要求44-49所述的***,其中该蛋白质功能包含蛋白质稳定性程度。
51.如权利要求44-50所述的***,其中该多个蛋白质性质和多个蛋白质标记物来自UniProt。
52.如权利要求44-51所述的***,其中该多个蛋白质性质包含标签GP、Pfam、关键字、Kegg本体论、Interpro、SUPFAM和OrthoDB中的一种或多种。
53.如权利要求44-52所述的***,其中该多个氨基酸序列包括多个蛋白质的一级蛋白质结构、二级蛋白质结构和三级蛋白质结构。
54.如权利要求44-53所述的***,其中该第一模型用输入数据进行训练,该输入数据包含多维张量、3维原子位置的表示、成对相互作用的邻接矩阵和字符嵌入中的一种或多种。
55.如权利要求44-54所述的***,其中该软件被配置为使该处理器向该第二机器学习模块输入与一级氨基酸序列的突变、氨基酸相互作用的接触图、三级蛋白质结构和来自可变剪接转录物的预测同种型相关的数据中的至少一种。
56.如权利要求44-55所述的***,其中该第一模型和该第二模型使用监督学习进行训练。
57.如权利要求44-56所述的***,其中该第一模型使用监督学习进行训练并且该第二模型使用无监督学习进行训练。
58.如权利要求44-57所述的***,其中该第一模型和该第二模型包含含有卷积神经网络、生成式对抗网络、递归神经网络或变分自编码器的神经网络。
59.如权利要求58所述的***,其中该第一模型和该第二模型各自包含不同的神经网络架构。
60.如权利要求58-59所述的***,其中该卷积网络包含VGG16、VGG19、Deep ResNet、Inception/GoogLeNet(V1-V4)、Inception/GoogLeNet ResNet、Xception、AlexNet、LeNet、MobileNet、DenseNet、NASNet或MobileNet中的一个。
61.如权利要求44-60所述的***,其中该第一模型包含嵌入器,并且该第二模型包含预测器。
62.如权利要求61所述的***,其中第一模型架构包含多个层并且第二模型架构包含该多个层中的至少两个层。
63.如权利要求44-62所述的***,其中该第一机器学习软件模块用包含至少10,000个蛋白质性质的第一训练数据集训练该第一模型,并且该第二机器学习软件模块使用第二训练数据集训练该第二模型。
64.一种为所需蛋白质性质建模的方法,该方法包括:
用第一组数据训练第一***,该第一***包含第一神经网转换器编码器和第一解码器,预训练***的该第一解码器被配置为生成与该所需蛋白质特性不同的输出;
将该预训练***的该第一转换器编码器的至少一部分迁移到第二***,该第二***包含第二转换器编码器和第二解码器;
用第二组数据训练该第二***,该第二组数据包含一组蛋白质,该组蛋白质表示比该第一组数据数量更少的蛋白质类别,其中这些蛋白质类别包括以下中的一种或多种:(a)该第一组数据内的蛋白质类别,以及(b)从该第一组数据中排除的蛋白质类别;以及
通过该第二***分析蛋白质分析物的一级氨基酸序列,从而生成该蛋白质分析物的所需蛋白质性质的预测。
65.如权利要求64所述的方法,其中蛋白质分析物的该一级氨基酸序列是一个或多个天冬酰胺酶序列和相应的活性标签。
66.如权利要求64-65所述的方法,其中该第一组数据包含一组蛋白质,该组蛋白质包括多种蛋白质类别。
67.如权利要求64-66所述的方法,其中该第二组数据是这些蛋白质类别中的一种。
68.如权利要求64-67所述的方法,其中这些蛋白质类别中的该一种是酶。
69.一种被适配用于执行如权利要求64-68中任一项所述方法的***。
CN202080013315.3A 2019-02-11 2020-02-10 机器学习引导的多肽分析 Active CN113412519B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962804034P 2019-02-11 2019-02-11
US201962804036P 2019-02-11 2019-02-11
US62/804,034 2019-02-11
US62/804,036 2019-02-11
PCT/US2020/017517 WO2020167667A1 (en) 2019-02-11 2020-02-10 Machine learning guided polypeptide analysis

Publications (2)

Publication Number Publication Date
CN113412519A true CN113412519A (zh) 2021-09-17
CN113412519B CN113412519B (zh) 2024-05-21

Family

ID=70005699

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080013315.3A Active CN113412519B (zh) 2019-02-11 2020-02-10 机器学习引导的多肽分析

Country Status (8)

Country Link
US (1) US20220122692A1 (zh)
EP (1) EP3924971A1 (zh)
JP (1) JP7492524B2 (zh)
KR (1) KR20210125523A (zh)
CN (1) CN113412519B (zh)
CA (1) CA3127965A1 (zh)
IL (1) IL285402A (zh)
WO (1) WO2020167667A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114333982A (zh) * 2021-11-26 2022-04-12 北京百度网讯科技有限公司 蛋白质表示模型预训练、蛋白质相互作用预测方法和装置
CN114927165A (zh) * 2022-07-20 2022-08-19 深圳大学 泛素化位点的识别方法、装置、***和存储介质
CN116206690A (zh) * 2023-05-04 2023-06-02 山东大学齐鲁医院 一种抗菌肽生成和识别方法及***
CN117352043A (zh) * 2023-12-06 2024-01-05 江苏正大天创生物工程有限公司 基于神经网络的蛋白设计方法及***
WO2024095126A1 (en) * 2022-11-02 2024-05-10 Basf Se Systems and methods for using natural language processing (nlp) to predict protein function similarity
JP7495467B2 (ja) 2021-11-26 2024-06-04 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド タンパク質表現モデルの事前トレーニング、タンパク質相互作用の予測方法および装置

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018176000A1 (en) 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
KR20210072048A (ko) 2018-10-11 2021-06-16 테슬라, 인크. 증강 데이터로 기계 모델을 훈련하기 위한 시스템 및 방법
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
EP4008006A1 (en) * 2019-08-02 2022-06-08 Flagship Pioneering Innovations VI, LLC Machine learning guided polypeptide design
US11455540B2 (en) * 2019-11-15 2022-09-27 International Business Machines Corporation Autonomic horizontal exploration in neural networks transfer learning
US20210249105A1 (en) * 2020-02-06 2021-08-12 Salesforce.Com, Inc. Systems and methods for language modeling of protein engineering
US20230253067A1 (en) * 2020-08-28 2023-08-10 Just-Evotec Biologics, Inc. Implementing a generative machine learning architecture to produce training data for a classification model
WO2022061294A1 (en) * 2020-09-21 2022-03-24 Just-Evotec Biologics, Inc. Autoencoder with generative adversarial network to generate protein sequences
US20220165359A1 (en) 2020-11-23 2022-05-26 Peptilogics, Inc. Generating anti-infective design spaces for selecting drug candidates
CN112951341B (zh) * 2021-03-15 2024-04-30 江南大学 一种基于复杂网络的多肽分类方法
CN113257361B (zh) * 2021-05-31 2021-11-23 中国科学院深圳先进技术研究院 自适应蛋白质预测框架的实现方法、装置及设备
CN117480560A (zh) * 2021-06-10 2024-01-30 巴斯夫农业种子解决方案美国有限责任公司 用于预测蛋白质形成孔的能力的深度学习模型
CN113971992B (zh) * 2021-10-26 2024-03-29 中国科学技术大学 针对分子属性预测图网络的自监督预训练方法与***
US20230268026A1 (en) 2022-01-07 2023-08-24 Absci Corporation Designing biomolecule sequence variants with pre-specified attributes
EP4310726A1 (en) * 2022-07-20 2024-01-24 Nokia Solutions and Networks Oy Apparatus and method for channel impairment estimations using transformer-based machine learning model
WO2024039466A1 (en) * 2022-08-15 2024-02-22 Microsoft Technology Licensing, Llc Machine learning solution to predict protein characteristics
WO2024040189A1 (en) * 2022-08-18 2024-02-22 Seer, Inc. Methods for using a machine learning algorithm for omic analysis
CN115169543A (zh) * 2022-09-05 2022-10-11 广东工业大学 一种基于迁移学习的短期光伏功率预测方法及***
CN115966249B (zh) * 2023-02-15 2023-05-26 北京科技大学 基于分数阶神经网的蛋白质-atp结合位点预测方法及装置
CN116072227B (zh) 2023-03-07 2023-06-20 中国海洋大学 海洋营养成分生物合成途径挖掘方法、装置、设备和介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107742061A (zh) * 2017-09-19 2018-02-27 中山大学 一种蛋白质相互作用预测方法、***和装置
CN108601731A (zh) * 2015-12-16 2018-09-28 磨石肿瘤生物技术公司 新抗原的鉴别、制造及使用
CN109036571A (zh) * 2014-12-08 2018-12-18 20/20基因***股份有限公司 用于预测患有癌症的可能性或风险的方法和机器学习***

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3044254A1 (en) 2016-11-18 2018-05-24 Nantomics, Llc Methods and systems for predicting dna accessibility in the pan-cancer genome

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109036571A (zh) * 2014-12-08 2018-12-18 20/20基因***股份有限公司 用于预测患有癌症的可能性或风险的方法和机器学习***
CN108601731A (zh) * 2015-12-16 2018-09-28 磨石肿瘤生物技术公司 新抗原的鉴别、制造及使用
CN107742061A (zh) * 2017-09-19 2018-02-27 中山大学 一种蛋白质相互作用预测方法、***和装置

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
HAKIME ¨ OZTU¨RK等: "DeepDTA: Deep Drug-Target Binding Affinity Prediction", ARXIV E-PRINTS *
JACOB DEVLIN等: "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding", ARXIV E-PRINTS *
KOYABU, S等: "Method of extracting sentences about protein interaction from the literature on protein structure analysis using selective transfer learning", IEEE 12TH INTERNATIONAL CONFERENCE ON BIOINFORMATICS & BIOENGINEERING, 31 December 2012 (2012-12-31), pages 46 - 51 *
MAROUAN BELHAJ等: "Deep Variational Transfer: Transfer Learning through Semi-supervised Deep Generative Models", ARXIV E-PRINTS *
SUREYYA RIFAIOGLU, AHMET等: "Multi-task Deep Neural Networks in Automated Protein Function Prediction", ARXIV E-PRINTS *
XIAOYU ZHANG等: "Seq3seq Fingerprint: Towards End-to-end Semi-supervised Deep Drug Discovery", 9TH ACM INTERNATIONAL CONFERENCE ON BIOINFORMATICS, COMPUTATIONAL BIOLOGY, AND HEALTH INFORMATICS (ACM-BCB), pages 404 - 413 *
XUELIANG LEON LIU等: "Deep Recurrent Neural Network for Protein Function Prediction from Sequence", ARXIV E-PRINTS *
邹凌云;王正志;王勇献;: "基于模糊支持向量机的膜蛋白分类研究", 生物医学工程研究, no. 04, pages 6 - 11 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114333982A (zh) * 2021-11-26 2022-04-12 北京百度网讯科技有限公司 蛋白质表示模型预训练、蛋白质相互作用预测方法和装置
CN114333982B (zh) * 2021-11-26 2023-09-26 北京百度网讯科技有限公司 蛋白质表示模型预训练、蛋白质相互作用预测方法和装置
JP7495467B2 (ja) 2021-11-26 2024-06-04 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド タンパク質表現モデルの事前トレーニング、タンパク質相互作用の予測方法および装置
CN114927165A (zh) * 2022-07-20 2022-08-19 深圳大学 泛素化位点的识别方法、装置、***和存储介质
CN114927165B (zh) * 2022-07-20 2022-12-02 深圳大学 泛素化位点的识别方法、装置、***和存储介质
WO2024095126A1 (en) * 2022-11-02 2024-05-10 Basf Se Systems and methods for using natural language processing (nlp) to predict protein function similarity
CN116206690A (zh) * 2023-05-04 2023-06-02 山东大学齐鲁医院 一种抗菌肽生成和识别方法及***
CN116206690B (zh) * 2023-05-04 2023-08-08 山东大学齐鲁医院 一种抗菌肽生成和识别方法及***
CN117352043A (zh) * 2023-12-06 2024-01-05 江苏正大天创生物工程有限公司 基于神经网络的蛋白设计方法及***
CN117352043B (zh) * 2023-12-06 2024-03-05 江苏正大天创生物工程有限公司 基于神经网络的蛋白设计方法及***

Also Published As

Publication number Publication date
EP3924971A1 (en) 2021-12-22
CA3127965A1 (en) 2020-08-20
KR20210125523A (ko) 2021-10-18
US20220122692A1 (en) 2022-04-21
CN113412519B (zh) 2024-05-21
JP2022521686A (ja) 2022-04-12
IL285402A (en) 2021-09-30
JP7492524B2 (ja) 2024-05-29
WO2020167667A1 (en) 2020-08-20

Similar Documents

Publication Publication Date Title
CN113412519B (zh) 机器学习引导的多肽分析
US20220270711A1 (en) Machine learning guided polypeptide design
Yoshida et al. Bayesian learning in sparse graphical factor models via variational mean-field annealing
Peng et al. Hierarchical Harris hawks optimizer for feature selection
Guo et al. A centroid-based gene selection method for microarray data classification
Sher et al. DRREP: deep ridge regressed epitope predictor
Du et al. Deepadd: protein function prediction from k-mer embedding and additional features
Wu et al. Deep learning methods for predicting disease status using genomic data
Wang et al. A novel matrix of sequence descriptors for predicting protein-protein interactions from amino acid sequences
Suquilanda-Pesántez et al. NIFtHool: an informatics program for identification of NifH proteins using deep neural networks
Jia et al. Improved marine predators algorithm for feature selection and SVM optimization
Zhang et al. MpsLDA-ProSVM: predicting multi-label protein subcellular localization by wMLDAe dimensionality reduction and ProSVM classifier
Mandt et al. Sparse probit linear mixed model
Jahanyar et al. MS-ACGAN: A modified auxiliary classifier generative adversarial network for schizophrenia's samples augmentation based on microarray gene expression data
Wang et al. Lm-gvp: A generalizable deep learning framework for protein property prediction from sequence and structure
Vijayakumar et al. A Practical Guide to Integrating Multimodal Machine Learning and Metabolic Modeling
Seigneuric et al. Decoding artificial intelligence and machine learning concepts for cancer research applications
CN113436682B (zh) 风险人群的预测方法、装置、终端设备及存储介质
Cheng et al. Deep survival forests with feature screening
Veras On the design of similarity functions for binary data
Ünsal A DEEP LEARNING BASED PROTEIN REPRESENTATION MODEL FOR LOW-DATA PROTEIN FUNCTION PREDICTION
Babjac et al. Adapting Protein Language Models for Explainable Fine-Grained Evolutionary Pattern Discovery
Mathai et al. DataDriven Approaches for Early Detection and Prediction of Chronic Kidney Disease Using Machine Learning
Zhao et al. Predicting Protein Functions Based on Heterogeneous Graph Attention Technique
Chu et al. Comprehensive Research on Druggable Proteins: From PSSM to Pre-Trained Language Models

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant