CN107430703A - 对细调特征的顺序图像采样和存储 - Google Patents

对细调特征的顺序图像采样和存储 Download PDF

Info

Publication number
CN107430703A
CN107430703A CN201680018295.2A CN201680018295A CN107430703A CN 107430703 A CN107430703 A CN 107430703A CN 201680018295 A CN201680018295 A CN 201680018295A CN 107430703 A CN107430703 A CN 107430703A
Authority
CN
China
Prior art keywords
reference model
fine tuning
task
feature
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201680018295.2A
Other languages
English (en)
Inventor
R·B·托瓦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of CN107430703A publication Critical patent/CN107430703A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/30Writer recognition; Reading and verifying signatures
    • G06V40/37Writer recognition; Reading and verifying signatures based only on signature signals such as velocity or pressure, e.g. dynamic signature recognition
    • G06V40/382Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

特征提取包括确定用于特征提取的参考模型以及针对不同任务来细调该参考模型。该方法还包括存储在细调期间计算的权重差别集合。每一集合可对应于一不同的任务。

Description

对细调特征的顺序图像采样和存储
相关申请的交叉引用
本申请根据35U.S.C.§119(e)的规定要求于2015年3月27日提交的题为“SIMULTANEOUS LEARNING OF TASK AND FINE-TUNED FEATURES(任务和细调特征的同时学习)”的美国临时专利申请No.62/139,220的权益,该临时专利申请的公开通过援引被明确地整体纳入于此。
背景
领域
本公开的某些方面一般涉及机器学习,且更具体地涉及改进特征提取的***和方法。
背景技术
可包括一群互连的人工神经元(例如,神经元模型)的人工神经网络是一种计算设备或者表示将由计算设备执行的方法。
卷积神经网络是一种前馈人工神经网络。卷积神经网络可包括神经元集合,其中每一个神经元具有感受野并且共同地拼出一输入空间。卷积神经网络(CNN)具有众多应用。具体地,CNN已被广泛使用于模式识别和分类领域。
深度学习架构(诸如,深度置信网络和深度卷积网络)是分层神经网络架构,其中第一层神经元的输出变成第二层神经元的输入,第二层神经元的输出变成第三层神经元的输入,以此类推。深度神经网络可被训练以识别特征阶层并因此它们被越来越多地用于对象识别应用。类似于卷积神经网络,这些深度学习架构中的计算可分布在处理节点群体上,其可被配置在一个或多个计算链中。这些多层架构可每次训练一层并可使用反向传播微调。
其他模型也可用于对象识别。例如,支持向量机(SVM)是可被应用于分类的学***面(例如,决策边界)。该超平面由监督式学***面增加训练数据的裕量。换言之,超平面应该具有到训练示例的最大的最小距离。
尽管这些解决方案在数个分类基准上取得了优异的结果,但它们的计算复杂度可能极其高。另外,模型的训练可能是有挑战性的。
概述
在本公开的一个方面,公开了一种特征提取方法。该方法包括确定用于特征提取的参考模型。该方法还包括针对多个不同任务来细调该参考模型。该方法进一步包括存储在细调期间计算的权重差别集合。每一集合可对应于一不同的任务。
本公开的另一方面涉及一种装备,包括用于确定用于特征提取的参考模型的装置。该装备还包括用于针对多个不同任务来细调该参考模型的装置。该装备进一步包括用于存储在细调期间计算的权重差别集合的装置。每一集合可对应于一不同的任务。
在本公开的另一方面,公开了一种用于特征提取的计算机程序产品。该计算机程序产品具有其上记录有非瞬态程序代码的非瞬态计算机可读介质。该程序代码由处理器执行并且包括用于确定用于特征提取的参考模型的程序代码。该程序代码还包括用于针对多个不同任务来细调该参考模型的程序代码。该程序代码进一步包括用于存储在细调期间计算的权重差别集合的程序代码。每一集合可对应于一不同的任务。
本公开的另一方面涉及一种用于特征提取的装置,该装置具有存储器以及耦合至该存储器的一个或多个处理器。该处理器被配置成确定用于特征提取的参考模型。该处理器还被配置成针对多个不同任务来细调该参考模型。该处理器被进一步配置成存储在细调期间计算的权重差别集合。每一集合可对应于一不同的任务。
本公开的附加特征和优点将在下文描述。本领域技术人员应该领会,本公开可容易地被用作修改或设计用于实施与本公开相同的目的的其他结构的基础。本领域技术人员还应认识到,这样的等效构造并不脱离所附权利要求中所阐述的本公开的教导。被认为是本公开的特性的新颖特征在其组织和操作方法两方面连同进一步的目的和优点在结合附图来考虑以下描述时将被更好地理解。然而,要清楚理解的是,提供每一幅附图均仅用于解说和描述目的,且无意作为对本公开的限定的定义。
附图简要说明
在结合附图理解下面阐述的详细描述时,本公开的特征、本质和优点将变得更加明显,在附图中,相同附图标记始终作相应标识。
图1解说了根据本公开的某些方面的使用片上***(SOC)(包括通用处理器)来设计神经网络的示例实现。
图2解说了根据本公开的各方面的***的示例实现。
图3A是解说根据本公开的各方面的神经网络的示图。
图3B是解说根据本公开的各方面的示例性深度卷积网络(DCN)的框图。
图4是解说根据本公开的各方面的可将人工智能(AI)功能模块化的示例性软件架构的框图。
图5是解说根据本公开的各方面的智能手机上的AI应用的运行时操作的框图。
图6是解说用于常规特征提取器的通用架构的框图。
图7是解说根据本公开的各方面的用于特征提取装置的示例性架构的框图。
图8A和8B是解说根据本公开的各方面的用于特征提取装置的示例性架构的框图。
图9解说了根据本公开的各方面的用于特征提取的方法。
图10解说了根据本公开的各方面的用于特征提取的流程图。
详细描述
以下结合附图阐述的详细描述旨在作为各种配置的描述,而无意表示可实践本文中所描述的概念的仅有的配置。本详细描述包括具体细节以便提供对各种概念的透彻理解。然而,对于本领域技术人员将显而易见的是,没有这些具体细节也可实践这些概念。在一些实例中,以框图形式示出众所周知的结构和组件以避免湮没此类概念。
基于本教导,本领域技术人员应领会,本公开的范围旨在覆盖本公开的任何方面,不论其是与本公开的任何其他方面相独立地还是组合地实现的。例如,可以使用所阐述的任何数目的方面来实现装置或实践方法。另外,本公开的范围旨在覆盖使用作为所阐述的本公开的各个方面的补充或者与之不同的其他结构、功能性、或者结构及功能性来实践的此类装置或方法。应当理解,所披露的本公开的任何方面可由权利要求的一个或多个元素来实施。
措辞“示例性”在本文中用于表示“用作示例、实例或解说”。本文中描述为“示例性”的任何方面不必被解释为优于或胜过其他方面。
尽管本文描述了特定方面,但这些方面的众多变体和置换落在本公开的范围之内。虽然提到了优选方面的一些益处和优点,但本公开的范围并非旨在被限定于特定益处、用途或目标。相反,本公开的各方面旨在能宽泛地应用于不同的技术、***配置、网络和协议,其中一些作为示例在附图以及以下对优选方面的描述中解说。详细描述和附图仅仅解说本公开而非限定本公开,本公开的范围由所附权利要求及其等效技术方案来定义。
在一些网络中,图像可以被掩蔽并且被处理以确定图像中的特定对象。而且在其它网络中,图像的不同区域可以被采样,直到接收到期望输出。例如,网络可以始于采样第一区域并且确定该网络是否应当采样该图像的其它区域以查明该图像的内容。作为一个示例,第一区域可包括沙滩椅腿和沙子。因而,该网络确定图像的第二区域应当被采样以确定该图像是否包括海洋和/或与沙滩相关联的其它对象。即,第二区域基于第一区域的内容被选择。
对图像的顺序采样类似于人类的视觉采样。即,在大部分情形中,人类顺序地采样图像的各区域,直到达到对图像内容的某一置信度。因而,当采样给定区域时,该网络确定该给定区域的内容。此外,该网络还确定应当被采样以收集与任务(诸如识别面部)有关的附加信息的后续区域。更具体地,在具有各个对象和/或高度细节的场景中,期望顺序地采样该场景的各区域而非一次采样整个场景。
图1解说了根据本公开的某些方面的使用片上***(SOC)100进行前述经由顺序采样的特征提取的示例实现,SOC 100可包括通用处理器(CPU)或多核通用处理器(CPU)102。各变量(例如,神经信号和突触权重)、与计算设备相关联的***参数(例如,带权重的神经网络)、延迟、频率槽信息、以及任务信息可以被存储在与神经处理单元(NPU)108相关联的存储器块中或存储在专用存储器块118中。在通用处理器102处执行的指令可从与CPU 102相关联的程序存储器加载或可从专用存储器块118加载。
SOC 100还可包括为具体功能定制的附加处理块(诸如图形处理单元(GPU)104、数字信号处理器(DSP)106、连通性块110(其可包括***长期演进(4G LTE)连通性、无执照Wi-Fi连通性、USB连通性、蓝牙连通性等))以及例如可检测和识别姿势的多媒体处理器112。SOC 100还可包括传感器处理器114、图像信号处理器(ISP)、和/或导航120(其可包括全球定位***)。SOC可基于ARM指令集。
SOC 100还可包括为具体功能定制的附加处理块(诸如GPU 104、DSP 106、连通性块110(其可包括***长期演进(4G LTE)连通性、无执照Wi-Fi连通性、USB连通性、蓝牙连通性等))以及例如可检测和识别姿势的多媒体处理器112。在一种实现中,NPU实现在CPU、DSP、和/或GPU中。SOC 100还可包括传感器处理器114、图像信号处理器(ISP)、和/或导航120(其可包括全球定位***)。
SOC 100可基于ARM指令集。在本公开的一方面,加载到通用处理器102中的指令可包括用于确定用于特征提取的参考模型的代码。加载到通用处理器102中的指令还可包括用于针对不同任务来细调该参考模型的代码。加载到通用处理器102中的指令还可以包括用于存储在细调期间计算的权重差别集合的代码。
图2解说了根据本公开的某些方面的***200的示例实现。如图2中所解说的,***200可具有可执行本文所描述的方法的各种操作的多个局部处理单元202。每个局部处理单元202可包括局部状态存储器204和可存储神经网络的参数的局部参数存储器206。另外,局部处理单元202可具有用于存储局部模型程序的局部(神经元)模型程序(LMP)存储器208、用于存储局部学习程序的局部学习程序(LLP)存储器210、以及局部连接存储器212。此外,如图2中所解说的,每个局部处理单元202可与用于为该局部处理单元的各局部存储器提供配置的配置处理器单元214对接,并且与提供各局部处理单元202之间的路由的路由连接处理单元216对接。
深度学习架构可通过学习在每一层中以逐次更高的抽象程度来表示输入、藉此构建输入数据的有用特征表示来执行对象识别任务。以此方式,深度学习解决了传统机器学习的主要瓶颈。在深度学习出现之前,用于对象识别问题的机器学习办法可能严重依赖人类工程设计的特征,或许与浅分类器相结合。浅分类器可以是两类线性分类器,例如,其中可将特征向量分量的加权和与阈值作比较以预测输入属于哪一类。人类工程设计的特征可以是由拥有领域专业知识的工程师针对具体问题领域定制的模版或内核。相反,深度学习架构可学习以表示与人类工程师可能会设计的相似的特征,但它是通过训练来学习的。此外,深度网络可以学习以表示和识别人类可能还没有考虑过的新类型的特征。
深度学习架构可以学习特征阶层。例如,如果向第一层呈递视觉数据,则第一层可学习以识别输入流中的相对简单的特征(诸如边)。在另一示例中,如果向第一层呈递听觉数据,则第一层可学习以识别特定频率中的频谱功率。取第一层的输出作为输入的第二层可以学习以识别特征组合,诸如对于视觉数据识别简单形状或对于听觉数据识别声音组合。例如,更高层可学习以表示视觉数据中的复杂形状或听觉数据中的词语。再高层可学习以识别常见视觉对象或口语短语。
深度学习架构在被应用于具有自然阶层结构的问题时可能表现特别好。例如,机动交通工具的分类可受益于首先学习以识别轮子、挡风玻璃、以及其他特征。这些特征可在更高层以不同方式被组合以识别轿车、卡车和飞机。
神经网络可被设计成具有各种连通性模式。在前馈网络中,信息从较低层被传递到较高层,其中给定层中的每个神经元向更高层中的神经元进行传达。如上所述,可在前馈网络的相继层中构建阶层式表示。神经网络还可具有回流或反馈(也被称为自顶向下(top-down))连接。在回流连接中,来自给定层中的神经元的输出可被传达给相同层中的另一神经元。回流架构可有助于识别跨越不止一个按顺序递送给该神经网络的输入数据组块的模式。从给定层中的神经元到较低层中的神经元的连接被称为反馈(或自顶向下)连接。当高层级概念的识别可辅助辨别输入的特定低层级特征时,具有许多反馈连接的网络可能是有助益的。
参照图3A,神经网络的各层之间的连接可以是全连接的(302)或局部连接的(304)。在全连接网络302中,第一层中的神经元可将它的输出传达给第二层中的每个神经元,从而第二层中的每个神经元将从第一层中的每个神经元接收输入。替换地,在局部连接网络304中,第一层中的神经元可连接至第二层中有限数目的神经元。卷积网络306可以是局部连接的,并且被进一步配置成使得与针对第二层中每个神经元的输入相关联的连接强度被共享(例如,308)。更一般化地,网络的局部连接层可被配置成使得一层中的每个神经元将具有相同或相似的连通性模式,但其连接强度可具有不同的值(例如,310、312、314和316)。局部连接的连通性模式可能在更高层中产生空间上相异的感受野,这是由于给定区域中的更高层神经元可接收到通过训练被调谐为到网络的总输入的受限部分的性质的输入。
局部连接的神经网络可能非常适合于其中输入的空间位置有意义的问题。例如,被设计成识别来自车载相机的视觉特征的网络300可发展具有不同性质的高层神经元,这取决于它们与图像下部关联还是与图像上部关联。例如,与图像下部相关联的神经元可学习以识别车道标记,而与图像上部相关联的神经元可学习以识别交通信号灯、交通标志等。
DCN可以用受监督式学习来训练。在训练期间,DCN可被呈递图像(诸如限速标志的经裁剪图像326),并且可随后计算“前向传递(forward pass)”以产生输出322。输出322可以是对应于特征(诸如“标志”、“60”、和“100”)的值向量。网络设计者可能希望DCN在输出特征向量中针对其中一些神经元输出高得分,例如与经训练的网络300的输出322中所示的“标志”和“60”对应的那些神经元。在训练之前,DCN产生的输出很可能是不正确的,并且由此可计算实际输出与目标输出之间的误差。DCN的权重可随后被调整以使得DCN的输出得分与目标更紧密地对准。
为了调整权重,学习算法可为权重计算梯度向量。该梯度可指示在权重被略微调整情况下误差将增加或减少的量。在顶层,该梯度可直接对应于连接倒数第二层中的活化神经元与输出层中的神经元的权重的值。在较低层中,该梯度可取决于权重的值以及所计算出的较高层的误差梯度。权重可随后被调整以减小误差。这种调整权重的方式可被称为“反向传播”,因为其涉及在神经网络中的“反向传递(backward pass)”。
在实践中,权重的误差梯度可能是在少量示例上计算的,从而计算出的梯度近似于真实误差梯度。这种近似方法可被称为随机梯度下降法。随机梯度下降法可被重复,直到整个***可达成的误差率已停止下降或直到误差率已达到目标水平。
在学习之后,DCN可被呈递新图像326并且在网络中的前向传递可产生输出322,其可被认为是该DCN的推断或预测。
深度置信网络(DBN)是包括多层隐藏节点的概率性模型。DBN可被用于提取训练数据集的阶层式表示。DBN可通过堆叠多层受限波尔兹曼机(RBM)来获得。RBM是一类可在输入集上学习概率分布的人工神经网络。由于RBM可在没有关于每个输入应该被分类到哪个类的信息的情况下学习概率分布,因此RBM经常被用于无监督式学习。使用混合无监督式和受监督式范式,DBN的底部RBM可按无监督方式被训练并且可以用作特征提取器,而顶部RBM可按受监督方式(在来自先前层的输入和目标类的联合分布上)被训练并且可用作分类器。
深度卷积网络(DCN)是卷积网络的网络,其配置有附加的池化和归一化层。DCN已在许多任务上达成现有最先进的性能。DCN可使用受监督式学习来训练,其中输入和输出目标两者对于许多典范是已知的并被用于通过使用梯度下降法来修改网络的权重。
DCN可以是前馈网络。另外,如上所述,从DCN的第一层中的神经元到下一更高层中的神经元群的连接跨第一层中的神经元被共享。DCN的前馈和共享连接可被利用于进行快速处理。DCN的计算负担可比例如类似大小的包括回流或反馈连接的神经网络小得多。
卷积网络的每一层的处理可被认为是空间不变模版或基础投影。如果输入首先被分解成多个通道,诸如彩色图像的红色、绿色和蓝色通道,那么在该输入上训练的卷积网络可被认为是三维的,其具有沿着该图像的轴的两个空间维度以及捕捉颜色信息的第三维度。卷积连接的输出可被认为在后续层318和320中形成特征图,该特征图(例如,320)中的每个元素从先前层(例如,318)中一定范围的神经元以及从该多个通道中的每一个通道接收输入。特征图中的值可以用非线性(诸如矫正)max(0,x)进一步处理。来自毗邻神经元的值可被进一步池化(这对应于降采样)并可提供附加的局部不变性以及维度缩减。还可通过特征图中神经元之间的侧向抑制来应用归一化,其对应于白化。
深度学习架构的性能可随着有更多被标记的数据点变为可用或随着计算能力提高而提高。现代深度神经网络用比仅仅十五年前可供典型研究者使用的计算资源多数千倍的计算资源来例行地训练。新的架构和训练范式可进一步推升深度学习的性能。经矫正的线性单元可减少被称为梯度消失的训练问题。新的训练技术可减少过度拟合(over-fitting)并因此使更大的模型能够达成更好的普遍化。封装技术可抽象出给定的感受野中的数据并进一步提升总体性能。
图3B是解说示例性深度卷积网络350的框图。深度卷积网络350可包括多个基于连通性和权重共享的不同类型的层。如图3B所示,该示例性深度卷积网络350包括多个卷积块(例如,C1和C2)。每个卷积块可配置有卷积层、归一化层(LNorm)、和池化层。卷积层可包括一个或多个卷积滤波器,其可被应用于输入数据以生成特征图。尽管仅示出了两个卷积块,但本公开不限于此,而是,根据设计偏好,任何数目的卷积块可被包括在深度卷积网络350中。归一化层可被用于对卷积滤波器的输出进行归一化。例如,归一化层可提供白化或侧向抑制。池化层可提供在空间上的降采样聚集以实现局部不变性和维度缩减。
例如,深度卷积网络的平行滤波器组可任选地基于ARM指令集被加载到SOC 100的CPU 102或GPU 104上以达成高性能和低功耗。在替换实施例中,平行滤波器组可被加载到SOC 100的DSP 106或ISP 116上。另外,DCN可访问其他可存在于SOC上的处理块,诸如专用于传感器114和导航120的处理块。
深度卷积网络350还可包括一个或多个全连接层(例如,FC1和FC2)。深度卷积网络350可进一步包括逻辑回归(LR)层。深度卷积网络350的每一层之间是要被更新的权重(未示出)。每一层的输出可以用作深度卷积网络350中后续层的输入以从第一卷积块C1处提供的输入数据(例如,图像、音频、视频、传感器数据和/或其他输入数据)学习阶层式特征表示。
图4是解说可使人工智能(AI)功能模块化的示例性软件架构400的框图。使用该架构,应用402可被设计成可使得SOC 420的各种处理块(例如CPU 422、DSP 424、GPU 426和/或NPU 428)在该应用402的运行时操作期间执行支持计算。
AI应用402可配置成调用在用户空间404中定义的功能,例如,这些功能可提供对指示该设备当前操作位置的场景的检测和识别。例如,AI应用402可取决于识别出的场景是否为办公室、报告厅、餐馆、或室外环境(诸如湖泊)而以不同方式配置话筒和相机。AI应用402可向与在场景检测应用编程接口(API)406中定义的库相关联的经编译程序代码作出请求以提供对当前场景的估计。该请求可最终依赖于配置成基于例如视频和定位数据来提供场景估计的深度神经网络的输出。
运行时引擎408(其可以是运行时框架的经编译代码)可进一步可由AI应用402访问。例如,AI应用402可使得运行时引擎请求特定时间间隔的场景估计或由应用的用户接口检测到的事件触发的场景估计。在使得运行时引擎估计场景时,运行时引擎可进而发送信号给在SOC 420上运行的操作***410(诸如Linux内核412)。操作***410进而可使得在CPU422、DSP 424、GPU 426、NPU 428、或其某种组合上执行计算。CPU 422可***作***直接访问,而其他处理块可通过驱动器(诸如用于DSP 424、GPU 426、或NPU 428的驱动器414-418)被访问。在示例性示例中,深度神经网络可被配置成在处理块的组合(诸如CPU 422和GPU426)上运行,或可在NPU 428(如果存在的话)上运行。
图5是解说智能手机502上的AI应用的运行时操作500的框图。AI应用可包括预处理模块504,该预处理模块504可被配置(例如,使用JAVA编程语言被配置)成转换图像506的格式并随后对该图像进行剪裁和/或调整大小(508)。经预处理的图像可接着被传达给分类应用510,该分类应用510包含场景检测后端引擎512,该场景检测后端引擎512可被配置(例如,使用C编程语言被配置)成基于视觉输入来检测和分类场景。场景检测后端引擎512可被配置成进一步通过缩放(516)和剪裁(518)来预处理(514)该图像。例如,该图像可被缩放和剪裁以使所得到的图像是224像素×224像素。这些维度可映射到神经网络的输入维度。神经网络可由深度神经网络块520配置以使得SOC 100的各种处理块进一步借助深度神经网络来处理图像像素。深度神经网络的结果可随后被取阈(522)并被传递通过分类应用510中的指数平滑块524。经平滑的结果可接着使得智能手机502的设置和/或显示改变。
图6是解说用于特征提取器600的通用架构的框图。该架构可包括特征学习器602和任务学习器604。任务学习器604可包括输出学习器606(诸如分类器)和采样学习器608(诸如局部化器模型)。
在常规***中,特征提取器600被指定用于学习来自输入(诸如图像)的特征。具体地,特征学习器602可以接收输入(诸如图像或音频选择)并且从该输入中提取特征。所提取的特征被输入到任务学习器604以执行任务。示例性任务可包括对象识别、面部识别、语音识别、场景识别和/或其它任务。在大部分情形中,输出学习器606确定所提取的特征的内容。例如,输出学习器606可以将所提取的特征分类为沙滩球的图像。附加地,采样学习器608确定输入中要提取(即采样)的后续区域。即,基于所提取的特征,采样学习器608指令特征学习器602从该输入的另一区域中提取一个或多个特征。
作为一个示例,在常规***中,数字5的图像610可以被输入到特征学习器602。在这一示例中,特征学习器602可以按一个或多个分辨率从图像610的较低部分612提取特征。所提取的较低部分612被输入到输出学习器606和采样学习器608。基于该输入,输出学习器606可以将该图像分类为数字3、数字5或数字9。具体地,在这一示例中,输出学习器606可以将该图像分类为上述数字中的一者,因为3、5和9是仅有的带开口弯曲底部的数字。而且在这一示例中,输出学习器606针对特定数字的置信度为低,因为基于所采样的区域,图像610可以是3个数字中的一者。
因而,因为输出学习器606可能不具有关于图像610中的特定数字的高置信度,所以采样学习器608可以指令特征学习器602提取图像610的左上角614。在这一示例中,左上角614在数字3、5与9之间是唯一的。因而,基于较低部分612的第一采样,采样学习器608确定采样图像610的左上角614可得到改进图像610分类的特征。关于哪一后续区域供特征提取的确定可基于从强化学习中确定的权重。
基于来自图像610的左上角614(即,图像的第二区域)的特征,输出学习器606可以将图像610分类为数字5。在这一示例中,基于来自图像610的左上角614的特征,来自输出学习器606的分类的置信度可以高于一阈值。因此,因为分类的置信度高于该阈值,所以采样学习器608可以确定不应该再采样图像610的任何其它区域。
如前所讨论的,基于当前区域,常规网络基于从强化学习确定的权重来确定供提取的后续区域。而且,常规网络可一次确定全部权重。即,常规网络可同时训练任务和特征。因而,常规网络的训练时间增加。相应地,期望通过使用来自经预训练的因域而异的模型的经细调特征来改进网络的性能。
即,特定模型可以被预训练以确定输入中可能期望用于特征提取的特定特征。例如,如果输入是自然场景的图像,则各个经预训练的模型(诸如根据Imagenet训练的模型)可以被用于从自然场景中提取相关特征。因而,代替同时训练任务和特征,经预训练的模型可以被指定用于网络,并且经预训练的模型的特征可以被细调。细调可以由后向传播来执行以调整模型中的权重。该模型可以是深度卷积网络(DCN)。
在本发明的配置中,经预训练的参考模型被使用并且通过强化学习被细调,而非从最初被设置为0的权重来学习特征。可能期望使用经预学习的特征以通过指定网络的前层在训练开始时产生相关输出来减少训练时间。
图7是解说根据本公开的各方面的用于特征提取器700的示例性架构的框图。参考图7,参考模型702(诸如深度卷积网络)可以被配置为特征学习器。尽管深度卷积网络在图7的示例性架构中被示出,但本公开不限于此并且可以使用其它机器学习网络。
在一种配置中,代替同时训练任务和特征,参考模型702可以使用经预训练的参考模型来配置。例如,在一些方面,参考模型可以在数据集上被预训练,该数据集诸如Imagenet或其它经预训练的数据集。各个特征可以根据要执行的任务例如使用后向传播来细调。通过使用经预训练的参考模型,初始特征可以提供关于输入的内容的信息并且训练时间可以减少。
特征提取器700还可包括任务学习器708,任务学习器708可包括输出学习器704和采样学习器706。输出学习器704可以对从参考模型702提取的特征进行分类。此外,采样学习器706可以被配置成确定输入中要采样的下一部分。在一些方面,采样学习器706可以被配置为用于确定相对于输入的采样信息的注意力模型(attention model)或其它局部化模型。采样信息可以作为反馈被供应到参考模型702。
在一些情形中,可为网络指定不同的任务。例如,第一任务可以是分类狗还是猫,而第二任务可以是分类男人还是女人。因而,针对第一任务学习的权重可以不同于针对第二任务学习的权重。相应地,从经预训练的参考模型的权重进行的权重改变也将不同。而且,从经预训练的参考模型的权重进行的权重改变与网络的整体权重相比可能是少量的。
因而,细调标准特征集(诸如图像特征)允许根据任务(诸如场景识别、对象识别和/或面部识别)将经细调的特征存储为与原始集合的差值(Δ)。存储与标准集的差值权重而非每一任务模型的完整值可减少用于存储的比特数和/或通过仅存储非零差值来实现稀疏存储。
在一种配置中,网络存储基础模型(诸如原始经预训练的深度卷积网络)以及原始经预训练的深度卷积网络与针对特定任务训练的深度卷积网络之间的权重变化。即,代替存储针对每一任务训练的大型网络,本公开的各方面涉及通过存储原始经预训练的深度卷积网络以及针对每一任务的深度卷积网络差值权重来减少所存储的数据量。权重改变可以被称为差值权重。此外,针对深度卷积网络的权重改变可以被称为深度卷积网络差值权重。
例如,在常规网络中,第一深度卷积网络被指定用于面部识别,而第二深度卷积网络被指定用于场景识别。第一深度卷积网络和第二深度卷积网络是已经使用不同数据被训练和细调的不同的深度卷积网络。此外,常规网络将存储第一深度卷积网络和第二深度卷积网络两者。而且,由于存储器约束,可能不期望存储两个深度卷积网络。因而,在一种配置中,一种经预训练的深度卷积网络被存储,并且每一任务(例如,面部识别和场景识别)的深度卷积网络差值权重被存储。
附加地或替换地,局部化器网络可以被存储。局部化器基于当前区域的分类来确定供提取的后续区域。附加地,局部化器可以是与任务相关的。例如,要搜索的后续区域基于经分类的对象是面部还是数字而有所不同。在一种配置中,从下往上的局部化器可以被用于在各个输入(诸如图像或音频)之中通用的特征。
例如,从下往上的局部化器可以被用于搜索图像中的特定对比度。在该示例中,定位策略可以被指定以从图像的各区域中提取带有特定对比度(诸如高对比度)的特征。此外,从下往上的局部化器可以经由针对特定任务的强化学习被细调。细调可以基于特定任务来改变从下往上的局部化器的权重。因而,在一种配置中,代替存储针对每一任务而异的局部化器,原始的从下往上的局部化器连同针对每一任务指定的局部化器差值权重一起被存储。
此外,分类器针对每一任务可以不同。例如,用于数字的分类器可以分类10个数字,而用于面部的分类器可包括数百个面部。因此,可以针对每一任务存储单独的分类器。
如图8A中所示,与经预训练的参考模型相比的因任务而异的差别可以被存储。即,代替存储针对每一不同任务的完整模型,经预训练的参考模型802可以连同针对不同任务中的每一者的深度卷积网络差值权重差别804-808一起被存储。此外,存储针对每一任务的分类器810-814和局部化器816-820。最终,存储针对网络的从下往上的局部化器822。因任务而异的差别可包括因任务而异的项,诸如深度卷积网络差值权重、局部化器差值权重以及分类器。
例如,如图8A中所示,经预训练的参考模型802可以连同面部识别任务差值权重804、对象识别任务差值权重808以及场景识别任务差值权重806一起被存储。应当注意,任务的类型和数目仅仅是示例性的且非限制性的。
在一些方面,参考模型可包括局部化模型。类似地,经预训练的局部化参考模型可以连同针对不同任务中的每一者的局部化差值权重一起被存储。如图所示,例如,在图8A中,局部化参考模型可以被配置为从下往上的局部化器822。此外,可以针对每一任务存储对象识别局部化器差值权重816、场景识别局部化器差值权重818和/或面部识别布局化器差值权重820。最终,可以针对每一任务存储对象识别分类器810、场景识别分类器812、和/或面部识别局部化器分类器814。
图8B解说了特征提取器850的示例,该特征提取器850被指定成基于指定任务来使用所存储的与任务相关的项。如图8B中所示,特征提取器850包括特征学习器840。特征学习器840可包括特征提取参考模型830,特征提取参考模型830基于给定任务(诸如面部识别或对象识别)来加载特征权重832。附加地,特征提取器850包括任务学习器842。任务学习器842包括基于给定任务被加载的分类器834和局部化器模型836。局部化器模型836包括局部化器参考模型(诸如从下往上的局部化器838)和局部化器差值权重839。如先前所讨论的,可以基于给定任务从所存储的与任务相关的项加载特征权重832、分类器834和局部化器差值权重839。
图9解说了用于特征提取的方法900。在框902,该过程确定用于特征提取的参考模型。该参考模型可包括局部化(注意力)模型。在一些方面,该参考模型可包括特征学习模型。
在框904,该过程针对不同任务来细调该参考模型。在一些方面,细调可包括应用因任务而异的分类器。
此外,在框906,该过程存储在细调期间计算的权重差别集合。每一权重差别集合可对应于一不同的任务。在一些方面,该过程包括仅存储非零权重差别。
图10解说了根据本公开的一方面用于特征提取的流程图1000。在框1002,在一数据集上预训练参考模型,诸如深度卷积网络(或其它类型的机器学习模型)。在框1004,该参考模型接收供强化学习的输入。附加地,在框1006,该输入被用于根据要执行的任务来细调该参考模型的经预训练的特征。后向传播可以被用于细调该参考模型。
在框1008,输出学习器对从该参考模型提取的特征进行分类。此外,在框1010,采样学习器确定输入中要采样的下一部分。在框1012,该参考模型确定细调是否完成。例如,可以考虑性能级别、存储器存储或处理效率来确定细调是否完成。
如果细调未完成,则该参考模型继续用从输入中提取的特征来进行细调(框1008)。替换地,如果细调完成,对于针对网络指定的每一任务,在框1014,网络确定针对第一任务学习的权重是否不同于针对第二任务学习的权重。如果任务的权重不同,则经细调的特征作为与原始集合的差值权重来存储(框1016)。如果权重并非不同,则不存储差值权重(框1018)。
在一种配置中,机器学习模型(诸如DCN)被配置成用于确定用于特征提取的参考模型,针对不同任务细调该参考模型,和/或存储在细调期间计算的权重差别集合。该模型包括确定装置、用于细调的装置、和/或存储装置。在一个方面,确定装置、细调装置和/或存储装置可以是配置成执行所叙述功能的通用处理器102、与通用处理器102相关联的程序存储器、存储器块118、局部处理单元202、和/或路由连接处理单元216。在另一种配置中,前述装置可以是被配置成执行由前述装置所叙述的功能的任何模块或任何装置。
根据本公开的某些方面,每一个局部处理单元202可被配置成基于深度卷积网络的一个或多个期望功能特征来确定深度卷积网络的参数,以及随着所确定的参数被进一步适配、调谐和更新来使这一个或多个功能特征朝着期望的功能特征发展。
以上所描述的方法的各种操作可由能够执行相应功能的任何合适的装置来执行。这些装置可包括各种硬件和/或(诸)软件组件和/或(诸)模块,包括但不限于电路、专用集成电路(ASIC)、或处理器。一般而言,在附图中有解说的操作的场合,那些操作可具有带相似编号的相应配对装置加功能组件。
如本文所使用的,术语“确定”涵盖各种各样的动作。例如,“确定”可包括演算、计算、处理、推导、研究、查找(例如,在表、数据库或其他数据结构中查找)、探知及诸如此类。另外,“确定”可包括接收(例如接收信息)、访问(例如访问存储器中的数据)、及类似动作。此外,“确定”可包括解析、选择、选取、确立及类似动作。
如本文中所使用的,引述一列项目中的“至少一者”的短语是指这些项目的任何组合,包括单个成员。作为示例,“a、b或c中的至少一个”旨在涵盖:a、b、c、a-b、a-c、b-c、以及a-b-c。
结合本公开所描述的各种解说性逻辑框、模块、以及电路可用设计成执行本文所描述功能的通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列信号(FPGA)或其他可编程逻辑器件(PLD)、分立的门或晶体管逻辑、分立的硬件组件或其任何组合来实现或执行。通用处理器可以是微处理器,但在替换方案中,处理器可以是任何市售的处理器、控制器、微控制器、或状态机。处理器还可被实现为计算设备的组合,例如DSP与微处理器的组合、多个微处理器、与DSP核心协同的一个或多个微处理器、或任何其他此类配置。
结合本公开描述的方法或算法的步骤可直接在硬件中、在由处理器执行的软件模块中、或在这两者的组合中实施。软件模块可驻留在本领域所知的任何形式的存储介质中。可使用的存储介质的一些示例包括随机存取存储器(RAM)、只读存储器(ROM)、闪存、可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、寄存器、硬盘、可移动盘、CD-ROM,等等。软件模块可包括单条指令、或许多条指令,且可分布在若干不同的代码段上,分布在不同的程序间以及跨多个存储介质分布。存储介质可被耦合到处理器以使得该处理器能从/向该存储介质读写信息。在替换方案中,存储介质可以被整合到处理器。
本文所公开的方法包括用于达成所描述的方法的一个或多个步骤或动作。这些方法步骤和/或动作可以彼此互换而不会脱离权利要求的范围。换言之,除非指定了步骤或动作的特定次序,否则具体步骤和/或动作的次序和/或使用可以改动而不会脱离权利要求的范围。
所描述的功能可在硬件、软件、固件或其任何组合中实现。如果以硬件实现,则示例硬件配置可包括设备中的处理***。处理***可以用总线架构来实现。取决于处理***的具体应用和整体设计约束,总线可包括任何数目的互连总线和桥接器。总线可将包括处理器、机器可读介质、以及总线接口的各种电路链接在一起。总线接口可用于尤其将网络适配器等经由总线连接至处理***。网络适配器可用于实现信号处理功能。对于某些方面,用户接口(例如,按键板、显示器、鼠标、操纵杆等)也可被连接至总线。总线还可链接各种其他电路(诸如定时源、***设备、稳压器、功率管理电路等),这些电路在本领域中是众所周知的,因此将不再赘述。
处理器可负责管理总线和一般处理,包括执行存储在机器可读介质上的软件。处理器可用一个或多个通用和/或专用处理器来实现。示例包括微处理器、微控制器、DSP处理器、以及其他能执行软件的电路***。软件应当被宽泛地解释成意指指令、数据、或其任何组合,无论是被称作软件、固件、中间件、微代码、硬件描述语言、或其他。作为示例,机器可读介质可包括随机存取存储器(RAM)、闪存、只读存储器(ROM)、可编程只读存储器(PROM)、可擦式可编程只读存储器(EPROM)、电可擦式可编程只读存储器(EEPROM)、寄存器、磁盘、光盘、硬驱动器、或者任何其他合适的存储介质、或其任何组合。机器可读介质可被实施在计算机程序产品中。该计算机程序产品可以包括包装材料。
在硬件实现中,机器可读介质可以是处理***中与处理器分开的一部分。然而,如本领域技术人员将容易领会的,机器可读介质或其任何部分可在处理***外部。作为示例,机器可读介质可包括传输线、由数据调制的载波、和/或与设备分开的计算机产品,所有这些都可由处理器通过总线接口来访问。替换地或补充地,机器可读介质或其任何部分可被集成到处理器中,诸如高速缓存和/或通用寄存器文件可能就是这种情形。虽然所讨论的各种组件可被描述为具有特定位置,诸如局部组件,但它们也可按各种方式来配置,诸如某些组件被配置成分布式计算***的一部分。
处理***可以被配置为通用处理***,该通用处理***具有一个或多个提供处理器功能性的微处理器、以及提供机器可读介质中的至少一部分的外部存储器,它们都通过外部总线架构与其他支持电路***链接在一起。替换地,该处理***可以包括一个或多个神经元形态处理器以用于实现本文所述的神经元模型和神经***模型。作为另一替换方案,处理***可以用带有集成在单块芯片中的处理器、总线接口、用户接口、支持电路***、和至少一部分机器可读介质的专用集成电路(ASIC)来实现,或者用一个或多个现场可编程门阵列(FPGA)、可编程逻辑器件(PLD)、控制器、状态机、门控逻辑、分立硬件组件、或者任何其他合适的电路***、或者能执行本公开通篇所描述的各种功能性的电路的任何组合来实现。取决于具体应用和加诸于整体***上的总设计约束,本领域技术人员将认识到如何最佳地实现关于处理***所描述的功能性。
机器可读介质可包括数个软件模块。这些软件模块包括当由处理器执行时使处理***执行各种功能的指令。这些软件模块可包括传送模块和接收模块。每个软件模块可以驻留在单个存储设备中或者跨多个存储设备分布。作为示例,当触发事件发生时,可以从硬驱动器中将软件模块加载到RAM中。在软件模块执行期间,处理器可以将一些指令加载到高速缓存中以提高访问速度。随后可将一个或多个高速缓存行加载到通用寄存器文件中以供处理器执行。在以下述及软件模块的功能性时,将理解此类功能性是在处理器执行来自该软件模块的指令时由该处理器来实现的。此外,应领会,本公开的各方面产生对处理器、计算机、机器或实现此类方面的其它***的机能的改进。
如果以软件实现,则各功能可作为一条或多条指令或代码存储在计算机可读介质上或藉其进行传送。计算机可读介质包括计算机存储介质和通信介质两者,这些介质包括促成计算机程序从一地向另一地转移的任何介质。存储介质可以是能被计算机访问的任何可用介质。作为示例而非限定,此类计算机可读介质可包括RAM、ROM、EEPROM、CD-ROM或其他光盘存储、磁盘存储或其他磁存储设备、或能用于携带或存储指令或数据结构形式的期望程序代码且能被计算机访问的任何其他介质。另外,任何连接也被正当地称为计算机可读介质。例如,如果软件是使用同轴电缆、光纤电缆、双绞线、数字订户线(DSL)、或无线技术(诸如红外(IR)、无线电、以及微波)从web网站、服务器、或其他远程源传送而来,则该同轴电缆、光纤电缆、双绞线、DSL或无线技术(诸如红外、无线电、以及微波)就被包括在介质的定义之中。如本文中所使用的盘(disk)和碟(disc)包括压缩碟(CD)、激光碟、光碟、数字多用碟(DVD)、软盘、和碟,其中盘(disk)常常磁性地再现数据,而碟(disc)用激光来光学地再现数据。因此,在一些方面,计算机可读介质可包括非瞬态计算机可读介质(例如,有形介质)。另外,对于其他方面,计算机可读介质可包括瞬态计算机可读介质(例如,信号)。上述的组合应当也被包括在计算机可读介质的范围内。
因此,某些方面可包括用于执行本文中给出的操作的计算机程序产品。例如,此类计算机程序产品可包括其上存储(和/或编码)有指令的计算机可读介质,这些指令能由一个或多个处理器执行以执行本文中所描述的操作。对于某些方面,计算机程序产品可包括包装材料。
此外,应当领会,用于执行本文中所描述的方法和技术的模块和/或其它恰适装置能由用户终端和/或基站在适用的场合下载和/或以其他方式获得。例如,此类设备能被耦合至服务器以促成用于执行本文中所描述的方法的装置的转移。替换地,本文所述的各种方法能经由存储装置(例如,RAM、ROM、诸如压缩碟(CD)或软盘等物理存储介质等)来提供,以使得一旦将该存储装置耦合至或提供给用户终端和/或基站,该设备就能获得各种方法。此外,可利用适于向设备提供本文所描述的方法和技术的任何其他合适的技术。
将理解,权利要求并不被限定于以上所解说的精确配置和组件。可在以上所描述的方法和装置的布局、操作和细节上作出各种改动、更换和变形而不会脱离权利要求的范围。

Claims (20)

1.一种特征提取的方法,包括:
确定用于特征提取的参考模型;
针对多个不同任务来细调所述参考模型;以及
存储在所述细调期间计算的权重差别集合,每一集合对应于一不同的任务。
2.如权利要求1所述的方法,其特征在于,所述参考模型包括局部化模型。
3.如权利要求1所述的方法,其特征在于,所述参考模型包括特征学习模型。
4.如权利要求1所述的方法,其特征在于,所述存储包括仅存储非零权重差别。
5.如权利要求1所述的方法,其特征在于,所述细调包括应用因任务而异的分类器。
6.一种用于特征提取的装置,包括:
存储器;以及
耦合至所述存储器的至少一个处理器,所述至少一个处理器被配置成:
确定用于特征提取的参考模型;
针对多个不同任务来细调所述参考模型;以及
存储在细调期间计算的权重差别集合,每一集合对应于一不同的任务。
7.如权利要求6所述的装置,其特征在于,所述参考模型包括局部化模型。
8.如权利要求6所述的装置,其特征在于,所述参考模型包括特征学习模型。
9.如权利要求6所述的装置,其特征在于,所述至少一个处理器被进一步配置成仅存储非零权重差别。
10.如权利要求6所述的装置,其特征在于,所述至少一个处理器被进一步配置成应用因任务而异的分类器。
11.一种用于特征提取的装备,包括:
用于确定用于特征提取的参考模型的装置;
用于针对多个不同任务来细调所述参考模型的装置;以及
用于存储在细调期间计算的权重差别集合的装置,每一集合对应于一不同的任务。
12.如权利要求11所述的装备,其特征在于,所述参考模型包括局部化模型。
13.如权利要求11所述的装备,其特征在于,所述参考模型包括特征学习模型。
14.如权利要求11所述的装备,其特征在于,用于存储的装置仅存储非零权重差别。
15.如权利要求11所述的装备,其特征在于,进一步包括用于应用因任务而异的分类器的装置。
16.一种其上编码有由处理器执行的程序代码的非瞬态计算机可读介质,所述程序代码包括:
用于确定用于特征提取的参考模型的程序代码;
用于针对多个不同任务来细调所述参考模型的程序代码;以及
用于存储在细调期间计算的权重差别集合的程序代码,每一集合对应于一不同的任务。
17.如权利要求16所述的计算机可读介质,其特征在于,所述参考模型包括局部化模型。
18.如权利要求16所述的计算机可读介质,其特征在于,所述参考模型包括特征学习模型。
19.如权利要求16所述的计算机可读介质,其特征在于,进一步包括用于仅存储非零权重差别的程序代码。
20.如权利要求16所述的计算机可读介质,其特征在于,进一步包括用于应用因任务而异的分类器的程序代码。
CN201680018295.2A 2015-03-27 2016-03-01 对细调特征的顺序图像采样和存储 Pending CN107430703A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562139220P 2015-03-27 2015-03-27
US62/139,220 2015-03-27
US14/845,236 2015-09-03
US14/845,236 US20160283864A1 (en) 2015-03-27 2015-09-03 Sequential image sampling and storage of fine-tuned features
PCT/US2016/020298 WO2016160237A1 (en) 2015-03-27 2016-03-01 Sequential image sampling and storage of fine-tuned features

Publications (1)

Publication Number Publication Date
CN107430703A true CN107430703A (zh) 2017-12-01

Family

ID=56975878

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680018295.2A Pending CN107430703A (zh) 2015-03-27 2016-03-01 对细调特征的顺序图像采样和存储

Country Status (5)

Country Link
US (1) US20160283864A1 (zh)
EP (1) EP3274927A1 (zh)
JP (1) JP2018514852A (zh)
CN (1) CN107430703A (zh)
WO (1) WO2016160237A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111434096A (zh) * 2017-12-08 2020-07-17 高通股份有限公司 使用媒体内容进行通信
CN112328172A (zh) * 2020-10-27 2021-02-05 北京百度网讯科技有限公司 数据存储方法、装置及数据读取方法、装置
CN115723280A (zh) * 2022-12-07 2023-03-03 河北科技大学 厚度可调节的聚酰亚胺薄膜的生产设备

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106874921B (zh) * 2015-12-11 2020-12-04 清华大学 图像分类方法和装置
US10198461B2 (en) 2016-05-06 2019-02-05 Masergy Communications, Inc. Data storage system
US11080595B2 (en) * 2016-11-04 2021-08-03 Salesforce.Com, Inc. Quasi-recurrent neural network based encoder-decoder model
JP6815859B2 (ja) * 2016-12-20 2021-01-20 東芝デベロップメントエンジニアリング株式会社 通行量計測装置
US11556780B2 (en) 2017-01-19 2023-01-17 Nec Corporation Neural network learning device, neural network learning method, and recording medium on which neural network learning program is stored
US11977968B2 (en) * 2017-04-20 2024-05-07 Shanghai Cambricon Information Technology Co., Ltd. Sparse processing in neural network processors
US11586911B2 (en) * 2017-05-10 2023-02-21 Telefonaktiebolaget Lm Ericsson (Publ) Pre-training system for self-learning agent in virtualized environment
CN107563507A (zh) * 2017-08-29 2018-01-09 南京中蓝数智信息技术有限公司 基于大数据的深度学习方法
EP3467712B1 (en) 2017-10-06 2023-04-26 Sensing Feeling Limited Methods and systems for processing image data
EP3495988A1 (en) * 2017-12-05 2019-06-12 Aptiv Technologies Limited Method of processing image data in a connectionist network
WO2019141905A1 (en) * 2018-01-19 2019-07-25 Nokia Technologies Oy An apparatus, a method and a computer program for running a neural network
EP3561726A1 (en) 2018-04-23 2019-10-30 Aptiv Technologies Limited A device and a method for processing data sequences using a convolutional neural network
EP3561727A1 (en) 2018-04-23 2019-10-30 Aptiv Technologies Limited A device and a method for extracting dynamic information on a scene using a convolutional neural network
US11282385B2 (en) * 2018-04-24 2022-03-22 Qualcomm Incorproated System and method of object-based navigation
FR3082634B1 (fr) 2018-06-18 2021-10-01 Delphi Tech Llc Dispositif optique pour vehicule comprenant un element de chauffage
JP7079483B2 (ja) * 2018-06-18 2022-06-02 国立研究開発法人産業技術総合研究所 情報処理方法、システム及びプログラム
WO2020070376A1 (en) 2018-10-02 2020-04-09 Nokia Technologies Oy An apparatus, a method and a computer program for running a neural network
KR20200043005A (ko) 2018-10-17 2020-04-27 삼성전자주식회사 이미지 인식 모델을 트레이닝시키는 장치 및 방법과 이미지 인식 장치 및 방법
WO2020081668A2 (en) 2018-10-19 2020-04-23 Genentech, Inc. Defect detection in lyophilized drug products with convolutional neural networks
US10509987B1 (en) * 2019-01-22 2019-12-17 StradVision, Inc. Learning method and learning device for object detector based on reconfigurable network for optimizing customers' requirements such as key performance index using target object estimating network and target object merging network, and testing method and testing device using the same
US20200272899A1 (en) * 2019-02-22 2020-08-27 Ubotica Technologies Limited Systems and Methods for Deploying and Updating Neural Networks at the Edge of a Network
US11526964B2 (en) * 2020-06-10 2022-12-13 Intel Corporation Deep learning based selection of samples for adaptive supersampling

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6067536A (en) * 1996-05-30 2000-05-23 Matsushita Electric Industrial Co., Ltd. Neural network for voice and pattern recognition
CN103942564A (zh) * 2014-04-08 2014-07-23 武汉大学 基于非监督特征学习的高分辨率遥感影像场景分类方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6182036B1 (en) * 1999-02-23 2001-01-30 Motorola, Inc. Method of extracting features in a voice recognition system
US8700552B2 (en) * 2011-11-28 2014-04-15 Microsoft Corporation Exploiting sparseness in training deep neural networks
US9928410B2 (en) * 2014-11-24 2018-03-27 Samsung Electronics Co., Ltd. Method and apparatus for recognizing object, and method and apparatus for training recognizer

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6067536A (en) * 1996-05-30 2000-05-23 Matsushita Electric Industrial Co., Ltd. Neural network for voice and pattern recognition
CN103942564A (zh) * 2014-04-08 2014-07-23 武汉大学 基于非监督特征学习的高分辨率遥感影像场景分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
AVDIYENKO L.ET AL.: "Adaptive sequential feature selection for pattern classification", 《PROCEEDINGS OF THE 4TH INTERNATIONAL JOINT CONFERENCE ON COMPUTATIONAL INTELLIGENCE》 *
GABRIEL DULAC-ARNOLD ET AL.: "Sequentially Generated Instance-Dependent Image Representations for Classification", 《ARXIV E-PRINTS》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111434096A (zh) * 2017-12-08 2020-07-17 高通股份有限公司 使用媒体内容进行通信
CN112328172A (zh) * 2020-10-27 2021-02-05 北京百度网讯科技有限公司 数据存储方法、装置及数据读取方法、装置
CN115723280A (zh) * 2022-12-07 2023-03-03 河北科技大学 厚度可调节的聚酰亚胺薄膜的生产设备

Also Published As

Publication number Publication date
EP3274927A1 (en) 2018-01-31
JP2018514852A (ja) 2018-06-07
US20160283864A1 (en) 2016-09-29
WO2016160237A1 (en) 2016-10-06

Similar Documents

Publication Publication Date Title
CN107430703A (zh) 对细调特征的顺序图像采样和存储
CN107209873A (zh) 用于深度卷积网络的超参数选择
CN107924491A (zh) 未知类别的检测和用于未知类别的分类器的初始化
CN107533669A (zh) 滤波器特异性作为用于神经网络的训练准则
CN108027899A (zh) 用于提高经训练的机器学习模型的性能的方法
CN107924486A (zh) 用于分类的强制稀疏
CN107533754A (zh) 在深度卷积网络中降低图像分辨率
CN108431826A (zh) 自动检测视频图像中的对象
CN107004157A (zh) 模型压缩和微调
CN107851198A (zh) 媒体分类
CN107851213A (zh) 神经网络中的转移学习
CN108140142A (zh) 选择性反向传播
CN108182441B (zh) 平行多通道卷积神经网络、构建方法及图像特征提取方法
CN107430705A (zh) 用于重新训练分类器的样本选择
CN107533665A (zh) 经由偏置项在深度神经网络中纳入自顶向下信息
CN107851191A (zh) 用于图像中的对象检测的基于上下文的先验
US20180129742A1 (en) Natural language object tracking
CN107580712A (zh) 定点神经网络的降低的计算复杂度
CN107636697A (zh) 基于浮点神经网络量化的定点神经网络
CN108780522A (zh) 用于视频理解的使用基于运动的注意力的递归网络
CN107646116A (zh) 用于定点神经网络的位宽选择
CN108027834A (zh) 用于通过文本的视频搜索的语义多感官嵌入
CN108780523A (zh) 使用本地设备提供的传感器数据和标签的基于云的处理
CN112529026B (zh) 提供ai模型的方法、ai平台、计算设备及存储介质
CN107209871A (zh) 具有回调的卷积矩阵相乘以用于深度卷积神经网络的深度瓦片化

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20171201

WD01 Invention patent application deemed withdrawn after publication