CN111886602A - 信息处理方法、信息处理设备和程序 - Google Patents
信息处理方法、信息处理设备和程序 Download PDFInfo
- Publication number
- CN111886602A CN111886602A CN201980020931.9A CN201980020931A CN111886602A CN 111886602 A CN111886602 A CN 111886602A CN 201980020931 A CN201980020931 A CN 201980020931A CN 111886602 A CN111886602 A CN 111886602A
- Authority
- CN
- China
- Prior art keywords
- information processing
- unit
- neural network
- components
- processing method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/30—Creation or generation of source code
- G06F8/34—Graphical or visual programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/10—Interfaces, programming languages or software development kits, e.g. for simulating neural networks
- G06N3/105—Shells for specifying net layout
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/086—Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2207/00—Indexing scheme relating to methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F2207/38—Indexing scheme relating to groups G06F7/38 - G06F7/575
- G06F2207/48—Indexing scheme relating to groups G06F7/48 - G06F7/575
- G06F2207/4802—Special implementations
- G06F2207/4818—Threshold devices
- G06F2207/4824—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Physiology (AREA)
- User Interface Of Digital Computer (AREA)
- Stored Programmes (AREA)
Abstract
[问题]能够进一步提高神经网络开发效率。[解决方案]提供了一种信息处理方法,包括:基于与层对应的组件的位置和为该组件配置的属性,处理器提供用于创建用于构建神经网络的程序的表单的步骤;以及处理器呈现与神经网络相关的统计信息的步骤。所述表单的提供包括:在该表单中提供用于定义由多个组件配置的单元的功能的步骤;以及提供限定单元以便类似于组件可定位的步骤。
Description
技术领域
本公开涉及一种信息处理方法、一种信息处理设备和一种程序。
背景技术
近年来,已经开发了利用神经网络的各种功能。已经提出了各种方法来提高开发神经网络的效率。例如,专利文献1公开了一种基于对应于层的组件的设置来生成神经网络的可视化编程技术。
现有技术文献
专利文献
专利文献1:国际公开号WO 2017/138220
发明内容
技术问题
然而,在专利文献1中描述的技术中,能够设置在表单上的组件唯一地对应于单个层。为此,在专利文献1中描述的技术中,即使当多次重复由多层构成的预定分层结构时,每次都需要使用与各层对应的组件来构成分层结构。
因此,本公开提供了一种新型改进的并且使得可以提高开发神经网络的效率的信息处理方法、信息处理设备和程序。
问题的解决方案
根据本公开,提供了一种信息处理方法,该方法包括:由处理器基于与层对应的组件的设置和在组件中设置的属性来提供用于创建构建神经网络的程序的表单;以及呈现与神经网络有关的统计信息,其中,提供表单还包括在表单上提供定义由多个组件构成的单元的功能,并且提供所定义的单元,使得所定义的单元能够如同组件一样设置。
此外,根据本公开,提供了一种信息处理设备,该信息处理设备包括:表单控制器,被配置为基于与层相对应的组件的设置和在组件中设置的属性来提供用于创建构建神经网络的程序的表单,并且在表单上呈现与神经网络有关的统计信息,其中,所述表单控制器被配置为在表单上提供定义由多个组件构成的单元的功能,并且提供所定义的单元,使得所定义的单元能够如同组件一样设置。
此外,根据本公开,提供了一种用于使计算机用作信息处理设备的程序,该信息处理设备包括:表单控制器,被配置为基于与层对应的组件的设置和在组件中设置的属性来提供用于创建构建神经网络的程序的表单,并且在表单上呈现与神经网络有关的统计信息,其中,所述表单控制器被配置为在表单上提供定义由多个组件构成的单元的功能,并且提供所定义的单元,使得所定义的单元能够如同组件一样设置。
发明的有利效果
根据上述公开,可以提高开发神经网络的效率。
上述效果不是限制性的,并且与上述效果一起或者代替上述效果,可以实现描述中表示的任何一种效果或者可以从描述中得知的另一种效果。
附图说明
图1是示出根据本公开实施方式的信息处理***的配置示例的框图;
图2是示出根据实施方式的信息处理终端的功能配置的示例的框图;
图3是示出根据实施方式的信息处理服务器的功能配置的示例的框图;
图4是示出根据实施方式的显示表单的示例的示图;
图5是根据实施方式的用于描述单元的定义的示图;
图6是根据实施方式的用于描述在单元中设置引数的示图;
图7是根据实施方式的用于描述设置单元和设置引数的示图;
图8是根据实施方式的用于描述定义包括至少一个单元的单元的示图;
图9是根据实施方式的用于描述使用单元的学习网络和评估网络的示图;
图10是示出根据实施方式的反映在单元中改变的参数的流程的流程图;
图11是示出根据实施方式的在整个神经网络上显示统计信息的示例的示图;
图12是示出根据实施方式的显示关于每个单元的统计信息的示例的示图;
图13是示出根据实施方式的计算统计信息的流程的流程图;
图14是根据实施方式的由生成器输出的源代码的示例;
图15是示出根据实施方式的由生成器输出源代码的流程的流程图;
图16是根据实施方式的用于描述由生成器执行的自动结构搜索的示图;
图17是根据实施方式的用于描述引数组件中的结构搜索允许性设置的示图;
图18是根据实施方式的用于描述单元中的结构搜索允许性设置的示图;
图19是示出根据实施方式的由生成器执行的自动结构搜索的流程的流程图;
图20是示出根据本公开实施方式的信息处理服务器的硬件配置的示例的示图。
具体实施方式
参考附图,下面将详细描述本公开的优选实施方式。在说明书和附图中,具有基本相同功能配置的组件用相同的数字表示,因此省略了多余的描述。
将按以下顺序给出描述。
1.实施方式
1.1.概述
1.2.***配置的示例
1.3.信息处理终端装置10的功能配置
1.4.信息处理服务器20的功能配置
1.5.表单控制的细节
1.6.输出源代码
1.7.自动搜索网络结构
2.硬件配置
3.总结
1.实施方式
1.1.概述
首先,将描述本公开的实施方式的概述。如上所述,近年来,已经提出了用于提高开发神经网络的效率的各种方法。上述方法包括例如类似于专利文献1中公开的可视化编程方法。
本文中的可视化编程是指在软件开发中使用可视化对象创建程序代码而不用通过文本编写程序代码的方法。可视化编程使得可以创建程序,例如,通过在GUI(图形用户界面)上操作对象。
例如,在专利文献1中描述的技术的情况下,用户能够通过在表单上设置与构成神经网络的层相对应的组件并设置层与各种属性之间的连接来开发神经网络,而无需编写程序代码。
根据专利文献1中描述的技术,即使编程技能不足的用户也能够容易地创建神经网络,并且可以显著提高开发神经网络的效率。
然而,如上所述,在专利文献1中描述的技术中,能够设置在表单上的组件唯一地对应于单个层,因此,当多次重复预定的分层结构时,每次都需要设置分层结构。
例如,当多次存在以“卷积”、“MaxPooling”、“Tanh”顺序连接的分层结构时,在专利文献1中描述的技术中,每次都需要设置与各个层对应的组件并设置属性等。
然而,通常,如上所述的预定分层结构经常重复使用,并且重复使用的不少分层结构包括几十层或更多层。由于这个原因,每次使用均与单个层对应的组件来编写重复使用的分层结构可能会导致开发神经网络的效率降低。
在关注上述方面的情况下形成根据本公开的实施方式的技术思想,并且该技术思想使得可以提高神经网络可视化编程中的开发效率。为此,根据本公开的实施方式的信息处理方法的特征在于,包括:由处理器基于与层对应的组件的设置和在组件中设置的属性来提供用于创建用于构建神经网络的程序的表单;并且呈现关于神经网络的统计信息。提供表单的特征还在于,包括在表单上提供定义由多个组件构成的单元的功能,并且提供所定义的单元,使得所定义的单元能够像组件一样设置。
换言之,根据根据本公开实施方式的信息处理方法,在神经网络可视化编程中,可以将由多个层构成的预定分层结构定义为由对应的多个组件构成的单元。根据根据本公开的实施方式的信息处理方法,使单元能够像组件一样设置,允许用户容易地使用预定分层结构,而无需每次使用组件来构成预定分层结构。
已经描述了本公开的实施方式的概述。如上所述,根据根据本公开实施方式的信息处理方法,定义与多个层对应的单元并使用该单元实现可视化编程,使得可以显著提高开发神经网络的效率。
1.2.***配置的示例
将描述根据本公开实施方式的信息处理***的配置的示例。图1是示出根据实施方式的信息处理***的配置示例的框图。参考图1,根据实施方式的信息处理***包括信息处理终端装置10和信息处理服务器20。信息处理终端装置10和信息处理服务器20经由网络30彼此连接,使得信息处理终端装置10和信息处理服务器20可以彼此通信。
信息处理终端装置10
根据该实施方式的信息处理终端装置10是用于执行神经网络可视化编程的客户端装置。基于信息处理服务器20的控制,根据该实施方式的信息处理终端装置10显示用于执行可视化编程的表单,并将关于用户对表单执行的输入操作的信息传输到信息处理服务器20。根据该实施方式的信息处理终端装置10可以是例如个人计算机(PC)等。如下所述,根据实施方式的信息处理终端装置10可以用作具有与信息处理服务器20等同的功能的信息处理设备。
信息处理服务器20
根据该实施方式的信息处理服务器20是实现根据该实施方式的信息处理方法的信息处理设备。根据该实施方式的信息处理服务器20具有控制神经网络可视化编程的表单以及基于该表单中的组件和单元的设置生成神经网络的功能。
网络30
网络30具有将信息处理终端装置10和信息处理服务器20彼此连接的功能。网络30可以包括公共网络(例如,互联网、电话网络和卫星通信网络)、包括以太网(商标)的各种类型的LAN(局域网)和WAN(广域网)。网络30可以包括专用网络,例如,IP-VPN(互联网协议虚拟专用网络)。网络30可以包括无线电通信网络,例如,根据Wi-Fi(商标)或蓝牙(商标)的网络。
已经描述了根据本公开实施方式的信息处理***的配置的示例。注意,上述使用图1的配置仅仅是示例,并且根据实施方式的信息处理***的配置不限于该示例。根据实施方式的信息处理***的配置可以根据规范和操作灵活地修改。
1.3.信息处理终端装置10的功能配置
将描述根据本公开实施方式的信息处理终端装置10的功能配置的示例。图2是示出根据实施方式的信息处理终端装置10的功能配置的示例的框图。参考图2,根据实施方式的信息处理终端装置10包括显示单元110、输入单元120、控制器130和服务器通信单元140。
显示单元110
根据该实施方式的显示单元110具有输出诸如图像或文本等视觉信息的功能。基于信息处理服务器20的控制,根据实施方式的显示单元110显示神经网络可视化编程的表单。
为此,根据实施方式的显示单元110包括表示视觉信息的显示设备。作为上述显示装置,例如,采用液晶显示装置(LCD:液晶显示装置)、OLED(有机发光二极管装置)或触摸面板。根据该实施方式的显示单元110可以使用投影功能输出视觉信息。
输入单元120
根据该实施方式的输入单元120具有检测用户执行的输入操作的功能。根据该实施方式的输入单元120检测在表单上设置组件或单元的操作。因此,根据该实施方式的输入单元120包括键盘、触摸板、鼠标和各种按钮。
控制器130
根据该实施方式的控制器130具有控制信息处理终端装置10的每个组件的功能。控制器130例如控制每个组件的启动或停止。控制器130将由信息处理服务器20生成的控制信号输入到显示单元110。根据该实施方式的控制器130可以具有等同于下面将要描述的信息处理服务器20的表单控制器210的功能。
服务器通信单元140
根据该实施方式的服务器通信单元140具有经由网络30执行与信息处理服务器20的信息通信的功能。具体地,服务器通信单元140从信息处理服务器20接收表单控制的控制信号。服务器通信单元140将关于由用户执行的并且由输入单元120检测到的输入操作的信息传输到信息处理服务器20。
已经描述了根据本公开实施方式的信息处理终端装置10的功能配置的示例。使用图2描述的上述配置仅仅是示例,并且根据实施方式的信息处理终端装置10的功能配置不限于该示例。例如,如上所述,根据实施方式的控制器130可以具有等同于信息处理服务器20的表单控制器210的功能。根据实施方式的信息处理终端装置10的功能配置可以根据规范和操作灵活地修改。
1.4.信息处理服务器20的功能配置
将描述根据本公开实施方式的信息处理服务器20的功能配置。图3是示出根据实施方式的信息处理服务器20的功能配置的示例的框图。参考图3,根据实施方式的信息处理服务器20包括表单控制器210、生成器220和终端通信单元230。
表单控制器210
根据该实施方式的表单控制器210对实现神经网络可视化编程的表单执行控制。更具体地,根据该实施方式的表单控制器210具有基于与层对应的组件的设置和在组件中设置的属性提供用于创建构建神经网络的程序的表单的功能,并且在表单上呈现与神经网络有关的统计信息。
表单控制器210的特征在于在表单上提供定义由多个组件构成的单元的功能,并且提供定义的单元,使得定义的单元可以像组件一样设置。
根据实施方式的表单控制器210可以提供使得多个单元可用并且可重复使用的单元。换言之,根据实施方式的表单控制器210可以执行控制,使得用户可以自由地使用由用户定义为一种组件的单元。
根据根据该实施方式的表单控制器210的上述功能,使与多个层对应的单元能够像组件一样设置,允许用户容易地使用预定分层结构,而无需每次使用组件来构成预定分层结构。下面将分别描述根据该实施方式的表单控制器210的功能的细节。
生成器220
根据该实施方式的生成器220具有基于由表单控制器210控制的表单中的组件和单元的设置以及所设置的属性来生成构建神经网络的源代码的功能。下面将单独描述根据实施方式的生成器220的功能的细节。
终端通信单元230
根据该实施方式的终端通信单元230经由网络30执行与信息处理终端装置10的信息通信。具体地,终端通信单元230将由表单控制器210生成的控制信号传输到信息处理终端装置10。终端通信单元230从信息处理终端装置10接收与用户在表单上执行的输入操作相关的信息。
已经描述了根据本公开实施方式的信息处理服务器20的功能配置的示例。注意,使用图3描述的上述配置仅仅是示例,并且根据实施方式的信息处理服务器20的功能配置不限于该示例。例如,以上描述中所示的配置可以由多个装置以分布式方式实现。如上所述,表单控制器210的功能可以被实现为信息处理终端装置10的控制器130的功能。根据实施方式的信息处理服务器20的功能配置可以根据规范和操作灵活地修改。
1.5.表单控制的细节
接下来将详细描述由根据实施方式的表单控制器210执行的表单控制。图4是示出根据实施方式的显示表单的示例的示图。如图4所示,根据该实施方式的表单F1包括例如选项板P1到P3。
选项板P1可以是用于显示与层对应的组件列表的区域。在选项板P1中,如图4所示,可以根据分类显示组件。通过点击分类名称,可以执行控制,从而显示每个类别的层的列表。在选项板“P1”中,显示关于神经网络和每个组件的特性信息LP。
选项板P2是通过设置组件来构建神经网络的区域。用户能够通过移动、添加或删除每个组件来直观地构建神经网络。在图4所示的示例的情况下,在选项板P2上,可视地呈现由组件C1至C13构成的网络结构。例如,用户能够通过拖放在选项板P1上显示的组件来将自由选择的组件添加到选项板P2。
选项板P3是显示关于正在构建的神经网络的各种信息的区域。例如,在选项板P3上,可以显示呈现网络结构的整个图像的概述OV和关于神经网络的统计信息ST。
根据实施方式的统计信息ST例如包含诸如输出神经元大小、参数使用的存储量和各种类型的计算量等信息。根据该实施方式的表单控制器210可以具有针对每个组件或单元呈现由用户通过比较从包含在统计信息ST中的元素(例如,前述元素)中选择的元素的值的功能。此时,根据实施方式的表单控制器210可以与对应于设置在选项板P2上的组件或单元的视觉表现相关联地呈现每个组件或单元的值以及呈现该元素的值的大小的指示器。
在图4所示的示例的情况下,基于用户对输出神经元大小的选择,表单控制器210显示输出神经元大小的值和与每个组件的值对应的指示器。根据实施方式的表单控制器210的上述功能允许用户直观地感知输出神经元大小和每个组件的计算量,并且在改变网络结构时将输出神经元大小和计算量作为参考。
已经描述了根据实施方式的显示表单的示例。将描述根据实施方式定义单元。如上所述,根据该实施方式的表单控制器210特征在于提供定义由多个组件构成的单元的功能。
例如,在图4所示的示例中,在网络结构中,重复三次按“卷积”、“MaxPooling”、“Tanh”的顺序形成的配置(对应于组件C2至C4、C5至C7和C8至C10)。
此时,在根据实施方式的信息处理方法中,将上述配置定义为单元,使得可以显著减少用户用于构建的输入工作和用户用于编辑的操作工作。
图5是根据实施方式的用于解释定义单元的示图。在图5的左侧,示出了由用户定义的单元的示例。在图5所示的示例中,用户定义了由“输入”、“卷积”、“Maxpooling”和“Tanh”的四个组件C1到C4构成的单元“ConvUnit”。用户可以例如在选项板P2上执行定义单元。
用户像其他组件一样在选项板P2上设置如上所述定义的单元,从而将该单元包含到网络结构中。在图5右侧所示的示例中,用户用与上面定义的“ConvUnit”对应的单元U1到U3来替换包含在图4所示的网络结构中的“卷积”、“Maxpooling”和“Tanh”。
如上所述,根据根据实施方式的定义单元的功能,可以表达由对应的单个单元重复出现的分层,并且消除每次设置多个组件的负担。
根据实施方式的表单控制器210可以使用不依赖于构成单元的组件的类型和数量的预定视觉表达,在选项板P2上显示定义的单元。换言之,表单控制器210可以以与对应于单个层的另一组件的尺寸或形式相同或相似的尺寸或形式显示所定义的单元。根据显示控制,期望以下效果:不必缩减选项板P2中的空间,实现了允许用户容易地知道网络的整个配置的简化显示。
将描述根据实施方式的设置由单元使用的引数。已经描述了预定的分层结构被定义为一个单元,并且使用该单元,使得容易编写重复使用的分层结构。
另一方面,假设即使在分层结构相同时也要在每个单元中执行不同的处理的情况。为此,根据实施方式的表单控制器210可以提供定义在构成单元的多个组件中通常可用的引数的功能,并且执行控制,使得所定义的引数可以被设置为单元的属性的一部分。
图6是用于描述在根据实施方式的单元中设置引数的示图。图6示出了当用户在表单上定义单元时进行的显示的示例。在图6所示的示例中,用户在选项板P2上定义了由与“SepConvInput”、“ReLU”和“DWConv”组件对应的C1到C3构成的单元。
根据该实施方式的表单控制器210例如可以在选项板P2上设置用于设置引数的引数组件,并且执行控制,使得可以通过在选项板P1上输入各种类型的信息来设置引数。
例如,在图6所示的情况下,用户设置与“ConvKarnel”、“ConvMaps”和“ConvStride”对应的引数组件AC1到AC3。与“ConvKarnel”对应的引数组件AC1可以是用于设置与“DWConv”对应的组件C3的内核形状的引数组件。
此时,用户能够在选项板P1上显示的引数组件AC1的属性信息LP1中设置引数组件AC1的名称和默认值。
通过选择与“DWConv”对应的组件C3,并在关于组件C3的属性信息LP2中输入如上所述被设置为“KarnelShape”的引数组件AC1的名称“ConvKarnel”,用户能够进行设置,使得组件C3在设置内核形状时参考如上所述设置的引数。
通过对与“ConvMaps”和“ConvStride”对应的引数组件AC1至AC3进行类似的输入,可以进行设置,使得组件C3引用相应的引数。引数组件AC1和AC3可以是用于设置输出神经元大小和组件C3的步幅值的引数组件。
图7是根据实施方式的用于描述设置单元和设置引数的示图。如图7所示,根据该实施方式的表单控制器210可以显示由用户定义的单元,使得该单元像选项板P1上的组件一样是可选择的。用户能够通过拖动在选项板P1上显示的单元,并将该单元放入选项板P2,并将定义的单元的名称指定为作为项目在单元的属性信息LP3中显示的“网络”,来设置自由选择的单元。属性信息LP3中的“名称”可以是用作显示名称和单元标识符的项目。
基于输入到“网络”的单元名称,根据实施方式的表单控制器210以可编辑的方式显示为相应单元设置的引数作为属性信息的一部分。在图7所示的示例中,基于用户输入的“SepConv”,表单控制器210添加引数“ConvKarnerl”、“ConvMaps”和“ConvStride”作为属性信息LP3的项目。将自由选择的值输入到前面提到的引数中,使得所设置的单元能够执行期望的处理。
已经描述了根据实施方式定义单元和设置引数。根据根据该实施方式的信息处理方法,定义经常用作单元的分层结构并使用该单元,使得容易创建和编辑网络配置,并且使得能够进行显示,从而可以直观地知道整个网络结构。
根据实施方式的单元可以以嵌套方式定义。换言之,根据实施方式的表单控制器210可以允许通过包括至少一个单元来形成单元。
图8是根据实施方式的用于描述定义包括至少一个单元的单元的示图。例如,如图8左侧所示,首先,用户定义不包含单元的并且由多个组件构成的单元U1。
接下来,如图8的中心所示,用户能够定义单元U2和单元U3,每个单元都包含所定义的单元U1和其他多个组件。
此外,如图8右侧所示,用户能够定义通过包括多个单元形成的单元U4,例如,定义的单元U1至U3。
根据根据实施方式定义单元,可以创建嵌套单元。根据上述单元结构,可以简单地显示庞大而复杂的网络结构,并使创建和编辑操作非常有效。
此外,根据根据实施方式定义单元,可以使神经网络的学习和评估操作高效。通常,在学习和评估之间使用不同网络结构的情况下,即使两个网络结构大致相同,也有必要分别创建网络结构。
另一方面,根据根据实施方式的定义单元,预先定义用于作为单元进行学习和评估的网络之间的共用的结构,使得可以显著提高创建学习网络和评估网络的效率。
图9是根据实施方式的用于描述使用单元的学习网络和评估网络的示图。在图9所示的示例中,学习网络和评估网络通过包括对应于作为公共过程的“CNNUnit”的单元U1而形成,并且在学习网络和评估网络之间,只有单元U1之前和之后的组件的设置不同。
具体地,在学习网络中,与“ImageAugmentation”对应的组件C4设置在单元U1的上游。当与“CategoricalCrossEntropy”对应的组件C5用于输出时,在学习网络中,与“TopNError”对应的组件C5用于在评估网络中输出。
如上所述,根据根据该实施方式的信息处理方法,将学习网络和评估网络之间公共的分层结构定义为一个单元,使得能够使神经网络的学习和评估操作更有效。
再次参考图5,将描述反映在根据实施方式的单元中改变的参数。根据该实施方式的表单控制器210能够显示根据与对应于单元的视觉表现相关联地构成单元的多个组件的处理而改变的参数。例如,在图5所示的示例的情况下,表单控制器210使得输出神经元大小根据与作为“ConvUnit”的调用方的视觉表现相关联的“ConvUnit”中的处理而改变,即,图5中右侧的单元U1。
根据根据实施方式的表单控制器210的上述功能,可以在作为单元的调用方的网络结构上清楚且直观地知道各种参数如何根据单元中的处理而改变。在设计神经网络时,上述显示可以称为信息的显著有效的程序,对于该神经网络,与常规编程不同,需要意识到输出神经元大小、存储量和计算量。
将详细描述根据实施方式的反映在单元中改变的参数的流程。图10是示出根据实施方式的反映在单元中改变的参数的流程的流程图。图10示出了作为示例的改变输出神经元大小的流程。
参考图10,首先,表单控制器210根据网络的执行顺序选择组件或单元(S1101)。
随后,表单控制器210确定所选择的元素是否是单元(S1102)。
当所选元素是组件时(S1102:否),表单控制器210基于输入的神经元大小和所选组件的处理来计算输出神经元大小(S1103)。
另一方面,当选择的元素是单元时(S1102:是),表单控制器210基于输入的神经元大小和选择的单元的处理来计算输出神经元大小(S1104)。此时,表单控制器210递归地执行图10所示的输出神经元大小计算过程。
当步骤S1103或S1104的计算处理完成时,根据该实施方式的表单控制器210确定是否已经处理了所有组件和单元(S1105)。
当没有处理完所有组件和单元时(S1105:否),表单控制器210返回到步骤S1101,并在步骤S1101处和之后重复该处理。
另一方面,当已经处理了所有组件和单元时(S1105:是),表单控制器210结束计算输出神经元大小的过程。
随后,将详细描述根据实施方式的表示统计信息。如上所述,根据实施方式的表单控制器210具有动态呈现与在表单上形成的神经网络有关的统计信息的功能。
此时,根据该实施方式的表单控制器210可以在表单上动态地显示包括构成单元的组件的整个神经网络的统计信息。根据该实施方式的统计信息包含例如输出神经元大小、使用的存储量和各种类型的计算量。
图11是示出根据实施方式的显示与整个神经网络有关的统计信息的示例的示图。图11示出了在通过包括组件C1和C11至C13以及单元U1至U3形成神经网络的情况下显示统计信息ST1的示例。
统计信息ST可以在上述选项板P3上显示。统计信息ST1中的“输出”表示输出神经元的大小,“CostParameter”表示要使用的内存量(参数的数量)。
统计信息ST1还包含“CostAdd”、“CostMuiply”、“CostMuiplyAdd”、“CostDivision”、“CostExp”和“CostIf”。
上述每个项目代表由神经网络处理的每种类型的操作的计算量的总和。每个项目可以是表示加法次数、乘法次数、乘法和加法次数、除法次数、计算指数的次数或条件分支判断的次数的值。
如上所述,根据根据该实施方式的表单控制器210,即使当使用单元时,也可以在关于整个神经网络的统计信息中正确地反映该单元的内部处理的存储量和计算量。如上所述的显示不同于常规编程的显示,并且可以称为在设计神经网络时明显有效的信息成像,对于该神经网络,必须强烈意识到输出神经元的大小、存储量和计算量。
根据该实施方式的表单控制器210除了计算关于整个神经网络的统计信息之外,还可以计算关于每个单元的统计信息,并产生关于每个单元的统计信息。
图12是示出根据实施方式的显示关于每个单元的统计信息的示例的示图。在图12所示的示例的情况下,表单控制器210计算关于由组件C1到C4构成的“ConvUnit”的统计信息ST2。
此时,根据该实施方式的表单控制器210可以相互比较地显示关于“ConvUnit”的统计信息和关于整个神经网络的统计信息。例如,在图12所示的示例的情况下,表单控制器210表示由“ConvUnit”占据的每个元素与输出神经元大小、存储量和整个神经网络的各种类型的计算量的比率。
如上所述,根据根据该实施方式的表单控制器210,可以明确地表示每个单元中的处理对整个神经网络的影响,并且已经检查了统计信息的用户能够根据需要改变该单元中的处理。表单控制器210可以使得以百分比显示上述比率或者使用指示器显示。
将详细描述根据实施方式的计算统计信息的流程。图13是示出根据实施方式的计算统计信息的流程的流程图。
参考图13,首先,表单控制器210根据网络的执行顺序选择组件或单元(S1201)。
表单控制器210确定所选择的元素是否是单元(S1202)。
当选择的元素是组件时(S1102:否),表单控制器210在关于整个网络的统计信息中反映该组件的统计值(S1203)。
另一方面,当选择的元素是单元时(S1202:是),表单控制器210计算单元中的统计值(S1204)。表单控制器210递归地执行图13所示的计算统计信息的过程。
随后,表单控制器210将在步骤S1204计算的单元中的统计值反映在关于整个神经网络的统计信息中(S1205)。
当步骤S1203或S1205的处理完成时,根据该实施方式的表单控制器210确定是否已经处理了所有组件和单元(S1206)。
当并非已经处理所有组件和单元都时(S1206:否),表单控制器210返回到步骤S1201,并重复执行在步骤S1201和之后的处理。
当已经处理了所有组件和单元时(S1206:是),表单控制器210结束计算统计信息的过程。
1.6.输出源代码
接下来,将详细描述根据实施方式的生成器220输出源代码。根据该实施方式的生成器220具有基于由表单控制器210提供的表单中的组件和单元的设置以及设置的属性来输出神经网络的源代码的功能。
根据根据实施方式的生成器220的上述功能,例如,在通过可视化编程形成轮廓之后,可以广泛地响应有经验的用户的需求,例如,使用Python编辑细节。
根据该实施方式的生成器220因此可以生成保持在该表单中定义的单元的结构的源代码,并输出该源代码。图14是根据实施方式的由生成器220输出的源代码的示例。
图14示出了根据实施方式的作为由生成器220输出的源代码的示例的两个源代码S1和S2。源代码S1是与所定义单元的调用方对应的源代码的示例。参考源代码S1,表示在源代码S1中设置提供给单元“SepConv”的引数以及调用单元“SepConv”的方法。
源代码S2是单元“SepConv”的源代码的示例。参考源代码S2,表示源代码S2包含对构成“SepConv”的多个组件的描述和对设置引数的描述,例如,“ConvKarnel”、“ConvMaps”、“ConvStride”等。
如上所述,根据根据实施方式的生成器220,可以生成正确反映单元的配置和在单元中设置的引数的分层源代码,并且提供具有高可读性并且易于用户编辑的代码。
将详细描述根据实施方式的生成器220输出源代码的流程。图15是示出根据实施方式的生成器220输出源代码的流程的流程图。
参考图15,首先,生成器220选择尚未输出其源代码的网络(S1301)。
生成器220输出定义在步骤S1301选择的网络功能的代码(S1302)。此时,当所选网络包含上述引数组件时,生成器220添加与引数组件对应的引数。
接下来,首先,生成器220根据网络的执行顺序选择组件或单元(S1303)。
然后,生成器220确定所选元素是否是单元(S1304)。
当所选元素是组件时(S1304:否),生成器220输出所选组件的代码(S1305)。
另一方面,当选择的元素是单元时(S1304:是),生成器220输出调用与选择的单元对应的网络的功能的代码(S1306)。此时,生成器220将该单元的属性作为与该单元对应的网络的功能的引数传递。
当步骤S1305或S1306的处理完成时,根据实施方式的生成器220确定是否已经处理了所有组件和单元(S1307)。
当没有处理完所有组件和单元时(S1307:否),生成器220返回到步骤S1303,并且重复执行在步骤S1303处和之后的处理。
当已经处理了所有组件和单元时(S1307:是),生成器220随后确定是否已经处理了所有网络(S1308)。
当没有处理完所有网络时(S1308:否),生成器220返回到步骤S1301,并且重复执行S1301处和之后的处理。
另一方面,当没有处理完所有网络时(S1308:是),生成器220结束输出源代码的处理。
1.7.自动搜索网络结构
将描述根据实施方式的自动搜索网络结构的功能。如上所述,根据该实施方式的生成器220具有基于用户在表单上设置的组件和单元以及设置的属性来生成神经网络的功能。
根据该实施方式的生成器220具有评估所生成的神经网络、改变已经评估的网络的网络结构以及生成具有不同网络结构的另一神经网络的功能。此外,根据该实施方式的生成器220评估前述的另一神经网络,更新帕累托最优解,改变帕累托最优解的神经网络的网络结构,并且生成又一神经网络。换言之,通过重复生成网络和更新帕累托最优解,根据该实施方式的生成器220能够自动搜索有效的网络结构,并向用户表示该网络结构。
由生成器220执行的神经网络的生成可以通过例如包括变异和交叉的遗传操作来实现。上述变异可能是在活生物体中看到的建模基因变异。换言之,生成器220能够通过考虑构成网络的每一层(即,组件)并导致层中的变异来生成具有不同网络结构的另一神经网络。
上述交叉可能是生物交配中染色体的建模部分交换。换言之,根据本公开的信息处理方法使得能够通过在两个网络之间部分地交换层来生成前述的另一神经网络。
图16是用于说明根据实施方式的由生成器220执行的自动结构搜索的示图。分别在图16的左侧示出由生成器220执行的自动结构搜索之前的网络组成,并且在图16的右侧示出由生成器220执行的自动结构搜索之后的网络结构。
比较网络组成,可以看出在自动结构搜索之后,与“Tanh”对应的组件C4改变为“ReLU”。在图16所示的示例中,与“Maxpooling”对应的组件C6的内核形状在自动结构搜索之前为“2,2”,在自动结构搜索之后变为的“3,3”。
如上所述,根据实施方式的生成器220能够通过变异或交叉改变网络结构并重复更新帕累托最优解来自动搜索更有效的网络结构。关于变异或交叉以及更新帕累托最优解的细节,参考由本公开的申请人提交并公开的国际公开第WO2017/154284号。
根据该实施方式的生成器220的特征在于,当执行上述自动结构搜索时,基于在单元和引数组件中设置的结构搜索允许性,确定是否将单元和引数组件视为将对其执行自动结构搜索的单元和引数组件。
图17是用于描述根据实施方式的引数组件中的结构搜索允许性设置的示图。图17示出了根据实施方式的关于引数组件的属性信息LP4的示例。
属性信息LP4包含作为项目的“搜索”。本文中的“搜索”可以是用于设置是否允许生成器220执行的自动结构搜索的项目,即,结构搜索允许性。根据该实施方式的生成器220能够基于前述结构搜索允许性来确定是否改变引数的值。
在图17所示的示例的情况下,因为在项目“搜索”中设置了“假”,所以生成器220将引数“Convkernel”视为不执行自动结构搜索的引数,并且在不改变引数的值的情况下保持引数的值。
图18是用于描述根据实施方式的单元中的结构搜索允许性设置的示图。图18示出了由组件C1至C3形成的单元和在该单元中设置的结构搜索允许性设置组件SC的示例。
根据该实施方式的单元的结构搜索允许性可以使用如图18所示的结构搜索允许性设置组件SC来设置。此时,用户能够通过在选项板P1上拖动在列表中显示的结构搜索允许性设置组件SC,并将结构搜索允许性设置组件SC放在选项板P2中,并选择属性信息LP5中的项目“搜索”的值,来设置单元的结构搜索允许性。
根据实施方式的生成器220能够基于上述结构搜索允许性来确定是否改变单元的网络结构。在图18所示的示例的情况下,在项目“搜索”中设置“假”,因此生成器220将该单元视为不执行自动结构搜索的单元,并且在不改变结构的情况下保持网络结构。
如上所述,根据根据实施方式的信息处理方法,用户能够进行设置,使得仅对自由选择的单元和自由选择的引数执行自动结构搜索,并且获得反映用户意图的优化网络。根据该实施方式的搜索结构允许性设置默认可以是“真”条件。在这种情况下,通过在不执行自动结构搜索的单元和引数中进行上述设置,用户能够在原始设置中维护该单元和引数。
随后,将详细描述根据实施方式的生成器220执行的自动结构搜索的流程。图19是示出根据实施方式的由生成器220执行的自动结构搜索的流程的流程图。
参考图19,首先,生成器220基于上述自动结构搜索允许性设置来选择要在其上执行自动结构搜索的网络(S1401)。此时,生成器220可以从调用方网络和单元中随机选择自动结构搜索允许性设置有效的网络。
接下来,生成器220随机确定自动结构搜索的方法(S1402)。生成器220可以通过例如在S1401选择的网络中引起变异来执行自动结构搜索(S1403)。
生成器220可以通过例如在S1401选择的网络中引起交叉来执行自动结构搜索(S1404)。
随后,生成器220确定在步骤S1403或步骤S1404执行自动结构搜索的神经网络的一致性(S1405)。
当确定生成的神经网络不具有一致性时(S1405:否),生成器220丢弃生成的神经网络并返回到步骤S1401。
另一方面,当在生成的神经网络中看到一致性时(S1405:是),生成器220随后确定生成的神经网络和原始神经网络之间的输入和输出是否相同(S1406)。
当神经网络之间的输入和输出不同时(S1406:否),因为难以处理假设的识别问题,所以生成器220丢弃生成的神经网络并返回到步骤S1401。
另一方面,当生成的神经网络和原始神经网络之间的输入和输出相同时(S1406:是),生成器220正常结束自动结构搜索的过程。
2.硬件配置的示例
将描述根据本公开实施方式的信息处理服务器20的硬件配置的示例。图20是示出根据本公开实施方式的信息处理服务器20的硬件配置的示例的框图。参考图20,信息处理服务器20包括例如处理器871、ROM 872、RAM 873、主机总线874、桥接器875、外部总线876、接口877、输入装置878、输出装置879、存储器880、驱动器881、连接端口882和通信装置883。本文中示出的硬件配置是一个示例,并且可以部分省略组件。可以还包括除了在此示出的组件之外的组件。
处理器871
处理器871例如用作算术处理器或控制装置,并且基于记录在ROM872、RAM 873、存储器880或可移动记录介质901中的各种程序来控制每个组件的全部或部分操作。
ROM 872、RAM 873
ROM 872是存储要加载到处理器871中的程序和用于计算等的数据的单元。在RAM873中,例如,临时或永久保存要加载到处理器871中的程序和当执行程序时适当变化的各种参数等。
主机总线874、桥接器75、外部总线876和接口877
处理器871、ROM 872和RAM 873例如经由主机总线874相互连接,实现高速数据传输。另一方面,主机总线874例如经由桥接器875连接到数据传输速率较低的外部总线876。外部总线876经由接口877连接到各种组件。
输入装置878
例如,鼠标、键盘、触摸面板、按钮、开关、杠杆等用于输入装置878。此外,能够使用红外线或其他无线电波传输控制信号的遥控器(以下称为遥控器)可以用作输入装置878。输入装置878还包括音频输入装置,例如,麦克风。
输出装置879
输出装置879例如是能够视觉或听觉地向用户通知所获取的信息的装置,例如,显示装置(例如,CRT(阴极射线管)、LCD或有机EL显示器)、音频输出装置(例如,扬声器或耳机)、打印机、移动电话或传真机。根据本公开的输出装置879包括能够输出触觉刺激的各种振动装置。
存储器880
存储器880是用于存储各种类型的数据的装置。例如,磁存储装置可以用作存储器880,例如,硬盘驱动器(HDD)、半导体存储装置、光存储装置、磁光存储装置等。
驱动器881
驱动器881例如是读取记录在诸如磁盘、光盘、磁光盘或半导体存储器等可移动记录介质901中的信息或者将信息写入可移动记录介质901中的装置。
可移动记录介质901
可移动记录介质901例如是DVD介质、蓝光(商标)介质、HD DVD介质或各种类型的半导体存储介质。可移动记录介质901可以是例如其上安装有非接触式IC芯片的IC卡或电子装置。
连接端口882
连接端口882例如是用于连接外部连接装置902的端口,例如,USB(通用串行总线)端口、IEEE1394端口、SCSI(小型计算机***接口)、RS-232端口或光学音频终端。
外部连接装置902
外部连接装置902例如是打印机、便携式音乐播放器、数码相机、数码摄像机或IC记录器。
通信装置883
通信装置883是用于连接到网络的通信装置,并且例如是用于有线或无线LAN、蓝牙(商标)或WUSB(无线USB)的通信卡、用于光通信的路由器、用于ADSL(非对称数字用户线路)的路由器或用于各种类型通信的调制解调器。
3.总结
如上所述,根据本公开实施方式的信息处理方法的特征在于,包括:由处理器基于对应于层的组件的设置和在组件中设置的属性提供用于创建程序来构建神经网络的表单;并且呈现关于神经网络的统计信息。提供表单的特征在于,还包括在表单中提供定义由多个组件构成的单元的功能,并且提供所定义的单元,使得所定义的单元可以像组件一样设置。这种配置使得可以进一步提高开发神经网络的效率。
已经参考附图详细描述了本公开的优选实施方式;然而,本公开的技术范围不限于这些示例。显而易见的是,那些具有本公开技术领域的一般知识的人可以在权利要求中描述的技术思想的范围内获得各种修改示例或校正示例,并且应当理解,这些示例自然属于本公开的技术范围。
本文中公开的效果仅是解释性和示例性的,因此不是决定性的。换言之,根据本公开的技术可以与上述效果一起或者代替上述效果,实现通过本文中的描述对本领域技术人员显而易见的其他效果。
还可以创建一种程序,用于使诸如CPU、ROM或RAM等硬件包含在计算机中,以实现与信息处理服务器20的配置等效的功能的,并且可以提供记录有该程序的计算机可读记录介质。
本文中由信息处理服务器20执行的处理的每个步骤不需要按照流程图中所示的顺序按时间顺序进行处理。例如,根据由信息处理服务器20执行的处理的每个步骤可以以不同于流程图中所示的顺序来处理,或者可以并行处理。
以下配置也属于本公开的技术范围。
(1)一种信息处理方法,包括:
由处理器基于与层对应的组件的设置和在组件中设置的属性来提供用于创建构建神经网络的程序的表单;以及
呈现与神经网络有关的统计信息,
其中,提供表单还包括在表单上提供定义由多个组件构成的单元的功能,并且
提供所定义的单元,使得所定义的单元能够如同组件一样设置。
(2)根据(1)所述的信息处理方法,其中,所述提供表单还包括提供所述多个单元,使得所述单元能够重复使用。
(3)根据(1)或(2)所述的信息处理方法,其中,所述提供表单还包括提供定义构成所述单元的多个组件中能够共用的引数的功能;并且
执行控制,以便定义的引数能够设置为单元属性的一部分。
(4)根据(3)所述的信息处理方法,其中,提供定义参数的功能还包括基于与设置在表单上的参数相对应的引数组件和在引数组件中设置的属性来控制参数。
(5)根据(1)至(4)中任一项所述的信息处理方法,其中,提供表单还包括不依赖于构成单元的组件的类型和数量使用预定的视觉表现在表单上显示单元。
(6)根据(5)所述的信息处理方法,其中,提供表单还包括与对应于该单元的视觉表现相关联地显示参数,该参数通过形成该单元的多个组件的处理而改变。
(7)根据(1)至(6)中任一项所述的信息处理方法,其中,呈现统计信息还包括呈现与包括构成所述单元的组件的整个神经网络有关的统计信息,并且
所述统计信息包括输出神经元大小、使用的存储量和计算量中的至少一者。
(8)根据(7)所述的信息处理方法,其中,所述呈现统计信息还包括呈现与每个单元有关的统计信息。
(9)根据(7)或(8)所述的信息处理方法,其中,所述呈现统计信息还包括相互比较地呈现与整个神经网络有关的统计信息和与所述单元有关的统计信息。
(10)根据(1)至(9)中任一项所述的信息处理方法,还包括接收由用户执行的操作,以选择包含在统计信息中的元素,并通过比较来呈现每个组件和每个单元的所选元素的值。
(11)根据(10)所述的信息处理方法,其中,与设置在表单上的组件或单元相关联地呈现每个组件或每个单元的元素的值以及表示所述元素的值的大小的指示符。
(12)根据(1)至(11)中任一项所述的信息处理方法,其中,提供表单还包括允许在定义单元时通过包括至少一个单元来构成该单元。
(13)根据(1)至(12)中任一项所述的信息处理方法,还包括基于所述组件和所述单元的设置以及所设置的属性来输出所述神经网络的源代码。
(14)根据(13)所述的信息处理方法,其中,所述输出源代码还包括生成维护所述单元的配置的所述源代码。
(15)根据(1)至(14)中任一项所述的信息处理方法,还包括:
生成具有不同于已经评估的神经网络的网络结构的另一神经网络;
获取评估所生成的神经网络的结果;以及
基于对所生成的神经网络的评估结果,更新已经评估的神经网络的帕累托最优解,
其中,所述生成还包括生成具有不同于帕累托最优解的神经网络的网络结构的另一神经网络。
(16)根据(15)所述的信息处理方法,还包括基于在所述单元中设置的结构搜索允许性来确定是否改变所述单元的网络结构。
(17)根据(15)或(16)所述的信息处理方法,其中,所述生成还包括基于在所述引数中设置的结构搜索允许性来确定是否改变在所述单元中使用的引数的值。
(18)一种信息处理设备,包括:
表单控制器,被配置为基于与层相对应的组件的设置和在组件中设置的属性来提供用于创建构建神经网络的程序的表单,并且在表单上呈现与神经网络有关的统计信息,
其中,所述表单控制器被配置为在表单上提供定义由多个组件构成的单元的功能,并且提供所定义的单元,使得所定义的单元能够如同组件一样设置。
(19)一种用于使计算机用作信息处理设备的程序,所述信息处理设备包括:
表单控制器,被配置为基于与层相对应的组件的设置和在组件中设置的属性来提供用于创建构建神经网络的程序的表单,以及在表单上呈现与神经网络有关的统计信息,
其中,所述表单控制器被配置为在表单上提供定义由多个组件构成的单元的功能,并且提供所定义的单元,使得所定义的单元能够如同组件一样设置。
符号说明
10信息处理终端 110显示单元 120输入单元
130控制器 140服务器通信单元
20信息处理服务器 210表单控制器
220生成器 230终端通信单元。
Claims (19)
1.一种信息处理方法,包括:
由处理器基于与层对应的组件的设置和在组件中设置的属性来提供用于创建构建神经网络的程序的表单;以及
呈现与所述神经网络有关的统计信息,
其中,提供表单还包括在所述表单上提供定义由多个组件构成的单元的功能,并且
提供所定义的单元,使得所定义的单元能够如同组件一样设置。
2.根据权利要求1所述的信息处理方法,其中,所述提供表单还包括提供多个单元,使得所述单元能够重复使用。
3.根据权利要求1所述的信息处理方法,其中,所述提供表单还包括提供定义构成所述单元的多个组件能够共用的引数的功能;并且
执行控制,以便定义的引数能够设置为单元属性的一部分。
4.根据权利要求3所述的信息处理方法,其中,提供定义引数的功能还包括基于与设置在所述表单上的引数相对应的引数组件和在引数组件中设置的属性来控制引数。
5.根据权利要求1所述的信息处理方法,其中,所述提供表单还包括不依赖于构成所述单元的组件的类型和数量使用预定的视觉表现在表单上显示所述单元。
6.根据权利要求5所述的信息处理方法,其中,所述提供表单还包括与对应于所述单元的视觉表现相关联地显示参数,所述参数通过构成所述单元的多个组件的处理而改变。
7.根据权利要求1所述的信息处理方法,其中,呈现统计信息还包括呈现与包括构成所述单元的组件的整个神经网络有关的统计信息,并且
所述统计信息包括输出神经元大小、使用的存储量和计算量中的至少一者。
8.根据权利要求7所述的信息处理方法,其中,所述呈现统计信息还包括呈现与每个单元有关的统计信息。
9.根据权利要求7所述的信息处理方法,其中,所述呈现统计信息还包括相互比较地呈现与整个神经网络有关的统计信息和与所述单元有关的统计信息。
10.根据权利要求1所述的信息处理方法,还包括接收由用户执行的操作,以选择包含在统计信息中的元素,并通过比较来呈现每个组件和每个单元的所选元素的值。
11.根据权利要求10所述的信息处理方法,其中,与设置在表单上的组件或单元相关联地呈现每个组件或每个单元的元素的值以及表示所述元素的值的大小的指示符。
12.根据权利要求1所述的信息处理方法,其中,所述提供表单还包括允许在定义单元时通过包括至少一个单元来构成所述单元。
13.根据权利要求1所述的信息处理方法,还包括基于所述组件和所述单元的设置以及所设置的属性来输出所述神经网络的源代码。
14.根据权利要求13所述的信息处理方法,其中,所述输出源代码还包括生成维护所述单元的配置的所述源代码。
15.根据权利要求1所述的信息处理方法,还包括:
生成具有不同于已经评估的神经网络的网络结构的另一神经网络;
获取评估所生成的神经网络的结果;以及
基于对所生成的神经网络的评估结果,更新已经评估的神经网络的帕累托最优解,
其中,所述生成还包括生成具有不同于帕累托最优解的神经网络的网络结构的另一神经网络。
16.根据权利要求15所述的信息处理方法,还包括基于在所述单元中设置的结构搜索允许性来确定是否改变所述单元的网络结构。
17.根据权利要求15所述的信息处理方法,其中,所述生成还包括基于在所述引数中设置的结构搜索允许性来确定是否改变在所述单元中使用的引数的值。
18.一种信息处理设备,包括:
表单控制器,被配置为基于与层对应的组件的设置和在所述组件中设置的属性来提供用于创建构建神经网络的程序的表单,并且在所述表单上呈现与所述神经网络有关的统计信息,
其中,所述表单控制器被配置为在所述表单上提供定义由多个组件构成的单元的功能,并且提供所定义的单元,使得所定义的单元能够如同组件一样设置。
19.一种用于使计算机用作信息处理设备的程序,所述信息处理设备包括:
表单控制器,被配置为基于与层对应的组件的设置和在组件中设置的属性来提供用于创建构建神经网络的程序的表单,并且在所述表单上呈现与神经网络有关的统计信息,
其中,所述表单控制器被配置为在所述表单上提供定义由多个组件构成的单元的功能,并且提供所定义的单元,使得所定义的单元能够如同组件一样设置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-061790 | 2018-03-28 | ||
JP2018061790 | 2018-03-28 | ||
PCT/JP2019/001871 WO2019187542A1 (ja) | 2018-03-28 | 2019-01-22 | 情報処理方法、情報処理装置、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111886602A true CN111886602A (zh) | 2020-11-03 |
Family
ID=68059858
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980020931.9A Withdrawn CN111886602A (zh) | 2018-03-28 | 2019-01-22 | 信息处理方法、信息处理设备和程序 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210019122A1 (zh) |
EP (1) | EP3779798A4 (zh) |
JP (1) | JP7279705B2 (zh) |
CN (1) | CN111886602A (zh) |
WO (1) | WO2019187542A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210019628A1 (en) * | 2018-07-23 | 2021-01-21 | Intel Corporation | Methods, systems, articles of manufacture and apparatus to train a neural network |
US20220283787A1 (en) * | 2019-08-27 | 2022-09-08 | Siemens Aktiengesellschaft | System and method supporting graphical programming based on neuron blocks, and storage medium |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3631443B2 (ja) * | 2001-05-24 | 2005-03-23 | 株式会社東芝 | ニューラルネット結合重み最適化装置及び方法並びにプログラム |
JP2003241965A (ja) * | 2002-02-18 | 2003-08-29 | Toshiba Corp | プログラム作成支援方法、プログラム作成支援プログラム及びプログラム作成支援装置 |
JPWO2004104917A1 (ja) * | 2003-05-20 | 2006-07-20 | 富士通株式会社 | センサおよびセンサプログラム |
US9563406B1 (en) * | 2013-05-15 | 2017-02-07 | The Mathworks, Inc. | Graphical user interface replacement of function signatures |
US20150262061A1 (en) * | 2014-03-14 | 2015-09-17 | Qualcomm Incorporated | Contextual real-time feedback for neuromorphic model development |
US9582753B2 (en) * | 2014-07-30 | 2017-02-28 | Mitsubishi Electric Research Laboratories, Inc. | Neural networks for transforming signals |
US20160132787A1 (en) * | 2014-11-11 | 2016-05-12 | Massachusetts Institute Of Technology | Distributed, multi-model, self-learning platform for machine learning |
JP6516025B2 (ja) * | 2016-02-12 | 2019-05-22 | ソニー株式会社 | 情報処理方法および情報処理装置 |
JP6555411B2 (ja) | 2016-03-09 | 2019-08-07 | ソニー株式会社 | 情報処理方法および情報処理装置 |
US10810491B1 (en) * | 2016-03-18 | 2020-10-20 | Amazon Technologies, Inc. | Real-time visualization of machine learning models |
JP6996497B2 (ja) * | 2016-04-28 | 2022-01-17 | ソニーグループ株式会社 | 情報処理装置、及び情報処理方法 |
US11514306B1 (en) * | 2018-03-14 | 2022-11-29 | Meta Platforms, Inc. | Static memory allocation in neural networks |
-
2019
- 2019-01-22 CN CN201980020931.9A patent/CN111886602A/zh not_active Withdrawn
- 2019-01-22 US US16/982,589 patent/US20210019122A1/en active Pending
- 2019-01-22 JP JP2020509713A patent/JP7279705B2/ja active Active
- 2019-01-22 WO PCT/JP2019/001871 patent/WO2019187542A1/ja unknown
- 2019-01-22 EP EP19774442.8A patent/EP3779798A4/en not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
JP7279705B2 (ja) | 2023-05-23 |
JPWO2019187542A1 (ja) | 2021-04-15 |
EP3779798A4 (en) | 2021-07-28 |
US20210019122A1 (en) | 2021-01-21 |
WO2019187542A1 (ja) | 2019-10-03 |
EP3779798A1 (en) | 2021-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11275742B2 (en) | Digital processing systems and methods for smart table filter with embedded boolean logic in collaborative work systems | |
US11604641B2 (en) | Methods and systems for resolving user interface features, and related applications | |
US8264488B2 (en) | Information processing apparatus, information processing method, and program | |
CN112579050B (zh) | 工业应用开发***、工业自动化项目开发方法和介质 | |
US20060271908A1 (en) | Method of componentisation of a graphically defined formula | |
US11768979B2 (en) | Information processing device and information processing method | |
US8823738B1 (en) | Merging electronic diagrams | |
CN113728308B (zh) | 用于会话机器人的训练对话的可视化 | |
US9009617B2 (en) | Decision aiding user interfaces | |
JP6687878B2 (ja) | 情報処理装置およびプログラム | |
CN112579051B (zh) | 开发工业应用的***和管理工业开发工作空间的方法 | |
KR20150058237A (ko) | 간략화된 지식공학 방법 및 시스템 | |
JP2012118572A (ja) | コンテンツ推薦システム、コンテンツ推薦装置、推薦方式制御方法、及び推薦方式制御プログラム | |
CN108027721A (zh) | 用于使用控件来配置通用程序的技术 | |
WO2020154416A1 (en) | Product design, configuration and decision system using machine learning | |
CN111886602A (zh) | 信息处理方法、信息处理设备和程序 | |
JP2020514870A (ja) | 画像生成方法、画像生成装置、画像生成システム及びプログラム | |
US20220138383A1 (en) | Product design, configuration and decision system using machine learning | |
US10685470B2 (en) | Generating and providing composition effect tutorials for creating and editing digital content | |
JP7447251B2 (ja) | デジタルコンテンツの視覚的品質の評価 | |
US20240220775A1 (en) | Information processing system and information processing method | |
JP7284298B2 (ja) | デジタルコンテンツの視覚的品質の評価 | |
WO2021192152A1 (ja) | プログラミング支援プログラム、プログラミング支援装置およびプログラミング支援方法 | |
KR102480611B1 (ko) | 동적 제어 화면 | |
WO2013052063A1 (en) | Generating a non-deterministic model of a process for a goal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20201103 |
|
WW01 | Invention patent application withdrawn after publication |