CN111552563A - 一种多线程数据架构、多线程消息传递方法及*** - Google Patents

一种多线程数据架构、多线程消息传递方法及*** Download PDF

Info

Publication number
CN111552563A
CN111552563A CN202010311396.7A CN202010311396A CN111552563A CN 111552563 A CN111552563 A CN 111552563A CN 202010311396 A CN202010311396 A CN 202010311396A CN 111552563 A CN111552563 A CN 111552563A
Authority
CN
China
Prior art keywords
neuron
thread
logic
downstream
logical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010311396.7A
Other languages
English (en)
Other versions
CN111552563B (zh
Inventor
林嘉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanchang Jiayan Technology Co ltd
Original Assignee
Nanchang Jiayan Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanchang Jiayan Technology Co ltd filed Critical Nanchang Jiayan Technology Co ltd
Priority to CN202010311396.7A priority Critical patent/CN111552563B/zh
Publication of CN111552563A publication Critical patent/CN111552563A/zh
Application granted granted Critical
Publication of CN111552563B publication Critical patent/CN111552563B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/546Message passing systems or structures, e.g. queues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Transfer Between Computers (AREA)
  • Devices For Executing Special Programs (AREA)

Abstract

本发明属于多线程开发技术领域,具体涉及一种多线程数据架构、多线程消息传递方法及***,架构包括逻辑变量、逻辑节点、节点列表、神经元、神经元中枢和神经元线程;神经元中枢集中存放神经元,载入逻辑节点列表,并根据逻辑节点列表的内容实例化全部的神经元对象,根据逻辑节点列表记录的逻辑关系构建逻辑网;神经元中枢将注册后的神经元线程与对应的神经元对象相关联;神经元对象在感知到输入状态改变后,触发关联的神经元线程对象进行所需运算,进而进行整个逻辑网的多线程运算。本发明将程序运算内容依其数据流状态变化以及各数据之间的因果推演关系进行线程分解,构建出多线程数据架构和消息传递机制,提高了多线程运算的效率。

Description

一种多线程数据架构、多线程消息传递方法及***
技术领域
本发明属于多线程开发技术领域,具体涉及一种多线程数据架构、多线程消息传递方法及***。
背景技术
在计算机程序中,多线程程序具有能有效发挥CPU的运算资源的优点,而所有多线程软件都需要共同面对跨线程消息传递的问题。计算机程序在不同线程间进行数据传递时,其最底层都是实用共享内存的方法,也即在内存中开辟一块空间,允许不同线程共同拥有所述空间的访问权。实际代码中,为了减少数据的拷贝量,跨线程发送信息时往往并不是发送完整的数据,而只是发送所述数据所在的内存地址。由于数据量短小,这些信息片段也因而常被成为消息。传递一般被称为跨线程消息传递,被传递的信息泛称为消息。
跨线程消息传递会面临到数据同步、资源互锁等问题,对软件而言是一个具有一定风险的操作,开发过程中需要程序员格外小心。同步是指不同线程对同一资源的访问必须在时间上加以区隔,不能一条线程还没操作完,另一条线程就又介入进来,否则就会造成数据错误。为了协调不同线程对同一块资源的访问,许多编程语言都提供了锁的概念。锁是一个标志位,用于标识某块资源是否正在使用中。对于正在使用中的资源,别的线程也想要使用它的话必须要先等待,等到开锁释放所述资源的使用权才可以介入使用。而使用标志锁又可能引发多条线程需要使用的多个资源相互锁住,造成程序卡死。
跨线程消息传递具有很大的风险性,一旦把握不好很容易导致程序崩溃。因而对软件开发团队而言,开发多线程程序具有很大不确定性和工程风险。尽管多线程可以更好的发挥CPU计算资源,但开发多线程程序仍然不是当今软件开发界的主流。目前软件开发中对多线程的使用还仅限于那些可将一个大运算任务分解为若干运算过程类似的同质子任务的情况。例如在进行矩阵运算时,通过多线程对矩阵的不同元素同时进行计算,又如渲染图片时通过并行计算同时渲染图片的不同部分等。此类多线程应用,其效力仅能发挥于加速某些特定任务的执行速度,而不能从总体设计层面采用多线程方式的软件架构。目前还没有能够在软件架构层面实施多线程程序的软件设计方法,更缺乏标准化的跨线程数据传递与通讯机制。
发明内容
针对现有技术中的缺陷,本发明提供了一种多线程数据架构、多线程消息传递方法及***,以神经元工作模式为仿生学基础,将程序运算内容依其数据流状态变化以及各数据之间的因果推演关系进行线程分解,从而构建出多线程数据架构和消息传递机制,提高了多线程运算的效率。
第一方面,本发明提供了一种多线程数据架构,包括逻辑变量、逻辑节点、节点列表、神经元、神经元中枢和神经元线程;
所述逻辑变量,用于表示业务范围内所涉及的各个逻辑变量,每一个逻辑变量均有对应的变量名;
所述逻辑节点,用于表示不同逻辑变量之间的因果关系,每个逻辑节点包含代表节点的逻辑变量,以及对所述逻辑变量的状态产生影响的所有上游逻辑变量;
所述节点列表,用于根据逻辑关系记录存储各个实例化的逻辑节点对象;
所述神经元,用于表示逻辑节点内各逻辑变量之间的逻辑推理行为,每个神经元包含代表对应节点的逻辑变量,以及所述逻辑变量与上游逻辑变量实现因果关系的逻辑推理算法;
所述神经元中枢,用于集中存放神经元,在程序开始运行时,实例化后的神经元中枢载入节点列表,并根据节点列表的内容实例化全部的神经元对象,进而根据节点列表记录的逻辑关系构建逻辑网;
所述神经元线程,每个实例化后的神经元线程对象向神经元中枢注册,神经元中枢将注册的神经元线程与对应的神经元对象相关联;神经元对象在感知到输入状态改变后,触发关联的神经元线程对象进行所需运算,进而进行整个逻辑网的多线程运算。
优选地,所述神经元线程是Bot类的一个子类,继承Bot类的属性和方法。
第二方面,本发明提供了一种多线程消息传递方法,基于第一方面所述的一种多线程数据架构,其特征在于,包括以下步骤:
一个神经元线程对象的工作线程产生消息时,所述神经元线程对象通过fireup函数将消息数据传递给关联的神经元对象;
神经元对象根据消息数据感知到逻辑状态值发生变化时,所述神经元对象调用fire函数将逻辑状态值推送给下游神经元对象;
下游神经元对象在感知到输入的逻辑状态值变化时,唤醒关联的下游神经元线程对象的工作线程,下游神经元线程对象利用input函数接收输入的消息数据,并在自身线程内对消息数据进行处理,从而完成一个线程到另一个工作线程的消息传递。
优选地,所述的一种多线程消息传递方法,还包括以下步骤:
初始化每个神经元线程对象,并将每个神经元线程对象与对应的神经元对象相关联。
优选地,所述初始化每个神经元线程对象,并将每个神经元线程对象与对应的神经元对象相关联,具体为:
程序启动后实例化神经元中枢和神经元线程对象;
神经元中枢载入节点列表,根据节点列表的内容实例化全部的神经元对象,并根据节点列表记录的逻辑关系构建逻辑网;
神经元线程对象向神经元中枢发送注册信息,神经元中枢将注册的神经元线程对象和对应的神经元对象相关联。
优选地,所述神经元对象调用fire函数将逻辑状态值推送给下游神经元对象,具体为:
所述神经元对象查询订阅表,订阅表存储有与所述神经元对象有下游逻辑关系的神经元对象;
根据订阅表得到下游神经元对象;
所述神经元对象调用fire函数将逻辑状态值推送给下游神经元对象。
第三方面,本发明提供了一种多线程消息传递***,基于第一方面所述的一种多线程数据架构,包括消息产生单元、逻辑推送单元和线程跨传单元:
消息产生单元,用于当一个神经元线程对象的工作线程产生消息时,所述神经元线程对象通过fireup函数将消息数据传递给关联的神经元对象;
逻辑推送单元,用于神经元对象根据消息数据,感知到逻辑状态值发生变化时,所述神经元对象调用fire函数将逻辑状态值推送给下游神经元对象;
线程跨传单元,用于下游神经元对象在感知到输入的逻辑状态值变化时,唤醒关联的下游神经元线程对象的工作线程,下游神经元线程对象利用input函数接收输入的消息数据,并在自身线程内对消息数据进行处理,从而完成一个线程到另一个工作线程的消息传递。
优选地,所述的一种多线程消息传递方法,还包括初始化单元;
所述初始化单元,用于初始化每个神经元线程对象,并将每个神经元线程对象与对应的神经元对象相关联。
优选地,所述初始化每个神经元线程对象,并将每个神经元线程对象与对应的神经元对象相关联,具体为:
程序启动后实例化神经元中枢和神经元线程对象;
神经元中枢载入节点列表,根据节点列表的内容实例化全部的神经元对象,并根据节点列表记录的逻辑关系构建逻辑网;
神经元线程对象向神经元中枢发送注册信息,神经元中枢将注册的神经元线程对象和对应的神经元对象相关联。
优选地,所述神经元对象调用fire函数将逻辑状态值推送给下游神经元对象,具体为:
所述神经元对象查询订阅表,订阅表存储有与所述神经元对象有下游逻辑关系的神经元对象;
根据订阅表得到下游神经元对象;
所述神经元对象调用fire函数将逻辑状态值推送给下游神经元对象。
本发明的技术方案,以神经元工作模式为仿生学基础,将程序运算内容依其数据流状态变化以及各数据之间的因果推演关系进行线程分解,从而构建出多线程数据架构和消息传递机制,提高了多线程运算的效率。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍。在所有附图中,类似的元件或部分一般由类似的附图标记标识。附图中,各元件或部分并不一定按照实际的比例绘制。
图1为本实施例中多线程数据架构的结构示意图;
图2为本实施例中多线程消息传递方法的流程图;
图3为本实施例中神经元中枢初始化的任务流程图;
图4为本实施例中线程间消息传递时的交互示意图;
图5为本实施例中具体案例的模块部署图;
图6为本实施例中多线程消息传递***的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“所述”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
人脑是一个典型的多线程处理器,每一个脑神经元具有自己独立的生命周期,也即是工作于其独立的工作线程内。大脑的工作原理现今科学界还没有统一的理论,但基于一般的脑解剖学和显微技术,我们可以对脑细胞的基本工作方式做一些可信的简化。大脑内的最基本工作单位是脑细胞,具备收发神经冲动功能的脑细胞称为脑神经元。神经元在外形上似芒星,其外伸的神经纤维与其他神经元的神经纤维形成突触,用于传导神经电冲动。每个神经元具备多根用于接收神经冲动的神经纤维,称为树突,以及一根用于发送神经冲动的神经纤维称为轴突。神经元在工作时利用树突感知周边神经电变化,所感知到的电变化经树突汇总至神经基部,神经基部在对周边信号进行综合判断后选择是否改变自身的激发状态,若达到激发条件,则通过轴突向外界发出电冲动。
将上述脑神经元的工作过程可概括为以下特点:
1)每个神经元代表着一个独立的逻辑变量,不同的神经元代表着不同的逻辑变量,每个神经元的激发状态表征所述逻辑变量的状态。
2)神经元存在输入和输出两类端口,多个神经元利用各自的输入和输出端口连接成为一个具有层次关系的逻辑网。以下称连接在神经突触输出侧的神经元所代表的逻辑变量为上游逻辑变量,另一侧则为下游逻辑变量。
3)每个神经元通过考察其所有上游逻辑变量的实时状态,综合计算得出其自身所代表逻辑变量的状态,进而予以下发。
以上是脑神经网在多线程消息传递条件下的逻辑推理工作机制。仿效此生物机制,本实施例提供了一种多线程数据架构、多线程消息传递方法及***。
实施例一:
本实施例提供了一种多线程数据架构,如图1所示,包括逻辑变量Concept、逻辑节点Notion、节点列表Notionlist、神经元Neuron、神经元中枢NeuronCenter和神经元线程NeuronAgent;
所述逻辑变量Concept,用于表示业务范围内所涉及的各个逻辑变量,每一个Concept均有对应的变量名。Concept是一个枚举变量,其变量名应取为具有实质含义的一段文字,因而Concept的变量名也作为语言学标签表征这个逻辑变量的实际意义。在实际编程中,为调试需要往往还需要一组与Concept中的每个值的语言学标签同名的字符串。
所述逻辑节点Notion,用于表示不同Concept之间的因果关系,每个Notion包含代表节点的Concept,以及对所述Concept的状态产生影响的所有上游Concept。Notion中所存储的实质信息是不同逻辑变量间的因果关系,在因果关系中,上游Concept的状态改变时会对下游Concept产生影响。
所述节点列表Notionlist,用于根据逻辑关系记录存储各个实例化的Notion对象。将Notion中所存储的因果关系前后相连,就可得到该程序所要处理的业务逻辑的完整的逻辑网。Notionlist就是用于集中存储每个实例化的Notion对象的空间,利用Notionlist,开发人员可以对整个程序的业务逻辑进行完整的审视。
所述神经元Neuron,用于表示Notion内各Concept之间的逻辑推理行为,每个Neuron包含代表对应节点的Concept,以及所述Concept与上游Concept实现因果关系的逻辑推理算法,Neuron是最基本的逻辑推理单元,是在Notion的基础上附加上逻辑推理行为,Notion中的数据保存了该逻辑变量的状态影响于哪些其他逻辑变量,Neuron中含有的算法则实现了这些逻辑状态值的传递行为。
所述神经元中枢Neuroncenter,用于集中存放Neuron,在程序开始运行时,实例化后的Neuroncenter载入Notionlist,并根据Notionlist的内容实例化全部的Neuron对象,进而根据Notionlist记录的逻辑关系构建逻辑网。
所述神经元线程NeuronAgent,每个实例化后的NeuronAgent对象向Neuroncenter注册,Neuroncenter将注册的NeuronAgent与对应的Neuron对象相关联;Neuron对象在感知到输入状态改变后,触发关联的NeuronAgent对象进行所需运算,进而进行整个逻辑网的多线程运算。NeuronAgent对象是与Neuron对象配套的专用计算单元,这些计算过程可能很冗长,也可能具有很大的代码量,因而NeuronAgent对象需要配备独立的工作线程,并在器独立线程内完成这些工作。本实施例的神经元线程NeuronAgent是Bot类的一个子类,如专利201910281108.5一种多线程程序架构方法及架构***中记载的Bot类,本实施例的NeuronAgent继承该Bot类的属性和方法,。
综上所述,本实施以神经元工作模式为仿生学基础,将程序运算内容依其数据流状态变化以及各数据之间的因果推演关系进行线程分解,从而构建出本实施例的多线程数据架构,通过本实施例的多线程数据架构进行多线程运算时,提高了多线程运算的效率。
实施例二:
本实施例提供了一种多线程消息传递方法,基于实施例一所述的一种多线程数据架构,如图2所示,包括以下步骤:
S1,初始化每个NeuronAgent对象,并将每个NeuronAgent对象与对应的Neuron对象相关联;
S2,一个NeuronAgent对象的工作线程产生消息时,所述NeuronAgent对象通过fireup函数将消息数据传递给关联的Neuron对象;
S3,Neuron对象根据消息数据感知到逻辑状态值发生变化时,所述Neuron对象调用fire函数将逻辑状态值推送给下游Neuron对象;
S4,下游Neuron对象在感知到输入的逻辑状态值变化时,唤醒关联的下游NeuronAgent对象的工作线程,下游NeuronAgent对象利用input函数接收输入的消息数据,并在自身线程内对消息数据进行处理,从而完成一个线程到另一个工作线程的消息传递。
本实施例步骤S1中,所述初始化每个NeuronAgent对象,并将每个NeuronAgent对象与对应的Neuron对象相关联,具体为:
程序启动后实例化Neuroncenter和NeuronAgent对象(程序启动后第一时间进行实例化);
Neuroncenter载入Notionlist,根据Notionlist的内容实例化全部的Neuron对象(即根据Notionlist内实例化的Concept对象,实例化Neuron对象),并根据Notionlist记录的逻辑关系构建逻辑网;
NeuronAgent对象向Neuroncenter发送注册信息,Neuroncenter将注册的NeuronAgent对象和对应的Neuron对象相关联。
如图3所示,为本实施例中NeuronCenter初始化的任务流程图,在进行初始化和对象关联后,原始消息产生于某个NeuronAgent对象的工作线程后,开始了消息传递。NeuronAgent对象通过函数将该消息数据传递给与其关联的Neuron对象。从逻辑网的角度看,这相当于与该Neuron相关联的逻辑变量的逻辑状态值发生了改变。
当Neuron对象根据消息数据感知到逻辑状态值发生变化时,Neuron对象查询订阅表。所述订阅表存储有与所述Neuron对象有下游逻辑关系的Neuron对象,所述订阅表还存储有与所述Neuron对象有上游逻辑关系的Neuron对象,因此通过订阅表可了解各Neuron对象之间的逻辑关系。根据订阅表得到下游Neuron对象。所述Neuron对象调用fire函数将逻辑状态值推送给下游Neuron对象。此过程相当于神经元激发了一次神经电冲动。
下游Neuron对象在感知到输入状态变化时,通过线程锁agentAlarm字段唤醒与其关联的NeuronAgent对象的工作线程。NeuronAgent对象利用其input函数接收输入的数据,并在自身线程内对数据进行处理。如图4所示,为本实施例中线程间消息传递时的交互示意图,至此该消息完成了从一个线程到另一个线程的传递,同理,逻辑网内的各个线程之间可通过上述方式进行消息消息传递,从而实现整个逻辑网的多线程运算。
下面以一个具体的程序为例,如图5所示,为本案例的模块部署图,更详细地描述本实施例所述的多线程数据架构和消息传递方法。假设某程序需要通过路人撑伞和地面积水来推测当前是否下雨,判断逻辑是:路人撑伞且地面湿则当前下雨,否则当前未下雨。此程序中有三个逻辑变量,分别是:撑伞,地面湿,下雨。定义逻辑变量Concept如下:
Figure BDA0002457972100000101
在NotionList中定义这三个逻辑变量的因果关系如下:
static vector<Notion>NotionList{
Notion{UMBRELLA},
Notion{GROUND_WET},
Notion{RAINING,{UMBRELLA,GROUND_WET}}
};
程序运行时为NeuronCenter载入Notionlist,NeuronCenter将相应的实例化三个Neuron对象,并依照其定义的因果关系构建逻辑网,如下所示:
Neuron(UMBRELLA);
Neuron(GROUND_WET);
Neuron(RAINING);
在实例化三个Neuron对象后,程序还需建立三个NeuronAgent对象:
<NeuronAgent>UmbrellaMonitor umbrellaMonitor;
<NeuronAgent>GroundMonitor groundMornitor;
<NeuronAgent>RainingAnalyzer rainingAnalyzer;
这三个对象分别于上述三个逻辑变量相关联,且各自有独立的工作线程。umbrellaMornitor负责监控路人打伞,并设置Neuron(UMBRELLA)的逻辑状态值,groundMornitor负责监控地面积水,并设置Neuron(GROUND_WET)的逻辑状态值。这两个逻辑变量的逻辑状态值会被作为输入信号传递给Neuron(RAINING),进而传递给rainingAnalyzer,并在rainingAnalyzer对象的工作线程中完成逻辑分析,最后调用rainingAnalyzer::fireup()设定Neuron(RAINING)的逻辑状态值,Neuron(RAINING)的;逻辑状态值可得到当前是否下雨。
如Neuron(UMBRELLA)的逻辑状态值为1,Neuron(GROUND_WET)的逻辑状态值为1,Neuron(RAINING)根据与算法,得到逻辑状态值为1,则表示当前下雨了。如果Neuron(UMBRELLA)的逻辑状态值和Neuron(GROUND_WET)的逻辑状态值,其中一个为0,则根据Neuron(RAINING)根据与算法,得到逻辑状态值为0,表示当前没有下雨。
综上所述,本实施以神经元工作模式为仿生学基础,将程序运算内容依其数据流状态变化以及各数据之间的因果推演关系进行线程分解,从而构建出本实施例的多线程数据架构和多线程消息传递方法,通过本实施例的架构和消息传递方法进行多线程运算时,提高了多线程运算的效率。
实施例三:
本实施例提供了一种多线程消息传递***,基于实施例一所述的一种多线程数据架构,如图6所示,包括初始化单元、消息产生单元、逻辑推送单元和线程跨传单元:
所述初始化单元,用于初始化每个NeuronAgent对象,并将每个NeuronAgent对象与对应的Neuron对象相关联;
消息产生单元,用于当一个NeuronAgent对象的工作线程产生消息时,所述NeuronAgent对象通过fireup函数将消息数据传递给关联的Neuron对象;
逻辑推送单元,用于Neuron对象根据消息数据,感知到逻辑状态值发生变化时,所述Neuron对象调用fire函数将逻辑状态值推送给下游Neuron对象;
线程跨传单元,用于下游Neuron对象在感知到输入的逻辑状态值变化时,唤醒关联的下游NeuronAgent对象的工作线程,下游NeuronAgent对象利用input函数接收输入的消息数据,并在自身线程内对消息数据进行处理,从而完成一个线程到另一个工作线程的消息传递。
其中,所述初始化每个NeuronAgent对象,并将每个NeuronAgent对象与对应的Neuron对象相关联,具体为:
程序启动后实例化Neuroncenter和NeuronAgent对象;
Neuroncenter载入Notionlist,根据Notionlist的内容实例化全部的Neuron对象,并根据Notionlist记录的逻辑关系构建逻辑网;
NeuronAgent对象向Neuroncenter发送注册信息,Neuroncenter将注册的NeuronAgent对象和对应的Neuron对象相关联。
当Neuron对象根据消息数据感知到逻辑状态值发生变化时,Neuron对象查询订阅表。所述订阅表存储有与所述Neuron对象有下游逻辑关系的Neuron对象,所述订阅表还存储有与所述Neuron对象有上游逻辑关系的Neuron对象,因此通过订阅表可了解各Neuron对象之间的逻辑关系。根据订阅表得到下游Neuron对象。所述Neuron对象调用fire函数将逻辑状态值推送给下游Neuron对象。此过程相当于神经元激发了一次神经电冲动。
下游Neuron对象在感知到输入状态变化时,通过线程锁agentAlarm字段唤醒与其关联的NeuronAgent对象的工作线程。NeuronAgent对象利用其input函数接收输入的数据,并在自身线程内对数据进行处理。至此该消息完成了从一个线程到另一个线程的传递,同理,逻辑网内的各个线程之间可通过上述方式进行消息消息传递,从而实现整个逻辑网的多线程运算。
下面以一个具体的程序为例,更详细地描述本实施例所述的多线程数据架构和消息传递***。假设某程序需要通过路人撑伞和地面积水来推测当前是否下雨,判断逻辑是:路人撑伞且地面湿则当前下雨,否则当前未下雨。此程序中有三个逻辑变量,分别是:撑伞,地面湿,下雨。定义逻辑变量Concept如下:
Figure BDA0002457972100000131
在NotionList中定义这三个逻辑变量的因果关系如下:
static vector<Notion>NotionList{
Notion{UMBRELLA},
Notion{GROUND_WET},
Notion{RAINING,{UMBRELLA,GROUND_WET}}
};
程序运行时为NeuronCenter载入Notionlist,NeuronCenter将相应的实例化三个Neuron对象,并依照其定义的因果关系构建逻辑网,如下所示:
Neuron(UMBRELLA);
Neuron(GROUND_WET);
Neuron(RAINING);
在实例化三个Neuron对象后,程序还需建立三个NeuronAgent对象:
<NeuronAgent>UmbrellaMonitor umbrellaMonitor;
<NeuronAgent>GroundMonitor groundMornitor;
<NeuronAgent>RainingAnalyzer rainingAnalyzer;
这三个对象分别于上述三个逻辑变量相关联,且各自有独立的工作线程。umbrellaMornitor负责监控路人打伞,并设置Neuron(UMBRELLA)的逻辑状态值,groundMornitor负责监控地面积水,并设置Neuron(GROUND_WET)的逻辑状态值。这两个逻辑变量的逻辑状态值会被作为输入信号传递给Neuron(RAINING),进而传递给rainingAnalyzer,并在rainingAnalyzer对象的工作线程中完成逻辑分析,最后调用rainingAnalyzer::fireup()设定Neuron(RAINING)的逻辑状态值,Neuron(RAINING)的;逻辑状态值可得到当前是否下雨。
如Neuron(UMBRELLA)的逻辑状态值为1,Neuron(GROUND_WET)的逻辑状态值为1,Neuron(RAINING)根据与算法,得到逻辑状态值为1,则表示当前下雨了。如果Neuron(UMBRELLA)的逻辑状态值和Neuron(GROUND_WET)的逻辑状态值,其中一个为0,则根据Neuron(RAINING)根据与算法,得到逻辑状态值为0,表示当前没有下雨。
综上所述,本实施以神经元工作模式为仿生学基础,将程序运算内容依其数据流状态变化以及各数据之间的因果推演关系进行线程分解,从而构建出本实施例的多线程数据架构和多线程消息传递***,通过本实施例的架构和消息传递***进行多线程运算时,提高了多线程运算的效率。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本申请所提供的实施例中,应所述理解到,所述步骤和单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个步骤可结合为一个步骤,一个步骤可拆分为多个步骤,或一些特征可以忽略等。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。

Claims (10)

1.一种多线程数据架构,其特征在于,包括逻辑变量、逻辑节点、节点列表、神经元、神经元中枢和神经元线程;
所述逻辑变量,用于表示业务范围内所涉及的各个逻辑变量,每一个逻辑变量均有对应的变量名;
所述逻辑节点,用于表示不同逻辑变量之间的因果关系,每个逻辑节点包含代表节点的逻辑变量,以及对所述逻辑变量的状态产生影响的所有上游逻辑变量;
所述节点列表,用于根据逻辑关系记录存储各个实例化的逻辑节点对象;
所述神经元,用于表示逻辑节点内各逻辑变量之间的逻辑推理行为,每个神经元包含代表对应节点的逻辑变量,以及所述逻辑变量与上游逻辑变量实现因果关系的逻辑推理算法;
所述神经元中枢,用于集中存放神经元,在程序开始运行时,实例化后的神经元中枢载入节点列表,并根据节点列表的内容实例化全部的神经元对象,进而根据节点列表记录的逻辑关系构建逻辑网;
所述神经元线程,每个实例化后的神经元线程对象向神经元中枢注册,神经元中枢将注册的神经元线程与对应的神经元对象相关联;神经元对象在感知到输入状态改变后,触发关联的神经元线程对象进行所需运算,进而进行整个逻辑网的多线程运算。
2.根据权利要求1所述的多线程数据架构,其特征在于,所述神经元线程是Bot类的一个子类,继承Bot类的属性和方法。
3.一种多线程消息传递方法,基于权利要求1或2所述的一种多线程数据架构,其特征在于,包括以下步骤:
一个神经元线程对象的工作线程产生消息时,所述神经元线程对象通过fireup函数将消息数据传递给关联的神经元对象;
神经元对象根据消息数据感知到逻辑状态值发生变化时,所述神经元对象调用fire函数将逻辑状态值推送给下游神经元对象;
下游神经元对象在感知到输入的逻辑状态值变化时,唤醒关联的下游神经元线程对象的工作线程,下游神经元线程对象利用input函数接收输入的消息数据,并在自身线程内对消息数据进行处理,从而完成一个线程到另一个工作线程的消息传递。
4.根据权利要求3所述的一种多线程消息传递方法,其特征在于,还包括以下步骤:
初始化每个神经元线程对象,并将每个神经元线程对象与对应的神经元对象相关联。
5.根据权利要求3所述的一种多线程消息传递方法,其特征在于,所述初始化每个神经元线程对象,并将每个神经元线程对象与对应的神经元对象相关联,具体为:
程序启动后实例化神经元中枢和神经元线程对象;
神经元中枢载入节点列表,根据节点列表的内容实例化全部的神经元对象,并根据节点列表记录的逻辑关系构建逻辑网;
神经元线程对象向神经元中枢发送注册信息,神经元中枢将注册的神经元线程对象和对应的神经元对象相关联。
6.根据权利要求3所述的一种多线程消息传递方法,其特征在于,所述神经元对象调用fire函数将逻辑状态值推送给下游神经元对象,具体为:
所述神经元对象查询订阅表,订阅表存储有与所述神经元对象有下游逻辑关系的神经元对象;
根据订阅表得到下游神经元对象;
所述神经元对象调用fire函数将逻辑状态值推送给下游神经元对象。
7.一种多线程消息传递***,基于权利要求1或2所述的一种多线程数据架构,其特征在于,包括消息产生单元、逻辑推送单元和线程跨传单元:
消息产生单元,用于当一个神经元线程对象的工作线程产生消息时,所述神经元线程对象通过fireup函数将消息数据传递给关联的神经元对象;
逻辑推送单元,用于神经元对象根据消息数据,感知到逻辑状态值发生变化时,所述神经元对象调用fire函数将逻辑状态值推送给下游神经元对象;
线程跨传单元,用于下游神经元对象在感知到输入的逻辑状态值变化时,唤醒关联的下游神经元线程对象的工作线程,下游神经元线程对象利用input函数接收输入的消息数据,并在自身线程内对消息数据进行处理,从而完成一个线程到另一个工作线程的消息传递。
8.根据权利要求7所述的一种多线程消息传递***,其特征在于,还包括初始化单元;
所述初始化单元,用于初始化每个神经元线程对象,并将每个神经元线程对象与对应的神经元对象相关联。
9.根据权利要求7所述的一种多线程消息传递***,其特征在于,所述初始化每个神经元线程对象,并将每个神经元线程对象与对应的神经元对象相关联,具体为:
程序启动后实例化神经元中枢和神经元线程对象;
神经元中枢载入节点列表,根据节点列表的内容实例化全部的神经元对象,并根据节点列表记录的逻辑关系构建逻辑网;
神经元线程对象向神经元中枢发送注册信息,神经元中枢将注册的神经元线程对象和对应的神经元对象相关联。
10.根据权利要求7所述的一种多线程消息传递***,其特征在于,所述神经元对象调用fire函数将逻辑状态值推送给下游神经元对象,具体为:
所述神经元对象查询订阅表,订阅表存储有与所述神经元对象有下游逻辑关系的神经元对象;
根据订阅表得到下游神经元对象;
所述神经元对象调用fire函数将逻辑状态值推送给下游神经元对象。
CN202010311396.7A 2020-04-20 2020-04-20 一种多线程数据***、多线程消息传递方法及*** Active CN111552563B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010311396.7A CN111552563B (zh) 2020-04-20 2020-04-20 一种多线程数据***、多线程消息传递方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010311396.7A CN111552563B (zh) 2020-04-20 2020-04-20 一种多线程数据***、多线程消息传递方法及***

Publications (2)

Publication Number Publication Date
CN111552563A true CN111552563A (zh) 2020-08-18
CN111552563B CN111552563B (zh) 2023-04-07

Family

ID=71998528

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010311396.7A Active CN111552563B (zh) 2020-04-20 2020-04-20 一种多线程数据***、多线程消息传递方法及***

Country Status (1)

Country Link
CN (1) CN111552563B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115866035A (zh) * 2022-11-30 2023-03-28 广东舜势测控设备有限公司 多线程数据高速推送方法、***、控制器及存储介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102594927A (zh) * 2012-04-05 2012-07-18 高汉中 基于神经网络的云端服务器结构
CN103488662A (zh) * 2013-04-01 2014-01-01 哈尔滨工业大学深圳研究生院 基于图形处理单元的自组织映射神经网络聚类方法及***
CN105550749A (zh) * 2015-12-09 2016-05-04 四川长虹电器股份有限公司 一种新型网络拓扑结构的卷积神经网络的构造方法
CN105574585A (zh) * 2015-12-14 2016-05-11 四川长虹电器股份有限公司 基于多线程互斥的神经网络模型的样本训练方法
CN106648816A (zh) * 2016-12-09 2017-05-10 武汉斗鱼网络科技有限公司 多线程处理***及方法
CN108763360A (zh) * 2018-05-16 2018-11-06 北京旋极信息技术股份有限公司 一种分类方法及装置、计算机可读存储介质
CN110135575A (zh) * 2017-12-29 2019-08-16 英特尔公司 用于分布式机器学习的通信优化
CN110175071A (zh) * 2019-04-09 2019-08-27 南昌嘉研科技有限公司 一种多线程程序架构方法及架构***
CN110309913A (zh) * 2018-03-27 2019-10-08 英特尔公司 神经形态加速器多任务处理
CN110322010A (zh) * 2019-07-02 2019-10-11 深圳忆海原识科技有限公司 用于类脑智能与认知计算的脉冲神经网络运算***及方法
WO2019218896A1 (zh) * 2018-05-18 2019-11-21 上海寒武纪信息科技有限公司 计算方法以及相关产品
CN110991626A (zh) * 2019-06-28 2020-04-10 广东工业大学 一种多cpu类脑模拟***

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102594927A (zh) * 2012-04-05 2012-07-18 高汉中 基于神经网络的云端服务器结构
CN103488662A (zh) * 2013-04-01 2014-01-01 哈尔滨工业大学深圳研究生院 基于图形处理单元的自组织映射神经网络聚类方法及***
CN105550749A (zh) * 2015-12-09 2016-05-04 四川长虹电器股份有限公司 一种新型网络拓扑结构的卷积神经网络的构造方法
CN105574585A (zh) * 2015-12-14 2016-05-11 四川长虹电器股份有限公司 基于多线程互斥的神经网络模型的样本训练方法
CN106648816A (zh) * 2016-12-09 2017-05-10 武汉斗鱼网络科技有限公司 多线程处理***及方法
CN110135575A (zh) * 2017-12-29 2019-08-16 英特尔公司 用于分布式机器学习的通信优化
CN110309913A (zh) * 2018-03-27 2019-10-08 英特尔公司 神经形态加速器多任务处理
CN108763360A (zh) * 2018-05-16 2018-11-06 北京旋极信息技术股份有限公司 一种分类方法及装置、计算机可读存储介质
WO2019218896A1 (zh) * 2018-05-18 2019-11-21 上海寒武纪信息科技有限公司 计算方法以及相关产品
CN110175071A (zh) * 2019-04-09 2019-08-27 南昌嘉研科技有限公司 一种多线程程序架构方法及架构***
CN110991626A (zh) * 2019-06-28 2020-04-10 广东工业大学 一种多cpu类脑模拟***
CN110322010A (zh) * 2019-07-02 2019-10-11 深圳忆海原识科技有限公司 用于类脑智能与认知计算的脉冲神经网络运算***及方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
ZHONGWEI LIN等: "An asynchronous GVT computing algorithm in neuron time warp-multi thread", 《2015 WINTER SIMULATION CONFERENCE (WSC)》 *
周媛等: "用于能耗数据分析的改进并行BP算法", 《计算机工程》 *
唐舸轩: "面向异构平台的深度学习并行优化算法研究与实现", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
徐频捷等: "基于脉冲神经网络与移动GPU计算的图像分类算法研究与实现", 《计算机工程与科学》 *
梁君泽: "多CPU类脑模拟***架构研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
王玉哲等: "仿生物型人工神经网络的探索与实现", 《计算机工程与设计》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115866035A (zh) * 2022-11-30 2023-03-28 广东舜势测控设备有限公司 多线程数据高速推送方法、***、控制器及存储介质
CN115866035B (zh) * 2022-11-30 2024-07-09 广东舜势测控设备有限公司 多线程数据高速推送方法、***、控制器及存储介质

Also Published As

Publication number Publication date
CN111552563B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
Dignum et al. A modal approach to intentions, commitments and obligations: Intention plus commitment yields obligation
US20130061231A1 (en) Configurable computing architecture
Shunkevich Ontology-based design of knowledge processing machines
Chandra et al. COOL: A language for parallel programming
Eden A theory of object-oriented design
CN111552563B (zh) 一种多线程数据***、多线程消息传递方法及***
Carrión Kubernetes as a standard container orchestrator-a bibliometric analysis
Fonseca et al. Agent behavior architectures a MAS framework comparison
Tsutsui et al. An analytical study of GPU computation for solving QAPs by parallel evolutionary computation with independent run
Carvalho Junior et al. Towards an architecture for component‐oriented parallel programming
Bardakoff et al. Hedgehog: understandable scheduler-free heterogeneous asynchronous multithreaded data-flow graphs
Warren A model for dynamic configuration which preserves application integrity
Palacz et al. An agent-based workflow management system
Di Pierro et al. Continuous-time probabilistic KLAIM
Diaconescu A framework for using component redundancy for self-adapting and self-optimising component-based enterprise systems
Zuo High level support for distributed computation in weka
Setzkorn et al. JavaSpaces–an affordable technology for the simple implementation of reusable parallel evolutionary algorithms
US20040049655A1 (en) Method and apparatus for communication to threads of control through streams
US20080027959A1 (en) System and method for automatic application management
Tian et al. A Multiprocessing Framework for Heterogeneous Biomedical Embedded Systems with the Proposal of a Finite State Machine-Based Architecture
Tokoro et al. Concurrent programming in Orient84/K: an object-oriented knowledge representation language
Nowicki et al. Scalable computing in Java with PCJ Library. Improved collective operations
Bader et al. Testing concurrency and communication in distributed objects
Ovatman et al. Model Driven Cache-Aware Scheduling of Object Oriented Software for Chip Multiprocessors
Niranjanamurthy et al. Efficient file downloading and distribution using grid computing for intelligent applications

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant