CN112434813A - 基于面向属性语言概念格的多重多维语言推理方法 - Google Patents

基于面向属性语言概念格的多重多维语言推理方法 Download PDF

Info

Publication number
CN112434813A
CN112434813A CN202011209073.3A CN202011209073A CN112434813A CN 112434813 A CN112434813 A CN 112434813A CN 202011209073 A CN202011209073 A CN 202011209073A CN 112434813 A CN112434813 A CN 112434813A
Authority
CN
China
Prior art keywords
language
rule
attribute
decision
oriented
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011209073.3A
Other languages
English (en)
Other versions
CN112434813B (zh
Inventor
刘新
崔慧
邹丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Liaoning Normal University
Original Assignee
Liaoning Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Liaoning Normal University filed Critical Liaoning Normal University
Priority to CN202011209073.3A priority Critical patent/CN112434813B/zh
Publication of CN112434813A publication Critical patent/CN112434813A/zh
Application granted granted Critical
Publication of CN112434813B publication Critical patent/CN112434813B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于面向属性语言概念格的多重多维语言推理方法,按照如下步骤进行:数据处理,用语言术语集表示形式背景中对象与属性间的关系;定义具有语言信息的近似算子,构建面向属性语言概念格;研究语言决策形式背景,提取基于优势关系的语言决策规则;通过获取的面向属性语言决策规则,建立多重多维语言推理模型;将多重多维语言推理模型输入到神经网络中,直接利用神经网络对语言决策规则进行自适应学习;计算规则库中各节点的权重并对具有语言信息的规则做不确定性推理。

Description

基于面向属性语言概念格的多重多维语言推理方法
技术领域
本发明属于智能信息处理技术,具体涉及一种基于面向属性语言概念格的多重多维语言推理方法。
背景技术
推理方法是计算机模拟人类的思维方式进行智能决策,可减少对人类专家经验的依赖,提高了智能决策的自动化程度,提高决策的准确性和可靠性。
形式概念分析是Wille于1982年提出的一种基于形式背景分析概念层次结构的推理方法,其核心是形式概念和概念格,数据源为形式背景。形式概念是一个由对象(外延)和对象共同具有的属性(内涵)构成的二元组,通过伽罗瓦链接,概念格以超概念与亚概念层次的形式在所有已发现的概念间完成了图形结构的可视化。它从本质上描述了对象和属性之间的关系,并显示了概念之间的泛化与特化关系,已经在人工智能、软件工程、数据挖掘、信息检索等许多领域得到了广泛的关注和研究。
目前,国内外的学者对形式概念分析的研究已经获得了显著的成果,Godin等提出了一种用于更新Galois格和相应图的增量概念形成方法,其在大多数情况下都优于批处理算法,更加高效简洁地生成概念格。Blohlavek从模糊逻辑的角度出发,研究了概念格的理论,给出对象具有属性的模糊值,提出模糊形式背景,构建模糊的层次结构。随后,Yao等又结合了三支决策的思想,从正、负算子两方面扩展了概念格,提出三支概念格及基于属性(对象)导出的三支概念格,并分析它们之间的关系。粗糙集由Z.Pawlak在1982年提出之后,Yao将粗糙集理论的思想整合到形式概念分析中,构建面向对象的概念格。在面向对象概念格研究中,近年来取得了一些新的进展。例如,Ma等通过讨论分层扩展集的性质,引入了一种新颖的方法来获取面向对象概念格。Qi等研究了形式概念分析与粗糙集上约简的关系,为了更容易发现数据间的隐含知识,表示更简单,又提出一种使用不可约元素进行属性约简的新方法,即面向对象(属性)概念格的约简方法,进一步提高概念格构建方法的效率。
在许多复杂***的信息处理中,经常遇到许多类型的不确定性描述知识,这些知识可能是数值、语言值等。概率推理、证据推理、模糊推理等方法都是处理不确定的知识的有效推理方法。为了更准确地说明估算父母人口年龄分布的不确定性,Tye等介绍了一种从碎屑锆石样品中推断出一组概率模型(PME)的新方法。Soares等结合证据推理来整合不完整的模糊信息,并将理想解决方案的相似性优先技术(TOPSIS)纳入应急响应决策中,以应对无订单船舶。在模糊控制问题中,模糊推理一直是一项重要的理论基础研究方法,Zadeh于1973年首次提出模糊分离算法(FMP),由Mamdani等提出组成推理规则(CRI)是模糊推理方法的基本方法,在当今已得到广泛应用。邹等研究了语言真值直觉模糊命题逻辑L2nP(S)的自动推理方法,并建立了语言真值直觉模糊命题逻辑***L2nP(S)。研究了T运算和F运算的三段论,提出了一种语言值直觉模糊推理方法。刘等将语言信息引入形式概念分析,并提出了语言值直觉的模糊概念格和模糊语言概念格,以解决不确定性推理问题,这为形式概念分析领域提供了新的思路。在过去的两年中,基于机器学***的学习能力接近的AI开辟了新的方向。Ristic等涵盖了知识表示和不确定性推理的主要方法,尤其是贝叶斯概率论、可能性理论、基于信念函数的推理、不精确概率论,它结合了不确定性信息和不确定性下的决策任务所需的规则,为MATLAB提供了解决方案。Yang等提出了基于证据推理方法的置信规则库推理方法(Rule-base Inference Methodology Using the Evidential Reasoning,RIMER),通过置信度分布表示建立规则,处理不同类型的不确定性知识。Watada等提出了一种结合结构学习和模糊推理的Gaussian-PSO方法来训练神经网络,通过修改网络结构有效地缩短了计算时间。为了解决多维稀疏规则条件下的模糊推理并处理多个变量之间的相互关系,Hassan等提出了一种基于CMAC神经网络的多重多维模糊推理方法,以减少推理结果的误差。
针对形式概念分析中对象是否具有属性的问题研究的很多,但是,对象与属性之间的群体情况研究很少,尤其是对决策形式背景与多重多维推理这两个重要主题的研究,此外,由于概念格仍然不能处理语言信息,容易造成信息缺失。
发明内容
本发明是为了解决现有技术所存在的上述技术问题,提供一种基于面向属性语言概念格的多重多维语言推理方法
本发明的技术解决方案是:一种基于面向属性语言概念格的多重多维推理方法,其特征在于按照步骤如下:
步骤1:数据采集与预处理
设定表示对象与属性间语言值关系的语言术语集S={sl|l=0,1,…,g},g为偶数,且有如下的序关系s0<s1<...<sg-1<sg,构成语言形式背景(U,A,S),所述对象U={xi|i=1,2,…,n},属性A={aj|j=1,2,…,m},
Figure BDA0002758042460000031
即S(xi,aj)=sl
步骤2:构造面向属性语言概念格
基于语言形式背景(U,A,S),设AS为语言术语集S定义在属性集A上的语言值集,对于对象子集
Figure BDA0002758042460000032
与属性上的语言值子集
Figure BDA0002758042460000033
定义算子:
Figure BDA0002758042460000034
Figure BDA0002758042460000035
构造面向属性语言概念及面向属性语言概念格;
步骤3:获取面向属性语言概念格上的语言决策规则
步骤3.1通过面向属性语言决策概念获取语言决策规则:加入决策属性,
将语言形式背景(U,A,S)扩展为语言决策形式背景(U,A,S,C,K),其中,C={c}为决策属性集,K为U与C之间的语言关系,即
Figure BDA0002758042460000036
设CK为语言术语集K定义在决策属性集C上的语言值集,对于对象子集
Figure BDA0002758042460000037
与决策属性C上的语言值子集
Figure BDA0002758042460000038
定义算子:
Figure BDA0002758042460000039
构造面向属性语言决策概念与面向属性语言决策概念格,由面向属性语言决策概念(X,B,D)获得对象不为空集条件下的语言决策规则B→D,将所有的语言决策规则都记入Ω(U)中;
步骤3.2获取扩展规则:对于效益型的一致规则,即条件属性所对的语言值越大,决策属性值所对的语言值也越大的规则,若出现以下的规则前件,则通过规则前件间的优势关系更新更多的语言决策规则如下:
4)当
Figure BDA0002758042460000041
则该规则的后件对应的语言决策结果为
Figure BDA0002758042460000042
5)当
Figure BDA0002758042460000043
Figure BDA0002758042460000044
则该规则的后件对应的语言
决策结果为
Figure BDA0002758042460000045
6)当
Figure BDA0002758042460000046
则该规则的后件对应的语言决策结果为
Figure BDA0002758042460000047
其中,
Figure BDA0002758042460000048
是后件为
Figure BDA0002758042460000049
的前件,
Figure BDA00027580424600000410
是后件为
Figure BDA00027580424600000411
的最小前件,
Figure BDA00027580424600000412
是后件为
Figure BDA00027580424600000413
的最大前件,且
Figure BDA00027580424600000414
即若某规则前件大于或等于后件为
Figure BDA00027580424600000415
的规则前件,则该规则对应的后件也为
Figure BDA00027580424600000416
若某规则前件处在后件为
Figure BDA00027580424600000417
的最大前件与最小前件之间,则该规则对应的后件为
Figure BDA00027580424600000418
若某规则前件小于或等于后件为
Figure BDA00027580424600000419
的规则前件,则该规则对应的后件也为
Figure BDA00027580424600000420
对于前件中语言不可比的情况,则选取几个最大值与最小值,分别按照步骤3.2的方法提取语言决策规则;
步骤3.3剔除大数据背景下的不合理规则:将面向属性语言决策概念与扩展规则获取的所有规则与语言决策形式背景下的原始规则对比,若该规则前件大于原始规则,而后件却小,则视为不合理规则,剔除;若该规则后件小于原始规则,而后件却大,视为不合理规则,剔除;更新规则计入Ω(U)中;
步骤4.构建多重多维语言推理模型,对已知条件进行推理
步骤4.1对于结果未知的已知事实,利用已知的面向属性语言决策规则建立多重多维语言推理模型:
Figure BDA00027580424600000421
Figure BDA0002758042460000051
其中B11,B12,...,B1m,B21,B22,...,B2m,...,Bv1,Bv2,...,Bvm是描述前件中条件属性的语言值,D1,D2,...,Dv是描述后件中决策属性的语言值,
Figure BDA0002758042460000052
Figure BDA0002758042460000053
是输入的条件属性所对应的语言值,D*是输出的决策属性所对应的语言值;
步骤4.2利用神经网络进行推理
将所述多重多维语言推理模型中的v个语言决策规则输入到BP神经网络中,通过反向误差传播,不断地修正各条件属性以及对应各节点的权重大小,利用梯度下降法使误差值最小,最后输入已知事实
Figure BDA0002758042460000054
通过神经网络输出D*对应的语言值,针对不同条件输出不同的预测结果。
本发明基于优势关系提出的面向属性的语言决策规则成功扩展了语言决策规则集,反映了更广泛的语言决策知识,将面向属性的语言概念格获得的规则应用于不确定性知识的推理问题,具有一定的准确性和说服力,更符合实际问题。建立了多重多维语言推理模型,通过神经网络赋予客观的节点权重,实现了语言决策规则上的合理推理。将语言值加入到推理问题中,更加符合人类的正常思维,避免了信息缺失,提高了预测结果的准确率。
附图说明
图1为本发明实施例的流程图。
图2为本发明实施例面向属性语言概念格的结构图。
图3为本发明实施例面向属性语言决策概念格的结构图。
具体实施方式
本发明实施例是将本发明应用于大学生的语言编程能力预测问题,推断学生以及实验室整体语言编程水平的最终评估结果,流程如图1。
步骤1:数据采集与预处理
设定表示对象与属性间语言值关系的语言术语集S={sl|l=0,1,…,g},g为偶数,且有如下的序关系s0<s1<...<sg-1<sg,构成语言形式背景(U,A,S),所述对象U={xi|i=1,2,…,n},属性A={aj|j=1,2,…,m},
Figure BDA0002758042460000055
即S(xi,aj)=sl
如对对象集的七个学生U={x1,x2,x3,x4,x5,x6,x7}与属性集的四种语言编程软件水平A={a1=Python水平,a2=C语言水平,a3=C++水平,a4=JAVA水平}进行评价时,设定表示对象与属性间语言值关系的语言术语集g为4,S={s0=不及格,s1=及格,s2=中等,s3=良好,s4=优秀}且有如下的序关系s0<s1<...<s3<s4,构成学生语言编程学习情况决策形式背景(U,A,S)且
Figure BDA0002758042460000061
具体如表1。
表1
Figure BDA0002758042460000062
步骤2:构造面向属性语言概念格
基于语言形式背景(U,A,S),设AS为语言术语集S定义在属性集A上的语言值集,对于对象子集
Figure BDA0002758042460000063
与属性上的语言值子集
Figure BDA0002758042460000064
定义算子:
Figure BDA0002758042460000065
Figure BDA0002758042460000066
构造面向属性语言概念及面向属性语言概念格,结果见表2与图2。
表2
Figure BDA0002758042460000067
Figure BDA0002758042460000071
步骤3:获取面向属性语言概念格上的语言决策规则
步骤3.1通过面向属性语言决策概念获取语言决策规则:加入决策属性,
将语言形式背景(U,A,S)扩展为语言决策形式背景(U,A,S,C,K),见表3,其中,C={c}为决策属性集,K为U与C之间的语言关系,即
Figure BDA0002758042460000072
设CK为语言术语集K定义在决策属性集C上的语言值集,对于对象子集
Figure BDA0002758042460000073
与决策属性C上的语言值子集
Figure BDA0002758042460000074
定义算子:
Figure BDA0002758042460000075
构造面向属性语言决策概念与面向属性语言决策概念格,结果见表4与图3。由面向属性语言决策概念(X,B,D)获得对象不为空集条件下的语言决策规则B→D,将所有的语言决策规则都记入Ω(U)中,见表5。
表3
Figure BDA0002758042460000076
表4
Figure BDA0002758042460000077
Figure BDA0002758042460000081
表5
Figure BDA0002758042460000082
步骤3.2获取扩展规则:对于效益型的一致规则,即条件属性所对的语言值越大,决策属性值所对的语言值也越大的规则,若出现以下的规则前件,则通过规则前件间的优势关系更新更多的语言决策规则如下:
7)当
Figure BDA0002758042460000083
则该规则的后件对应的语言决策结果为
Figure BDA0002758042460000084
8)当
Figure BDA0002758042460000085
Figure BDA0002758042460000086
则该规则的后件对应的语言决策结果为
Figure BDA0002758042460000087
9)当
Figure BDA0002758042460000088
则该规则的后件对应的语言决策结果为
Figure BDA0002758042460000089
其中,
Figure BDA00027580424600000810
是后件为
Figure BDA00027580424600000811
的前件,
Figure BDA00027580424600000812
是后件为
Figure BDA00027580424600000813
的最小前件,
Figure BDA00027580424600000814
是后件为
Figure BDA0002758042460000091
的最大前件,且
Figure BDA0002758042460000092
即若某规则前件大于或等于后件为
Figure BDA0002758042460000093
的规则前件,则该规则对应的后件也为
Figure BDA0002758042460000094
若某规则前件处在后件为
Figure BDA0002758042460000095
的最大前件与最小前件之间,则该规则对应的后件为
Figure BDA0002758042460000096
若某规则前件小于或等于后件为
Figure BDA0002758042460000097
的规则前件,则该规则对应的后件也为
Figure BDA0002758042460000098
对于前件中语言不可比的情况,则选取几个最大值与最小值,分别按照步骤3.2的方法提取语言决策规则;
步骤3.3剔除大数据背景下的不合理规则:将面向属性语言决策概念与扩展规则获取的所有规则与语言决策形式背景下的原始规则对比,若该规则前件大于原始规则,而后件却小,则视为不合理规则,剔除;若该规则后件小于原始规则,而后件却大,视为不合理规则,剔除;更新规则计入Ω(U)中,更新规则计入Ω(U)中,见表6。
表6
Figure BDA0002758042460000099
步骤4.构建多重多维语言推理模型,对已知条件进行推理
步骤4.1对于结果未知的已知事实,利用已知的面向属性语言决策规则建立多重多维语言推理模型:
Figure BDA0002758042460000101
其中B11,B12,...,B1m,B21,B22,...,B2m,...,Bv1,Bv2,...,Bvm是描述前件中条件属性的语言值,D1,D2,...,Dv是描述后件中决策属性的语言值,
Figure BDA0002758042460000102
Figure BDA0002758042460000103
是输入的条件属性所对应的语言值,D*是输出的决策属性所对应的语言值;
具体如下:若各项语言编程水平分别为a1---s3,a2---s2,a3---s3,a4---s1要想预测出综合能力水平则可以根据以上24条面向属性语言决策规则建立以下多重多维语言推理模型:
Figure BDA0002758042460000104
步骤4.2利用神经网络进行推理
将上述24个语言决策规则构成的多重多维语言推理模型输入到BP神经网络中,通过反向误差传播,不断地修正各条件属性以及对应各节点的权重大小,利用梯度下降法使误差值最小,最后输入已知事实s3,s2,s3,s1,通过神经网络输出D*对应的语言值为s2,即若某位学生或某个实验室的Python水平良好,C语言水平中等,C++水平良好,JAVA水平为及格,则该名学生或该实验室的语言编程能力综合水平为中等。

Claims (1)

1.一种基于面向属性语言概念格的多重多维推理方法,其特征在于按照步骤如下:
步骤1:数据采集与预处理
设定表示对象与属性间语言值关系的语言术语集S={sl|l=0,1,…,g},g为偶数,且有如下的序关系s0<s1<...<sg-1<sg,构成语言形式背景(U,A,S),所述对象U={xi|i=1,2,…,n},属性A={aj|j=1,2,…,m},
Figure FDA0002758042450000011
即S(xi,aj)=sl
步骤2:构造面向属性语言概念格
基于语言形式背景(U,A,S),设AS为语言术语集S定义在属性集A上的语言值集,对于对象子集
Figure FDA0002758042450000012
与属性上的语言值子集
Figure FDA0002758042450000013
定义算子:
Figure FDA0002758042450000014
Figure FDA0002758042450000015
构造面向属性语言概念及面向属性语言概念格;
步骤3:获取面向属性语言概念格上的语言决策规则
步骤3.1通过面向属性语言决策概念获取语言决策规则:加入决策属性,
将语言形式背景(U,A,S)扩展为语言决策形式背景(U,A,S,C,K),其中,C={c}为决策属性集,K为U与C之间的语言关系,即
Figure FDA0002758042450000016
设CK为语言术语集K定义在决策属性集C上的语言值集,对于对象子集
Figure FDA0002758042450000017
与决策属性C上的语言值子集
Figure FDA0002758042450000018
定义算子:
Figure FDA0002758042450000019
构造面向属性语言决策概念与面向属性语言决策概念格,由面向属性语言决策概念(X,B,D)获得对象不为空集条件下的语言决策规则B→D,将所有的语言决策规则都记入Ω(U)中;
步骤3.2获取扩展规则:对于效益型的一致规则,即条件属性所对的语言值越大,决策属性值所对的语言值也越大的规则,若出现以下的规则前件,则通过规则前件间的优势关系更新更多的语言决策规则如下:
1)当
Figure FDA0002758042450000021
则该规则的后件对应的语言决策结果为
Figure FDA0002758042450000022
2)当
Figure FDA0002758042450000023
Figure FDA0002758042450000024
则该规则的后件对应的语言决策结果为
Figure FDA0002758042450000025
3)当
Figure FDA0002758042450000026
则该规则的后件对应的语言决策结果为
Figure FDA0002758042450000027
其中,
Figure FDA0002758042450000028
是后件为
Figure FDA0002758042450000029
的前件,
Figure FDA00027580424500000210
是后件为
Figure FDA00027580424500000211
的最小前件,
Figure FDA00027580424500000212
是后件为
Figure FDA00027580424500000213
的最大前件,且
Figure FDA00027580424500000214
即若某规则前件大于或等于后件为
Figure FDA00027580424500000215
的规则前件,则该规则对应的后件也为
Figure FDA00027580424500000216
若某规则前件处在后件为
Figure FDA00027580424500000217
的最大前件与最小前件之间,则该规则对应的后件为
Figure FDA00027580424500000218
若某规则前件小于或等于后件为
Figure FDA00027580424500000219
的规则前件,则该规则对应的后件也为
Figure FDA00027580424500000220
对于前件中语言不可比的情况,则选取几个最大值与最小值,分别按照步骤3.2的方法提取语言决策规则;
步骤3.3剔除大数据背景下的不合理规则:将面向属性语言决策概念与扩展规则获取的所有规则与语言决策形式背景下的原始规则对比,若该规则前件大于原始规则,而后件却小,则视为不合理规则,剔除;若该规则后件小于原始规则,而后件却大,视为不合理规则,剔除;更新规则计入Ω(U)中;
步骤4.构建多重多维语言推理模型,对已知条件进行推理
步骤4.1对于结果未知的已知事实,利用已知的面向属性语言决策规则建立多重多维语言推理模型:
Figure FDA00027580424500000221
其中B11,B12,...,B1m,B21,B22,...,B2m,...,Bv1,Bv2,...,Bvm是描述前件中条件属性的语言值,D1,D2,...,Dv是描述后件中决策属性的语言值,
Figure FDA0002758042450000031
是输入的条件属性所对应的语言值,D*是输出的决策属性所对应的语言值;
步骤4.2利用神经网络进行推理
将所述多重多维语言推理模型中的v个语言决策规则输入到BP神经网络中,通过反向误差传播,不断地修正各条件属性以及对应各节点的权重大小,利用梯度下降法使误差值最小,最后输入已知事实
Figure FDA0002758042450000032
通过神经网络输出D*对应的语言值,针对不同条件输出不同的预测结果。
CN202011209073.3A 2020-11-03 2020-11-03 基于面向属性语言概念格的多重多维语言推理方法 Active CN112434813B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011209073.3A CN112434813B (zh) 2020-11-03 2020-11-03 基于面向属性语言概念格的多重多维语言推理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011209073.3A CN112434813B (zh) 2020-11-03 2020-11-03 基于面向属性语言概念格的多重多维语言推理方法

Publications (2)

Publication Number Publication Date
CN112434813A true CN112434813A (zh) 2021-03-02
CN112434813B CN112434813B (zh) 2023-07-11

Family

ID=74695229

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011209073.3A Active CN112434813B (zh) 2020-11-03 2020-11-03 基于面向属性语言概念格的多重多维语言推理方法

Country Status (1)

Country Link
CN (1) CN112434813B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113539375A (zh) * 2021-07-16 2021-10-22 河北大学 一种基于三支半概念的生物信息类提取方法
CN113553399A (zh) * 2021-07-16 2021-10-26 山东建筑大学 基于模糊语言近似概念格的文本搜索方法及***
CN114049956A (zh) * 2022-01-12 2022-02-15 山东建筑大学 基于属性导出模糊对象语言概念格的疾病诊断预测***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150019462A1 (en) * 2013-07-15 2015-01-15 Senscio Systems Systems and methods for semantic reasoning
US20160078345A1 (en) * 2014-09-12 2016-03-17 Chevron U.S.A. Inc. Linguistic Goal Oriented Decision Making
CN107578106A (zh) * 2017-09-18 2018-01-12 中国科学技术大学 一种融合单词语义知识的神经网络自然语言推理方法
CN111597217A (zh) * 2020-05-07 2020-08-28 辽宁师范大学 基于模糊对象语言概念格的个性化推荐方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150019462A1 (en) * 2013-07-15 2015-01-15 Senscio Systems Systems and methods for semantic reasoning
US20160078345A1 (en) * 2014-09-12 2016-03-17 Chevron U.S.A. Inc. Linguistic Goal Oriented Decision Making
CN107578106A (zh) * 2017-09-18 2018-01-12 中国科学技术大学 一种融合单词语义知识的神经网络自然语言推理方法
CN111597217A (zh) * 2020-05-07 2020-08-28 辽宁师范大学 基于模糊对象语言概念格的个性化推荐方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
崔慧;曹仪铭;罗思元;邹丽;: "模糊语言概念格及其规则提取", 高师理科学刊, no. 03 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113539375A (zh) * 2021-07-16 2021-10-22 河北大学 一种基于三支半概念的生物信息类提取方法
CN113553399A (zh) * 2021-07-16 2021-10-26 山东建筑大学 基于模糊语言近似概念格的文本搜索方法及***
CN113539375B (zh) * 2021-07-16 2022-03-15 河北大学 一种基于三支半概念的生物信息类提取方法
CN113553399B (zh) * 2021-07-16 2022-05-27 山东建筑大学 基于模糊语言近似概念格的文本搜索方法及***
CN114049956A (zh) * 2022-01-12 2022-02-15 山东建筑大学 基于属性导出模糊对象语言概念格的疾病诊断预测***
CN114049956B (zh) * 2022-01-12 2022-06-24 山东建筑大学 基于属性导出模糊对象语言概念格的疾病诊断预测***

Also Published As

Publication number Publication date
CN112434813B (zh) 2023-07-11

Similar Documents

Publication Publication Date Title
CN112434813A (zh) 基于面向属性语言概念格的多重多维语言推理方法
Konar et al. Reasoning and unsupervised learning in a fuzzy cognitive map
Fernández-Riverola et al. Employing tsk fuzzy models to automate the revision stage of a cbr system
US11651216B2 (en) Automatic XAI (autoXAI) with evolutionary NAS techniques and model discovery and refinement
Sharma Designing and modeling fuzzy control Systems
CN107451230A (zh) 一种问答方法以及问答***
Cui et al. Multiple multidimensional linguistic reasoning algorithm based on property-oriented linguistic concept lattice
Tan et al. Application of genetic algorithm for fuzzy rules optimization on semi expert judgment automation using Pittsburg approach
Gegov et al. Rule base simplification in fuzzy systems by aggregation of inconsistent rules
Cao et al. Fast and explainable warm-start point learning for AC Optimal Power Flow using decision tree
Zhang et al. BRN: A belief rule network model for the health evaluation of complex systems
Balazs et al. Hierarchical-interpolative fuzzy system construction by genetic and bacterial memetic programming approaches
Chernyshev et al. Integration of building information modeling and artificial intelligence systems to create a digital twin of the construction site
Razak et al. Decomposing Conventional Fuzzy Logic Systems to Hierarchical Fuzzy Systems
CN111460275A (zh) 一种面向社交网络的动态网络表示学习方法及***
CN115440387A (zh) 基于人工智能的居民呼吸道传染病监测预警***及方法
CN112862211A (zh) 通信管理***动环缺陷派单方法及装置
Ren et al. Fuzzy multi-state fault tree analysis based on fuzzy expert system
Chen et al. An Attribute Reduction Algorithm Based on Rough Set Theory and an Improved Genetic Algorithm.
CN111950691A (zh) 一种基于潜在动作表示空间的强化学习策略学习方法
Lee et al. A causal knowledge-driven inference engine for expert system
Wu et al. A Bayesian network learning method with easy reasoning
CN118227800A (zh) 融合关系描述和关系传递的知识图谱补全方法及***
Misnik et al. Technique for development of information-analytical processes in cyber-physical systems based on neural-fuzzy petri nets
Morales-Hernández et al. Encore Abstract:“Online learning of windmill time series using Long Short-term Cognitive Networks”

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant