CN113836304A - 一种基于自然语言处理的智能打标签方法及*** - Google Patents

一种基于自然语言处理的智能打标签方法及*** Download PDF

Info

Publication number
CN113836304A
CN113836304A CN202111136132.3A CN202111136132A CN113836304A CN 113836304 A CN113836304 A CN 113836304A CN 202111136132 A CN202111136132 A CN 202111136132A CN 113836304 A CN113836304 A CN 113836304A
Authority
CN
China
Prior art keywords
label
model
text
natural language
labeling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111136132.3A
Other languages
English (en)
Inventor
李钊
卢凤
孙静蕾
李欣欣
孙露
孙浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Ecloud Information Technology Co ltd
Original Assignee
Shandong Ecloud Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Ecloud Information Technology Co ltd filed Critical Shandong Ecloud Information Technology Co ltd
Priority to CN202111136132.3A priority Critical patent/CN113836304A/zh
Publication of CN113836304A publication Critical patent/CN113836304A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/117Tagging; Marking up; Designating a block; Setting of attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于自然语言处理的智能打标签方法及***,包括:构建训练集和测试集;基于训练集和测试集,构建标签模型;其中,所述训练集和测试集,均为已知标签的多个字段文本;对已经构建的标签模型进行封装,生成接口;对接口进行配置;获取待处理的文本数据;调用配置,对待处理的自然语言进行打标签处理。本发明的实施使得文本打标签任务实现了模型构建、测试、上线、执行及文本打标签全流程的自动化,大大提高了工作效率,节省公司的人力成本,同时经验证,该发明也取得较高的准确率。

Description

一种基于自然语言处理的智能打标签方法及***
技术领域
本发明涉及智能标签技术领域,特别是涉及一种基于自然语言处理的智能打标签方法及***。
背景技术
本部分的陈述仅仅是提到了与本发明相关的背景技术,并不必然构成现有技术。
大数据时代文本信息数据大量涌现,越来越多的文本数据进入存储数据库进行统一保存,那么如何对数据库中的海量文本数据进行统一管理、标签化是当下需要重点解决的问题。但是现有文本标签化方法大多集中在仅处理单一字段文本内容,没有实现对数据库中所有字段文本信息标签化完整流程的构建,同时也缺少对文本标签任务的闭环管理。因此,需要结合文本标签任务实际应用场景,构建自动化文本标签化方法对海量文本进行标签化处理,同时实现文本标签任务的闭环是该任务的核心问题。
发明内容
为了解决现有技术的不足,本发明提供了一种基于自然语言处理的智能打标签方法及***;首先构建数据库文本打标签任务流程,然后构建基于自然语言处理的文本标签处理模型,将数据库中待处理文本数据选择对应模型匹配完成标签任务创建,最后根据任务执行规则自动进行文本智能标签化。从而完成采用基于自然语言处理实现对数据库中文本信息数据智能打标签的工作。
第一方面,本发明提供了一种基于自然语言处理的智能打标签方法;
一种基于自然语言处理的智能打标签方法,包括:
构建训练集和测试集;基于训练集和测试集,构建标签模型;其中,所述训练集和测试集,均为已知标签的多个字段文本;
对已经构建的标签模型进行封装,生成接口;
对接口进行配置;
获取待处理的文本数据;调用配置,对待处理的自然语言进行打标签处理。
第二方面,本发明提供了一种基于自然语言处理的智能打标签***;
一种基于自然语言处理的智能打标签***,包括:
构建模块,其被配置为:构建训练集和测试集;基于训练集和测试集,构建标签模型;其中,所述训练集和测试集,均为已知标签的多个字段文本;
封装模块,其被配置为:对已经构建的标签模型进行封装,生成接口;
配置模块,其被配置为:对接口进行配置;
打标签模块,其被配置为:获取待处理的文本数据;调用配置,对待处理的自然语言进行打标签处理。
第三方面,本发明还提供了一种电子设备,包括:
存储器,用于非暂时性存储计算机可读指令;以及
处理器,用于运行所述计算机可读指令,
其中,所述计算机可读指令被所述处理器运行时,执行上述第一方面所述的方法。
第四方面,本发明还提供了一种存储介质,非暂时性地存储计算机可读指令,其中,当所述非暂时性计算机可读指令由计算机执行时,执行第一方面所述方法的指令。
与现有技术相比,本发明的有益效果是:
在实际工作中,由人工进行数据打标签工作费时、费力,但是在引入标签模型后,也只能减轻一部分人工操作。尤其是在模型更新或者打标签数据更新后,不能实现对已有标签模型和打标签方法的复用,这就造成了公司人力成本和开发成本的浪费。本发明的实施使得文本打标签任务,实现了同时为多个字段打出一个标签,实现了模型构建、测试、上线、执行及文本打标签全流程的自动化,大大提高了工作效率,节省公司的人力成本,同时经验证,该发明也取得较高的准确率。
本发明附加方面的优点将在下面的描述中部分给出,或通过本发明的实践了解到。
附图说明
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1为第一个实施例的方法流程图。
具体实施方式
应该指出,以下详细说明都是示例性的,旨在对本发明提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
本实施例所有数据的获取都在符合法律法规和用户同意的基础上,对数据的合法应用。
实施例一
本实施例提供了一种基于自然语言处理的智能打标签方法;
如图1所示,一种基于自然语言处理的智能打标签方法,包括:
S101:构建训练集和测试集;基于训练集和测试集,构建标签模型;其中,所述训练集和测试集,均为已知标签的多个字段文本;
S102:对已经构建的标签模型进行封装,生成接口;
S103:对接口进行配置;
S104:获取待处理的文本数据;调用配置,对待处理的自然语言进行打标签处理。
例如,在某企业员工基本信息数据A中有多个字段:所属部门、籍贯、毕业院校、学历和职称等多个字段;当前技术研究主要集中在只根据一个字段得到一个标签,例如:根据“学历”得到“研究生”标签;本专利结合具体业务场景,实现根据多个字段得到一个标签,例如:根据“部门”、“学历”和“职称”得到企业在“中级职称研究生”或“初级职称本科”等维度标签,从而增加数据分析维度。进一步地,S101:构建训练集和测试集;具体包括:
获取已知标签的文本数据;
对已知标签的文本数据进行数据清洗,数据清洗过程中,删除文本数据中的空格、换行字符、感叹号和特殊字符;其中,特殊字符,是指“*”或“#”;
对数据清洗后的数据切分为若干个文本条目;
针对得到的若干个文本条目,按比例划分为训练集和测试集。
示例性地,所述数据清洗,采用replace函数来实现。
示例性地,所述对数据清洗后的数据切分为若干个文本条目,采用spilt函数来实现。
进一步地,S101:基于训练集和测试集,构建标签模型;具体包括:
采用语言表征模型(Bidirectional Encoder Representations fromTransformers,BERT)对训练集中的文本数据进行特征提取得到文本特征;
基于训练集中的文本特征和对应标签,对卷积神经网络进行训练,得到训练后的卷积神经网络,将训练后的卷积神经网络作为标签模型;
基于测试集中的文本特征和对应标签,对训练后的卷积神经网络进行测试,得到模型打标签的准确率;
如果准确率超过设定阈值,则训练结束,得到的训练后的卷积神经网络作为标签模型;如果准确率低于设定阈值,则重新训练。
进一步地,S102:对已经构建的标签模型进行封装,生成接口;具体包括:
S1021:定义标签模型请求方法,实现请求参数的定义、返回参数文本标签label及返回参数文本标签label对应分数的输出,完成标签模型请求方法的封装;
S1022:将已经构建的标签模型及封装的标签模型请求方法,通过python命令启动生成标签模型调用接口。
进一步地,S103:对接口进行配置;具体包括:
S1031:根据标签模型调用API接口,通过VUE框架采用ElementUI方法构建模型可视化配置功能;
S1032:根据S1022生成的模型调用接口的地址及S1021定义的标签模型请求方法,获取标签模型返回参数,并根据定义的文本标签label及文本标签label对应分数的参数进行保存,完成标签模型的可视化接口配置。
进一步地,S104:获取待处理的文本数据;调用配置,对待处理的自然语言进行打标签处理;具体包括:
S1041:引入VUE框架,采用ElementUI方法,设置标签任务名称、模型调用接口、请求参数、返回参数,完成标签任务功能配置;
S1042:根据S1041构建的标签任务配置功能、S1022构建的标签模型接口和待打标签文本内容,配置标签任务名称、模型调用接口、请求参数、返回参数及标签字段信息;
S1043:获取待打标签的输入数据信息,并配置打标签数据的输出表名和输出表字段;
S1044:通过采用DolphinScheduler构建分布式工作流调度图,实现自动启停标签任务,完成打标签。
本发明设计了一种基于自然语言处理的智能打标签***及方法。首先,采用自然语言处理技术构建基于Bert+规则的标签模型,然后构建文本打标签任务,通过选择需要打标签的数据及标签模型,完成任务构建。最后智能标签任务自动执行完成打标签操作。
实施例二
本实施例提供了一种基于自然语言处理的智能打标签***;
一种基于自然语言处理的智能打标签***,包括:
构建模块,其被配置为:构建训练集和测试集;基于训练集和测试集,构建标签模型;其中,所述训练集和测试集,均为已知标签的多个字段文本;
封装模块,其被配置为:对已经构建的标签模型进行封装,生成接口;
配置模块,其被配置为:对接口进行配置;
打标签模块,其被配置为:获取待处理的文本数据;调用配置,对待处理的自然语言进行打标签处理。
此处需要说明的是,上述构建模块、封装模块、配置模块和打标签模块对应于实施例一中的步骤S101至S104,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例一所公开的内容。需要说明的是,上述模块作为***的一部分可以在诸如一组计算机可执行指令的计算机***中执行。
上述实施例中对各个实施例的描述各有侧重,某个实施例中没有详述的部分可以参见其他实施例的相关描述。
所提出的***,可以通过其他的方式实现。例如以上所描述的***实施例仅仅是示意性的,例如上述模块的划分,仅仅为一种逻辑功能划分,实际实现时,可以有另外的划分方式,例如多个模块可以结合或者可以集成到另外一个***,或一些特征可以忽略,或不执行。
实施例三
本实施例还提供了一种电子设备,包括:一个或多个处理器、一个或多个存储器、以及一个或多个计算机程序;其中,处理器与存储器连接,上述一个或多个计算机程序被存储在存储器中,当电子设备运行时,该处理器执行该存储器存储的一个或多个计算机程序,以使电子设备执行上述实施例一所述的方法。
应理解,本实施例中,处理器可以是中央处理单元CPU,处理器还可以是其他通用处理器、数字信号处理器DSP、专用集成电路ASIC,现成可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据、存储器的一部分还可以包括非易失性随机存储器。例如,存储器还可以存储设备类型的信息。
在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。
实施例一中的方法可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器、闪存、只读存储器、可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。为避免重复,这里不再详细描述。
本领域普通技术人员可以意识到,结合本实施例描述的各示例的单元及算法步骤,能够以电子硬件或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
实施例四
本实施例还提供了一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成实施例一所述的方法。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于自然语言处理的智能打标签方法,其特征是,包括:
构建训练集和测试集;基于训练集和测试集,构建标签模型;其中,所述训练集和测试集,均为已知标签的多个字段文本;
对已经构建的标签模型进行封装,生成接口;
对接口进行配置;
获取待处理的文本数据;调用配置,对待处理的自然语言进行打标签处理。
2.如权利要求1所述的一种基于自然语言处理的智能打标签方法,其特征是,构建训练集和测试集;具体包括:
获取已知标签的文本数据;
对已知标签的文本数据进行数据清洗,数据清洗过程中,删除文本数据中的空格、换行字符、感叹号和特殊字符;
对数据清洗后的数据切分为若干个文本条目;
针对得到的若干个文本条目,按比例划分为训练集和测试集。
3.如权利要求1所述的一种基于自然语言处理的智能打标签方法,其特征是,基于训练集和测试集,构建标签模型;具体包括:
采用语言表征模型对训练集中的文本数据进行特征提取得到文本特征;
基于训练集中的文本特征和对应标签,对卷积神经网络进行训练,得到训练后的卷积神经网络,将训练后的卷积神经网络作为标签模型;
基于测试集中的文本特征和对应标签,对训练后的卷积神经网络进行测试,得到模型打标签的准确率;
如果准确率超过设定阈值,则训练结束,得到的训练后的卷积神经网络作为标签模型;如果准确率低于设定阈值,则重新训练。
4.如权利要求1所述的一种基于自然语言处理的智能打标签方法,其特征是,对已经构建的标签模型进行封装,生成接口;具体包括:
定义标签模型请求方法,实现请求参数的定义、返回参数文本标签label及返回参数文本标签label对应分数的输出,完成标签模型请求方法的封装;
将已经构建的标签模型及封装的标签模型请求方法,通过python命令启动生成标签模型调用接口。
5.如权利要求1所述的一种基于自然语言处理的智能打标签方法,其特征是,对接口进行配置;具体包括:
根据标签模型调用API接口,通过VUE框架采用ElementUI方式构建模型可视化配置功能;
根据生成的模型调用接口的地址及定义的标签模型请求方法,获取标签模型返回参数,并根据定义的文本标签label及文本标签label对应分数的参数进行保存,完成标签模型的可视化接口配置。
6.如权利要求4所述的一种基于自然语言处理的智能打标签方法,其特征是,获取待处理的文本数据;调用配置,对待处理的自然语言进行打标签处理;具体包括:
引入VUE框架,采用ElementUI方式,设置标签任务名称、模型调用接口、请求参数、返回参数,完成标签任务功能配置;
根据构建的标签任务配置功能、构建的标签模型调用接口和待打标签文本内容,配置标签任务名称、模型调用接口、请求参数、返回参数及标签字段信息;
获取待打标签的输入数据信息,并配置打标签数据的输出表名和输出表字段;
通过采用DolphinScheduler构建分布式工作流调度图,实现自动启停标签任务,完成打标签。
7.如权利要求2所述的一种基于自然语言处理的智能打标签方法,其特征是,所述数据清洗,采用replace函数来实现;所述对数据清洗后的数据切分为若干个文本条目,采用spilt函数来实现。
8.一种基于自然语言处理的智能打标签***,其特征是,包括:
构建模块,其被配置为:构建训练集和测试集;基于训练集和测试集,构建标签模型;其中,所述训练集和测试集,均为已知标签的多个字段文本;
封装模块,其被配置为:对已经构建的标签模型进行封装,生成接口;
配置模块,其被配置为:对接口进行配置;
打标签模块,其被配置为:获取待处理的文本数据;调用配置,对待处理的自然语言进行打标签处理。
9.一种电子设备,其特征是,包括:
存储器,用于非暂时性存储计算机可读指令;以及
处理器,用于运行所述计算机可读指令,
其中,所述计算机可读指令被所述处理器运行时,执行上述权利要求1-7任一项所述的一种基于自然语言处理的智能打标签方法。
10.一种存储介质,其特征是,非暂时性地存储计算机可读指令,其中,当所述非暂时性计算机可读指令由计算机执行时,执行权利要求1-7任一项所述一种基于自然语言处理的智能打标签方法的指令。
CN202111136132.3A 2021-09-27 2021-09-27 一种基于自然语言处理的智能打标签方法及*** Pending CN113836304A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111136132.3A CN113836304A (zh) 2021-09-27 2021-09-27 一种基于自然语言处理的智能打标签方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111136132.3A CN113836304A (zh) 2021-09-27 2021-09-27 一种基于自然语言处理的智能打标签方法及***

Publications (1)

Publication Number Publication Date
CN113836304A true CN113836304A (zh) 2021-12-24

Family

ID=78970867

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111136132.3A Pending CN113836304A (zh) 2021-09-27 2021-09-27 一种基于自然语言处理的智能打标签方法及***

Country Status (1)

Country Link
CN (1) CN113836304A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117456416A (zh) * 2023-11-03 2024-01-26 北京饼干科技有限公司 智能生成素材标签的方法及***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107038480A (zh) * 2017-05-12 2017-08-11 东华大学 一种基于卷积神经网络的文本情感分类方法
CN109063456A (zh) * 2018-08-02 2018-12-21 浙江大学 图像型验证码的安全性检测方法及***
CN109255284A (zh) * 2018-07-10 2019-01-22 西安理工大学 一种基于运动轨迹的3d卷积神经网络的行为识别方法
US20190108450A1 (en) * 2017-10-10 2019-04-11 International Business Machines Corporation Abstraction and portability to intent recognition
CN112765965A (zh) * 2021-01-22 2021-05-07 安徽希施玛数据科技有限公司 文本多标签分类方法、装置、设备和存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107038480A (zh) * 2017-05-12 2017-08-11 东华大学 一种基于卷积神经网络的文本情感分类方法
US20190108450A1 (en) * 2017-10-10 2019-04-11 International Business Machines Corporation Abstraction and portability to intent recognition
CN109255284A (zh) * 2018-07-10 2019-01-22 西安理工大学 一种基于运动轨迹的3d卷积神经网络的行为识别方法
CN109063456A (zh) * 2018-08-02 2018-12-21 浙江大学 图像型验证码的安全性检测方法及***
CN112765965A (zh) * 2021-01-22 2021-05-07 安徽希施玛数据科技有限公司 文本多标签分类方法、装置、设备和存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117456416A (zh) * 2023-11-03 2024-01-26 北京饼干科技有限公司 智能生成素材标签的方法及***
CN117456416B (zh) * 2023-11-03 2024-06-07 北京饼干科技有限公司 智能生成素材标签的方法及***

Similar Documents

Publication Publication Date Title
CN110674295A (zh) 一种基于深度学习的数据标注***
CN106485390A (zh) 审批流的生成方法和装置
CN106293891B (zh) 多维投资指标监督方法
CN109766280A (zh) 软件测试方法及软件测试平台
CN109308258A (zh) 测试数据的构造方法、装置、计算机设备和存储介质
CN110633959A (zh) 基于图结构的审批任务创建方法、装置、设备及介质
CN113836304A (zh) 一种基于自然语言处理的智能打标签方法及***
CN112948110A (zh) 云应用的拓扑与编排***、方法、存储介质及电子设备
CN115840745A (zh) 基于动态表单的调度方法、装置、计算机设备及存储介质
CN109800776A (zh) 素材标注方法、装置、终端和计算机可读存储介质
CN117235527A (zh) 端到端容器化的大数据模型构建方法、装置、设备及介质
Wellsandt et al. Supporting data analytics in manufacturing with a digital assistant
CN112527286A (zh) 业务代码的生成方法、装置、计算机设备及存储介质
CN115599908A (zh) 非结构化数据文档的标注方法及***
León-Guizado et al. Production model under lean manufacturing and change awareness approaches to reduce order delays at small and medium-sized enterprises from the clothing sector in Peru
Moser et al. Digitalization of information-intensive logistics processes to reduce production lead times at ENGEL Austria GmbH: extending value stream mapping with subject-oriented business process management
CN110956025A (zh) 一种基于流程模板复用的方法
Clauberg et al. BPM and Simulation
Stepanov Using agile methodology in ERP-system implementation projects
CN115048103A (zh) 工作流实现方法、装置及***
CN113506099A (zh) 申报业务的配置***、方法、计算机设备和存储介质
Blouin et al. A semi-automated approach for the co-refinement of requirements and architecture models
CN113254189A (zh) 用于缺陷检测的任务管理方法、***和设备
Ramnath et al. Value stream evaluation and simulation to improve material flow and productivity
CN112508535A (zh) 一种基于jbpm的用于审批的工作流的改进方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Country or region after: China

Address after: Floor 12, Building 3, Shuntai Plaza, No. 2000 Shunhua Road, High tech Industrial Development Zone, Jinan City, Shandong Province, 250101

Applicant after: SHANDONG ECLOUD INFORMATION TECHNOLOGY CO.,LTD.

Address before: 250014 3rd floor, block B, Yinhe building, 2008 Xinluo street, high tech Zone, Jinan City, Shandong Province

Applicant before: SHANDONG ECLOUD INFORMATION TECHNOLOGY CO.,LTD.

Country or region before: China