CN112150103A - 一种日程设置方法、装置和存储介质 - Google Patents
一种日程设置方法、装置和存储介质 Download PDFInfo
- Publication number
- CN112150103A CN112150103A CN202010936030.9A CN202010936030A CN112150103A CN 112150103 A CN112150103 A CN 112150103A CN 202010936030 A CN202010936030 A CN 202010936030A CN 112150103 A CN112150103 A CN 112150103A
- Authority
- CN
- China
- Prior art keywords
- information
- schedule
- time
- word
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000000605 extraction Methods 0.000 claims description 80
- 239000013598 vector Substances 0.000 claims description 69
- 230000011218 segmentation Effects 0.000 claims description 40
- 238000000926 separation method Methods 0.000 claims description 8
- 238000012986 modification Methods 0.000 claims description 4
- 230000004048 modification Effects 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 3
- 239000010410 layer Substances 0.000 description 58
- 230000015654 memory Effects 0.000 description 21
- 230000006870 function Effects 0.000 description 19
- 238000004458 analytical method Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000013473 artificial intelligence Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 241000282414 Homo sapiens Species 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000001228 spectrum Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- LQIAZOCLNBBZQK-UHFFFAOYSA-N 1-(1,2-Diphosphanylethyl)pyrrolidin-2-one Chemical compound PCC(P)N1CCCC1=O LQIAZOCLNBBZQK-UHFFFAOYSA-N 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000005538 encapsulation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000002344 surface layer Substances 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
- G06Q10/109—Time management, e.g. calendars, reminders, meetings or time accounting
- G06Q10/1093—Calendar-based scheduling for persons or groups
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Human Resources & Organizations (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Physics & Mathematics (AREA)
- Entrepreneurship & Innovation (AREA)
- General Engineering & Computer Science (AREA)
- Strategic Management (AREA)
- Artificial Intelligence (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Machine Translation (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Probability & Statistics with Applications (AREA)
- Economics (AREA)
Abstract
本申请实施例公开了一种日程设置方法、装置和存储介质,其中,本申请实施例可以获取用户输入的语音信息;对所述语音信息进行识别,得到所述语音信息对应的文本信息;从所述文本信息中分离得到时间信息,并根据所述时间信息和当前时间确定日程时间;根据所述日程时间和所述文本信息生成日程信息;根据所述日程信息,对终端进行日程设置。通过自动识别语音信息中的时间信息,可以方便快捷地进行日程设置,改善用户体验。
Description
技术领域
本申请涉及人工智能的技术领域,具体涉及一种日程设置方法、装置和存储介质。
背景技术
近年来,许多日历应用程序,提供了手动输入日历功能,通常由用户输入时间,并进行手动操作与文本录入,亦有语音文本输入功能,但未见其智能化分析时间等功能存在。但是,这种日程设置方法操作复杂,导致用户体验不佳。
发明内容
有鉴于此,本申请实施例提供了一种日程设置方法、装置和存储介质,可以安抚用户的情绪,提高用户的体验。
第一方面,本申请实施例提供了一种日程设置方法,包括:
获取用户输入的语音信息;
对所述语音信息进行识别,得到所述语音信息对应的文本信息;
从所述文本信息中分离得到时间信息,并根据所述时间信息和当前时间确定日程时间;
根据所述日程时间和所述文本信息生成日程信息;
根据所述日程信息,对终端进行日程设置。
在一实施例中,所述根据所述日程信息,对终端进行日程设置,包括:
显示所述日程信息;
当检测到用户针对所述日程信息的确定操作时,根据所述日程信息,对终端进行日程设置。
在一实施例中,所述根据所述日程信息,对终端进行日程设置,还包括:
显示所述日程信息;
当检测到用户针对所述日程信息的修改操作时,获取修改后的日程信息;
根据所述修改后的日程信息,对终端进行日程设置。
在一实施例中,所述对终端进行日程设置,包括:
设置所述终端基于所述日程时间提示日程信息。
在一实施例中,所述预设分词模型包括分词模型,所述从所述文本信息中分离得到时间信息,并根据所述时间信息和当前时间确定日程时间,包括:
采用预设分词模型对所述文本信息进行识别和划分,得到所述文本信息对应的多个词单元,并确定所述词单元对应的词属性;
根据所述词单元以及所述词属性,提取所述文本信息中的时间信息。
在一实施例中,根据所述词单元以及所述词属性,提取所述文本信息中的时间信息,并根据所述时间信息和当前时间确定日程时间包括:
根据所述词单元以及所述词属性,获取所述词单元之间的语义关系;
从所述词单元中确定时间词单元,并根据所述时间词单元、当前时间以及所述时间词单元之间的语义关系,确定日程时间。
在一实施例中,所述采用预设分词模型对所述文本信息进行识别和划分,得到所述文本信息对应的多个词单元,并确定所述词单元对应的词属性,包括:
识别所述文本信息中的字单元;
根据所述字单元对所述文本信息进行编码运算,得到文本特征向量;
根据所述文本特征向量及预设分词模型特征提取时刻的隐层状态,生成词性特征向量;
对所述词性特征向量进行解码运算,确定所述文本信息对应的词单元,以及所述词单元对应的词属性。
在一实施例中,所述根据所述文本特征向量及预设分词模型特征提取时刻的隐层状态,生成词性特征向量,包括:
确定所述当前特征提取时刻的上一特征提取时刻,获取所述上一特征提取时刻的向左隐层状态,根据所述特征提取时刻特征向左隐层状态计算所述当前特征提取时刻的向左隐层状态;
确定所述当前特征提取时刻的下一特征提取时刻,获取所述下一特征提取时刻的向右隐层状态,根据所述特征提取时刻和向右隐层状态计算当前特征提取时刻的向右隐层状态;
根据所述当前特征提取时刻的向左隐层状态和向右隐层状态,生成词性特征向量。
在一实施例中,所述对所述语音信息进行识别,得到所述语音信息对应的文本信息,包括:
提取所述语音信息的音频特征信息;
根据所述语音信息的音频特征信息,获取所述语音信息对应的文本信息。
在一实施例中,所述根据所述语音信息的音频特征信息,获取所述语音信息对应的文本信息,包括:
根据预设声学模型,获取所述音频特征信息对应的音素;
根据预设语言模型,对所述音素和预设字典进行比较与匹配,得到所述音素对应的文本单词;
提取所述文本单词之间的语义关联信息,根据所述关联信息,将所述文本单词组合得到文本信息。
第二方面,本申请实施例还提供了一种日程设置装置,包括:
获取单元,用于获取用户输入的语音信息;
识别单元,用于对所述语音信息进行识别,得到所述语音信息对应的文本信息;
分离单元,用于从所述文本信息中分离得到时间信息,并根据所述时间信息和当前时间确定日程时间;
生成单元,用于根据所述日程时间和所述文本信息生成日程信息;
设置单元,用于根据所述日程信息,对终端进行日程设置。
第三方面,本申请的实施例提供的存储介质,其上存储有计算机程序,当计算机程序在计算机上运行时,使得计算机执行如本申请任一实施例提供的日程设置方法。
本申请实施例可以可以获取用户输入的语音信息;对所述语音信息进行识别,得到所述语音信息对应的文本信息;从所述文本信息中分离得到时间信息,并根据所述时间信息和当前时间确定日程时间;根据所述日程时间和所述文本信息生成日程信息;根据所述日程信息,对终端进行日程设置。通过自动识别语音信息中的时间信息,可以方便快捷地进行日程设置,改善用户体验。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的日程设置***的场景示意图;
图2a是本发明实施例提供的日程设置方法的第一种流程示意图;
图2b是本发明实施例提供的日程设置实施时的终端界面示意图;
图2c是本发明实施例提供的日程设置方法的第二种流程示意图;
图3是本发明实施例提供的日程设置装置的结构示意图;
图4是本发明实施例提供的终端的结构示意图;
图5a是本发明实施例提供的一种分词模型的结构示意图;
图5b是本发明实施例提供的一种依存关系分析流程示意图;
图5c是本发明实施例提供的依存结果示意图;
图5d是本发明实施例提供的一种规则抽取结果示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本发明实施例提供一种日程设置方法、装置和存储介质。
本发明的涉及到人工智能技术和机器学习技术,其中,人工智能(ArtificialIntelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。其中,机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
其中,日程设置装置具体可以集成在计算机设备,比如终端或服务器等设备中。其中,该终端可以为手机、平板电脑、笔记本电脑等设备,也为包括穿戴设备、智能音箱、智能盒子、智能电视等智能终端。该服务器可以是单台服务器,也可以是由多个服务器组成的服务器集群。
参考图1,本发明的实施例提供了一种日程设置***,至少包括终端和服务器,终端与服务器通过网络链接。
本申请实施例可以获取用户输入的语音信息;对所述语音信息进行识别,得到所述语音信息对应的文本信息;从所述文本信息中分离得到时间信息,并根据所述时间信息和当前时间确定日程时间;根据所述日程时间和所述文本信息生成日程信息;根据所述日程信息,对终端进行日程设置。通过自动识别语音信息中的时间信息,可以方便快捷地进行日程设置,改善用户体验。
上述图1的例子只是实现本发明实施例的一个***架构实例,本发明实施例不限于上述图1所示的***结构,基于该***架构,提出本发明各个实施例。
以下分别进行详细说明。需说明的是,以下实施例的序号不作为对实施例优选顺序的限定。
如图2a所示,提供了一种日程设置方法,该方法可以由终端或服务器来执行,本实施例以该方法由服务器来执行为例进行说明。该日程设置方法的具体流程如下:
101、获取用户输入的语音信息。
在一实施例中,终端可以通过信号采集设备(比如话筒)采集用户输入的语音信息,并将采集到的语音信息通过网络转发给服务器进行语音识别。其中,语音信息在计算机设备(包括终端和服务器)之间以音频文件的形式存储和传输。
在一实施例中,为了提升日程设置方法的通用性和可靠性,终端可以将获取到的语音信息,进行编码运算和封装得到音频文件,并将音频文件传递给服务器。服务器可以对音频文件进行解码得到,比如,步骤“获取用户输入的语音信息”,可以包括:
对音频文件进行解封装处理,得到音频数据流;
分别对所述音频数据流进行解码,得到音频帧序列。
服务器实际以音频帧序列的形式,获取到用户输入的语音信息。
在一实施例中,参考图2b,在终端界面中设置有语音输入控件,用户可以点击该语音输入控件,触发信号采集设备的语音收录功能。其中,语音输入控件是用于输入语音的指令接口,可以表现为图标、输入框、选择框、按钮等形式,参考图2b,语音输入控件可以表现为话筒图标。
在一实施例中,用户可以通过事先设定的特定指令唤醒语音助手,当语音助手被唤醒时,触发信号采集设备的语音收录功能,终端通过语音助手识别语音信息。其中,语音助手包括语音识别引擎,语音识别引擎可以应用ASR技术,对音频内容中的语音信息进行识别,获取语音信息对应的文本信息。
102、对所述语音信息进行识别,得到所述语音信息对应的文本信息。
在一实施例中,所述对所述语音信息进行识别,得到所述语音信息对应的文本信息,具体可以包括如下步骤:
提取所述语音信息的音频特征信息;
根据所述语音信息的音频特征信息,获取所述语音信息对应的文本信息。
其中,音频特征信息是用于表示声波特点的信息。该声波是指语音信息对应的声音信号,因为声音信号以波的形式传播,因此,也可以称为声波。
在一实施例中,提取所述语音信息的音频特征信息可以包括如下步骤:
对所述语音信息进行划分,得到音频帧;
提取所述音频帧进行特征提取,得到所述语音信息的音频特征信息。
在一实施例中,音频特征信息可以表现为MFCC(Mel-Frequency CepstralCoefficients,梅尔频率倒谱系数)向量,为了为了避免相邻两帧的变化过大,在对所述语音信息进行划分,得到音频帧之前,还要对音频帧进行预加重,然后将每帧音频帧带入汉明窗函数,得到每帧音频帧对应的短时分析窗,对于每个短时分析窗通过FFT(傅里叶变换)得到对应的频谱,然后将上面的频谱通过梅尔滤波器组过滤掉人类听不到的频率,得到梅尔频谱,从而将线形的自然频谱转换为体现人类听觉特性的梅尔频谱。在梅尔频谱上面进行倒谱分析(取对数,做逆变换,实际逆变换一般是通过离散余弦变换来实现,取离散余弦后的第2个到第13个系数作为梅尔频率倒谱系数),得到梅尔频率倒谱系数。每帧的12个梅尔频率倒谱系数组合得到每帧音频帧的倒谱向量。在一实施例中,还可以根据梅尔倒谱系数计算帧间的动态变化特征,与每帧的梅尔倒谱系数共同组成倒谱向量。所有音频帧的倒谱向量就是上述语音信息的音频特征信息。
其中,根据音频特征信息,获取对应的文本信息的过程涉及到人工智能领域的ASR(Automatic Speech Recognition,语音识别)技术,该技术用于将语音信息中的词汇内容转换为计算机可读的输入,例如按键、二进制编码运算或者字符序列。ASR是语音技术(Speech Technology)的关键技术之一。让计算机能听、能看、能说、能感觉,是未来人机交互的发展方向,其中语音成为未来最被看好的人机交互方式之一。
在一实施例中,根据所述语音信息的音频特征信息,获取所述语音信息对应的文本信息,具体可以包括如下步骤:
根据预设声学模型,获取所述音频特征信息对应的音素;
根据预设语言模型,对所述音素和预设字典进行比较与匹配,得到所述音素对应的文本单词;
提取所述文本单词之间的语义关联信息,根据所述关联信息,将所述文本单词组合得到文本信息。
其中,音素是从音色的角度划分出来的最小的语音单位。
在一实施例中,可以采用隐马尔科夫模型(HMM)作为声学模型。隐马尔科夫模型(HMM)需要经过训练才可以使用。
在另一实施例中,还可以基于深度神经网络训练语言模型,提取特征输入语言模型,得到语音信息对应的文本信息。
在一实施例中,所述语义特征信息包括语义特征向量,提取所述文本信息的语义特征信息,可以包括如下步骤:
对所述文本信息进行划分,得到至少一个词单元;
预设分词模型内的预设字典,将所述词单元映射为文本特征向量,其中所述分词模型是基于循环神经网络的模型;
根据所述文本特征向量及所述分词模型特征提取时刻的隐层状态,生成语义特征向量。
其中,词单元可以是具有词语含义的字符组,一个字符组可以包含一个或者多个字符。文本特征向量是用于表示一个词单元的语义特征的向量,文本特征向量的每一个元素代表一个具有一定的语义和语法上解释的特征。所以,可以将文本特征向量的每一个元素称为一个词语特征。其中,文本特征向量的元素指的是文本特征向量每一维的数值。
文本信息可以通过预设词嵌入算法(比如Word2Vec等)转换为文本特征向量,其中word2vec(word to vector,词成向量法)可以根据给定的语料库,通过训练优化后的分词模型快速有效地将一个词单元表达成向量形式。当分词模型接收到划分得到的词单元时,可以根据分词模型内的预设字典将该词单元转换为文本特征向量。其中,在该预设字典中每一个字都与一个向量一一对应。
所述分词模型内的字典可以作为分词模型的一部分保存在该日程设置装置的本地内存中,也可以通过网络与网络服务器通信以获得。
其中,所述语义特征向量是用于表示文本信息的完整语义特征的向量,既包含文本信息中的每个词单元的语义特征信息,又包含各词单元之间的关联信息。
比如,文本信息为一个句子,该文本信息划分得到的词单元可以表现为词语,那么所述根据所述文本特征向量及分词模型特征提取时刻的隐层状态,生成语义特征向量可以理解为:根据词语特征向量,以及各词语之间的关联信息,生成句子的特征向量。
103、从所述文本信息中分离得到时间信息,并根据所述时间信息和当前时间确定日程时间。
在一实施例中,所述从所述文本信息中分离得到时间信息,并根据所述时间信息和当前时间确定日程时间;具体可以包括如下步骤:
采用预设分词模型对所述文本信息进行识别和划分,得到所述文本信息对应的多个词单元,并确定所述词单元对应的词属性;
根据所述词单元以及所述词属性,提取所述文本信息中的时间信息。
其中,预设分词模型是一种序列标注模型,可以用于实体抽取抽取文本信息中的原子信息元素,通常包含任命、组织/机构名、地理位置、时间/日期、字符值等标签,具体的标签定义可根据任务不同而调整。
在一实施例中,可以使用机器学习中的HMM、MEMM、CRF、神经网络等模型作为分词模型。
预设分词模型首先通过字符分割(word segmentation)和字符嵌入(wordembedding)将文本信息向量化,随后通过词性标注得到高阶层特征,即词性特征。
在一实施例中,所述采用预设分词模型对所述文本信息进行识别和划分,得到所述文本信息对应的多个词单元,并确定所述词单元对应的词属性,包括:
识别所述文本信息中的字单元;
根据所述字单元对所述文本信息进行编码运算,得到文本特征向量;
根据所述文本特征向量及预设分词模型特征提取时刻的隐层状态,生成词性特征向量;
对所述词性特征向量进行解码运算,确定所述文本信息对应的词单元,以及所述词单元对应的词属性。
预设分词模型可以把多个文本特征向量转换成一个定长的语义特征向量c,这一过程可以通过循环神经网络(Recurrent Neural Network,RNN)来实现,比如长短期记忆网络(Long Short-Term Memory,LSTM)等等。
在一实施例中,步骤“根据所述文本特征向量及预设分词模型特征提取时刻的隐层状态,生成词性特征向量”,具体可以包括:
确定所述当前特征提取时刻的上一特征提取时刻,获取所述上一特征提取时刻的向左隐层状态,根据所述特征提取时刻特征向左隐层状态计算所述当前特征提取时刻的向左隐层状态;
确定所述当前特征提取时刻的下一特征提取时刻,获取所述下一特征提取时刻的向右隐层状态,根据所述特征提取时刻和向右隐层状态计算当前特征提取时刻的向右隐层状态;
根据所述当前特征提取时刻的向左隐层状态和向右隐层状态,生成词性特征向量。
其中,参考图5c,LSTM模型是由t时刻的输入xt,细胞状态(cell state)Ct,临时细胞状态Ct’,隐层状态ht,遗忘门ft,记忆门it,输出门ot组成。LSTM的计算过程可以概括为,通过对细胞状态中信息遗忘和记忆新的信息使得对后续时刻计算有用的信息得以传递,而无用的信息被丢弃,并在每个时间步都会输出隐层状态,其中遗忘,记忆与输出由通过上个时刻的隐层状态和当前输入计算出来的遗忘门,记忆门,输出门来控制。
这种结构可以使之前输入的信息保存在网络中,并一直向左传递,输入门打开时新的输入才会改变网络中保存的历史状态,输出门打开时保存的历史状态会被访问到,并影响之后的输出,忘记门用于清空之前保存的历史信息。
在单向的长短时记忆网络中,ft被称为遗忘门,可以选择需要被遗忘的信息,遗忘门的值由前一时刻的隐层状态和当前特征提取时刻的输入决定:
ft=σ(Wf[ht-1,xt]+bf)
记忆门决定什么样的新信息被存放在细胞状态中,当输入前一时刻的隐层状态和当前特征提取时刻的输入后,记忆门能够输出记忆门的值以及临时细胞状态:
it=σ(Wi[ht-1,xt]+bi)
Ct’=tanh(WC[ht-1,xt]+bC)
当前特征提取时刻的细胞状态可以由记忆门的值、遗忘门的值、临时细胞状态以及上一刻细胞状态决定:
Ct=ft*Ct-1+it*Ct’
ot被称作输出门,决定了输出的值,它可以由前一时刻的隐层状态和当前特征提取时刻的输入词决定:
ot=σ(Wo[ht-1,xt]+bo)
当前特征提取时刻的隐层状态可以由当前特征提取时刻的细胞状态和当前特征提取时刻的输入门值决定:
ht=ot*tanhCt
其中,W以及b是模型通过训练阶段与预测阶段习得的参数。
最终,可以得到隐层状态序列{h0,h1,...,hn-1}。
参考图5a,向左的LSTM与向右的LSTM可以结合成Bi-LSTM,是本申请实施例提供的双向长短时记忆网络,BiLSTM包括两个LSTM,下方为向右的LSTM,上方为向左的LSTM,两个方向的LSTM之间互不影响。
例如,向左的LSTM将文本特征向量组依次正向输入得到向量{hL0,hL1,hL2},向右的LSTM将文本特征向量组依次反向输入得到向量{hR0,hR1,hR2},将其拼接得到{[hL0,hR2][hL1,hR1][hL2,hR0]},即{h0,h1,h2}。
(2.1)确定所述当前特征提取时刻的上一特征提取时刻,获取所述上一特征提取时刻的向左隐层状态,根据所述特征提取时刻特征向左隐层状态计算所述当前特征提取时刻的向左隐层状态;
(2.2)确定所述当前特征提取时刻的下一特征提取时刻,获取所述下一特征提取时刻的向右隐层状态,根据所述特征提取时刻和向右隐层状态计算当前特征提取时刻的向右隐层状态。
其中,在步骤2.1中,上一时刻的向左隐层状态是指上一次输入当前文本特征向量的时刻的的向左隐层状态;在步骤2.2中,下一时刻的向右隐层状态是指下一次输入当前文本特征向量的时刻的向右隐层状态。
参考图5a,将文本特征信息输入预设分词模型,分词模型会根据上一时刻向左的隐层状态计算当前特征提取时刻的向左隐层状态,然后根据下一时刻向右的隐层状态计算当前特征提取时刻向右的隐层状态。
若文本特征信息是首次输入预设分词模型,即当前分词模型没有上一时刻的向左隐层状态和下一时刻的向右隐层状态,则上一时刻的向左隐层状态为为预设向左隐层阈值0,该阈值常常为0;下一时刻的向右隐层状态为预设向右隐层阈值,该阈值可以由技术人员预先设定,除此之外,该阈值常常也为0。
(2.3)根据所述当前特征提取时刻的向左隐层状态和向右隐层状态,生成词性特征向量。
语义特征向量C可以是分词模型隐层状态h的联合,也可以是当前时刻输出的隐层状态,还可以是对所有隐层状态做某种变换,在此不做限定。
在一实施例中,根据所述文本特征向量及所述分词模型特征提取时刻的隐层状态,生成词性特征向量,也可以通过卷积运算实现,具体可以采用CNN(ConvolutionalNeural Networks,卷积神经网络)、Res Net(ResidualNeuralNetwork,深度残差网络)、VGG(Visual Geometry Group,视觉几何组)Net(网络)等等包含卷积层的神经网络模型,卷积层的原理参见上面的实施例,不再赘述。
参考图5a,Bi-LSTM的输出被连接(或其他组合)在位置上生成一个单一的输出层。在最简单的方法中,这个层可以直接传递到一个softmax上,它在所有标签上创建一个概率分布,最可能的标签被选择为词性标签。对于被命名为标签这种贪婪的解码方法的实体来说,解码是不够的,因为它不允许我们强加相邻标签的强大约束。标签I-PER必须遵循另一个i/b/b/b。相反,CRF层通常在双lstm输出的顶部使用Viterbi解码算法被用来解码,解码结果表现为词单元和对应的词属性。
在一实施例中,具体地,可以使用HMM(Hidden Markov Model,隐马尔可夫模型)对所述文本信息进行序列标注,得到文本信息对应的词单元序列。假设X1~X3代表隐藏状态,(X1,X2,X3)可以分别对应(B,I,E)三种标签,每一个状态都可能产生一个发射信号(可以记为y_i),每个发射信号可以对应某一个汉字,可以用b_ij来代表第i个状态发射汉字j的概率,即发射概率。状态之间存在互相转移的可能,比如,根据文本信息的上下文关系,一个字可以由一个单独的词转变为一个词的结尾。这里用a_ij来代表从第i个状态转移到第j个状态的概率。使用HMM模型对文本信息进行识别和划分得到的词单元序列的过程,实际是在已知观察序列(y1~y4)(即文本信息中的汉字序列),同时已知所有a_ij和b_ij的情况下,预测观察序列对应的隐藏状态的过程。在实际操作中,发射概率和转移概率可以通过语料统计或者训练得到,在这些条件已知的情况下,即可调用Viterbi解码算法得到最终的分词结果(即隐藏状态序列)。其中,Viterbi解码算法利用递归减少计算量,并使用整个序列的上下文来做判断,从而对包含“噪音”的序列也能进行良好的分析。在使用时,Viterbi解码算法对于网格中的每一个单元都计算一个局部概率,同时包括一个反向指针用来指示最可能的到达该单元的路径。当完成整个计算过程后,首先在终止时刻找到最可能的状态,然后通过反向指针回溯到t=1时刻,这样回溯路径上的状态序列就是最可能的隐藏状态序列了。
在一实施例中,所述根据所述词单元以及所述词属性,提取所述文本信息中的时间信息,并根据所述时间信息和当前时间确定日程时间,具体可以包括如下步骤:
根据所述词单元以及所述词属性,获取所述词单元之间的语义关系;
从所述词单元中确定时间词单元,并根据所述时间词单元、当前时间以及所述时间词单元之间的语义关系,确定日程时间。
参考图5b,本实施例采用依存树来获取所述词单元之间的语义关系。其中,以获取局部成分为目的的句法分析,被称为依存分析(dependency parsing)。语义依存分析是分析句子中的各语言单位的关联,并将语义关联以依存的结构进行展示;语义依存分析目标是跨越句子表层句法结构的束缚,直接获取深层的语义信息。
一般来说,短语结构树由终节点、非终结点以及短语标签三部分组成。分局语法规则,若干终结点构成一个短语,作为非终结点参与下一次规约,直至结束。依存语法的结构没有非终结点,词与词之间直接发生语义关系,构成一个依存对,其中一个是核心词,也叫支配词,另一个叫修饰词,也叫从属词。语义关系用一个有向弧表示,叫做依存弧。依存弧的方向为由从属词指向支配词,当然反过来也是可以的,按个人习惯统一表示即可。依存句法通过分析语言单位内成分之前的语义关系解释其句法结构,主张句子中核心动词是支配其他成分的中心成分。而它本身却不受其他任何成分的支配,所有受支配成分都以某种关系从属于支配者。
在一实施例中,所述根据所述词单元以及所述词属性,获取所述词单元之间的语义关系,具体可以包括如下步骤:
根据文本信息对应的词单元和词属性,生成句子依存关系树;
基于预设依存规则,对所述句子依存关系树中的节点进行规则匹配;
当规则匹配成功时,以所述节点为中心结构生成语义关联组;
基于所述句子依存关系树与所述语义关联组确定所述词单元之间的依存关系。
其中,语义关联组可以表现为三元组,一个三元组一般包括支配词/主词,被支配词/从词,依存关系。
在一实施例中,生成句子依存关系树需要遵循以下条件:
对于每个词单元生成一个该词单元的依存句法的儿子节点,主要存储关系和对应儿子词单元的位置;
对每一个词单元生成一个该词单元的父子数组的依存结构,主要是记录该词的词性、父节点的词性以及他们之间的关系;
循环每个词单元,找到具有动宾关系、定语后置动宾关系、介宾的主谓动补关系,并进行提取,对于提取主宾中的词,需要在里面寻找具有相关依存结构的词,剔除不需要的词。
在一实施例中,依存分析结果参考图5c,规则抽取结果参考图5d。
在获得词单元与词属性后,我们对已有的口语类词性(比如“今日”,“明天”“下个星期一”等),进行标注训练。具体可以采用CNN/RNN+attention模型,采用损失函数为ranking loss,要优于交叉熵。训练时每个样本有两个标签,正确标签y+和错误标签c-,m+和m-对应了两个margin(属性)。
训练后的关系分类模型输入层包括word embedding(词编码)+positionembedding(位置编码),用6个卷积核+max pooling(最大化下采样)生成文本信息的向量表示,与语义关系(类别)向量做点积求相似度,作为时间信息关系分类的结果。
此时,即可根据当前时间与词性运算得到,确切需要建立日程的时间信息,即日程时间。
104、根据所述日程时间和所述文本信息生成日程信息。
终端可以保存日程时间和日程内容,作为日程信息。
在一实施例中,为了提前提示用户,终端可以根据日程时间设置提示时间,比如,可以设置提前5分钟为提示时间,另外,还可以由用户自主选择设置提示时间。
终端可以保存日程时间、日程内容和提示时间,作为日程信息。
105、根据所述日程信息,对终端进行日程设置。
在一实施例中,参考图2b,所述根据所述日程信息,对终端进行日程设置,具体可以包括如下步骤:
显示所述日程信息;
当检测到用户针对所述日程信息的确定操作时,根据所述日程信息,对终端进行日程设置。
或者,
显示所述日程信息;
当检测到用户针对所述日程信息的修改操作时,获取修改后的日程信息;
根据所述修改后的日程信息,对终端进行日程设置。
其中,用户可以通过点击终端界面来实现确认操作,还可以通过长按终端界面来触发修改日程信息的功能,比如,当用户长按终端界面时,显示时间的选择框,用户可以在选择框内修改时间,用户还可以编辑日程内容。
其中,日程信息包括日程时间和日程内容,日程内容可以为用户计划要做的事情,日程时间为计划实施日程内容的时间。
在一实施例中,步骤“对终端进行日程设置”,包括:设置所述终端基于所述日程时间提示日程信息。
比如,用户可以事先设置收取提示的邮箱或者电话号码、即时通讯应用账号等联系方式,终端可以邮件、短信、电话、即时通讯信息的方式,向用户发送日程信息以提示用户。
比如,终端还可以以闹钟的形式提示用户,并同时在终端界面中显示日程信息。
由上可知,本申请实施例可以获取用户输入的语音信息;对所述语音信息进行识别,得到所述语音信息对应的文本信息;从所述文本信息中分离得到时间信息,并根据所述时间信息和当前时间确定日程时间;根据所述日程时间和所述文本信息生成日程信息;根据所述日程信息,对终端进行日程设置。通过自动识别语音信息中的时间信息,可以方便快捷地进行日程设置,改善用户体验。
根据前面实施例所描述的方法,以下将以该日程设置装置具体集成在终端设备举例作进一步详细说明。
参考图2c,本发明实施例的日程设置方法的具体流程如下:
201、终端获取用户输入的语音信息。
在一实施例中,用户可以点击终端界面中设置的语音输入控件,触发信号采集设备的语音收录功能。参考图2b,语音输入控件可以表现为话筒图标。
在一实施例中,用户可以通过事先设定的特定指令唤醒语音助手,当语音助手被唤醒时,触发信号采集设备的语音收录功能,终端通过语音助手识别语音信息。
202、终端将语音信息发送给服务器,接收所述服务器基于所述语音信息返回的日程时间。
服务器中设置有训练好的语音识别模型、分词模型和关系分类模型,服务器可以识别语音信息,得到对应的文本信息,还可以对文本信息进行识别和划分,得到文本信息对应的词单元和词属性,并根据词单元和词属性,确定文本信息中的时间信息,然后根据当前时间和时间信息确定日程时间。
比如,当文本信息为“明天下午三点上美术课”且今天为9月7号时,日程时间为9月8号下午三点。
在一实施例中,为了不断完善服务器中的模型,还可以将文本信息进行一定的处理,作为训练样本,不断训练和优化模型。比如,可以去除隐私信息,使用加密算法将文本信息加密成不可人为解释的符号,以避免侵犯用户隐私。同时,为了降低训练的难度,还可以去除与时间无关的大量冗余信息,模糊用户身份等信息。
203、终端根据所述日程时间和所述文本信息生成日程信息。
在一实施例中,为了提前提示用户,终端可以根据日程时间设置提示时间,比如,可以设置提前5分钟为提示时间,另外,还可以由用户自主选择设置提示时间。
终端可以保存日程时间、日程内容和提示时间,作为日程信息。
204、终端基于所述日程时间提示日程信息。
根据用户的设置,当到达提示时间时,终端自动触发邮件、短信、拨号、闹钟等功能,并分别以邮件内容、短信内容、电话语音、终端界面上的消息的形式,提示用户并向用户展示日程信息。
由上可知,本申请实施例可以获取用户输入的语音信息;对所述语音信息进行识别,得到所述语音信息对应的文本信息;从所述文本信息中分离得到时间信息,并根据所述时间信息和当前时间确定日程时间;根据所述日程时间和所述文本信息生成日程信息;根据所述日程信息,对终端进行日程设置。通过自动识别。
例如,如图3所示,该日程设置装置可以包括获取单元301、识别单元302、分离单元303、生成单元304和设置单元305,如下:
(1)获取单元301,用于获取用户输入的语音信息。
(2)识别单元302,用于对所述语音信息进行识别,得到所述语音信息对应的文本信息。
在一实施例中,所述识别单元302具体可以包括提取子单元和识别子单元,如下:
提取子单元,用于提取所述语音信息的音频特征信息;
识别子单元,用于根据所述语音信息的音频特征信息,获取所述语音信息对应的文本信息。
在一实施例中,所述识别子单元具体可以用于:
根据预设声学模型,获取所述音频特征信息对应的音素;
根据预设语言模型,对所述音素和预设字典进行比较与匹配,得到所述音素对应的文本单词;
提取所述文本单词之间的语义关联信息,根据所述关联信息,将所述文本单词组合得到文本信息。
(3)分离单元303,用于从所述文本信息中分离得到时间信息,并根据所述时间信息和当前时间确定日程时间。
在一实施例中,所述分离子单元303具体可以包括划分子单元和分离子单元,如下:
划分子单元,用于采用预设分词模型对所述文本信息进行识别和划分,得到所述文本信息对应的多个词单元,并确定所述词单元对应的词属性;
分离子单元,用于根据所述词单元以及所述词属性,提取所述文本信息中的时间信息。
在一实施例中,所述分离子单元具体可以用于:
根据所述词单元以及所述词属性,获取所述词单元之间的语义关系;
从所述词单元中确定时间词单元,并根据所述时间词单元、当前时间以及所述时间词单元之间的语义关系,确定日程时间。
在一实施例中,划分子单元具体可以用于:
识别所述文本信息中的字单元;
根据所述字单元对所述文本信息进行编码运算,得到文本特征向量;
根据所述文本特征向量及预设分词模型特征提取时刻的隐层状态,生成词性特征向量;
对所述词性特征向量进行解码运算,确定所述文本信息对应的词单元,以及所述词单元对应的词属性。
在一实施例中,根据所述文本特征向量及预设分词模型特征提取时刻的隐层状态,生成词性特征向量,具体可以包括:
确定所述当前特征提取时刻的上一特征提取时刻,获取所述上一特征提取时刻的向左隐层状态,根据所述特征提取时刻特征向左隐层状态计算所述当前特征提取时刻的向左隐层状态;
确定所述当前特征提取时刻的下一特征提取时刻,获取所述下一特征提取时刻的向右隐层状态,根据所述特征提取时刻和向右隐层状态计算当前特征提取时刻的向右隐层状态;
根据所述当前特征提取时刻的向左隐层状态和向右隐层状态,生成词性特征向量。
(4)生成单元304,用于根据所述日程时间和所述文本信息生成日程信息。
(5)设置单元305,用于根据所述日程信息,对终端进行日程设置。
在一实施例中,所述设置单元305具体可以用于:
显示所述日程信息;
当检测到用户针对所述日程信息的确定操作时,根据所述日程信息,对终端进行日程设置。
或者,
显示所述日程信息;
当检测到用户针对所述日程信息的修改操作时,获取修改后的日程信息;
根据所述修改后的日程信息,对终端进行日程设置。
在一实施例中,所述设置单元305还可以用于:设置所述终端基于所述日程时间提示日程信息。
由上可知,本申请实施例可以由获取单元获取用户输入的语音信息;由识别单元对所述语音信息进行识别,得到所述语音信息对应的文本信息;由分离单元从所述文本信息中分离得到时间信息,并根据所述时间信息和当前时间确定日程时间;由生成单元根据所述日程时间和所述文本信息生成日程信息;由设置单元根据所述日程信息,对终端进行日程设置。通过自动识别语音信息中的时间信息,可以方便快捷地进行日程设置,改善用户体验。
此外,本申请实施例还提供一种计算机设备。如图4所示,其示出了本申请实施例所涉及的计算机设备的结构示意图,具体来讲:
该计算机设备可以包括一个或者一个以上处理核心的处理器401、一个或一个以上计算机可读存储介质的存储器402、电源403和输入单元404等部件。本领域技术人员可以理解,图4中示出的计算机设备结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器401是该计算机设备的控制中心,利用各种接口和线路连接整个计算机设备的各个部分,通过运行或执行存储在存储器402内的软件程序和/或模块,以及调用存储在存储器402内的数据,执行计算机设备的各种功能和处理数据,从而对计算机设备进行整体监控。可选的,处理器401可包括一个或多个处理核心;优选的,处理器401可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作***、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器401中。
存储器402可用于存储软件程序以及模块,处理器401通过运行存储在存储器402的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器402可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据计算机设备的使用所创建的数据等。此外,存储器402可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器402还可以包括存储器控制器,以提供处理器401对存储器402的访问。
计算机设备还包括给各个部件供电的电源403,优选的,电源403可以通过电源管理***与处理器401逻辑相连,从而通过电源管理***实现管理充电、放电、以及功耗管理等功能。电源403还可以包括一个或一个以上的直流或交流电源、再充电***、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
该计算机设备还可包括输入单元404,该输入单元404可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
尽管未示出,计算机设备还可以包括显示单元等,在此不再赘述。具体在本实施例中,计算机设备中的处理器401会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器402中,并由处理器401来运行存储在存储器402中的应用程序,从而实现各种功能,如下:
获取用户输入的语音信息;
对所述语音信息进行识别,得到所述语音信息对应的文本信息;
从所述文本信息中分离得到时间信息,并根据所述时间信息和当前时间确定日程时间;
根据所述日程时间和所述文本信息生成日程信息;
根据所述日程信息,对终端进行日程设置。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
由上可知,本申请实施例根据语音信息的情感类型,可以深度理解用户的需求,从而选择合理的应答内容,可以安抚用户的情绪,提高用户体验。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本申请实施例还提供一种计算机可读存储介质,其中存储有多条指令,该指令能够被处理器进行加载,以执行本申请实施例所提供的任一种日程设置方法中的步骤。例如,该指令可以执行如下步骤:
获取用户输入的语音信息;
对所述语音信息进行识别,得到所述语音信息对应的文本信息;
从所述文本信息中分离得到时间信息,并根据所述时间信息和当前时间确定日程时间;
根据所述日程时间和所述文本信息生成日程信息;
根据所述日程信息,对终端进行日程设置。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,该计算机可读存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该计算机可读存储介质中所存储的指令,可以执行本申请实施例所提供的任一种日程设置方法中的步骤,因此,可以实现本申请实施例所提供的任一种日程设置方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
以上对本申请实施例所提供的一种日程设置方法、装置和存储介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (13)
1.一种日程设置方法,其特征在于,包括:
获取用户输入的语音信息;
对所述语音信息进行识别,得到所述语音信息对应的文本信息;
从所述文本信息中分离得到时间信息,并根据所述时间信息和当前时间确定日程时间;
根据所述日程时间和所述文本信息生成日程信息;
根据所述日程信息,对终端进行日程设置。
2.如权利要求1所述的日程设置方法,其特征在于,所述根据所述日程信息,对终端进行日程设置,包括:
显示所述日程信息;
当检测到用户针对所述日程信息的确定操作时,根据所述日程信息,对终端进行日程设置。
3.如权利要求2所述的日程设置方法,其特征在于,所述根据所述日程信息,对终端进行日程设置,还包括:
显示所述日程信息;
当检测到用户针对所述日程信息的修改操作时,获取修改后的日程信息;
根据所述修改后的日程信息,对终端进行日程设置。
4.如权利要求1所述的日程设置方法,其特征在于,所述对终端进行日程设置,包括:
设置所述终端基于所述日程时间提示日程信息。
5.如权利要求1所述的日程设置方法,其特征在于,所述从所述文本信息中分离得到时间信息,并根据所述时间信息和当前时间确定日程时间,包括:
采用预设分词模型对所述文本信息进行识别和划分,得到所述文本信息对应的多个词单元,并确定所述词单元对应的词属性;
根据所述词单元以及所述词属性,提取所述文本信息中的时间信息,并根据所述时间信息和当前时间确定日程时间。
6.如权利要求5所述的日程设置方法,其特征在于,根据所述词单元以及所述词属性,提取所述文本信息中的时间信息,并根据所述时间信息和当前时间确定日程时间包括:
根据所述词单元以及所述词属性,获取所述词单元之间的语义关系;
从所述词单元中确定时间词单元,并根据所述时间词单元、当前时间以及所述时间词单元之间的语义关系,确定日程时间。
7.如权利要求6所述的日程设置方法,其特征在于,所述根据所述词单元以及所述词属性,获取所述词单元之间的语义关系,包括:
根据所述文本信息对应的词单元和词属性,生成句子依存关系树;
基于预设依存规则,对所述句子依存关系树中的节点进行规则匹配;
当规则匹配成功时,以所述节点为中心结构生成语义关联组;
基于所述句子依存关系树与所述语义关联组确定所述词单元之间的依存关系。
8.如权利要求5所述的日程设置方法,其特征在于,所述采用预设分词模型对所述文本信息进行识别和划分,得到所述文本信息对应的多个词单元,并确定所述词单元对应的词属性,包括:
识别所述文本信息中的字单元;
根据所述字单元对所述文本信息进行编码运算,得到文本特征向量;
根据所述文本特征向量及预设分词模型特征提取时刻的隐层状态,生成词性特征向量;
对所述词性特征向量进行解码运算,确定所述文本信息对应的词单元,以及所述词单元对应的词属性。
9.如权利要求8所述的日程设置方法,其特征在于,所述根据所述文本特征向量及预设分词模型特征提取时刻的隐层状态,生成词性特征向量,包括:
确定所述当前特征提取时刻的上一特征提取时刻,获取所述上一特征提取时刻的向左隐层状态,根据所述特征提取时刻特征向左隐层状态计算所述当前特征提取时刻的向左隐层状态;
确定所述当前特征提取时刻的下一特征提取时刻,获取所述下一特征提取时刻的向右隐层状态,根据所述特征提取时刻和向右隐层状态计算当前特征提取时刻的向右隐层状态;
根据所述当前特征提取时刻的向左隐层状态和向右隐层状态,生成词性特征向量。
10.如权利要求1所述的日程设置方法,其特征在于,所述对所述语音信息进行识别,得到所述语音信息对应的文本信息,包括:
提取所述语音信息的音频特征信息;
根据所述语音信息的音频特征信息,获取所述语音信息对应的文本信息。
11.如权利要求10所述的日程设置方法,其特征在于,所述根据所述语音信息的音频特征信息,获取所述语音信息对应的文本信息,包括:
根据预设声学模型,获取所述音频特征信息对应的音素;
根据预设语言模型,对所述音素和预设字典进行比较与匹配,得到所述音素对应的文本单词;
提取所述文本单词之间的语义关联信息,根据所述关联信息,将所述文本单词组合得到文本信息。
12.一种日程设置装置,其特征在于,包括:
获取单元,用于获取用户输入的语音信息;
识别单元,用于对所述语音信息进行识别,得到所述语音信息对应的文本信息;
分离单元,用于从所述文本信息中分离得到时间信息,并根据所述时间信息和当前时间确定日程时间;
生成单元,用于根据所述日程时间和所述文本信息生成日程信息;
设置单元,用于根据所述日程信息,对终端进行日程设置。
13.一种存储介质,其上存储有计算机程序,其特征在于,当计算机程序在计算机上运行时,使得所述计算机执行如权利要求11至中任一项所述的日程信息设置方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010936030.9A CN112150103B (zh) | 2020-09-08 | 2020-09-08 | 一种日程设置方法、装置和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010936030.9A CN112150103B (zh) | 2020-09-08 | 2020-09-08 | 一种日程设置方法、装置和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112150103A true CN112150103A (zh) | 2020-12-29 |
CN112150103B CN112150103B (zh) | 2023-11-28 |
Family
ID=73889970
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010936030.9A Active CN112150103B (zh) | 2020-09-08 | 2020-09-08 | 一种日程设置方法、装置和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112150103B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113836270A (zh) * | 2021-09-28 | 2021-12-24 | 深圳格隆汇信息科技有限公司 | 大数据的处理方法及相关产品 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007179239A (ja) * | 2005-12-27 | 2007-07-12 | Kenwood Corp | スケジュール管理装置及びプログラム |
CN106020953A (zh) * | 2016-05-12 | 2016-10-12 | 青岛海信移动通信技术股份有限公司 | 一种在电子日历中建立日程的方法和装置 |
CN108629549A (zh) * | 2017-03-15 | 2018-10-09 | 腾讯科技(深圳)有限公司 | 一种日程处理方法及装置 |
CN110798578A (zh) * | 2019-11-07 | 2020-02-14 | 浙江同花顺智能科技有限公司 | 一种来电事务管理方法、装置以及相关设备 |
CN111312245A (zh) * | 2020-02-18 | 2020-06-19 | 腾讯科技(深圳)有限公司 | 一种语音应答方法、装置和存储介质 |
-
2020
- 2020-09-08 CN CN202010936030.9A patent/CN112150103B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007179239A (ja) * | 2005-12-27 | 2007-07-12 | Kenwood Corp | スケジュール管理装置及びプログラム |
CN106020953A (zh) * | 2016-05-12 | 2016-10-12 | 青岛海信移动通信技术股份有限公司 | 一种在电子日历中建立日程的方法和装置 |
CN108629549A (zh) * | 2017-03-15 | 2018-10-09 | 腾讯科技(深圳)有限公司 | 一种日程处理方法及装置 |
CN110798578A (zh) * | 2019-11-07 | 2020-02-14 | 浙江同花顺智能科技有限公司 | 一种来电事务管理方法、装置以及相关设备 |
CN111312245A (zh) * | 2020-02-18 | 2020-06-19 | 腾讯科技(深圳)有限公司 | 一种语音应答方法、装置和存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113836270A (zh) * | 2021-09-28 | 2021-12-24 | 深圳格隆汇信息科技有限公司 | 大数据的处理方法及相关产品 |
Also Published As
Publication number | Publication date |
---|---|
CN112150103B (zh) | 2023-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111933129B (zh) | 音频处理方法、语言模型的训练方法、装置及计算机设备 | |
CN111312245B (zh) | 一种语音应答方法、装置和存储介质 | |
US11475897B2 (en) | Method and apparatus for response using voice matching user category | |
WO2023222088A1 (zh) | 语音识别与分类方法和装置 | |
CN113837299B (zh) | 基于人工智能的网络训练方法及装置、电子设备 | |
CN111223476B (zh) | 语音特征向量的提取方法、装置、计算机设备和存储介质 | |
CN110851650B (zh) | 一种评论输出方法、装置、以及计算机存储介质 | |
CN112151015A (zh) | 关键词检测方法、装置、电子设备以及存储介质 | |
KR101677859B1 (ko) | 지식 베이스를 이용하는 시스템 응답 생성 방법 및 이를 수행하는 장치 | |
CN112634858A (zh) | 语音合成方法、装置、计算机设备及存储介质 | |
CN108053826B (zh) | 用于人机交互的方法、装置、电子设备及存储介质 | |
CN116542256A (zh) | 一种融合对话上下文信息的自然语言理解方法与装置 | |
CN111653274A (zh) | 唤醒词识别的方法、装置及存储介质 | |
CN112150103B (zh) | 一种日程设置方法、装置和存储介质 | |
CN111554270B (zh) | 训练样本筛选方法及电子设备 | |
CN113178200A (zh) | 语音转换方法、装置、服务器及存储介质 | |
CN116978367A (zh) | 语音识别方法、装置、电子设备和存储介质 | |
CN114373443A (zh) | 语音合成方法和装置、计算设备、存储介质及程序产品 | |
CN115985320A (zh) | 智能设备控制方法、装置、电子设备及存储介质 | |
CN112397053B (zh) | 语音识别方法、装置、电子设备及可读存储介质 | |
CN115171660A (zh) | 一种声纹信息处理方法、装置、电子设备及存储介质 | |
CN114417827A (zh) | 文本上下文处理方法、装置、电子设备和存储介质 | |
CN114333790A (zh) | 数据处理方法、装置、设备、存储介质及程序产品 | |
CN115169367B (zh) | 对话生成方法及装置、存储介质 | |
CN115577084B (zh) | 一种对话策略的预测方法及预测装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |