CN110188179A - 语音定向识别交互方法、装置、设备及介质 - Google Patents

语音定向识别交互方法、装置、设备及介质 Download PDF

Info

Publication number
CN110188179A
CN110188179A CN201910466749.8A CN201910466749A CN110188179A CN 110188179 A CN110188179 A CN 110188179A CN 201910466749 A CN201910466749 A CN 201910466749A CN 110188179 A CN110188179 A CN 110188179A
Authority
CN
China
Prior art keywords
speech
face
oriented
image
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910466749.8A
Other languages
English (en)
Other versions
CN110188179B (zh
Inventor
嵇望
汪斌
林达
李林峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Xiaoyuan Robot Co ltd
Original Assignee
Zhejiang Utry Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Utry Information Technology Co Ltd filed Critical Zhejiang Utry Information Technology Co Ltd
Priority to CN201910466749.8A priority Critical patent/CN110188179B/zh
Publication of CN110188179A publication Critical patent/CN110188179A/zh
Application granted granted Critical
Publication of CN110188179B publication Critical patent/CN110188179B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本专利申请涉及人机语音交互领域,公开了一种语音定向识别交互方法,包括如下步骤:拾取正前方的声音信号进行识别,得到语音文本内容,获取该语音文本内容;基于图像采集角度和采集距离,获取同时满足所述图像采集角度和所述采集距离的人脸图像;根据所述语音文本内容和所述人脸图像,判断是否作出回复;其中,所述图像采集角度为60‑70度,所述采集距离小于等于1m。本专利申请还公开了一种语音定向识别交互装置、电子设备及计算机存储介质,本专利提供的语音定向识别交互方法符合日常交流习惯,能有效消除局外人的声音跟环境的声音,实现与正在前方交互的用户达成有效的拟人化沟通。

Description

语音定向识别交互方法、装置、设备及介质
技术领域
本发明涉及人机语音交互领域,具体涉及一种语音定向识别交互方法、装置、设备及介质。
背景技术
目前机器人或者语音助手的应用普遍处于复杂的环境下,比如会议室、户外、商场等嘈杂环境,从而会出现噪音、混响、人声干扰、回声等各种问题,并且在人机语音交互过程中,用于收声的阵列麦克风也会识别周围360度范围内的声音,为了解决误识环境音的问题,“唤醒词”技术在语音交互中被采用。在实际应用中,只有当机器人或语音交互助手接受到唤醒词之后才会对语音内容进行识别;否则,不进行识别。
“唤醒词”技术是当前主流机器人或智能设备进行人机交互时的主要触发方式。使用唤醒词唤醒的问题在于,对作为交互的主体人来说,他必须学习使用唤醒词,如果在一个陌生的地方遇到一个机器人,交互主题人完全不知道唤醒它的是哪一个唤醒词,如果没有唤醒词,将无法与它交流。再者,每次跟机器人对话前都要说一遍“唤醒词”,这样的交互流程不仅机械且影响交互的节奏,并且也会出现忘记说出“唤醒词”或频繁说出“唤醒词”的情况,导致主体交互人说完了一大段话,而机器人没有在聆听。
一般跟机器人交互都是站在其正前方,但是由于全向阵列麦克风的收音会导致收音过程中会混入局外人的声音跟环境的声音,即机器人身后或者左右有人声或者噪音也会收入并且识别,从而会降低语音识别的正确性,即使识别正确也有可能导致机器人错误应答,不能和正在前方交互的用户达成有效沟通。
为解决上述问题,中国专利CN105204628A公开了一种基于视觉唤醒的语音控制方法,包括语音控制设备接收到至少部分的语音信号后,启动安装在其上的图像接收单元,由图像接收单元获取图像并传送到图像识别单元进行识别,当识别到视线朝向所述语音控制设备的人脸时,进行语音识别。但是该专利仍然没有解决环境噪音的干扰,当语音控制设备360度范围内出现多个声源时,比如图像接收单元识别到人脸同时在语音控制设备接收到周围多个语音信号时,语音控制设备的识别效果会受到外界环境音的干扰。
发明内容
为了克服现有技术的不足,本发明的目的之一在于提供一种语音定向识别交互方法,结合人脸图像和声音信号确定特定交互对象后进行针对性回复,符合日常交流习惯。
本发明的目的之一采用以下技术方案实现:
一种语音定向识别交互方法,其特征在于,包括如下步骤:
获取采集到的语音文本内容;
获取同时满足图像采集角度和采集距离的人脸图像;
根据所述语音文本内容和所述人脸图像,判断是否作出回复;
其中,所述图像采集角度为60-70度,所述采集距离小于等于1m,且所述语音文本内容的采集方法为:对正前方的声音信号进行定向拾取和信号增强后,进行语音识别。
进一步地,所述人脸图像的采集步骤如下:对采集到的图像数据进行特征提取,再通过人脸检测算法判断图像中是否包含人脸,若不包含人脸,对所述图像数据不作处理;若包含人脸,则利用人脸角度估计算法和人脸距离估计算法计算图像中人脸的3D角度信息和距离信息,若人脸的3D角度信息和距离信息均满足条件,则保留该图像数据作为人脸图像;若不满足条件,则不采集。
进一步地,当同时获取到所述语音文本内容和所述人脸图像时,即针对所述语音文本内容作出回复,否则不作回复。
进一步地,所述人脸角度估计算法采用基于卷积神经网络的人脸检测算法,包括如下步骤:
建立人脸图片库,并对所述人脸图片库进行特征提取和分析,提取五官的形态和位置进行统计,得到统计分析结果;
采用深度卷积神经网络方法对所述统计分析结果进行训练得到建立部位分类器,根据人脸分类器对所述图像数据中的人脸进行评分,然后根据每个特征部位的得分进行规则分析得到人脸候选区域,最后结合边界回归算法得到最终的人脸检测结果。
进一步地,所述人脸角度估计算法采用了LVQ算法预先训练人脸在镜头中的90个角度模型,通过输入人脸的眼部特征匹配相应角度,最后得到人脸的3D角度信息。
进一步地,所述声音信号定向拾取后采用广义旁瓣消除器算法进行信号增强,具体为:将声音信号进行能量归一化,然后通过固定波束形成器产生主瓣上的正向语音参考信号,并通过旁瓣消除器产生噪声参考信号,最后利用噪声抵消器将消除主瓣信号上的噪声成分。
本发明的目的之二在于提供一种语音定向识别交互装置,采用以下技术方案实现:
语音定向识别交互装置,包括:
语音拾取设备,用于定向拾取正前方的声音信号,并进行语音识别,得到语音文本内容;
图像采集设备,预先设置有图像采集角度和采集距离,并采集同时满足所述图像采集角度和所述采集距离的人脸图像;
处理单元,用于获取所述语音文本内容和所述人脸图像,并判断是否作出回复。
进一步地,所述语音拾取设备定向拾取的收音范围为:收音角度60-70度,收音距离小于等于1m。
本发明的目的之三在于提供执行发明目的之一的电子设备,其包括处理器、存储介质以及计算机程序,所述计算机程序存储于存储介质中,所述计算机程序被处理器执行时实现上述的语音定向识别交互方法。
本发明的目的之四在于提供存储发明目的之一的计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述的语音定向识别交互方法。
相比现有技术,本发明的有益效果在于:
定向识别来自正前方的声音信号,限制拾取声音信号的角度和距离,并对拾取到的声音信号进行信号增强,有助于消除环境噪音的干扰,避免拾取周围多个声音信号而影响识别效果;限制图像采集设备采集人脸图像的角度和距离,更符合日常交流模式,只有同时获取到特定范围和距离内的声音信号和人脸图像时,才相应回话,不仅更符合日常交流模式,更有助于达成有效沟通,增加人机沟通的拟人化效果。
附图说明
图1是本发明实施例1语音定向识别交互方法的流程示意图;
图2为本发明实施例2提供的语音定向识别交互装置的示意图;
图3是本发明实施例3的电子设备的结构框图。
具体实施方式
以下将结合附图,对本发明进行更为详细的描述,需要说明的是,下参照附图对本发明进行的描述仅是示意性的,而非限制性的。各个不同实施例之间可以进行相互组合,以构成未在以下描述中示出的其他实施例。
实施例1
语音定向识别交互方法,通过定向获取语音信号和符合要求的人脸图像,以进行语音交互,如图1所示,包括如下步骤:
获取采集到的语音文本内容;
获取同时满足图像采集角度和采集距离的人脸图像;
根据获取到的语音文本内容和人脸图像,判断是否作出回复;
其中,所述图像采集角度为60-70度,所述采集距离小于等于1m。
且上述语音文本内容的采集方法为:对正前方的声音信号进行定向拾取和信号增强后,进行语音识别。
当同时获取到所述语音文本内容和所述人脸图像时,即针对所述语音文本内容作出回复,否则不作回复。
在本实施例中,基于人脸检测算法、人脸角度估计算法和距离检测算法判断是否有人脸出现在60-70度角度范围且人脸距离在1m的距离范围内,利用人脸角度估计算法和距离检测算法采集人脸图像的步骤如下:首先,对采集到的图像数据进行特征提取,再通过人脸检测算法判断图像中是否包含人脸,若不包含人脸,对所述图像数据不作处理。
若包含人脸,则利用人脸角度估计算法和距离检测算法计算图像中人脸的3D角度信息和距离信息,若人脸的3D角度信息和距离信息均满足条件,则保留该图像数据作为人脸图像;若不满足条件,则不作处理。
上述人脸检测算法基于卷积神经网络方法,具体包括如下步骤:
建立人脸图片库,并对所述人脸图片库进行特征提取和分析,提取五官的形态和位置进行统计,得到统计分析结果;
采用深度卷积神经网络方法对所述统计分析结果进行训练建立部位分类器,根据人脸分类器对所述图像数据中的人脸进行评分,然后根据每个特征部位的得分进行规则分析得到人脸候选区域,最后结合边界回归算法得到最终的人脸检测结果。
在得到人脸检测结果后,将人脸头像从原始图像数据中抠出,并从中提取头像特征,并将特征经人脸角度估计算法计算得到此张人脸头像的3D角度信息。
本发明中提及的人脸角度估计算法采用学习向量量化LVQ(Learning VectorQuantization)的前向神经网络。首先准备一组人脸角度不同角度的图像,图像来自不同的100个人,每人90幅图像,人脸角度分别为:左方、左前方、前方、右前方、右方,依次从左到右,每1度1个人脸图像。
先将图片中描述眼睛位置的特征向量提取出来作为LVQ神经网络的输入,90个角度分别用1,2,3,.....,89,90表示,作为LVQ神经网络的输出。通过对训练集的图像进行训练,得到具有预测功能的网络,便可以对任意给出的人脸图像进行角度判断。
本发明中眼部位置特征向量提取具体方法是将采集到的9000幅图像先进行预处理,将图片按320×360的尺寸对人脸部位进行裁剪,然后将裁剪得到的图像按“人员编号_人脸角度”的格式进行命名,再将其转换成二值灰度图像,接着将图像划分成6行8列,人眼的位置信息可以用第2行的8个子矩阵来描述,用Sobel边缘算子进行边缘检测后8个子矩阵中的值为“1”的像素点个数与人脸角度有直接关系,只要分别统计出第2行的8个子矩阵中的值为“1”的像素点即可。
Sobel算子进行边缘检测,Sobel算子是一组方向算子,从不同的方向检测边缘。Sobel算子加强了中心像素上下左右4个方向像素的权重,运算结果是一幅边缘图像。该算子计算公式(1)(2)(3)表示:
f′x(x,y)=f(x-1,y+1)+2f(x,y+1)+f(x+1,y+1)-f(x-1,y-1)-2f(x,y-1)-f(x+1,y-1) (1)
f′y(x,y)=f(x-1,y-1)+2f(x-1,y)+f(x-1,y+1)-f(x+1,y-1)-2f(x+1,y)-f(x+1,y+1) (2)
G[f(x,y)]=|f′x(x,y)|+|f′y(x,y)| (3)
式中f′x(x,y)、f′y(x,y)分别表示x方向和y方向的一阶微分,G[f(x,y)]为Sobel算子梯度,f(x,y)是具有整数像数坐标的输入图像。求出梯度后,可设定一个常数T,当G[f(x,y)]>T时,标出该点为边界点,其图像设定为0,其它的设定为255,适当调整常数T的大小来达到最佳效果。在输入图像得到边缘检测结果之后,提取人眼位置处的像数信息,统计出划分网格第2行的8个子矩阵中的值为“1”的像素点的个数,提取的像素点个数用一个100×8的矩阵表示出来,作为LVQ神经网络的输入层。将准备的9000个不同人脸角度的样本提取出特征向量作为训练集,测试集为随机抽取的200个不同人脸角度的图片的特征向量。创建一个隐含层神经元个数为10的神经网络,将训练集和测试集输入到神经网络中进行训练学习,最后得到可预测人脸角度的神经网络模型,至此可预测人脸角度的神经网络模型创建完成。
该人脸角度估计算法是利用了LVQ算法预先训练人脸在镜头中的90个角度模型,通过输入人脸的眼部特征匹配相应角度,最后得到人脸的3D角度信息。
在本实施例中,距离检测算法采用公知的单目测距算法,在此不再赘述
本发明提供的语音定向识别交互方法可应用到智能语音交互设备上,该智能语音交互设备可以是具有行动能力或者转动能力的机器人,也可以是非移动式的机器人(类似于可视电话),凡是要与机器人说话必须站到机器人的可视区域里面,不在可视区域里收到的语音,机器人不作任何回答。
在本实施例中在语音识别之前,对来自正前方的声音信号进行定向拾取和信号增强,选用广义旁瓣消除器算法进行语音信号增强,该广义旁瓣消除器算法具体为:将声音信号进行能量归一化,然后通过固定波束形成器产生主瓣上的正向声音参考信号,并通过旁瓣消除器产生噪声参考信号,最后利用噪声抵消器将消除主瓣信号上的噪声成分。
其中能量归一化基于能量归一化模块,具体采用以下公式(4)实现能量归一化:
固定波束形成器形成固定波束的过程是将所有阵元信号在同一个采集点数据叠加在一起再除以阵元数,从而产生主瓣上的正向声音参考信号,具体采用公式(5)实现:
本实施例采用的广义瓣消除器算法引入旁瓣消除器的作用为自适应噪声消除,从而进一步增强主瓣信号,利用旁瓣消除器对长度为512个点的帧数据处理过程,具体为公式(6)、(7)、(8):
HL(k)=[hm,0(k),hm,1(k),...hm,511(k),]T (7)
D(k)=[d(k),d(k-1),...,d(k-511)]T (8)
其中HL(k)是第L个阵元的自适应调整且受限的参数向量,用于得到纯净的噪声信号。
最后利用噪声抵消器消除主瓣信号上的噪音,即从主瓣信号上减去合成的噪声信号达到进一步增强正向声音信号,具体算法见公式(9)、(10)、(11):
其中,
WL(k)=[WL,0(k),L,1(k),...L,511(k]T (10)
YL(k)=[YL(k),YL(k-1),...YL(k-511)]T (11)
WL(k)是该噪声抵消器中的抵消参数。
在上述算法中,WL(k)和HL(k)均通过归一化最小均方差算法进行自适应调整,因归一化最小均差算法为公知常识,在此不再进行赘述。
在本发明的更优实施例中,若通过上述距离检测算法计算出人脸到图像采集设备的距离大于1m,则控制机器人向前移动至1m范围内。
实施例2
本实施例公开了一种对应实施例1的语音定向识别交互方法的装置,请参照图2所示,包括:
语音拾取设备210,用于定向拾取正前方的声音信号,并进行语音识别,得到语音文本内容;
图像采集设备220,预先设置有图像采集角度和采集距离,并采集同时满足所述图像采集角度和所述采集距离的人脸图像;
处理单元230,用于获取所述语音文本内容和所述人脸图像,并判断是否作出回复。
在本实施例中,语音拾取设备210为固定安装的不可转向的阵列麦克风,阵列麦克风的设定方法是,将定向麦克风波束收音范围调节在正前方,角度控制在60-70度之间,拾音距离最远1m。
图像采集设备220采用安装摄像头实现,在本发明的更优实施例中,若通过上述距离检测算法计算出人脸到图像采集设备2的距离大于1m,则控制本实施例的装置向前移动至1m范围内。
实施例3
图3为本发明实施例3提供的电子设备的示意图,如图3所示,该电子设备包括处理器310、存储器320、输入装置330和输出装置340;计算机设备中处理器310的数量可以是一个或多个,图3中以一个处理器310为例;电子设备中的处理器310、存储器320、输入装置330和输出装置340可以通过总线或其他方式连接,图3中以通过总线连接为例。
存储器320作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明实施例中的语音定向识别交互方法对应的程序指令/模块(例如,语音定向识别交互装置中的处理单元230)。处理器310通过运行存储在存储器320中的软件程序、指令以及模块,从而执行电子设备的各种功能应用以及数据处理,即实现上述实施例1的语音定向识别交互方法。
存储器320可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器320可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器320可进一步包括相对于处理器310远程设置的存储器,这些远程存储器可以通过网络连接至电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置330在本实施例中用于接收语音文本内容和人脸图像等数据。输出装置340可包括显示屏等显示设备,本实施例中输出装置用于输出语音答复。
实施例4
本发明实施例4还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行语音定向识别交互方法,该方法包括:
获取采集到的语音文本内容;
获取同时满足图像采集角度和采集距离的人脸图像;
根据所述语音文本内容和所述人脸图像,判断是否作出回复。
当然,本实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的语音定向识别交互方法中的相关操作。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台电子设备(可以是手机,个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
值得注意的是,上述语音定向识别交互方法的装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
对本领域的技术人员来说,可根据以上描述的技术方案以及构思,做出其它各种相应的改变以及形变,而所有的这些改变以及形变都应该属于本发明权利要求的保护范围之内。

Claims (10)

1.一种语音定向识别交互方法,其特征在于,包括如下步骤:
获取采集到的语音文本内容;
获取同时满足图像采集角度和采集距离的人脸图像;
根据所述语音文本内容和所述人脸图像,判断是否作出回复;
其中,所述图像采集角度为60-70度,所述采集距离小于等于1m,且所述语音文本内容的采集方法为:对正前方的声音信号进行定向拾取和信号增强后,进行语音识别。
2.如权利要求1所述的语音定向识别交互方法,其特征在于,所述人脸图像的采集步骤如下:对采集到的图像数据进行特征提取,再通过人脸检测算法判断图像中是否包含人脸,若不包含人脸,对所述图像数据不作处理;若包含人脸,则利用人脸角度估计算法和人脸距离估计算法计算图像中人脸的3D角度信息和距离信息,若人脸的3D角度信息和距离信息均满足条件,则保留该图像数据作为人脸图像;若不满足条件,则不采集。
3.如权利要求1或2所述的语音定向识别交互方法,其特征在于,当同时获取到所述语音文本内容和所述人脸图像时,即针对所述语音文本内容作出回复,否则不作回复。
4.如权利要求2所述的所述的语音定向识别交互方法,其特征在于,所述人脸角度估计算法采用基于卷积神经网络的人脸检测算法,包括如下步骤:
建立人脸图片库,并对所述人脸图片库进行特征提取和分析,提取五官的形态和位置进行统计,得到统计分析结果;
采用深度卷积神经网络方法对所述统计分析结果进行训练得到建立部位分类器,根据人脸分类器对所述图像数据中的人脸进行评分,然后根据每个特征部位的得分进行规则分析得到人脸候选区域,最后结合边界回归算法得到最终的人脸检测结果。
5.如权利要求4所述的语音定向识别交互方法,所述人脸角度估计算法采用了LVQ算法预先训练人脸在镜头中的90个角度模型,通过输入人脸的眼部特征匹配相应角度,最后得到人脸的3D角度信息。
6.如权利要求1所述的语音定向识别交互方法,其特征在于,所述声音信号定向拾取后采用广义旁瓣消除器算法进行信号增强,具体为:将声音信号进行能量归一化,然后通过固定波束形成器产生主瓣上的正向语音参考信号,并通过旁瓣消除器产生噪声参考信号,最后利用噪声抵消器将消除主瓣信号上的噪声成分。
7.一种语音定向识别交互装置,其特征在于,包括:
语音拾取设备,用于定向拾取正前方的声音信号,并进行语音识别,得到语音文本内容;
图像采集设备,预先设置有图像采集角度和采集距离,并采集同时满足所述图像采集角度和所述采集距离的人脸图像;
处理单元,用于获取所述语音文本内容和所述人脸图像,并判断是否作出回复。
8.如权利要求7所述的语音定向识别交互装置,其特征在于,所述语音拾取设备定向拾取的收音范围为:收音角度60-70度,收音距离小于等于1m。
9.一种电子设备,其包括处理器、存储介质以及计算机程序,所述计算机程序存储于存储介质中,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6任一项所述的语音定向识别交互方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6任一项所述的语音定向识别交互方法。
CN201910466749.8A 2019-05-30 2019-05-30 语音定向识别交互方法、装置、设备及介质 Active CN110188179B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910466749.8A CN110188179B (zh) 2019-05-30 2019-05-30 语音定向识别交互方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910466749.8A CN110188179B (zh) 2019-05-30 2019-05-30 语音定向识别交互方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN110188179A true CN110188179A (zh) 2019-08-30
CN110188179B CN110188179B (zh) 2020-06-19

Family

ID=67719234

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910466749.8A Active CN110188179B (zh) 2019-05-30 2019-05-30 语音定向识别交互方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN110188179B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110619895A (zh) * 2019-09-06 2019-12-27 Oppo广东移动通信有限公司 定向发声控制方法及装置、发声设备、介质和电子设备
CN112908334A (zh) * 2021-01-31 2021-06-04 云知声智能科技股份有限公司 一种基于定向拾音的助听方法、装置及设备
CN114699777A (zh) * 2022-04-13 2022-07-05 南京晓庄学院 一种玩具舞蹈机器人的控制方法和***

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6393136B1 (en) * 1999-01-04 2002-05-21 International Business Machines Corporation Method and apparatus for determining eye contact
CN104820556A (zh) * 2015-05-06 2015-08-05 广州视源电子科技股份有限公司 唤醒语音助手的方法及装置
CN106024003A (zh) * 2016-05-10 2016-10-12 北京地平线信息技术有限公司 结合图像的语音定位和增强***及方法
CN107679506A (zh) * 2017-10-12 2018-02-09 Tcl通力电子(惠州)有限公司 智能产品的唤醒方法、智能产品及计算机可读存储介质
CN108733420A (zh) * 2018-03-21 2018-11-02 北京猎户星空科技有限公司 智能设备的唤醒方法、装置、智能设备和存储介质
CN109640224A (zh) * 2018-12-26 2019-04-16 北京猎户星空科技有限公司 一种拾音方法及装置
CN109754814A (zh) * 2017-11-08 2019-05-14 阿里巴巴集团控股有限公司 一种声音处理方法、交互设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6393136B1 (en) * 1999-01-04 2002-05-21 International Business Machines Corporation Method and apparatus for determining eye contact
CN104820556A (zh) * 2015-05-06 2015-08-05 广州视源电子科技股份有限公司 唤醒语音助手的方法及装置
CN106024003A (zh) * 2016-05-10 2016-10-12 北京地平线信息技术有限公司 结合图像的语音定位和增强***及方法
CN107679506A (zh) * 2017-10-12 2018-02-09 Tcl通力电子(惠州)有限公司 智能产品的唤醒方法、智能产品及计算机可读存储介质
CN109754814A (zh) * 2017-11-08 2019-05-14 阿里巴巴集团控股有限公司 一种声音处理方法、交互设备
CN108733420A (zh) * 2018-03-21 2018-11-02 北京猎户星空科技有限公司 智能设备的唤醒方法、装置、智能设备和存储介质
CN109640224A (zh) * 2018-12-26 2019-04-16 北京猎户星空科技有限公司 一种拾音方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
李萍: "学习矢量量化神经网络在人脸朝向识别中的应用", 《忻州师范学院学报》 *
王晓荣等: "基于改进广义旁瓣抵消器的语音增强", 《杭州电子科技大学学报》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110619895A (zh) * 2019-09-06 2019-12-27 Oppo广东移动通信有限公司 定向发声控制方法及装置、发声设备、介质和电子设备
CN112908334A (zh) * 2021-01-31 2021-06-04 云知声智能科技股份有限公司 一种基于定向拾音的助听方法、装置及设备
CN114699777A (zh) * 2022-04-13 2022-07-05 南京晓庄学院 一种玩具舞蹈机器人的控制方法和***

Also Published As

Publication number Publication date
CN110188179B (zh) 2020-06-19

Similar Documents

Publication Publication Date Title
EP3373202B1 (en) Verification method and system
CN107346661B (zh) 一种基于麦克风阵列的远距离虹膜跟踪与采集方法
CN111833899B (zh) 一种基于多音区的语音检测方法、相关装置及存储介质
CN112088402A (zh) 用于说话者识别的联合神经网络
CN108470169A (zh) 人脸识别***及方法
US20240087587A1 (en) Wearable system speech processing
CN112088315A (zh) 多模式语音定位
CN110188179A (zh) 语音定向识别交互方法、装置、设备及介质
CN106157956A (zh) 语音识别的方法及装置
CN109274883A (zh) 姿态矫正方法、装置、终端及存储介质
CN108198130B (zh) 图像处理方法、装置、存储介质及电子设备
CN109117753A (zh) 部位识别方法、装置、终端及存储介质
CN110718227A (zh) 一种基于多模态交互的分布式物联网设备协同方法及其***
CN108877787A (zh) 语音识别方法、装置、服务器及存储介质
CN111767785A (zh) 人机交互控制方法及装置、智能机器人及存储介质
CN111341350A (zh) 人机交互控制方法、***、智能机器人及存储介质
CN113611318A (zh) 一种音频数据增强方法及相关设备
WO2021166811A1 (ja) 情報処理装置および行動モード設定方法
CN112639964A (zh) 利用深度信息识别语音的方法、***及计算机可读介质
CN109986553B (zh) 一种主动交互的机器人、***、方法及存储装置
CN112507829B (zh) 一种多人视频手语翻译方法及***
CN112700568A (zh) 一种身份认证的方法、设备及计算机可读存储介质
CN116301381A (zh) 一种交互方法及相关设备和***
CN116312512A (zh) 面向多人场景的视听融合唤醒词识别方法及装置
CN109382827A (zh) 一种机器人***及其智能记忆识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20220621

Address after: 310051 4f, Yuanyuan building, No. 528, Liye Road, Changhe street, Binjiang District, Hangzhou City, Zhejiang Province

Patentee after: ZHEJIANG XIAOYUAN ROBOT Co.,Ltd.

Address before: 23 / F, World Trade Center, 857 Xincheng Road, Binjiang District, Hangzhou City, Zhejiang Province, 310051

Patentee before: ZHEJIANG UTRY INFORMATION TECHNOLOGY Co.,Ltd.

TR01 Transfer of patent right