CN111428769A - 一种软件设计宠物行为语言的人工智能翻译*** - Google Patents

一种软件设计宠物行为语言的人工智能翻译*** Download PDF

Info

Publication number
CN111428769A
CN111428769A CN202010190580.0A CN202010190580A CN111428769A CN 111428769 A CN111428769 A CN 111428769A CN 202010190580 A CN202010190580 A CN 202010190580A CN 111428769 A CN111428769 A CN 111428769A
Authority
CN
China
Prior art keywords
model database
neural network
information
artificial intelligence
pet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010190580.0A
Other languages
English (en)
Inventor
周升志
邓海英
邓海琳
黄解珠
段凯文
廖健慧
江振东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN202010190580.0A priority Critical patent/CN111428769A/zh
Publication of CN111428769A publication Critical patent/CN111428769A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Biomedical Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Probability & Statistics with Applications (AREA)
  • Signal Processing (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及一种软件设计宠物行为语言的人工智能翻译***,属于软件设计与人工智能领域,由以下部分组成:用户端、数据处理端、分类处理端、信息汇总端和结果表达端。采用卷积神经网络技术来实现宠物行为语言智能化分析的***,采用主成成分分析法(PCA)、深度信念神经网络(DBN)和SoftMax函数进行分类处理技术来实现宠物行为语言智能化分析的***能够实现更加高效、更为准确的宠物行为语言识别与翻译。

Description

一种软件设计宠物行为语言的人工智能翻译***
技术领域
本发明涉及一种软件设计宠物行为语言的人工智能翻译***,属于软件设计与人工智能领域。
背景技术
针对于宠物行为学的研究,国内研究比国外起步晚,在近几年才兴起对宠物行为学的研究,目前国内外暂无宠物行为语言的人工智能研究专利及软件产品,因此本发明具有独创性。宠物行为语言的研究对加深饲主与宠物沟通、宠物训导和宠物心理疾病的诊疗有非常重要的意义,但是宠物行为语言在国内发展晚,理论基础差且学习难度高,限制了宠物行为语言在生活和临床诊疗中的应用;其次,计算机技术应用于宠物行为语言的难度高,传统人工智能技术需要大量的视频数据库或图片数据库,难以实现智能化,因此国内外暂无相关宠物行为语言的人工智能软件。
目前国内外常用的神经网络识别方法为2DCNN,这种方法主要是通过将视频图像切割成为每一帧,再通过使用2DCNN神经网络识别模型时间维度下逐帧之间的运动信息交互,缺点为识别准确率偏低;而卷积神经网络技术的卷积层,是通过选择连续三个帧的图像进行卷积识别,替代2DCNN的单帧图像识别,保证每一个特征map上都能够与前一帧图像进行相连,来捕捉运动信息,准确率更高且技术更加先进。
由于音频信号存在高维度高冗余的特点,传统的音频情绪识别模型中,往往需要通过先对音频进行音频处理,根据实际需要提取较为合适的音频特征,最后通过建模将所提取到的特征进行模型训练,最终达到音频情绪识别的效果,因此识别准确率低、效率低且难以实践应用。
发明内容
基于背景技术中提到的上述问题,为解决上述问题,本发明拟提供一种宠物行为语言的人工智能翻译***。
本发明的***是通过以下步骤实现的:
本发明的工作流程为,第一步,用户根据软件操作提示,用手机等智能终端对犬、猫的动作行为拍一段限定时间的视频或从相册选择已拍好的犬、猫行为视频,提交上传;第二步,数据处理端主要有三个作用,顺序不分先后。首先,对上传视频首先按已设定的各个器官特异点,提取眼睛、鼻子、耳朵、舌头、牙齿、嘴唇和尾巴的器官变化表征;其次,按已设定的运动特异点,提取坐、站立、卧倒、匍匐和跳跃变化的表征;最后,按已设定的声音特异点,提取音高、音调、时间长短和时间频率变化的表征;第三步,分类处理端为固化模型数据库,包含器官固化模型数据库、运动模型数据库和声音模型数据库三个数据库。数据处理端采集的器官、行为和声音表征按已设定的特异点分析方法,匹配分类处理端的固化模型数据库,得到固化模型数据库运算结果,其结果为片段式信息;第四步,信息汇总端对上述大量的片段式信息做信息汇总,删除突兀、矛盾的词汇,建立词汇逻辑来造句表达,得到处理结果;第五步,结果表达端根据用户注册提供的宠物年龄和性别信息,相应匹配男声、女生和童声模式,对信息汇总端的处理结果进行声音表达。
本发明的技术方案为:
一种软件设计宠物行为语言的人工智能翻译***,由以下部分组成:用户端、数据处理端、分类处理端、信息汇总端和结果表达端
所述的用户端为:以手机APP、微信公众号、电脑软件形式设置在手机、平板电脑、电脑等智能终端,使用者根据软件注册操作提示,相应提供宠物的种类、年龄、性别生活环境和生活习惯相关信息;用户根据软件操作提示,用手机等智能终端对犬、猫的动作行为拍一段限定时间的视频或从相册选择已拍好的犬、猫行为视频,提交上传作为提供视频信息。
所述的数据处理端:通过卷积神经网络的人工智能技术、主成成分分析法、深度信念神经网络和SoftMax函数进行分类处理,提取器官、声音和行为的变化表征,建立生成分析对象,具体体现在:对上传视频首先按已设定的各个器官特异点,提取头部、眼睛、鼻子、耳朵、舌头、牙齿、嘴唇和尾巴的器官变化表征;对上传视频按已设定的运动特异点,提取坐、站立、卧倒、匍匐和跳跃变化的表征;对上传视频按已设定的声音特异点,提取音高、音调、时间长短和时间频率变化的表征。
所述的分类处理端于:分类处理端为固化模型数据库,包含器官固化模型数据库、运动模型数据库和声音模型数据库三个数据库,由数据处理端采集的器官、行为和声音表征作为处理对象,按已设定的特异点分析方法,匹配分类处理端的固化模型数据库,得到固化模型数据库运算结果。
所述的信息汇总端:信息汇总端是语言处理模块,对分类处理端的固化模型数据库运算结果进行再处理,建立逻辑关系通过造句表达,固化模型数据库运算的结果为片段式信息,信息汇总端对上述大量的片段式信息做信息汇总,删除突兀、矛盾的词汇,建立词汇逻辑来造句表达,得到处理结果。
所述的结果表达端:结果表达端是语言匹配模块,根据用户端注册提供的宠物种类、年龄和性别信息,相应匹配男声、女生和童声模式,对信息汇总端的处理结果进行声音表达。
所述器官固化模型数据库、运动模型数据库的建立是通过卷积神经网络的人工智能技术实现;所述声音模型数据库过使用主成成分分析法(PCA)、深度信念神经网络(DBN)和SoftMax函数进行分类处理技术来实现。
所述的卷积神经网络的人工智能技术,具体为以下步骤:
(1)首先,卷积神经网络的卷积层通过选择连续三个帧的图像进行卷积图像识别,保证每一个特征map上都能够与前一帧图像进行相连,来捕捉运动信息;
(2)再将大小为60*40的视频连续帧图像作为输入层元素,同时使用大小为7*7*3的3D卷积和进行卷积操作,其中7*7标识空间维度,7*7*3表示使用三个空间维度的卷积核;
(3)再采用23*2max pooling操作对数据进行降采样;
(4)最后,再通过7*6*3的卷积核进行卷积操作,通过卷积操作值已经很小,故采用7*4大小的降采样层对数据进行操作,最终识别出动物的各个已设定的器官行为和动作行为。
所述的主成成分分析法、深度信念神经网络和SoftMax函数,具体由以下步骤组成
(1)通过短时平均能量算法进行音频识别;
(2)再次,通过主成成分分析法(PCA)对音频数据的冗余噪音,进行进行降维处理;
(3)处理后的音频数据输入到深度信念神经网络(DBN)中进行训练;
(4)最后通过SoftMax函数分类处理技术,对音频数据进行运算,从而完成音频情绪识别。
所述可分析的宠物种类包括犬类和猫。
本发明的有益效果为:
(1)本发明采用国内外首例采用卷积神经网络技术来实现宠物行为语言智能化分析的***,卷积神经网络技术的卷积层,通过选择连续三个帧的图像进行卷积识别,替代2DCNN的单帧图像识别,保证每一个特征map上都能够与前一帧图像进行相连,来捕捉运动信息,准确率更高且技术更加先进。
(2)本发明采用国内外首例采用主成成分分析法(PCA)、深度信念神经网络(DBN)和SoftMax函数进行分类处理技术来实现宠物行为语言智能化分析的***,逐步自主学习信号特征,不断优化调整参数的特性,能够实现更加高效、更为准确的声音识别。
(3)宠物行为语言实现人工智能化主要有如下五大益处:一、宠物行为学的学***板、电脑等多媒体终端对宠物录制视频,即可快速识别宠物行为所表达的语言,实现了真正的人工智能;三、有助于饲主与宠物的交流,帮助饲主即时了解宠物的表达,增进双方的感情;四、有助于宠物训导工作,可帮助大部分普通饲主对宠物进行训导,降低宠物训导的门槛难度;五、由于国内针对宠物心理诊疗较少,且准确率低,智能化有助于宠物医生对宠物心理诊疗和宠物非正向行为纠正诊疗,有助于提高心理疾病诊断准确率。
附图说明
图1为本发明***的运行示意图。
图2为本发明的数据处理端的运行示意图。
图3为本发明的分类处理端的原理示意图。
图4为卷积神经网络技术的原理路线图
图5为声音提取处理的技术路线图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
用户用手机等智能终端对犬的行为动作拍一段15s的视频,提交上传;数据处理端对上传视频按已设定的各个器官特异点,提取出现变化的器官表征,例:出现眯眼、舔口鼻、趴耳、半躺姿势、抓挠身体;分类处理端的固化模型数据库,得出以上变化的片段式信息,如眯眼对应矛盾、逃避、认错;舔口鼻对应矛盾、展示爱意、认错、有压力;趴耳对应恐惧、害怕、服从;半躺对应舒适、邀请、服从、矛盾;抓挠身体对应矛盾、服从、示弱等;信息汇总端对上述片段式信息做删减及信息匹配,删除其中突兀、矛盾的词汇,保留相似或相同词汇,建立感情逻辑来造句表达含义,得出犬内心矛盾感情,想认错示弱又怕被惩罚;结果表达端对上述表达含义信息匹配相应声音模式进行声音表达,如“主人,我知道错了求你原谅我吧,但不能打我喔!”。
实施例2
用户用手机等智能终端对猫的行为动作拍一段15s的视频,提交上传;数据处理端提取出现变化的器官变化表征,例:趴耳、直视、尾巴竖立、站立姿势、腰背拱起、声音尖锐;分类处理端的固化模型数据库匹配变化的器官表征,如趴耳对应恐惧、害怕、服从;直视对应警觉、统治等;尾巴竖立代表统治、攻击、威胁等;声音尖锐代表害怕、威胁、恐吓、期待、疼痛等,得出以上变化的片段式信息;信息汇总端对上述片段式信息做删减及信息匹配,建立感情逻辑来造句表达含义,得出猫内心害怕的感情,行为表达为声音做恐吓,想威胁性攻击;结果表达端对上述表达含义信息匹配相应声音模式进行声音表达,如“我很害怕,不要过来!再过来我就咬你啦!”。
用户通过用手机等智能终端上传对犬或猫的行为动作的视频,通过本宠物行为语言的人工智能翻译***的翻译处理,获得相应的富有感情的声音表达和文字信息,用户可毫无障碍的理解宠物向主人的表达,消除用户与宠物的交流障碍。

Claims (10)

1.一种软件设计宠物行为语言的人工智能翻译***,其特征在于,由以下部分组成:用户端、数据处理端、分类处理端、信息汇总端和结果表达端。
2.根据权利要求1所述的用户端,其特征在于:以手机APP、微信公众号、电脑软件形式设置在手机、平板电脑、电脑等智能终端,使用者根据软件注册操作提示,相应提供宠物的种类、年龄、性别生活环境和生活习惯相关信息;用户根据软件操作提示,用手机等智能终端对犬、猫的动作行为拍一段限定时间的视频或从相册选择已拍好的犬、猫行为视频,提交上传作为提供视频信息。
3.根据权利要求1所述的数据处理端,其特征在于:通过卷积神经网络的人工智能技术、主成成分分析法、深度信念神经网络和SoftMax函数进行分类处理,提取器官、声音和行为的变化表征,建立生成分析对象,具体体现在:对上传视频首先按已设定的各个器官特异点,提取头部、眼睛、鼻子、耳朵、舌头、牙齿、嘴唇和尾巴的器官变化表征;对上传视频按已设定的运动特异点,提取坐、站立、卧倒、匍匐和跳跃变化的表征;对上传视频按已设定的声音特异点,提取音高、音调、时间长短和时间频率变化的表征。
4.根据权利要求1所述的分类处理端,其特征在于:分类处理端为固化模型数据库,包含器官固化模型数据库、运动模型数据库和声音模型数据库三个数据库,由数据处理端采集的器官、行为和声音表征作为处理对象,按已设定的特异点分析方法,匹配分类处理端的固化模型数据库,得到固化模型数据库运算结果。
5.根据权利要求1所述的信息汇总端,其特征在于:信息汇总端是语言处理模块,对分类处理端的固化模型数据库运算结果进行再处理,建立逻辑关系通过造句表达,固化模型数据库运算的结果为片段式信息,信息汇总端对上述大量的片段式信息做信息汇总,删除突兀、矛盾的词汇,建立词汇逻辑来造句表达,得到处理结果。
6.根据权利要求1所述的结果表达端,其特征在于:结果表达端是语言匹配模块,根据用户端注册提供的宠物种类、年龄和性别信息,相应匹配男声、女生和童声模式,对信息汇总端的处理结果进行声音表达。
7.根据权利要求4所述器官固化模型数据库、运动模型数据库的建立是通过卷积神经网络的人工智能技术实现;所述声音模型数据库过使用主成成分分析法(PCA)、深度信念神经网络(DBN)和SoftMax函数进行分类处理技术来实现。
8.根据权利要求3或权利要求7所述的卷积神经网络的人工智能技术,其特征在于,具体为以下步骤:
(1)首先,卷积神经网络的卷积层通过选择连续三个帧的图像进行卷积图像识别,保证每一个特征map上都能够与前一帧图像进行相连,来捕捉运动信息;
(2)再将大小为60*40的视频连续帧图像作为输入层元素,同时使用大小为7*7*3的3D卷积和进行卷积操作,其中7*7标识空间维度,7*7*3表示使用三个空间维度的卷积核;
(3)再采用23*2max pooling操作对数据进行降采样;
(4)最后,再通过7*6*3的卷积核进行卷积操作,通过卷积操作值已经很小,故采用7*4大小的降采样层对数据进行操作,最终识别出动物的各个已设定的器官行为和动作行为。
9.根据权利要求3或权利要求7所述的主成成分分析法、深度信念神经网络和SoftMax函数其特征在于,具体由以下步骤组成(1)通过短时平均能量算法进行音频识别;
(2)再次,通过主成成分分析法(PCA)对音频数据的冗余噪音,进行进行降维处理;
(3)处理后的音频数据输入到深度信念神经网络(DBN)中进行训练;
(4)最后通过SoftMax函数分类处理技术,对音频数据进行运算,从而完成音频情绪识别。
10.一种如权利要求1所述的软件设计宠物行为语言的人工智能翻译***的应用,其特征在于:所述可分析的宠物种类包括犬类和猫。
CN202010190580.0A 2020-03-18 2020-03-18 一种软件设计宠物行为语言的人工智能翻译*** Pending CN111428769A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010190580.0A CN111428769A (zh) 2020-03-18 2020-03-18 一种软件设计宠物行为语言的人工智能翻译***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010190580.0A CN111428769A (zh) 2020-03-18 2020-03-18 一种软件设计宠物行为语言的人工智能翻译***

Publications (1)

Publication Number Publication Date
CN111428769A true CN111428769A (zh) 2020-07-17

Family

ID=71548085

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010190580.0A Pending CN111428769A (zh) 2020-03-18 2020-03-18 一种软件设计宠物行为语言的人工智能翻译***

Country Status (1)

Country Link
CN (1) CN111428769A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112507157A (zh) * 2020-11-28 2021-03-16 爱荔枝科技(北京)有限公司 一种动物间的翻译方法
CN113208595A (zh) * 2021-07-10 2021-08-06 南京蓝洋智能科技有限公司 生物表达解析方法、装置、存储介质及电子设备
CN114023337A (zh) * 2021-10-12 2022-02-08 湖北文理学院 一种深度学习中端到端的宠物语言翻译方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108600701A (zh) * 2018-05-02 2018-09-28 广州飞宇智能科技有限公司 一种基于深度学习判断视频行为的监控***和方法
CN108766433A (zh) * 2018-05-11 2018-11-06 深圳双猴科技有限公司 一种肢体语言翻译***及方法
KR20190016365A (ko) * 2017-08-08 2019-02-18 주식회사 창의산업 애완동물과 사람 간 커뮤니케이션장치
US20190213401A1 (en) * 2018-01-06 2019-07-11 Shaobo Kuang System and method of social networks for dogs or other pets
CN110110707A (zh) * 2019-05-24 2019-08-09 苏州闪驰数控***集成有限公司 人工智能cnn、lstm神经网络动态识别***

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190016365A (ko) * 2017-08-08 2019-02-18 주식회사 창의산업 애완동물과 사람 간 커뮤니케이션장치
US20190213401A1 (en) * 2018-01-06 2019-07-11 Shaobo Kuang System and method of social networks for dogs or other pets
CN108600701A (zh) * 2018-05-02 2018-09-28 广州飞宇智能科技有限公司 一种基于深度学习判断视频行为的监控***和方法
CN108766433A (zh) * 2018-05-11 2018-11-06 深圳双猴科技有限公司 一种肢体语言翻译***及方法
CN110110707A (zh) * 2019-05-24 2019-08-09 苏州闪驰数控***集成有限公司 人工智能cnn、lstm神经网络动态识别***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
萌宠君: "《人类想听懂动物的语言,AI能帮上忙么?》", pages: 1 - 2 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112507157A (zh) * 2020-11-28 2021-03-16 爱荔枝科技(北京)有限公司 一种动物间的翻译方法
CN113208595A (zh) * 2021-07-10 2021-08-06 南京蓝洋智能科技有限公司 生物表达解析方法、装置、存储介质及电子设备
CN114023337A (zh) * 2021-10-12 2022-02-08 湖北文理学院 一种深度学习中端到端的宠物语言翻译方法

Similar Documents

Publication Publication Date Title
US11226673B2 (en) Affective interaction systems, devices, and methods based on affective computing user interface
CN111428769A (zh) 一种软件设计宠物行为语言的人工智能翻译***
Zhang et al. Intelligent facial emotion recognition and semantic-based topic detection for a humanoid robot
US10878818B2 (en) Methods and apparatus for silent speech interface
WO2019237708A1 (zh) 基于深度学习的人际交互肢体语言自动生成方法及***
CN112686048B (zh) 基于语音、语义、面部表情融合的情绪识别方法及装置
CN110210416B (zh) 基于动态伪标签解码的手语识别***优化方法及装置
Kabani et al. Emotion based music player
Verkholyak et al. Modeling short-term and long-term dependencies of the speech signal for paralinguistic emotion classification
WO2023226239A1 (zh) 对象情绪的分析方法、装置和电子设备
CN111092798B (zh) 一种基于口语理解的可穿戴***
CN114550057A (zh) 一种基于多模态表示学习的视频情绪识别方法
da Silva et al. Recognition of affective and grammatical facial expressions: a study for Brazilian sign language
Hantke et al. EAT- The ICMI 2018 Eating Analysis and Tracking Challenge
Forrester A multidimensional approach to investigations of behaviour: revealing structure in animal communication signals
Gladys et al. Survey on multimodal approaches to emotion recognition
CN116383360A (zh) 一种心理咨询聊天机器人的回答体贴度检测方法及***
US11658928B2 (en) Virtual content creation method
CN114492579A (zh) 情绪识别方法、摄像装置、情绪识别装置及存储装置
Liu et al. A robust multi-modal emotion recognition framework for intelligent tutoring systems
Mishra et al. Environment descriptor for the visually impaired
CN114533063B (zh) 一种多源监测结合的情感计算***及方法
CN113580166B (zh) 一种拟人化机器人的交互方法、装置、设备及存储介质
Bursic On Wiring Emotion to Words: A Bayesian Model
Waveren Automatic image caption generation for digital cultural emages collections

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination