CN110536003A - 用于帮助聋哑人的sos*** - Google Patents
用于帮助聋哑人的sos*** Download PDFInfo
- Publication number
- CN110536003A CN110536003A CN201910619771.1A CN201910619771A CN110536003A CN 110536003 A CN110536003 A CN 110536003A CN 201910619771 A CN201910619771 A CN 201910619771A CN 110536003 A CN110536003 A CN 110536003A
- Authority
- CN
- China
- Prior art keywords
- output
- input
- mute
- deaf
- help
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 206010011878 Deafness Diseases 0.000 title claims abstract description 33
- 239000011159 matrix material Substances 0.000 claims description 23
- 238000010295 mobile communication Methods 0.000 claims description 15
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 5
- 238000013519 translation Methods 0.000 claims description 5
- 240000007651 Rubus glaucus Species 0.000 claims description 4
- 235000011034 Rubus glaucus Nutrition 0.000 claims description 4
- 235000009122 Rubus idaeus Nutrition 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 210000005036 nerve Anatomy 0.000 claims description 4
- 230000002596 correlated effect Effects 0.000 claims description 3
- 238000013480 data collection Methods 0.000 claims description 3
- 239000002096 quantum dot Substances 0.000 claims description 3
- 230000005610 quantum mechanics Effects 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 230000001537 neural effect Effects 0.000 claims 1
- 230000010370 hearing loss Effects 0.000 description 4
- 231100000888 hearing loss Toxicity 0.000 description 4
- 208000016354 hearing loss disease Diseases 0.000 description 4
- 238000000034 method Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 208000024891 symptom Diseases 0.000 description 2
- 208000000059 Dyspnea Diseases 0.000 description 1
- 206010013975 Dyspnoeas Diseases 0.000 description 1
- 208000032041 Hearing impaired Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 208000006673 asthma Diseases 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 210000003437 trachea Anatomy 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72418—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting emergency services
- H04M1/72424—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting emergency services with manual activation of emergency-service functions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72475—User interfaces specially adapted for cordless or mobile telephones specially adapted for disabled users
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L2021/065—Aids for the handicapped in understanding
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Image Analysis (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
一种用于帮助聋哑人的SOS***,包括两个单色红外摄像头、三个红外LED、用于语音识别的高清电容式麦克风、GPRS实时语音呼叫***、显示屏和处理器,所述处理器连接两个单色红外摄像头、三个红外LED、用于语音识别的高清电容式麦克风、GPRS实时语音呼叫***和显示屏,所述处理器中,将用户的标志转换为响应者的音频,并且响应者的语音可以作为实时服务同时为呼叫者签名。本发明能够帮助聋哑人快速无障碍求救。
Description
技术领域
本发明涉及一种SOS***,利用人工智能将任何给定音频内容转换为由3D可定制动画模型的手语,以帮助聋哑人快速无障碍求救。
背景技术
聋哑人无法说话或倾听,这通常由言语障碍或手术导致,而这种不便导致聋哑人在某些社交场合更不愿意说话。气管插管、气管造口术或声带或气管对疾病或创伤的损伤可能会使患者非常沮丧。据统计,10,000人中有8人天生聋哑。但是,世界人口中目前存在多少聋哑人并未有确切数字。聋哑通常是由于受伤或有关布罗卡大脑区域的问题引起的。
当一个人双耳听力阈值均为25dB或更高时,那他就患有听力损失症状。“听力障碍”是指听力损失从轻微到严重的人。聋人大多有严重的听力损失,这意味着他们几乎没有听力。全球约有4.66亿人患有听力损失,超过世界人口的5%。据估计,到2050年,超过9亿人或每10人中就有一人将遭受听力丧失。他们将不得不使用手语进行交流。
因此,当听障人士想要紧急呼叫消防员、警察或者救护车时,问题就出现了。紧急情况下分秒必争,有时事关生死。许多听力障碍或言语障碍的人(聋哑人)发现自己无法在巨大压力和恐慌情况下进行有效沟通。所以应该有像SOS***这样可以挽救生命的翻译服务。在英国有人可能会说,如果那些聋哑人无法沟通,那么他们可以发短信,使用eSMS联系SOS服务中心;但实际上据紧急文本服务网站(emergency text service website)称:“你(聋哑人)需要大约两分钟的时间来告知他们紧急信息。如果对方在三分钟内没有回复,我们建议您发送另一条消息。”
虽然SOS呼叫的平均应答时间仅为7秒左右,但文本服务与基于语音的服务无法相提并论。聋哑人或任何患有哮喘和呼吸困难症状的人,当他们想要致电急救中心通知警察、救护车或消防服务时,他们都需要立即帮助。
另一方面,SOS信号是一个由三个点,三个破折号和三个点组成的连续莫尔斯代码串,之间没有空格或句号(......---......)。由于在国际摩尔斯电码,三个点标示为“S”而三个破折号标示为“O”,因此为方便起见,因此该信号被称为“SOS”。
作为社区中庞大而重要的组成部分,聋哑人需要特别服务来将手语翻译成音频以及将音频翻译成手语,以帮助他们了解周围发生的事情,特别是在包含音频内容的公共场所。例如警察局、医院和消防和各种紧急服务中心;或者是街道和任何拥挤的地方,又或者是其他任何发生紧急情况需要立即处理的地方。
发明内容
为了克服已有技术聋哑人无法及时实现SOS呼叫的不足,本发明提供了一种可以辅助聋哑人及时实现SOS呼叫的用于帮助聋哑人的SOS***。
本发明解决其技术问题所采用的技术方案是:
一种用于帮助聋哑人的SOS***,包括两个单色红外摄像头、三个红外LED、用于语音识别的高清电容式麦克风、GPRS实时语音呼叫***、显示屏和处理器,所述处理器连接两个单色红外摄像头、三个红外LED、用于语音识别的高清电容式麦克风、GPRS实时语音呼叫***和显示屏,所述处理器中,将用户的标志转换为响应者的音频,并且响应者的语音可以作为实时服务同时为呼叫者签名。
进一步,所述SOS***为移动通信终端,适用于Android和iOS操作***,设定次数摇动后再次摇动移动通信终端启动SOS呼叫。
再进一步,所述移动通信终端还包括用于使用预先训练的模型进行手语和音频转换的模块。
所述模型建立的步骤如下:
1.构建3D动画数据集;
2.模拟到数字转换;
3.无监督学习模型;
4.重复步骤3以达到局部最小误差;
5.转发监督学习模型的内部表示;
6.比较监督学习的估计和实际输出结果;
7.重复步骤5以获得准确有效的输出;
8.将翻译的手语生成为带有标签的动画3D角色;
9.将经过训练的模型导出到独立设备和移动通信终端的App。
在生成不同语言的手语动作后,将这些手语动作存储在存储器中;上述预先训练的模型能够将任何输入音频内容转换为手语。
所述步骤1中,使用两个单色红外摄像机和三个红外LED模拟不同手语(如***语,中文,英语和俄语)的所有字母表集,并将其存储在存储器中。
所述步骤2中,使用模数转换器,使用8位脉冲宽度调制,产生数字输入给计算机进行训练,测试和验证;
所述步骤3中,音频比特流转发到自动编码器神经网络的输入层,开始无监督学习,通过对输入内容进行编码并对其进行解码以再次再现它来生成内部表示;
自动编码器是一个三层神经网络:输入,隐藏和输出层,输入层使用instar学习算法来更新其权重,如公式(1)所示:
dw=lr*a*(p′-w)(1)
输出层使用outstar学习算法,如公式(2)所示:
dw=lr*(a-w)*p′(2)
其中,dw是权重变化矩阵,lr是学习率,它是可调整的非负因子,a是该层的输出向量,w是权重矩阵,p′是输入向量;
所述步骤4中,重复步骤2,以达到局部最小误差,通过降低平均绝对误差MAE,如公式(3)所示:
error=output vector-input cue(3)
其中,error是平均绝对误差MAE,output vector是输出向量,input cue是输入向量;
所述步骤5中,在完成无监督学习之后,自动编码器的内部表示已被转发到量子神经网络以进行监督学习;
该网络是三层量子神经网络,使用公式(4)处理自动编码器的内部表示
UN是qubit的单式矩阵,σi是i∈{1,2,3}的Pauli矩阵,即泡利矩阵,σ0是2×2单位矩阵,aj是实际输出;
Pauli矩阵,也叫做泡利自旋矩阵,是量子力学中泡利处理自旋时产生的复杂矩阵,该矩阵由等式(5)定义;
其中,σ0是2×2单位矩阵,σi是i∈{1,2,3}的Pauli矩阵;
所述步骤6中,虽然期望的输出是相关输入音频内容的3D动画手语,等式(6)和(7)使用梯度下降算法将其与实际输出进行比较:
其中,是变化更新量,lr是式(2)中的学习率,是实际输出值,是成本函数的偏导值;
其中,C是使用均方误差定义的成本函数,为实际输出值,为期望输出值;
所述步骤7中,重复步骤5,以达到最小的全局误差,通过减小等式(7)的均方误差;
所述步骤8中,训练好的模型现在准备好将每个手语关联起来,该手语作为数据库与其相关的输入音频内容一起存储;
所述步骤9中,用户可以自定义他的3D角色(肤色,装扮体形,面部表情,风格等),以将其作为独立设备或移动通信终端应用程序所导出的3D动画对象。
更进一步,所述处理器为raspberry pi 3B+。
本发明的有益效果主要表现在:能够帮助聋哑人快速无障碍求救。
附图说明
图1是自编码器神经网络(无监督虚学习模型)的示意图。
图2是量子神经网络(监督学习模型)的示意图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1和图2,一种用于帮助聋哑人的SOS***,包括两个单色红外摄像头、三个红外LED、用于语音识别的高清电容式麦克风、GPRS实时语音呼叫***、显示屏和处理器,所述处理器连接两个单色红外摄像头、三个红外LED、用于语音识别的高清电容式麦克风、GPRS实时语音呼叫***和显示屏,所述处理器中,将用户的标志转换为响应者的音频,并且响应者的语音可以作为实时服务同时为呼叫者签名。
进一步,所述SOS***为移动通信终端,适用于Android和iOS操作***,设定次数摇动后再次摇动移动通信终端启动SOS呼叫。
再进一步,所述移动通信终端还包括用于使用预先训练的模型进行手语和音频转换的模块。
所述模型建立的步骤如下:
1.构建3D动画数据集;
2.模拟到数字转换;
3.无监督学习模型;
4.重复步骤3以达到局部最小误差;
5.转发监督学习模型的内部表示;
6.比较监督学习的估计和实际输出结果;
7.重复步骤5以获得准确有效的输出;
8.将翻译的手语生成为带有标签的动画3D角色;
9.将经过训练的模型导出到独立设备和移动通信终端的App。
在生成不同语言的手语动作后,将这些手语动作存储在存储器中;上述预先训练的模型能够将任何输入音频内容转换为手语。
所述步骤1中,使用两个单色红外摄像机和三个红外LED模拟不同手语(如***语,中文,英语和俄语)的所有字母表集,并将其存储在存储器中。
所述步骤2中,使用模数转换器,使用8位脉冲宽度调制,产生数字输入给计算机进行训练,测试和验证。
所述步骤3中,音频比特流转发到自动编码器神经网络的输入层(图1),开始无监督学习,通过对输入内容进行编码并对其进行解码以再次再现它来生成内部表示;
自动编码器是一个三层神经网络:输入,隐藏和输出层,输入层使用instar学习算法来更新其权重,如公式(1)所示:
dw=lr*a*(p′-w)(1)
输出层使用outstar学习算法,如公式(2)所示:
dw=lr*(a-w)*p′(2)
其中,dw是权重变化矩阵,lr是学习率,它是可调整的非负因子,a是该层的输出向量,w是权重矩阵,p′是输入向量;
所述步骤4中,重复步骤2,以达到局部最小误差,通过降低平均绝对误差MAE,如公式(3)所示:
error=output vector-input cue(3)
其中,error是平均绝对误差MAE,output vector是输出向量,input cue是输入向量;
所述步骤5中,在完成无监督学习之后,自动编码器的内部表示已被转发到量子神经网络(图2)以进行监督学习;
该网络是三层量子神经网络,使用公式(4)处理自动编码器的内部表示
UN是qubit的单式矩阵,σi是i∈{1,2,3}的Pauli矩阵,即泡利矩阵,σ0是2×2单位矩阵,aj是实际输出;
Pauli矩阵,也叫做泡利自旋矩阵,是量子力学中泡利处理自旋时产生的复杂矩阵,该矩阵由等式(5)定义;
其中,σ0是2×2单位矩阵,σi是i∈{1,2,3}的Pauli矩阵;
所述步骤6中,虽然期望的输出是相关输入音频内容的3D动画手语,等式(6)和(7)使用梯度下降算法将其与实际输出进行比较:
其中,是变化更新量,lr是式(2)中的学习率,是实际输出值,是成本函数的偏导值;
其中,C是使用均方误差定义的成本函数,为实际输出值,为期望输出值;
所述步骤7中,重复步骤5,以达到最小的全局误差,通过减小等式(7)的均方误差;
所述步骤8中,训练好的模型现在准备好将每个手语关联起来,该手语作为数据库与其相关的输入音频内容一起存储;
所述步骤9中,用户可以自定义他的3D角色(肤色,装扮体形,面部表情,风格等),以将其作为独立设备或移动通信终端应用程序所导出的3D动画对象。
更进一步,所述处理器为raspberry pi 3B+。
本实施例中,使用与前一个模型相同的程序和步骤进行训练,除了步骤2和8,应作如下调整:
第2步:图像处理作为对象检测:
2.1使用两个单色红外摄像机和三个红外LED来补偿背景物体(如头部)和周围环境照明;
2.2跟踪层匹配数据以提取跟踪信息,例如手指和手的位置;
2.3将输入数据生成为向量;
第8步:数模转换器
8.1获取监督输出作为每个输入字母表的标签;
8.2使用文本语音API生成输出音频。
本实施例中,用于帮助聋哑人的SOS***可以是一款独立的设备,利用太阳能获取清洁能源,由两个单色红外摄像头和三个红外LED提供手势识别功能。它还具有用于语音识别的高清电容式麦克风。该机具有GPRS实时语音呼叫***和7英寸高清显示屏。内置处理器(raspberry pi 3B+)连接所有终端器件并处理输入/输出信号。硬件平台可以是“锚型”和“移动式”(静态和可移动式)。移动型具有GPS以获得用户的精确坐标。该硬件平台可以将用户的标志转换为响应者的音频,并且响应者的语音可以作为实时服务同时为呼叫者签名。
所述设备为移动通信终端,适用于Android和iOS操作***。使用方法是三次摇动(可更改)后再次摇动手机。它使用集成的摄像头,麦克风,GPS,GPRS,显示器以及智能手机本身的电源。它要求使用以上设备的许可。此应用程序还使用预先训练的模型进行手语和音频转换。
Claims (6)
1.一种用于帮助聋哑人的SOS***,其特征在于,包括两个单色红外摄像头、三个红外LED、用于语音识别的高清电容式麦克风、GPRS实时语音呼叫***、显示屏和处理器,所述处理器连接两个单色红外摄像头、三个红外LED、用于语音识别的高清电容式麦克风、GPRS实时语音呼叫***和显示屏,所述处理器中,将用户的标志转换为响应者的音频,并且响应者的语音可以作为实时服务同时为呼叫者签名。
2.如权利要求1所述的用于帮助聋哑人的SOS***,其特征在于,所述SOS***为移动通信终端,适用于Android和iOS操作***,设定次数摇动后再次摇动移动通信终端启动SOS呼叫。
3.如权利要求2所述的用于帮助聋哑人的SOS***,其特征在于,所述移动通信终端还包括用于使用预先训练的模型进行手语和音频转换的模块。
4.如权利要求3所述的用于帮助聋哑人的SOS***,其特征在于,所述模型建立的步骤如下:
1.构建3D动画数据集;
2.模拟到数字转换;
3.无监督学习模型;
4.重复步骤3以达到局部最小误差;
5.转发监督学习模型的内部表示;
6.比较监督学习的估计和实际输出结果;
7.重复步骤5以获得准确有效的输出;
8.将翻译的手语生成为带有标签的动画3D角色;
9.将经过训练的模型导出到独立设备和移动通信终端的App;
在生成不同语言的手语动作后,将这些手语动作存储在存储器中。
5.如权利要求4所述的用于帮助聋哑人的SOS***,其特征在于,所述步骤1中,使用两个单色红外摄像机和三个红外LED模拟不同手语的所有字母表集,并将其存储在存储器中;
所述步骤2中,使用模数转换器,使用8位脉冲宽度调制,产生数字输入给计算机进行训练,测试和验证;
所述步骤3中,音频比特流转发到自动编码器神经网络的输入层,开始无监督学习,通过对输入内容进行编码并对其进行解码以再次再现它来生成内部表示;
自动编码器是一个三层神经网络:输入,隐藏和输出层,输入层使用instar学习算法来更新其权重,如公式(1)所示:
dw=lr*a*(p′-w) (1)
输出层使用outstar学习算法,如公式(2)所示:
dw=lr*(a-w)*p′ (2)
其中,dw是权重变化矩阵,lr是学习率,它是可调整的非负因子,是该层的输出向量,w是权重矩阵,p′是输入向量;
所述步骤4中,重复步骤2,以达到局部最小误差,通过降低平均绝对误差MAE,如公式(3)所示:
error=output vector-input cue (3)
其中,error是平均绝对误差MAE,output vector是输出向量,input cue是输入向量;
所述步骤5中,在完成无监督学习之后,自动编码器的内部表示已被转发到量子神经网络以进行监督学习;
该网络是三层量子神经网络,使用公式(4)处理自动编码器的内部表示
UN是qubit的单式矩阵,σi是i∈{1,2,3}的Pauli矩阵,即泡利矩阵,σ0是2×2单位矩阵,aj是实际输出;
Pauli矩阵,也叫做泡利自旋矩阵,是量子力学中泡利处理自旋时产生的复杂矩阵,该矩阵由等式(5)定义;
其中,σ0是2×2单位矩阵,σi是i∈{1,2,3}的Pauli矩阵;
所述步骤6中,虽然期望的输出是相关输入音频内容的3D动画手语,等式(6)和(7)使用梯度下降算法将其与实际输出进行比较:
其中,是变化更新量,lr是式(2)中的学习率,是实际输出值,是成本函数的偏导值;
其中,C是使用均方误差定义的成本函数,为实际输出值,为期望输出值;
所述步骤7中,重复步骤5,以达到最小的全局误差,通过减小等式(7)的均方误差;
所述步骤8中,训练好的模型现在准备好将每个手语关联起来,该手语作为数据库与其相关的输入音频内容一起存储;
所述步骤9中,用户可以自定义他的3D角色,以将其作为独立设备或移动通信终端应用程序所导出的3D动画对象。
6.如权利要求1~4之一所述的用于帮助聋哑人的SOS***,其特征在于,所述处理器为raspberry pi 3B +。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910619771.1A CN110536003B (zh) | 2019-07-10 | 2019-07-10 | 用于帮助聋哑人的sos*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910619771.1A CN110536003B (zh) | 2019-07-10 | 2019-07-10 | 用于帮助聋哑人的sos*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110536003A true CN110536003A (zh) | 2019-12-03 |
CN110536003B CN110536003B (zh) | 2021-04-06 |
Family
ID=68659475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910619771.1A Active CN110536003B (zh) | 2019-07-10 | 2019-07-10 | 用于帮助聋哑人的sos*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110536003B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104978886A (zh) * | 2015-06-29 | 2015-10-14 | 广西瀚特信息产业股份有限公司 | 一种基于体感技术的手语翻译***及处理方法 |
US20180046257A1 (en) * | 2013-07-16 | 2018-02-15 | Google Technology Holdings LLC | Method and apparatus for selecting between multiple gesture recognition systems |
CN108256651A (zh) * | 2013-06-28 | 2018-07-06 | D-波***公司 | 用于对数据进行量子处理的方法 |
CN108406767A (zh) * | 2018-02-13 | 2018-08-17 | 华南理工大学 | 面向人机协作的机器人自主学习方法 |
CN108877409A (zh) * | 2018-07-24 | 2018-11-23 | 王钦 | 基于手势识别和vr显示的聋哑人辅助工具及其实现方法 |
CN109753882A (zh) * | 2018-12-13 | 2019-05-14 | 金陵科技学院 | 基于深度置信网络和多模式特征的手语识别方法 |
-
2019
- 2019-07-10 CN CN201910619771.1A patent/CN110536003B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108256651A (zh) * | 2013-06-28 | 2018-07-06 | D-波***公司 | 用于对数据进行量子处理的方法 |
US20180046257A1 (en) * | 2013-07-16 | 2018-02-15 | Google Technology Holdings LLC | Method and apparatus for selecting between multiple gesture recognition systems |
CN104978886A (zh) * | 2015-06-29 | 2015-10-14 | 广西瀚特信息产业股份有限公司 | 一种基于体感技术的手语翻译***及处理方法 |
CN108406767A (zh) * | 2018-02-13 | 2018-08-17 | 华南理工大学 | 面向人机协作的机器人自主学习方法 |
CN108877409A (zh) * | 2018-07-24 | 2018-11-23 | 王钦 | 基于手势识别和vr显示的聋哑人辅助工具及其实现方法 |
CN109753882A (zh) * | 2018-12-13 | 2019-05-14 | 金陵科技学院 | 基于深度置信网络和多模式特征的手语识别方法 |
Non-Patent Citations (3)
Title |
---|
ANA-MARIA CRETU等: "Neural-network-based models of 3-D objects for virtualized reality a comparative study", 《IEEE TRANSACTIONS ON INSTRUMENTATION AND MEASUREMENT》 * |
徐军: "《基于计算机视觉的手势识别及人机交互技术的应用研究》", 《中国优秀博士学位论文全文数据库信息科技辑》 * |
方路平等: "目标检测算法研究综述", 《计算机工程与应用》 * |
Also Published As
Publication number | Publication date |
---|---|
CN110536003B (zh) | 2021-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9824691B1 (en) | Automated population of electronic records | |
US20210338103A1 (en) | Screening of individuals for a respiratory disease using artificial intelligence | |
US11418757B1 (en) | Controlled-environment facility video communications monitoring system | |
CN109545299A (zh) | 基于人工智能的脑血管疾病风险快速识别辅助提示***及方法 | |
JP2021521704A (ja) | 遠隔会議システム、遠隔会議のための方法、およびコンピュータ・プログラム | |
Dhanjal et al. | Tools and techniques of assistive technology for hearing impaired people | |
Bajpai et al. | Two way wireless data communication and american sign language translator glove for images text and speech display on mobile phone | |
US20230379681A1 (en) | Pre-alert System for First Responders | |
KR20150135688A (ko) | 시청 데이터를 이용한 기억 보조 방법 | |
CN116524791A (zh) | 一种基于元宇宙的唇语学习辅助训练***及其应用 | |
Voronov et al. | “Surdotelephone” project with convolutional neural network | |
Allan et al. | Responding to cardiac arrest in the community in the digital age | |
Podder et al. | Design of a sign language transformer to enable the participation of persons with disabilities in remote healthcare systems for ensuring universal healthcare coverage | |
CN110533750A (zh) | 一种将音频转换为带有自定义3d角色的手语动画的方法 | |
CN110536003A (zh) | 用于帮助聋哑人的sos*** | |
KR102112822B1 (ko) | 보완 대체 의사소통 시스템 | |
CN107783650A (zh) | 一种基于虚拟机器人的人机交互方法及装置 | |
KR20200137161A (ko) | 인공지능기반 개인맞춤형 인지 중재 방법 | |
Saleem et al. | Full duplex smart system for Deaf & Dumb and normal people | |
US10893232B1 (en) | Controlled-environment facility video communications monitoring system | |
Baba et al. | Smart communication interpreter for mute and deaf people | |
Fernando et al. | Empowering Deaf Children with Sinhala Sign Language, Emotion Detection, and Sound Recognition | |
KR20220149038A (ko) | 카메라, 스피커, 이미지 캡셔닝 기술, 음성합성 기술을 이용한 공공장소 위험상황 알림 시스템 | |
Rao et al. | Enhancing Sign Language Recognition: A CNN-BiLSTM Approach for Accurate Gesture Interpretation | |
Amarasinghe et al. | An assistive technology framework for communication with hearing impaired persons |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |