CN110111786A - 一种音频处理方法、设备及计算机可读存储介质 - Google Patents
一种音频处理方法、设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN110111786A CN110111786A CN201910360041.4A CN201910360041A CN110111786A CN 110111786 A CN110111786 A CN 110111786A CN 201910360041 A CN201910360041 A CN 201910360041A CN 110111786 A CN110111786 A CN 110111786A
- Authority
- CN
- China
- Prior art keywords
- wearable device
- audio processing
- audio
- grip
- receiving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 33
- 238000012545 processing Methods 0.000 claims abstract description 168
- 229910000831 Steel Inorganic materials 0.000 claims abstract description 40
- 239000010959 steel Substances 0.000 claims abstract description 40
- 238000000034 method Methods 0.000 claims abstract description 19
- 230000035945 sensitivity Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 6
- 230000001960 triggered effect Effects 0.000 claims description 2
- 230000006854 communication Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 13
- 230000009286 beneficial effect Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 210000000613 ear canal Anatomy 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 4
- 230000001953 sensory effect Effects 0.000 description 4
- 241000208340 Araliaceae Species 0.000 description 3
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 3
- 235000003140 Panax quinquefolius Nutrition 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 238000005452 bending Methods 0.000 description 3
- 235000008434 ginseng Nutrition 0.000 description 3
- 238000004826 seaming Methods 0.000 description 3
- 238000010521 absorption reaction Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000005764 inhibitory process Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000010792 warming Methods 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000012769 display material Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 229910021389 graphene Inorganic materials 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种音频处理方法、设备及计算机可读存储介质,其中,该方法包括:确定所述穿戴式设备的穿戴状态;然后,在所述穿戴状态下,识别所述穿戴式设备在进行语音收发过程中的握持手势;再然后,根据所述握持手势以及耳部位置区域,在所述穿戴式设备中确定所述语音收发的音频处理区域;最后,在所述音频处理区域内设置音频处理组件,其中,所述音频处理组件包括振膜、线圈以及磁钢。实现了一种人性化的音频处理方案,使得用户在使用穿戴式设备时收发语音更为便捷,提高了收发语音的清晰度,增强了用户体验。
Description
技术领域
本申请涉及移动通信领域,尤其涉及一种音频处理方法、设备及计算机可读存储介质。
背景技术
现有技术中,随着智能终端设备的快速发展,出现了区别于常规智能手机的穿戴式设备,例如,智能手表或者智能手环等穿戴式设备。由于穿戴式设备相较于传统的智能手机,其软、硬件环境、操作方式以及操作环境等特殊性,若将传统的智能手机的操控方案转用至穿戴式设备,则可能会给用户的操作带来不便之处、用户体验不佳。
发明内容
为了解决现有技术中的上述技术缺陷,本发明提出了一种音频处理方法,该方法包括:
确定所述穿戴式设备的穿戴状态;
在所述穿戴状态下,识别所述穿戴式设备在进行语音收发过程中的握持手势;
根据所述握持手势以及耳部位置区域,在所述穿戴式设备中确定所述语音收发的音频处理区域;
在所述音频处理区域内设置音频处理组件,其中,所述音频处理组件包括振膜、线圈以及磁钢。
可选的,所述确定所述穿戴式设备的穿戴状态,包括:
获取所述穿戴式设备扣合组件的连接状态;
若所述扣合组件处于连接状态,则确定所述穿戴式设备处于佩戴状态,若所述扣合组件处于断开状态,则确定所述穿戴式设备处于脱离状态。
可选的,所述确定所述穿戴式设备的穿戴状态,还包括:
在所述佩戴状态下,根据扣合组件的扣合位置以及扣合的压感值,确定当前的佩戴位置;
在所述脱离状态下,根据所述穿戴式设备的屏幕触发区域和或边缘压感区域,确定当前的握持区域。
可选的,所述在所述穿戴状态下,识别所述穿戴式设备在进行语音收发过程中的握持手势,包括:
获取所述语音收发的操作指令;
根据所述操作指令识别所述穿戴式设备在当前状态下的握持手势,其中,所述握持手势包括在佩戴状态下的第一握持手势,以及在脱离状态下的第二握持手势。
可选的,所述在所述穿戴状态下,识别所述穿戴式设备在进行语音收发过程中的握持手势,还包括:
在所述语音收发过程中,获取所述穿戴式设备的运动参数;
根据所述运动参数调整手势语音收发在所述第一握持手势下的第一音频处理参数,或者,根据所述运动参数调整手势语音收发在所述第二握持手势下的第二音频处理参数。
可选的,所述根据所述握持手势以及耳部位置区域,在所述穿戴式设备中确定所述语音收发的音频处理区域,包括:
通过所述穿戴式设备的超声波组件和或图像识别组件,识别语音收发者的耳部位置区域;
在所述第一握持手势状态中,确定所述穿戴式设备与所述耳部位置区域相关联的区域,作为所述音频处理区域,或者,在所述第二握持手势状态中,确定所述穿戴式设备与所述耳部位置区域相关联的区域,作为所述音频处理区域。
可选的,所述在所述音频处理区域内设置音频处理组件,其中,所述音频处理组件包括振膜、线圈以及磁钢,包括:
在一个或多个所述音频处理区域内设置一组或多组所述音频处理组件;
所述音频处理组件至少包括两组线圈以及多组磁钢。
可选的,所述在所述音频处理区域内设置音频处理组件,其中,所述音频处理组件包括振膜、线圈以及磁钢,还包括:
所述振膜、第一线圈、第二线圈以及磁钢在所述音频处理区域内依次排布;
当所述音频处理组件接收到发声信号时,通过所述发声信号触发所述第二线圈在所述磁钢生成的磁场中产生第一作用力,通过所述第一作用力带动振膜,生成声波信号;
当所述音频处理组件的振膜接收所述声波信号时,带动所述第一线圈产生振动,通过在所述磁场中的振动获取电动势,并将所述电动势转化为收声电信号。
本发明还提出了一种音频处理设备,该设备包括:
存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序;
所述计算机程序被所述处理器执行时实现如上述任一项所述的方法的步骤。
本发明还提出了一种计算机可读存储介质,该计算机可读存储介质上存储有音频处理程序,所述音频处理程序被处理器执行时实现如上述任一项所述的音频处理方法的步骤。
本发明的有益效果在于,通过确定所述穿戴式设备的穿戴状态;然后,在所述穿戴状态下,识别所述穿戴式设备在进行语音收发过程中的握持手势;再然后,根据所述握持手势以及耳部位置区域,在所述穿戴式设备中确定所述语音收发的音频处理区域;最后,在所述音频处理区域内设置音频处理组件,其中,所述音频处理组件包括振膜、线圈以及磁钢。实现了一种人性化的音频处理方案,使得用户在使用穿戴式设备时收发语音更为便捷,提高了收发语音的清晰度,增强了用户体验。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的可穿戴设备一种实施方式的硬件结构示意图;
图2为本申请实施例提供的可穿戴设备一种实施方式的硬件示意图;
图3为本申请实施例提供的可穿戴设备一种实施方式的硬件示意图;
图4为本申请实施例提供的可穿戴设备一种实施方式的硬件示意图;
图5为本申请实施例提供的可穿戴设备一种实施方式的硬件示意图;
图6是本发明音频处理方法第一实施例的流程图;
图7是本发明音频处理方法第二实施例的流程图;
图8是本发明音频处理方法第三实施例的流程图;
图9是本发明音频处理方法第四实施例的流程图;
图10是本发明音频处理方法第五实施例的流程图;
图11是本发明音频处理方法第六实施例的流程图;
图12是本发明音频处理方法第七实施例的流程图;
图13是本发明音频处理方法第八实施例的流程图;
图14是本发明音频处理方法对应的音频处理组件结构图。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身没有特定的意义。因此,“模块”、“部件”或“单元”可以混合地使用。
本发明实施例中提供的可穿戴设备包括智能手环、智能手表、以及智能手机等移动终端。随着屏幕技术的不断发展,柔性屏、折叠屏等屏幕形态的出现,智能手机等移动终端也可以作为可穿戴设备。本发明实施例中提供的可穿戴设备可以包括:RF(RadioFrequency,射频)单元、WiFi模块、音频输出单元、A/V(音频/视频)输入单元、传感器、显示单元、用户输入单元、接口单元、存储器、处理器、以及电源等部件。
后续描述中将以可穿戴设备为例进行说明,请参阅图1,其为实现本发明各个实施例的一种可穿戴设备的硬件结构示意图,该可穿戴设备100可以包括:RF(RadioFrequency,射频)单元101、WiFi模块102、音频输出单元103、A/V(音频/视频)输入单元104、传感器105、显示单元106、用户输入单元107、接口单元108、存储器109、处理器110、以及电源111等部件。本领域技术人员可以理解,图1中示出的可穿戴设备结构并不构成对可穿戴设备的限定,可穿戴设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图1对可穿戴设备的各个部件进行具体的介绍:
射频单元101可用于收发信息或通话过程中,信号的接收和发送,具体的,射频单元101可以将上行信息发送给基站,另外也可以将基站发送的下行信息接收后,发送给可穿戴设备的处理器110处理,基站向射频单元101发送的下行信息可以是根据射频单元101发送的上行信息生成的,也可以是在检测到可穿戴设备的信息更新后主动向射频单元101推送的,例如,在检测到可穿戴设备所处的地理位置发生变化后,基站可以向可穿戴设备的射频单元101发送地理位置变化的消息通知,射频单元101在接收到该消息通知后,可以将该消息通知发送给可穿戴设备的处理器110处理,可穿戴设备的处理器110可以控制该消息通知显示在可穿戴设备的显示面板1061上;通常,射频单元101包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元101还可以通过无线通信与网络和其他设备通信,具体的可以包括:通过无线通信与网络***中的服务器通信,例如,可穿戴设备可以通过无线通信从服务器中下载文件资源,比如可以从服务器中下载应用程序,在可穿戴设备将某一应用程序下载完成之后,若服务器中该应用程序对应的文件资源更新,则该服务器可以通过无线通信向可穿戴设备推送资源更新的消息通知,以提醒用户对该应用程序进行更新。上述无线通信可以使用任一通信标准或协议,包括但不限于GSM(Global System of Mobile communication,全球移动通讯***)、GPRS(GeneralPacket Radio Service,通用分组无线服务)、CDMA2000(Code Division Multiple Access2000,码分多址2000)、WCDMA(Wideband Code Division Multiple Access,宽带码分多址)、TD-SCDMA(Time Division-Synchronous Code Division Multiple Access,时分同步码分多址)、FDD-LTE(Frequency Division Duplexing-Long Term Evolution,频分双工长期演进)和TDD-LTE(Time Division Duplexing-Long Term Evolution,分时双工长期演进)等。
在一种实施方式中,可穿戴设备100可以通过***SIM卡来接入现有的通信网络。
在另一种实施方式中,可穿戴设备100可以通过设置esim卡(Embedded-SIM),来实现接入现有的通信网络,采用esim卡的方式,可以节省可穿戴设备的内部空间,降低厚度。
可以理解的是,虽然图1示出了射频单元101,但是可以理解的是,射频单元101其并不属于可穿戴设备的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。,可穿戴设备100可以单独通过wifi模块102来实现与其他设备或通信网络的通信连接,本发明实施例并不以此为限。
WiFi属于短距离无线传输技术,可穿戴设备通过WiFi模块102可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图1示出了WiFi模块102,但是可以理解的是,其并不属于可穿戴设备的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
音频输出单元103可以在可穿戴设备100处于呼叫信号接收模式、通话模式、记录模式、语音识别模式、广播接收模式等等模式下时,将射频单元101或WiFi模块102接收的或者在存储器109中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元103还可以提供与可穿戴设备100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元103可以包括扬声器、蜂鸣器等等。
A/V输入单元104用于接收音频或视频信号。A/V输入单元104可以包括图形处理器(Graphics Processing Unit,GPU)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元106上。经图形处理器1041处理后的图像帧可以存储在存储器109(或其它存储介质)中或者经由射频单元101或WiFi模块102进行发送。麦克风1042可以在电话通话模式、记录模式、语音识别模式等等运行模式中经由麦克风1042接收声音(音频数据),并且能够将这样的声音处理为音频数据。处理后的音频(语音)数据可以在电话通话模式的情况下转换为可经由射频单元101发送到移动通信基站的格式输出。麦克风1042可以实施各种类型的噪声消除(或抑制)算法以消除(或抑制)在接收和发送音频信号的过程中产生的噪声或者干扰。
在一种实施方式中,可穿戴设备100包括有一个或多个摄像头,通过开启摄像头,能够实现对图像的捕获,实现拍照、录像等功能,摄像头的位置可以根据需要进行设置。
可穿戴设备100还包括至少一种传感器105,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1061的亮度,接近传感器可在可穿戴设备100移动到耳边时,关闭显示面板1061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等。
在一种实施方式中,可穿戴设备100还包括接近传感器,通过采用接近传感器,可穿戴设备能够实现非接触操控,提供更多的操作方式。
在一种实施方式中,可穿戴设备100还包括心率传感器,在佩戴时,通过贴近使用者,能够实现心率的侦测。
在一种实施方式中,可穿戴设备100还可以包括指纹传感器,通过读取指纹,能够实现安全验证等功能。
显示单元106用于显示由用户输入的信息或提供给用户的信息。显示单元106可包括显示面板1061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1061。
在一种实施方式中,显示面板1061采用柔性显示屏,采用柔性显示屏的可穿戴设备在佩戴时,屏幕能够进行弯曲,从而更加贴合。可选的,所述柔性显示屏可以采用OLED屏体以及石墨烯屏体,在其他实施方式中,所述柔性显示屏也可以是其他显示材料,本实施例并不以此为限。
在一种实施方式中,可穿戴设备的显示面板1061可以采取长方形,便于佩戴时环绕。在其他实施方式中,也可以采取其他方式。
用户输入单元107可用于接收输入的数字或字符信息,以及产生与可穿戴设备的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元107可包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1071上或在触控面板1071附近的操作),并根据预先设定的程式驱动相应的连接装置。触控面板1071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器110,并能接收处理器110发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1071。除了触控面板1071,用户输入单元107还可以包括其他输入设备1072。具体地,其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种,具体此处不做限定。
在一种实施方式中,可穿戴设备100的侧边可以设置有一个或多个按钮。按钮可以实现短按、长按、旋转等多种方式,从而实现多种操作效果。按钮的数量可以为多个,不同的按钮之间可以组合使用,实现多种操作功能。
进一步的,触控面板1071可覆盖显示面板1061,当触控面板1071检测到在其上或附近的触摸操作后,传送给处理器110以确定触摸事件的类型,随后处理器110根据触摸事件的类型在显示面板1061上提供相应的视觉输出。虽然在图1中,触控面板1071与显示面板1061是作为两个独立的部件来实现可穿戴设备的输入和输出功能,但是在某些实施例中,可以将触控面板1071与显示面板1061集成而实现可穿戴设备的输入和输出功能,具体此处不做限定。比如,当通过射频单元101接收到某一应用程序的消息通知时,处理器110可以控制将该消息通知显示在显示面板1061的某一预设区域内,该预设区域与触控面板1071的某一区域对应,通过对触控面板1071某一区域进行触控操作,可以对显示面板1061上对应区域内显示的消息通知进行控制。
接口单元108用作至少一个外部装置与可穿戴设备100连接可以通过的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元108可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到可穿戴设备100内的一个或多个元件或者可以用于在可穿戴设备100和外部装置之间传输数据。
在一种实施方式中,可穿戴设备100的接口单元108采用触点的结构,通过触点与对应的其他设备连接,实现充电、连接等功能。采用触点还可以防水。
存储器109可用于存储软件程序以及各种数据。存储器109可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器109可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器110是可穿戴设备的控制中心,利用各种接口和线路连接整个可穿戴设备的各个部分,通过运行或执行存储在存储器109内的软件程序和/或模块,以及调用存储在存储器109内的数据,执行可穿戴设备的各种功能和处理数据,从而对可穿戴设备进行整体监控。处理器110可包括一个或多个处理单元;优选的,处理器110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作***、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器110中。
可穿戴设备100还可以包括给各个部件供电的电源111(比如电池),优选的,电源111可以通过电源管理***与处理器110逻辑相连,从而通过电源管理***实现管理充电、放电、以及功耗管理等功能。
尽管图1未示出,可穿戴设备100还可以包括蓝牙模块等,在此不再赘述。可穿戴设备100通过蓝牙,可以与其他终端设备连接,实现通信以及信息的交互。
请参考图2-图4,为本发明实施例提供的一种可穿戴设备一种实施方式下的结构示意图。本发明实施例中的可穿戴设备,包括柔性屏幕。在可穿戴设备展开时,柔性屏幕呈长条形;在可穿戴设备处于佩戴状态时,柔性屏幕弯曲呈环状。图2及图3示出了可穿戴设备屏幕展开时的结构示意图,图4示出了可穿戴设备屏幕弯曲时的结构示意图。
基于上述各个实施方式,可以看到,若所述设备为手表、手环或者可穿戴式设备时,所述设备的屏幕可以不覆盖设备的表带区域,也可以覆盖设备的表带区域。在此,本申请提出一种可选的实施方式,在本实施方式中,所述设备可以为手表、手环或者可穿戴式设备,所述设备包括屏幕以及连接部。所述屏幕可以为柔性屏幕,所述连接部可以为表带。可选的,所述设备的屏幕或者屏幕的显示区可以部分或者全部的覆盖在设备的表带上。如图5所示,图5为本申请实施例提供的一种可穿戴设备一种实施方式的硬件示意图,所述设备的屏幕向两侧延伸,部分的覆盖在设备的表带上。在其他实施方式中,所述设备的屏幕也可以全部覆盖在所述设备的表带上,本申请实施例并不以此为限。
实施例一
图6是本发明音频处理方法第一实施例的流程图。一种音频处理方法,该方法包括:
S1、确定所述穿戴式设备的穿戴状态;
S2、在所述穿戴状态下,识别所述穿戴式设备在进行语音收发过程中的握持手势;
S3、根据所述握持手势以及耳部位置区域,在所述穿戴式设备中确定所述语音收发的音频处理区域;
S4、在所述音频处理区域内设置音频处理组件,其中,所述音频处理组件包括振膜、线圈以及磁钢。
在本实施例中,首先,确定所述穿戴式设备的穿戴状态;然后,在所述穿戴状态下,识别所述穿戴式设备在进行语音收发过程中的握持手势;再然后,根据所述握持手势以及耳部位置区域,在所述穿戴式设备中确定所述语音收发的音频处理区域;最后,在所述音频处理区域内设置音频处理组件,其中,所述音频处理组件包括振膜、线圈以及磁钢。
可选的,在本实施例中,穿戴式设备具有多种扣合方式,例如,表链式扣合、吸附式扣合等,通过在扣合的一端或两端设置传感组件,从而识别穿戴式设备的扣合状态,继而通过扣合状态识别穿戴状态;
可选的,在本实施例中,根据穿戴式设备用户的不同的使用需求以及不同的使用场景,结合当前的握持手势,确定在该握持手势下,最佳的音频收发位置,例如,当用户接听拨打电话时所采用的握持手势与听取语音消息时所采用的握持手势不同,又例如,用户的左、右手分别用于听取语音消息时所采用的握持手势不同;
可选的,在本实施例中,在穿戴式设备的一个或多个位置设置音频处理区域,可以理解的是,由于用户的不同的使用需求以及不同的使用场景,具有不同的最佳音频收发位置,因此,对应的设置一个或多个位置设置音频处理区域;
可选的,在本实施例中,在一个或多个音频处理区域内至少设置一组音频处理组件,其中,所述音频处理组件包括振膜、线圈以及磁钢。
本实施例的有益效果在于,通过确定所述穿戴式设备的穿戴状态;然后,在所述穿戴状态下,识别所述穿戴式设备在进行语音收发过程中的握持手势;再然后,根据所述握持手势以及耳部位置区域,在所述穿戴式设备中确定所述语音收发的音频处理区域;最后,在所述音频处理区域内设置音频处理组件,其中,所述音频处理组件包括振膜、线圈以及磁钢。实现了一种人性化的音频处理方案,使得用户在使用穿戴式设备时收发语音更为便捷,提高了收发语音的清晰度,增强了用户体验。
实施例二
图7是本发明音频处理方法第二实施例的流程图,基于上述实施例,所述确定所述穿戴式设备的穿戴状态,包括:
S11、获取所述穿戴式设备扣合组件的连接状态;
S12、若所述扣合组件处于连接状态,则确定所述穿戴式设备处于佩戴状态,若所述扣合组件处于断开状态,则确定所述穿戴式设备处于脱离状态。
在本实施例中,首先,获取所述穿戴式设备扣合组件的连接状态;然后,若所述扣合组件处于连接状态,则确定所述穿戴式设备处于佩戴状态,若所述扣合组件处于断开状态,则确定所述穿戴式设备处于脱离状态。
可选的,通过在扣合的一端或两端设置压力传感组件或者接触传感组件,从而识别穿戴式设备的扣合状态,继而通过扣合状态识别穿戴状态;
可选的,通过在扣合的一端或两端设置温感传感组件,从而根据体表温度识别穿戴式设备的穿戴状态。
本实施例的有益效果在于,通过获取所述穿戴式设备扣合组件的连接状态;然后,若所述扣合组件处于连接状态,则确定所述穿戴式设备处于佩戴状态,若所述扣合组件处于断开状态,则确定所述穿戴式设备处于脱离状态。实现了一种更为人性化的音频处理方案,使得用户在使用穿戴式设备时收发语音更为便捷,提高了收发语音的清晰度,增强了用户体验。
实施例三
图8是本发明音频处理方法第三实施例的流程图,基于上述实施例,所述确定所述穿戴式设备的穿戴状态,还包括:
S13、在所述佩戴状态下,根据扣合组件的扣合位置以及扣合的压感值,确定当前的佩戴位置;
S14、在所述脱离状态下,根据所述穿戴式设备的屏幕触发区域和或边缘压感区域,确定当前的握持区域。
在本实施例中,首先,在所述佩戴状态下,根据扣合组件的扣合位置以及扣合的压感值,确定当前的佩戴位置;然后,在所述脱离状态下,根据所述穿戴式设备的屏幕触发区域和或边缘压感区域,确定当前的握持区域。
可选的,在所述脱离状态下,根据所述穿戴式设备的预设的一个或多个屏幕触发区域确定当前的握持区域;
可选的,在所述脱离状态下,根据所述穿戴式设备的两侧边缘压感区域,确定当前的握持区域。
本实施例的有益效果在于,通过在所述佩戴状态下,根据扣合组件的扣合位置以及扣合的压感值,确定当前的佩戴位置;然后,在所述脱离状态下,根据所述穿戴式设备的屏幕触发区域和或边缘压感区域,确定当前的握持区域。实现了一种更为人性化的音频处理方案,使得用户在使用穿戴式设备时收发语音更为便捷,提高了收发语音的清晰度,增强了用户体验。
实施例四
图9是本发明音频处理方法第四实施例的流程图,基于上述实施例,所述在所述穿戴状态下,识别所述穿戴式设备在进行语音收发过程中的握持手势,包括:
S21、获取所述语音收发的操作指令;
S22、根据所述操作指令识别所述穿戴式设备在当前状态下的握持手势,其中,所述握持手势包括在佩戴状态下的第一握持手势,以及在脱离状态下的第二握持手势。
在本实施例中,首先,获取所述语音收发的操作指令;然后,根据所述操作指令识别所述穿戴式设备在当前状态下的握持手势,其中,所述握持手势包括在佩戴状态下的第一握持手势,以及在脱离状态下的第二握持手势。
可选的,根据所述操作指令识别所述穿戴式设备在当前状态下的握持手势,其中,所述握持手势包括在佩戴状态下的第一握持手势,以及在脱离状态下的第二握持手势,更具体的,在扣合状态时,也可能处于脱离状态,由于在此状态,下,穿戴式设备仍以握持的方式进行语音收发,因此,将此种状态下的手势归于本实施例的第二握持手势。
本实施例的有益效果在于,通过获取所述语音收发的操作指令;然后,根据所述操作指令识别所述穿戴式设备在当前状态下的握持手势,其中,所述握持手势包括在佩戴状态下的第一握持手势,以及在脱离状态下的第二握持手势。实现了一种更为人性化的音频处理方案,使得用户在使用穿戴式设备时收发语音更为便捷,提高了收发语音的清晰度,增强了用户体验。
实施例五
图10是本发明音频处理方法第五实施例的流程图,基于上述实施例,所述在所述穿戴状态下,识别所述穿戴式设备在进行语音收发过程中的握持手势,还包括:
S23、在所述语音收发过程中,获取所述穿戴式设备的运动参数;
S24、根据所述运动参数调整手势语音收发在所述第一握持手势下的第一音频处理参数,或者,根据所述运动参数调整手势语音收发在所述第二握持手势下的第二音频处理参数。
在本实施例中,首先,在所述语音收发过程中,获取所述穿戴式设备的运动参数;然后,根据所述运动参数调整手势语音收发在所述第一握持手势下的第一音频处理参数,或者,根据所述运动参数调整手势语音收发在所述第二握持手势下的第二音频处理参数。
可选的,在所述语音收发过程中,获取所述穿戴式设备的运动参数,其中,该运动参数包括三轴陀螺仪的传感参数、加速度传感参数等;
可选的,根据所述运动参数调整手势语音收发在所述第一握持手势下的第一音频处理参数,或者,根据所述运动参数调整手势语音收发在所述第二握持手势下的第二音频处理参数,其中,第一音频处理参数以及第二音频处理参数包括语音收发时的语音播放参数以及语音采集参数。
本实施例的有益效果在于,通过在所述语音收发过程中,获取所述穿戴式设备的运动参数;然后,根据所述运动参数调整手势语音收发在所述第一握持手势下的第一音频处理参数,或者,根据所述运动参数调整手势语音收发在所述第二握持手势下的第二音频处理参数。实现了一种更为人性化的音频处理方案,使得用户在使用穿戴式设备时收发语音更为便捷,提高了收发语音的清晰度,增强了用户体验。
实施例六
图11是本发明音频处理方法第六实施例的流程图,基于上述实施例,所述根据所述握持手势以及耳部位置区域,在所述穿戴式设备中确定所述语音收发的音频处理区域,包括:
S31、通过所述穿戴式设备的超声波组件和或图像识别组件,识别语音收发者的耳部位置区域;
S32、在所述第一握持手势状态中,确定所述穿戴式设备与所述耳部位置区域相关联的区域,作为所述音频处理区域,或者,在所述第二握持手势状态中,确定所述穿戴式设备与所述耳部位置区域相关联的区域,作为所述音频处理区域。
在本实施例中,首先,通过所述穿戴式设备的超声波组件和或图像识别组件,识别语音收发者的耳部位置区域;然后,在所述第一握持手势状态中,确定所述穿戴式设备与所述耳部位置区域相关联的区域,作为所述音频处理区域,或者,在所述第二握持手势状态中,确定所述穿戴式设备与所述耳部位置区域相关联的区域,作为所述音频处理区域。
可选的,通过所述穿戴式设备的超声波组件和或图像识别组件,识别语音收发者的耳部位置区域,其中,识别的耳部位置区域包括耳廓区域和或耳道区域。
本实施例的有益效果在于,通过通过所述穿戴式设备的超声波组件和或图像识别组件,识别语音收发者的耳部位置区域;然后,在所述第一握持手势状态中,确定所述穿戴式设备与所述耳部位置区域相关联的区域,作为所述音频处理区域,或者,在所述第二握持手势状态中,确定所述穿戴式设备与所述耳部位置区域相关联的区域,作为所述音频处理区域。实现了一种更为人性化的音频处理方案,使得用户在使用穿戴式设备时收发语音更为便捷,提高了收发语音的清晰度,增强了用户体验。
实施例七
图12是本发明音频处理方法第七实施例的流程图,基于上述实施例,所述在所述音频处理区域内设置音频处理组件,其中,所述音频处理组件包括振膜、线圈以及磁钢,包括:
S41、在一个或多个所述音频处理区域内设置一组或多组所述音频处理组件;
S42、所述音频处理组件至少包括两组线圈以及多组磁钢。
在本实施例中,首先,在一个或多个所述音频处理区域内设置一组或多组所述音频处理组件;然后,所述音频处理组件至少包括两组线圈以及多组磁钢。
可选的,在一个或多个所述音频处理区域内设置一组或多组所述音频处理组件,其中,不同区域的一组或多组所述音频处理组件共用上述线圈以及上述磁钢的一个或多个音频组件。
本实施例的有益效果在于,通过在一个或多个所述音频处理区域内设置一组或多组所述音频处理组件;然后,所述音频处理组件至少包括两组线圈以及多组磁钢。实现了一种更为人性化的音频处理方案,使得用户在使用穿戴式设备时收发语音更为便捷,提高了收发语音的清晰度,增强了用户体验。
实施例八
图13是本发明音频处理方法第八实施例的流程图,基于上述实施例,所述在所述音频处理区域内设置音频处理组件,其中,所述音频处理组件包括振膜、线圈以及磁钢,还包括:
S43、所述振膜、第一线圈、第二线圈以及磁钢在所述音频处理区域内依次排布;
S44、当所述音频处理组件接收到发声信号时,通过所述发声信号触发所述第二线圈在所述磁钢生成的磁场中产生第一作用力,通过所述第一作用力带动振膜,生成声波信号;
S45、当所述音频处理组件的振膜接收所述声波信号时,带动所述第一线圈产生振动,通过在所述磁场中的振动获取电动势,并将所述电动势转化为收声电信号。
在本实施例中,首先,所述振膜、第一线圈、第二线圈以及磁钢在所述音频处理区域内依次排布;然后,当所述音频处理组件接收到发声信号时,通过所述发声信号触发所述第二线圈在所述磁钢生成的磁场中产生第一作用力,通过所述第一作用力带动振膜,生成声波信号;最后,当所述音频处理组件的振膜接收所述声波信号时,带动所述第一线圈产生振动,通过在所述磁场中的振动获取电动势,并将所述电动势转化为收声电信号。
图14是本发明音频处理方法对应的音频处理组件结构图。当本设备接受到音频信号时,音频信号经过线圈2,在磁钢磁场中,产生力,此力带到振膜,压缩空气,产生声波。其中,音频的收声原理:当本设备接受声波时,声波产生的力量作用在振膜上,引起振膜振动,带动线圈1作相应振动,线圈1在磁钢中运动,产生电动势,声音信号转变成电信号。本设备线圈2和线圈1外接处理器5,处理器有对线圈2的信号,线圈1的信号分别处理。
可以理解的是,本方案是发声和收声一体化的技术。由于声音可以空气传播,也可以介质传播,不仅吸取从嘴说出来的声音。本方案是吸取从耳道出来的声音转达给对方。所以装置(听筒/话筒)放在耳朵里面,不在外面。不仅是软件上而且结构上完全隔离外部的噪音。因此,本方案在嘈杂的环境里能清晰的转达用户的声音,本方案可以提高人工智能产品的语音识别率。
本实施例的有益效果在于,通过所述振膜、第一线圈、第二线圈以及磁钢在所述音频处理区域内依次排布;然后,当所述音频处理组件接收到发声信号时,通过所述发声信号触发所述第二线圈在所述磁钢生成的磁场中产生第一作用力,通过所述第一作用力带动振膜,生成声波信号;最后,当所述音频处理组件的振膜接收所述声波信号时,带动所述第一线圈产生振动,通过在所述磁场中的振动获取电动势,并将所述电动势转化为收声电信号。实现了一种更为人性化的音频处理方案,使得用户在使用穿戴式设备时收发语音更为便捷,提高了收发语音的清晰度,增强了用户体验。
实施例九
本发明还提出了一种音频处理设备,该设备包括:
存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序;
所述计算机程序被所述处理器执行时实现如上述任一项所述的方法的步骤。
具体的,在本实施例中,首先,确定所述穿戴式设备的穿戴状态;然后,在所述穿戴状态下,识别所述穿戴式设备在进行语音收发过程中的握持手势;再然后,根据所述握持手势以及耳部位置区域,在所述穿戴式设备中确定所述语音收发的音频处理区域;最后,在所述音频处理区域内设置音频处理组件,其中,所述音频处理组件包括振膜、线圈以及磁钢。
可选的,在本实施例中,穿戴式设备具有多种扣合方式,例如,表链式扣合、吸附式扣合等,通过在扣合的一端或两端设置传感组件,从而识别穿戴式设备的扣合状态,继而通过扣合状态识别穿戴状态;
可选的,在本实施例中,根据穿戴式设备用户的不同的使用需求以及不同的使用场景,结合当前的握持手势,确定在该握持手势下,最佳的音频收发位置,例如,当用户接听拨打电话时所采用的握持手势与听取语音消息时所采用的握持手势不同,又例如,用户的左、右手分别用于听取语音消息时所采用的握持手势不同;
可选的,在本实施例中,在穿戴式设备的一个或多个位置设置音频处理区域,可以理解的是,由于用户的不同的使用需求以及不同的使用场景,具有不同的最佳音频收发位置,因此,对应的设置一个或多个位置设置音频处理区域;
可选的,在本实施例中,在一个或多个音频处理区域内至少设置一组音频处理组件,其中,所述音频处理组件包括振膜、线圈以及磁钢。
在本实施例中,首先,获取所述穿戴式设备扣合组件的连接状态;然后,若所述扣合组件处于连接状态,则确定所述穿戴式设备处于佩戴状态,若所述扣合组件处于断开状态,则确定所述穿戴式设备处于脱离状态。
可选的,通过在扣合的一端或两端设置压力传感组件或者接触传感组件,从而识别穿戴式设备的扣合状态,继而通过扣合状态识别穿戴状态;
可选的,通过在扣合的一端或两端设置温感传感组件,从而根据体表温度识别穿戴式设备的穿戴状态。
在本实施例中,首先,在所述佩戴状态下,根据扣合组件的扣合位置以及扣合的压感值,确定当前的佩戴位置;然后,在所述脱离状态下,根据所述穿戴式设备的屏幕触发区域和或边缘压感区域,确定当前的握持区域。
可选的,在所述脱离状态下,根据所述穿戴式设备的预设的一个或多个屏幕触发区域确定当前的握持区域;
可选的,在所述脱离状态下,根据所述穿戴式设备的两侧边缘压感区域,确定当前的握持区域。
在本实施例中,首先,获取所述语音收发的操作指令;然后,根据所述操作指令识别所述穿戴式设备在当前状态下的握持手势,其中,所述握持手势包括在佩戴状态下的第一握持手势,以及在脱离状态下的第二握持手势。
可选的,根据所述操作指令识别所述穿戴式设备在当前状态下的握持手势,其中,所述握持手势包括在佩戴状态下的第一握持手势,以及在脱离状态下的第二握持手势,更具体的,在扣合状态时,也可能处于脱离状态,由于在此状态,下,穿戴式设备仍以握持的方式进行语音收发,因此,将此种状态下的手势归于本实施例的第二握持手势。
在本实施例中,首先,在所述语音收发过程中,获取所述穿戴式设备的运动参数;然后,根据所述运动参数调整手势语音收发在所述第一握持手势下的第一音频处理参数,或者,根据所述运动参数调整手势语音收发在所述第二握持手势下的第二音频处理参数。
可选的,在所述语音收发过程中,获取所述穿戴式设备的运动参数,其中,该运动参数包括三轴陀螺仪的传感参数、加速度传感参数等;
可选的,根据所述运动参数调整手势语音收发在所述第一握持手势下的第一音频处理参数,或者,根据所述运动参数调整手势语音收发在所述第二握持手势下的第二音频处理参数,其中,第一音频处理参数以及第二音频处理参数包括语音收发时的语音播放参数以及语音采集参数。
在本实施例中,首先,通过所述穿戴式设备的超声波组件和或图像识别组件,识别语音收发者的耳部位置区域;然后,在所述第一握持手势状态中,确定所述穿戴式设备与所述耳部位置区域相关联的区域,作为所述音频处理区域,或者,在所述第二握持手势状态中,确定所述穿戴式设备与所述耳部位置区域相关联的区域,作为所述音频处理区域。
可选的,通过所述穿戴式设备的超声波组件和或图像识别组件,识别语音收发者的耳部位置区域,其中,识别的耳部位置区域包括耳廓区域和或耳道区域。
在本实施例中,首先,在一个或多个所述音频处理区域内设置一组或多组所述音频处理组件;然后,所述音频处理组件至少包括两组线圈以及多组磁钢。
可选的,在一个或多个所述音频处理区域内设置一组或多组所述音频处理组件,其中,不同区域的一组或多组所述音频处理组件共用上述线圈以及上述磁钢的一个或多个音频组件。
在本实施例中,首先,所述振膜、第一线圈、第二线圈以及磁钢在所述音频处理区域内依次排布;然后,当所述音频处理组件接收到发声信号时,通过所述发声信号触发所述第二线圈在所述磁钢生成的磁场中产生第一作用力,通过所述第一作用力带动振膜,生成声波信号;最后,当所述音频处理组件的振膜接收所述声波信号时,带动所述第一线圈产生振动,通过在所述磁场中的振动获取电动势,并将所述电动势转化为收声电信号。
可以理解的是,本方案是发声和收声一体化的技术。由于声音可以空气传播,也可以介质传播,不仅吸取从嘴说出来的声音。本方案是吸取从耳道出来的声音转达给对方。所以装置(听筒/话筒)放在耳朵里面,不在外面。不仅是软件上而且结构上完全隔离外部的噪音。因此,本方案在嘈杂的环境里能清晰的转达用户的声音,本方案可以提高人工智能产品的语音识别率。
本实施例的有益效果在于,通过确定所述穿戴式设备的穿戴状态;然后,在所述穿戴状态下,识别所述穿戴式设备在进行语音收发过程中的握持手势;再然后,根据所述握持手势以及耳部位置区域,在所述穿戴式设备中确定所述语音收发的音频处理区域;最后,在所述音频处理区域内设置音频处理组件,其中,所述音频处理组件包括振膜、线圈以及磁钢。实现了一种人性化的音频处理方案,使得用户在使用穿戴式设备时收发语音更为便捷,提高了收发语音的清晰度,增强了用户体验。
实施本发明的折叠显示方法、设备及计算机可读存储介质,通过确定所述穿戴式设备的穿戴状态;然后,在所述穿戴状态下,识别所述穿戴式设备在进行语音收发过程中的握持手势;再然后,根据所述握持手势以及耳部位置区域,在所述穿戴式设备中确定所述语音收发的音频处理区域;最后,在所述音频处理区域内设置音频处理组件,其中,所述音频处理组件包括振膜、线圈以及磁钢。实现了一种人性化的音频处理方案,使得用户在使用穿戴式设备时收发语音更为便捷,提高了收发语音的清晰度,增强了用户体验。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
Claims (10)
1.一种音频处理方法,其特征在于,所述方法包括:
确定所述穿戴式设备的穿戴状态;
在所述穿戴状态下,识别所述穿戴式设备在进行语音收发过程中的握持手势;
根据所述握持手势以及耳部位置区域,在所述穿戴式设备中确定所述语音收发的音频处理区域;
在所述音频处理区域内设置音频处理组件,其中,所述音频处理组件包括振膜、线圈以及磁钢。
2.根据权利要求1所述的音频处理方法,其特征在于,所述确定所述穿戴式设备的穿戴状态,包括:
获取所述穿戴式设备扣合组件的连接状态;
若所述扣合组件处于连接状态,则确定所述穿戴式设备处于佩戴状态,若所述扣合组件处于断开状态,则确定所述穿戴式设备处于脱离状态。
3.根据权利要求2所述的音频处理方法,其特征在于,所述确定所述穿戴式设备的穿戴状态,还包括:
在所述佩戴状态下,根据扣合组件的扣合位置以及扣合的压感值,确定当前的佩戴位置;
在所述脱离状态下,根据所述穿戴式设备的屏幕触发区域和或边缘压感区域,确定当前的握持区域。
4.根据权利要求3所述的音频处理方法,其特征在于,所述在所述穿戴状态下,识别所述穿戴式设备在进行语音收发过程中的握持手势,包括:
获取所述语音收发的操作指令;
根据所述操作指令识别所述穿戴式设备在当前状态下的握持手势,其中,所述握持手势包括在佩戴状态下的第一握持手势,以及在脱离状态下的第二握持手势。
5.根据权利要求4所述的音频处理方法,其特征在于,所述在所述穿戴状态下,识别所述穿戴式设备在进行语音收发过程中的握持手势,还包括:
在所述语音收发过程中,获取所述穿戴式设备的运动参数;
根据所述运动参数调整手势语音收发在所述第一握持手势下的第一音频处理参数,或者,根据所述运动参数调整手势语音收发在所述第二握持手势下的第二音频处理参数。
6.根据权利要求5所述的音频处理方法,其特征在于,所述根据所述握持手势以及耳部位置区域,在所述穿戴式设备中确定所述语音收发的音频处理区域,包括:
通过所述穿戴式设备的超声波组件和或图像识别组件,识别语音收发者的耳部位置区域;
在所述第一握持手势状态中,确定所述穿戴式设备与所述耳部位置区域相关联的区域,作为所述音频处理区域,或者,在所述第二握持手势状态中,确定所述穿戴式设备与所述耳部位置区域相关联的区域,作为所述音频处理区域。
7.根据权利要求6所述的音频处理方法,其特征在于,所述在所述音频处理区域内设置音频处理组件,其中,所述音频处理组件包括振膜、线圈以及磁钢,包括:
在一个或多个所述音频处理区域内设置一组或多组所述音频处理组件;
所述音频处理组件至少包括两组线圈以及多组磁钢。
8.根据权利要求7所述的音频处理方法,其特征在于,所述在所述音频处理区域内设置音频处理组件,其中,所述音频处理组件包括振膜、线圈以及磁钢,还包括:
所述振膜、第一线圈、第二线圈以及磁钢在所述音频处理区域内依次排布;
当所述音频处理组件接收到发声信号时,通过所述发声信号触发所述第二线圈在所述磁钢生成的磁场中产生第一作用力,通过所述第一作用力带动振膜,生成声波信号;
当所述音频处理组件的振膜接收所述声波信号时,带动所述第一线圈产生振动,通过在所述磁场中的振动获取电动势,并将所述电动势转化为收声电信号。
9.一种音频处理设备,其特征在于,所述设备包括:
存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序;
所述计算机程序被所述处理器执行时实现如权利要求1至8中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有音频处理程序,所述音频处理程序被处理器执行时实现如权利要求1至8中任一项所述的音频处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910360041.4A CN110111786B (zh) | 2019-04-30 | 2019-04-30 | 一种音频处理方法、设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910360041.4A CN110111786B (zh) | 2019-04-30 | 2019-04-30 | 一种音频处理方法、设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110111786A true CN110111786A (zh) | 2019-08-09 |
CN110111786B CN110111786B (zh) | 2023-11-10 |
Family
ID=67487736
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910360041.4A Active CN110111786B (zh) | 2019-04-30 | 2019-04-30 | 一种音频处理方法、设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110111786B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117255283A (zh) * | 2023-11-16 | 2023-12-19 | 深圳市雅乐电子有限公司 | 耳机及其控制方法、控制装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1324033A (zh) * | 2000-05-15 | 2001-11-28 | 张越苏 | 带有中文linux操作***的可穿戴式多媒体无线微型计算机 |
JP2005191766A (ja) * | 2003-12-25 | 2005-07-14 | Seiko Instruments Inc | 携帯用電子機器 |
CN103809866A (zh) * | 2012-11-13 | 2014-05-21 | 联想(北京)有限公司 | 一种操作模式切换方法和电子设备 |
US20150230022A1 (en) * | 2014-02-07 | 2015-08-13 | Samsung Electronics Co., Ltd. | Wearable electronic system |
CN107409154A (zh) * | 2015-12-31 | 2017-11-28 | 深圳市柔宇科技有限公司 | 柔性穿戴设备 |
WO2018095044A1 (zh) * | 2016-11-22 | 2018-05-31 | 华为技术有限公司 | 音频输入输出方法和终端设备 |
WO2019053996A1 (ja) * | 2017-09-13 | 2019-03-21 | ソニー株式会社 | ヘッドホン装置 |
CN109561221A (zh) * | 2018-12-26 | 2019-04-02 | 努比亚技术有限公司 | 一种通话控制方法、设备及计算机可读存储介质 |
-
2019
- 2019-04-30 CN CN201910360041.4A patent/CN110111786B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1324033A (zh) * | 2000-05-15 | 2001-11-28 | 张越苏 | 带有中文linux操作***的可穿戴式多媒体无线微型计算机 |
JP2005191766A (ja) * | 2003-12-25 | 2005-07-14 | Seiko Instruments Inc | 携帯用電子機器 |
CN103809866A (zh) * | 2012-11-13 | 2014-05-21 | 联想(北京)有限公司 | 一种操作模式切换方法和电子设备 |
US20150230022A1 (en) * | 2014-02-07 | 2015-08-13 | Samsung Electronics Co., Ltd. | Wearable electronic system |
CN107409154A (zh) * | 2015-12-31 | 2017-11-28 | 深圳市柔宇科技有限公司 | 柔性穿戴设备 |
WO2018095044A1 (zh) * | 2016-11-22 | 2018-05-31 | 华为技术有限公司 | 音频输入输出方法和终端设备 |
WO2019053996A1 (ja) * | 2017-09-13 | 2019-03-21 | ソニー株式会社 | ヘッドホン装置 |
CN109561221A (zh) * | 2018-12-26 | 2019-04-02 | 努比亚技术有限公司 | 一种通话控制方法、设备及计算机可读存储介质 |
Non-Patent Citations (1)
Title |
---|
王玉;张重阳;郑世宝;薛明;邵长彬;於家健;: "穿戴式多媒体***", 电视技术, no. 08 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117255283A (zh) * | 2023-11-16 | 2023-12-19 | 深圳市雅乐电子有限公司 | 耳机及其控制方法、控制装置 |
CN117255283B (zh) * | 2023-11-16 | 2024-04-05 | 深圳市雅乐电子有限公司 | 耳机及其控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110111786B (zh) | 2023-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109982179A (zh) | 音频信号输出方法、装置、可穿戴设备及存储介质 | |
CN110350935A (zh) | 音频信号输出控制方法、可穿戴设备及可读存储介质 | |
CN110362368A (zh) | 可穿戴设备的图片定制显示方法、相关设备及存储介质 | |
CN109799912A (zh) | 一种显示控制方法、设备及计算机可读存储介质 | |
CN110086563A (zh) | 一种旋转控制方法、设备及计算机可读存储介质 | |
CN110083331A (zh) | 可穿戴设备播放模式控制方法、装置、可穿戴设备及介质 | |
CN110083289A (zh) | 一种按钮显示方法、可穿戴设备和计算机可读存储介质 | |
CN110134312A (zh) | 控制方法、可穿戴设备及计算机可读存储介质 | |
CN110177209A (zh) | 一种视频参数调控方法、设备及计算机可读存储介质 | |
CN110109544A (zh) | 马达震动幅度的调整方法、可穿戴设备及可读存储介质 | |
CN110198411A (zh) | 一种视频拍摄过程中的景深控制方法、设备及计算机可读存储介质 | |
CN110177208A (zh) | 一种视频录制的关联控制方法、设备及计算机可读存储介质 | |
CN110111786A (zh) | 一种音频处理方法、设备及计算机可读存储介质 | |
CN110213442A (zh) | 语音播放方法、终端及计算机可读存储介质 | |
CN110072071A (zh) | 一种视频录制交互控制方法、设备及计算机可读存储介质 | |
CN110069136A (zh) | 一种穿戴状态识别方法、设备及计算机可读存储介质 | |
CN110086929A (zh) | 息屏显示方法、手机、可穿戴设备和计算机可读存储介质 | |
CN110083332A (zh) | 音频切换方法、可穿戴设备及计算机可读存储介质 | |
CN110187770A (zh) | 一种腕带声控交互方法、设备及计算机可读存储介质 | |
CN110448020A (zh) | 一种可穿戴设备 | |
CN110191282A (zh) | 一种拍摄参数调控方法、设备及计算机可读存储介质 | |
CN110083247A (zh) | 控制可穿戴设备操作方法、装置、可穿戴设备及存储介质 | |
CN110049248A (zh) | 一种拍摄对象调控方法、设备及计算机可读存储介质 | |
CN110150804A (zh) | 一种表带固定结构及可穿戴设备 | |
CN110069102A (zh) | 一种显示区域调控方法、设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230922 Address after: No. 3605, 5th Floor, Building 3, Micro World, No. 23 Century Avenue, Liuwu New District, Lhasa, Tibet Autonomous Region, 850000 Applicant after: Tibet Canyu Lunzhu Technology Co.,Ltd. Address before: 518000 6-8 / F, 10-11 / F, 6 / F, 6-10 / F, C zone, Han's innovation building, No. 9018, Beihuan Avenue, high tech Zone, Nanshan District, Shenzhen City, Guangdong Province Applicant before: NUBIA TECHNOLOGY Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |