CN102479024A - 手持装置及其用户界面构建方法 - Google Patents

手持装置及其用户界面构建方法 Download PDF

Info

Publication number
CN102479024A
CN102479024A CN2010105575952A CN201010557595A CN102479024A CN 102479024 A CN102479024 A CN 102479024A CN 2010105575952 A CN2010105575952 A CN 2010105575952A CN 201010557595 A CN201010557595 A CN 201010557595A CN 102479024 A CN102479024 A CN 102479024A
Authority
CN
China
Prior art keywords
user
voice
sound
module
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2010105575952A
Other languages
English (en)
Inventor
陈翊晴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ambit Microsystems Shanghai Ltd
Hon Hai Precision Industry Co Ltd
Original Assignee
Ambit Microsystems Shanghai Ltd
Hon Hai Precision Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ambit Microsystems Shanghai Ltd, Hon Hai Precision Industry Co Ltd filed Critical Ambit Microsystems Shanghai Ltd
Priority to CN2010105575952A priority Critical patent/CN102479024A/zh
Priority to US13/092,156 priority patent/US20120131462A1/en
Publication of CN102479024A publication Critical patent/CN102479024A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Environmental & Geological Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种手持装置,包括存储单元、声音采集模块、声音识别模块、界面构建模块及显示模块。存储单元用于存储多个声音的类型与多个用户情绪的对应关系。声音采集模块用于从手持装置的周围环境中采集声音信号。声音识别模块用于解析声音信号以获取用户声音的类型,并根据用户声音的类型与对应关系确定用户情绪。界面构建模块用于根据用户情绪构建用户界面。显示模块用于显示用户界面。本发明还提供一种用户界面构建方法。上述手持装置及其用户界面构建方法可以通过用户发出的声音获知用户的情绪,根据用户情绪构建并显示用户界面。

Description

手持装置及其用户界面构建方法
技术领域
本发明涉及手持装置,尤其涉及手持装置用户界面构建方法。
背景技术
目前各种手持装置,如手机、移动因特网设备(Mobile Internet Device,MID)等的功能越来越强大,大显示屏已经成为发展趋势,手持装置功能的强大与大显示屏使得厂商更加注重手持装置使用者的用户体验。手持装置的用户界面已经从用户界面的图标固定不变发展到目前用户界面可以由用户根据喜好设定图标的位置,用户界面的背景色彩及主题模式。但是,手持装置用户界面的主题模式一旦被用户设定后,除非用户再次更改主题模式,否则用户界面不会发生变化。因此,当用户处于不同情绪下,手持装置显示的用户界面并不是与用户情绪想适应的主题模式。
因此,有必要提供一种手持装置,可根据用户情绪构建用户界面。
发明内容
有鉴于此,本发明提供一种手持装置,可以通过识别用户发出的声音获知用户的情绪,根据用户情绪构建并显示用户界面。
此外,本发明还提供一种手持装置的用户界面构建方法,可以通过识别用户发出的声音获知用户的情绪,根据用户情绪构建并显示用户界面。
本发明实施方式中提供的手持装置,包括存储单元、声音采集模块、声音识别模块、界面构建模块及显示模块。存储单元用于存储多个声音的类型与多个用户情绪的对应关系。声音采集模块用于从手持装置的周围环境中采集声音信号。声音识别模块用于解析声音信号以获取所述用户声音的类型,并根据用户声音的类型与对应关系确定用户情绪。界面构建模块用于根据用户情绪构建用户界面。显示模块用于显示用户界面。
优选地,存储单元还用于存储多个声音的类型对应的波形图;声音采集模块还用于将所述手持装置的周围环境中声音的振动转换为对应的电流,对电流进行预定频率的采样生成声音对应的波形图;声音识别模块还用于将所述声音采集模块所生成的声音对应的波形图与所述存储单元中存储的多个声音的类型对应的波形图进行对比,获取所述用户声音的类型。
优选地,声音识别模块先去除声音信号中的环境噪音以获取用户声音,再根据用户声音获取用户声音的类型。
优选地,界面构建模块包括定位模块用于确定用户的当前位置。
优选地,界面构建模块还包括网络搜索模块用于经由网络搜索预定地理区域内与用户情绪相关的网络信息。
优选地,界面构建模块包括号码获取模块,用于从电话号码簿或从网络中自动获取预定联系人的电话号码供用户拨号。
本发明实施方式中提供的用户界面构建方法包括以下步骤:提供多个声音的类型与多个用户情绪的对应关系;从手持装置的周围环境中采集声音信号;解析声音信号以获取用户声音的类型;根据用户声音的类型与对应关系确定用户情绪;根据用户情绪构建用户界面;显示用户界面。
优选地,所述用户界面构建方法还包括以下步骤:去除声音信号中的环境噪音以获取用户声音,根据用户声音获取用户声音的类型。
优选地,所述用户界面构建方法还包括以下步骤:确定用户当前的位置。
优选地,所述用户界面构建方法,还包括以下步骤:通过网络搜索预定地理区域内与用户情绪相关的网络信息。
优选地,所述用户界面构建方法还包括以下步骤:从电话号码簿或从网络中自动获取预定联系人的电话号码供用户拨号。
上述手持装置及其用户界面构建方法可以识别用户发出的声音,获知用户的情绪,并根据用户情绪构建并显示用户界面,以此提高用户的使用体验。
附图说明
图1是本发明手持装置一实施方式的模块图。
图2是本发明手持装置所存储的呻吟声与咳嗽声一实施方式的波形示意图。
图3是本发明手持装置所存储的喘息声与说话声一实施方式的波形示意图。
图4是本发明手持装置处理后的呻吟声与咳嗽声一实施方式的波形示意图。
图5是本发明手持装置用户界面构建方法一实施方式的流程图。
图6是本发明手持装置用户界面构建方法另一实施方式的流程图。
图7是本发明手持装置用户界面构建方法又一实施方式的流程图。
主要元件符号说明
手持装置        10
处理器          100
存储单元        102
声音采集模块    104
声音识别模块    106
界面构建模块    108
显示模块        110
定位模块        1080
网络搜索模块    1082
号码获取模块    1084
具体实施方式
图1是本发明手持装置10一实施方式的模块图。
手持装置10包括处理器100、存储单元102、声音采集模块104、声音识别模块106、界面构建模块108及显示模块110。在本实施方式中,手持装置10可以是手机、MID(mobile Internet device)等移动终端设备。处理器100用于执行上述声音采集模块104、声音识别模块106、界面构建模块108。
存储单元102用于存储多个声音的类型对应的波形图以及多个声音的类型与多个用户情绪的对应关系。在本实施方式中,多个声音的类型的波形图是指用户的不同声音的类型对应的声音波形图。例如,图2(A)是用户发出的呻吟声对应的波形图,图2(B)是用户发出的咳嗽声对应的波形图,图3(A)是用户发出的喘息声对应的波形图,图3(B)是用户说话的声音对应的波形图。所述多个声音的类型与多个用户情绪的对应关系可以如下:当用户声音的类型为呻吟声时,对应的用户情绪为痛苦;当用户声音的类型为咳嗽声时,对应的用户情绪为生病;当用户声音的类型为喘息声时,对应的用户情绪为运动;当用户声音的类型为说话声时,对应的用户情绪为正常。在本发明不同实施方式中,具体的对应关系可以根据使用者的喜好自由设定,不限定于上例所述内容。
声音采集模块104用于从所述手持装置10的周围环境中采集声音信号,所述声音信号包括用户声音。在本实施方式中,声音采集模块104可以是麦克风。声音采集模块104从环境中采集声音的时间可以是实时进行采集、间隔预定时间进行采集或者用户按预定键时采集。间隔预定时间从环境中采集声音或者用户按预定键时采集声音,可以节约手持装置10的电量,获得更持久的使用时间。具体而言,声音采集模块104将手持装置10的周围环境中声音的振动转换为对应的电流,然后对电流进行预定频率的采样生成声音对应的波形图,从而实现声音的采集。
声音识别模块106用于解析声音信号以获取用户声音的类型,并根据用户声音的类型与所述对应关系确定用户情绪。在本实施方式中,声音识别模块106将声音采集模块104生成的声音的波形图与存储单元102中存储的多个声音的类型对应的波形图进行对比,获取当前声音的类型,再结合声音的类型与用户情绪的对应关系判断发出声音的用户的情绪。具体而言,当用户生病咳嗽时,声音采集模块104采集到用户咳嗽声,并且将用户的咳嗽声转换为波形图。声音识别模块106将采集到的用户咳嗽声与存储单元102中的存储的各种声音的波形图对比,从而可以识别出用户当前声音的类型是咳嗽,再根据所述声音的类型,如咳嗽,与用户情绪的对应关系即可判定用户处于生病状态。
界面构建模块108用于根据用户情绪构建用户界面。在本实施方式中,界面构建模块108预先设定了各种情绪下用户界面的构建规则。举例而言,当判定用户处于生病状态时,则根据预定的生病状态下的用户界面构建规则,启动相应的功能构建用户界面。
显示模块110用于显示用户界面。在本实施方式中,界面构建模块108建立的用户界面将会通过显示模块110显示。作为本发明实施方式的进一步改进,界面构建模块108构建用户界面的画面的同时也可产生语音。
在本实施方式中,声音识别模块106是直接将声音采集模块104采集声音信号(包括用户声音和环境噪音)与存储单元102中存储的声音的波形图比对来识别用户声音的类型。作为本发明一实施方式的进一步改进,手持装置10的声音识别模块106可先去除声音信号中的环境噪音以获取用户声音,再根据用户声音获取用户声音的类型。具体而言,声音采集模块104从手持装置10的周围环境中采集的声音信号包括用户声音和环境噪音。因此,声音采集模块104生成的声音信号的波形图是用户声音的波形图和环境噪音的波形图的叠加。参见图4,图4(A)中的呻吟声与图4(B)中的咳嗽声的波形图是经过声音识别模块106的平滑化处理,进而将环境噪音的波形图去除,获得的用户声音的波形图。经过声音识别模块106去除环境噪音后获得的用户声音的波形图,增加了声音识别模块106将用户声音的波形图与存储单元102中存储的声音的波形图比对的准确度,也加快了比对的速度。
作为本发明一实施方式的进一步改进,手持装置10的界面构建模块108包括定位模块1080,用于确定用户当前位置。在本实施方式中,定位模块1080可以通过全球定位***(Global Position System,GPS)获取手持装置10的位置信息,也可以通过手机基站来确定手持装置10的位置信息。
作为本发明一实施方式的进一步改进,手持装置10的界面构建模块108还包括网络搜索模块1082,用于经由网络搜索预定地理区域内与用户情绪相关的网络信息。在本实施方式中,预定地理区域可以是全球范围,也可以是用户设置的某个区域,或者是定位模块1080确定的用户当前位置的周边一定范围的区域。具体而言,手持装置10侦测到用户的咳嗽声音,确定用户处于生病状态,定位模块1080确定用户的当前位置,网络搜索模块1082经由网络搜索用户当前所处位置附近的医院及药店,并提供到达医院和药店的最近的方式及路径。
作为本发明一实施方式的进一步改进,手持装置10的界面构建模块108还包括号码获取模块1084,用于从电话号码簿或从网络中获取预定联系人的电话号码以供用户拨号。在本实施方式中,预定联系人可以是手持装置10中存储的预定联系人,也可以经由预定的规则由网络搜索模块1082经由网络搜索到的相关联系人的电话号码。具体而言,当手持装置10侦测到用户处于生病状态时,提取手持装置10中存储的用户在生病状态时想要通话求助的联系人的电话,或者提取网络模块1082搜索到的医院或者药店的电话。用户可以直接通过拨号键建立与提取的相关联系人的语音通话。
图5是本发明手持装置10用户界面构建方法一实施方式的流程图。在本实施方式中,手持装置10用户界面构建方法通过图1中功能模块来实施。
在步骤S200,存储单元102存储多个声音的类型对应的波形图以及多个声音的类型与多个用户情绪的对应关系。在本实施方式中,多个声音的类型的波形图是指用户的不同声音的类型对应的声音波形图。参见图2与图3,图2(A)是用户发出的呻吟声对应的波形图,图2(B)是用户发出的咳嗽声对应的波形图,图3(A)是用户发出的喘息声对应的波形图,图3(B)是用户说话的声音对应的波形图。所述多个声音的类型与多个用户情绪的对应关系是指:当用户声音的类型为呻吟声时,对应的用户情绪为痛苦;当用户声音的类型为咳嗽声时,对应的用户情绪为生病;当用户声音的类型为喘息声时,对应的用户情绪为运动;当用户声音的类型为说话声时,对应的用户情绪为正常。
在步骤S202,声音采集模块104从手持装置10的周围环境中采集声音信号,所述声音信号包括用户声音。在本实施方式中,声音采集模块104从环境中采集声音的时间可以是实时采集、间隔预定时间采集或者用户按预定键时采集。具体而言,声音采集模块104将手持装置10的周围环境中声音的振动转换为对应的电流,对电流进行预定频率的采样生成声音对应的波形图,从而实现声音的采集。
在步骤S204,声音识别模块106解析声音信号以获取用户声音的类型,并根据用户声音的类型与所述对应关系确定用户情绪。在本实施方式中,声音识别模块106将声音采集模块104生成的声音的波形图与存储单元102中存储的多个声音的类型对应的波形图进行对比,获取当前声音的类型,再根据声音的类型以及声音的类型与用户情绪的对应关系判断发出声音的用户的情绪。具体而言,当用户生病咳嗽时,声音采集模块104采集到用户咳嗽声,并且将用户的咳嗽声转换为波形图。声音识别模块106将采集到的用户咳嗽声与存储单元102中的存储的各种声音的波形图对比,从而可以识别出用户当前声音的类型是咳嗽,再根据声音的类型与用户情绪的对应关系即可判定用户处于生病状态。
在步骤S206,界面构建模块108根据用户情绪构建用户界面。在本实施方式中,界面构建模块108预先设定了各种情绪下用户界面的构建规则。举例而言,当判断用户处于生病状态时,则根据预定的生病状态下的用户界面构建规则,启动相应的功能构建用户界面。显示模块110显示界面构建模块108建立的用户界面。
图6为本发明手持装置10用户界面构建方法另一实施方式的流程图。
在步骤S300,存储单元102存储多个声音的类型对应的波形图以及多个声音的类型与多个用户情绪的对应关系。在本实施方式中,多个声音的类型的波形图是指用户的不同声音的类型对应的声音波形图。参见图2与图3,图2(A)是用户发出的呻吟声对应的波形图,图2(B)是用户发出的咳嗽声对应的波形图,图3(A)是用户发出的喘息声对应的波形图,图3(B)是用户说话的声音对应的波形图。所述多个声音的类型与多个用户情绪的对应关系是指:当用户声音的类型为呻吟声时,对应的用户情绪为痛苦;当用户声音的类型为咳嗽声时,对应的用户情绪为生病;当用户声音的类型为喘息声时,对应的用户情绪为运动;当用户声音的类型为说话声时,对应的用户情绪为正常。
在步骤S302,声音采集模块104从手持装置10的周围环境中采集声音信号,所述声音信号包括用户声音。在本实施方式中,声音采集模块104从环境中采集声音的时间可以是实时进行采集、间隔预定时间进行采集或者用户按预定键时采集。
在步骤S303,声音识别模块106先去除声音信号中的环境噪音以获取用户声音,再根据用户声音获取用户声音的类型。在本实施方式中,声音采集模块104生成的声音的波形图是用户声音的波形图和环境噪音的波形图的叠加。声音识别模块106先去除声音信号中的环境噪音以获取用户声音的声音波形图。参见图4,图4(A)的呻吟声与图4(B)的咳嗽声是经过声音识别模块106平滑化处理,进而将环境噪音的波形图去除,获得的用户声音的波形图。经过声音识别模块106去除环境噪音获得的用户声音的波形图增加了声音识别模块106将用户声音的波形图与存储单元102中存储的声音的波形图比对的准确度,也加快了比对的速度。
在步骤S304,声音识别模块106解析用户声音以获取用户声音的类型,并根据用户声音的类型确定用户情绪。在本实施方式中,声音识别模块106将去除环境噪音获得的用户声音的波形图与存储单元102中存储的多个声音的类型对应的波形图进行对比,获取用户声音的类型,再根据声音的类型与用户情绪的对应关系判断发出声音的用户的情绪。
在步骤S306,定位模块1080确定用户当前位置。在本实施方式中,定位模块1080可以通过全球定位单元(GPS)获取手持装置10的位置信息,也可以通过手机基站来确定手持装置10的位置信息。
在步骤S308,网络搜索模块1082通过网络搜索预定地理区域内与用户情绪相关的网络信息。在本实施方式中,预定地理区域可以是全球范围,也可以是用户设置的某个区域,或者是定位模块1080确定的用户当前位置的周边一定范围的区域。
图7为本发明手持装置10用户界面构建方法的又一实施方式的流程图。本实施例中的方法与图6中的方法相似,差别仅在于本实施例中步骤S310与图6中步骤S306与S308不同。由于步骤S300、S302、S303及S304已在图6中描述,因此不再赘述。
在步骤S310,号码获取模块1084从电话号码簿或网络中获取预定联系人的电话号码。在本实施方式中,预定联系人可以是手持装置10的电话号码簿中存储的预定联系人,也可以是网络搜索模块1082在网络搜索到的相关联系人的电话号码。
因此,本发明手持装置10及其用户界面构建方法可以识别用户发出的声音,获知用户的情绪,根据用户情绪构建并显示用户界面。

Claims (10)

1.一种手持装置,其特征在于,包括:
存储单元,用于存储多个声音的类型与多个用户情绪的对应关系;
声音采集模块,用于从所述手持装置的周围环境中采集声音信号,所述声音信号包括用户声音;
声音识别模块,用于解析所述声音信号以获取所述用户声音的类型,并根据所述用户声音的类型与所述对应关系确定用户情绪;
界面构建模块,用于根据所述用户情绪构建用户界面;及
显示模块,用于显示所述用户界面。
2.如权利要求1所述的手持装置,其特征在于:
所述存储单元还用于存储多个声音的类型对应的波形图;
所述声音采集模块还用于将所述手持装置的周围环境中声音的振动转换为电流,并对电流进行预定频率的采样生成声音对应的波形图;及
所述声音识别模块还用于将所述声音采集模块所生成的声音对应的波形图与所述存储单元中存储的多个声音的类型对应的波形图进行对比,获取所述用户声音的类型。
3.如权利要求1所述的手持装置,其特征在于,所述声音识别模块先去除所述声音信号中的环境噪音以获取所述用户声音,再根据所述用户声音获取所述用户声音的类型。
4.如权利要求1所述的手持装置,其特征在于,所述界面构建模块包括定位模块,用于确定所述用户的当前位置。
5.如权利要求4所述的手持装置,其特征在于,所述界面构建模块还包括网络搜索模块,用于经由网络搜索预定地理区域内与所述用户情绪相关的网络信息。
6.如权利要求5所述的手持装置,其特征在于,所述界面构建模块包括号码获取模块,用于从电话号码簿或从网络中自动获取预定联系人的电话号码供用户拨号。
7.一种用户界面构建方法,应用于手持装置中,其特征在于,所述用户界面构建方法包括以下步骤:
提供多个声音的类型与多个用户情绪的对应关系;
从所述手持装置的周围环境中采集声音信号,所述声音信号包括用户声音;
解析所述声音信号以获取所述用户声音的类型;
根据所述用户声音的类型与所述对应关系确定用户情绪;
根据所述用户情绪构建用户界面;及
显示所述用户界面。
8.如权利要求7所述的用户界面构建方法,其特征在于,所述解析所述声音信号以获取所述用户声音的类型的步骤包括以下步骤:
去除所述声音信号中的环境噪音以获取用户声音;及
根据所述用户声音获取所述用户声音的类型。
9.如权利要求7所述的用户界面构建方法,其特征在于,所述根据所述用户情绪构建用户界面的步骤包括以下步骤:
确定所述用户的当前位置;
通过网络搜索预定地理区域内与所述用户情绪相关的网络信息。
10.如权利要求7所述的用户界面构建方法,其特征在于,所述根据所述用户情绪构建用户界面的步骤包括以下步骤:
从电话号码簿或从网络中自动获取预定联系人的电话号码供用户拨号。
CN2010105575952A 2010-11-24 2010-11-24 手持装置及其用户界面构建方法 Pending CN102479024A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN2010105575952A CN102479024A (zh) 2010-11-24 2010-11-24 手持装置及其用户界面构建方法
US13/092,156 US20120131462A1 (en) 2010-11-24 2011-04-22 Handheld device and user interface creating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2010105575952A CN102479024A (zh) 2010-11-24 2010-11-24 手持装置及其用户界面构建方法

Publications (1)

Publication Number Publication Date
CN102479024A true CN102479024A (zh) 2012-05-30

Family

ID=46065574

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2010105575952A Pending CN102479024A (zh) 2010-11-24 2010-11-24 手持装置及其用户界面构建方法

Country Status (2)

Country Link
US (1) US20120131462A1 (zh)
CN (1) CN102479024A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103841252A (zh) * 2012-11-22 2014-06-04 腾讯科技(深圳)有限公司 声音信号处理方法、智能终端及***
CN103888423A (zh) * 2012-12-20 2014-06-25 联想(北京)有限公司 信息处理方法和信息处理设备
CN104992715A (zh) * 2015-05-18 2015-10-21 百度在线网络技术(北京)有限公司 一种智能设备的界面切换方法及***
CN105204709A (zh) * 2015-07-22 2015-12-30 维沃移动通信有限公司 主题切换的方法及装置
CN105915988A (zh) * 2016-04-19 2016-08-31 乐视控股(北京)有限公司 进入特定电视桌面的电视机开启方法及其电视机
CN105930035A (zh) * 2016-05-05 2016-09-07 北京小米移动软件有限公司 显示界面背景的方法及装置
CN107193571A (zh) * 2017-05-31 2017-09-22 广东欧珀移动通信有限公司 界面推送的方法、移动终端及存储介质
US10126821B2 (en) 2012-12-20 2018-11-13 Beijing Lenovo Software Ltd. Information processing method and information processing device

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8271872B2 (en) * 2005-01-05 2012-09-18 Apple Inc. Composite audio waveforms with precision alignment guides
CN107562403A (zh) * 2017-08-09 2018-01-09 深圳市汉普电子技术开发有限公司 一种音量调节方法、智能设备及存储介质
US20200152330A1 (en) 2018-11-13 2020-05-14 CurieAI, Inc. Scalable Personalized Treatment Recommendation
US10716534B1 (en) 2019-10-21 2020-07-21 Sonavi Labs, Inc. Base station for a digital stethoscope, and applications thereof
US10709414B1 (en) 2019-10-21 2020-07-14 Sonavi Labs, Inc. Predicting a respiratory event based on trend information, and applications thereof
US10750976B1 (en) * 2019-10-21 2020-08-25 Sonavi Labs, Inc. Digital stethoscope for counting coughs, and applications thereof
US10709353B1 (en) 2019-10-21 2020-07-14 Sonavi Labs, Inc. Detecting a respiratory abnormality using a convolution, and applications thereof
US10702239B1 (en) 2019-10-21 2020-07-07 Sonavi Labs, Inc. Predicting characteristics of a future respiratory event, and applications thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005222331A (ja) * 2004-02-05 2005-08-18 Ntt Docomo Inc エージェントインターフェースシステム
US7165033B1 (en) * 1999-04-12 2007-01-16 Amir Liberman Apparatus and methods for detecting emotions in the human voice
CN101015208A (zh) * 2004-09-09 2007-08-08 松下电器产业株式会社 通信终端及其通信方法
CN101019408A (zh) * 2004-09-10 2007-08-15 松下电器产业株式会社 信息处理终端
CN101346758A (zh) * 2006-06-23 2009-01-14 松下电器产业株式会社 感情识别装置

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6697457B2 (en) * 1999-08-31 2004-02-24 Accenture Llp Voice messaging system that organizes voice messages based on detected emotion
WO2002033541A2 (en) * 2000-10-16 2002-04-25 Tangis Corporation Dynamically determining appropriate computer interfaces
GB2370709A (en) * 2000-12-28 2002-07-03 Nokia Mobile Phones Ltd Displaying an image and associated visual effect
JP2002366166A (ja) * 2001-06-11 2002-12-20 Pioneer Electronic Corp コンテンツ提供システム及び方法、並びにそのためのコンピュータプログラム
KR100580617B1 (ko) * 2001-11-05 2006-05-16 삼성전자주식회사 오브젝트 성장제어 시스템 및 그 방법
US20050054381A1 (en) * 2003-09-05 2005-03-10 Samsung Electronics Co., Ltd. Proactive user interface
US20050204310A1 (en) * 2003-10-20 2005-09-15 Aga De Zwart Portable medical information device with dynamically configurable user interface
US20050114140A1 (en) * 2003-11-26 2005-05-26 Brackett Charles C. Method and apparatus for contextual voice cues
US8160549B2 (en) * 2004-02-04 2012-04-17 Google Inc. Mood-based messaging
US20050289582A1 (en) * 2004-06-24 2005-12-29 Hitachi, Ltd. System and method for capturing and using biometrics to review a product, service, creative work or thing
US9704502B2 (en) * 2004-07-30 2017-07-11 Invention Science Fund I, Llc Cue-aware privacy filter for participants in persistent communications
US20060135139A1 (en) * 2004-12-17 2006-06-22 Cheng Steven D Method for changing outputting settings for a mobile unit based on user's physical status
US20060206379A1 (en) * 2005-03-14 2006-09-14 Outland Research, Llc Methods and apparatus for improving the matching of relevant advertisements with particular users over the internet
TWI270850B (en) * 2005-06-14 2007-01-11 Universal Scient Ind Co Ltd Voice-controlled vehicle control method and system with restricted condition for assisting recognition
CN101297292A (zh) * 2005-10-27 2008-10-29 皇家飞利浦电子股份有限公司 用于向电子日记本加入内容或从中获取内容的方法和***
JP4509042B2 (ja) * 2006-02-13 2010-07-21 株式会社デンソー 自動車用もてなし情報提供システム
US7675414B2 (en) * 2006-08-10 2010-03-09 Qualcomm Incorporated Methods and apparatus for an environmental and behavioral adaptive wireless communication device
EP1895505A1 (en) * 2006-09-04 2008-03-05 Sony Deutschland GmbH Method and device for musical mood detection
US8345858B2 (en) * 2007-03-21 2013-01-01 Avaya Inc. Adaptive, context-driven telephone number dialing
US20090002178A1 (en) * 2007-06-29 2009-01-01 Microsoft Corporation Dynamic mood sensing
US20090138507A1 (en) * 2007-11-27 2009-05-28 International Business Machines Corporation Automated playback control for audio devices using environmental cues as indicators for automatically pausing audio playback
US20090249429A1 (en) * 2008-03-31 2009-10-01 At&T Knowledge Ventures, L.P. System and method for presenting media content
US20090307616A1 (en) * 2008-06-04 2009-12-10 Nokia Corporation User interface, device and method for an improved operating mode
US8086265B2 (en) * 2008-07-15 2011-12-27 At&T Intellectual Property I, Lp Mobile device interface and methods thereof
US8539359B2 (en) * 2009-02-11 2013-09-17 Jeffrey A. Rapaport Social network driven indexing system for instantly clustering people with concurrent focus on same topic into on-topic chat rooms and/or for generating on-topic search results tailored to user preferences regarding topic
KR101686913B1 (ko) * 2009-08-13 2016-12-16 삼성전자주식회사 전자기기에서 이벤트 서비스 제공 방법 및 장치
EP2333778A1 (en) * 2009-12-04 2011-06-15 Lg Electronics Inc. Digital data reproducing apparatus and method for controlling the same
KR101303648B1 (ko) * 2009-12-08 2013-09-04 한국전자통신연구원 감성신호 감지 장치 및 그 방법
US8588825B2 (en) * 2010-05-25 2013-11-19 Sony Corporation Text enhancement
US8639516B2 (en) * 2010-06-04 2014-01-28 Apple Inc. User-specific noise suppression for voice quality improvements
US8762144B2 (en) * 2010-07-21 2014-06-24 Samsung Electronics Co., Ltd. Method and apparatus for voice activity detection
US20120054634A1 (en) * 2010-08-27 2012-03-01 Sony Corporation Apparatus for and method of creating a customized ui based on user preference data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7165033B1 (en) * 1999-04-12 2007-01-16 Amir Liberman Apparatus and methods for detecting emotions in the human voice
JP2005222331A (ja) * 2004-02-05 2005-08-18 Ntt Docomo Inc エージェントインターフェースシステム
CN101015208A (zh) * 2004-09-09 2007-08-08 松下电器产业株式会社 通信终端及其通信方法
CN101019408A (zh) * 2004-09-10 2007-08-15 松下电器产业株式会社 信息处理终端
CN101346758A (zh) * 2006-06-23 2009-01-14 松下电器产业株式会社 感情识别装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103841252A (zh) * 2012-11-22 2014-06-04 腾讯科技(深圳)有限公司 声音信号处理方法、智能终端及***
US9930164B2 (en) 2012-11-22 2018-03-27 Tencent Technology (Shenzhen) Company Limited Method, mobile terminal and system for processing sound signal
CN103888423A (zh) * 2012-12-20 2014-06-25 联想(北京)有限公司 信息处理方法和信息处理设备
US10126821B2 (en) 2012-12-20 2018-11-13 Beijing Lenovo Software Ltd. Information processing method and information processing device
CN103888423B (zh) * 2012-12-20 2019-01-15 联想(北京)有限公司 信息处理方法和信息处理设备
CN104992715A (zh) * 2015-05-18 2015-10-21 百度在线网络技术(北京)有限公司 一种智能设备的界面切换方法及***
WO2016183961A1 (zh) * 2015-05-18 2016-11-24 百度在线网络技术(北京)有限公司 智能设备的界面切换方法、***、设备及非易失性计算机存储介质
CN105204709A (zh) * 2015-07-22 2015-12-30 维沃移动通信有限公司 主题切换的方法及装置
CN105915988A (zh) * 2016-04-19 2016-08-31 乐视控股(北京)有限公司 进入特定电视桌面的电视机开启方法及其电视机
CN105930035A (zh) * 2016-05-05 2016-09-07 北京小米移动软件有限公司 显示界面背景的方法及装置
CN107193571A (zh) * 2017-05-31 2017-09-22 广东欧珀移动通信有限公司 界面推送的方法、移动终端及存储介质
US10719695B2 (en) 2017-05-31 2020-07-21 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method for pushing picture, mobile terminal, and storage medium

Also Published As

Publication number Publication date
US20120131462A1 (en) 2012-05-24

Similar Documents

Publication Publication Date Title
CN102479024A (zh) 手持装置及其用户界面构建方法
JP2021516786A (ja) 複数人の音声を分離する方法、装置、およびコンピュータプログラム
CN104168353A (zh) 蓝牙耳机及其语音交互控制方法
CN107205097B (zh) 移动终端查找方法、装置以及计算机可读存储介质
WO2011151502A1 (en) Enhanced context awareness for speech recognition
CN111447327A (zh) 诈骗电话的识别方法、装置、存储介质及终端
CN105426357A (zh) 语音快速选择方法
CN103249034A (zh) 一种获取联系人信息的方法和装置
CN104873062A (zh) 一种具有语音控制功能的水杯
CN101485188A (zh) 用于提供语音分析服务的方法和***及其装置
CN107592339B (zh) 一种基于智能终端的音乐推荐方法及音乐推荐***
CN102348014A (zh) 用于使用声音提供增强现实服务的装置和方法
KR20110114797A (ko) 음성을 이용한 모바일 검색 장치 및 방법
CN100476813C (zh) 一种音乐、铃声搜索和下载方法及***
CN104092809A (zh) 通话录音方法、通话录音播放方法及其相应装置
JP6606697B1 (ja) 通話システム、及び通話プログラム
CN106953962B (zh) 一种通话录音方法及装置
CN103581857A (zh) 一种语音提示的方法、语音合成服务器及终端
JP2011250311A (ja) 聴覚ディスプレイ装置及び方法
US20070277193A1 (en) Methods for realizing an in-vehicle ringtone
CN105739940A (zh) 存储方法及装置
CN102868810A (zh) 使对端获取通信号码的方法和装置
CN105472152A (zh) 一种智能终端自动接听电话的方法***
CN101640860B (zh) 用于通信的方法、用于通信的相关***和相关的转换部件
CN109246317A (zh) 一种用户信息的更新方法、***和服务器

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20120530