CN109117233A - 用于处理信息的方法和装置 - Google Patents
用于处理信息的方法和装置 Download PDFInfo
- Publication number
- CN109117233A CN109117233A CN201810961533.4A CN201810961533A CN109117233A CN 109117233 A CN109117233 A CN 109117233A CN 201810961533 A CN201810961533 A CN 201810961533A CN 109117233 A CN109117233 A CN 109117233A
- Authority
- CN
- China
- Prior art keywords
- information
- user
- resource information
- scene
- voice messaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000004458 analytical method Methods 0.000 claims abstract description 33
- 230000004044 response Effects 0.000 claims abstract description 23
- 238000007619 statistical method Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 7
- 230000003321 amplification Effects 0.000 claims description 6
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 6
- 230000002123 temporal effect Effects 0.000 claims description 5
- 230000003993 interaction Effects 0.000 abstract description 11
- 230000006870 function Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 10
- 230000002452 interceptive effect Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 230000001755 vocal effect Effects 0.000 description 7
- 230000006854 communication Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000005266 casting Methods 0.000 description 3
- 230000005611 electricity Effects 0.000 description 3
- 230000005291 magnetic effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请实施例公开了用于处理信息的方法和装置。该方法的一具体实施方式包括:基于接收的语音信息确定是否开启场景模式;响应于确定开启场景模式,根据语音信息的分析结果,确定目标场景;获取与目标场景相关的资源信息;将获取的资源信息反馈给用户。该实施方式在场景模式下,可以同时提供多种信息资源以供用户选择。这样,有助于提升用户获取信息的效率,以及可以提高人机交互效率。
Description
技术领域
本申请实施例涉及人工智能技术领域,具体涉及用于处理信息的方法和装置。
背景技术
随着人工智能技术的不断发展,运用人工智能技术的产品层出不穷,方便了人们的日常生活。例如,人们通过与智能产品进行语音交互,就可以便捷地获取到想要的信息、服务等。对于目前的智能产品,在交互过程中,其一次往往只能返回一种信息或服务。如果用户想获取更多的信息和服务,通常需要进行多次交互。
发明内容
本申请实施例提出了用于处理信息的方法和装置。
第一方面,本申请实施例提出了一种用于处理信息的方法,包括:基于接收的语音信息确定是否开启场景模式;响应于确定开启场景模式,根据语音信息的分析结果,确定目标场景;获取与目标场景相关的资源信息;将获取的资源信息反馈给用户。
在一些实施例中,目标场景用于表征用户当前所在的场景,其中,目标场景包括以下至少一种:时间场景、位置场景或天气场景。
在一些实施例中,将获取的资源信息反馈给用户,包括:根据获取的资源信息,生成语音反馈信息,并对语音反馈信息进行播报。
在一些实施例中,将获取的资源信息反馈给用户,包括:根据获取的资源信息,生成页面图像,并呈现页面图像;其中,页面图像中包括第一展示区,第一展示区形成有至少两个用于展示信息的展示框。
在一些实施例中,根据获取的资源信息,生成页面图像,包括:根据获取的资源信息,提取关键信息,并获取背景图像;将资源信息的关键信息和背景图像作为资源信息的展示信息,并将不同的资源信息的展示信息分别在至少两个展示框中展示。
在一些实施例中,该方法还包括:响应于检测到用户对至少两个展示框的选择操作,全屏呈现用户选择的展示框对应的资源信息的详细内容,其中,选择操作的方式包括以下至少一种:语音操作、触摸操作或按键操作。
在一些实施例中,页面图像中还包括第二展示区,以及该方法还包括:响应于检测到用户对至少两个展示框的选择操作,在第二展示区中放大展示用户选择的展示框中的展示信息,或者在第二展示区中放大展示用户选择的展示框对应的资源信息的详细内容;以及响应于再次检测到用户对已选择的展示框的选择操作,或者检测到当前选择操作的保持时长达到预设时长,全屏展示选择的展示框对应的资源信息的详细内容。
在一些实施例中,基于接收的语音信息确定是否开启场景模式,包括:确定语音信息中是否包括预设数据集合中的预设信息;若确定包括,则确定开启场景模式;其中,预设数据集合中的预设数据包括预设信息和与预设信息对应的预设场景;以及根据语音信息的分析结果,确定目标场景,包括:在预设数据集合中,查找与语音信息中包括的预设信息对应的预设场景,以作为目标场景。
在一些实施例中,预设数据集合中的预设数据还包括与预设场景对应的应用标识;以及获取与目标场景相关的资源信息,包括:在预设数据集合中,查找与目标场景对应的应用标识,以作为目标应用标识;获取目标应用标识所指示的应用的资源信息。
在一些实施例中,将获取的资源信息反馈给用户,包括:对获取的资源信息进行排序,将排序后的资源信息反馈给用户。
在一些实施例中,该方法还包括:对用户的交互行为进行统计分析,根据统计分析结果,调整与目标场景相关的资源信息,和/或调整资源信息的排序。
第二方面,本申请实施例提出了一种用于处理信息的装置,包括:分析单元,被配置成基于接收的语音信息确定是否开启场景模式;确定单元,被配置成响应于确定开启场景模式,根据语音信息的分析结果,确定目标场景;获取单元,被配置成获取与目标场景相关的资源信息;反馈单元,被配置成将获取的资源信息反馈给用户。
在一些实施例中,目标场景用于表征用户当前所在的场景,其中,目标场景包括以下至少一种:时间场景、位置场景或天气场景。
在一些实施例中,反馈单元包括:播报子单元,被配置成根据获取的资源信息,生成语音反馈信息,并对语音反馈信息进行播报。
在一些实施例中,反馈单元包括:呈现子单元,被配置成根据获取的资源信息,生成页面图像,并呈现页面图像;其中,页面图像中包括第一展示区,第一展示区形成有至少两个用于展示信息的展示框。
在一些实施例中,呈现子单元进一步被配置成:根据获取的资源信息,提取关键信息,并获取背景图像;将资源信息的关键信息和背景图像作为资源信息的展示信息,并将不同的资源信息的展示信息分别在至少两个展示框中展示。
在一些实施例中,该装置还包括:第一检测单元,被配置成响应于检测到用户对至少两个展示框的选择操作,全屏呈现用户选择的展示框对应的资源信息的详细内容,其中,选择操作的方式包括以下至少一种:语音操作、触摸操作或按键操作。
在一些实施例中,页面图像中还包括第二展示区,以及该装置还包括:第二检测单元,被配置成响应于检测到用户对至少两个展示框的选择操作,在第二展示区中放大展示用户选择的展示框中的展示信息,或者在第二展示区中放大展示用户选择的展示框对应的资源信息的详细内容;以及第三检测单元,被配置成响应于再次检测到用户对已选择的展示框的选择操作,或者检测到当前选择操作的保持时长达到预设时长,全屏展示选择的展示框对应的资源信息的详细内容。
在一些实施例中,分析单元进一步被配置成:确定语音信息中是否包括预设数据集合中的预设信息;若确定包括,则确定开启场景模式;其中,预设数据集合中的预设数据包括预设信息和与预设信息对应的预设场景;以及确定单元进一步被配置成:在预设数据集合中,查找与语音信息中包括的预设信息对应的预设场景,以作为目标场景。
在一些实施例中,预设数据集合中的预设数据还包括与预设场景对应的应用标识;以及获取单元进一步被配置成:在预设数据集合中,查找与目标场景对应的应用标识,以作为目标应用标识;获取目标应用标识所指示的应用的资源信息。
在一些实施例中,反馈单元进一步被配置成:对获取的资源信息进行排序,将排序后的资源信息反馈给用户。
在一些实施例中,该装置还包括:调整单元,被配置成对用户的交互行为进行统计分析,根据统计分析结果,调整与目标场景相关的资源信息,和/或调整资源信息的排序。
第三方面,本申请实施例提出了一种电子设备,包括:一个或多个处理器;接收设备,被配置成接收语音信息;播放设备,被配置成播放音频信息;显示屏,被配置成呈现图像信息;存储装置,其上存储有一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如上述第一方面中任一实施例所描述的方法。
第四方面,本申请实施例提出了一种计算机可读介质,其上存储有计算机程序,其中,该计算机程序被处理器执行时实现如上述第一方面中任一实施例所描述的方法。
本申请实施例提出的用于处理信息的方法和装置,基于接收的语音信息可以确定是否开启场景模式。并在确定开启场景模式的情况下,可以根据语音信息的分析结果,确定目标场景。从而可以获取与目标场景相关的资源信息。以及可以将获取的资源信息反馈给用户。也就是说,在开启场景模式下,这种方法可以根据用户的语音信息,同时向用户提供多种信息资源,以供用户选择。这样有助于提升用户获取信息的效率,也可以提高人机交互效率。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请的一个实施例可以应用于其中的示例性***架构图;
图2是根据本申请的用于处理信息的方法的一个实施例的流程图;
图3A-图3B分别是本申请中的页面图像的两个实施例的示意图;
图4是根据本申请的用于处理信息的方法的又一个实施例的流程图;
图5是根据本申请的用于处理信息的方法的一个应用场景的示意图;
图6是根据本申请的用于处理信息的装置的一个实施例的结构示意图;
图7是适于用来实现本申请实施例的电子设备的计算机***的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请实施例的用于处理信息的方法或装置的示例性***架构100。
如图1所示,***架构100可以包括终端101、102、103,网络104和服务器105。网络104可以用以在终端101、102、103与服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端101、102、103通过网络104与服务器105进行交互,以接收或发送消息等。终端101、102、103上可以安装有各种客户端应用,例如网页浏览器、搜索类应用、视频类应用、天气类应用、日历应用和即时通讯工具等。
用户可以与终端101、102、103进行语音交互,来获取所需的资源信息。终端101、102、103在检测到有语音信息输入时,可以对接收的用户的语音信息进行识别和分析。并可以将识别分析结果(如与目标场景相关的资源信息)反馈给用户。
这里的终端101、102、103可以是硬件,也可以是软件。当终端101、102、103为硬件时,可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、智能电视、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、膝上型便携计算机和台式计算机等等。当终端101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如可以是对终端101、102、103上安装的各种应用提供支持的后台服务器。后台服务器可以对用户在终端101、102、103上的应用中的操作进行分析处理,并可以将处理结果(与操作对应的响应信息)返回给终端101、102、103。
这里的服务器105同样可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器105为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本申请实施例所提供的用于处理信息的方法一般由终端101、102、103执行。相应地,用于处理信息的装置一般设置于终端101、102、103中。
应该理解,图1中的终端、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端、网络和服务器。
继续参见图2,其示出了根据本申请的用于处理信息的方法的一个实施例的流程200。该用于处理信息的方法可以包括以下步骤:
步骤201,基于接收的语音信息确定是否开启场景模式。
在本实施例中,用于处理信息的方法的执行主体(例如图1所示的终端101、102、103)可以通过与其通信连接的接收设备来接收用户的语音信息。这里的接收设备可以是具有语音接收功能的各种设备,如麦克风。其可以安装在执行主体上,也可以独立设置。其中,语音信息中可以包括文字、数字、字母等至少一种字符。
在本实施例中,执行主体可以对接收的语音信息进行识别和分析,从而确定是否开启场景模式。其中,在场景模式下,执行主体在与用户交互的过程中,可以获取多种资源信息。并可以将这些资源信息同时提供给用户,以供用户选择。而在非场景模式下,执行主体往往采用一问一答的方式与用户进行交互。即对用户每次发送的语音指令,仅返回对应的单类资源信息。
例如对于“某地今天天气如何?”的语音指令。在场景模式下,执行主体可以向用户提供某地的天气信息、路况信息、车辆限行等信息。而在非场景模式下,执行主体仅会向用户提供某地的天气信息。也就是说,在非场景模式下的交互方式与现有的交互方式相同。用户一般需要进行多次交互,才能获取更多的资源信息。
在本实施例的一些可选地实现方式中,执行主体可以根据接收语音信息时的当前时间和/或当前位置,来确定是否开启场景模式。例如,执行主体可以利用大数据,对不同用户的历史交互行为进行统计分析。这里的交互行为可以包括交互时间(和/或交互地点)以及交互内容。从而可以确定出大部分用户在不同时间段(和/或不同位置)的需求信息。再例如,执行主体也可以对使用执行主体的用户的历史交互行为进行统计分析,从而确定该用户的行为习惯。这样,可以使得分析结果更加符合该用户的需求,提高分析结果的准确度。
作为示例,在早上(如6:00-8:00之间),用户常常会获取天气、路况、新闻等多种信息。因此,若执行主体确定接收语音信息时的当前时间是早上时段,则可以确定开启场景模式。又例如,对于交互位置位于居民区的用户,即说明用户可能在家中,往往会获取路况交通、天气等信息。而对于交互位置位于办公楼的用户,即说明用户可能在办公室,一般会获取工作日程、新闻等信息。此时,若执行主体确定接收语音信息时其当前位置为居民区或办公楼,则可以确定开启场景模式。再例如,通常情况下,处于不同地理位置的用户在不同时段获取的信息可能是不同的。因此,为了提高分析结果的准确性,执行主体可以根据接收语音信息时的当前时间和当前位置来确定是否开启场景模式。
可选地,执行主体也可以确定接收的语音信息中是否包括预设数据集合中的预设信息。若执行主体确定语音信息中包括预设信息,则可以确定开启场景模式。其中,预设数据集合中的预设数据可以包括预设信息和与预设信息对应的预设场景。这里的预设信息可以是包括文字、数字、字母等至少一种字符的信息,例如可以是关键词或语句等。而预设场景可以是用户自定义的,也可以是用户从固有场景中选择的。需要说明的是,预设信息以及预设信息与预设场景之间的对应关系,可以根据用户的实际需求进行调整。此外,预设数据集合的存储位置在本申请中并不限制。如可以存储在执行主体本地,也可以存储在其他电子设备上(例如图1所示的服务器105)。
可以理解的是,执行主体在接收用户的语音信息之前,需要开启语音交互功能。例如执行主体检测到用户发出指定的语音指令,或者检测到语音输入按键(物理按键或虚拟按键)被触发,再或者当前时间到达预设时间(如每天7:00),则可以开启语音交互功能。
步骤202,响应于确定开启场景模式,根据语音信息的分析结果,确定目标场景。
在本实施例中,执行主体在确定开启场景模式的情况下,可以根据对语音信息进行分析后的分析结果,来确定目标场景。其中,语音信息的分析结果可以(但不限于)包括接收语音信息时的当前时间、当前位置以及语音信息的内容等。而目标场景可以是与语音信息的分析结果相关的场景。
在本实施例的一些可选地实现方式中,执行主体可以根据接收语音信息时的当前时间来确定目标场景。例如,若当前时间为早上时段,则目标场景可以为早上场景;若当前时间为中午时段(如11:30-13:30),则目标场景可以为中午场景;若当前时间为晚上时段(如18:00-21:00),则目标场景可以为晚上场景。也就是说,目标场景可以是时间场景。
可选地,执行主体也可以根据接收语音信息时的当前位置来确定目标场景。例如,若当前位置为居民区,则目标场景可以为家庭场景;若当前位置为办公楼,则目标场景可以为办公场景。也就是说,目标场景也可以是位置场景。或者,执行主体还可以根据接收语音信息时的当前时间和当前位置来确定目标场景。例如当前时间为早上时段,当前位置为居民区,则目标场景可以为早上家庭场景。
进一步地,若语音信息中包括预设数据集合中的预设信息,则执行主体可以在预设数据集合中,查找与语音信息中包括的预设信息对应的预设场景。进而可以将查找到的预设场景作为目标场景。例如语音信息中包括预设信息“天气”,则执行主体可以将与“天气”对应的预设场景“天气场景”作为目标场景。
在一些实施例中,执行主体还可以对语音信息进行声纹识别。进而可以在已存储的声纹数据中进行匹配。若识别出至少两种声纹,且已存储的声纹数据中仅存在与识别出的至少两种声纹中的部分声纹匹配的声纹数据。即识别出的至少两种声纹中,一部分声纹可以在声纹数据中找到,另一部分声纹在声纹数据中没有找到。说明当前环境中可能有其他陌生用户以及使用执行主体的用户。此时,执行主体可以确定目标场景为会客场景或会议场景。即目标场景可以用于表征用户当前所在的场景(时间、位置、情景等)。
需要说明的是,上述声纹数据可以是用户预先设置并输入的,也可以是执行主体根据历史交互信息统计分析得到的。例如执行主体可以对历史交互中经常出现(如出现比例达到70%)的声纹进行存储。或者可以对近期(如一个月内)交互中常出现的声纹进行存储。
步骤203,获取与目标场景相关的资源信息。
在本实施例中,执行主体在确定目标场景的情况下,可以获取与目标场景相关的资源信息。这里的资源信息通常可以是与目标场景相关的多种(至少两种)信息。可以理解的是,资源信息可以是执行主体上所安装的各种应用(如天气、地图、日历、视频软件、聊天软件等)中的信息,也可以是执行主体能够实现的各种功能(如拍照、手电筒、提醒事项、设置等)。
作为示例,执行主体可以根据不同用户的历史交互行为的统计分析结果,或者使用执行主体的用户的历史交互行为的统计分析结果,从中选取至少两种资源信息。从而可以将选取的至少两种资源信息作为与目标场景相关的资源信息。其中,选取方式在本申请中并不限制。例如可以随机选取,也可以按照获取次数由高到低的顺序,从高的一端依次选取或抽取至少两种资源信息。
可选地,上述预设数据集合中的预设数据还可以包括与预设场景对应的应用标识。其中,应用标识可以用于唯一指示应用。其可以包括文字、数字、字母、符号等字符中的至少一种。例如应用标识可以为应用的名称、编号等。此时,执行主体可以在预设数据集合中,查找与目标场景对应的应用标识。从而可以将查找到的应用标识作为目标应用标识。进而,执行主体可以获取目标应用标识所指示的应用的资源信息。例如,与早上场景相关的资源信息可以包括:天气、日程提醒、路况信息、新闻等。又例如,与中午场景相关的资源信息可以包括:热门短视频、音乐、电视剧等。再例如,与晚上场景相关的资源信息可以包括:游戏、电影、电视剧、新闻、每日笑话等。
步骤204,将获取的资源信息反馈给用户。
在本实施例中,执行主体可以将步骤203中获取的资源信息反馈给用户。这里的反馈方式在本申请中并不限制,如可以(但不限于)包括语音反馈和/或图像反馈。
在本实施例的一些可选地实现方式中,执行主体可以根据获取的资源信息,生成语音反馈信息。并可以对语音反馈信息进行播报。例如执行主体可以将获取的各种资源信息的名称,作为语音反馈信息的内容。从而可以对各种资源信息的名称进行逐个播报。或者在生成语音反馈信息时,也可以为获取的各种资源信息的名称设置对应的编号。进而可以对编号以及对应的名称进行播报,如“1天气、2新闻、3纪念日提醒······”。
此时,若执行主体检测到用户的语音选择指令,则可以播报语音选择指令所指示的资源信息的详细内容。其中,语音选择指令可以用于表征对语音反馈信息中的资源信息的选择。如其中可以包括资源信息的编号和/或名称等。
可选地,执行主体可以根据获取的资源信息,生成页面图像。并可以呈现生成的页面图像。其中,页面图像中可以包括第一展示区。第一展示区中可以形成有至少两个用于展示信息的展示框。例如执行主体可以将应用的名称(如天气)作为资源信息的展示信息。或者可以从资源信息中提取关键信息(如当前温度、温度范围、气象),以作为该资源信息的展示信息。同时,可以为不同的资源信息分配展示框。通常情况下,一种资源信息对应一个展示框。进而可以在各展示框中展示对应的资源信息的展示信息。如图3A所示,页面图像的各展示框311、312···315中可以分别显示“今日天气、日程提醒···财经新闻”。
进一步地,为了丰富页面图像的内容,提高展示效果,执行主体也可以根据获取的资源信息,提取关键信息,并获取背景图像。从而可以将关键信息和背景图像作为资源信息的展示信息。进而可以将不同的资源信息的展示信息分别在至少两个展示框中展示。这里的背景图像可以是预先存储并设置的,也可以是对资源信息中的详细画面(如新闻画面、路况地图)进行截取得到的。
需要说明的是,第一展示区中的展示框的数量和尺寸可以是固定的,也可以根据待展示的资源信息的多少来调整。例如可以根据资源信息的数量来确定展示框的数量。再例如,可以根据第一展示区的尺寸和资源信息的数量,来确定展示框的尺寸和数量。从而可以保证将各资源信息全部展示在第一展示区中,这样便于用户查阅和操作。
此时,若执行主体检测到用户对至少两个展示框的选择操作,则可以全屏呈现用户选择的展示框对应的资源信息的详细内容。其中,选择操作的方式在本申请中并不限制,如可以包括以下至少一种:语音操作、触摸操作或按键操作。而呈现方式可以包括显示和/或TTS(Text To Speech,即从文本到语音)播报详细内容。
作为示例,若用户通过语音或点击触控进行选择,则执行主体可以直接全屏呈现该选择指示的资源信息的详细内容。若用户采用按键选择,则执行主体可以在指定按键(如确定按键)被触发或者该选择的保持时长达到预设时长(如3秒)时,全屏呈现该选择指示的资源信息的详细内容。这样便于用户进行按键选择的切换,也有助于减少用户的操作过程。其中,上述保持时长可以是该选择的状态没有发生变化的时长。如选择标识停留在某个展示框的时长。这里对选择标识的表现方式并不限制。如可以是箭头或方框等,也可以是通过对选择的展示框的展现形式进行调整来体现。例如将选择的展示框稍微变大一些和/或播报展示框中的展示信息。
在一些应用场景中,页面图像中还可以包括第二展示区。这样,若执行主体检测到用户对至少两个展示框的选择操作,则可以在第二展示区中放大展示用户选择的展示框中的展示信息。或者可以在第二展示区中放大展示用户选择的展示框对应的资源信息的详细内容。也就是说,第二展示区的面积通常要大于每个展示框的面积。如图3B所示,若用户选择了第一展示区31中的第一个展示框(即今日天气的资源信息),则可以在第二展示框32中放大显示背景图像、位置(如上海)、日期(如9月12日,星期二)、温度(如17-29℃,晴)以及空气质量(PM2.5为60,良好)。
此时,若执行主体再次检测到用户对已选择的展示框的选择操作(如确定按键被触发),或者检测到当前选择操作的保持时长达到预设时长,则可以全屏展示选择的展示框对应的资源信息的详细内容。例如若用户再次选择图3B中的第一个展示框,则执行主体可以全屏显示今日天气的详细信息(如当前温度、温度变化曲线等)以及近几天(如5天)的天气情况等。
从图3A至图3B中可以看出,页面图像整体会以卡片形式来呈现资源信息。各卡片可以根据不同的资源信息来展示不同的信息。即在场景模式下,语音交互过程从被动的接收指令,可以变成主动思考用户需求。从而可以向用户提供多种信息资源,以供用户选择。进而,用户通过选取卡片可以进一步获取所需信息的详细内容。这样有助于提升用户获取信息的效率,也可以提高人机交互效率。
需要说明的是,在将资源信息反馈给用户之前,执行主体还可以根据目标场景对资源信息进行处理。从而可以将处理后的资源信息反馈给用户。例如在会客场景下,可以对资源信息中包含个人信息的部分(如相册中的人像)进行筛选,以避免被客人看到。这样有助于保护用户的个人隐私。再例如,在早上场景或会客场景下,可以在音乐资源中选取轻松、欢快的音乐。这样可以更好地满足用户需求,提升用户体验。
本实施例中的用于处理信息的方法,基于接收的语音信息可以确定是否开启场景模式。并在确定开启场景模式的情况下,可以根据语音信息的分析结果,确定目标场景。从而可以获取与目标场景相关的资源信息。以及可以将获取的资源信息反馈给用户。也就是说,在开启场景模式下,这种方法可以根据用户的语音信息,同时向用户提供多种信息资源,以供用户选择。这样有助于提升用户获取信息的效率,也可以提高人机交互效率。
请参见图4,其示出了根据本申请的用于处理信息的方法的又一个实施例的流程400。该用于处理信息的方法可以包括以下步骤:
步骤401,基于接收的语音信息确定是否开启场景模式。
在本实施例中,用于处理信息的方法的执行主体(例如图1所示的终端101、102、103)可以对接收的语音信息进行识别和分析,从而确定是否开启场景模式。其中,在场景模式下,执行主体在与用户交互的过程中,可以获取多种资源信息。并可以将这些资源信息同时提供给用户,以供用户选择。而在非场景模式下,执行主体往往采用一问一答的方式与用户进行交互。即对用户每次发送的语音指令,仅返回对应的单类资源信息。可以参见图2实施例的步骤201中的相关描述,此处不再赘述。
步骤402,响应于确定开启场景模式,根据语音信息的分析结果,确定目标场景。
在本实施例中,执行主体在确定开启场景模式的情况下,可以根据步骤401中语音信息的分析结果,来确定目标场景。其中,语音信息的分析结果可以(但不限于)包括接收语音信息时的当前时间、当前位置以及语音信息的内容、声音等。而目标场景可以是与语音信息的分析结果相关的场景。可以参见图2实施例的步骤202中的相关描述,此处不再赘述。
步骤403,获取与目标场景相关的资源信息。
在本实施例中,执行主体在确定目标场景的情况下,可以获取与目标场景相关的资源信息。这里的资源信息通常可以是与目标场景相关的多种(至少两种)信息。可以参见图2实施例的步骤203中的相关描述,此处不再赘述。
步骤404,对获取的资源信息进行排序,将排序后的资源信息反馈给用户。
在本实施例中,执行主体可以采用各种方式来对获取的资源信息进行排序。例如,执行主体可以根据大数据或用户自身的历史交互行为的统计分析结果,按照获取次数由高到低的顺序,对获取的资源信息进行排序。再例如,执行主体可以根据各信息的预设优先等级,按照优先等级由高到低的顺序,对获取的资源信息进行排序。作为示例,如果今天是纪念日或有重要的会议安排,那么执行主体可以确定日程提醒的优先等级较高。
在本实施例中,执行主体可以将排序后的资源信息反馈给用户。可以参见图2实施例的步骤204中的相关描述,此处不再赘述。
步骤405,对用户的交互行为进行统计分析,根据统计分析结果,调整与目标场景相关的资源信息,和/或调整资源信息的排序。
在本实施例中,执行主体可以记录用户的交互行为数据,如用户对反馈的资源信息的选择操作,并可以对这些数据进行统计分析。进而,根据统计分析结果,执行主体可以调整与目标场景相关的资源信息。和/或执行主体可以调整各资源信息的排序结果。
例如,执行主体可以删除或替换用户未选择的资源信息,以及可以更新上述预设数据集合中的预设数据。又例如,执行主体可以将选择次数较多的资源信息排列在前,而将选择次数较少或未选择的资源信息排列在后。再例如,执行主体可以根据用户选择资源信息的先后顺序来调整各资源信息的排序。
本实施例中的用于处理信息的方法,通过将排序后的资源信息反馈给用户,可以使反馈结果更加符合用户需求,有利于提高用户获取信息的效率。此外,增加了对用户的交互行为的统计分析步骤。这样可以根据用户不同时期的需求,对资源信息进行调整。从而丰富和完善了方法的处理过程。有助于提高处理结果的准确度,进而可以提高交互效率。
进一步参见图5,图5是根据上述各实施例的用于处理信息的方法的一个应用场景的示意图。在图5的应用场景中,用户可以在家中安装具有语音交互功能的智能电视103。智能电视103不仅可以具有传统电视的播放功能,也可以具有网络电视的各种功能和应用。例如电视节目(如电影、电视剧、综艺节目)点播、信息(如天气)查询等。这样,用户可以通过与智能电视103进行交互来获取所需要的信息。作为示例,在早上,用户可以向智能电视103发出“早上好”的语音信息。此时,智能电视103在接收到用户的语音信息后,可以运行用于处理信息的方法,包括:
首先,可以基于接收的语音信息(早上好)501,来确定是否开启场景模式;之后,若确定开启场景模式,则可以根据语音信息的分析结果,确定目标场景(如早上场景)502;之后,可以获取与目标场景502相关的资源信息(如天气、新闻、提醒和路况)503,并可以对获取的资源信息503进行排序;最后,可以将排序后的资源信息(如天气、提醒、路况和新闻)503呈现给用户。
进而,用户可以从中选择所需要的资源信息。例如使用遥控器上的按键选择;或者对着遥控器上的麦克风发出语音指令;再或者直接向智能电视103发出语音指令等。智能电视103在检测到用户的选择操作后,可以显示用户所选择的资源信息的详细内容,并可以进行TTS播报。
继续参见图6,作为对上述各图所示方法的实现,本申请提供了一种用于处理信息的装置的一个实施例。该装置实施例与上述各实施例所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的用于处理信息的装置600可以包括:分析单元601,被配置成基于接收的语音信息确定是否开启场景模式;确定单元602,被配置成响应于确定开启场景模式,根据语音信息的分析结果,确定目标场景;获取单元603,被配置成获取与目标场景相关的资源信息;反馈单元604,被配置成将获取的资源信息反馈给用户。
在本实施例的一些可选地实现方式中,目标场景可以用于表征用户当前所在的场景。其中,目标场景可以包括以下至少一种:时间场景、位置场景或天气场景。
作为示例,反馈单元604可以包括:播报子单元(图6中未示出),被配置成根据获取的资源信息,生成语音反馈信息,并对语音反馈信息进行播报。
可选地,反馈单元604也可以包括:呈现子单元(图6中未示出),被配置成根据获取的资源信息,生成页面图像,并呈现页面图像;其中,页面图像中包括第一展示区,第一展示区形成有至少两个用于展示信息的展示框。
进一步地,呈现子单元可以进一步被配置成:根据获取的资源信息,提取关键信息,并获取背景图像;将资源信息的关键信息和背景图像作为资源信息的展示信息,并将不同的资源信息的展示信息分别在至少两个展示框中展示。
在一些实施例中,该装置600还可以包括:第一检测单元(图6中未示出),被配置成响应于检测到用户对至少两个展示框的选择操作,全屏呈现用户选择的展示框对应的资源信息的详细内容,其中,选择操作的方式包括以下至少一种:语音操作、触摸操作或按键操作。
可选地,页面图像中还可以包括第二展示区,以及该装置600还可以包括:第二检测单元(图6中未示出),被配置成响应于检测到用户对至少两个展示框的选择操作,在第二展示区中放大展示用户选择的展示框中的展示信息,或者在第二展示区中放大展示用户选择的展示框对应的资源信息的详细内容;以及第三检测单元(图6中未示出),被配置成响应于再次检测到用户对已选择的展示框的选择操作,或者检测到当前选择操作的保持时长达到预设时长,全屏展示选择的展示框对应的资源信息的详细内容。
在一些应用场景中,分析单元601可以进一步被配置成:确定语音信息中是否包括预设数据集合中的预设信息;若确定包括,则确定开启场景模式;其中,预设数据集合中的预设数据包括预设信息和与预设信息对应的预设场景;以及确定单元602可以进一步被配置成:在预设数据集合中,查找与语音信息中包括的预设信息对应的预设场景,以作为目标场景。
进一步地,预设数据集合中的预设数据还可以包括与预设场景对应的应用标识;以及获取单元603可以进一步被配置成:在预设数据集合中,查找与目标场景对应的应用标识,以作为目标应用标识;获取目标应用标识所指示的应用的资源信息。
可选地,反馈单元604可以进一步被配置成:对获取的资源信息进行排序,将排序后的资源信息反馈给用户。
在一些实施例中,该装置600还可以包括:调整单元(图6中未示出),被配置成对用户的交互行为进行统计分析,根据统计分析结果,调整与目标场景相关的资源信息,和/或调整资源信息的排序。
可以理解的是,该装置600中记载的诸单元与参考图2和图3描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于该装置600及其中包含的单元,在此不再赘述。
下面参见图7,其示出了适于用来实现本申请实施例的电子设备(例如图1所示的终端101、102、103)的计算机***700的结构示意图。图7示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图7所示,计算机***700包括中央处理单元(CPU)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储部分708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有***700操作所需的各种程序和数据。CPU 701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
以下部件连接至I/O接口705:包括触摸屏、按键、麦克风、摄像头等的输入部分706;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分707;包括硬盘等的存储部分708;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分709。通信部分709经由诸如因特网的网络执行通信处理。驱动器710也根据需要连接至I/O接口705。可拆卸介质711,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器710上,以便于从其上读出的计算机程序根据需要被安装入存储部分708。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分709从网络上被下载和安装,和/或从可拆卸介质711被安装。在该计算机程序被中央处理单元(CPU)701执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括分析单元、确定单元、获取单元和反馈单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,分析单元还可以被描述为“基于接收的语音信息确定是否开启场景模式的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:基于接收的语音信息确定是否开启场景模式;响应于确定开启场景模式,根据语音信息的分析结果,确定目标场景;获取与目标场景相关的资源信息;将获取的资源信息反馈给用户。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (16)
1.一种用于处理信息的方法,包括:
基于接收的语音信息确定是否开启场景模式;
响应于确定开启场景模式,根据所述语音信息的分析结果,确定目标场景;
获取与所述目标场景相关的资源信息;
将获取的资源信息反馈给用户。
2.根据权利要求1所述的方法,其中,所述目标场景用于表征用户当前所在的场景,其中,所述目标场景包括以下至少一种:时间场景、位置场景或天气场景。
3.根据权利要求1所述的方法,其中,所述将获取的资源信息反馈给用户,包括:
根据获取的资源信息,生成语音反馈信息,并对所述语音反馈信息进行播报。
4.根据权利要求1或3所述的方法,其中,所述将获取的资源信息反馈给用户,包括:
根据获取的资源信息,生成页面图像,并呈现所述页面图像;其中,所述页面图像中包括第一展示区,所述第一展示区形成有至少两个用于展示信息的展示框。
5.根据权利要求4所述的方法,其中,所述根据获取的资源信息,生成页面图像,包括:
根据获取的资源信息,提取关键信息,并获取背景图像;
将资源信息的关键信息和背景图像作为资源信息的展示信息,并将不同的资源信息的展示信息分别在所述至少两个展示框中展示。
6.根据权利要求5所述的方法,其中,所述方法还包括:
响应于检测到所述用户对所述至少两个展示框的选择操作,全屏呈现所述用户选择的展示框对应的资源信息的详细内容,其中,所述选择操作的方式包括以下至少一种:语音操作、触摸操作或按键操作。
7.根据权利要求5所述的方法,其中,所述页面图像中还包括第二展示区,以及所述方法还包括:
响应于检测到所述用户对所述至少两个展示框的选择操作,在所述第二展示区中放大展示所述用户选择的展示框中的展示信息,或者在所述第二展示区中放大展示所述用户选择的展示框对应的资源信息的详细内容;以及
响应于再次检测到所述用户对已选择的展示框的选择操作,或者检测到当前选择操作的保持时长达到预设时长,全屏展示选择的展示框对应的资源信息的详细内容。
8.根据权利要求1所述的方法,其中,所述基于接收的语音信息确定是否开启场景模式,包括:
确定语音信息中是否包括预设数据集合中的预设信息;若确定包括,则确定开启场景模式;其中,所述预设数据集合中的预设数据包括预设信息和与预设信息对应的预设场景;以及
所述根据所述语音信息的分析结果,确定目标场景,包括:
在所述预设数据集合中,查找与所述语音信息中包括的预设信息对应的预设场景,以作为目标场景。
9.根据权利要求8所述的方法,其中,所述预设数据集合中的预设数据还包括与预设场景对应的应用标识;以及
所述获取与所述目标场景相关的资源信息,包括:
在所述预设数据集合中,查找与所述目标场景对应的应用标识,以作为目标应用标识;获取所述目标应用标识所指示的应用的资源信息。
10.根据权利要求1-9之一所述的方法,其中,所述将获取的资源信息反馈给用户,包括:
对获取的资源信息进行排序,将排序后的资源信息反馈给用户。
11.根据权利要求10所述的方法,其中,所述方法还包括:
对所述用户的交互行为进行统计分析,根据统计分析结果,调整与目标场景相关的资源信息,和/或调整资源信息的排序。
12.一种用于处理信息的装置,包括:
分析单元,被配置成基于接收的语音信息确定是否开启场景模式;
确定单元,被配置成响应于确定开启场景模式,根据所述语音信息的分析结果,确定目标场景;
获取单元,被配置成获取与所述目标场景相关的资源信息;
反馈单元,被配置成将获取的资源信息反馈给用户。
13.根据权利要求12所述的装置,其中,所述反馈单元包括:
播报子单元,被配置成根据获取的资源信息,生成语音反馈信息,并对所述语音反馈信息进行播报。
14.根据权利要求12或13所述的装置,其中,所述反馈单元包括:
呈现子单元,被配置成根据获取的资源信息,生成页面图像,并呈现所述页面图像;其中,所述页面图像中包括第一展示区,所述第一展示区形成有至少两个用于展示信息的展示框。
15.一种电子设备,包括:
一个或多个处理器;
接收设备,被配置成接收语音信息;
播放设备,被配置成播放音频信息;
显示屏,被配置成呈现图像信息;
存储装置,其上存储有一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-11中任一所述的方法。
16.一种计算机可读介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如权利要求1-11中任一所述的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810961533.4A CN109117233A (zh) | 2018-08-22 | 2018-08-22 | 用于处理信息的方法和装置 |
JP2019129595A JP2020030814A (ja) | 2018-08-22 | 2019-07-11 | 情報を処理するための方法と装置 |
US16/508,960 US11474779B2 (en) | 2018-08-22 | 2019-07-11 | Method and apparatus for processing information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810961533.4A CN109117233A (zh) | 2018-08-22 | 2018-08-22 | 用于处理信息的方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109117233A true CN109117233A (zh) | 2019-01-01 |
Family
ID=64860035
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810961533.4A Pending CN109117233A (zh) | 2018-08-22 | 2018-08-22 | 用于处理信息的方法和装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11474779B2 (zh) |
JP (1) | JP2020030814A (zh) |
CN (1) | CN109117233A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110837334A (zh) * | 2019-11-04 | 2020-02-25 | 北京字节跳动网络技术有限公司 | 用于交互控制的方法、装置、终端及存储介质 |
CN111001156A (zh) * | 2019-11-27 | 2020-04-14 | 南京创维信息技术研究院有限公司 | 应用于猜成语游戏的语音处理方法及装置 |
CN111159535A (zh) * | 2019-12-05 | 2020-05-15 | 北京声智科技有限公司 | 资源获取方法及装置 |
CN111353422A (zh) * | 2020-02-27 | 2020-06-30 | 维沃移动通信有限公司 | 信息提取方法、装置及电子设备 |
WO2021077245A1 (zh) * | 2019-10-21 | 2021-04-29 | 宇龙计算机通信科技(深圳)有限公司 | 语音控制的方法、装置、终端及存储介质 |
CN113741226A (zh) * | 2020-05-28 | 2021-12-03 | 上海汽车集团股份有限公司 | 一种车载***中场景的控制方法及装置 |
CN113805698A (zh) * | 2021-09-10 | 2021-12-17 | 中国第一汽车股份有限公司 | 一种执行指令确定方法、装置、设备及存储介质 |
WO2023010705A1 (zh) * | 2021-08-03 | 2023-02-09 | 上海传英信息技术有限公司 | 数据处理方法、移动终端及存储介质 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109448709A (zh) * | 2018-10-16 | 2019-03-08 | 华为技术有限公司 | 一种终端投屏的控制方法和终端 |
CN113101647B (zh) * | 2021-04-14 | 2023-10-24 | 北京字跳网络技术有限公司 | 一种信息显示方法、装置、设备以及存储介质 |
CN113329121B (zh) * | 2021-05-28 | 2022-11-08 | 维沃软件技术有限公司 | 操作执行方法、操作执行装置、电子设备和可读存储介质 |
CN113452853B (zh) * | 2021-07-06 | 2022-11-18 | 中国电信股份有限公司 | 语音交互方法及装置、电子设备、存储介质 |
CN113573027A (zh) * | 2021-08-13 | 2021-10-29 | 北京飞讯数码科技有限公司 | 指挥终端中的资源排序显示方法、装置、设备及介质 |
CN113793588A (zh) * | 2021-09-15 | 2021-12-14 | 深圳创维-Rgb电子有限公司 | 智能语音提示方法、装置、设备及存储介质 |
CN113821105A (zh) * | 2021-09-17 | 2021-12-21 | 北京百度网讯科技有限公司 | 提示方法、装置、电子设备以及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103456298A (zh) * | 2012-06-04 | 2013-12-18 | 三星电子株式会社 | 提供语音识别服务的方法及其电子装置 |
CN106601242A (zh) * | 2015-10-16 | 2017-04-26 | 中兴通讯股份有限公司 | 操作事件的执行方法及装置、终端 |
CN107026940A (zh) * | 2017-05-18 | 2017-08-08 | 北京神州泰岳软件股份有限公司 | 一种确定会话反馈信息的方法和装置 |
CN107038241A (zh) * | 2017-04-21 | 2017-08-11 | 上海庆科信息技术有限公司 | 具有情景分析功能的智能对话装置及方法 |
CN107452378A (zh) * | 2017-08-15 | 2017-12-08 | 北京百度网讯科技有限公司 | 基于人工智能的语音交互方法和装置 |
EP3316121A1 (en) * | 2015-08-19 | 2018-05-02 | Huawei Technologies Co., Ltd. | Communication method, server and device |
CN108009177A (zh) * | 2016-10-28 | 2018-05-08 | 百度在线网络技术(北京)有限公司 | 一种信息交互方法、服务器和客户端 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7421390B2 (en) * | 2002-09-13 | 2008-09-02 | Sun Microsystems, Inc. | Method and system for voice control of software applications |
EP1542101A1 (en) | 2002-09-20 | 2005-06-15 | Matsushita Electric Industrial Co., Ltd. | Interactive device |
US9318108B2 (en) * | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8595642B1 (en) * | 2007-10-04 | 2013-11-26 | Great Northern Research, LLC | Multiple shell multi faceted graphical user interface |
US10241752B2 (en) * | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US20110087739A1 (en) * | 2009-10-12 | 2011-04-14 | Microsoft Corporation | Routing User Data Entries to Applications |
JP5238890B1 (ja) * | 2012-01-06 | 2013-07-17 | 株式会社東芝 | 電子機器、番組情報表示方法およびプログラム |
WO2014144579A1 (en) * | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
WO2014144949A2 (en) * | 2013-03-15 | 2014-09-18 | Apple Inc. | Training an at least partial voice command system |
JP6098435B2 (ja) * | 2013-08-22 | 2017-03-22 | ソニー株式会社 | 情報処理装置、記憶媒体、および制御方法 |
US9443527B1 (en) * | 2013-09-27 | 2016-09-13 | Amazon Technologies, Inc. | Speech recognition capability generation and control |
US10446141B2 (en) * | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US10074360B2 (en) * | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
JP6373709B2 (ja) * | 2014-09-30 | 2018-08-15 | シャープ株式会社 | 対話装置 |
JPWO2016136062A1 (ja) * | 2015-02-27 | 2017-12-07 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN106463114B (zh) * | 2015-03-31 | 2020-10-27 | 索尼公司 | 信息处理设备、控制方法及程序存储单元 |
JPWO2017057010A1 (ja) | 2015-10-02 | 2018-06-21 | シャープ株式会社 | 端末装置、制御サーバ、テレビジョン受像機、端末装置の制御方法、制御プログラム、および、記録媒体 |
US10276161B2 (en) * | 2016-12-27 | 2019-04-30 | Google Llc | Contextual hotwords |
CN107507615A (zh) * | 2017-08-29 | 2017-12-22 | 百度在线网络技术(北京)有限公司 | 界面智能交互控制方法、装置、***及存储介质 |
CN107943896A (zh) * | 2017-11-16 | 2018-04-20 | 百度在线网络技术(北京)有限公司 | 信息处理方法和装置 |
CN107919120B (zh) * | 2017-11-16 | 2020-03-13 | 百度在线网络技术(北京)有限公司 | 语音交互方法及装置,终端,服务器及可读存储介质 |
JP2022071248A (ja) | 2020-10-28 | 2022-05-16 | キヤノンファインテックニスカ株式会社 | シート後処理装置、及びこれを備えた画像形成装置 |
-
2018
- 2018-08-22 CN CN201810961533.4A patent/CN109117233A/zh active Pending
-
2019
- 2019-07-11 JP JP2019129595A patent/JP2020030814A/ja active Pending
- 2019-07-11 US US16/508,960 patent/US11474779B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103456298A (zh) * | 2012-06-04 | 2013-12-18 | 三星电子株式会社 | 提供语音识别服务的方法及其电子装置 |
EP3316121A1 (en) * | 2015-08-19 | 2018-05-02 | Huawei Technologies Co., Ltd. | Communication method, server and device |
CN106601242A (zh) * | 2015-10-16 | 2017-04-26 | 中兴通讯股份有限公司 | 操作事件的执行方法及装置、终端 |
CN108009177A (zh) * | 2016-10-28 | 2018-05-08 | 百度在线网络技术(北京)有限公司 | 一种信息交互方法、服务器和客户端 |
CN107038241A (zh) * | 2017-04-21 | 2017-08-11 | 上海庆科信息技术有限公司 | 具有情景分析功能的智能对话装置及方法 |
CN107026940A (zh) * | 2017-05-18 | 2017-08-08 | 北京神州泰岳软件股份有限公司 | 一种确定会话反馈信息的方法和装置 |
CN107452378A (zh) * | 2017-08-15 | 2017-12-08 | 北京百度网讯科技有限公司 | 基于人工智能的语音交互方法和装置 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021077245A1 (zh) * | 2019-10-21 | 2021-04-29 | 宇龙计算机通信科技(深圳)有限公司 | 语音控制的方法、装置、终端及存储介质 |
CN110837334A (zh) * | 2019-11-04 | 2020-02-25 | 北京字节跳动网络技术有限公司 | 用于交互控制的方法、装置、终端及存储介质 |
CN111001156A (zh) * | 2019-11-27 | 2020-04-14 | 南京创维信息技术研究院有限公司 | 应用于猜成语游戏的语音处理方法及装置 |
CN111159535A (zh) * | 2019-12-05 | 2020-05-15 | 北京声智科技有限公司 | 资源获取方法及装置 |
CN111353422A (zh) * | 2020-02-27 | 2020-06-30 | 维沃移动通信有限公司 | 信息提取方法、装置及电子设备 |
CN111353422B (zh) * | 2020-02-27 | 2023-08-22 | 维沃移动通信有限公司 | 信息提取方法、装置及电子设备 |
CN113741226A (zh) * | 2020-05-28 | 2021-12-03 | 上海汽车集团股份有限公司 | 一种车载***中场景的控制方法及装置 |
WO2023010705A1 (zh) * | 2021-08-03 | 2023-02-09 | 上海传英信息技术有限公司 | 数据处理方法、移动终端及存储介质 |
CN113805698A (zh) * | 2021-09-10 | 2021-12-17 | 中国第一汽车股份有限公司 | 一种执行指令确定方法、装置、设备及存储介质 |
CN113805698B (zh) * | 2021-09-10 | 2024-05-03 | 中国第一汽车股份有限公司 | 一种执行指令确定方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US11474779B2 (en) | 2022-10-18 |
JP2020030814A (ja) | 2020-02-27 |
US20200065061A1 (en) | 2020-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109117233A (zh) | 用于处理信息的方法和装置 | |
CN104205209B (zh) | 回放控制设备、回放控制方法 | |
CN108847214B (zh) | 语音处理方法、客户端、装置、终端、服务器和存储介质 | |
CN107832434A (zh) | 基于语音交互生成多媒体播放列表的方法和装置 | |
CN107241622A (zh) | 视频定位处理方法、终端设备及云端服务器 | |
JP2023539820A (ja) | インタラクティブ情報処理方法、装置、機器、及び媒体 | |
CN106059904B (zh) | 基于即时通讯软件进行直播歌曲打分的方法与*** | |
CN109474843A (zh) | 语音操控终端的方法、客户端、服务器 | |
EP4336846A1 (en) | Audio sharing method and apparatus, device, and medium | |
CN101763597A (zh) | 基于信息定制推送的农村信息化服务平台及其运行方法 | |
CN108628922A (zh) | 确定用于在事件的用户体验期间获得信息的搜索查询 | |
US10628955B2 (en) | Information processing device, information processing method, and program for identifying objects in an image | |
CN108134951A (zh) | 用于推荐播放内容的方法和装置 | |
US20140324858A1 (en) | Information processing apparatus, keyword registration method, and program | |
KR101670824B1 (ko) | 광고 영상 감독과 광고주 중개방법 | |
WO2012082238A1 (en) | Displaying music information associated with a television program | |
CN104038774B (zh) | 生成铃声文件的方法及装置 | |
CN115190366B (zh) | 一种信息展示方法、装置、电子设备、计算机可读介质 | |
CN103516712A (zh) | 装置、信息处理方法和程序 | |
US20100257030A1 (en) | Method and system for conducting a contest | |
US20190132654A1 (en) | Method and apparatus for data tracking and presenting | |
CN106060641A (zh) | 用于搜索的显示装置及其控制方法 | |
CN106055671A (zh) | 一种多媒体数据处理方法及其设备 | |
US20120072869A1 (en) | Copy supporting device, terminal device, copy support method, and copy supporting program | |
KR20140016714A (ko) | 종교 생방송 컨텐츠 제공 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190101 |