CN103916709A - 服务器和用于控制服务器的方法 - Google Patents
服务器和用于控制服务器的方法 Download PDFInfo
- Publication number
- CN103916709A CN103916709A CN201410006776.4A CN201410006776A CN103916709A CN 103916709 A CN103916709 A CN 103916709A CN 201410006776 A CN201410006776 A CN 201410006776A CN 103916709 A CN103916709 A CN 103916709A
- Authority
- CN
- China
- Prior art keywords
- content
- entry
- server
- search
- standard
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000002452 interceptive effect Effects 0.000 claims abstract description 18
- 239000000284 extract Substances 0.000 claims abstract description 14
- 230000004044 response Effects 0.000 claims description 9
- 238000004891 communication Methods 0.000 description 26
- 230000006870 function Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 14
- 230000009471 action Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 7
- 238000013507 mapping Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 230000013011 mating Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 238000004378 air conditioning Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65B—MACHINES, APPARATUS OR DEVICES FOR, OR METHODS OF, PACKAGING ARTICLES OR MATERIALS; UNPACKING
- B65B51/00—Devices for, or methods of, sealing or securing package folds or closures; Devices for gathering or twisting wrappers, or necks of bags
- B65B51/04—Applying separate sealing or securing members, e.g. clips
- B65B51/08—Applying binding material, e.g. to twisted bag necks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/27—Server based end-user applications
- H04N21/278—Content descriptor database or directory service for end-user access
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65B—MACHINES, APPARATUS OR DEVICES FOR, OR METHODS OF, PACKAGING ARTICLES OR MATERIALS; UNPACKING
- B65B7/00—Closing containers or receptacles after filling
- B65B7/16—Closing semi-rigid or rigid containers or receptacles not deformed by, or not taking-up shape of, contents, e.g. boxes or cartons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
- G10L19/265—Pre-filtering, e.g. high frequency emphasis prior to encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/232—Content retrieval operation locally within server, e.g. reading video streams from disk arrays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/27—Server based end-user applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/441—Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
- H04N21/4415—Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card using biometric characteristics of the user, e.g. by voice recognition or fingerprint scanning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
- H04N21/4828—End-user interface for program selection for searching program descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6581—Reference data, e.g. a movie identifier for ordering a movie or a product identifier in a home shopping application
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
- H04N21/8405—Generation or processing of descriptive data, e.g. content descriptors represented by keywords
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Biomedical Technology (AREA)
- User Interface Of Digital Computer (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Transfer Between Computers (AREA)
Abstract
公开了一种服务器和用于控制服务器的方法。公开了一种实现交互式***的显示设备和服务器。该服务器包括:通信器,从显示设备接收与在显示设备收集的用户语音相应的文本信息;以及控制器,从所述文本信息提取话语分量,并进行以下控制:通过使用所提取的分量产生搜索内容的查询,并将该查询发送到对每个条目下的内容的元数据进行分类并存储该元数据的外部服务器,其中,当对与所提取的话语分量相应的条目下的内容进行分类的标准的数量少于预设数量时,控制器通过将预设条目添加到搜索内容的标准来产生查询。
Description
相关申请的交叉引用
本申请要求于2013年1月7日向韩国知识产权局提交的第10-2013-1839号韩国专利申请的优先权,该专利申请的公开内容整个地通过引用合并于此。
技术领域
与示例性实施例一致的方法和设备涉及一种用于构造交互***的服务器和用于控制该服务器的方法。
背景技术
随着电子技术的发展,各种类型的显示设备被开发和普及,并且被配备有根据用户需求的各种功能。特别是,现代电视(TV)通过将TV连接到互联网来提供互联网服务,用户可通过TV观看多个数字广播频道。
最近,为了更方便地、更直观地控制显示设备,开发了根据用户语音控制显示设备的技术。特别是,TV可通过识别用户语音来执行基于通过用户语音发出的命令(诸如控制音量或改变频道)的功能。
然而,在相关技术中,存在不能根据用户语音搜索和提供内容的限制。
发明内容
示例性实施例克服以上缺点和以上没有描述的其他缺点。此外,不要求示例性实施例克服上述缺点,示例性实施例可以不克服上述任何一个问题。
一个或多个示例性实施例提供一种当在其上实现交互***时搜索内容的服务器及其控制方法。
根据示例性实施例的一方面,提供一种与显示设备一起实现交互***的服务器,该服务器包括:通信器,被构造为从显示设备接收与在显示设备收集的用户语音相应的文本信息;以及控制器,被构造为从所述文本信息提取话语分量,并进行以下控制:通过使用所提取的话语分量产生搜索内容的查询,并将该查询发送到被构造为对每个条目下的内容的元数据进行分类并存储该元数据的外部服务器。当对与所提取的话语分量相应的条目下的内容进行分类的标准的数量少于预设数量时,控制器可通过将预设条目添加到搜索内容的标准来产生所述查询。
服务器可另外包括被构造为存储关于对每个条目下的内容进行分类的标准的信息的存储器。控制器可基于所述关于对内容进行分类的标准的信息来确定对与所提取的话语分量相应的条目下的内容进行分类的标准的数量是否少于预设数量。
控制器可基于用户偏好信息来确定将添加到搜索内容的标准的预设条目。
当不能响应于根据将预设条目添加到搜索内容的标准而产生的查询执行内容搜索时,控制器可重新基于所提取的话语分量来产生搜索内容的查询。
当一个条目具有少于预设数量的对内容进行分类的标准时,该条目可以是广播类型条目和屏幕质量条目中的至少一个。
预设条目可以是广播时间条目和广播频道条目中的至少一个。
根据另一示例性实施例的一方面,提供一种用于控制与显示设备一起实现交互***的服务器的方法。该方法可包括:接收与在显示设备收集的用户语音相应的文本信息;从该文本信息提取话语分量,并通过使用所提取的话语分量产生搜索内容的查询;并将所产生的查询发送到对每个条目下的内容的元数据进行分类并存储该元数据的外部服务器。产生的步骤可包括:当对与所提取的话语分量相应的条目下的内容进行分类的标准的数量少于预设数量时,通过将预设条目添加到搜索内容的标准来产生查询。
产生的步骤可包括基于所述关于对内容进行分类的标准的信息来确定与所提取的话语分量相应的条目下的内容进行分类的标准的数量是否少于预设数量。
产生的步骤可包括基于用户偏好信息来确定将添加到搜索内容的标准的预设条目。
当不能响应于根据将预设条目添加到搜索内容的标准而产生的查询执行内容搜索时,产生的步骤可包括重新通过使用所提取的话语分量来产生搜索内容的查询。
当一个条目具有少于预设数量的对内容进行分类的标准时,该条目可以是广播类型条目和屏幕质量条目中的至少一个。
预设条目可以是广播时间条目和广播频道条目中的至少一个。
根据各种示例性实施例,解决了当仅基于从用户语音提取的话语分量搜索内容时搜索结果太多并且随之降低了搜索内容的效率的问题。此外,可向交互式***的用户提供适合他讲话时的意图的内容搜索结果,同时他还可以降低必须与显示设备进行交互的频率。因此,用户便利性得到改进。
附图说明
通过参照附图描述特定的示例性实施例,以上和/或其他方面将更清楚:
图1是根据示例性实施例的交互***的示图;
图2是根据示例性实施例的显示设备的框图;
图3是根据示例性实施例的第一服务器的框图。
图4是根据示例性实施例的第二服务器的框图。
图5是示出根据示例性实施例的结构化元数据的示例的示图;
图6是图4中的第二服务器的详细框图;
图7是被提供用于解释根据示例性实施例的用于添加搜索内容的标准的方法的示例的示图;
图8A至8B和图9A至9D示出根据示例性实施例的从显示设备提供的UI屏幕的示例;以及
图10是被提供用于解释根据示例性实施例的服务器的控制方法的流程图。
具体实施方式
现在将参照附图更详细地描述特定的示例性实施例。
在以下描述中,即使在不同图中,相同的附图标号也用于相同的元件。本描述中所定义的内容(诸如详细构造和元件)被提供用于帮助全面理解示例性实施例。因此,显然,可以在没有这些具体定义的内容的情况下实现示例性实施例。此外,因为公知功能或构造将在不必要的细节上模糊示例性实施例,所以不对这些公知功能或构造进行描述。
图1是示出根据示例性实施例的交互***的示图。参照图1,交互***1000包括显示设备100、第一服务器200、第二服务器300和外部服务器400。如本文中所使用的,“第二服务器300”可以是指“交互界面装置”。
显示设备100可用遥控器(未示出)控制。具体地讲,显示设备100可执行与从遥控器(未示出)接收的遥控信号相应的操作。例如,当显示设备100被实现为TV(诸如图1中所示的TV)时,显示设备100可根据从遥控器(未示出)接收的遥控信号来执行诸如电源开/关、频道改变和音量控制的功能。
此外,显示设备100可执行与用户语音相应的各种操作。
具体地讲,显示设备100可执行与用户语音相应的功能,或者可输出与用户语音相应的***回复。
显示设备100可将所收集的用户语音发送到第一服务器200。当从显示设备100接收到用户语音时,第一服务器200将所接收的用户语音转换为文本信息(即,文本),并将该文本信息发送到显示设备100。
显示设备100将从第一服务器200接收的文本信息发送到第二服务器300。当从显示设备100接收到文本信息时,第二服务器300产生与所接收的文本信息相应的回复数据,并将该回复数据发送到显示设备100。
显示设备100可基于从第二服务器300接收的回复数据来执行各种操作。在此,回复数据可包括与控制显示设备100执行特定功能的命令相关的各种信息、以及从显示设备100输出的***回复。
具体地讲,显示设备100可执行与用户语音相应的功能。换句话讲,显示设备100可执行可从显示设备100提供的功能之中与用户语音相应的功能。例如,当从显示设备100输入指示改变频道的命令的用户语音时,第二服务器300可将改变频道的控制命令发送到显示设备100。因此,显示设备100可基于所接收的控制命令来改变频道。
此外,显示设备100可输出与用户语音相应的***回复。***回复可以以语音格式和UI屏幕格式中的至少一种格式输出。
例如,当从显示设备100输入请求广播节目搜索的用户语音时,第二服务器300可搜索与用户话语的意图匹配的内容,并将搜索结果发送到显示设备100。因此,显示设备100可显示包括根据用户话语的意图搜索的内容的列表的UI屏幕。
因此,显示设备100可基于从第二服务器300接收的回复数据来执行与用户语音相应的各种功能。
当用户话语的意图与搜索内容相关时,第二服务器300可通过外部服务器300搜索与用户话语的意图匹配的内容,并将搜索结果发送到显示设备100。
在此,外部服务器400可构造元数据,并存储所构造的元数据。例如,外部服务器400可被实现为构造关于电子节目指南(EPG)、音乐、视频点播(VOD)、照片和应用的元数据信息并存储所构造的元数据的元数据服务器。
具体地讲,外部服务器400可划分每一条目(或字段)的内容的元数据,基于对每个条目下的内容进行分类的标准来构造这些内容的元数据,并存储所构造的元数据。如本文中所使用的,“条目”可以是对内容的元数据进行分类的属性,“对内容进行分类的标准”可以是划分每个字段内的内容的详细属性。例如,当条目是“广播类型”时,对内容进行分类的标准可以是将广播类型进一步划分为首播广播和重播广播的属性。另举一例,当条目是“屏幕质量”时,对内容进行分类的标准可以是将屏幕质量进一步划分为高清晰度(HD)和标准清晰度(SD)的属性。
具体地讲,第二服务器300可从文本信息提取话语分量,并通过使用所提取的话语分量来产生搜索内容的查询。在此,当对与所提取的话语分量相应的条目下的内容进行分类的标准少于预设标准数量时,第二服务器300可通过添加作为搜索这些内容的标准的预设条目来产生查询,并将该查询发送到外部服务器400。
例如,假设用户说“找到重播节目”。在这种情况下,第二服务器300从所接收的文本信息提取“重播”作为与广播类型相关的话语分量,并从所存储的构造的元数据确定对关于广播类型的内容进行分类的标准。因为广播类型被划分为对这些内容进行分类的两个标准(诸如重播和首播),所以第二服务器300可通过将用户当前正在观看的广播频道作为搜索内容的标准添加来产生搜索这些内容的查询。
结果,根据从第二服务器300接收的查询,外部服务器400可搜索从用户当前正在观看的广播频道提供的广播节目,并将关于所搜索的广播节目的信息(例如,标题、演员表、制片人、风格、广播类型、广播时间、屏幕质量、收视率、广播频道和缩略图中的至少一个)发送到第二服务器300。当从外部服务器400接收到与用户语音相应的搜索结果时,第二服务器300可发送回复数据,以使得显示设备100可将与用户语音相应的***回复输出到显示设备100。因此,显示设备100可响应于对于用户语音话语(诸如,“找到重播节目”)的***回复来输出从用户当前正在观看的广播频道提供的作为重播节目的广播节目的列表。
因此,当对与从文本信息提取的话语分量相应的条目下的内容进行分类的标准少于预设数量时,根据示例性实施例的服务器可通过添加作为搜索内容的标准的预设条目来产生查询。以上处理可解决以下问题。当仅通过从用户语音提取的话语分量搜索内容时,因为太多内容被搜索,所以可使内容搜索效率降低。
尽管图1示出了被实现为TV的显示设备100,但是这仅仅是示例性的。显示设备100可被实现为各种电子装置,诸如移动电话(诸如智能电话)、台式个人计算机(PC)、膝上型计算机或全球定位***(GPS)。
此外,尽管图1示出了第一服务器200和第二服务器300被实现为单独的服务器,但是这仅仅是示例性的。第一服务器200和第二服务器300还可被实现为包括第一服务器200和第二服务器300两者的单个交互式服务器。在这种情况下,显示设备100可将用户语音发送到交互式服务器,该交互式服务器可将从显示设备100接收的用户语音转换为文本信息,并通过使用所转换的文本信息来搜索与话语的意图匹配的内容。当对与从文本信息提取的话语意图相应的条目下的内容进行分类的标准少于预设数量时,交互式服务器可通过添加作为搜索这些内容的标准的预设条目来产生查询。因此,当第一服务器200和第二服务器300被实现为包括这两个服务器的一个交互式服务器时,显示设备100可将用户语音发送到该交互式服务器。
图2是根据示例性实施例的显示设备的框图。参照图2,显示设备100可包括输出110、语音收集器120、第一通信器130、第二通信器135、存储存储器140、接收器150、信号处理器160、遥控信号接收器171、输入173、接口175和控制器180。因此,显示设备的以上所提到的元件可采取全硬件实施例(诸如处理器或电路)、全软件实施例(包括固件、常驻软件、微码等)或组合软件和硬件的实施例的形式。
尽管图2示出了显示设备100中可包括的各种元件,但是显示设备100可以不一定包括所有这些元件,并且可以不限于仅具有以上所提及的元件。根据显示设备100的产品类型,可删除或添加一些元件,或用其他元件代替一些元件。
输出110输出语音和图像中的至少一个。具体地讲,输出110可以以语音格式和UI屏幕格式中的至少一种格式输出与在语音收集器120中收集的用户语音相应的***回复。
UI屏幕可以以文本格式表达与用户语音相应的***回复或以列表格式表达通过用户语音搜索的搜索结果。
输出110可包括显示器111和音频输出113。
具体地讲,显示器111可被实现为液晶显示器(LCD)、有机发光显示器(OLED)或等离子体显示面板(PDP),但不限于此。
显示器111可提供可通过显示设备100提供的各种显示屏幕。具体地讲,显示器111可创建并显示具有与用户语音相应的***回复的UI屏幕。
音频输出113可被实现为诸如插座或扬声器的输出端口,并且可以以语音格式输出与用户语音相应的***回复。
此外,输出110可输出各种内容。在此,内容可包括广播内容和VOD内容。例如,显示器111可输出构成内容的图像,音频输出113可输出构成内容的音频。
语音收集器120收集用户语音。例如,语音收集器120可被实现为收集用户语音的麦克风,并且可被安装在显示设备100内以构成集成式麦克风,或者可被实现为与显示设备100分离。当语音收集器120被实现为分离式时,语音收集器120可被实现为用户可握住的抓握式或可被放置在餐厅桌子或客厅桌子上的集合式(set type)。麦克风可通过有线或无线网络与显示设备100连接,并且可将所收集的用户语音发送到显示设备100。
语音收集器120可确定所收集的语音是否是用户语音,并对所收集的语音执行滤波以从所收集的用户语音去除背景噪声(诸如空调的声音、真空吸尘器的声音或音乐声)。
例如,语音收集器120对用户语音执行采样,并且当模拟格式的用户语音被输入时,将所接收的信号转换为数字信号。语音收集器120计算所转换的数字信号的能量,并确定这些数字信号的能量是否大于预设值。
如果这些数字信号的能量大于预设值,则语音收集器120从这些数字信号去除噪声元素,并将滤波后的信号发送到第一通信器130。在这个处理,噪声元素是在家庭环境内可发生的零星的不相关的声音,并可包括诸如空调的声音、真空吸尘器的声音或音乐声的噪声。当这些数字信号的能量小于预设值时,语音收集器120等待另一用户语音输入,而不对这些数字信号进行处理。
因此,因为当背景噪声不与用户噪声包括在一起时整个音频处理不被激活,所以可防止不必要的电力消耗。
第一通信器130执行与图1的第一服务器200的通信。具体地讲,第一通信器130将用户语音发送到第一服务器200,并从第一服务器200接收与用户语音相应的文本信息。
第二通信器135执行与图1的第二服务器300的通信。具体地讲,第二通信器135可将所接收的文本信息发送到第二服务器300,并从第二服务器300接收与该文本信息相应的回复数据。
第一通信器130和第二通信器135可通过使用各种通信方法来执行与第一服务器200和第二服务器300的通信。
例如,第一通信器130和第二通信器135可通过使用有线/无线局域网(LAN)、广域网(WAN)、以太网、蓝牙、Zigbee、通用串行总线(USB)、IEEE1394和Wifi来执行与第一服务器200和第二服务器300的通信。因此,第一通信器130和第二通信器135可包括与每种通信方法相应的芯片或输入端口。例如,当用有线LAN方法执行通信时,第一通信器130和第二通信器135可包括有线LAN卡(未示出)和输入端口(未示出)。
以上示例性实施例公开了,为了与第一服务器200和第二服务器300通信,显示设备100可安装单独的通信器130、135。然而,这仅仅是示例性的。显示设备100还可通过单个通信模块与第一服务器200和第二服务器300通信。
此外,以上示例性实施例公开了第一通信器130和第二通信器135与第一服务器200和第二服务器300通信。然而,这仅仅是示例性的。第一通信器130和第二通信器135可通过与web服务器(未示出)连接来执行web浏览。
存储器140是其中存储操作显示设备100所必需的各种程序的存储介质,可被实现为非暂时性计算机记录介质(诸如光盘(CD)、数字多功能盘(DVD)和硬盘驱动器(HDD))。例如,存储器140可包括存储操作控制器180的程序的只读存储器(ROM)、以及临时存储根据控制器180的操作的数据的随机存取存储器(RAM)。此外,存储器140可包括存储各种相关数据的电可擦除和可编程ROM(EEPROM)。
接收器150接收各种内容。在此,内容可包括广播内容和VOD内容,但不限于此。
具体地讲,接收器150可从通过使用广播网络发送广播节目的广播站或通过使用互联网发送内容文件的web服务器接收内容。
如果从广播站接收到内容,则接收器150可被实现为包括调谐器(未示出)、解调器(未示出)和照明器(未示出)的***。当从诸如web服务器的源接收到内容时,接收器150可被实现为网络接口卡(未示出)。
因此,接收器150可根据示例性实施例被实现为各种类型的接收器。
信号处理器160可对内容执行信号处理,以使得通过接收器150或接口175接收的内容可通过输出110输出。
具体地讲,信号处理器160可对内容中所包括的图像执行诸如解码、缩放和帧率转换的操作,并且可将这些内容转换为可在显示器111中输出的格式。此外,信号处理器160可对内容中所包括的音频信号执行诸如解码的信号处理,并且可将这些音频信号转换为可在音频输出113中输出的格式。
遥控信号接收器171从外部遥控器接收遥控信号。控制器180可基于在遥控信号接收器171中接收的遥控信号来执行各种操作。例如,控制器180可根据通过遥控信号接收器171接收的控制信号来执行诸如电源开/关、频道改变和音量控制的功能。
输出173接收各种用户命令。控制器180可执行与在输入173中输入的用户命令相应的操作。例如,控制器180可根据从输入173输入的用户命令来执行电源开/关、频道改变和音量控制。
输入173可被实现为输入面板。输入面板可被构造为触控板、布置各种功能键、数字键、特殊键和字符键的小键盘、或触摸屏。
接口175与外部装置(未示出)通信。外部装置(未示出)可被实现为各种类型的电子装置,并将内容发送到显示设备100。例如,当显示设备100被实现为TV时,外部装置(未示出)可被实现为可连接到显示设备100的各种类型的电子装置,并且可执行诸如蜂窝电话、机顶盒、DVD播放器、蓝光盘播放器和游戏机的功能。
例如,接口175可根据各种有线通信方法(诸如HDMI和USB)或无线通信方法(诸如蓝牙和Zigbee)来与外部装置(未示出)通信。接口175可包括与每种通信方法相应的芯片或输入端口。例如,当根据HDMI通信方法与外部装置(未示出)通信时,接口175可包括HDMI端口。
控制器180控制显示设备100的总操作。控制器180可控制输出110、语音收集器120、第一通信器130、第二通信器135、存储器140、信号处理器160、遥控信号接收器171、输入173和接口175的操作。控制器180还可包括存储控制中央处理单元(CPU)和显示设备100的程序和数据的ROM和RAM。
具体地讲,控制器180可控制第一通信器130收集通过语音收集器120输入的用户语音、将所收集的用户语音发送到第一服务器200、并从第一服务器200接收文本信息。当接收到与用户语音相应的文本信息时,控制器180可控制第二通信器135将所接收的文本信息发送到第二服务器300。
当从第二服务器300接收到与用户语音相应的回复数据时,控制器180可基于所接收的回复数据来执行各种操作。
具体地讲,控制器180可基于所接收的回复数据来执行与用户语音相应的功能。
回复数据可包括控制显示设备100的控制命令。在此,控制命令可包括执行在显示设备100中可操作的功能之中与用户语音相应的功能的命令。因此,控制器180可控制显示设备100的每个元件,以使得可基于从第二服务器300接收的控制命令来操作与用户语音相应的功能。
例如,当显示设备100被实现为TV,并且显示设备收集到说“调到频道#(#:频道编号)”的用户语音时,第二服务器300可确定用户语音“调到频道#(#:频道编号)”中所包括的话语的意图是将频道变为频道#(#:频道编号)的请求,并将将频道变为频道#(#:频道编号)的控制命令发送到显示设备100。因此,控制器180可进行控制,以使得基于所接收的控制命令对频道#(#:频道编号)进行调谐并输出通过所选频道提供的内容。
然而,这仅仅是示例性的,控制器180可控制显示设备100的每个元件,以使得可根据所收集的用户语音来执行诸如电源开/关或音量控制的各种操作。
此外,回复数据可包括与在显示设备100中输出的***回复相关的各种信息。在这种情况下,回复数据还可包括输出与用户语音相应的***回复的控制命令。
具体地讲,当用户语音的话语具有搜索在显示设备100中收集的内容的意图时,第二服务器300可确定用户话语的意图,并搜索与所确定的话语意图匹配的内容。第二服务器300可发送关于搜索内容的信息中的至少一个(诸如标题、演员表、制片人、风格、广播类型、广播时间、屏幕质量、收视率、广播频道和缩略图)。
在这种情况下,控制器180可通过使用所接收的信息来以语音格式和UI屏幕格式中的至少一种格式输出与用户语音相应的***回复。根据以上示例性实施例,控制器180可通过使用从第二服务器300接收的关于内容的信息来产生内容列表,并输出包括所产生的列表的UI屏幕。控制器180可将关于搜索内容的信息中的至少一个(诸如标题、演员表、制片人、风格、广播类型、广播时间、屏幕质量、收视率、广播频道和缩略图)添加到该列表。
回复数据可包括以文本格式表达在显示设备100上输出的***回复的***回复数据。因此,控制器180可通过使用所接收的回复数据来控制输出110以语音格式和UI屏幕格式中的至少一种格式输出与用户语音相应的***回复。
例如,控制器180可通过使用文本转语音(TTS)引擎来将以文本格式表达的***回复数据转换为语音,并通过音频输出113输出该语音话语。TTS引擎是将文本转换为语音的模块。TTS引擎可通过使用相关技术中公开的各种TTS算法来将文本转换为语音。此外,控制器180可创建包括构成***回复数据的文本的UI屏幕,并通过显示器111输出这些文本。
控制器180可分析用户偏好信息,并将该用户偏好信息存储在存储器140中。具体地讲,当打开电源或改变频道的命令被输入时,控制器180可基于EPG信息来确定从所选频道提供的内容,并存储关于所确定的内容的信息中的至少一个(诸如标题、演员表、制片人、风格、广播类型、广播时间、屏幕质量、收视率和广播频道)。此外,当打开电源或改变输入端口的命令被输入时,控制器180可确定从连接到接口175的外部装置(未示出)提供的内容,并存储关于所确定的内容的信息中的至少一个(诸如标题、演员表、制片人、风格、广播类型、广播时间、屏幕质量、收视率和广播频道)。控制器180可请求关于存储在外部装置(未示出)中的内容的发送信息。
控制器180可将关于被观看次数多于预设次数的内容的标题、演员表、制片人、风格、广播类型、广播时间、屏幕质量、收视率和广播频道确定为用户偏好的标题、演员表、制片人、风格、广播类型、广播时间、屏幕质量、收视率和广播频道,并将该信息存储在存储器140中。当从第二服务器300接收到请求用户偏好信息的命令时,控制器180可将用户偏好信息发送到第二服务器300。
然而,以上仅仅是示例性的。控制器180可根据预设事件显示接收用户偏好信息的UI屏幕,并将通过UI屏幕输入的用户偏好信息存储在存储器140中。
控制器180可将关于用户当前正在观看的频道的信息发送到第二服务器300。例如,当从第二服务器300接收到请求命令时,控制器180可确定当前通过接收器150选择的频道,并将关于所确定频道的信息发送到第二服务器300。
图3是根据示例性实施例的第一服务器的框图。参照图3,第一服务器200包括通信器210和控制器220。
通信器210执行与显示设备100的通信。具体地讲,通信器210可从显示设备100接收用户语音,并将与所接收的用户语音相应的文本信息发送到显示设备100。通信器210可包括各种通信模块。
控制器220控制第一服务器220的总操作。具体地讲,当从显示设备100接收到用户语音时,控制器220控制通信器210产生与所接收的用户语音相应的文本信息,并将该文本信息发送到显示设备100。
具体地讲,控制器220可通过使用语音转文本(STT)引擎产生与所接收的用户语音相应的文本信息。在此,STT引擎是将语音信号转换为文本的模块。SST引擎可通过使用相关技术中公开的各种STT算法来将语音信号转换为文本。
例如,控制器220通过在所接收的用户语音内检查用户所说的语音的起始和结束来确定语音间隔。具体地讲,控制器220可计算所接收的语音信号的能量,根据所计算的能量对语音信号的能量水平进行分类,并通过动态编程来检查语音间隔。此外,控制器220可通过在所检查的语音间隔内基于声学模型检查作为最小语音单位的音素来产生音素数据,并通过将隐马尔可夫模型(HMM)概率模型应用于所产生的音素数据来将用户语音转换为文本。
图4是根据示例性实施例的第二服务器的框图。参照图4,第二服务器300包括通信器310和控制器320。
通信器310执行与显示设备100的通信。具体地讲,通信器310可从显示设备100接收与在显示设备100中收集的用户语音相应的文本信息。通信器310可将与所接收的文本信息相应的回复数据发送到显示设备100。
此外,通信器310执行与图1的外部装置400的通信。具体地讲,通信器310可将搜索内容的查询发送到外部服务器400,并从外部服务器400接收根据该查询的搜索结果。
通信器310可包括各种通信模块。例如,通信器310可通过通信方法(诸如有线/无线LAN、以太网、蓝牙、Zigbee、USB、IEEE1394和Wifi,但不限于此)来执行与显示设备100和外部服务器400的通信。通信器310可安装与每种通信方法相应的芯片或输入端口。例如,当用有线LAN方法执行通信时,通信器310可布置有线LAN卡(未示出)和输入端口(未示出)。
然而,这仅仅是示例性的。通信器310还可安装执行与显示设备100和外部服务器400中的每个的通信的其他单独的通信模块。
控制器320控制第二服务器300的总操作。具体地讲,控制器320可从文本信息提取话语分量,通过使用所提取的话语分量来产生搜索内容的查询,并将该查询发送到外部服务器400。外部服务器400可划分并存储关于每一条目的内容的元数据。
具体地讲,当从显示设备100接收到文本信息时,控制器320可从该文本信息提取话语分量,并通过使用所提取的话语分量来确定用户的话语的意图。
例如,假设从显示设备100接收到诸如“找到重播节目”的文本信息。在这种情况下,控制器320可通过使用预存的关键字来从被写为“找到重播节目”的文本信息提取条目“重播节目”作为与广播类型相关的话语分量。控制器320可确定条目“找到”对应于使用预存关键字的搜索请求,并确定话语“找到重播节目”的意图对应于对重播节目的搜索请求。
如果用户话语的意图与搜索内容相关,则控制器320可通过使用所提取的话语意图来产生搜索内容的查询。控制器320确定与所提取的话语分量映射的条目、以及划分存储在外部服务器400中的构造的元数据中的每一条目的内容的标准。
基于对与所提取的话语意图映射的条目下的内容进行分类的标准,控制器320确定在所提取的话语分量中搜索特征的属性有效性。具体地讲,根据对与所提取的话语分量映射的条目下的内容进行分类的标准的数量是否是预设数量,即,当对内容进行分类的标准的数量少于预设数量时,控制器320可确定所提取的话语分量为不匹配的搜索条件。预设数量可以为两个。然而,预设数量可不限于两个。
如果所提取的话语分量被确定为不匹配的搜索条件,则控制器320可通过将所提取的话语分量中的至少一个语义正交属性作为搜索内容的标准添加来产生查询。在此,语义正交属性是不影响用于搜索内容的用户话语的意图的属性,并且可能已经被建立。
具体地讲,当对与所提取的话语分量相应的条目下的内容进行分类的标准的数量少于预设数量时,控制器320可通过添加作为搜索内容的标准的预设条目来产生查询。
在此,其对内容进行分类的标准少于预设数量的条目可以是广播类型条目和屏幕质量条目中的至少一个。此外,预设条目可以是广播时间条目和广播频道条目中的至少一个。
以下,为进一步具体解释,假设外部服务器400构造并存储如图5所示的元数据。
首先,外部服务器400可划分每一条目的内容的元数据。条目是元数据中所包括的各种内容信息,并且如图5所示,外部服务器400可将元数据划分为诸如标题、演员表、制片人、风格、广播类型、广播时间、屏幕质量、收视率和广播频道的条目,并存储该元数据。
外部服务器400可根据对每个条目下的内容进行分类的标准来构造并存储这些内容的元数据。
例如,参照图5,外部服务器400可将内容的元数据划分为标题条目510、演员表条目520、制片人条目530、风格条目540、广播类型条目550、广播时间条目560、屏幕质量条目570、收视率条目580和广播频道条目590,标题条目510通过将“标题”用作对内容进行分类的标准来对关于内容的元数据进行分类,演员表条目520通过将“演员表”用作对内容进行分类的标准来对关于内容的元数据进行分类,制片人条目530通过将“制片人”用作对内容进行分类的标准来对关于内容的元数据进行分类,风格条目540通过将“风格”用作对内容进行分类的标准来对关于内容的元数据进行分类,广播类型条目550通过将“广播类型”用作对内容进行分类的标准来对关于内容的元数据进行分类,广播时间条目560通过将“广播时间”用作对内容进行分类的标准来对关于内容的元数据进行分类,屏幕质量条目570通过将“屏幕质量”用作对内容进行分类的标准来对关于内容的元数据进行分类,收视率条目580通过将“收视率”用作对内容进行分类的标准来对关于内容的元数据进行分类,广播频道条目590通过将“广播频道”用作对内容进行分类的标准来对关于内容的元数据进行分类。在划分之后,外部服务器400可构造并存储内容的元数据。
然而,这仅仅是示例性的。外部服务器400还可通过使用构成元数据的各种其他内容信息来构造并存储元数据。
以下将解释当外部服务器400构造并存储如图5所示的元数据时用于在控制器320中产生搜索内容的查询的方法。
例如,当从显示设备100接收到被写为“找到重播节目”的文本信息时,控制器320可从“找到重播节目”提取话语分量“重播节目”。
在这种情况下,“重播节目”是与条目“广播类型”相关的话语分量,并且与所构造的元数据中的话语分量映射的条目对应于广播类型条目550。因此,控制器320检查对所构造的元数据中的广播类型条目550下的内容进行分类的标准的数量。
因为广播类型条目550被划分为两个对内容进行分类的标准(即,首播和重播),所以控制器320可确定对与所提取的话语分量映射的条目下的内容进行分类的标准的数量少于预设数量,并且所提取的话语分量是不匹配的搜索条件。
当对与所提取的话语分量映射的条目下的内容进行分类的标准的数量少于预设数量时所提取的话语分量被确定为不匹配的搜索条件的原因是,当在仅用所提取的话语分量搜索内容时太多内容要被搜索时,搜索内容的效率变低。
因此,控制器320可通过添加作为搜索内容的标准的预设条目来产生用于搜索内容的查询。具体地讲,控制器320可建立预设条目下的搜索条件,并通过使用所建立的搜索条件和所提取的话语分量来产生用于搜索内容的查询。
在此,预设条目可以是广播时间条目和广播频道条目中的至少一个。
对每一预设条目建立的条件可在每个条目中预先建立。例如,关于广播时间条目,条件可被预设为在从当前时间起的预设时间(例如,24小时)内播放的内容。关于广播频道条目,条件可被预设为在用户当前正在观看的频道上播放的内容。
因此,当广播时间条目被作为搜索内容的标准添加时,控制器320可将在从当前时间起的预设时间内播放的内容建立为关于广播时间条目的条件。控制器320可产生用于搜索其广播时间为从当前时间起24小时并且广播类型为重播的内容的查询,并将所产生的查询发送到外部服务器400。
外部服务器400可基于从第二服务器300接收的查询来执行内容搜索,并将搜索结果发送到第二服务器300。外部服务器400可将关于搜索内容的信息(诸如标题、缩略图、演员表、制片人、风格、广播类型、广播时间、屏幕质量、收视率和广播频道中的至少一个)作为搜索结果发送。例如,在1月7日10点时,外部服务器400可发送关于通过使用图5中的构造的元数据搜索的内容的标题信息(即,Title_BBB、Title_CCC)。
当广播频道条目被作为搜索内容的标准添加时,控制器320可将关于用户当前正在观看的频道的信息建立为关于广播频道条目的条件。控制器320可请求关于当前在显示设备100中选择的频道的信息,并接收关于用户当前正在观看的频道的信息。因此,当显示设备100当前选择CH22时,控制器320可产生搜索其广播频道为CH22并且广播类型为重播的内容的查询,并将所产生的查询发送到外部服务器400。
外部服务器400可通过使用从第二服务器300接收的查询来执行内容搜索,并将搜索结果发送到第二服务器300。外部服务器400可将关于搜索内容的信息(诸如标题、演员表、制片人、风格、广播类型、广播时间、屏幕质量、收视率和广播频道中的至少一个)作为搜索结果发送。例如,外部服务器400可发送通过使用图5中的构造的元数据搜索的内容的标题信息(即,Title_III)。
如上所述,广播频道条目或广播时间条目被作为搜索内容的附加条件添加的原因是,搜索内容的用户话语的意图可以不受影响。因此,因为以上示例性实施例中的用户话语的意图仅仅是请求搜索重播节目,所以当诸如标题、演员表、制片人和风格的条目被建立为附加条件时,用户话语的意图可能受到影响。因此,可添加影响用户话语意图的可能性较低的广播频道条目或广播时间条目。
控制器320可通过使用从外部服务器400接收的搜索结果来产生回复数据,并将所产生的回复数据发送到显示设备100。
回复数据可包括与在显示设备100中输出的***回复相关的各种信息。在这种情况下,回复数据还可包括输出与用户语音相应的***回复的控制命令。
根据以上示例性实施例,当显示设备100收集到“找到重播节目”时,控制器320可将所接收的内容的信息(诸如标题、缩略图、演员表、制片人、风格、广播类型、广播时间、屏幕质量、收视率和广播频道中的至少一个)发送到显示设备100。在这种情况下,控制器320可通过使用内容信息来将输出内容列表的控制命令发送到显示设备100。
因此,显示设备100可基于从第二服务器300接收的回复数据来输出与用户语音相应的***回复。换句话讲,显示设备100可响应于对于搜索内容的用户语音请求,输出构成所搜索的内容的列表的UI屏幕。显示设备100可将搜索内容的信息(诸如标题、缩略图、演员表、制片人、风格、广播类型、广播时间、屏幕质量、收视率和广播频道中的至少一个)添加到该列表。
根据以上示例性实施例,显示设备100可响应于说“找到重播节目”的用户语音,输出构成内容BBB和内容CCC的列表或构成所搜索的内容的列表。
因此,根据示例性实施例,当所提取的话语意图是不匹配的搜索条件时,可通过自动地添加搜索内容的标准来搜索内容。
尽管以上示例性实施例公开了与所提取的话语分量映射的条目是广播类型条目,但是这仅仅是示例性的。屏幕质量条目570被划分为HD和SD(即,对内容进行分类的两个标准),当与屏幕质量相关的话语分量被提取时,所提取的话语分量可被确定为不匹配的搜索条件。
此外,尽管以上示例性实施例公开了一个预设条目被作为搜索内容的标准添加,但是这仅仅是示例性的。控制器320可将多个预设条目作为搜索内容的标准添加。具体地讲,控制器320可建立广播时间条目和广播频道条目中的每个中的条件,并通过使用所建立的多个条件和所提取的话语分量来产生搜索内容的查询。
此外,尽管以上示例性实施例公开了预设条目被作为搜索内容的标准添加,但是这仅仅是示例性的。控制器320可基于用户偏好信息来确定将作为搜索内容的标准添加的预设条目。在此,用户偏好信息可包括用户偏好的标题、演员表、制片人、风格、广播类型、广播时间、屏幕质量、收视率和广播频道中的至少一个。在这种情况下,用户偏好信息可从显示设备100接收。
例如,假设用户偏好的风格是电影。控制器320可确定将被作为搜索内容的标准添加的风格条目,并通过使用所确定的搜索内容的标准来产生搜索内容的查询。根据以上示例性实施例,控制器320可将“电影”建立为关于风格条目的条件,产生搜索其风格为电影并且广播类型为重播的内容的查询,并将所产生的查询发送到外部服务器400。因此,外部服务器400可发送通过使用图5的构造的元数据搜索的内容的标题信息Title_HHH。
此外,尽管以上示例性实施例公开了当所提取的话语分量是不匹配的搜索条件时,可通过自动地添加其他搜索内容的标准来搜索内容,但是这仅仅是示例性的。控制器320可向用户询问是否添加其他搜索内容的标准,并基于用户回复来确定添加其他搜索内容的标准。
具体地讲,当所提取的话语分量是不匹配的搜索条件时,控制器320可产生回复数据,并将该回复数据发送到显示设备100,以使得显示设备100可将向用户询问是否添加搜索内容的标准的问题作为***回复输出。
控制器320可以以文本格式表达在显示设备100中输出的***回复,并将这些回复发送到显示设备100。例如,控制器320可以以文本格式表达“你的命令很简单,可能有许多结果。广播时间另外受到限制。添加并搜索?”,并将该文本发送到显示设备100。
因此,显示设备100可将基于从第二服务器300接收的回复数据的询问是否另外添加搜索内容的标准的问题作为***回复输出。例如,显示设备100可输出包括文本“你的命令很简单,可能有许多结果。广播时间另外受到限制。添加并搜索?”的UI屏幕。
控制器320可通过基于所接收的文本信息添加搜索内容的标准来执行内容搜索。例如,当从显示设备接收到“是”的文本信息时,控制器320可基于预存关键字确定条目“是”对应于肯定响应,并且可通过将该预设条目作为新的内容搜索标准添加来执行内容搜索。当接收到“否”的文本信息时,控制器320可基于预存关键字确定条目“否”对应于否定响应,并且可通过仅使用所提取的话语分量、而不添加新的内容搜索标准来执行内容搜索。
此外,尽管以上示例性实施例公开了当所提取的话语分量是不匹配的搜索条件时自动地添加其他内容搜索标准,但是这仅仅是示例性的。当根据所提取的话语分量搜索的内容不提供任何结果时,控制器320可通过使用所提取的话语分量的其他部分来执行这些内容的内容搜索。
例如,假设从显示设备100接收到“在CH7找到所有年龄都可以观看的重播节目”的文本信息。控制器320从“在CH7找到所有年龄都可以观看的重播节目”的文本信息提取条目“CH7”作为与广播频道相关的话语分量,提取条目“所有年龄”作为与收视率相关的话语分量,并提取条目“重播节目”作为与广播类型相关的话语分量。因此,控制器320可确定话语“在CH7找到所有年龄都可以观看的重播节目”的意图是请求在CH7上搜索所有年龄都可以观看的重播节目。
在这种情况下,控制器320可通过使用所提取的话语分量来产生搜索内容的查询。根据以上示例性实施例,控制器320可产生搜索其广播频道为CH7、收视率为所有年龄并且广播类型为重播的内容的查询,并且将所产生的查询发送到外部服务器400。
然而,当外部服务器400布置图5的构造的元数据时,因为不存在满足从第二服务器300接收的查询的内容,所以外部服务器400可将指示不存在搜索结果的回复发送到第二服务器300。
控制器320可重新通过使用所提取的话语分量的其他部分来产生搜索这些内容的查询。具体地讲,控制器320可去除所提取的与广播时间类型和广播频道类型中的至少一个相应的话语分量,并重新通过使用话语分量的其他部分来产生搜索这些内容的查询。根据以上示例性实施例,控制器320可去除与广播频道、收视率和广播类型中的至少一个相应的话语分量,并重新通过使用话语分量的其他部分来产生搜索这些内容的查询。换句话讲,控制器320可在去除关于广播频道的话语分量之后产生搜索其收视率为所有年龄并且广播类型为重播的内容的查询,或者在去除关于收视率的话语分量之后产生搜索其广播频道为CH7并且广播类型为重播的内容的查询,或者在去除关于广播类型的话语分量之后产生搜索其广播频道为CH7并且收视率为所有年龄的内容的查询。
当对于通过添加作为搜索内容的标准的预设条目而产生的查询不执行内容搜索时,控制器320可重新通过使用所提取的话语分量来产生搜索这些内容的查询。当不存在满足所提取的话语分量的内容,并且所有搜索条件都已被作为搜索内容的标准添加时,控制器320可重新通过仅使用所提取的话语分量来产生搜索这些内容的查询。
根据以上示例性实施例,假设用户当前正在观看的频道是CH2。在这种情况下,控制器320可产生搜索其广播频道是CH2并且广播类型是重播的内容的查询,并将所产生的查询发送到外部服务器400。
然而,当外部服务器400布置图5的构造的元数据时,因为不存在满足从第二服务器300接收的查询的内容,所以外部服务器400可将说不存在搜索结果的回复发送到第二服务器300。在这种情况下,控制器320可重新通过仅使用所提取的话语分量来产生搜索这些内容的查询。因此,根据以上示例性实施例,控制器320可产生搜索其广播类型为重播的内容的查询,并将所产生的查询发送到外部服务器400。
图6是图4中所示的第二服务器的详细框图。参照图6,第二服务器300可进一步包括存储器330以及图4中所示的元件。为了简洁起见,将不对图6中与图4中具有相同功能的元件重叠的相似元件进行解释。
存储器330可存储关于对条目下的内容进行分类的标准的信息。存储器330可存储外部服务器400中所存储的构造的元数据的每个条目、以及关于进一步划分每个条目的对内容进行分类的标准的信息。因此,控制器320可基于关于对与所提取的话语分量相应的条目下的内容进行分类的标准的信息来确定这些标准是否少于预设数量。
此外,存储器330可通过使用从显示设备100接收的文本信息来存储确定用户话语的意图的各种信息。
具体地讲,存储器330可存储通过使用从显示设备100接收的文本信息从用户语音分析域、用户动作和播放时段(slot)的各种信息。
在此,域可根据用户发出语音所属的主题(诸如“广播”和“装置控制”)进行划分。用户动作指示用户话语的意图,诸如“信息输出”和“装置控制”,播放时段指示指定关于域的对象信息(即,域内所应用的用户话语的意图)的信息。
具体地讲,存储器330可分析域内的用户动作,并存储提取播放时段的关键字。
例如,存储器330可存储这样的信息,在该信息中,域内的关键字(诸如“限制”、“搜索”、“找到”和“显示”)对应于请求信息搜索的用户动作。存储器330可存储关于内容的与诸如标题、演员表、制片人、风格、广播类型、广播时间、屏幕质量、收视率和广播频道的内容相关的各种关键字,并存储关于每个关键字所对应的播放时段的信息。根据示例性实施例,存储器330可存储这样的信息,在该信息中,条目“重播节目”是与对应于播放时段的广播类型相关的关键字。
根据另一示例性实施例,存储器330可存储这样的信息,在该信息中,装置控制域内的诸如“打开”、“高”、“低”、“关闭”和“执行”的关键字对应于请求装置控制的用户动作。存储器330可存储与装置控制相关的各种关键字(诸如频道名称、频道编号、音量和电源),并存储其中每个关键字对应于播放时段的信息。
根据另一示例性实施例,存储器330可存储这样的信息,在该信息中,条目“是”和“确认”对应于具有肯定意义的关键字,条目“否”和“不”对应于具有否定意义的关键字。
此外,存储器330可布置语料库数据库。在此,语料库数据库可以以存储示例性短语及其回复的格式实现。
因此,存储器330可以存储每一目的域的多个示例性短语和对短语的回复。在这种情况下,存储器330可以标记并存储每一示例性短语的分析示例性短语和与这些示例性短语相应的回复的信息。
例如,存储器330可将示例性短语“找到重播节目”存储在广播域中。在这种情况下,存储器330可标记并存储分析示例性短语“找到重播节目”与相应短语的信息。具体地讲,存储器330可标记并存储具有下述信息的相应短语,在该信息中,“重播节目”指示与广播类型相关的播放时段,“找到”指示示例性短语“找到重播节目”中与请求搜索内容相关的播放时段。
根据另一示例性实施例,存储器330可将示例性短语“打开CH O”存储在装置控制域中。在这种情况下,存储器330可标记并存储具有分析示例性短语“打开CH O”的信息的相应短语。具体地讲,存储器330可标记并存储具有下述信息的相应短语,在该信息中,“CH O”指示与频道编号相关的播放时段,“打开”指示示例性短语“打开CH O”中与开启/关闭电视的请求相关的播放时段。
因此,控制器320可通过使用存储在存储器330中的信息来从从显示设备100接收的文本信息提取话语分量,并通过使用所提取的话语分量来确定用户话语的意图。
例如,假设从显示设备100接收到文本信息“找到重播节目”。控制器320可通过考虑条目“重播节目”是与广播类型相关的播放时段来从短语“找到重播节目”提取“重播节目”作为话语分量。控制器320可确定“找到”对应于对于用户动作中的搜索信息的请求,并且话语“找到重播节目”的意图是请求搜索重播节目。控制器320可确定与用户语音相关的搜索条目是不匹配条目,通过添加新的搜索条件来产生搜索内容的查询,并将所产生的查询发送到外部服务器400。控制器320还可将回复数据发送到显示设备100,以使得显示设备100可输出与“找到重播节目”相应的***回复。
另举一例,假设从显示设备100接收到“打开CH O”的文本信息。控制器320可通过考虑条目“CH O”是与频道编号相关的播放时段来从短语“打开CH O”提取“CH O”作为话语分量。控制器320可确定“打开”对应于用户动作中的改变频道,并且话语“打开CH O”的意图是请求将频道变为CH O。控制器320可将用于使显示设备100将频道变为CH O的控制命令发送到显示设备100。
图7是根据示例性实施例的用于添加搜索内容的标准的方法的示图。
因为参照图4至图6描述了用于添加搜索内容的标准的方法,所以将参照图7对其进行简要解释。
当在操作S710接收到与用户语音相应的文本信息时,在操作S720,第二服务器300从用户语音提取话语分量。在操作S730,第二服务器300确定所提取的话语分量的属性有效性。具体地讲,第二服务器300可基于对与所提取的话语分量相应的条目下的内容进行分类的标准是否少于预设数量来确定所提取的话语分量的属性有效性。
因此,当在操作S730-Y,所提取的话语分量被确定为匹配的搜索条件时,第二服务器300可通过使用所提取的话语分量来产生搜索内容的查询,并将所产生的查询发送到信息源(即,外部服务器400)。
当在操作S730-N,所提取的话语分量被确定为不匹配的搜索条件时,在操作S740,服务器300可确定将被作为搜索内容的标准添加的条目。在这个步骤,第二服务器300可产生在操作S750向用户询问是否添加搜索内容的标准的问题,并通过显示设备100将所产生的问题提供给用户。基于用户对该问题的回复,第二服务器300可将搜索内容的标准添加到所提取的话语分量,或仅用所提取的话语分量来产生搜索内容的查询,并将所产生的查询发送到信息源(即,外部服务器400)。
图8A、8B和9A至9D示出根据实施例的从显示设备提供的UI屏幕的示例。
例如,参照图8A,假设用户说短语“找到重播节目”。
在这种情况下,参照图8B,显示设备100可显示包括基于从第二服务器300接收的回复数据的内容的列表的UI屏幕810。该内容列表可显示通过将广播时间和广播频道中的至少一个作为搜索内容的标准添加而搜索到的内容。
参照图9A,假设用户说“找到重播节目”。
在这种情况下,如果搜索条件不当,则参照图9B,显示设备100可基于从第二服务器300接收的回复数据来显示询问是否添加搜索内容的标准的UI屏幕910。参照图9C,当用户说“是”时,显示设备100可显示包括基于从第二服务器300接收的回复数据的内容的列表的UI屏幕920。在这种情况下,内容列表可显示通过将广播时间作为搜索内容标准添加而搜索到的内容。
图10是示出根据示例性实施例的用于控制服务器的方法的流程图。
在操作S1010,从显示设备接收与在显示设备中收集的用户语音相应的文本信息。
在操作S1020,从该文本信息提取话语分量,并通过使用所提取的话语分量来产生搜索内容的查询。
具体地讲,当对与所提取的话语分量相应的条目下的内容进行分类的标准少于预设数量时,通过添加作为搜索内容的标准的预设条目来产生查询。
在此,其对内容进行分类的标准少于预设数量的条目可以是广播类型条目和屏幕质量条目中的至少一个。此外,预设条目可以是广播时间条目和广播频道条目中的至少一个。
服务器可基于关于对内容进行分类的标准的预设信息少于预设数量来确定对与所提取的话语分量相应的条目下的内容进行分类的标准是否少于预设数量。
此外,服务器可基于用户偏好信息来确定作为搜索内容的标准添加的预设条目。
同时,当对于通过添加作为搜索内容的标准的预设条目而产生的查询没有执行搜索内容时,可重新通过使用所提取的话语分量来产生搜索内容的查询。
在S1030,将所产生的查询发送到对每个条目下的内容的元数据进行分类并存储该元数据的外部服务器。
以上参照图1至9描述了通过考虑预设条目或用户偏好信息产生查询的方法。
此外,该方法可提供存储实现根据示例性实施例的控制方法的程序的非暂时性计算机可读介质。
非暂时性可读介质指示半永久性地存储数据并且可被装置读取的介质,而不是临时存储数据的诸如寄存器、高速缓冲存储器或存储器的介质。具体地讲,可在诸如CD、DVD、硬盘、蓝光盘、USB、存储卡或ROM的非暂时性可读介质上存储并提供以上各种应用程序或程序。
此外,以上示出显示设备和服务器的框图没有描述总线;然而,显示设备和服务器中的元件之间的通信可通过总线执行。每个装置还可包括执行以上各个步骤的处理器,诸如CPU和微处理器。
此外,前述示例性实施例仅仅是示例性的,而不被解释为限制性的。本教导可容易地应用于其他类型的设备。此外,示例性实施例的描述旨在说明,而非限制权利要求的范围。
Claims (14)
1.一种与显示设备一起实现交互***的服务器,所述服务器包括:
通信器,被构造为从显示设备接收与在显示设备收集的用户语音相应的文本信息;和
控制器,被构造为从所述文本信息提取话语分量,基于所提取的话语分量产生搜索内容的查询,并将所述查询发送到外部服务器,
其中,当对与所提取的话语分量相应的至少一个条目下的内容进行分类的标准的数量少于预设数量时,控制器被构造为通过将预设条目添加到搜索内容的标准来产生所述查询。
2.根据权利要求1所述的服务器,其中,外部服务器对所述至少一个条目中的每个条目下的内容的元数据进行分类,并存储所述元数据。
3.根据权利要求1所述的服务器,还包括:
存储器,被构造为存储关于对所述至少一个条目中的每个条目下的内容进行分类的标准的信息,
其中,控制器基于所述关于对所述内容进行分类的标准的信息来确定对与所提取的话语分量相应的所述至少一个条目下的内容进行分类的标准的数量是否少于预设数量。
4.根据权利要求1所述的服务器,其中,控制器被构造为基于用户偏好信息来确定将添加到搜索内容的标准的预设条目。
5.根据权利要求1所述的服务器,其中,当没有响应于根据将预设条目添加到搜索内容的标准而产生的查询执行内容搜索时,控制器重新通过使用所提取的话语分量来产生搜索所述内容的查询。
6.根据权利要求1所述的服务器,其中,对所述内容进行分类的标准的数量少于预设数量的所述至少一个条目是广播类型条目和屏幕质量条目中的至少一个。
7.根据权利要求1所述的服务器,其中,预设条目是广播时间条目和广播频道条目中的至少一个。
8.一种用于控制与显示设备一起实现交互***的服务器的方法,所述方法包括:
接收与在显示设备收集的用户语音相应的文本信息;
从所述文本信息提取话语分量,并基于所提取的话语分量来产生搜索内容的查询;和
将所产生的查询发送到外部服务器,
其中,产生的步骤包括:当对与所提取的话语分量相应的至少一个条目下的内容进行分类的标准的数量少于预设数量时,通过将预设条目添加到搜索所述内容的标准来产生所述查询。
9.根据权利要求8所述的方法,其中,外部服务器对所述至少一个条目中的每个条目下的内容的元数据进行分类,并存储所述元数据。
10.根据权利要求8所述的方法,其中,产生的步骤包括基于所述关于对所述内容进行分类的标准的信息来确定对与所提取的话语分量相应的所述至少一个条目下的内容进行分类的标准的数量是否少于预设数量。
11.根据权利要求8所述的方法,其中,产生的步骤包括基于用户偏好信息来确定将添加到搜索所述内容的标准的预设条目。
12.根据权利要求8所述的方法,其中,当没有响应于根据将预设条目添加到搜索内容的标准而产生的查询执行内容搜索时,产生的步骤包括重新基于所提取的话语分量来产生搜索内容的查询。
13.根据权利要求8所述的方法,其中,对所述内容进行分类的标准的数量少于预设数量的所述至少一个条目是广播类型条目和屏幕质量条目中的至少一个。
14.根据权利要求8所述的方法,其中,预设条目是广播时间条目和广播频道条目中的至少一个。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2013-0001839 | 2013-01-07 | ||
KR1020130001839A KR102030114B1 (ko) | 2013-01-07 | 2013-01-07 | 서버 및 그의 제어 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103916709A true CN103916709A (zh) | 2014-07-09 |
CN103916709B CN103916709B (zh) | 2019-05-03 |
Family
ID=49918519
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410006776.4A Active CN103916709B (zh) | 2013-01-07 | 2014-01-07 | 服务器和用于控制服务器的方法 |
Country Status (6)
Country | Link |
---|---|
US (4) | US9380330B2 (zh) |
EP (3) | EP2752847B1 (zh) |
KR (1) | KR102030114B1 (zh) |
CN (1) | CN103916709B (zh) |
AU (1) | AU2014200029B2 (zh) |
DE (1) | DE202014011475U1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109300472A (zh) * | 2018-12-21 | 2019-02-01 | 深圳创维-Rgb电子有限公司 | 一种语音识别方法、装置、设备及介质 |
CN110753908A (zh) * | 2017-08-22 | 2020-02-04 | 谷歌有限责任公司 | 在通信会话期间促进用户设备和/或代理设备动作 |
CN111095208A (zh) * | 2017-09-19 | 2020-05-01 | 三星电子株式会社 | 用于提供对设备使用询问的响应的设备和方法 |
CN111191005A (zh) * | 2019-12-27 | 2020-05-22 | 恒大智慧科技有限公司 | 社区查询方法及***、社区服务器、计算机可读存储介质 |
CN112750438A (zh) * | 2019-10-30 | 2021-05-04 | Lg 电子株式会社 | 人工智能设备 |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9832284B2 (en) | 2013-12-27 | 2017-11-28 | Facebook, Inc. | Maintaining cached data extracted from a linked resource |
US10133710B2 (en) | 2014-02-06 | 2018-11-20 | Facebook, Inc. | Generating preview data for online content |
US10567327B2 (en) * | 2014-05-30 | 2020-02-18 | Facebook, Inc. | Automatic creator identification of content to be shared in a social networking system |
KR102281341B1 (ko) * | 2015-01-26 | 2021-07-23 | 엘지전자 주식회사 | 싱크 디바이스 및 그 제어 방법 |
US10122483B2 (en) * | 2015-02-04 | 2018-11-06 | Ebay Inc. | Crowd sentiment detection and analysis |
US10331312B2 (en) * | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
KR102499124B1 (ko) | 2016-01-21 | 2023-02-15 | 삼성전자주식회사 | 디스플레이 장치 및 디스플레이 장치의 제어 방법 |
WO2018043113A1 (ja) * | 2016-08-29 | 2018-03-08 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム |
WO2018056002A1 (ja) * | 2016-09-26 | 2018-03-29 | 株式会社日立国際電気 | 映像監視システム |
KR102468214B1 (ko) | 2018-02-19 | 2022-11-17 | 삼성전자주식회사 | 사용자의 발화를 기반으로 컨텐츠를 제공하는 장치 및 시스템 |
US11748059B2 (en) * | 2018-12-11 | 2023-09-05 | Saturn Licensing Llc | Selecting options by uttered speech |
CN110737840B (zh) * | 2019-10-22 | 2023-07-28 | 海信视像科技股份有限公司 | 语音控制方法及显示设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1772854A1 (en) * | 2005-10-04 | 2007-04-11 | Robert Bosch Corporation | Method and apparatus for organizing and optimizing content in dialog systems |
US20080103780A1 (en) * | 2006-10-31 | 2008-05-01 | Dacosta Behram Mario | Speech recognition for internet video search and navigation |
US20110067059A1 (en) * | 2009-09-15 | 2011-03-17 | At&T Intellectual Property I, L.P. | Media control |
CN102638711A (zh) * | 2011-02-10 | 2012-08-15 | Lg电子株式会社 | 具有频道扫描接口的多功能显示装置及其控制方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9318108B2 (en) * | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8000972B2 (en) * | 2007-10-26 | 2011-08-16 | Sony Corporation | Remote controller with speech recognition |
US9788043B2 (en) * | 2008-11-07 | 2017-10-10 | Digimarc Corporation | Content interaction methods and systems employing portable devices |
KR20100067174A (ko) * | 2008-12-11 | 2010-06-21 | 한국전자통신연구원 | 음성 인식을 이용한 메타데이터 검색기, 검색 방법, iptv 수신 장치 |
KR101289081B1 (ko) | 2009-09-10 | 2013-07-22 | 한국전자통신연구원 | 음성 인터페이스를 이용한 iptv 시스템 및 서비스 방법 |
US8910232B2 (en) * | 2009-09-14 | 2014-12-09 | At&T Intellectual Property I, Lp | System and method of analyzing internet protocol television content for closed-captioning information |
US8161071B2 (en) * | 2009-09-30 | 2012-04-17 | United Video Properties, Inc. | Systems and methods for audio asset storage and management |
US8863165B2 (en) * | 2010-11-01 | 2014-10-14 | Gracenote, Inc. | Method and system for presenting additional content at a media system |
KR101789619B1 (ko) | 2010-11-22 | 2017-10-25 | 엘지전자 주식회사 | 멀티미디어 장치에서 음성과 제스쳐를 이용한 제어 방법 및 그에 따른 멀티미디어 장치 |
KR20120060692A (ko) | 2010-12-02 | 2012-06-12 | 삼성전자주식회사 | 디스플레이장치 및 컨텐츠 검색방법 |
KR101789620B1 (ko) | 2010-12-28 | 2017-10-25 | 엘지전자 주식회사 | 영상표시기기의 애플리케이션 관리 방법 및 그에 따른 영상표시기기 |
EP2487922B1 (en) * | 2011-02-10 | 2015-06-24 | LG Electronics Inc. | Multi-functional display device having an electronic programming guide and method for controlling the same |
ITRM20120142A1 (it) * | 2012-04-05 | 2013-10-06 | X2Tv S R L | Procedimento e sistema per la raccolta in tempo reale di un feedback da parte del pubblico di una trasmissione televisiva o radiofonica |
US9699485B2 (en) * | 2012-08-31 | 2017-07-04 | Facebook, Inc. | Sharing television and video programming through social networking |
US9619812B2 (en) * | 2012-08-28 | 2017-04-11 | Nuance Communications, Inc. | Systems and methods for engaging an audience in a conversational advertisement |
US9344562B2 (en) * | 2012-11-30 | 2016-05-17 | At&T Intellectual Property I, Lp | Apparatus and method for managing interactive television and voice communication services |
KR102227599B1 (ko) * | 2013-11-12 | 2021-03-16 | 삼성전자 주식회사 | 음성인식 시스템, 음성인식 서버 및 디스플레이 장치의 제어방법 |
-
2013
- 2013-01-07 KR KR1020130001839A patent/KR102030114B1/ko active IP Right Grant
-
2014
- 2014-01-02 DE DE202014011475.7U patent/DE202014011475U1/de not_active Expired - Lifetime
- 2014-01-02 EP EP14150056.1A patent/EP2752847B1/en active Active
- 2014-01-02 EP EP17179851.5A patent/EP3249644B1/en active Active
- 2014-01-02 EP EP23213420.5A patent/EP4307295A3/en active Pending
- 2014-01-03 AU AU2014200029A patent/AU2014200029B2/en active Active
- 2014-01-07 CN CN201410006776.4A patent/CN103916709B/zh active Active
- 2014-01-07 US US14/149,083 patent/US9380330B2/en active Active
-
2016
- 2016-06-06 US US15/174,142 patent/US10986391B2/en active Active
-
2021
- 2021-03-11 US US17/199,113 patent/US11700409B2/en active Active
-
2023
- 2023-05-23 US US18/322,300 patent/US20230300398A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1772854A1 (en) * | 2005-10-04 | 2007-04-11 | Robert Bosch Corporation | Method and apparatus for organizing and optimizing content in dialog systems |
US20080103780A1 (en) * | 2006-10-31 | 2008-05-01 | Dacosta Behram Mario | Speech recognition for internet video search and navigation |
US20110067059A1 (en) * | 2009-09-15 | 2011-03-17 | At&T Intellectual Property I, L.P. | Media control |
CN102638711A (zh) * | 2011-02-10 | 2012-08-15 | Lg电子株式会社 | 具有频道扫描接口的多功能显示装置及其控制方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110753908A (zh) * | 2017-08-22 | 2020-02-04 | 谷歌有限责任公司 | 在通信会话期间促进用户设备和/或代理设备动作 |
CN110753908B (zh) * | 2017-08-22 | 2023-11-10 | 谷歌有限责任公司 | 在通信会话期间促进用户设备和/或代理设备动作 |
US11941420B2 (en) | 2017-08-22 | 2024-03-26 | Google Llc | Facilitating user device and/or agent device actions during a communication session |
CN111095208A (zh) * | 2017-09-19 | 2020-05-01 | 三星电子株式会社 | 用于提供对设备使用询问的响应的设备和方法 |
CN109300472A (zh) * | 2018-12-21 | 2019-02-01 | 深圳创维-Rgb电子有限公司 | 一种语音识别方法、装置、设备及介质 |
CN112750438A (zh) * | 2019-10-30 | 2021-05-04 | Lg 电子株式会社 | 人工智能设备 |
CN112750438B (zh) * | 2019-10-30 | 2024-05-31 | Lg电子株式会社 | 人工智能设备 |
CN111191005A (zh) * | 2019-12-27 | 2020-05-22 | 恒大智慧科技有限公司 | 社区查询方法及***、社区服务器、计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
EP2752847A1 (en) | 2014-07-09 |
US9380330B2 (en) | 2016-06-28 |
US11700409B2 (en) | 2023-07-11 |
US20140196091A1 (en) | 2014-07-10 |
US20160286256A1 (en) | 2016-09-29 |
AU2014200029A1 (en) | 2014-07-24 |
EP3249644B1 (en) | 2024-03-06 |
EP3249644A1 (en) | 2017-11-29 |
KR20140089877A (ko) | 2014-07-16 |
US20210204013A1 (en) | 2021-07-01 |
EP3249644C0 (en) | 2024-03-06 |
KR102030114B1 (ko) | 2019-10-08 |
DE202014011475U1 (de) | 2021-03-02 |
EP4307295A2 (en) | 2024-01-17 |
EP4307295A3 (en) | 2024-04-24 |
EP2752847B1 (en) | 2017-08-16 |
CN103916709B (zh) | 2019-05-03 |
AU2014200029B2 (en) | 2019-02-07 |
US10986391B2 (en) | 2021-04-20 |
US20230300398A1 (en) | 2023-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103916709A (zh) | 服务器和用于控制服务器的方法 | |
CN103916704A (zh) | 对话型接口设备及其控制方法 | |
CN103517119B (zh) | 显示设备、控制显示设备的方法、服务器以及控制服务器的方法 | |
CN103916708A (zh) | 显示装置和用于控制显示装置的方法 | |
US20140195244A1 (en) | Display apparatus and method of controlling display apparatus | |
CN103516711A (zh) | 显示设备、用于控制显示设备的方法和交互*** | |
CN103517094A (zh) | 服务器和控制该服务器的方法 | |
CN103546763A (zh) | 用于提供内容信息的方法和广播接收设备 | |
KR102118195B1 (ko) | 서버 및 그의 제어 방법 | |
KR102182689B1 (ko) | 서버 및 그의 제어 방법 | |
KR102379049B1 (ko) | 서버 및 그의 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |