CN112216281A - 用于登记用户命令的显示装置和方法 - Google Patents
用于登记用户命令的显示装置和方法 Download PDFInfo
- Publication number
- CN112216281A CN112216281A CN202011121617.0A CN202011121617A CN112216281A CN 112216281 A CN112216281 A CN 112216281A CN 202011121617 A CN202011121617 A CN 202011121617A CN 112216281 A CN112216281 A CN 112216281A
- Authority
- CN
- China
- Prior art keywords
- user command
- registration
- user
- command
- suitability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 30
- 230000009467 reduction Effects 0.000 claims description 6
- 238000004891 communication Methods 0.000 description 28
- 230000004044 response Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 5
- 238000007792 addition Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/187—Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0638—Interactive procedures
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/221—Announcement of recognition results
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一种显示装置,包括:输入单元,被配置为接收用户命令;输出单元,被配置为输出针对用户命令的登记合适性确定结果;以及处理器,被配置为生成用户命令的音标,分析生成的音标以确定用户命令的登记合适性,并控制输出单元输出针对用户命令的登记合适性确定结果。因此,显示装置可以登记抗误识别并保证用户定义的用户命令中的高识别率的用户命令。
Description
本申请是申请日为2015年11月20日、申请号为201510810660.0、发明名称为“用于登记用户命令的显示装置和方法”的中国发明专利申请的分案申请。
相关申请的交叉引用
本申请要求来自于2014年11月20日在韩国知识产权局递交的韩国专利申请No.10-2014-0162654的优先权,其公开在此以整体通过参考引入本文。
技术领域
以下描述涉及用于登记用户命令的显示装置和方法,并更具体涉及用于登记用户定义的用户命令的显示装置和方法。
背景技术
根据技术发展,随着例如智能电话、智能TV等显示装置能够识别用户的语音,用户可以通过所说语音控制显示装置的操作或可以具有各种内容服务,而无需执行单独的操作。上述语音识别方法基于识别与向显示装置预登记的命令相关联的所说语音的嵌入式方法。
然而,存在以下问题:用户不确切知晓向显示装置预登记的命令,并不通过显示装置有效地使用语音识别服务。因此,为了在解决上述问题的同时,使得用户能够用更有趣和更灵活的方式来使用显示装置,已经开发了一种用于登记用户命令的方法的技术,其中向显示装置登记用户定义的用户命令。
然而,根据相关技术的登记用户命令的方法关注用于登记用户简单定义的用户命令的方法。也就是说,根据相关技术的登记用户命令的方法不考虑对用户定义的用户命令的误识别概率的问题,而是仅关注相应用户命令的登记。
在其中通过根据相关技术的登记用户命令的方法来登记用户命令的状态中,响应于输入相应用户命令的所说语音,可能发生显示装置由于周围环境因素而不能准确地识别用户所说语音的问题。此外,在其中预登记了与相应用户命令类似的其他命令的状态下,响应于输入相应用户命令的所说语音,可能发生以下问题:显示装置基于与通过输入的所说语音的用户命令相类似的其他命令,执行并非用户意在的控制操作。
发明内容
在以下的描述中将部分地阐述附加方面和/或优点,并且附加方面和/或优点将部分地从该描述中显而易见,或可以通过本公开的实践来获知。
本公开的示例实施例克服以上缺点和以上未描述的其他缺点。此外,不要求本公开克服上述缺点,并且本公开的示例实施例可以不解决上述问题中的任何一个。
本公开提供了一种能够登记用户定义的用户命令中抗误识别并保证高识别率的用户命令的显示装置。
根据本公开的一方面,显示装置包括:输入单元,被配置为接收用户命令;输出单元,被配置为输出用户命令的登记合适性确定结果,以及处理器,被配置为生成用户命令的音标,分析生成的音标以确定用户命令的登记合适性,并控制所述输出单元输出针对用户命令的登记合适性确定结果。
处理器可以分析生成的音标的总数量和生成的音标中的元音和辅音的连续配置中的至少一个,以确定用户命令的登记合适性。
处理器还分析以下各项的至少一个以确定用户命令的登记合适性:生成的音标的配置形式、每个单词的音标的数量、以及音标是否包括弱音标,以及所述弱音标可以包括由于周围环境而降低或丢失频带或能量幅度使得其识别率降级的特定发音的音标。
响应于确定用户命令的登记不合适,输出单元可以显示引导可登记用户命令的引导用户界面(UI),并且响应于确定用户命令的登记合适,输出用户命令的音频。
显示装置还可以包括存储单元,其中,响应于在其中输出用户命令的音频的状态下输入用户命令的所说语音,处理器根据用户命令的文本与所说语音的文本之间的相似性,在存储单元中登记并存储用户命令。
处理器可以确定用户命令的登记合适性,并且在用户命令的登记既不属于合适情况也不属于不合适情况的情况下,根据用户的选择命令在存储单元中登记并存储用户命令。
处理器可以测量多个预登记的命令的音标与用户命令的音标之间的相似性,以根据测量出的相似性来确定用户命令的登记合适性。
处理器可以根据用户命令是否与禁用命令相对应来确定用户命令的登记合适性。
响应于输入了用户命令的所说语音,输入单元可以从语音识别装置接收所说语音的一个或更多个文本,以及处理器可以确定用户在一个或更多个输出文本中选择的文本,作为用户命令的文本。
用户命令可以包括用于进入语音识别模式的触发命令和用于控制显示装置的操作的控制命令中的至少一个。
根据本公开的一方面,一种登记用户命令的方法包括:接收用户命令;基于预定义的音标集生成用户命令的音标;通过分析生成的音标来确定用户命令的登记合适性;以及提供针对用户命令的登记合适性确定。
在确定登记合适性时,可以通过分析生成的音标的总数量和生成的音标中的元音和辅音的连续配置中的至少一个,来确定用户命令的登记合适性。
在确定登记合适性时,还通过分析以下各项的至少一个来确定用户命令的登记合适性:生成的音标的配置形式、每个单词的音标的数量,以及音标是否包括弱音标,以及所述弱音标包括由于周围环境而降低或丢失频带或能量幅度使得其识别率降级的特定发音的音标。
在提供针对用户命令的登记合适性确定结果时,可以响应于确定用户命令的登记不合适,提供引导可登记用户命令的引导用户界面(UI),并且可以响应于确定用户命令的登记合适,输出用户命令的音频。
该方法还包括:响应于在输出用户命令的音频的状态下输入用户命令的所说语音,根据用户命令的文本与所说语音的文本之间的相似性来登记用户命令。
在登记用户命令时,可以确定用户命令的登记合适性,并且可以在用户命令的登记不属于合适情况也不属于不合适情况的情况下,根据用户的选择命令来登记用户命令。
在确定用户命令的登记合适性时,可以根据多个预登记命令的音标与用户命令的音标之间的相似性来确定用户命令的登记合适性。
在确定用户命令的登记合适性时,可以根据用户命令是否与禁用命令相对应,来确定用户命令的登记合适性。
在接收用户命令时,响应于输入用户命令的所说语音,可以从语音识别装置输入所说语音的一个或更多个文本,并且可以将一个或更多个输入文本中用户选择的文本确定为用户命令的文本。
用户命令可以包括用于进入语音识别模式的触发命令和用于控制显示装置的操作的控制命令中的至少一个。
根据本公开的一方面,提供了一种在与显示装置耦合的记录介质中存储以执行以下步骤的计算机程序:接收用户命令;基于预定义的音标集生成用户命令的音标;通过分析生成的音标来确定用户命令的登记合适性;以及提供针对用户命令的登记合适性确定结果,其中计算机程序登记用户命令。
附图说明
通过参照附图描述本公开的特定示例实施例,本公开的以上和/或其他方面、将会更加显而易见,在附图中:
图1是根据本公开的示例实施例的语音识别***的框图;
图2是根据本公开的示例实施例的显示装置的框图;
图3是示出根据本公开的示例实施例的显示装置的详细框图;
图4是示出根据本公开的实施例的确定合适性的模块的视图;
图5是根据本公开的示例实施例的基于通过显示装置中的确定登记合适性的模块计算出的结果值来确定用户命令的登记合适性的示意性视图;
图6是根据本公开的示例实施例的提供显示装置中的用户命令的登记不合适性确定结果的第一示意性视图;
图7是根据本公开的示例实施例的提供显示装置中的用户命令的登记不合适性确定结果的第二示意性视图;
图8是根据本公开的示例实施例的提供显示装置中的用户命令的登记不合适性确定结果的第三示意性视图;
图9是根据本公开的示例实施例的用于确定显示装置中的用户命令的登记合适性的方法的流程图;以及
图10是根据本公开的示例实施例的显示装置中的登记用户命令的方法的流程图。
具体实施方式
现在将具体参照实施例,在附图中示出其示例,其中贯穿本文类似的参考符号指的是类似的元素。以下通过参照附图解释本公开来描述这些实施例。
可以不同地修改本公开的示例实施例。因此,在附图中示出并在详细说明中具体描述特定示例实施例。然而,应当理解的是本公开不限于特定示例实施例,还包括不离开本公开的范围和精神的全部修改、等价和替代。此外,不具体描述熟知的功能或结构,原因在于它们将用不必要的细节使本公开模糊。
术语“第一”、“第二”等可以用于描述各种组成部分,但是这些组成部分不受术语限制。这些术语仅用于将组成部分彼此区分开。
本申请中所使用的术语仅用于描述示例实施例,而不旨在限制本公开的范围。只要在上下文中单数表达不区别地表意,单数表达还包括复数含义。在本申请中,术语“包括”和“包含”指示存在说明书中所写的特征、数量、步骤、操作、组成部分、元素或其组合,但不排除添加一个或更多个特征、数量、步骤、操作、组成部分、元素或其组合的存在或可能性。
在本公开的示例实施例中,“模块”或“单元”执行至少一个功能或操作,并可以用硬件、软件或硬件和和软件的组合来实现。此外,除了必须用特定硬件来实现的“模块”或“单元”以外,可以将多个“模块”或者多个“单元”集成到至少一个模块中,并可以用至少一个处理器(未示出)来实现。
以下,将参照附图详细描述本公开。
图1是根据本公开的示例实施例的语音识别***的框图。
如图1所示,语音识别***包括显示装置100、输入装置200和网络服务器300。
可以用各种电子装置(智能电视、智能手机、平板电脑等)来实现显示装置100,显示装置100是识别用户所说语音以执行用户意在的操作的装置。
输入装置200可以是例如遥控器、键盘等,输入装置200是执行与显示装置100的数据通信以控制显示装置100的操作的装置。
具体地,在语音识别模式下第一用户可以说话来操作显示装置100。响应于向显示装置100输入上述的用户所说语音,显示装置100分析输入所说语音的语音信号,以确定相应的语音信号是否是用于使显示装置100进入语音识别模式的触发命令。作为确定结果,响应于相应语音信号是在语音识别模式下操作显示装置100的命令,显示装置100进入语音识别模式。这样,在显示装置100进入语音识别模式的状态中,响应于将附加的用户所说语音输入到显示装置100中,显示装置100内部地将附加的所说语音转换为文本。然而,本公开不限于此。例如,在显示装置100进入语音识别模式的状态中,响应于通过输入装置200来输入用户所说语音,或不可能进行针对用户所说语音的语音识别,显示装置100可以通过语音识别装置300来接收用户所说语音的文本。
这里,语音识别装置300可以是执行与显示装置100的数据通信41以执行针对来自显示装置100的用户所说语音的语音识别并向显示装置100发送识别出的语音识别结果的装置。
此后,显示装置100可以基于用户所说语音的文本来控制显示装置100的操作,或从网络服务器(未示出)接收并显示与用户所说语音相对应的响应信息。
这里,网络服务器(未示出)是提供内容相关信息的服务器。例如,如果从用户输入“请检索○○○”的语句,则通信单元160可以从网络服务器(未示出)接收与“○○○”相关联的检索到的结果。
同时,可以由用户登记并设置关于用户所说语音的控制显示装置100的操作的执行命令。以下,意在由用户登记并设置的执行命令被称为用户命令。具体地,用户可以通过输入装置200输入意在由他或她自己登记并设置的用户命令。如果向显示装置100输入了上述用户命令,则输入装置200向显示装置100发送包括文本类型的用户命令的用户命令登记请求信息。然而,本公开不限于此。例如,在用户命令登记模式下设置显示装置100的状态中,显示装置100可以通过麦克风接收用户命令的所说语音。响应于向显示装置100输入上述用户命令的所说语音,显示装置100可以向语音识别装置300发送输入所说语音,并可以从语音识别装置300接收转换为文本类型的用户命令。
响应于从输入装置200或语音识别装置300接收上述文本类型的用户命令,显示装置100生成文本类型的用户命令的音标。此后,显示装置100通过预定的合适性确定条件来分析用户命令的音标,以确定用户请求的用户命令的登记合适性。这里,合适性确定条件可以是以下各项中的至少一个:音标的总数、音标的元音和辅音是否是连续的、音标的配置形式、每个单词的音标的数量以及是否包括预定义的弱音标。
因此,显示装置100通过上述合适性确定条件来分析用户命令的音标,以确定用户命令的登记合适性,并向用户界面(UI)和音频设备中的至少一个输出确定结果。在确定用户命令的登记不合适的情况下,用户可以重新输入可登记用户命令,并且显示装置100可以重新执行上述操作,以重新执行针对重新输入的用户命令的登记合适性确定。同时,在确定用户命令的登记合适的情况下,显示装置100根据相应用户命令的登记请求来登记用户命令。因此,用户可以使用由他或她自己设置的用户命令来控制显示装置100的操作。
以上,已经示意性地描述了根据本公开的语音识别***的相应配置。以下,将具体描述上述显示装置100的各配置。
图2是根据本公开的示例实施例的显示装置的框图,以及图3是示出根据本公开的示例实施例的显示装置的详细框图。
如图2所示,显示装置100包括输入单元110、输出单元120和处理器140。附加地,如图3所示,除输入单元110、输出单元120和处理器140的配置以外,显示装置100还可以包括语音处理单元150、通信单元160和存储单元170。
可以将输入单元110实现为输入面板,输入单元110是用于接收各种用户操作并向处理器140发送各种用户操作的输入。这里输入面板可以用包括各种功能键、数字键、特殊键、字母键等的触摸面板、或按键面板或触摸屏类型来形成。此外,输入单元170可以接收从遥控装置200(例如遥控器或控制显示装置100的操作的键盘)发送的控制命令。此外,输入单元110可以通过麦克风(未示出)来接收用户所说语音。上述输入单元110可以从遥控装置220接收文本类型的用户命令或者可以通过麦克风(未示出)来接收用户命令的所说语音。这里,用户命令可以是用于使显示装置100进入语音识别模式的触发命令和用于控制显示装置100的操作的控制命令中的至少一个,用户命令是由用户定义来控制显示装置100的操作的执行命令。
输出单元120输出针对通过输入单元110的用户命令输入的登记合适性确定结果。如图3所示,上述输出单元120可以包括显示单元121和音频输出单元123。因此,输出单元120可以通过显示单元121和音频输出单元123中的至少一个输出针对用户命令的登记合适性确定结果。
同时,处理器140是通常负责对装置的控制的配置,可以与中央处理单元、微处理器、控制单元等互换地使用。此外,可以将要控制装置的一般操作的处理器140实现为片上***(SOC)或具有其他功能单元的片上***(SoC)。
这种处理器140通常控制构成显示装置100的所有配置的操作。具体地,处理器140可以根据用户命令将在存储单元170中预存储的音标生成相关程序复制到随机存取存储器(RAM)中用于用户命令登记,并可以使用在RAM中复制的音标生成相关程序来生成文本类型的用户命令的音标。
更具体地,处理器140可以基于预定义的音标集来生成文本类型的用户命令的音标。这里,预定义的音标集可以包括以下各项中的至少一个:元音、双元音、辅音、破擦音、口音和符号。如果生成了用户命令的这种音标,则处理器140基于预定的合适性确定条件来分析预生成的音标,以确定用户命令的登记合适性。此后,处理器140控制输出单元120输出针对用户命令的登记合适性确定结果。
具体地,如果通过输入单元110输入由用户定义的用户命令的登记请求信息,则处理器140进入用户命令的登记执行模式。这里,登记请求信息可以是用于登记与进入语音识别模式的触发命令相关联的用户命令的请求信息,或用于登记与控制显示装置100的操作的控制命令相关联的用户命令的请求信息。响应于与在输入这种登记请求信息之后通过输入单元110输入与用户的登记请求相对应的用户命令,处理器140以音标形式生成输入用户命令。根据示例实施例,响应于通过输入单元110输入与从麦克风(未示出)输出的用户命令相关联的所说语音,处理器140执行控制以使得语音处理单元150执行针对用户所说语音的语音识别。根据这种控制命令,语音处理单元150可以使用语音到文本(STT)算法将用户所说语音转换为文本。
根据示例实施例,响应于通过输入单元110输入与从麦克风(未示出)输出的用户命令相关联的所说语音,处理器140向语音识别装置300发送与用户命令相关联的所说语音。因此,语音识别装置300针对接收到的所说语音进行语音识别,并向显示装置100发送文本类型的语音识别结果。在这种情况下,语音识别装置300可以向显示装置100发送关于用户所说语音的文本类型的至少一个语音识别结果。因此,在从语音识别装置300接收针对用户所说语音的多个文本的情况下,处理器140控制输出单元120显示多个文本的列表。因此,输出单元120通过显示单元121显示多个文本的列表。在显示这种列表的状态中,响应于输入针对一个文本的选择命令,处理器140可以确定与输入选择命令相对应的文本作为用户所说语音的文本。
根据示例实施例,处理器140可以根据是否可以通过通信单元160执行与语音识别装置300的数据通信来确定执行针对用户所说语音的语音识别的主体。也就是说,如果可以执行与语音识别装置300的数据通信,则处理器140可以从语音识别装置300接收针对用户所说语音的语音识别结果,并且如果不能执行与语音识别装置300的数据通信,则处理器140可以通过语音处理单元150执行针对用户所说语音的语音识别。
这里,通信单元160执行与语音识别装置300的数据通信,并从语音识别装置300接收针对用户所说语音的语音识别结果。此外,通信单元160可以执行与输入装置200的数据通信,并可以接收用于控制显示装置100的操作的用户命令和用户所说语音中的至少一个。附加地,通信单元160可以执行与网络服务器(未示出)的数据通信,并可以接收与用户所说语音相对应的响应信息。
这种通信单元160可以包括各种通信模块,例如局域无线通信模块(未示出)、无线通信模块(未示出)等。这里,局域无线通信模块(未示出)可以是例如蓝牙、Zigbee等,局域无线通信模块是执行与位于局域的输入装置200和网络服务器(未示出)的至少一个的无线通信的通信模块。无线通信模块(未示出)是根据无线通信协议(例如WiFi、IEEE等)与外部网络连接以执行通信的模块。无线通信模块还可以包括根据各种移动通信标准(例如第三代(3G)、第三代合作伙伴计划(3GPP)、长期演进(LTE)等)与移动通信网连接以执行通信的移动通信模块。
同时,如果根据上述各示例实施例将与用户命令相关联的所说语音转换为文本类型或从语音识别装置300接收与用户命令相关联的所说语音,则处理器140基于预定义的音标集来生成文本类型的用户命令的音标。例如,响应于输入被称为“kangazi”的文本类型的用户命令,处理器140可以根据被称为“kangazi”的文本类型的用户命令来生成音标[k:ang_a:_zi]。
如果生成了这种音标,则处理器140基于预定的合适性确定条件来分析生成的音标,以确定用户命令的登记合适性。作为确定结果,如果确定用户命令的登记是合适的,则处理器140在存储单元170中登记并存储由用户定义的用户命令。此后,响应于输入存储单元170中登记并存储的用户命令的语句,处理器140可以基于与输入语句相关联的用户命令来控制显示装置100的操作。图4是示出根据本公开的实施例的确定合适性的模块的视图。
如图4所示,确定登记合适性的模块410可以包括以下的至少一个:分析音标总数的模块411、分析配置音标的元音和辅音配置的模块413、分析音标配置形式的模块415、分析配置用户命令的每个单词的音标的模块417和检测弱音标的模块419。
这里,分析音标总数的模块(以下称为第一条件)是确定用户命令的音标总数是否包括预定数量或更多的模块。此外,分析配置音标的元音和辅音的配置的模块(以下称为第二条件)是确定元音或辅音是否在用户命令的音标上连续重叠的模块。此外,分析音标配置形式的模块(以下称为第三条件)是基于预定义音标集检测以何种形式列出了用户命令的音标的配置的模块。此外,分析每个单词的音标的模块(以下称为第四条件)是确定配置用户命令的相应单词数和与每个单词相对应的音标数大于等于预定数量还是小于预定数量的模块。此外,检测弱音标的模块(以下称为第五条件)是确定配置用户命令的音标中的开始和结尾的音标是否是预定义的弱音标的模块。这里,预定义的弱音标可以是由于例如生活噪声等周围环境而降低或丢失频带或能量幅度使得其识别率降级的特定发音的音标。
因此,处理器140可以使用包括在确定登记合适性模块中的第一至第五条件中的至少一个分析用户命令的音标,以确定用户命令的登记合适性。
根据示例实施例,处理器140可以使用与确定登记合适性的模块中包括的模块中的第一和第二条件相对应的模块,来分析根据用户命令生成的音标,以确定用户命令的登记合适性。
例如,如果输入了被称为“kangazi”的文本类型的用户命令,则处理器140可以根据被称为“kangazi”的文本类型的用户命令生成音标[k:ang_a:_zi]。如果生成了这种音标,则处理器140使用确定登记合适性的模块中包括的模块中与第一条件相对应的模块,来确定音标[k:ang_a:_zi]的总数是否是预定数量或更多。例如,如果与第一条件相匹配的预定数量是5并且音标[k:ang_a:_zi]的总数是7,则处理器140确定音标的总数是预定数量或更多,并确定用户命令与第一条件相匹配。
如果用户命令与这种第一条件相匹配,则处理器140使用包括在确定登记合适性的模块中的模块中与第二条件相对应的模块确定音标[k:ang_a:_zi]上的元音和辅音的至少一个是否以连续形式配置。作为确定结果,如果元音和辅音的至少一个没有以连续形式配置,则处理器140确定用户命令与第二条件相匹配。这样,如果用户命令与第一和第二条件相匹配,则处理器140可以确定用户命令“kangazi”的登记是合适的。
作为另一示例,如果输入了被称为“a aaaa”的文本类型的用户命令,则处理器140可以根据被称为“a aaaa”的文本类型的用户命令来生成音标[a_a_a_a_a]。在这种情况下,处理器140确定音标[a_a_a_a_a]的元音是连续的。这样,如果用户命令未与第一和第二条件中的至少一个相匹配,则处理器140可以确定用户命令“a aaaa”的登记不合适。也就是说,具有连续元音的用户命令存在以下问题:用户关于登记的用户命令所说的所说语音可以被识别为与相应用户命令不同。因此,如在上述示例中一样,处理器140可以确定具有连续元音的用户命令不适合用作用户命令。根据示例实施例,处理器140可以使用包括在确定登记合适性模块中的模块中与第一和第二条件相对应的模块以及与第三至第五条件中的至少一个相对应的模块来确定用户命令的登记合适性。
例如,如果根据文本类型的用户命令“skype TV”生成了音标[skaip_TV],则处理器140使用包括在确定登记合适性的模块中的模块中与第一和第二条件相对应的模块来分析音标[skaip_TV]以确定相应用户命令的登记合适性。作为确定结果,如果音标[skaip_TV]的总数大于等于预定数量,并且元音和辅音中的至少一个不是连续的,则处理器140确定用户命令“skype TV”与第一和第二条件相匹配。这样,如果用户命令与第一和第二条件相匹配,则处理器140使用确定登记合适性的模块中包括的模块中与第三至第五条件中的至少一个相对应的模块来分析音标[skaip_TV],以确定相应用户命令的登记合适性。
具体地,处理器140通过与第三条件相对应的模块来分析音标[skaip_TV]的配置形式,以确定是否以与预定样式相对应的顺序分布配置了相应音标的组成部分。
例如,可以用辅音、辅音、元音、元音、辅音、辅音等的顺序来定义被预定义的第一样式,可以用元音、辅音、符号、破擦音、元音、辅音等的顺序来定义第二样式,以及可以用辅音、元音、辅音、元音、辅音、元音、辅音等的顺序来定义第三样式。
在这种情况下,处理器140可以确定基于第一至第三样式中的第一样式列出配置音标[skaip_TV]的组成部分。
同时,如在上述示例中,可以根据文本类型的用户命令“kangazi”来生成音标[k:ang_a:_zi]。在这种情况下,处理器140可以确定基于第一至第三样式中的第三样式列出配置音标[k:ang_a:_zi]的组成部分。这样,如果确定基于预定样式列出了配置根据文本类型的用户命令生成的配置音标的组成部分,则处理器140确定用户命令与第三条件相匹配。
如果用户命令与第三条件相匹配,则处理器140通过与第四条件相对应的模块来确定配置用户命令的单词数和每个单词的音标数是大于等于预定数量,还是小于预定数量。
如上述示例中,关于用户命令“skype TV”生成的音标[skaip_TV]可以与第三条件相匹配。在这种情况下,处理器140通过与第四条件相对应的模块来确定配置用户命令的单词数和音标[skaip_TV]中的每个单词的音标数是大于等于预定数量,还是小于预定数量。
例如,适于登记的用户命令可以由两个或更多个单词组成,并且可以将每个单词的音标预定为两个或更多。同时,用户命令“skype TV”可以由两个单词“skype”和“TV”配置,并且“skype”和“TV”中的每一个的音标可以是[skaip]和[TV]。在这种情况下,用户命令“skype TV”可以由两个单词配置,并且每个单词的音标数可以是两个或更多。这样,如果配置用户命令“skype TV”的单词数和每个单词的音标数是大于等于预定数量,或小于预定数量,则处理器140可以确定用户命令“skype TV”与第四条件相匹配。
如果用户命令与第四条件匹配,则处理器140通过与第五条件相对应的模块来确定配置用户命令的每个单词的音标的开始和结尾的音标是否包括预定义的弱音标。这里,预定义弱音标可以是由于例如生活噪声等的周围环境而降低或丢失了特定发音的频带或能量幅度使得其识别率降级的特定发音的音标。通常,在其中发音用例如[s]、[p]、[f]和[k]的音标开始或结尾的情况下,与相应音标相关联的发音具有通过周围环境降低或丢失了的频带或能量幅度,使得其识别率可能降级。
因此,处理器140对配置用户命令“skype TV”的“skype”和“TV”中的每一个的每个单词的音标进行分析,以确定音标的开始和结尾是否包括预定义的弱音标。如上所述,单词“skype”的音标可以是“[skaip]”,并且上述音标的开始和结尾可以包括[s]和[p]。因此,处理器140可以确定用户命令“skype TV”不与第五条件相匹配。
这样,如果通过与第一和第二条件相对应的模块确定其登记合适的用户命令被通过与第三至第五条件中的至少一个相对应的模块确定为其登记不合适,则处理器140可以最终确定相应用户命令的登记不合适。
根据示例实施例,处理器140可以针对确定登记合适性的模块中包括的与第一至第五条件相对应的各模块确定用户命令的登记合适性,并且可以基于根据确定结果的结果值来确定用户命令的登记合适性。
如上所述,处理器140针对确定登记合适性的模块中包括的与第一至第五条件相对应的各模块确定用户命令的登记合适性。此后,处理器140可以基于每个模块的登记合适性确定结果来计算用户命令的结果值,并可以基于计算出的结果值来最终确定用户命令的登记合适性。
根据示例实施例,处理器140针对包括在确定合适性的模块中的与第一至第五条件相对应的各模块确定用户命令的登记合适性。如果确定关于第一至第五条件中的至少一个条件的登记不合适,则处理器140可以对与第一至第五条件中除登记不合适的条件之外的其他条件相对应的模块的预定参考值求和,以计算用户命令的结果值。
这里,可以将针对与第一至第五条件相对应的各模块设置的参考值设置为彼此相等或彼此不同。在针对与第一至第五条件相对应的各模块设置不同参考值的情况下,可以将在与第一至第五条件相对应的模块中与登记合适性确定参考中的最高优先级相对应的模块的参考值设置为最高,并可以将与最低优先级相对应的模块的参考值设置为最低。如果通过上述示例实施例计算与用户命令的分析结果相对应的结果值,则处理器140可以基于计算出的结果值来最终确定用户命令的登记合适性。
图5是根据本公开的示例实施例基于通过显示装置中的确定登记合适性的模块计算出的结果值来确定用户命令的登记合适性的示意性视图。
处理器140可以针对与确定登记合适性的模块中包括的第一至第五条件相对应的各模块确定用户命令的登记合适性,并可以基于每个模块的登记合适性确定结果来计算用户命令的结果值。
如果计算出了用户命令的结果值,则参照图5中所示的登记确定参考模型500,处理器140可以根据计算出的结果值所属的部分来确定用户命令的登记合适性。
具体地,如果与用户命令的分析结果相对应的结果值属于第一阈值部分510,则处理器140确定用户命令的登记不合适。同时,如果与用户命令的分析结果相对应的结果值属于第二阈值部分530,则处理器140确定用户命令的登记合适。同时,如果与用户命令的分析结果相对应的结果值属于第一和第二阈值部分之间的第三阈值部分520,则处理器140可以根据针对用户命令的用户选择命令来确定用户命令的登记是合适的。
同时,如果与用户命令的分析结果相对应的结果值属于第二阈值部分530,则处理器140可以根据用户的登记请求信息来确定用户命令的登记适合作为控制命令,还是适合作为触发命令。
具体地,在输入用于控制显示装置100的操作的登记请求信息的状态中,与用户命令的分析结果相对应的结果值可以属于第二阈值部分530的第2-1阈值部分531。在这种情况下,处理器140可以确定用户命令的登记适合作为控制显示装置100的操作的控制命令。
同时,在输入用于在语音识别模式下操作显示装置100的登记请求信息的状态中,与用户命令的分析结果相对应的结果值可以属于第二阈值部分530的第2-2阈值部分533。在这种情况下,处理器140可以确定用户命令的登记适合作为在语音识别模式下操作显示装置100的触发命令。
同时,在输入用于在语音识别模式下操作显示装置100的登记请求信息的状态中,如果与用户命令的分析结果相对应的结果值属于第二阈值部分530的第2-1阈值部分531,则处理器140可以根据用户命令的用户的选择命令确定用户命令的登记适合作为在语音识别模式下操作显示装置100的触发命令。
同时,根据本公开的一方面,在处理器140确定用户所说语音和多个预登记的命令之间的相似性或用户所说语音是否与禁用命令相对应之后,处理器140可以根据上述各示例实施例来确定用户命令的登记合适性。
根据示例实施例,处理器140使用相似性算法(例如混淆矩阵)来测量根据用户命令生成的音标与预存储的多个命令的音标之间的相似性,以相应地计算可靠性值。此后,处理器140将各个计算出的可靠性值与预定阈值进行比较,以确定各个可靠性值是否小于预定阈值。作为确定结果,如果至少一个可靠性值是预定阈值或更多,则处理器140确定用户命令和至少一个预登记的命令彼此类似,并确定用户命令的登记不合适。同时,如果全部可靠性值小于预定阈值,则处理器140确定用户命令的登记是合适的。
根据示例实施例,处理器140参考在存储单元170中登记并存储的禁用命令,确定用户命令是否是不可登记的命令。作为确定结果,如果用户命令与至少一个禁用命令相关联,则处理器140确定用户命令的登记是不合适的。同时,如果用户命令与至少一个禁用命令不相关联,则处理器140确定用户命令的登记是合适的。
在这种情况下,如上所述,处理器140可以执行以下操作的至少一个:确定用户命令是否与预登记的命令相似的第一确定操作,和确定相应用户命令是否是禁用命令的第二确定操作。
如果主要通过上述第一确定操作和第二确定操作的至少一个确定用户命令的登记合适性,则处理器140根据上述各示例实施例确定用户命令的登记合适性。如果确定用户命令的登记是合适的,则处理器140可以通过输出单元120提供用户命令的登记合适性确定结果。具体地,如果确定用户命令的登记是合适的,则音频输出单元123根据处理器140的控制命令来输出用户命令的音频。在输出上述音频的状态中,如果在预定阈值时间内输入了用户所说语音,则处理器140根据用户命令的文本与用户所说语音的文本之间的相似性的程度来在存储单元170中登记并存储用户命令。具体地,如果在输出用户命令之后输入了所说语音,则处理器140可以将输入的所说语音转换为文本类型,或从语音识别装置300接收转换为文本类型的语音识别结果。此后,处理器140使用相似性算法(例如混淆矩阵)来测量用户命令的音标与所说语音的音标之间的相似性,并且如果根据该测量的相似性值是预定阈值或更多,则在存储单元170中登记并存储用户命令。
同时,如果确定用户命令的登记不合适,则显示单元121显示根据预定的合适性确定条件分析得到的分析结果和引导可登记的用户命令的引导UI。因此,用户可以参照在显示装置100的屏幕上显示的引导UI,重新输入与登记确定条件相匹配的用户命令。
以下,在显示装置100中用户命令的登记不合适的情况下,将具体参照图6至8来描述根据上述不合适登记的提供确定结果的操作。
图6是根据本公开的示例实施例提供显示装置中的用户命令的登记不合适性确定结果的第一示意性视图。
如图6中所示,可以通过上述确定登记合适性的模块中包括的模块中与第四条件相对应的模块,来确定用户定义的第一用户命令610的登记不合适。如上所述,与第四条件相对应的模块是确定配置用户命令的相应单词的数量和与每个单词相对应的音标数量大于等于预定数量、还是小于预定数量的模块。
因此,如果配置第一用户命令610的相应单词数超过预定数量,则处理器140可以确定第一用户命令610的登记不合适。这样,如果确定第一用户命令610的登记不合适,则显示装置100可以通过显示单元121在其屏幕上显示引导UI 620“这是过长的命令”。
因此,用户可以参照屏幕上显示的引导UI 620,来重新输入由比第一用户命令610的单词更少的单词所组成的用户命令。
图7是根据本公开的示例实施例提供显示装置中的用户命令的登记不合适性确定结果的第二示意性视图。
如图7中所示,可以通过上述确定登记合适性的模块中包括的模块中与第四条件相对应的模块,来确定用户定义的第二用户命令710的登记不合适。如上所述,与第四条件相对应的模块是确定配置用户命令的相应单词的数量和与每个单词相对应的音标数量大于等于预定数量、还是小于预定数量的模块。
因此,如果配置第二用户命令710的相应单词数小于预定数量,则处理器140可以确定第二用户命令710的登记不合适。这样,如果确定第二用户命令710的登记不合适,则显示装置100可以通过显示单元121在其屏幕上显示包括确定结果信息“输入命令不适于登记”以及用户命令的推荐信息(例如“推荐:运行Skype、Skype TV”)的引导UI 720。
因此,用户可以参照关于通过引导UI 720在屏幕上显示的第二用户命令710推荐的用户命令,来重新输入他或她想要的用户命令。
图8是根据本公开的示例实施例提供显示装置中的用户命令的登记不合适性确定结果的第三示意性视图。
如图8中所示,可以通过上述确定登记合适性的模块中包括的模块中与第五条件相对应的模块,来确定用户定义的第三用户命令810的登记不合适。如上所述,与第五条件相对应的模块是确定配置用户命令的音标中开始和结尾的音标是否是预定义的弱音标的模块。
因此,如果配置第三用户命令810的各单词的音标的开始或结尾的至少一个的音标是弱音标,则处理器140可以确定第三用户命令810的登记不合适。这样,如果确定第三用户命令810的登记不合适,则显示装置100可以通过显示单元121在其屏幕上显示包括确定结果信息“这包括不合适的发音”和引导不合适的发音的发音信息例如“Skype[S,Pe]”的引导UI 820。
因此,用户可以参照屏幕上显示的引导UI 820,来重新输入排除了不合适的弱发音的用户命令。
以上,已经详细描述了根据本公开登记在显示装置100中由用户定义的用户命令操作。以下,将具体描述根据本公开的显示装置100中由用户定义的登记用户命令的方法。
图9是根据本公开的示例实施例用于确定显示装置中的用户命令的登记合适性的方法的流程图。
如图9所示,如果输入了用户定义的用户命令,则显示装置100确定输入用户命令是文本类型的命令还是所说语音(操作S910和操作S920)。
具体地,如果输入了用户定义的用户命令的登记请求信息,则显示装置100进入用户命令的登记执行模式。这里,登记请求信息可以是登记与用于进入语音识别模式的触发命令相关联的用户命令的请求信息,或登记用于控制显示装置100的操作的控制命令相关联的用户命令的请求信息。
在输入这种登记请求信息的状态中,显示装置100确定是否从输入装置200输入了与用户的登记请求相对应的用户命令。作为确定结果,如果通过例如麦克风(未示出)或遥控器的输入装置200输入了用户命令的所说语音,则显示装置100从语音识别装置300接收被转换为文本的所说语音的语音识别结果(操作S930)。然而,本公开不限于此。如果没有执行与语音识别装置300的数据通信,或通过麦克风输入了用户命令的所说语音,则显示装置100可以使用语音到文本(STT)算法来将用户所说语音转换为文本。同时,向显示装置100发送针对与用户命令相关联的所说语音的语音识别结果的所说语音识别装置300可以向显示装置100发送关于用户所说语音的至少一个文本类型的语音识别结果。因此,在从语音识别装置300接收用户所说语音的多个文本的情况下,显示装置100显示多个文本的列表。此后,如果输入针对一个文本的选择命令,则显示装置100可以确定与输入选择命令相对应的文本作为用户所说语音的文本。
如果根据上述各示例实施例输入了文本类型的用户命令,则显示装置100基于预定的音标集来生成文本类型的用户命令的音标(操作S940)。此后,显示装置100基于预先确定的合适性确定条件分析生成的音标,以确定用户命令的登记合适性(操作S950)。此后,显示装置100提供用户命令的登记合适性确定结果(操作S960)。
具体地,显示装置100根据关于合适性确定条件预先确定的登记合适性确定模块,来分析关于用户命令的预生成的音标,以确定用户命令的登记合适性。这里,如图4中所描述的,确定登记合适性可以包括以下模块的至少一个:分析音标总数的模块(第一条件)、分析配置音标的元音和辅音的配置的模块(第二条件)、分析音标的配置形式的模块(第三条件)、分析配置用户命令的每个单词的音标的模块(第四条件)、检测弱音标的模块(第五条件)。由于已经参照图4描述了相应模块,将省去其具体描述。
根据示例实施例,显示装置100可以使用确定登记合适性的模块中包括的模块中与第一和第二条件相对应的模块,来分析根据用户命令生成的音标,以确定用户命令的登记合适性。
根据示例实施例,显示装置100可以使用确定登记合适性的模块中包括的模块中与第一和第二条件相对应的模块和与第三至第五条件中的至少一个相对应的模块,来确定用户命令的登记合适性。
根据示例实施例,显示装置100可以针对在确定登记合适性的模块中包括的与第一至第五条件相对应的各模块确定用户命令的登记合适性,并可以基于根据确定结果的结果值来最终确定用户命令的登记合适性。
具体地,显示装置100针对确定登记合适性的模块中包括的与第一至第五条件相对应的各模块确定用户命令的登记合适性。如果确定关于第一至第五条件的至少一个条件的登记不合适,则显示装置100可以对与第一至第五条件中除登记不合适的条件之外的其他条件相对应的各模块的预定的参考值求和,以计算用户命令的结果值。
这里,可以将针对与第一至第五条件相对应的各模块设置的参考值设置为彼此相等或彼此不同。在针对与第一至第五条件相对应的各模块设置不同参考值的情况下,可以将在与第一至第五条件相对应的模块中与登记合适性确定参考中的最高优先级相对应的模块的参考值设置为最高,并可以将与最低优先级相对应的模块的参考值设置为最低。
因此,如果通过上述确定合适性的模块计算出了用户命令的结果值,则显示装置100可以参照登记确定参考模型,根据计算出的结果值所属的部分来确定用户命令的登记合适性。具体如图5中所示,如果与用户命令的分析结果相对应的结果值属于第一阈值部分510,则显示装置100确定用户命令的登记不合适。同时,如果与用户命令的分析结果相对应的结果值属于第二阈值部分530,则显示装置100确定用户命令的登记合适。同时,如果与用户命令的分析结果相对应的结果值属于第一和第二阈值部分之间的第三阈值部分520,则显示装置100可以根据针对用户命令的用户选择命令来确定用户命令的登记是合适的。
同时,显示装置100可以根据用户的登记请求信息来确定属于第二阈值部分的用户命令的登记适合用作控制命令还是适合用作触发命令。
同时,根据本公开的方面,在显示装置100确定用户所说语音和多个预登记的命令之间的相似性或用户所说语音是否与禁用命令相对应之后,显示装置100可以根据上述各示例实施例来确定用户命令的登记合适性。根据示例实施例,显示装置100根据多个预登记的命令与用户命令之间的相似性程度来确定用户命令的登记合适性(第一确定操作)。作为确定结果,如果确定用户命令与多个命令的至少一个相似,则显示装置100确定用户命令的登记不合适。同时,如果确定用户命令与多个命令不相似,则显示装置100可以根据上述各示例实施例执行确定用户命令的登记合适性的操作。
根据示例实施例的显示装置100参考预登记的禁用命令确定用户命令是否是未登记的命令(第二确定操作)。作为确定结果,如果用户命令与至少一个禁用命令相关联,则显示装置100确定用户命令的登记是不合适的。同时,如果用户命令与至少一个禁用命令不相关联,则显示装置100可以执行根据上述各示例实施例的确定用户命令的登记合适性的操作。
在这种情况下,显示装置100可以执行以下操作的至少一个:确定用户命令是否与预登记的命令相似的第一确定操作,和确定相应用户命令是否是禁用命令的第二确定操作。
如果主要通过第一确定操作和第二确定操作的至少一个确定了用户命令的登记合适性,则显示装置100提供用户命令的登记合适性确定结果。具体地,如果确定用户命令的登记不合适,则显示单元100在其屏幕上显示根据关于合适性确定条件预定的确定登记合适性的模块分析的分析结果信息和引导可登记的用户命令的引导UI。相应地,用户可以参照在显示装置100的屏幕上显示的引导UI来重新输入或说出可登记的用户命令。同时,如果确定用户命令的登记是合适的,则显示装置100输出用户命令的音频。在输出上述用户命令的音频之后,显示装置100可以根据以下操作来执行相应用户命令的登记。
图10是根据本公开的示例实施例显示装置中的登记用户命令的方法的流程图。
如图10所示,如果确定用户命令的登记是合适的,则显示装置100输出用户命令的音频(操作S1010)。此后,显示装置100确定在预定的阈值时间内是否输入了用户所说语音(操作S1020)。作为确定结果,如果在预定阈值时间内输入了所说语音,则显示装置100根据用户命令的文本与输入所说语音的文本之间的相似性程度来登记用户命令(操作S1030和操作S1040)。
具体地,如果在输出用户命令的音频之后输入了所说语音,则显示装置100可以将输入的所说语音转换为文本类型,或从语音识别装置300接收转换为文本类型的语音识别结果。此后,显示装置100使用相似性算法(例如混淆矩阵)来测量用户命令的音标与所说语音的音标之间的相似性,并且如果根据测量小于预定阈值,则重新讲话。此后,如果重新输入了用户所说语音,则显示装置100重新执行上述操作(操作S1030和操作S1040)。如果通过上述重新执行的用户命令和所说语音之间测量的相似性值大于等于预定阈值或小于预定阈值,则显示装置100结束执行用户命令的登记的操作。同时,如果通过操作(操作S1040)在用户命令和所说语音之间测量的相似性值大于等于预定阈值,则显示装置100登记并存储用户命令(操作S1050)。在通过上述操作登记了用户定义的用户命令之后,用户可以通过与预登记的用户命令相关联的所说语音来控制显示装置100的操作。
此外,可以在执行如上所述的登记用户命令的方法的至少一个执行程序中实现上述登记用户命令的方法,其中可以在非瞬时性计算机可读介质中存储执行程序。
可以在程序中实现根据上述各示例实施例的显示装置的登记用户命令的方法,以便供给显示装置。具体地,可以在非瞬时性计算机可读介质中存储并提供包括显示装置的登记用户命令的方法的程序。
非瞬时性计算机可读介质不是指短时间存储数据的介质(例如寄存器、高速缓存、存储器等),而是指半永久地存储数据的机器可读介质。具体地,可以在非瞬时性计算机可读介质(例如压缩光盘(CD)、数字多功能光盘(DVD)、硬盘、蓝光盘、(通用串行总线)USB存储卡和只读存储器(ROM)等)中存储和提供上述程序。
根据上述本公开的示例实施例,显示装置可以登记在用户定义的用户命令中的抗误识别并保证高识别率的用户命令。
以上,已经参照其示例实施例描述了本公开。
尽管为了说明的目的已经描述了本公开的示例实施例,本领域技术人员将理解的是,可以做出各种修改、添加和替代,而不离开根据所附权利要求中所公开的本公开的范围和精神。因此,应当理解这种修改、添加和替代落入本公开的范围内。
Claims (15)
1.一种显示装置,包括:
输入单元,被配置为接收用户命令;
输出单元,被配置为输出用户命令的登记合适性确定,以及
处理器,被配置为生成用户命令的音标,分析生成的音标以确定用户命令的登记合适性,并控制所述输出单元输出针对用户命令的登记合适性确定。
2.根据权利要求1所述的显示装置,其中处理器分析生成的音标的数量和生成的音标中的元音和辅音的连续配置中的至少一个,以确定用户命令的登记合适性。
3.根据权利要求2所述的显示装置,其中处理器还分析以下各项中的至少一个以确定用户命令的登记合适性:生成的音标的配置形式、针对每个单词生成的音标的数量、以及生成的音标是否包括弱音标,以及
所述弱音标包括由于周围环境而降低或丢失频带或能量幅度使得其识别率降级的特定发音的音标。
4.根据权利要求2所述的显示装置,其中如果确定用户命令的登记不合适,则输出单元显示引导可登记用户命令的用户界面UI;并且如果确定用户命令的登记合适,则输出用户命令的音频。
5.根据权利要求4所述的显示装置,还包括存储单元,
其中,如果在输出用户命令的音频的状态下输入用户命令的所说语音,则处理器根据用户命令的文本与所说语音的文本之间的相似性在存储单元中登记并存储用户命令。
6.根据权利要求2所述的显示装置,其中处理器确定用户命令的登记合适性,并且在用户命令的登记合适性既不属于合适情况也不属于不合适情况的情况下,根据用户的选择命令在存储单元中登记并用户命令。
7.根据权利要求1所述的显示装置,其中处理器测量多个预登记命令的音标与用户命令的音标之间的相似性,以根据测量出的相似性来确定用户命令的登记合适性。
8.根据权利要求1所述的显示装置,其中处理器根据用户命令是否与禁用命令相对应,来确定用户命令的登记合适性。
9.根据权利要求1所述的显示装置,其中如果输入了用户命令的所说语音,则输入单元从语音识别装置接收所说语音的一个或更多个文本,以及
处理器确定用户在一个或更多个输入文本中选择的文本,作为用户命令的文本。
10.根据权利要求1所述的显示装置,其中用户命令包括用于进入语音识别模式的触发命令和用于控制显示装置的操作的控制命令中的至少一个。
11.一种登记用户命令的方法,所述方法包括:
接收用户命令;
基于预定义的音标集生成用户命令的音标;
通过分析生成的音标来确定用户命令的登记合适性;以及
提供针对用户命令的登记合适性确定。
12.根据权利要求11中所述的方法,其中在确定登记合适性时,通过分析生成的音标的总数量和生成的音标中的元音和辅音的连续配置中的至少一个,来确定用户命令的登记合适性。
13.根据权利要求12中所述的方法,其中在确定登记合适性时,还通过分析以下各项中的至少一个来确定用户命令的登记合适性:生成的音标的配置形式、针对每个单词生成的音标的数量、以及生成的音标是否包括弱音标,以及
所述弱音标包括由于周围环境而降低或丢失频带或能量幅度使得其识别率降级的特定发音的音标。
14.根据权利要求12中所述的方法,其中在提供针对用户命令的登记合适性确定时,如果确定用户命令的登记不合适,则提供引导可登记用户命令的用户界面UI;并且如果确定用户命令的登记合适,则输出用户命令的音频。
15.根据权利要求14中所述的方法,还包括:
如果在输出用户命令的音频的状态下输入用户命令的所说语音,则根据用户命令的文本与所说语音的文本之间的相似性来登记用户命令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011121617.0A CN112216281B (zh) | 2014-11-20 | 2015-11-20 | 用于登记用户命令的显示装置和方法 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2014-0162654 | 2014-11-20 | ||
KR1020140162654A KR102245747B1 (ko) | 2014-11-20 | 2014-11-20 | 사용자 명령어 등록을 위한 디스플레이 장치 및 방법 |
CN201510810660.0A CN105635777B (zh) | 2014-11-20 | 2015-11-20 | 用于登记用户命令的显示装置和方法 |
CN202011121617.0A CN112216281B (zh) | 2014-11-20 | 2015-11-20 | 用于登记用户命令的显示装置和方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510810660.0A Division CN105635777B (zh) | 2014-11-20 | 2015-11-20 | 用于登记用户命令的显示装置和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112216281A true CN112216281A (zh) | 2021-01-12 |
CN112216281B CN112216281B (zh) | 2024-05-24 |
Family
ID=54557298
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510810660.0A Active CN105635777B (zh) | 2014-11-20 | 2015-11-20 | 用于登记用户命令的显示装置和方法 |
CN202011121617.0A Active CN112216281B (zh) | 2014-11-20 | 2015-11-20 | 用于登记用户命令的显示装置和方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510810660.0A Active CN105635777B (zh) | 2014-11-20 | 2015-11-20 | 用于登记用户命令的显示装置和方法 |
Country Status (4)
Country | Link |
---|---|
US (6) | US9830908B2 (zh) |
EP (1) | EP3023978A1 (zh) |
KR (1) | KR102245747B1 (zh) |
CN (2) | CN105635777B (zh) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US9536528B2 (en) * | 2012-07-03 | 2017-01-03 | Google Inc. | Determining hotword suitability |
EP4138075A1 (en) | 2013-02-07 | 2023-02-22 | Apple Inc. | Voice trigger for a digital assistant |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
KR102245747B1 (ko) | 2014-11-20 | 2021-04-28 | 삼성전자주식회사 | 사용자 명령어 등록을 위한 디스플레이 장치 및 방법 |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
KR102343084B1 (ko) * | 2017-03-27 | 2021-12-27 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 기능 실행 방법 |
US10547729B2 (en) | 2017-03-27 | 2020-01-28 | Samsung Electronics Co., Ltd. | Electronic device and method of executing function of electronic device |
DK201770429A1 (en) | 2017-05-12 | 2018-12-14 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
US10504511B2 (en) * | 2017-07-24 | 2019-12-10 | Midea Group Co., Ltd. | Customizable wake-up voice commands |
KR102452644B1 (ko) * | 2017-10-31 | 2022-10-11 | 삼성전자주식회사 | 전자 장치, 음성 인식 방법 및 기록 매체 |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
CN115050358A (zh) * | 2018-08-07 | 2022-09-13 | 华为技术有限公司 | 一种语音控制命令生成方法及终端 |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11869494B2 (en) * | 2019-01-10 | 2024-01-09 | International Business Machines Corporation | Vowel based generation of phonetically distinguishable words |
US11475884B2 (en) * | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US20210158803A1 (en) * | 2019-11-21 | 2021-05-27 | Lenovo (Singapore) Pte. Ltd. | Determining wake word strength |
US11482222B2 (en) | 2020-03-12 | 2022-10-25 | Motorola Solutions, Inc. | Dynamically assigning wake words |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
EP4174850A4 (en) | 2020-09-09 | 2023-12-06 | Samsung Electronics Co., Ltd. | ELECTRONIC VOICE RECOGNITION DEVICE AND CONTROL METHOD THEREFOR |
KR20220033325A (ko) * | 2020-09-09 | 2022-03-16 | 삼성전자주식회사 | 음성 인식을 위한 전자장치 및 그 제어방법 |
CN111935498B (zh) * | 2020-10-16 | 2021-02-05 | 北京达佳互联信息技术有限公司 | 直播互动方法、装置及电子设备 |
CN112558716A (zh) * | 2020-12-11 | 2021-03-26 | 陈君 | 一种基于云计算的用户登记装置及其登记方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002297181A (ja) * | 2001-03-30 | 2002-10-11 | Kddi Corp | 音声認識語彙登録判定方法及び音声認識装置 |
US20030069729A1 (en) * | 2001-10-05 | 2003-04-10 | Bickley Corine A | Method of assessing degree of acoustic confusability, and system therefor |
US6571209B1 (en) * | 1998-11-12 | 2003-05-27 | International Business Machines Corporation | Disabling and enabling of subvocabularies in speech recognition systems |
US20050261903A1 (en) * | 2004-05-21 | 2005-11-24 | Pioneer Corporation | Voice recognition device, voice recognition method, and computer product |
JP2008003371A (ja) * | 2006-06-23 | 2008-01-10 | Alpine Electronics Inc | 車載用音声認識装置及び音声コマンド登録方法 |
CN101730879A (zh) * | 2007-02-21 | 2010-06-09 | 阿瓦亚公司 | 语音邮件过滤和转录 |
CN102301419A (zh) * | 2009-01-30 | 2011-12-28 | 三菱电机株式会社 | 声音识别装置 |
JP2014145932A (ja) * | 2013-01-29 | 2014-08-14 | Sogo Keibi Hosho Co Ltd | 話者認識装置、話者認識方法及び話者認識プログラム |
JP2014174423A (ja) * | 2013-03-12 | 2014-09-22 | Aisin Aw Co Ltd | 音声認識システム、方法およびプログラム |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6760746B1 (en) * | 1999-09-01 | 2004-07-06 | Eric Schneider | Method, product, and apparatus for processing a data request |
KR19990052629A (ko) | 1997-12-23 | 1999-07-15 | 구자홍 | 유사단어 식별기능을 갖는 음성 인식 방법 및 장치 |
KR20000001327A (ko) | 1998-06-10 | 2000-01-15 | 윤종용 | 음성인식을위한 단어 훈련방법 |
KR100308274B1 (ko) | 1998-09-22 | 2001-11-15 | 구자홍 | 가변어휘인식시스템 |
US20060074664A1 (en) | 2000-01-10 | 2006-04-06 | Lam Kwok L | System and method for utterance verification of chinese long and short keywords |
KR20020030156A (ko) | 2000-10-16 | 2002-04-24 | 박기범 | 음성인식을 이용한 컴퓨터 프로그램의 제어방법 |
JP2004029354A (ja) | 2002-06-25 | 2004-01-29 | Toshiba Corp | 音声認識装置、音声認識方法及び音声認識プログラム |
KR100952974B1 (ko) | 2003-06-26 | 2010-04-15 | 주식회사 케이티 | 미등록어 처리를 지원하는 음성 인식 시스템과 방법 및이를 저장한 컴퓨터 판독 가능 기록매체 |
KR100630801B1 (ko) | 2003-07-24 | 2006-10-02 | 주식회사 안다미로 | 음성채팅 및 음성제어가 가능한 아케이드 게임 시스템 및그 제어방법 |
KR100669244B1 (ko) | 2004-12-21 | 2007-01-15 | 한국전자통신연구원 | 음성인식 시스템에서의 svm 기반 멀티플 반모델을사용한 발화검증 장치 및 방법 |
KR101137567B1 (ko) | 2005-02-21 | 2012-04-19 | 주식회사 팬택 | 문자 자동 완성 기능을 제공하는 무선 휴대 단말기 및 그방법 |
US7640160B2 (en) * | 2005-08-05 | 2009-12-29 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
JP2008040197A (ja) | 2006-08-08 | 2008-02-21 | Matsushita Electric Works Ltd | 発話訓練装置 |
US7899673B2 (en) * | 2006-08-09 | 2011-03-01 | Microsoft Corporation | Automatic pruning of grammars in a multi-application speech recognition interface |
JP2009104047A (ja) * | 2007-10-25 | 2009-05-14 | Canon Inc | 情報処理方法及び情報処理装置 |
KR100930587B1 (ko) | 2007-11-28 | 2009-12-09 | 한국전자통신연구원 | 혼동 행렬 기반 발화 검증 방법 및 장치 |
KR100988397B1 (ko) | 2008-06-09 | 2010-10-19 | 엘지전자 주식회사 | 이동 단말기 및 그의 텍스트 수정방법 |
KR101513615B1 (ko) | 2008-06-12 | 2015-04-20 | 엘지전자 주식회사 | 이동 단말기 및 그 음성 인식 방법 |
KR101495183B1 (ko) | 2008-12-01 | 2015-02-24 | 엘지전자 주식회사 | 단말기 및 그 제어 방법 |
JP4772164B2 (ja) | 2009-01-30 | 2011-09-14 | 三菱電機株式会社 | 音声認識装置 |
KR101545881B1 (ko) | 2009-04-22 | 2015-08-20 | 삼성전자주식회사 | 휴대 단말기의 입력 처리 장치 및 방법 |
JP5697860B2 (ja) * | 2009-09-09 | 2015-04-08 | クラリオン株式会社 | 情報検索装置,情報検索方法及びナビゲーションシステム |
US8599836B2 (en) * | 2010-01-27 | 2013-12-03 | Neobitspeak LLC | Web-based, hosted, self-service outbound contact center utilizing speaker-independent interactive voice response and including enhanced IP telephony |
US8438028B2 (en) * | 2010-05-18 | 2013-05-07 | General Motors Llc | Nametag confusability determination |
US9710435B2 (en) * | 2010-10-29 | 2017-07-18 | P. Karl Halton | Object-field-based mathematics system |
CN102004624B (zh) * | 2010-11-11 | 2012-08-22 | 中国联合网络通信集团有限公司 | 语音识别控制***和方法 |
KR101590332B1 (ko) | 2012-01-09 | 2016-02-18 | 삼성전자주식회사 | 영상장치 및 그 제어방법 |
JP5900052B2 (ja) | 2012-03-15 | 2016-04-06 | オムロン株式会社 | 登録判定装置、その制御方法および制御プログラム、並びに電子機器 |
KR20130140423A (ko) | 2012-06-14 | 2013-12-24 | 삼성전자주식회사 | 디스플레이 장치, 대화형 서버 및 응답 정보 제공 방법 |
US20130346068A1 (en) | 2012-06-25 | 2013-12-26 | Apple Inc. | Voice-Based Image Tagging and Searching |
US9459176B2 (en) | 2012-10-26 | 2016-10-04 | Azima Holdings, Inc. | Voice controlled vibration data analyzer systems and methods |
US9218052B2 (en) * | 2013-03-14 | 2015-12-22 | Samsung Electronics Co., Ltd. | Framework for voice controlling applications |
KR102245747B1 (ko) * | 2014-11-20 | 2021-04-28 | 삼성전자주식회사 | 사용자 명령어 등록을 위한 디스플레이 장치 및 방법 |
-
2014
- 2014-11-20 KR KR1020140162654A patent/KR102245747B1/ko active IP Right Grant
-
2015
- 2015-10-23 US US14/921,237 patent/US9830908B2/en active Active
- 2015-11-16 EP EP15194814.8A patent/EP3023978A1/en not_active Withdrawn
- 2015-11-20 CN CN201510810660.0A patent/CN105635777B/zh active Active
- 2015-11-20 CN CN202011121617.0A patent/CN112216281B/zh active Active
-
2017
- 2017-10-17 US US15/785,722 patent/US10381004B2/en active Active
-
2019
- 2019-05-28 US US16/423,669 patent/US10885916B2/en active Active
-
2020
- 2020-11-30 US US17/106,568 patent/US11495228B2/en active Active
-
2022
- 2022-10-07 US US17/961,848 patent/US11900939B2/en active Active
-
2023
- 2023-10-06 US US18/377,590 patent/US20240038230A1/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6571209B1 (en) * | 1998-11-12 | 2003-05-27 | International Business Machines Corporation | Disabling and enabling of subvocabularies in speech recognition systems |
JP2002297181A (ja) * | 2001-03-30 | 2002-10-11 | Kddi Corp | 音声認識語彙登録判定方法及び音声認識装置 |
US20030069729A1 (en) * | 2001-10-05 | 2003-04-10 | Bickley Corine A | Method of assessing degree of acoustic confusability, and system therefor |
US20050261903A1 (en) * | 2004-05-21 | 2005-11-24 | Pioneer Corporation | Voice recognition device, voice recognition method, and computer product |
JP2008003371A (ja) * | 2006-06-23 | 2008-01-10 | Alpine Electronics Inc | 車載用音声認識装置及び音声コマンド登録方法 |
CN101730879A (zh) * | 2007-02-21 | 2010-06-09 | 阿瓦亚公司 | 语音邮件过滤和转录 |
CN102301419A (zh) * | 2009-01-30 | 2011-12-28 | 三菱电机株式会社 | 声音识别装置 |
JP2014145932A (ja) * | 2013-01-29 | 2014-08-14 | Sogo Keibi Hosho Co Ltd | 話者認識装置、話者認識方法及び話者認識プログラム |
JP2014174423A (ja) * | 2013-03-12 | 2014-09-22 | Aisin Aw Co Ltd | 音声認識システム、方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US10381004B2 (en) | 2019-08-13 |
US20180040321A1 (en) | 2018-02-08 |
US20160148613A1 (en) | 2016-05-26 |
US10885916B2 (en) | 2021-01-05 |
US20240038230A1 (en) | 2024-02-01 |
US11900939B2 (en) | 2024-02-13 |
US20230031603A1 (en) | 2023-02-02 |
US20190279638A1 (en) | 2019-09-12 |
CN112216281B (zh) | 2024-05-24 |
CN105635777B (zh) | 2020-11-06 |
CN105635777A (zh) | 2016-06-01 |
EP3023978A1 (en) | 2016-05-25 |
US11495228B2 (en) | 2022-11-08 |
KR102245747B1 (ko) | 2021-04-28 |
US20210082433A1 (en) | 2021-03-18 |
US9830908B2 (en) | 2017-11-28 |
KR20160060405A (ko) | 2016-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105635777B (zh) | 用于登记用户命令的显示装置和方法 | |
EP3039531B1 (en) | Display apparatus and controlling method thereof | |
US10157272B2 (en) | Systems and methods for evaluating strength of an audio password | |
US9484029B2 (en) | Electronic apparatus and method of speech recognition thereof | |
CN105592343B (zh) | 针对问题和回答的显示装置和方法 | |
EP3089158B1 (en) | Speech recognition processing | |
KR102443087B1 (ko) | 전자 기기 및 그의 음성 인식 방법 | |
KR20160025301A (ko) | 음성 인식이 가능한 디스플레이 장치 및 방법 | |
JP2016521383A (ja) | 少なくとも一つの意味論的単位の集合を改善するための方法、装置およびコンピュータ読み取り可能な記録媒体 | |
US11437046B2 (en) | Electronic apparatus, controlling method of electronic apparatus and computer readable medium | |
KR20160104243A (ko) | 적어도 하나의 의미론적 유닛의 집합을 음성을 이용하여 개선하기 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 | |
KR102456588B1 (ko) | 사용자 명령어 등록을 위한 디스플레이 장치 및 방법 | |
KR102599069B1 (ko) | 사용자 명령어 등록을 위한 디스플레이 장치 및 방법 | |
KR20210098250A (ko) | 전자 장치 및 이의 제어 방법 | |
KR20190104773A (ko) | 전자 장치, 제어 방법 및 컴퓨터 판독 가능 매체 | |
US20220284887A1 (en) | Electronic device for correcting speech input of user and operating method thereof | |
KR102392992B1 (ko) | 음성 인식 기능을 활성화시키는 호출 명령어 설정에 관한 사용자 인터페이싱 장치 및 방법 | |
KR101830210B1 (ko) | 적어도 하나의 의미론적 유닛의 집합을 개선하기 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 | |
JP6221267B2 (ja) | 音声認識装置及び方法、並びに、半導体集積回路装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |