CN103811005B - 移动终端及其控制方法 - Google Patents

移动终端及其控制方法 Download PDF

Info

Publication number
CN103811005B
CN103811005B CN201310424998.3A CN201310424998A CN103811005B CN 103811005 B CN103811005 B CN 103811005B CN 201310424998 A CN201310424998 A CN 201310424998A CN 103811005 B CN103811005 B CN 103811005B
Authority
CN
China
Prior art keywords
mobile terminal
controller
execution
loading
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201310424998.3A
Other languages
English (en)
Other versions
CN103811005A (zh
Inventor
金钟焕
金旻敬
申庆珍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN103811005A publication Critical patent/CN103811005A/zh
Application granted granted Critical
Publication of CN103811005B publication Critical patent/CN103811005B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/487Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/489Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using time information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

公开了一种移动终端及其控制方法。本公开涉及一种具有语音识别功能的移动终端。根据本实施例的移动终端可以包括:麦克风,该麦克风被配置成接收用户语音;用户输入单元,该用户输入单元被配置成感测用户输入;控制器,该控制器被配置成响应于用户输入开始第一操作,并且在完成第一操作之前执行语音识别模式,并且在执行语音识别模式期间识别通过麦克风接收到的语音,以生成识别结果信息,并且基于识别结果信息执行第二操作;显示单元,该显示单元被配置成显示加载屏幕图像,直到第一和第二操作中的至少一个被完成,并且当第二操作被完成时,比基于第一操作的执行结果的第一执行屏幕图像更优先地显示基于第二操作的第二执行屏幕图像。

Description

移动终端及其控制方法
技术领域
本公开涉及一种移动终端,并且更加具体地,涉及一种具有语音识别功能的移动终端及其控制方法。
背景技术
终端基于它的移动性能够被分类成移动或者便携式终端和固定终端。此外,移动终端基于它是否能够由用户直接携带可以进一步被分类成手持终端和车载终端。
例如,随着它变成多功能的,能够允许这样的终端捕捉静止图像或运动图像、播放音乐或视频文件、玩游戏、接收广播等,以便实现为综合多媒体播放器。此外,可以考虑改进终端的结构或者软件要素,以支持和增强终端的功能。
作为改进的示例,能够在移动终端中使用各种算法执行语音识别功能。通过语音识别功能获取的数据可以被用作控制命令。
发明内容
本公开的目的是为了提供一种移动终端,该移动终端使用加载时间处理第二操作的至少一部分,在该加载时间期间处理第一操作。
根据本公开的实施例的移动终端可以包括:麦克风,该麦克风被配置成接收用户语音;用户输入单元,该用户输入单元被配置成感测用户输入;控制器,该控制器被配置成响应于用户输入而开始第一操作,并且在完成第一操作之前执行语音识别模式,并且在执行语音识别模式期间识别通过麦克风接收到的语音,以生成识别结果信息,并且基于识别结果信息执行第二操作。
根据实施例,移动终端可以进一步包括:显示单元,该显示单元被配置成显示加载屏幕图像,直到第一和第二操作中的至少一个被完成,并且当第二操作被完成时,显示基于第二操作的第二执行屏幕图像,否则显示基于第一操作的执行结果的第一执行屏幕图像。
根据实施例,在完成第一操作之后控制器可以保持语音识别模式预定的时间段。
此外,响应于语音接收的终止,并且当在预定的时间段已经过去的时间点处继续执行语音接收时,控制器可以停止语音识别模式的执行。
根据实施例,当执行具有搜索功能的应用作为第一操作,并且关键字或者用于搜索的关键字和命令被识别为识别结果信息时,控制器可以执行使用关键字的搜索作为第二操作。此外,第二执行屏幕图像可以包括基于使用关键字的搜索的搜索结果信息。
根据实施例,当执行具有多个模式的应用作为第一操作时,并且当与模式选择相关联的关键字被识别为识别结果信息时,控制器可以执行多个模式当中的与关键字相对应的模式作为第二操作。
根据实施例,控制器可以在语音识别模式的执行期间控制显示单元在加载屏幕图像上显示至少一个所推荐的字。
根据实施例,移动终端可以进一步包括存储器,该存储器被配置成存储未确认的事件信息。此外,控制器可以使用未确认的事件信息生成至少一个所推荐的字。此外,控制器可以基于终端主体的当前位置和当前时间中的至少一个生成至少一个所推荐的字。
根据实施例,当检测到与识别结果信息相关联的多个操作时,控制器可以控制显示单元在加载屏幕图像上显示用于选择多个操作中的一个的菜单列表。
根据本公开的实施例的移动终端的控制方法可以包括:响应于感测到的用户输入开始第一操作;在完成第一操作之前执行语音识别模式;在语音识别模式的执行期间识别通过麦克风接收到的用户语音,以生成识别结果信息;基于识别结果信息执行第二操作。
根据实施例,控制方法可以进一步包括,显示加载屏幕图像,直到第一和第二操作中的至少一个被完成;当第二操作被完成时,显示基于第二操作的第二执行屏幕图像,并且否则显示基于第一操作的执行结果的第一执行屏幕图像。
根据实施例,控制方法可以进一步包括在完成第一操作之后保持语音识别模式预定的时间段。
此外,控制方法可以进一步包括,响应于语音接收的终止,并且当在预定的时间段已经过去的时间点处继续执行语音接收时,停止语音识别模式的执行。
根据实施例,当执行具有搜索功能的应用作为第一操作时,并且当在执行第二操作的处理期间关键字或者用于搜索的关键字和命令被识别为识别结果信息时,可以执行使用关键字的搜索作为第二操作。此外,在显示第二执行屏幕图像的处理期间,第二执行屏幕图像可以包括基于使用关键字的搜索的搜索结果信息。此外,当执行具有多个模式的应用作为第一操作,并且在执行第二操作的处理期间用于模式选择的关键字和命令被识别为识别结果信息时,可以执行多个模式当中的与关键字相对应的模式作为第二操作。
根据实施例,在显示加载屏幕图像的处理期间,在语音识别模式的执行期间可以显示至少一个所推荐的字。
根据实施例,控制方法可以进一步包括:存储未确认的事件信息;和使用未确认的事件信息生成至少一个所推荐的字。此外,控制方法可以进一步包括基于终端主体的当前位置和当前时间中的至少一个来生成至少一个所推荐的字。
根据实施例,当在显示加载屏幕图像的处理期间检测到与识别结果信息相关联的多个操作时,可以显示用于选择多个操作中的一个的菜单列表。
与计算机程序产品有关的另一方面包括计算机可读介质,在其上有包括程序指令的计算机程序。计算机程序被加载到数据处理单元,以便当通过数据处理单元运行计算机程序时,使数据处理单元执行上述方法。
所有上面的公开可适用于下面的实施例。
附图说明
附图被包括以提供对本发明的进一步理解并且被并入和组成本说明书的一部分,附图图示本发明的实施例并且连同描述一起用作解释本发明的原理。
在附图中:
图1是图示与本公开相关联的移动终端的框图;
图2A和图2B是图示与本公开相关联的移动终端的外观的透视图;
图3是图示根据本公开的实施例的移动终端的控制方法的流程图;
图4至图12是图示与应用了图3的控制方法的移动终端有关的操作示例的概念视图;以及
图13和图14是图示根据本公开的实施例的加载屏幕图像的概念视图。
具体实施方式
在下文中,将参考附图详细地描述本发明的优选实施例,以达到本发明所属领域的普通技术人员能够容易地实现本发明的程度。然而,可以以各种不同的形式实现本发明,并且因此,本发明不限于图示的实施例。为了清楚地描述本发明,省略了与描述无关的部分,并且在整个说明书中相同的附图标记指定相同的组成元件。
在此公开的移动终端可以包括便携式电话、智能电话、膝上型计算机、数字广播移动设备、个人数字助理(PDA)、便携式多媒体播放器(PMP)、导航仪等。然而,本领域的技术人员容易地理解的是,除了为移动用途特别地配置的组成元件之外,根据以下描述的配置可以适用于诸如数字TV、台式计算机等的固定终端。
图1是图示与本发明相关联的移动终端100的框图。
参考图1,移动终端100可以包括:无线通信单元110、音频/视频(A/V)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180、电源单元190等。然而,如图1中图示的组成元件不是必须要求的,并且可以利用比那些示出的元件更多或者更少的元件来实现移动通信终端。
在下文中,将依序描述移动终端100的组成元件110-190。
无线通信单元110可以包括一个或者多个元件,该一个或多个元件允许在移动终端100和无线通信***之间进行无线电通信,或者允许在移动终端100和移动终端100所位于的网络之间进行无线电通信。例如,无线通信单元110可以包括广播接收模块111、移动通信模块112、无线因特网模块113、短程通信模块114、位置信息模块115等。
广播接收模块111通过广播信道从外部广播管理服务器接收广播信号和/或广播关联信息。广播关联信息可以指的是关于广播信道、广播节目、广播服务提供商等的信息。也可以通过移动通信网络来提供广播关联信息。在这样的情况下,可以由移动通信模块112接收广播关联信息。通过广播接收模块111接收到的广播信号和广播关联信息可以被存储在存储器160中。
移动通信模块112通过移动通信网络将无线电信号传送到基站、外部终端以及服务器中的至少一个,和/或从基站、外部终端以及服务器中的至少一个接收无线电信号。无线电信号可以包括语音呼叫信号、视频呼叫信号或根据文本和/或多媒体消息传送和接收的各种类型的数据。
作为用于支持无线因特网接入的模块的无线因特网模块113可以被内置在移动终端100中,或者被外部地安装到移动终端100。可以使用各种无线因特网接入技术,诸如WLAN(无线LAN)、Wi-Fi、Wibro(无线宽带)、Wimax(全球微波接入互操作性)、HSDPA(高速下行链路分组接入)等。
短程通信模块114指的是用于支持短程通信的模块。可以使用各种短程通信技术,诸如蓝牙、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、紫蜂(ZigBee)等。
位置信息模块115是用于获取移动终端100的位置的模块,并且存在着作为代表性示例的GPS模块。
随后,参考图1,A/V(音频/视频)输入单元120接收音频或者视频信号,并且A/V(音频/视频)输入单元120可以包括相机121、麦克风122等。相机121在视频电话呼叫或者图像捕捉模式中处理由图像传感器获得的图像帧,诸如静止或者活动图像。已处理的图像帧可以被显示在显示单元151上。由相机121处理的图像帧可以被存储在存储器160中或者通过无线通信单元110被传送到外部设备。根据移动终端的使用环境可以提供两个或者更多相机121。
麦克风122在电话呼叫模式、记录模式、语音识别模式等中通过麦克风接收外部音频信号,并且将音频信号处理成电语音数据。已处理的语音数据可以被转换成在电话呼叫模式中通过移动通信模块112可传送到移动通信基站的格式,并且被输出。麦克风122可以实现各种类型的噪声消除算法,以消除在接收外部音频信号的处理期间生成的噪声。
用户输入单元130可以生成用于控制终端100的操作的输入数据。用户输入单元130可以配置有键盘、薄膜开关、触摸板(压力/电容)、拨动轮(jog wheel)、拨动开关等。
感测单元140检测用户接触的存在或者不存在,以及移动终端100的当前状态,诸如打开或者关闭配置、移动终端100的位置、移动终端100的方向、移动终端100的加速或者减速等,并且生成用于控制移动终端100的操作的感测信号。例如,当移动终端100是滑盖电话类型时,感测单元140可以感测滑盖电话的打开或者关闭配置。此外,感测单元140可以感测是否从电源单元190供应电力、或者外部设备是否被耦合到接口单元170。
感测单元140可以包括接近传感器141。此外,感测单元140可以包括用于感测对于显示单元151的触摸操作的触摸传感器(未示出)。
触摸传感器可以被实现为触摸膜、触摸片、触摸板等。触摸传感器可以被配置成将施加给显示单元151的特定部分的压力、或者从显示单元151的特定部分生成的电容转换为电输入信号。触摸传感器可以被配置成不仅感测被触摸的位置和被触摸的区域,而且感测触摸压力。
当触摸传感器和显示单元151形成夹层结构时,显示单元151可以被用作输入装置,而不是输出装置。显示单元151可以被称为“触摸屏”。
当存在通过触摸屏的触摸输入时,对应的信号可以被传送到触摸控制器(未示出)。触摸控制器处理从触摸传感器传递的信号,然后将与处理的信号相对应的数据传送到控制器180。因此,控制器180可以感测到已经触摸了显示单元151的哪个区域。
当触摸屏是电容类型时,通过根据感测对象的接近度的电磁场变化来检测感测对象的接近。触摸屏可以被分类为接近传感器141。
接近传感器141指的是在没有机械接触的情况下使用电磁场或者红外线来检测感测对象的存在或者不存在的传感器。接近传感器141具有比接触传感器更长的寿命和更强的实用性。接近传感器141可以包括透光型光电传感器、直接反射型光电传感器、镜反射型光电传感器、高频振荡接近传感器、电容型接近传感器、磁型接近传感器、红外线接近传感器等。
在下文中,为了便于简要解释,密切地靠近触摸屏而没有接触的行为将会被称为“接近触摸”,而指示器实质上接触触摸屏的行为将会被称为“接触触摸”。
接近传感器141感测接近触摸和接近触摸模式(例如,距离、方向、速度、时间、位置、移动状态等)。可以向触摸屏上输出与感测到的接近触摸和感测到的接近触摸模式有关的信息。
输出单元150可以生成与视觉、听觉、触觉有关的输出。输出单元150可以包括显示单元151、音频输出模块153、报警单元154、触觉模块155等。
显示单元151可以显示(输出)在移动终端100中处理的信息。例如,当移动终端100在电话呼叫模式下操作时,显示单元151可以显示与电话呼叫有关的用户界面(UI)或者图形用户界面(GUI)。当移动终端100在视频呼叫模式或者图像捕捉模式下操作时,显示单元151可以显示捕捉的图像、接收到的图像、UI、GUI等。
显示单元151可以包括液晶显示器(LCD)、薄膜晶体管液晶显示器(TFT-LCD)、有机发光二极管(OLED)显示器、柔性显示器、三维(3D)显示器、以及电子墨水显示器中的至少一个。
包括在显示单元151中的显示器(或者显示装置)中的至少一个可以被配置为透明的或者透光型,以允许用户通过其观看外部。其可以被称为透明显示器。透明显示器的代表性示例可以是透明OLED(TOLED)等。在此配置下,用户能够通过由移动终端主体的显示单元151占据的区域来观看定位在移动终端主体的后侧的对象。
根据移动终端100的实现,可以存在两个或者更多个显示单元151。例如,多个显示单元151可以以单独的或者一体化的方式被放置在一个表面上,或者可以被分别放置在不同的表面上。
音频输出模块152可以在呼叫接收模式、呼叫拨打模式、记录模式、语音选择模式、广播接收模式等中输出从无线通信单元110接收到的或者存储在存储器160中的音频数据。音频输出模块152可以输出与在移动终端100中执行的功能有关的音频信号(例如,告警接收到呼叫或者接收到消息的声音等)。音频输出模块152可以包括接收器、扬声器、蜂鸣器等。
报警单元153输出用于通知来自于移动终端100的事件的发生的信号。从移动终端100发生的事件的示例可以包括接收到呼叫、接收到消息、键信号输入、触摸输入等。报警单元153不仅可以输出视频或者音频信号,而且可以输出其他类型的信号,诸如以振动的方式通知事件的发生的信号。因为可以通过显示单元151或者音频输出单元152输出视频或者音频信号,所以显示单元151和音频输出模块152可以被分类为报警单元153的一部分。
触觉模块154生成用户能够感觉的各种触觉效果。通过触觉模块154生成的触觉效果的代表性示例可以包括振动。通过触觉模块154生成的振动可以具有可控制的强度、可控制的模式等。例如,可以以合成的方式或者以顺序的方式输出不同的振动。
触觉模块154可以生成各种触觉效果,不仅包括振动,而且包括相对于被触摸的皮肤表面垂直移动的针的布置、通过喷射端口或者吸入端口的空气喷射力或者空气吸入力、通过皮肤表面的触摸、与电极的接触、通过诸如静电力的刺激的效果、使用吸热装置或者发热装置而再现冷或者热的感觉等。
触觉模块154可以被配置成通过用户的直接接触,或者使用手指或者手的用户肌肉感觉来传送触觉效果。根据移动终端100的配置,可以提供两个或者更多触觉模块154。
存储器160可以存储用于操作控制器180的程序,或者暂时地存储输入/输出数据(例如,电话簿、消息、静止图像、运动图像等)。存储器160可以存储与在触摸屏上执行触摸输入时所输出的各种模式的振动和声音有关的数据。
使用包括闪存型、硬盘型、多媒体卡微型、存储卡型(例如,SD或者DX存储器)、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁存储器、磁盘、光盘等的任何类型的适合的存储介质可以实现存储器160。此外,移动终端100可以操作在因特网上执行存储器160的存储功能的网络存储器。
接口单元170通常可以被实现成将便携式终端与外部设备对接。接口单元170可以允许来自于外部设备的数据接收,对移动终端100中的每个组件的电力递送,或者从移动终端100到外部设备的数据传输。例如,接口单元170可以包括有线/无线头戴式耳机端口、外部充电器端口、有线/无线数据端口、存储卡端口、用于耦合具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等。
识别模块可以被配置为用于存储认证使用移动终端100的权限所需要的各种信息的芯片,其可以包括用户识别模块(UIM)、订户识别模块(SIM)等。此外,可以用一种类型的智能卡实现具有识别模块的装置(在下文中,被称为“识别装置”)。因此,识别装置可以经由端口耦合到移动终端100。
接口单元170可以用作当移动终端100被连接到外部托架时将电力从外部托架供应到移动终端100的路径,或者将用户从托架输入的各种命令信号传输到移动终端100的路径。从托架输入的这样的各种命令信号或者电力可以作为用于识别移动终端100已经被准确地安装到托架的信号而操作。
控制器180通常控制移动终端100的整体操作。例如,控制器180执行与电话呼叫、数据通信、视频呼叫等有关的控制和处理。控制器180可以包括多媒体模块181,该多媒体模块181提供多媒体重放。多媒体模块181可以被配置为控制器180的一部分或者单独的组件。控制器180能够执行模式识别处理,以便将触摸屏上的书写或者绘图输入识别为文本或者图像。
电源单元190可以在控制器180的控制下接收外部电力或内部电力,以提供各种组件所需要的电力。
使用软件、硬件、或者其任何组合在计算机或者类似装置可读介质中可以实现在此描述的各种实施例。
对于硬件实现,它可以通过使用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理装置(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器和被设计成执行在此描述的功能的电子单元中的至少一个来实现。在一些情况下,可以在控制器180本身中实现这样的实施例。
对于软件实现,可以与允许执行至少一个功能或者操作的单独软件模块一起来实现诸如过程或者功能的实施例。通过以任何适合的编程语言编写的软件应用能够实现软件代码。软件代码可以被存储在存储器160中并且由控制器180执行。
在下文中,将描述处理对移动终端100的用户输入的方法。
用户输入单元130***纵以接收用于控制移动终端100的操作的命令,并且可以包括多个操纵单元。操纵单元可以被共同地指定为操纵部分,并且如果它是允许用户利用触感执行操纵的触觉方式,则可以采用任何方法。
各种视觉信息可以被显示在显示单元151上。可以以字符、数字、符号、图形、图标等的形式显示视觉信息。对于视觉信息的输入,可以利用预定的布置来显示字符、数字、符号、图形、以及图标中的至少一个,以便以键盘的形式来实现。这样的键盘可以被称为所谓的“软键”。
显示单元151可以在整个区域上进行操作或者通过划分成多个区域来进行操作。在后述情况下,多个区域可以被配置成以相关联的方式进行操作。例如,输出窗口和输入窗口可以分别被显示在显示单元151的上部分和下部分上。输出窗口和输入窗口分别可以是被分配以输出或者输入信息的区域。在输入窗口上输出软键,在该软键上显示用于输入电话号码等的数字。当软键被触摸时,与被触摸的软键相对应的数字被显示在输出窗口上。当第一操纵单元***纵时,将试图进行对显示在输出窗口上的电话号码的电话呼叫连接,或者显示在输出窗口上的文本将被输入到应用。
显示单元151或者触摸板可以被配置成感测触摸滚动。通过滚动显示单元151或者触摸板,用户可以移动显示在显示单元151上的对象,例如,被放置在图标上的光标或者指示器等。此外,当在显示单元151或者触摸板上移动手指时,通过手指移动的路径可以被视觉地显示在显示单元151上。这对于编辑显示在显示单元151上的图像来说可以是有用的。
为了应对在预定的时间段内一起触摸显示单元151和触摸板的情况,可以实现终端100的一个功能。对于被一起触摸的情况,存在着当用户使用他的或者她的拇指和食指夹住移动终端100的主体时的情况。例如,对于在移动终端100中实现的上述功能之一,可以存在对于显示单元151或者触摸板的激活或者去激活。
图2A和图2B是图示与本公开有关的移动终端100的外观的透视图。图2A是图示移动终端100的前视图和侧视图,并且图2B是图示移动终端100的后视图和另一侧视图。
参考图2A,在此公开的移动终端100被设置具有直板式终端主体。然而,本发明不仅限于这种类型的终端,而且可应用于诸如滑盖式、折叠式、旋转式、旋盖式等的终端的各种结构,在其中,以相对可移动的方式相互组合两个或者多个主体。
终端主体包括形成终端的外观的壳体(外壳、外罩、盖等)。在该实施例中,壳体可以被划分为前壳体101和后壳体102。各种电子组件可以被集成在前壳体101和后壳体102之间形成的空间中。至少一个中间壳体可以被附加地设置在前壳体101和后壳体102之间。
壳体可以通过注模成型合成树脂来形成,或者也可以由诸如不锈钢(STS)、钛(Ti)等的金属材料来形成。
显示单元151、音频输出模块152、相机121、用户输入单元130(参考图1)、麦克风122、接口170等可以被布置在终端主体上,主要在前壳体101上。
显示单元151占据前壳体101的大部分。音频输出单元152和相机121被设置在与显示单元151的两端中的一端相邻的区域上,并且用户输入单元131和麦克风122被设置在与其另一端相邻的区域上。用户接口132和接口170等可以被设置在前壳体101和后壳体102的横向表面上。
用户输入单元130***纵以接收用于控制便携式终端100的操作的命令。用户输入单元130可以包括多个操纵单元131、132。
第一和第二操纵单元131、132可以接收各种命令。例如,第一操纵单元131可以被用于接收命令,诸如开始、结束、滚动等。第二操纵单元132可以被用于接收命令,诸如控制从音频输出单元152输出的音量级别、或者将其切换到显示单元151的触摸识别模式。
参考图2B,相机121’可以被附加地安装在终端主体的后表面,即,后壳体102上。后相机121’具有大体上与前相机121(参考图2A)的方向相反的图像捕捉方向,并且可以具有与前相机121的像素不同数目的像素。
例如,前相机121可以被配置成具有相对小数目的像素,并且后相机121’可以被配置成具有相对大数目的像素。因此,在前相机121被用于视频通信的情况下,当用户捕捉他的或者她自己的面部并且将其实时地发送到另一方时,这能够减少传输数据的大小。另一方面,后相机121’可以被用于存储高质量图像的用途。
另一方面,相机121、121’可以被以可旋转的和可弹出的方式设置在终端主体中。
此外,闪光灯123和镜子124可以被附加地设置为与后相机121’相邻。当利用相机121’捕捉对象时,闪光灯123朝着该对象发光。当通过使用后相机121’捕捉他自己或者她自己(以自拍模式)时,镜子124允许用户以反射的方式看着他或者她自己的面部等。
此外,后音频输出单元152’可以被附加地设置在终端主体的后表面上。后音频输出单元152’与前音频输出单元152(参考图2A)一起能够实现立体声功能,并且其也可以被用于实现电话呼叫期间的扬声器电话模式。
此外,用于接收广播信号的天线116可以被附加地设置在终端主体的横向表面上。组成广播接收模块111(参考图1)的一部分的天线116可以被设置成从终端主体中拉出。
此外,用于将电力供应给便携式终端100的电源单元190可以被安装在终端主体上。电源单元190可以被配置成结合在终端主体中,或者可直接地从终端主体的外部拆卸。
用于检测触摸的触摸板135可以被附加地安装在后壳体102上。与显示单元151(参考图2A)相类似地,可以以透光型来配置触摸板135。可替选地,用于显示视觉信息的后显示单元可以被附加地安装在触摸板135上。这时,可以通过触摸板135来控制显示在前显示单元151和后显示单元的两个表面上的信息。
可以与前壳体101的显示单元151协同地操作触摸板135。触摸板135可以被平行地设置在显示单元151的后侧。触摸板135可以具有与显示单元151相同的大小或者比显示单元151小的大小。
图3是用于解释根据本公开的实施例的移动终端的控制方法的流程图。参考图3,执行响应于用户的输入而开始第一操作的处理。作为第一操作的示例,存在着网站访问、媒体内容的再现、各种应用的执行等等。
可以在移动终端中实现本实施例,该移动终端包括:麦克风,该麦克风被配置成接收用户的语音;用户输入单元,该用户输入单元被配置成感测用户的输入;控制器,该控制器被配置成响应于用户的输入开始第一操作,并且在完成第一操作之前执行语音识别模式,并且在语音识别模式的执行期间识别通过麦克风接收到的语音,以生成识别结果信息,并且基于识别结果信息执行第二操作。
更加具体地,可以响应于被施加到显示单元151的触摸输入来执行应用。为了完成应用的执行,要求一系列的数据处理,并且由于此,从请求特定操作的时间点到完成特定操作的时间点之间出现等待时间。在此,在等待时间期间移动终端100的操作状态可以被称为加载状态。此外,通过完成被请求的操作而获取的信息可以被称为加载结果信息。例如,当应用的执行被完成时,预定的初始屏幕图像可以被显示为加载结果信息(加载结果图像)。
接下来,执行在完成第一操作之前执行语音识别模式的处理(S120)。可以在从开始第一操作的时间点到完成第一操作的时间点之间的时间间隔期间的特定时间点处执行语音识别模式。可以以各种方式控制语音识别模式的激活。例如,继完成第一操作之后,语音识别模式可以被保持预定的时间段。此外,当在预定的时间段已经过去的时间点处继续执行语音接收时,可以响应于语音接收的终止而释放语音识别模式。
执行在语音识别模式期间识别通过麦克风接收到的用户语音以生成识别结果信息的处理(S130)。为此,语音识别引擎可以被驱动。
语音识别引擎使用语音识别算法分析接收到(输入)的语音的意义和上下文(context)。例如,语音识别引擎可以使用语音-文本(STT)算法将语音转换成文本形式的数据,以将其存储在数据库中。通过语音识别算法用户的语音可以被转换成多个数据。在这样的情况下,语音识别引擎可以确定用于多个数据的识别率,并且从多个数据中选择具有最高识别率的数据。
接下来,执行基于识别结果信息执行第二操作的处理(S140)。例如,当执行具有搜索功能的应用作为第一操作,并且用于搜索的关键字和命令被识别为识别结果信息时,可以执行作为第二操作的使用被识别的关键字的搜索。此外,当具有多种模式的应用被执行作为第一操作,并且用于模式选择的关键字和命令被识别为识别结果信息时,可以执行多种模式当中的与关键字相对应的模式作为第二操作。
此外,执行在完成第一和第二操作中的至少一个之前显示加载屏幕图像的处理(S150)。加载屏幕图像指的是在移动终端100的加载状态下显示在显示单元151上的图像。加载屏幕图像可以包括指示加载状态的指示符。
当第二操作被完成时,执行处理(S160):比基于第一操作执行结果的第一执行屏幕图像更优先地显示基于第二操作的第二执行屏幕图像。例如,当在访问网站以用于驱动搜索引擎的同时,使用通过语音识别获取的关键字的搜索被完成时,显示网站的初始屏幕图像的过程将会被忽略,并且包含对于关键字的搜索结果的屏幕图像将会被显示。
如上所述,根据本公开的移动终端100,当处理第一操作时与基于语音识别功能所识别的语音相对应的第二操作可以被同时处理,从而允许用户有效地使用由于移动终端100的加载状态而产生的等待时间。
另一方面,虽然在附图中未示出,但是用户可以选择如何使用在移动终端100的加载状态期间接收到的语音。为此,控制器180可以在显示单元151上显示用于在移动终端100的加载状态期间接收到的语音的设置屏幕。用户可以选择是否使用接收到的语音作为关键字或者将它用作在设置屏幕上的应用的执行命令。此外,用户能够选择是否执行语音识别功能,并且当不存在识别结果信息时选择是否接收所推荐的字。
图4至12是图示与应用了图3的控制方法的移动终端有关的操作示例的概念视图。
可以在移动终端中实现这些实施例,该移动终端包含:麦克风,该麦克风被配置成接收用户语音;用户输入单元,该用户输入单元被配置成感测用户的输入;控制器,该控制器被配置成响应于用户的输入开始第一操作,并且在完成第一操作之前执行语音识别模式,并且在执行语音识别模式期间识别通过麦克风接收到的语音以生成识别结果信息,并且基于识别结果信息执行第二操作。
参考图4,图示了与在用于驱动搜索引擎的网站(在下文中,被称为“搜索网站”)中的搜索功能有关的操作示例。控制器180可以以第一操作使用浏览器应用来访问搜索网站。在初始化对搜索网站的访问之后,控制器180可以控制显示单元151显示加载屏幕图像211。被显示的加载屏幕图像211表示由于第一操作,移动终端100当前处于加载状态下。
此外,控制器180可以在加载状态下执行语音识别模式。这时,加载屏幕图像211可以包括指示加载状态的第一指示符202和指示语音识别模式的第二指示符204中的至少一个。
然而,控制器180可以识别通过麦克风122(参考图1)接收到的用户语音,以生成用于搜索的关键字和命令作为识别结果信息。例如,诸如“Son Yeon-Jae”的关键字可以被识别。在这样的情况下,控制器180可以执行对于“Son Yeon-Jae”的搜索作为第二操作,并且控制显示单元151显示包含所得到的搜索结果信息的执行屏幕图像212。
如果由于语音识别的失败没有接收到用户的语音或者没有执行第二操作,则可以显示当访问搜索网站或者执行浏览器应用时作为基本设置而提供的执行屏幕图像。
参考图5,图示了与使用地图应用的区域搜索有关的操作示例。在下文中,将会省略与前述实施例相同或者相类似的配置和功能的描述。控制器180可以执行地图应用作为第一操作。在初始化地图应用的执行之后,控制器180可以控制显示单元151显示加载屏幕图像221。
然后,控制器180可以在加载状态下识别用户语音以获取区域名称作为关键字。例如,可以识别关键字“江南站”。在这样的情况下,控制器180可以执行对于“江南站”的位置搜索作为第二操作,并且控制显示单元151显示包含“江南站”的位置信息的地图应用的执行屏幕图像222。
参考图6,图示了与使用天气应用提供用于特定区域的天气信息有关的操作示例。控制器180可以执行天气应用作为第一操作。继初始化天气应用的执行之后,控制器180可以控制显示单元151显示加载屏幕图像231。
然后,控制器180可以在加载状态下识别用户语音以获取区域名称作为关键字。例如,关键字“釜山”可以被识别。在这样的情况下,控制器180可以接收“釜山”的天气信息作为第二操作,并且控制显示单元151显示包含“釜山”的天气应用的执行屏幕图像232。
参考图7,图示了与通过浏览器应用切换网站有关的操作示例。控制器180可以执行浏览器应用作为第一操作,并且访问第一网站。继初始化对第一网站的访问之后,控制器180可以控制显示单元151显示加载屏幕图像241。
然后,控制器180可以在加载状态下识别用户语音以获取第二网站的名称作为关键字。例如,关键字“Gogle”可以被识别。在这样的情况下,控制器180可以终止对第一网站的访问,并且使用第二网站“Gogle”的地址信息访问第二网站。此外,控制器180可以控制显示单元151显示浏览器应用的执行屏幕图像242,该浏览器应用包含当访问第二网站时提供的网站信息。
参考图8,图示了与观看广播节目有关的操作示例。控制器180可以执行用于观看广播节目的应用(在下文中,被称为“广播应用”)作为第一操作。继初始化广播应用的执行之后,控制器180可以控制显示单元151显示加载屏幕图像251。
然后,控制器180可以在加载状态下识别用户语音以获取广播频道的名称作为关键字。例如,关键字“SBS”可以被识别。在这样的情况下,控制器180可以通过广播频道“SBS”实时地接收广播节目内容作为第二操作。此外,控制器180可以控制显示单元151显示包含接收到的广播节目内容的广播应用的执行屏幕图像252。
参考图9,图示了与聊天应用有关的操作示例。控制器180可以执行聊天应用作为第一操作。继初始化聊天应用的执行之后,控制器180可以控制显示单元151显示加载屏幕图像261。
然后,控制器180可以在加载状态下识别用户语音以获取谈话参与者的姓名作为关键字。例如,关键字“Son Yeon-Jae”可以被识别。在这样的情况下,控制器180可以控制显示单元151显示聊天应用的执行屏幕图像262作为第二操作,该聊天应用包含在用户和“SonYeon-Jae”之间已经交谈的谈话内容。此外,甚至当由于第一操作的加载状态终止时,控制器180可以保持语音识别模式。
例如,当识别用户的语音以获取谈话参与者的姓名时,控制器180可以继续执行语音识别模式,以接收作为语音数据的要随后通过用户发出的谈话内容,同时显示包含有用户和“Son Yeon-Jae”之间已经交谈的谈话内容的聊天应用的执行屏幕图像262。换言之,控制器180可以将从麦克风122(参考图1)接收到的语音转换成文本形式的数据,并且在聊天应用的执行屏幕图像262上以文本的形式显示被转换的数据。然后,虽然在附图中未示出,但是根据用户的选择,控制器180可以将语音识别模式改变成文本输入模式。
虽然在附图中未示出,但是前述的实施例可以适用于具有诸如SNS、相簿、电子商务、内容流服务等等的应用的搜索功能。
参考图10,图示了与用于媒体内容再现的应用(在下文中,被称为“再现应用”)有关的操作示例。控制器180可以执行再现应用作为第一操作。继初始化再现应用的执行之后,控制器180可以控制显示单元151显示加载屏幕图像271。
然后,控制器180可以在加载状态下识别用户语音以获取媒体内容的名称作为关键字。例如,可以识别关键字“朋友”。在这样的情况下,控制器180可以在存储器160(参考图1)中搜索与“朋友”相对应的媒体内容,作为第二操作以再现内容。此外,控制器180可以控制显示单元151显示再现应用的执行屏幕图像272,该再现应用包含与与被再现的媒体内容有关的再现内容。
当在存储器160中对与关键字相对应的媒体内容的搜索失败时,控制器180可以访问外部内容提供服务器以搜索相关媒体内容。以这样的方式搜索到的媒体内容可以根据用户的输入被下载到移动终端100或者以流方式发送。
参考图11,图示了与捕捉应用有关的操作示例。捕捉应用可以包括多个模式。例如,捕捉应用可以支持诸如人像捕捉(figure capture)模式、接近捕捉(proximitycapture)模式、夜景捕捉模式等等的各种捕捉模式。
控制器180可以驱动相机121(参考图1)作为第一操作以执行捕捉应用。继初始化捕捉应用的执行之后,控制器180可以控制显示单元151显示加载屏幕图像281。
然后,控制器180可以在加载状态下识别用户语音以获取模式选择信息作为关键字。例如,可以识别关键字“人像捕捉”。在这样的情况下,控制器180可以选择和执行多个捕捉模式当中的人像捕捉模式作为第二操作。此外,控制器180可以控制显示单元151显示与人像捕捉模式相对应的捕捉应用的执行屏幕图像282。
参考图12,图示了与在语音识别模式下的识别结果信息有关的多个操作的检测相关的操作示例。当检测到多个操作有关的识别结果信息时,控制器180可以控制显示单元151在加载屏幕图像291上显示用于选择多个操作中的一个的菜单列表206。
例如,当由于对搜索网站的访问,在加载状态下关键字“人像捕捉”可以被识别为识别结果信息时,指示多个操作(诸如对于“Son Yeon-Jae”的搜索操作、对“Son Yeon-Jae”的网迷咖啡馆的访问等等)的菜单列表206可以被显示在加载屏幕图像291上。在此,对于要基于相关操作的执行结果而显示的信息,菜单列表206的项目可以以文本的形式实现或者可以以缩略图图像的形式实现。
控制器180可以响应于对菜单列表206的用户操纵(例如,触摸输入)来选择和执行任意一个操作。此外,控制器180可以根据最新接收到的语音的识别结果来选择和执行任意一个操作。
虽然在附图中未示出,但是当语音识别失败时,控制器180可以控制显示单元151在语音识别失败时向用户显示用于请求语音重新输入的指导消息。
例如,当不存在识别结果信息时,控制器180可以在显示单元151上显示弹出窗口,该弹出窗口包含用于向用户请求语音重新输入的指导消息。
虽然在附图中未示出,但是当不存在语音识别结果值时,控制器180可以在显示单元151上显示有关的所推荐的字。这时,当选择所推荐的字中的任意一个时,控制器180可以选择和执行与所选择的被推荐的字有关的操作。
另一方面,当不存在语音识别结果值时,控制器180可以在显示单元151上显示被识别的关键字。同时,控制器180可以在显示单元151上显示与被识别的关键字相类似的所推荐的字。当选择所推荐的字中的任意一个时,控制器180可以将关键字改变成所选择的被推荐的字,并且选择和执行与所选择的被推荐的字有关的操作。
图13和图14是图示根据本公开的实施例的加载屏幕图像的概念视图。
可以在移动终端中实现这些实施例,该移动终端包含:麦克风,该麦克风被配置成接收用户语音;用户输入单元,该用户输入单元被配置成感测用户的输入;控制器,该控制器被配置成响应于用户的输入开始第一操作,并且在完成第一操作之前执行语音识别模式,并且在执行语音识别模式期间识别通过麦克风接收到的语音以生成识别结果信息,并且基于识别结果信息执行第二操作。
参考图13,控制器180可以在加载状态下在语音识别模式的执行期间生成至少一个所推荐的字312,并且控制显示单元151在加载屏幕图像310上进行显示。
更加具体地,使用存储在存储器160中的未确认的事件信息可以生成所推荐的字312。例如,当诸如错过来电、未确认的文本消息等等的事件发生时,所推荐的字312可以包括呼叫者信息(呼叫者的姓名)、消息的摘要信息等等。然后,当语音识别结果对应于所推荐的字312时,与相关事件有关的功能可以被执行。例如,语音识别结果对应于呼叫者的姓名,控制器180可以对相关呼叫者进行呼叫,或者控制显示单元151显示从相关呼叫者接收到的文本消息。
如上所述,所推荐的字312可以被显示在加载屏幕图像310上,以允许用户发音所推荐的字312,从而限制用于语音识别处理的数据库。结果,可以为语音识别增强快速性和精确性。
根据本公开的实施例,基于终端主体的当前位置和当前时间中的至少一个可以生成所推荐的字312。例如,所推荐的字312可以对应于在过去在当前位置处已经使用的关键字。此外,所推荐的字312可以对应于在与当前时间相对应的时区已经使用的关键字。此外,所推荐的字312可以对应于用户已经频繁地使用的应用的名称、功能设置选项等等。
参考图14,图示了与在加载状态下移动终端100的资源管理有关的操作示例。控制器180可以控制显示单元151在加载屏幕图像410上显示图标412,该图标412与在后台中执行的应用(在下文中,被称为“后台应用”)相对应。然后,控制器180可以基于用户的输入(例如,触摸输入、语音输入等等)终止后台应用的执行。因此,可以确保移动终端100的资源以更加有效地处理加载操作,并且结果是,可以减少由于加载状态而产生的等待时间。
根据本公开的实施例,可以在写入程序的介质上将前述方法实现为通过处理器可读的代码。处理器可读介质的示例可以包括ROM、RAM、CD-ROM、磁带、软盘、光学数据存储设备等,并且也包括以载波形式实现(例如,经由互联网的传输)的装置。
根据上述实施例的配置和方法不会以有限的方式适用于前述的移动终端,并且每个实施例的全部或者部分可以被选择性地组合,并且被配置成对其进行各种修改。

Claims (10)

1.一种移动终端,包括:
相机;
显示单元;
麦克风,所述麦克风被配置成接收用户语音;
用户输入单元,所述用户输入单元被配置成感测用户输入;
控制器,所述控制器被配置成:
响应于感测到的用户输入加载具有多个捕捉模式的捕捉应用,
控制所述显示单元以在所述捕捉应用的加载期间显示加载屏幕图像,
当在所述加载完成之前接收到语音命令时,基于所述语音命令选择所述多个捕捉模式中的任意一个;以及
控制所述显示单元以在所述加载完成之后显示所述捕捉应用的执行屏幕,其中在所述加载完成之后显示的所述执行屏幕根据在所述加载期间是否接收到所述语音命令而改变。
2.根据权利要求1所述的移动终端,其中所述控制器进一步被配置成:
在加载状态中执行和保持语音识别模式用于完成所述捕捉应用的加载;
在所述语音识别模式的执行期间识别通过所述麦克风接收到的语音以生成识别结果信息;以及
在完成所述加载之后,保持所述语音识别模式预定的时间段。
3.根据权利要求2所述的移动终端,其中所述控制器被进一步配置成:响应于语音接收的终止,并且当在已经经过所述预定的时间段的时间点处继续执行所述语音接收时,停止所述语音识别模式的执行。
4.根据权利要求2所述的移动终端,其中所述控制器进一步被配置成:在所述语音识别模式的执行期间控制所述显示单元在所述加载屏幕图像上显示至少一个所推荐的字。
5.根据权利要求4所述的移动终端,进一步包括:
存储器,所述存储器被配置成存储未确认的事件信息,
其中所述控制器进一步被配置成使用所述未确认的事件信息,生成所述至少一个所推荐的字。
6.根据权利要求4所述的移动终端,其中所述控制器基于终端主体的当前位置和当前时间中的至少一个来生成所述至少一个所推荐的字。
7.根据权利要求1所述的移动终端,其中,当检测到与所述识别结果信息相关联的多个捕捉模式时,所述控制器控制所述显示单元在所述加载屏幕图像上显示用于选择所述多个捕捉模式中的一个的菜单列表。
8.一种移动终端的控制方法,所述方法包括:
响应于感测到的用户输入加载具有多个捕捉模式的捕捉应用;
在所述加载期间显示加载屏幕图像,
当在所述加载完成之前接收到语音命令时,基于所述语音命令选择所述多个捕捉模式中的任意一个;以及
在所述加载完成之后显示所述捕捉应用的执行屏幕,其中在所述加载完成之后显示的所述执行屏幕根据在所述加载期间是否接收到所述语音命令而改变。
9.根据权利要求8所述的方法,进一步包括:
在加载状态中执行和保持语音识别模式用于完成所述捕捉应用的执行;
在所述语音识别模式的执行期间识别通过所述麦克风接收到的用户语音以生成识别结果信息;以及
在完成所述加载之后保持所述语音识别模式预定的时间段。
10.根据权利要求9所述的方法,进一步包括:
响应于语音接收的终止,并且当在已经经过所述预定的时间段的时间点处继续执行所述语音接收时,停止所述语音识别模式的执行。
CN201310424998.3A 2012-11-13 2013-09-17 移动终端及其控制方法 Expired - Fee Related CN103811005B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0128354 2012-11-13
KR1020120128354A KR101990037B1 (ko) 2012-11-13 2012-11-13 이동 단말기 및 그것의 제어 방법

Publications (2)

Publication Number Publication Date
CN103811005A CN103811005A (zh) 2014-05-21
CN103811005B true CN103811005B (zh) 2017-01-18

Family

ID=48948232

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310424998.3A Expired - Fee Related CN103811005B (zh) 2012-11-13 2013-09-17 移动终端及其控制方法

Country Status (4)

Country Link
US (1) US20140136213A1 (zh)
EP (1) EP2731028A3 (zh)
KR (1) KR101990037B1 (zh)
CN (1) CN103811005B (zh)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101590332B1 (ko) 2012-01-09 2016-02-18 삼성전자주식회사 영상장치 및 그 제어방법
US10108310B2 (en) * 2013-08-16 2018-10-23 Marvell World Trade Ltd Method and apparatus for icon based application control
KR101805328B1 (ko) * 2013-09-27 2017-12-07 폭스바겐 악티엔 게젤샤프트 사용자 인터페이스 및 조작 유닛의 조작 시 사용자를 지원하는 방법
KR102158315B1 (ko) * 2013-10-14 2020-09-21 삼성전자주식회사 음성 제어를 수행하는 디스플레이 장치 및 그 음성 제어 방법
US10997529B2 (en) * 2015-07-09 2021-05-04 Lg Electronics Inc. Mobile device and control method therefor
KR102399764B1 (ko) * 2015-09-22 2022-05-19 삼성전자 주식회사 전자 장치 및 촬영 방법
CN105898026B (zh) * 2015-12-30 2020-03-06 乐融致新电子科技(天津)有限公司 移动终端录音提示方法、提示装置及其移动终端
KR102498364B1 (ko) * 2016-03-24 2023-02-10 삼성전자주식회사 전자 장치 및 전자 장치에서의 정보 제공 방법
US10621992B2 (en) 2016-07-22 2020-04-14 Lenovo (Singapore) Pte. Ltd. Activating voice assistant based on at least one of user proximity and context
KR20180024927A (ko) * 2016-08-31 2018-03-08 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 제어 방법
US10466963B2 (en) * 2017-05-18 2019-11-05 Aiqudo, Inc. Connecting multiple mobile devices to a smart home assistant account
US10664533B2 (en) 2017-05-24 2020-05-26 Lenovo (Singapore) Pte. Ltd. Systems and methods to determine response cue for digital assistant based on context
KR102471493B1 (ko) * 2017-10-17 2022-11-29 삼성전자주식회사 전자 장치 및 음성 인식 방법
KR102480570B1 (ko) * 2017-11-10 2022-12-23 삼성전자주식회사 디스플레이장치 및 그 제어방법
JP7101525B2 (ja) * 2018-04-20 2022-07-15 キヤノン株式会社 電子機器およびその制御方法、並びに、プログラム
JP6983118B2 (ja) 2018-06-26 2021-12-17 株式会社日立製作所 対話システムの制御方法、対話システム及びプログラム
CN109032734B (zh) * 2018-07-13 2020-09-01 维沃移动通信有限公司 一种后台应用程序显示方法和移动终端
CN109151564B (zh) * 2018-09-03 2021-06-29 海信视像科技股份有限公司 基于麦克风的设备控制方法及装置
CN109976702A (zh) * 2019-03-20 2019-07-05 青岛海信电器股份有限公司 一种语音识别方法、装置及终端
KR20210066647A (ko) 2019-11-28 2021-06-07 삼성전자주식회사 전자 장치 및 이의 제어 방법
CN111681654A (zh) * 2020-05-21 2020-09-18 北京声智科技有限公司 语音控制方法、装置、电子设备及存储介质
KR20220037299A (ko) 2020-09-17 2022-03-24 삼성전자주식회사 전자 장치 및 그 제어 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1333650A2 (en) * 2002-02-04 2003-08-06 Nokia Corporation Method of enabling user access to services
WO2008004037A1 (en) * 2006-06-30 2008-01-10 Sony Ericsson Mobile Communications Ab Voice remote control
US7551189B2 (en) * 2001-10-25 2009-06-23 Hewlett-Packard Development Company, L.P. Method of and apparatus for digital image processing
CN101640042A (zh) * 2008-07-29 2010-02-03 佳能株式会社 信息处理方法和信息处理设备
CN101729656A (zh) * 2008-10-29 2010-06-09 Lg电子株式会社 移动终端及其控制方法

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6067570A (en) * 1997-10-20 2000-05-23 The Delfin Project, Inc. Method and system for displaying and interacting with an informational message based on an information processing system event
US7437286B2 (en) * 2000-12-27 2008-10-14 Intel Corporation Voice barge-in in telephony speech recognition
US7257537B2 (en) * 2001-01-12 2007-08-14 International Business Machines Corporation Method and apparatus for performing dialog management in a computer conversational interface
WO2005027478A1 (en) * 2003-09-11 2005-03-24 Voice Signal Technologies, Inc. Automatic voice addressing and messaging methods and apparatus
US9117460B2 (en) * 2004-05-12 2015-08-25 Core Wireless Licensing S.A.R.L. Detection of end of utterance in speech recognition system
US9318108B2 (en) * 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
KR101359715B1 (ko) * 2007-08-24 2014-02-10 삼성전자주식회사 모바일 음성 웹 제공 방법 및 장치
JP5144424B2 (ja) * 2007-10-25 2013-02-13 キヤノン株式会社 撮像装置及び情報処理方法
US8958848B2 (en) * 2008-04-08 2015-02-17 Lg Electronics Inc. Mobile terminal and menu control method thereof
US20090319933A1 (en) * 2008-06-21 2009-12-24 Microsoft Corporation Transacted double buffering for graphical user interface rendering
KR20100007625A (ko) * 2008-07-14 2010-01-22 엘지전자 주식회사 이동 단말기 및 그 메뉴 표시 방법
JP5247384B2 (ja) * 2008-11-28 2013-07-24 キヤノン株式会社 撮像装置、情報処理方法、プログラムおよび記憶媒体
KR101528266B1 (ko) * 2009-01-05 2015-06-11 삼성전자 주식회사 휴대 단말기 및 그의 응용프로그램 제공 방법
US10540976B2 (en) * 2009-06-05 2020-01-21 Apple Inc. Contextual voice commands
US8294683B2 (en) * 2009-09-25 2012-10-23 Mitac International Corp. Method of processing touch commands and voice commands in parallel in an electronic device supporting speech recognition
US20110099507A1 (en) * 2009-10-28 2011-04-28 Google Inc. Displaying a collection of interactive elements that trigger actions directed to an item
US8558919B2 (en) * 2009-12-30 2013-10-15 Blackberry Limited Filing digital images using voice input
US20120059814A1 (en) * 2010-09-08 2012-03-08 Nuance Communications, Inc. Methods and apparatus for selecting a search engine to which to provide a search query
US8817053B2 (en) * 2010-09-30 2014-08-26 Apple Inc. Methods and systems for opening a file
US20120185798A1 (en) * 2011-01-14 2012-07-19 Louch John O Application view region
US8886976B2 (en) * 2011-04-11 2014-11-11 Microsoft Corporation Management of background tasks
US8452597B2 (en) * 2011-09-30 2013-05-28 Google Inc. Systems and methods for continual speech recognition and detection in mobile computing devices
US8924219B1 (en) * 2011-09-30 2014-12-30 Google Inc. Multi hotword robust continuous voice command detection in mobile devices
US9031847B2 (en) * 2011-11-15 2015-05-12 Microsoft Technology Licensing, Llc Voice-controlled camera operations
US20130144618A1 (en) * 2011-12-02 2013-06-06 Liang-Che Sun Methods and electronic devices for speech recognition
US20130158987A1 (en) * 2011-12-19 2013-06-20 Bo Xing System and method for dynamically generating group-related personalized dictionaries
US8788273B2 (en) * 2012-02-15 2014-07-22 Robbie Donald EDGAR Method for quick scroll search using speech recognition
US8938220B2 (en) * 2012-07-03 2015-01-20 International Business Machines Corporation Automated selection and presentation of pertinent contacts
US9026448B2 (en) * 2012-08-16 2015-05-05 Nuance Communications, Inc. User interface for entertainment systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7551189B2 (en) * 2001-10-25 2009-06-23 Hewlett-Packard Development Company, L.P. Method of and apparatus for digital image processing
EP1333650A2 (en) * 2002-02-04 2003-08-06 Nokia Corporation Method of enabling user access to services
WO2008004037A1 (en) * 2006-06-30 2008-01-10 Sony Ericsson Mobile Communications Ab Voice remote control
CN101640042A (zh) * 2008-07-29 2010-02-03 佳能株式会社 信息处理方法和信息处理设备
CN101729656A (zh) * 2008-10-29 2010-06-09 Lg电子株式会社 移动终端及其控制方法

Also Published As

Publication number Publication date
EP2731028A2 (en) 2014-05-14
KR101990037B1 (ko) 2019-06-18
US20140136213A1 (en) 2014-05-15
EP2731028A3 (en) 2016-08-24
CN103811005A (zh) 2014-05-21
KR20140061132A (ko) 2014-05-21

Similar Documents

Publication Publication Date Title
CN103811005B (zh) 移动终端及其控制方法
CN103533154B (zh) 移动终端及其识别语音的方法
US10616155B2 (en) Mobile terminal and method for controlling the same
KR101864618B1 (ko) 이동 단말기 및 그것의 사용자 인터페이스 제공 방법
US9008730B2 (en) Mobile terminal capable of providing multi-haptic effect and method of controlling the mobile terminal
US9600143B2 (en) Mobile terminal and control method thereof
US9001151B2 (en) Mobile terminal for displaying a plurality of images during a video call and control method thereof
KR101688145B1 (ko) 동영상 재생 방법 및 이를 이용하는 이동 단말기
KR101952177B1 (ko) 이동 단말기 및 그것의 제어 방법
CN105830351A (zh) 移动终端及其控制方法
US20140007013A1 (en) Mobile terminal and control method thereof
CN106302982A (zh) 移动终端以及用于控制该移动终端的方法
KR101559772B1 (ko) 단말기 및 그 제어 방법
CN106445148A (zh) 一种触发终端应用的方法及装置
KR101672215B1 (ko) 휴대 단말기 및 그 동작 방법
KR101626307B1 (ko) 휴대 단말기 및 그 동작 제어방법
KR101984094B1 (ko) 이동 단말기 및 그것의 제어방법
KR101880310B1 (ko) 대화 스레드내에서 대화 정보 표시 기능을 가지는 단말기 및 그 제어 방법
KR20120001516A (ko) 이동 통신 단말기에서 이미지 컨텐츠 편집방법 및 그 방법을 이용한 이동 통신 단말기
KR20100010206A (ko) 단말기 및 그 제어 방법
KR20150081933A (ko) 이동 단말기 및 그 동작 제어방법
KR101951420B1 (ko) 이동 단말기 및 그것의 제어방법
KR20100054370A (ko) 단말기 및 그 제어 방법
KR20120001104A (ko) 이동 단말기 및 이것의 디스플레이 방법
KR102111456B1 (ko) 이동 단말기 및 그것의 제어 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170118

Termination date: 20190917