CN105122361B - 终端及其控制方法 - Google Patents
终端及其控制方法 Download PDFInfo
- Publication number
- CN105122361B CN105122361B CN201380075394.0A CN201380075394A CN105122361B CN 105122361 B CN105122361 B CN 105122361B CN 201380075394 A CN201380075394 A CN 201380075394A CN 105122361 B CN105122361 B CN 105122361B
- Authority
- CN
- China
- Prior art keywords
- voice
- audiotex
- output
- user
- controller
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 52
- 238000004458 analytical method Methods 0.000 claims description 19
- 238000004891 communication Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 16
- 238000010295 mobile communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000005236 sound signal Effects 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 230000003068 static effect Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 108090000565 Capsid Proteins Proteins 0.000 description 3
- 241000283973 Oryctolagus cuniculus Species 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 239000012528 membrane Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 239000010409 thin film Substances 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000004378 air conditioning Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 239000003990 capacitor Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 230000005672 electromagnetic field Effects 0.000 description 2
- 238000003032 molecular docking Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 238000000060 site-specific infrared dichroism spectroscopy Methods 0.000 description 2
- 229910001220 stainless steel Inorganic materials 0.000 description 2
- 239000010935 stainless steel Substances 0.000 description 2
- 239000010936 titanium Substances 0.000 description 2
- 101150012579 ADSL gene Proteins 0.000 description 1
- 102100020775 Adenylosuccinate lyase Human genes 0.000 description 1
- 108700040193 Adenylosuccinate lyases Proteins 0.000 description 1
- 241000256844 Apis mellifera Species 0.000 description 1
- 241000406668 Loxodonta cyclotis Species 0.000 description 1
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical compound [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 1
- 241000209140 Triticum Species 0.000 description 1
- 235000021307 Triticum Nutrition 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 239000011469 building brick Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000001093 holography Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000001746 injection moulding Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000005622 photoelectricity Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000243 solution Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 229920003002 synthetic resin Polymers 0.000 description 1
- 239000000057 synthetic resin Substances 0.000 description 1
- 229910052719 titanium Inorganic materials 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/38—Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
- H04B1/40—Circuits
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/163—Indexing scheme relating to constructional details of the computer
- G06F2200/1637—Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/74—Details of telephonic subscriber devices with voice recognition means
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Telephone Function (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本说明书提供一种终端,该终端包括麦克风,该麦克风被配置成接收用于控制终端的操作的用户的语音输入;分析单元,该分析单元被配置成在语音被输入时感测在用户的嘴和麦克风之间的接近程度;输出单元,该输出单元被配置成基于语音输出可视数据和可听数据中的至少一个;以及控制器,该控制器被配置成当接近程度小于预设范围并且语音的音量低于预设参考音量时限制可听数据的输出。
Description
技术领域
本公开涉及一种能够响应于所接收的语音执行操作的移动终端。
背景技术
根据它们的移动性终端可以被划分成移动/便携式终端和固定终端。而且,根据是否用户能够直接地携带移动终端可以被分类成手持式终端和车载终端。
随着其变成多功能性的,能够允许移动终端捕获静止图像或者运动图像,播放音乐或者视频文件,玩游戏,接收广播等等,使得被实现成集成多媒体播放器。许多的努力不仅包括实现移动终端的结构组件的变化和改进而且包括支持和改进终端的功能的软件改进。
最近,移动终端提供语音识别模式,其中通过识别用户的语音执行移动终端的功能,使得提高用户便利。而且,移动终端通知用户通过提供与操作相对应的可视和可听数据操作已经执行操作。
在此,甚至根据用户和移动终端的状态不得不限制(限定)可听数据的输出的条件下,以相同的方式可以不利地输出这样的数据,除非用户单独地控制它。
发明内容
技术问题
因此,详细描述的方面是为了提供一种能够通过分析用户的语音限制数据的输出的移动终端。
技术方案
为了实现这些和其它的优点并且根据本说明书的用途,如在此具体化和广泛地描述的,提供一种包括麦克风的终端,该麦克风被配置成接收用于控制终端的操作的用户的语音输入;分析单元,该分析单元被配置成分析语音的属性;感测单元,该感测单元被配置成当语音被输入时感测在用户的嘴和麦克风之间的接近程度;输出单元,该输出单元被配置成基于语音输出可视数据和可听数据中的至少一个;以及控制器,该控制器被配置成当接近程度小于预设范围并且语音的音量低于预设参考音量时限制可听数据的输出。
根据一个示例性实施例,分析单元可以基于预设准则分类输入语音,并且当语音包括预设属性时控制器可以控制输出单元以限制可听数据的输出。
根据一个示例性实施例,当语音包括包含沙沙声的耳语的属性时控制器可以控制输出单元以限制可听数据的输出。
根据一个示例性实施例,分析单元可以分析与语音的属性相对应的回声的细微差别、速度、强度以及程度中的至少一个,并且基于预设准则分类语音以限制可听数据的输出。
根据一个示例性实施例,控制器可以基于通过麦克风输入的外部声音分析终端的外部环境,并且基于外部环境限制可听数据的输出。
根据一个示例性实施例,当在外部声音的音量和语音的音量之间的差低于参考音量时控制器可以控制输出单元以限制可听数据的输出。
根据一个示例性实施例,当外部声音的音量低于参考音量时控制器可以控制输出单元以限制可听数据的输出。
根据一个示例性实施例,感测单元可以进一步包括陀螺仪传感器,该陀螺仪传感器被配置成在语音被输入时感测终端的主体的移动和旋转。
根据一个示例性实施例,控制器可以控制输出单元调节可听数据的音量以对应于输入语音的音量。
根据一个示例性实施例,控制器可以基于语音执行操作。控制器可以控制输出单元在可听数据的输出被限制时输出与可听数据相对应的文本。
根据一个示例性实施例,控制器可以控制输出单元以输出指示当可听数据的输出被限制时已经执行操作的通知声音。
根据一个示例性实施例,输出单元可以包括显示单元,该显示单元被配置成输出可视数据;和扬声器,该扬声器被配置成输出可听数据。控制器可以控制显示单元以顺序的方式输出与语音相对应的文本和可视数据。
根据一个示例性实施例,扬声器可以被形成为与显示单元的一个末端部分相邻,并且当可听数据的输出被限制时在变得远离一个末端部分的方向中控制器可以控制显示单元以顺序地输出可视数据和文本。
根据一个示例性实施例,控制器可以控制显示单元以输出基于时间的最近输出的可视数据和与麦克风相邻的区域上的文本。
根据一个示例性实施例,控制器可以控制显示单元以变得远离麦克风的方式输出基于时间输出的可视数据和文本。
为了实现这些和其它的优点并且根据本说明书的用途,如在此具体化和广泛地描述的,提供一种终端的控制方法,该方法包括:通过麦克风接收用户的语音输入;分析所接收的语音的属性;在语音被输入时感测在用户的嘴和麦克风之间的接近程度;基于语音产生可视数据和可听数据;以及当在音量被输入时接近程度小于预设范围并且语音的音量低于预设参考音量时限制可听数据的输出。
根据一个示例性实施例,语音的属性的分析可以包括确定语音是否被分类为包括沙沙声的耳语。
根据一个示例性实施例,方法可以进一步包括当可听数据的输出被限制时输出与可听数据相对应的文本。
根据一个示例性实施例,方法可以进一步包括当可听数据的输出被限制时输出指示操作的执行的通知声音。
根据一个示例性实施例,在变得远离与麦克风相邻的区域的方向中在显示单元上可以顺序地输出文本和可视数据。
有益效果
根据本公开,基于语音识别模式下的用户的语音的属性可以识别用户的状态和意图,并且在没有通过用户的单独的控制命令输入的情况下可以限制可听数据的输出。
而且,当限制可听数据的输出时,通过文本、通知声音等等的使用可以通知操作的执行,其可以允许用户更方便地识别操作。
本公开的适用性的进一步范围根据下文中给出的详细描述将是更加显而易见的。然而,应该理解,因为在本公开的精神和范围内的各种变化和修改对本领域技术人员是显而易见的,所以仅通过示例给出指示本公开的优选实施例的详细描述和特定实例。
附图说明
图1是根据一个示例性实施例的移动终端的框图;
图2a和图2b是利用移动终端可操作的通信***的概念图;
图3a是根据一个示例性实施例的移动终端的前透视图;
图3b是在图3a中图示的移动终端的后透视图;
图4是图示根据一个示例性实施例的移动终端的控制方法的流程图;
图5a是图示图4的控制方法的概念图;
图5b是图示根据一个示例性实施例的分析语音的属性的方法的流程图;
图6a至图6d是图示根据各种示例性实施例的控制可听数据的输出的方法的概念图;
图7是图示将被阻止(被限制的)可听数据输出为文本格式的控制方法的概念图;
图8是图示根据另一示例性实施例的基于输入外部声音限制可听数据的输出的控制方法的概念图;
图9a和图9b是图示在显示单元上输出可听数据和文本的控制方法的概念图;
图10a和图10b是图示在图像显示装置中基于感测到的用户控制可听数据的输出的方法的概念图;以及
图11是图示根据另一示例性实施例的包括显示单元和音频输出模块的装置的控制方法的概念图。
具体实施方式
现在将会参考附图详细地给出示例性实施例的描述。为了参考附图简要地描述,相同或者等效的组件将会设有相同的附图标记,并且其描述将不会被重复。在下文中,在描述中对于在此使用的组件提供后缀模块和单元或者部分仅仅是为了有助于准备本申请,并且因此它们没有被赋予特定的意义或者功能。在描述本公开中,如果对于有关的已知的功能或者构造的详细解释被认为没有必要地转移本公开的精神,则已经省略了这样的解释但是本领域的技术人员应理解。附图被用于帮助容易地理解本发明的技术思想,并且应理解本公开的思想不受附图限制。
在此描述的移动终端可以包括蜂窝电话、智能电话、膝上型计算机、数字广播终端、个人数字助理(PDA)、便携式多媒体播放器(PMP)、导航仪、板式PC、平板PC、超级本等等。然而,本领域的技术人员可以容易地理解,除了仅可应用于移动终端的情况之外,根据本说明书的示例性实施例的配置也能够被应用于诸如数字TV、桌上型计算机等等的固定终端。
图1是与示例性实施例相关联的移动终端100的框图。
移动终端100可以包括无线通信单元110、音频/视频(A/V)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180、电源单元190等等。然而,没有必要要求如在图1中图示的所有元件,并且可以以比被图示的元件的数目多或者少的元件实现移动终端。
在下文中,将会按顺序描述组成元件。
无线通信单元110通常包括一个或多个元件,其允许在移动终端100与无线通信***之间的无线电通信,或者允许在移动终端100和移动终端100所处的网络之间的无线电通信。例如,无线通信单元110可以包括广播接收模块111、移动通信模块112、无线互联网模块113、短程通信模块114、位置信息模块115等。
广播接收模块111通过广播信道接收来自于外部广播管理服务器的广播信号和/或广播相关信息。
广播信道可以包括卫星信道和/或地面信道。广播管理服务器可以意指产生并且发送广播信号和/或广播相关信息的服务器或接收预产生的广播信号和/或广播相关信息并且发送到移动终端100的服务器。广播信号可以包括TV广播信号、无线电广播信号和数据广播信号以及数据广播信号被耦合到TV或者无线电广播信号的形式的广播信号。
广播相关信息可以意指关于广播频道、广播节目、广播服务提供商等的信息。广播相关信息也可以通过移动通信网络来提供,并且在这样的情况下,可以通过移动通信模块112来接收广播相关信息。
广播相关信息可以以各种形式存在。例如,它可以以数字多媒体广播(DMB)的电子节目指南(EPG)、手持数字视频广播(DVB-H)的电子服务指南(ESG)等的形式存在。
广播接收模块111可以使用各种类型的广播***来接收广播信号。具体地,广播接收模块111可以使用诸如地面数字多媒体广播(DMB-T)、卫星数字多媒体广播(DMB-S)、媒体仅前向链路(MediaFLO)、手持数字视频广播(DVB-H)、地面综合业务数字广播(ISDB-T)等的数字广播***来接收数字广播信号。当然,广播接收模块111被配置为适用于提供广播信号的每一种广播***以及上述数字广播***。
经由广播接收模块111接收到的广播信号和/或广播相关信息可以被存储在诸如存储器160的适合的设备中。
移动通信模块112通过移动通信网络将无线电信号发送到基站、外部终端以及服务器中的至少一个和/或接收来自于基站、外部终端以及服务器中的至少一个的无线电信号。在该实施例中,无线电信号可以包括声音呼叫信号、视频呼叫信号、和/或根据文本和/或多媒体消息发送和/或接收的各种类型的数据。
移动通信模块112可以实现视频(电话)呼叫模式和声音呼叫模式。视频呼叫模式指示在观看被叫方的图像的情况下进行呼叫的状态。声音呼叫模式指示在没有观看被叫方的图像的情况下呼叫的状态。无线通信模块112可以发射和接收声音和图像中的至少一个,以便实现视频呼叫模式和声音呼叫模式。
无线互联网模块113表示用于无线互联网接入的模块。此模块可以被内部地或者外部地耦合到移动终端100。此无线互联网接入的示例可以包括无线LAN(WLAN)、无线保真(Wi-Fi)Direct、数字生活网络联盟(DLNA)、无线宽带(Wibro)、全球微波接入互操作(Wimax)、高速下行链路分组接入(HSDPA)等等。
短程通信模块114表示用于短程通信的模块。用于实现此模块的适当的技术可以包括蓝牙(BLUETOOTHTM)、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、紫蜂、近场通信(NFC)等等。
位置信息模块115表示用于检测或者计算移动终端的位置的模块。位置信息模块115的示例可以包括全球定位***(GPS)模块或者WiFi模块。
继续参考图1,A/V输入单元120可以被配置为将音频或者视频信号输入提供给移动终端。A/V输入单元120可以包括相机121和麦克风122。相机121可以在视频呼叫模式或者拍摄模式下接收并且处理通过图像传感器获得的视频或者静止图片的图像帧。被处理的图像帧可以被显示在显示单元151上。
通过相机121处理的图像帧可以被存储在存储器160中或者经由无线通信单元110被发射到外部设备。而且,可以从通过相机121获取的图像帧计算用户的位置信息等等。根据移动终端的配置可以提供两个或者更多个相机121。
当移动终端处于特定模式,诸如电话呼叫模式、记录模式、声音识别模式等等时,麦克风122可以接收外部音频信号。该音频信号可以被处理为数字数据。在电话呼叫模式的情况下,处理的数字数据被转换为可经由移动通信模块112可发射到移动通信基站的格式用于输出。麦克风122可以包括配合的噪声消除算法以消除在接收外部音频信号的过程中产生的噪声。
用户输入单元130可以生成用户输入的数据以控制移动终端的操作。用户输入单元130可以包括键盘、薄膜开关、触摸板(例如,静压/电容)、滚动轮、滚动开关等等。
感测单元140可以提供移动终端的每个方面的状态测量。例如,感测单元140可以检测移动终端100的打开/闭合状态、移动终端100的位置的变化、与移动终端100的用户接触的存在或不存在、移动终端100的方位、移动终端100的加速/减速等等,使得生成用于控制移动终端100的操作的感测信号。例如,关于滑盖型移动终端,感测单元140可以感测滑盖型移动终端的滑动部分是否被打开或者闭合。其它的示例可以包括感测状态,诸如感测单元140感测由电源190提供的电力的存在或不存在、接口单元170和外部设备之间的耦合或者其它连接的存在或不存在等等。
输出单元150可以被配置为输出音频信号、视频信号或者报警信号。输出单元150可以包括显示单元151、音频输出模块153、报警单元154、触觉模块155。
显示单元151可以输出在移动终端100中处理的信息。例如,当在电话呼叫模式下操作移动终端时,显示单元151可以提供包括与呼叫相关联的信息的用户界面(UI)或者图形用户界面(GUI)。作为另一示例,如果移动终端是处于视频呼叫模式或者拍摄模式,那么显示单元151可以附加地或者替换地显示拍摄的和/或接收到的图像、UI或者GUI。
例如,使用液晶显示器(LCD)、薄膜晶体管液晶显示器(TFT-LCD)、有机发光二极管(OLED)、柔性显示器、三维(3D)显示器、电子墨水显示器等等中的至少一个可以实现显示单元151。
这些显示器中的一些能够被实现为透过其能够看到外部的透明型或者透光型,这被称为透明显示器。透明显示器的典型示例可以包括透明OLED(TOLED)等等。显示单元151的后表面也可以被实现为透光。在此配置下,用户能够通过由终端主体的显示单元151占据的区域浏览位于终端主体的后侧的对象。
根据移动终端100的配置的方面在数目上可以实现两个或者更多个显示单元151。例如,多个显示单元151可以被布置在一个表面上以相互隔开或者集成,或者可以被布置不同的表面上。
显示单元151也可以被实现成用于显示立体图像的立体显示单元152。
在此,立体图像可以是三维(3D)立体图像。3D立体图像是指的是使得观众感到在监视器或者屏幕上的对象的渐进深度和逼真度与现实空间相同的图像。可以通过使用双眼差异来实现3D立体图像。双眼差异指的是由两眼的位置形成的视差。当两眼观看不同的2D图像时,图像通过视网膜向大脑传送并且在大脑中组合以提供深度的感知和真实感觉。
立体显示单元152可以使用立体显示方案,诸如立体方案(眼镜方案)、自动立体方案(无眼镜方案)、投影方案(全息方案)等。通常用于家庭电视接收器等的立体方案包括Wheatstone立体方案等。
例如自动立体方案可以包括视差屏障方案、光栅方案、集成成像方案、可切换透镜等。投影方案包括反射全息方案、透射全息方案等。
通常,3D立体图像可以由左图像(左眼图像)和右图像(右眼图像)组成。根据左和右图像如何被组合为3D立体图像,可以将3D立体成像方法划分为:上下方法,其中,在一个帧中上下地布置左和右图像;L至R(左至右,并排)方法,其中,在一个帧中左和右地布置左和右图像;棋盘方法,其中,以拼贴的形式布置左和右图像的分片;隔行方法,其中,通过行或者列交错地布置左和右图像;以及,时间顺序(或逐帧)方法,其中,基于时间交错地显示左和右图像。
而且,对于3D缩略图图像,左图像缩略图和右图像缩略图可以分别从原始图像帧的左图像和右图像被生成,并且然后被组合以生成单个3D缩略图图像。通常,缩略图指的是缩小的图像或缩小的静止图像。从而显示被生成的左图像缩略图和右图像缩略图,并且按照深度的在其间的水平距离差对应于在屏幕上的左图像和右图像之间的视差,提供了立体空间感觉。
通过立体处理单元(未示出)在立体显示单元152上可以显示用于实现3D立体图像所需要的左图像和右图像。立体处理单元可以接收3D图像并且提取左图像和右图像,或者可以接收2D图像并且将其改变为左图像和右图像。
在此,如果显示单元151和触摸灵敏传感器(被称为“触摸传感器”)其间具有分层的结构(被称为“触摸屏”),则显示单元151可以被用作输入装置和输出装置。触摸传感器可以被实现成触摸膜、触摸片、触摸板等等。
触摸传感器可以被配置为将施加给显示器151的特定部分的压力,或者从显示器151的特定部分出现的电容的变化转换为电输入信号。而且,触摸传感器可以被配置为不仅感测被触摸的位置和被触摸的区域,而且感测触摸压力。在此,触摸对象是将触摸输入施加在触摸传感器上的对象。触摸对象的示例可以包括手指、触摸笔、尖笔、指示器等等。
当通过触摸传感器感测触摸输入时,相对应的信号可以被发射到触摸控制器。触摸控制器可以处理接收到的信号,并且然后将相对应的数据发射到控制器180。因此,控制器180可以感测已经触摸了显示单元151的哪个区域。
仍然参考图1,接近传感器141可以被布置在由触摸屏覆盖的或者在触摸屏附近的移动终端的内部区域。可以提供接近传感器141作为感测单元140的一个示例。接近传感器141指的是传感器,在没有机械接触的情况下,通过使用电磁场或者红外线,感测靠近要感测表面的对象或者布置在要感测表面附近的对象的存在或不存在。接近传感器141可以具有比接触传感器更长的寿命和更强的实用性。
接近传感器141可以包括透射型光电传感器、直接反射型光电传感器、镜反射型光电传感器、高频振荡接近传感器、电容型接近传感器、磁型接近传感器、红外线接近传感器等等。当触摸屏被实现为电容型时,可以通过电磁场的变化来感测指针接近触摸屏。在这种情况下,触摸屏(触摸传感器)也可以被分类成接近传感器。
在下文中,为了简要描述,指针被定位在接近触摸屏而没有接触的状态将会被称为“接近触摸”,而指针实际上接触触摸屏的状态将会被称为“接触触摸”。对于与触摸屏上的指针的接近触摸相对应的位置,这样的位置将会对应于在指针的接触触摸之后指针垂直于触摸屏面向的位置。
接近传感器141可以感测接近触摸和接近触摸方式(例如,距离、方向、速度、时间、位置、移动状态等等)。与感测的接近触摸和感测的接近触摸方式有关的信息可以被输出到触摸屏。
当将触摸传感器以分层方式叠加在立体显示单元152上时(在下文中,称为“立体触摸屏”),或者当组合立体显示单元152和感测触摸操作的3D传感器时,立体显示单元152也可以被用作3D输入设备。
作为3D传感器的示例,感测单元140可以包括接近传感器141、立体触摸感测单元142、超声感测单元143和相机感测单元144。
接近传感器141可以检测在没有机械接触的情况下通过使用电磁力或红外线而施加触摸的感测对象(例如,用户的手指或尖笔)和检测表面之间的距离。通过使用该距离,终端可以识别已经触摸了立体图像的哪个部分。具体地说,当触摸屏是静电触摸屏时,基于根据感测对象的接近的电场的改变可以检测感测对象的接近程度,并且通过使用接近程度可以识别对于3D图像的触摸。
立体触摸感测单元142可以被配置成检测向触摸屏施加的触摸的强度或持续时间。例如,立体触摸感测单元142可以感测触摸压力。当压力强大时,可以将触摸视为相对于朝着终端的内部位于远离触摸屏的对象的触摸。
超声感测单元143可以被配置成通过使用超声波来识别与感测对象有关的位置信息。
例如,超声感测单元143可以包括光学传感器121和多个超声传感器。光学传感器可以被配置成感测光并且超声传感器可以被配置成感测超声波。因为光远远比超声波快,所以光到达光学传感器的时间可能远远比超声波到达超声传感器的时间短。因此,可以基于光作为参考信号通过使用从超声波到达的时间差计算波生成源的位置。
相机感测单元144可以包括相机121、光电传感器和激光传感器中的至少一个。
例如,相机121和激光传感器可以被组合以检测感测对象相对于3D立体图像的触摸。当由激光传感器检测到的距离信息被添加到通过相机捕获的2D图像时,能够获得3D信息。
在另一个示例中,可以在显示设备上层叠光电传感器。该光电传感器可以被配置成扫描与触摸屏接近的感测对象的移动。详细地,光电传感器可以包括在行和列处的光电二极管和晶体管,以通过使用根据所施加的光的数量改变的电信号来扫描在光电传感器上安装的内容。即,光电传感器可以根据光的变化来计算感测对象的坐标,以因此获得感测对象的位置信息。
音频输出模块153可以在呼叫信号接收模式、呼叫模式、记录模式、声音识别模式、广播接收模式等中将从无线通信单元110接收到的或存储在存储器160中的音频数据。而且,音频输出模块153可以提供与由移动终端100执行的特定功能相关的可听输出的语音(例如,呼叫信号接收语音、消息接收语音等)。音频输出模块153可以包括接收器、扬声器、蜂鸣器等等。
报警单元154可以输出用于通知关于发生移动终端100的事件的信号。例如在移动终端100产生的事件可以包括呼叫信号接收、消息接收、按键信号输入、触摸输入等等。除了视频或者音频信号之外,例如,使用通知关于事件的发生的振动,报警单元154可以以不同的方式输出信号。也可以经由音频输出模块153输出视频或者音频信号。因此,显示单元151和音频输出模块153可以被分类为报警单元154的部分。
触觉模块155可以产生用户能够感觉的各种触觉效果。通过触觉模块155产生的触觉效果的代表性示例是振动。通过用户选择或者控制器的设置通过触摸模块155产生的振动的强度、模式等等可以是可控制的。例如,不同的振动可以被组合以被输出或者被顺序地输出。
除了振动之外,触觉模块155可以生成各种其它触觉效果,包括通过相对于接触皮肤垂直移动的针布置、通过注入孔或吸收孔的空气的喷射力或吸收力、在皮肤上的触摸、电极的接触、静电力等的刺激的效果、通过使用能够吸收或生成热量的元件再现冷和热感觉等的效果。
触觉模块155可以被实现成允许用户通过诸如用户的手指或手臂的肌肉感觉来感觉触觉效果,并且通过直接接触来传送触觉效果。可以根据移动终端100的配置来提供两个或更多个触觉模块155。
存储器160可以存储用于处理由控制器180执行的操作的程序,或者可以暂时存储输入或输出的数据(例如,电话簿、消息、静止图像、视频等)。另外,存储器160可以存储关于当在触摸屏上感测到触摸输入时输出的各种模式的振动和音频信号的数据。
存储器160可以包括至少一种类型的存储介质,包括闪速存储器、硬盘、微型多媒体卡、卡型存储器(例如,SD或XD存储器等)、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁存储器、磁盘和光盘。而且,可以与网络存储装置相关地操作移动终端100,该网络存储装置在互联网上执行存储器160的存储功能。
接口单元170可以用作与和移动终端100连接的每一个外部设备的接口。例如,接口单元170可以接收从外部设备发送的数据,接收电力以传递到移动终端100内的每个元件,或向外部设备发送移动终端100的内部数据。例如,接口单元170可以包括有线或无线头戴耳机端口、外部电源端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的设备的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等。
该识别模块可以是存储用于验证使用移动终端100的权限的各种信息的芯片,并且可以包括用户身份模块(UIM)、订户身份模块(SIM)和通用订户身份模块(USIM)等。另外,具有识别模块的设备(下文中称为“识别设备”)可以采取智能卡的形式。因此,识别设备可以经由端口单元170与终端100连接。
当移动终端100与外部托架连接时,接口单元170可以用作用于允许来自托架的电力通过其被供应到移动终端100的通道,或可以用作用于允许用户从托架输入的各种命令信号通过其被传输到移动终端的通道。从托架输入的各种命令信号或电力可以操作为用于识别移动终端被正确地安装在托架上的信号。
控制器180通常可以控制移动终端100的整体操作。例如,控制器180可以执行与声音呼叫、数据通信和视频呼叫等相关联的控制和处理。控制器180可以包括用于回放多媒体数据的多媒体模块181。多媒体模块181可以被配置在控制器180内或可以被配置成与控制器180分离。
控制器180可以执行模式识别处理,以分别将在触摸屏上执行的手写输入或绘图输入识别为字符或图像。
而且,控制器180可以执行锁定状态以当移动终端的状态满足预设条件时限制用户输入用于应用的控制命令。而且,控制器180可以在移动终端的锁定状态下基于在显示单元151上感测到的触摸输入控制在锁定状态下被显示的锁定屏幕。
电源单元190可以接收外部电力或内部电力,并且在控制器180的控制下供应用于操作各自的元件和组件所需的适当电力。
可以使用例如软件、硬件或其任何组合来在计算机可读介质或者其类似的介质中实现在此所述的每个实施例。
对于硬件实施方式,可以通过使用以下中的至少一种来实现在此描述的实施例:专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理器件(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器、被设计用来执行在此描述的功能的电子单元。在一些情况下,这样的实施例也可以由控制器180本身实现。
对于软件实施方式,可以通过单独的软件模块来实现诸如在此所述的过程或功能的实施例。每一个软件模块可以执行在此所述的一个或多个功能或操作。
可以通过以任何适当的编程语言编写的软件应用来实现软件代码。软件代码可以存储在存储器160中并由控制器180执行。
在下文中,将会描述与根据本公开的移动终端100可操作的通信***。图2a和图2b是利用根据本公开的移动终端100可操作的通信***的概念图。
首先,参考图2a,这样的通信***可以利用不同的空中接口和/或物理层。通过通信***利用的这样的空中接口的示例可以包括频分多址(FDMA)、时分多址(TDMA)、码分多址(CDMA)、通用移动通信***(UMTS)(特别地,长期演进(LTE))、全球移动通信***(GSM)等等。
仅通过非限制性示例,进一步的描述将会涉及CDMA通信***,但是这样的教导可以被同等地应用于包括CDMA无线通信***的其它的***类型。
参考图2a,示出CDMA无线通信***,其具有多个移动终端100、多个基站(BS)270、基站控制器(BSC)275、以及移动交换中心(MSC)280。MSC 280可以被配置成与传统的公共交换电话网络(PSTN)290对接。MSC 280也可以被配置成与BSC 275对接。BSC 275经由回程线路被耦合到基站270。可以根据包括例如E1/T1、ATM、IP、PPP、帧中继、HDSL、ADSL、或者xDSL的数个已知的接口中的任何一个来配置回程线路。因此,***中能够包括多个BSC 275,如在图2a中图示的。
每个基站270可以包括一个或者多个扇区,每个扇区具有全向天线或者在放射状地远离基站270的特定方向中指定的天线。可替选地,每个扇区可以包括两个或者更多个不同的天线。每个基站270可以被配置成支持多种频率分配,每个频率分配具有特定的频谱(例如,1.25MHz、5MHz等等)。
扇区和频率分配的交叉可以被称为CDMA信道。基站270也可以被称为基站收发器子***(BTS)。在一些情况下,术语“基站”可以用于统称为BSC 275,以及一个或多个基站270。基站也可以被表示为“小区站点”。可替选地,给定的基站270的单个扇区可以被称为小区站点。
如在图2a中所示的,广播发送器(BT)295将广播信号发送到在***内操作的移动终端100。在图1中图示的广播接收模块111通常被配置在移动终端100内部以接收由BT 295发送的广播信号。
图2a进一步描述数个全球定位***(GPS)卫星300。这样的卫星300便于定位多个移动终端100中的至少一个的位置。在图2中描述了两个卫星,但是可以通过比两个卫星更多或者更少数目的卫星来获得有用的位置信息。在图1中图示的GPS模块115通常被配置成与卫星300协作以获得想要的位置信息。要理解的是,可以可替选地实现其它类型的位置检测技术,除了或者替代GPS定位技术之外。必要时,GPS卫星300中的至少一个可以被可替选地或者另外配置成提供卫星DMB传输。
在无线通信***的典型操作期间,基站270可以从各种移动终端100接收反向链路信号的集合。移动终端100进行呼叫、短信,并且执行其它的通信。在基站270内处理通过给定的基站270接收到的每个反向链路信号。得到的数据被转发给相关联的BSC 275。BSC 275提供包括基站270之间的软切换的编排的移动性管理功能和呼叫资源分配。BSC 275也可以将接收到的数据路由到MSC 280,其然后提供用于对接PSTN 290的附加的路由服务。类似地,PSTN 290与MSC 280对接,并且MSC 280与BSC 275对接,其继而控制基站270以将向前链路信号的集合发送到移动终端100。
在下文中,将会参考2b描述用于使用无线保真(WiFi)定位***(WPS)获取移动终端的位置信息的方法。
Wi-Fi定位***(WPS)300指的是使用Wi-Fi基于无线局域网(WLAN)的位置确定技术作为用于使用被设置在用于发送到Wi-Fi模块并且从Wi-Fi模块接收的无线接入点320和移动终端100中的Wi-Fi模块跟踪移动终端100的位置的技术。
Wi-Fi定位***300可以包括Wi-Fi位置确定服务器310、移动终端100、被连接到移动终端100的无线接入点(AP)320、以及被存储有任何无线AP信息的数据库330。
基于移动终端100的位置信息请求消息(或者信号),Wi-Fi位置确定服务器310提取被连接到移动终端100的无线AP 320的信息。与无线AP 320有关的信息可以通过移动终端100被发送到Wi-Fi位置确定服务器310或者从无线AP 320被发送到Wi-Fi位置确定服务器310。
与基于移动终端100的位置信息请求消息提取的无线AP有关的信息可以是MAC地址、SSID、RSSI、信道信息、隐私、网络类型、信号强度以及噪声强度中的至少一个。
Wi-Fi位置确定服务器310可以接收被连接到如上所述的移动终端100的无线AP320的信息,并且将接收到的无线AP 320信息与被包含在预先建立的数据库320中的信息进行比较以提取(或者分析)移动终端100的位置信息。
另一方面,参考图2b,作为示例,被连接到移动终端100的无线AP被图示为第一、第二、以及第三无线AP 320。然而,根据其中移动终端100位于的无线通信环境可以以各种形式改变被连接到移动终端100的无线AP的数目。当移动终端100被连接到无线AP中的至少一个时,Wi-Fi定位***300能够跟踪移动终端100的位置。
接下来,更加详细地考虑到存储有无线AP信息的数据库330,与被布置在不同位置处的任何无线AP有关的各种信息可以被存储在数据库330中。
与被存储在数据库330中的任何无线AP有关的信息可以是诸如MAC地址、SSID、RSSI、信道信息、隐私、网络类型、纬度和经度坐标、无线AP位于的建筑物、楼层、详细室内位置信息(GPS坐标可用)、AP拥有者地址、电话号码等等的信息。
以这样的方式,任何无线AP信息和与任何无线AP相对应的位置信息可以被一起存储在数据库330中,并且因此Wi-Fi位置确定服务器310可以从数据库330检索与被连接到移动终端100的无线AP 320的信息相对应的无线AP信息以提取被匹配到搜索到的无线AP的位置信息,从而提取移动终端100的位置信息。
图3a是与本公开相关联的移动终端100的示例的前透视图。
在此公开的移动终端100可以被提供有直板型移动终端。然而,本公开不可以被限于此,但是也可以适用于其中两个和更多个主体以可相对可移动的方式彼此组合的手表式、夹耳式、眼镜式或者折叠式、翻盖式、摇摆式、旋转式等等的各种结构。
主体可以包括形成终端的外观的壳体(外壳、外罩、外盖等)。在本实施例中,壳体可以被划分成前壳体101和后壳体102。各种电子组件被包含在前壳体101和后壳体102之间形成的空间中。至少一个中间外壳可以被附加地布置在前外壳和后外壳101和102之间,并且用于覆盖电池191的电池盖103可以被可拆卸地耦合到后壳体102。
通过注入成型合成树脂可以形成壳体,或者也可以是由例如,不锈钢(STS)、钛(Ti)等等的金属形成。
显示单元151、第一音频输出模块153a、第一相机121a、第一操纵单元131等等可以被布置在终端主体的前表面上,并且麦克风122、接口单元170、第二操作操纵单元132等等可以被设置在其横向表面上。
显示单元151可以被配置成显示(输出)在移动终端100中处理的信息。显示单元151可以通过包括液晶显示器(LCD)、薄膜晶体管-液晶显示器(TFT-LCD)、有机发光二极管(OLED)显示器、柔性显示器、3维(3D)显示器、以及电子墨水显示器中的至少一个可视地输出信息。
显示单元151可以包括通过触摸方法接收控制命令的触摸感测元件。当对显示单元151上的任何一个地方进行触摸时,触摸感测元件可以被配置成感测此触摸并且录入与被触摸的地方相对应的内容。通过触摸方法录入的内容可以是文本或者数值,或者能够在各种模式下指示或者指定的菜单项目。
触摸感测元件可以被形成为透明的以允许看到显示在显示单元151上的视觉信息,并且可以包括用于增强在明亮的地方处的触摸屏的可视性的结构。参考图3a,显示单元151占用前壳体101的前表面的大部分。
第一音频输出单元153a和第一相机121a可以被布置在与显示单元151的两端中的一个相邻的区域中,并且第一操纵输入单元131和麦克风122可以被布置在与其另一端相邻的区域中。第二操纵接口132(参考图3b)、接口170等等可以被布置在终端主体的横向表面上。
第一音频输出模块153a可以以用于将语音传输到用户的耳朵的接收器或用于输出各种报警语音或者多媒体再现语音的喇叭扬声器的形式实现。
其可以被配置成使得沿着在结构主体之间的组装间隙释放从第一音频输出模块153a产生的语音。在这样的情况下,在外观方面被独立地形成以输出音频语音的孔不能被看到或者隐藏,从而进一步简化移动终端100的外观。然而,本公开可以不限于此,但是用于释放语音的孔可以被形成在窗口上。
第一相机121a可以处理在视频呼叫模式或者捕获模式下通过图像传感器获得的静止或者移动图像的视频帧。被处理的视频帧可以被显示在显示单元151上。
用户输入单元130可以被用户操纵以输入用于控制移动终端100的操作的命令。用户输入单元130可以包括第一和第二操纵单元131和132。第一和第二操纵单元131和132可以被共同地称为操纵部分,并且如果其是允许用户通过诸如触摸、推动、滚动等等的触觉执行操纵的触觉方式则可以采用任何方法。
在附图中,基于第一操纵单元131是触摸键进行图示,但是本公开没有必要受到此的限制。例如,第一操纵单元131可以被配置有机械键、或者触摸键和推动键的组合。
通过第一和/或第二操纵单元131和132接收到的内容可以以各种方式设置。例如,第一操纵单元131可以被用户使用以输入诸如菜单、主屏键、取消、搜索等等的命令,并且第二操纵单元132可以被用户使用以输入命令,诸如控制从第一音频输出模块153a输出的音量水平、切换成显示单元151的触摸识别模式等等。
麦克风122可以被形成以接收用户的声音、其它的语音等等。麦克风122可以被设置在多个地方处,并且被配置成接收立体语音。
接口单元170可以用作允许移动终端100与外部设备交换数据的路径。例如,接口单元170可以是用于以有线或者无线方式连接到耳机的连接端子、用于近场通信(例如,红外数据协会(IrDA)端口、蓝牙端口、无线LAN端口等等)的端口、或者用于将电力供应到移动终端100的电源端子中的至少一个。接口单元170可以以用于容纳诸如订户识别模块(SIM)、用户身份模块(UIM)、或者用于信息存储的存储卡的外部卡的插槽的形式实现。
图3b是在图3a中图示的移动终端100的后透视图。
参考图3b,第二相机121b可以进一步被安装在终端主体的后表面处,即,后壳体102。第二相机121b可以具有图像捕获方向,其与第一相机单元121a(参考图3a)的方向大体上相反,并且可以具有不同于第一相机单元121a的数量的像素。
例如,可以优选的是,第一相机121a具有少量的像素以捕获用户的面部的图像并且将这样的图像发送到另一方,并且相机221’具有更多的像素以捕获一般物体的图像并且在大多数情况下没有直接地发送。第一和第二相机121a和121b可以被安装在终端主体上使得它们能够可旋转或者被弹出。
此外,闪光灯123和镜子124可以被附加地布置成与第二相机121b相邻。当通过相机121b捕获主体的图像时,闪光灯123可以照亮主体。当通过使用相机121b他或者她想要捕获他自己或者她自己的图像(即,自拍)时,镜子124可以允许用户看着他自己或者她自己。
第二音频输出单元153b可以进一步被布置在终端主体的后表面上。第二音频输出模块153b可以与第一音频输出模块153a(参考图3a)一起能够实现立体声功能,并且可以被用于实现用于呼叫通信的扬声器电话模式。
除了用于进行电话呼叫等等的天线之外用于接收广播信号的天线(未示出)可以被附加地布置在终端主体的横向表面上。组成广播接收模块111(参考图1)的一部分的天线可以以可收回的方式设置在终端主体中。
用于将电力供应给移动终端100的电源单元190(参考图1)可以被安装在终端主体上。电源单元190可以被包含在终端主体中,或者可以包括在终端主体的外部上的以可拆卸的方式配置的电池191。根据附图,其图示电池盖103与后壳体102组合以覆盖电池191,从而限制电池191被释放并且保护电池191免受外部冲击和外面物质。
图4是图示根据一个示例性实施例的移动终端的控制方法的流程图,并且图5a是图示图4的控制方法的概念图。
将会参考图4和图5a描述基于分析的用户语音限制可听数据的输出的控制方法。麦克风122可以接收为了控制移动终端的至少一个操作的输入的语音。控制器180可以使用自然语言分析分析通过麦克风122输入的语音,并且控制与分析的语音相对应的移动终端的操作。不可以存在对于基于语音控制的操作的限制。
例如,操作可以对应于存储在移动终端中的信息的输出、应用的执行和控制、信息的存储、消息的传输、与外部终端的通信等等。不可以限制操作的类型。
虽然未被示出,控制器180可以基于施加到移动终端的控制命令激活识别语音的程序。例如,控制器180可以响应于控制命令或者施加到移动终端的信号输入单元的触摸输入执行语音识别程序。
参考图5a,当执行语音识别程序时控制器180可以控制显示单元150以输出执行屏幕501。执行屏幕501可以包括用于询问用户所期待的功能(例如,我能帮助你吗?)的文本。一执行程序,控制器180就可以激活麦克风122以接收用户的语音610。
控制器180可以分析用户的语音610的意义,并且根据语音610控制移动终端以执行操作。而且,控制器180可以基于语音610产生可视和可听的数据(S513)。参考图5a的(a)和图5a的(b),控制器180可以响应于语音--今天天气如何?--执行用于提供与今天的天气有关的信息的功能,并且然后在信息当中产生数据以提供给用户。
而且,控制器180可以分别控制显示单元151和音频输出模块153以输出与信息有关的可视数据和可听数据。在此,可视数据可以对应于包括在天气应用中的信息的至少一部分。即,控制器180可以通过基于语音提取存储在天气应用中的信息产生可视数据。例如,可视数据可以包括与当前温度、天气和时间有关的文本信息、图像等等。
可听数据可以对应于通过将可视数据的至少一部分转换成语音产生的声音信号。例如,控制器180可以通过转换在可视数据的文本当中的与用户的语音相对应的信息产生可听数据。
在此,控制器180可以基于语音控制输出单元以限制(限制)可视数据和可听数据中的至少一个的输出(S514)。移动终端可以进一步包括分析单元,该分析单元分析通过麦克风122输入的语音的属性。分析单元可以基于各种标准分析语音的属性。
图5b是图示根据一个示例性实施例的分析语音的属性的方法的流程图。在下文中,将会参考图5a和图5b给出根据语音的属性控制可听数据的输出的方法的描述。
参考图5b,控制器180可以控制麦克风122以接收语音(S511)。控制器180可以控制分析单元以分析接收到的语音(S512)。分析单元可以分析输出语音的属性,不是语音的意义。分析单元可以确定是否语音作为耳语被分类。
在此,人说出的耳语可以对应于包括沙沙声等等的低语音。通常,当用户与靠近他/她的人交谈时用户以耳语的形式传输语音。控制器180可以基于包括在语音中的沙沙声、语音的音调等等将语音分类成耳语。
分析单元可以分析输入的语音的回声的细微差别、速度、强度和程度,并且基于分析结果将语音作为耳语分类。
尽管未示出,但是控制器180可以控制存储器160以存储通过麦克风122输入的语音,并且根据属性分类用户输入的语音。控制器180可以使用以分类的方式存储在存储器160中的语音分析输入的语音的属性。
以这样的方式,可以更加精确地分析具有不同的语音的高低的每个用户的语音。即,这可以允许基于存储的各种语音更加精确地识别用户的意图,并且根据识别的用户的意图控制是否输出可听数据。
当通过分析单元输入的用户的语音被分类时,控制器180可以控制音频输出模块153以限制可听数据的输出(S514')。
参考图5a的(b),控制器180可以控制显示单元151以输出对应于语音610的可视数据510。例如,可视数据510可以被实现为包括天气信息的文本或者图像。这可以允许用户仅被提供有显示在显示单元151上的信息。
根据本公开的一个示例性实施例,当语音作为耳语没有被分类时控制器180可以控制音频输出模块153以输出可听数据。
另一方面,当语音没有作为耳语被分类时,控制器180可以控制分析单元以将语音的音量和参考音量进行比较。即,分析单元可以确定是否语音的音量低于参考音量(S152b)。
在此,通过用户的设置可以定义参考音量,但是本公开可以不限于此。例如,当通过麦克风122输入语音控制命令时,控制器180可以存储与语音的音量有关的信息,并且设置参考音量。例如,参考音量可以是存储的语音的平均音量。
当音量低于参考音量时控制器180可以控制音频输出模块153以限制可听数据的输出。例如,语音的音量低于参考音量的情况可以是移动终端和用户彼此相对远离的情况,和用户以相对弱的声音输入他的/她的语音的情况。
即,尽管用户的语音作为耳语没有被分类,当声音中语音弱时,可听数据的输出可以被限制。当用户和移动终端彼此远离时这甚至可以防止数据被传输到其它用户。而且,当用户以弱的声音输入语音时,可以预测用户在用户不得不以低声音交谈的相对安静的地方存在。在这样的情况下,可以自动地防止可听数据在这样的安静的地点被输出。
当音量低于参考音量时控制器180可以限制可听数据的输出(S514')。而且,当音量高于参考音量时,控制器180可以控制音频输出模块153和显示单元151以输出音频和可视数据。
另一方面,当音量超过参考音量时,控制器180可以控制感测单元以感测在麦克风122和用户之间的距离。即,控制器180可以确定是否麦克风122和用户被感测到彼此靠近(S152c)。
例如,感测单元可以包括被安装为与麦克风122相邻的接近传感器。在通过麦克风122输入语音时,控制器180可以激活接近传感器以感测与麦克风122相邻的用户的嘴等等。
当麦克风122被感测为位于靠近用户时,控制器180可以控制音频输出模块153以限制可听数据的输出(S514')。而且,当没有感测到用户与麦克风122相邻时,控制器180可以控制输出单元以输出可听数据和可视数据(S514″)。
即,通过感测用户和移动终端的相对位置和语音的属性可以更加精确地识别用户的意图。
参考图5a的(c),控制器180可以控制音频输出模块153以输出包括与语音610相对应的信息的可听数据601。可听数据601可以包括包括在可视数据510中的信息的至少一部分。
因此,即使当用户的语音作为耳语被分类或者接收到低于参考音量的语音的音量时,如果感测到用户的嘴靠近麦克风122,则可听数据的输出可以被限制。
即,当用户有意识地使移动终端靠近嘴以输入语音时并且当由于周围环境移动终端和用户紧密地定位时,可以限制可听数据的输出。例如,当用户通过使移动终端靠近嘴输入语音使得其它人没有听到时,可听数据也不可以被暴露于外部。
本公开可以被配置以通过确定是否用户不想要暴露可听数据控制可听数据的输出。在下文中,将会描述根据各种示例性实施例的输出可听数据的控制方法。
图6a至图6d是图示根据各种示例性实施例的控制可听数据的输出的方法的概念图。
在下文中,参考图6a,将会给出响应于通过感测单元感测到的移动终端的移动限制可听数据的输出的控制方法的描述。根据本示例性实施例,当语音识别模式被激活或者通过麦克风122输入语音时控制器180可以激活感测单元140。
如前述的,感测单元140可以包括与麦克风122相邻的接近传感器。
另一方面,感测单元140可以包括陀螺仪传感器,该陀螺仪传感器感测移动终端的主体的旋转。当在输入语音时陀螺仪传感器感测移动终端的旋转时控制器180可以控制音频输出模块153以限制可听数据的输出。当通过陀螺仪传感器感测到移动终端的旋转时的时间点可以不被限制。
例如,当在语音被输入之前语音识别模式被激活并且移动终端的旋转被感测时,当在语音被输入时感测到旋转时,或者当在与输入语音相对应的可听数据被输出时感测到旋转时,控制器180可以限制可听数据的输出。
图6a图示对于在声音识别模式被激活并且感测移动终端的旋转之后输入语音的情况而采用的控制方法。控制器180可以通过限制可听数据的输出控制输出单元150以输出可视数据。
然而,本公开不可以被限于此。控制器180也可以通过确定输入语音的属性以及相对于通过感测单元感测到的移动终端的用户的相对位置和移动终端的旋转控制音频输出模块153。
在下文中,将会参考图6b给出根据与语音一起输入的外部声音控制数据的输出的方法的描述。
控制器180可以在声音识别模式下激活麦克风122使得通过麦克风122能够接收用户的语音。在此,可以允许通过激活的麦克风122输入语音和外部声音两者。
控制器180可以控制分析单元以分析语音和外部声音。分析单元可以以分类的方式分析语音和外部声音的每个属性。
控制器180可以控制分析单元以分析外部声音的属性以及分析语音。
控制器180可以基于外部声音预测移动终端位于同时输入语音的外部环境。例如,当外部声音对应于指南公共汽车站的广播时,控制器180可以预测移动终端位于公共汽车内。
当预测到的外部环境对应于预设地点时,控制器180可以控制音频输出模块153以限制可听数据的输出。例如,预设地点可以是许多人存在的公共地点。虽然未详细地示出,但是控制器180可以控制存储器160以存储外部声音。
然而,本公开不可以被限于此。分析单元可以分析语音和外部声音。例如,分析单元可以确定相对于外部声音的语音的相对音量。当在语音的音量和外部声音的音量之间的差低于预设参考音量时,控制器180可以控制音频输出模块153以限制可听数据的输出。
即,控制器180可以通过利用麦克风122与用户的语音一起输入的外部声音的使用根据用户的当前周围环境以及用户的意图限制可听数据的输出。
在下文中,将会参考图6c描述基于输入语音的音量输出可听数据的控制方法。
控制器180可以在语音识别模式下基于第一输入语音610产生数据。控制器180可以控制分析单元以分析第一语音610的第一属性,并且基于分析的第一语音610的第一属性控制音频输出模块153以限制可听数据的输出。控制器180可以控制显示单元151以输出可视数据。
图6c的(b)图示与第一语音610相对应的可视数据被输出并且限制可听数据的输出的状态。例如,控制器180可以基于以比预设音量低的音量输入的第一语音610产生可视数据和可听数据,并且通过限制可听数据的输出控制输出单元150以仅输出可视数据。参考图6c的(c),控制器180可以控制麦克风122以接收第二语音630。
第二语音630可以被定义为包括与第一语音610基本上相同的内容。即,基于第一和第二语音610和630产生的可视和可听数据基本上彼此相同。
在此,第二语音630可以包括不同于第一属性的第二属性。例如,第二语音630可以在回声的输出形式、细微差别、速度、强度、以及程度中的至少一个中不同于第一语音610。
例如,第二语音630可以比第一语音610大,并且第二语音630的音量可以对应于高于参考音量的音量。在此,不同于第一属性的第二属性可以不被限于音量。
当第二语音630被输入时,控制器180可以控制输出单元150以输出可视和可听数据510和601。当第二语音630被输入时,控制器180也可以控制显示单元151以重复的方式输出可视数据510。然而,在不限于此的情况下,控制器180可以控制输出单元150以仅输出可听数据601同时在显示单元151上连续地输出可视数据510。
在没有用于输出可听数据的单独的控制命令的情况下,这可以允许用户以输入语音的方式控制可听数据的输出。
在下文中,将会参考图6d给出根据语音的音量输出可听数据的控制方法的描述。
参考图6d的(a),控制器180可以基于以第一音量输入的第一语音610控制输出单元150以输出可视数据510和第一可听数据601。
控制器180可以测量第一语音610的第一音量,并且控制音频输出模块153以第一音量输出第一可视数据601。
另一方面,控制器180可以基于以第二音量输入的第二语音640控制音频输出模块153以输出第二可听数据604。控制器180可以控制音频输出模块153以第二音量输出第二可听数据604。
即,控制器180可以控制音频输出模块153以基本上与输入语音的音量成比例的音量输出可听数据。
而且,控制器180可以通过分析输入语音的属性和移动终端的移动控制音频输出模块153以限制可听数据的输出。
参考图6d的(c),控制器180可以基于语音的属性和与用户的接近或者隔开控制音频输出模块153以限制可听数据的输出。
例如,基于通过感测单元感测到的用户的相对位置和第三语音650的属性中的至少一个,控制器180可以控制输出单元150以限制与在与麦克风122相邻的位置处用户输入的第三语音650相对应的可听数据的输出。控制器180可以控制显示单元151以输出与第三语音650相对应的可视数据。
因此,可以通过控制输入语音的音量可听数据的音量可以是可调节的。而且,通过控制语音的音量可以限制可听数据的输出。
图7是图示以文本格式输出被阻止(被限制的)可听数据的控制方法的概念图。
如在图7中所图示,控制器180可以接收语音660同时屏幕信息502在显示单元151上被输出。例如,屏幕信息502可以对应于视频应用的再现屏幕,并且语音660可以对应于用于控制再现的控制命令。
控制器180可以基于语音660控制视频再现,并且产生与视频再现的控制有关的可视数据和可听数据。例如,可视数据可以对应于视频的改变的再现屏幕。而且,控制器180可以基于语音660的属性和移动终端的移动中的至少一个控制音频输出模块153以限制可听数据的输出。
根据本示例性实施例,控制器180可以控制显示单元151以输出可听数据已经被转换成的文本520。例如,控制器180可以控制显示单元151以输出转换成的文本格式的信息(例如,倒回两分钟之前),其被输入以控制视频再现应用。
这可以允许用户以可视信息的格式被提供有要以可听数据的格式提供的信息。
图8图示根据另一示例性实施例的基于输入的外部声音限制可听数据的控制方法。控制器180可以控制麦克风122以接收用户的语音和移动终端的外部声音。
控制器180可以分类(分类)语音610和外部声音621,并且测量外部声音621的音量(声音级别)。控制器180可以将外部声音621与预设参考音量进行比较。
参考图8的(a)和图8的(b),当外部声音621低于参考音量时,控制器180可以控制音频输出模块153以输出基于语音610产生的可听数据601。参考图8的(c)和图8的(d),当外部声音621低于参考音量时,控制器180可以控制音频输出模块153以限制可听数据601的输出。
即,当外部声音621低于参考音量时,控制器180可以确定移动终端位于安静的地点并且因此限制可听数据的输出。例如,用户可以基于在诸如图书馆等等的安静的地点中的输入语音自动地限制可听数据的输出。
图9a和图9b是图示在显示单元上输出可视数据和文本的控制方法的概念图。
如在图9a中所图示,在声音识别模式中,控制器可以控制显示单元以输出通知语音识别模式的信息(例如,我能帮助你吗?)。在与麦克风分开最远的显示单元的上端,即,在显示单元的一个区域上可以输出信息。
控制器可以基于语音产生可听数据和可视数据。当语音被识别时,当麦克风122和用户的嘴被感测为彼此靠近并且语音的音量低于预设音量时,控制器可以控制扬声器153以限制可听数据的输出。而且,控制器可以控制显示单元以输出与通过麦克风输入的语音相对应的文本。
即,显示单元不仅可以输出基于语音产生的可视数据而且可以输出与语音和可听数据相对应的文本。因此,这可以有助于用户意识到移动终端在语音识别模式下识别用户的语音。
控制器可以控制显示单元以输出与可听数据相对应的文本和可视数据中的至少一个。根据本示例性实施例,控制器可以控制显示单元以在与麦克风相邻的区域上输出文本和可视数据中的至少一个。
例如,控制器可以控制显示单元以在与麦克风最相邻的区域上输出最近产生的可听数据或者文本。因此,在显示单元上的最早输出的信息的输出位置可以逐渐地变得远离麦克风。
即,终端可以位于靠近用户的嘴,并且以顺序的方式在与麦克风相邻的位置上可以输出可视数据和文本。
参考图9b,控制器可以控制显示单元以在远离麦克风的位置上输出最近产生的可视数据或者文本。例如,显示单元可以在离麦克风最近的显示单元的区域上输出与语音识别模式有关的信息,并且以逐渐地变得远离麦克风的方式输出在信息之后产生的可视数据或者文本。
然而,在显示单元上输出可视数据和文本的方法不可以限于此。例如,图像信息、视频信息等等以及文本也可以以相同的输出方式在显示单元上被输出。
尽管未被示出,控制器可以控制显示单元以根据终端被移动和旋转的方向改变输出可视数据和文本的方位。
图10a和图10b图示在图像显示装置100’中基于感测到的用户控制可听数据的输出的方法。
在下文中,将会参考图10a给出在图像显示装置的语音识别模式的激活状态下感测输入语音的用户的面部限制可视数据和可听数据的输出的控制方法的描述。图10a的(a)和图10a的(b)图示输入语音的用户的面部被视为正面。
图像显示装置100’可以包括感测单元,该感测单元感测位于显示单元151的前面的用户的面部。感测单元可以被实现为相机等等。
当通过感测单元感测到的用户的面部被视为正面时,控制器180可以将用户输入语音611视为用于控制图像显示装置100’的功能的控制命令,并且控制图像显示装置100’以执行功能。
因此,控制器180可以控制在图像显示装置100’的显示单元151’上输出的第一屏幕信息503以被转换成第二屏幕信息504。虽然未被示出,但是控制器180也可以控制显示单元以输出包括指示基于语音611已经改变屏幕信息的信息的可听数据。
另一方面,当输入声音611的用户的面部没有被感测为正面时,控制器180可以不将语音611视为控制命令。因此,与语音611相关联的数据可以不被产生。
然而,用于确定是否语音611是控制命令的准则可以不被限于此。例如,控制器180可以通过感测传输语音611的波长的方向、分析语音的回声等等来理解用户的意图。即,控制器180可以通过分析输入到图像显示装置100’的用户的语音输入的属性确定是否语音对应于控制命令。
在下文中,将会参考图10b给出基于被输入到用于控制图像显示装置100’的外部输入装置(即,接口单元170)的语音控制可听数据的输出的方法的描述。
当外部输入装置170被转换成语音识别模式时,控制器180可以接收用户的语音670。被包括在图像显示装置100’或者外部输入装置170中的控制器180可以通过分析语音670的属性或者感测外部输入装置170的移动限制可听数据607的输出。
例如,当语音670对应于用于将第一屏幕信息503转换成第二屏幕信息504的控制命令时,控制器180可以控制显示单元151、151’以将第一屏幕信息503转换成第二屏幕信息504,并且确定是否输出包括指示屏幕信息已经被转换(改变)的信息的可听数据607。
参考图10b的(c)和图10b的(d),控制器180可以控制图像显示装置100’以分析输入到外部输入装置170的语音670或者感测是否外部输入装置170位于靠近用户的嘴的方式限制可听数据607的输出。即,外部输入装置170的控制器180可以限制用于将可听数据输出到图像显示装置100’的信号的输出。
在下文中,将会给出用于根据另一示例性实施例的包括显示单元151和音频输出模块153的装置的控制方法的描述。例如,在图11中图示的装置100″可以对应于空调等等,而不限于此。语音680可以对应于用于控制装置的功能的控制命令。例如,语音680可以对应于用于改变在空调中设置的温度的控制命令。因此,控制器180可以控制显示单元151、151’以基于语音680输出改变的温度。
参考图11,装置100″的控制器180可以分析输入到装置100″的语音680的属性。例如,控制器180可以确定从装置100″到语音680来自的用户的距离。
参考图11的(c)和图11的(d),当距离低于预设距离时,控制器180可以控制音频输出模块153以输出基于语音680产生的可听数据608b。
另一方面,当距离属于预设范围时,控制器180可以控制音频输出模块153以限制可听数据608b的输出。在此,控制器180也可以控制音频输出模块153以基于操作输出通知声音608a。
即,当对于用户来说难以用眼睛检查操作时控制器180可以控制可听数据以仅被输出。
在前述的实施例中的移动终端、图像显示装置等等中的配置和方法可以不被限制性地应用,但是通过实施例的全部或者部分的选择性组合而配置这样的实施例使得实现许多的变化。
工业实用性
本公开的示例性实施例提出通过用户语音的分析控制移动终端的方法,其可以被应用于与其相关联的各种工业领域。
Claims (14)
1.一种终端,包括:
主体;
设置在所述主体的一部分的麦克风,所述麦克风被配置成接收用于控制所述终端的操作的用户的语音输入;
分析单元,所述分析单元被配置成分析所述用户的语音输入的属性;
感测单元,所述感测单元被配置成当所述用户的语音输入被输入时感测在所述用户的嘴和所述麦克风之间的接近程度,并且当所述用户的语音被输入时感测所述主体的移动;
扬声器,所述扬声器被配置为输出与所述用户的语音输入有关的可听数据;
显示单元,所述显示单元被配置为显示与所述用户的语音输入相对应的可视数据;
控制器(180),所述控制器被配置成当感测到所述主体的移动并且在感测到所述主体的移动之后所述接近程度小于预设范围并且所述语音的音量低于预设参考音量时,限制所述可听数据的输出并且仅在所述显示单元上输出所述可视数据,其中,在邻近所述麦克风的区域上显示所述可视数据,
其中,所述控制器进一步被配置为在与所述麦克风最邻近的区域上输出最近生成的可听数据,
其中,在所述显示单元上最早输出的信息的输出位置逐渐地变得远离所述麦克风。
2.根据权利要求1所述的终端,其中,所述分析单元基于预设准则分类所输入的语音,并且
其中,当所述语音被分类为包括沙沙声的耳语时,所述控制器控制所述输出单元以限制所述可听数据的输出。
3.根据权利要求2所述的终端,其中,所述分析单元分析与所述语音的属性相对应的回声的细微差别、速度、强度以及程度中的至少一个,并且
其中,基于所述预设准则分类所述语音以限制所述可听数据的输出。
4.根据权利要求1所述的终端,其中,所述控制器基于通过所述麦克风输入的外部声音分析所述终端的外部环境,并且基于所述外部环境限制所述可听数据的输出。
5.根据权利要求1所述的终端,其中,所述感测单元进一步包括陀螺仪传感器,所述陀螺仪传感器被配置成在所述用户的语音输入被输入时感测所述终端的主体的移动和旋转。
6.根据权利要求1所述的终端,其中,所述控制器控制所述输出单元调节所述可听数据的音量以对应于所输入的语音的音量。
7.根据权利要求1所述的终端,其中,所述控制器基于所述用户的语音输入执行操作,并且
其中,所述控制器控制所述输出单元在所述可听数据的输出被限制时输出与所述可听数据相对应的文本和与所述可听数据相对应的可视数据中的至少一个。
8.根据权利要求1所述的终端,其中,当所述可听数据的输出被限制时所述控制器控制所述输出单元以输出指示所述操作已经被执行的通知声音。
9.根据权利要求1所述的终端,其中,当所述可听数据的输出被限制时所述控制器控制所述输出单元以输出指示所述操作已经被执行的可听数据。
10.根据权利要求1所述的终端,进一步包括感测单元,所述感测单元被配置成感测用户的面部,
其中,当通过所述感测单元感测所述用户的面部为正面时所述控制器基于所述语音控制所述输出单元,并且
其中,当通过所述感测单元没有感测所述用户的面部为所述正面时所述控制器忽略所述语音。
11.一种终端的控制方法,包括:
通过麦克风接收用户的语音输入;
分析接收到的用户的语音的属性;
在接收到所述用户的语音时感测在所述用户的嘴和所述麦克风之间的接近程度,并且在接收到所述用户的语音输入时感测主体的移动;
基于所述用户的语音产生可视数据和可听数据;
输出所产生的可视数据和所产生的可听数据;
当感测到所述主体的移动并且在感测到所述主体的移动之后所述语音被输入时所述接近程度小于预设范围并且所述语音的音量低于预设参考音量时限制所述可听数据的输出并且仅在显示单元上显示所述可视数据;
其中,所述控制方法进一步包括在与所述麦克风最邻近的区域上输出最近生成的可听数据,
其中,在所述显示单元上最早输出的信息的输出位置逐渐地变得远离所述麦克风。
12.根据权利要求11所述的方法,其中,所述语音的属性的分析包括:
确定所述语音是否被分类为包括沙沙声的耳语。
13.根据权利要求12所述的方法,进一步包括,当所述语音被分类为所述耳语时限制所述可听数据的输出。
14.根据权利要求11所述的方法,进一步包括:
当所述可听数据的输出被限制时输出指示操作的执行的通知声音。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361807771P | 2013-04-03 | 2013-04-03 | |
US61/807,771 | 2013-04-03 | ||
KR10-2013-0072534 | 2013-06-24 | ||
KR1020130072534A KR102129786B1 (ko) | 2013-04-03 | 2013-06-24 | 단말기 및 이의 제어방법 |
PCT/KR2013/012380 WO2014163284A1 (en) | 2013-04-03 | 2013-12-30 | Terminal and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105122361A CN105122361A (zh) | 2015-12-02 |
CN105122361B true CN105122361B (zh) | 2019-06-04 |
Family
ID=51658515
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380075394.0A Active CN105122361B (zh) | 2013-04-03 | 2013-12-30 | 终端及其控制方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10078490B2 (zh) |
EP (1) | EP2982042B1 (zh) |
KR (2) | KR102129786B1 (zh) |
CN (1) | CN105122361B (zh) |
WO (1) | WO2014163246A1 (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6851133B2 (ja) * | 2014-01-03 | 2021-03-31 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | ユーザに方向付けられた個人情報アシスタント |
US9990921B2 (en) * | 2015-12-09 | 2018-06-05 | Lenovo (Singapore) Pte. Ltd. | User focus activated voice recognition |
KR102418952B1 (ko) * | 2017-08-31 | 2022-07-08 | 삼성전자주식회사 | 음성인식 기능을 갖는 가전제품 |
JP7000924B2 (ja) * | 2018-03-06 | 2022-01-19 | 株式会社Jvcケンウッド | 音声内容制御装置、音声内容制御方法、及び音声内容制御プログラム |
JP7010073B2 (ja) * | 2018-03-12 | 2022-01-26 | 株式会社Jvcケンウッド | 出力内容制御装置、出力内容制御方法、及び出力内容制御プログラム |
US11151990B2 (en) * | 2018-12-14 | 2021-10-19 | International Business Machines Corporation | Operating a voice response system |
CN110262767B (zh) * | 2019-06-03 | 2022-03-11 | 交互未来(北京)科技有限公司 | 基于靠近嘴部检测的语音输入唤醒装置、方法和介质 |
CN111081092B (zh) * | 2019-06-09 | 2022-03-25 | 广东小天才科技有限公司 | 一种学习内容输出方法及学习设备 |
US11630639B2 (en) | 2020-12-08 | 2023-04-18 | Samsung Electronics Co., Ltd. | Control method of electronic device using a plurality of sensors and electronic device thereof |
KR20220081136A (ko) * | 2020-12-08 | 2022-06-15 | 삼성전자주식회사 | 복수의 센서를 이용한 전자 장치의 제어 방법 및 그 전자 장치 |
CN115083402A (zh) * | 2021-03-15 | 2022-09-20 | Oppo广东移动通信有限公司 | 响应控制语音的方法、装置、终端及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2336073A (en) * | 1998-03-30 | 1999-10-06 | Nec Corp | Voice activated volume control in a mobile telephone |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06124097A (ja) * | 1992-10-13 | 1994-05-06 | Hitachi Ltd | 携帯型端末装置 |
JP3337588B2 (ja) * | 1995-03-31 | 2002-10-21 | 松下電器産業株式会社 | 音声応答装置 |
KR100548881B1 (ko) * | 2003-06-17 | 2006-02-02 | 주식회사 특수에이브이 | 자동화 마이크 |
KR20050019171A (ko) * | 2003-08-18 | 2005-03-03 | 에스케이텔레텍주식회사 | 움직임을 감지하여 벨소리/진동량을 조절하는 방법 및이를 구현하는 이동통신 단말기 |
EP1643472A1 (en) * | 2004-09-29 | 2006-04-05 | Jeroen Jacobus Pennings | Method for improving the readability of displayed texts and devices in which the method is implemented |
US7522065B2 (en) * | 2004-10-15 | 2009-04-21 | Microsoft Corporation | Method and apparatus for proximity sensing in a portable electronic device |
US20060085183A1 (en) * | 2004-10-19 | 2006-04-20 | Yogendra Jain | System and method for increasing recognition accuracy and modifying the behavior of a device in response to the detection of different levels of speech |
JP4728982B2 (ja) * | 2007-03-05 | 2011-07-20 | 株式会社東芝 | 利用者と対話する装置、方法およびプログラム |
KR101403795B1 (ko) * | 2007-04-02 | 2014-06-03 | 엘지전자 주식회사 | 이동통신단말기 및 그 사용자 인터페이스 설정방법 |
JP2011055076A (ja) * | 2009-08-31 | 2011-03-17 | Fujitsu Ltd | 音声通話装置及び音声通話方法 |
JP5527055B2 (ja) | 2010-07-02 | 2014-06-18 | 富士通株式会社 | 電子機器、制御プログラムおよび制御方法 |
WO2012169679A1 (ko) | 2011-06-10 | 2012-12-13 | 엘지전자 주식회사 | 디스플레이 장치, 디스플레이 장치의 제어 방법 및 디스플레이 장치의 음성인식 시스템 |
KR101262700B1 (ko) * | 2011-08-05 | 2013-05-08 | 삼성전자주식회사 | 음성 인식 및 모션 인식을 이용하는 전자 장치의 제어 방법 및 이를 적용한 전자 장치 |
-
2013
- 2013-06-24 KR KR1020130072534A patent/KR102129786B1/ko active IP Right Grant
- 2013-07-31 US US14/782,567 patent/US10078490B2/en active Active
- 2013-07-31 WO PCT/KR2013/006874 patent/WO2014163246A1/ko active Application Filing
- 2013-07-31 KR KR1020157022623A patent/KR102127394B1/ko active IP Right Grant
- 2013-12-30 CN CN201380075394.0A patent/CN105122361B/zh active Active
- 2013-12-30 EP EP13881366.2A patent/EP2982042B1/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2336073A (en) * | 1998-03-30 | 1999-10-06 | Nec Corp | Voice activated volume control in a mobile telephone |
Also Published As
Publication number | Publication date |
---|---|
EP2982042B1 (en) | 2021-10-13 |
CN105122361A (zh) | 2015-12-02 |
KR102127394B1 (ko) | 2020-06-26 |
KR20150137050A (ko) | 2015-12-08 |
EP2982042A1 (en) | 2016-02-10 |
KR20140120798A (ko) | 2014-10-14 |
KR102129786B1 (ko) | 2020-07-03 |
US10078490B2 (en) | 2018-09-18 |
WO2014163246A1 (ko) | 2014-10-09 |
EP2982042A4 (en) | 2016-11-09 |
US20160026431A1 (en) | 2016-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105122361B (zh) | 终端及其控制方法 | |
CN104049740B (zh) | 移动终端及其控制方法 | |
CN104375774B (zh) | 移动终端以及控制移动终端的方法 | |
US9134952B2 (en) | Terminal and control method thereof | |
US10120992B2 (en) | Mobile terminal and method for controlling the same | |
CN104281402B (zh) | 移动终端及其控制方法 | |
CN104423582B (zh) | 移动终端 | |
CN106453812B (zh) | 移动终端及其控制方法 | |
CN104823434B (zh) | 移动终端及其控制方法 | |
CN104111772B (zh) | 移动终端及其控制方法 | |
CN104423580B (zh) | 可穿戴的眼镜型终端及其控制方法、具有该终端的*** | |
CN106412222B (zh) | 移动终端及其控制方法 | |
CN104639736B (zh) | 移动终端及其控制方法 | |
CN105452990B (zh) | 移动终端及其控制方法 | |
US11151998B2 (en) | Artificial intelligence device | |
CN104052866B (zh) | 移动终端和控制移动终端的方法 | |
CN104284014B (zh) | 移动终端及其控制方法 | |
CN105432060A (zh) | 移动终端及其控制方法 | |
CN104869223A (zh) | 无线接收器及其控制方法 | |
CN103973840A (zh) | 移动终端 | |
CN102238280A (zh) | 电子设备及其发送信息的方法和控制电子设备的方法 | |
US10102719B2 (en) | Mobile terminal and control method thereof | |
CN105830007A (zh) | 移动终端及其控制方法 | |
EP2775409A2 (en) | Mobile terminal and control method thereof | |
CN105630281A (zh) | 移动终端及其控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |