CN103793097B - 移动终端及其控制方法 - Google Patents
移动终端及其控制方法 Download PDFInfo
- Publication number
- CN103793097B CN103793097B CN201310311337.XA CN201310311337A CN103793097B CN 103793097 B CN103793097 B CN 103793097B CN 201310311337 A CN201310311337 A CN 201310311337A CN 103793097 B CN103793097 B CN 103793097B
- Authority
- CN
- China
- Prior art keywords
- mobile terminal
- image
- control unit
- region
- touch input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1643—Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Telephone Function (AREA)
- User Interface Of Digital Computer (AREA)
- Studio Devices (AREA)
Abstract
提供一种移动终端及其控制方法,该移动终端能够感测触摸输入。该移动终端包括:相机单元,该相机单元被配置成在相机模式下接收图像;显示单元,该显示单元被配置成感测触摸输入;控制单元,该控制单元被配置成基于通过显示单元感测到的触摸输入指定区域,当区域被指定时执行相机模式,控制相机单元以捕获接收到的图像,并且在指定的区域中显示捕获的图像。
Description
技术领域
本发明涉及一种移动终端,并且更加具体地,涉及一种能够感测触摸输入的移动终端及其控制方法。
背景技术
通常,根据终端是否是可移动的,可以将终端划分成移动终端和固定终端。另外,根据用户是否能够将其直接地随身携带,可以将移动终端划分成手持终端和车载终端。
随着功能变得多样化,移动终端能够支持诸如捕捉图像或者视频、再现音乐或者视频文件、玩游戏、接收广播信号等的更加复杂的功能。通过全面地和共同地实现这样的功能,移动终端可以以多媒体播放器或者设备的形式体现。正在对支持和增加移动终端的功能性进行努力。这样的努力包括软件和硬件改进,以及在形成移动终端的结构组件上的变化和改进。
其间,终端可以通过使用相机单元捕获图像。然而,在这样的情况下,当在其中主屏幕、锁定屏幕、或者应用的执行屏幕被显示在显示单元上的状态下用户想要操作相机单元时,执行数个阶段处理,由此需要数秒钟。
发明内容
本发明的方面提供一种能够在操作相机单元中增加用户便利的移动终端及其控制方法。
为了实现这些和其它优点并且根据本发明的目的,如在此具体化和广泛地描述的,在一个方面中本发明提供一种移动终端,包括:相机单元,该相机单元被配置成在相机模式下接收图像;显示单元,该显示单元被配置成感测触摸输入;控制单元,该控制单元被配置成基于通过显示单元感测到的触摸输入来指定区域,当区域被指定时执行相机模式,控制相机单元以捕获接收到的图像,以及在指定的区域中显示捕获的图像。
在本发明的实施例中,显示单元可以被配置成显示屏幕信息,以及控制单元可以追踪在屏幕信息上感测到的触摸输入,基于触摸输入的轨迹、在屏幕信息上指定区域,以及显示指定的区域使得其与屏幕信息的其它区域相区别。
在本发明的实施例中,控制单元可以基于在指定的区域中感测到的触摸输入将指定的区域移动到屏幕信息的不同区域。
在本发明的实施例中,当感测到被施加到指定的区域的触摸输入时,控制单元可以执行相机模式以及在指定的区域中显示在相机模式下通过相机单元来实时接收到的预览图像。
在本发明的实施例中,当感测到被施加到预览图像的触摸输入时,控制单元可以控制相机单元以对接收到的图像执行捕获。
在本发明的实施例中,当相机单元对接收到的图像执行捕获时,控制单元可以在预设时间段期间显示包括与捕获到的图像相对应的缩略图图像的剪贴板,以及当选择在剪贴板中显示的至少一个缩略图图像中的任意一个时,控制单元可以在指定的区域中显示与所选择的缩略图图像相对应的图像。
在本发明的实施例中,移动终端可以进一步包括存储器,其中当区域被指定时,控制单元可以在指定的区域中显示多个图标,使得能够选择是否在指定的区域中显示相机单元的预览图像或者是否在指定的区域中显示先前存储在存储器中的图像,以及可以在指定的区域中显示与从图标中选择的图标相对应的图像。
在本发明的实施例中,在其中在指定的区域中显示先前存储在存储器中的图像的状态下,控制单元可以基于在指定的区域中感测到的触摸输入将在指定的区域中显示的图像变成不同的图像。
在本发明的实施例中,控制单元可以基于被施加到指定的区域的触摸输入的长度信息和方向信息中的至少一个来控制在指定的区域中显示的图像的缩放和亮度中的至少一个。
在本发明的实施例中,当感测到被施加到指定的区域的触摸输入时,控制单元可以在与指定的区域相邻的一个区域中显示用于激活与相机单元有关的特定功能和与指定的区域有关的特定功能的至少一个菜单图标,以及当选择至少一个菜单图标中的任意一个时,控制单元可以执行与所选择的菜单图标相对应的特定功能。
在本发明的实施例中,与相机单元有关的特定功能可以包括相机单元的缩放功能、相机单元的亮度调节功能、以及相机模式下的菜单选择功能中的至少一个。
在本发明的实施例中,与指定的区域有关的特定功能可以包括在指定的区域中显示的图像的缩放功能、删除显示的图像的功能、以及在指定的区域中显示不同的图像的功能中的至少一个。
在本发明的实施例中,当在屏幕信息上指定区域之后感测到被施加到屏幕信息的预设触摸输入时,控制单元可以进一步指定与感测到在屏幕信息上的触摸输入的次数相对应的区域。
在本发明的实施例中,当在屏幕信息上指定第一和第二区域时,控制单元可以第一区域中显示预览图像的第一部分以及在第二区域中显示预览图像的第二部分。
在本发明的实施例中,当第一和第二区域的至少部分重叠时,控制单元可以合并第一和第二区域以及在合并的区域中显示预览图像。
在本发明的实施例中,当在屏幕信息上指定第一和第二区域时,控制单元可以在第一和第二区域中显示在第一和第二时间点处通过相机单元捕获的图像。
在本发明的实施例中,屏幕信息可以包括主屏幕、锁定屏幕、以及电子备忘录书写屏幕中的至少一个。
在本发明的实施例中,控制单元可以追踪在屏幕信息上感测到的触摸输入,以及根据触摸输入的轨迹来设置预设文本数据。
为了实现这些和其它优点并且根据本发明的目的,如在此具体化和广泛地描述的,在另一个方面中,本发明提供一种移动终端的控制方法,包括:基于在显示单元中感测到的触摸输入来指定区域;当区域被指定时,执行相机模式以允许相机单元接收图像;控制相机单元以对接收到的图像执行捕获;以及在指定的区域中显示捕获的图像。
在本发明的实施例中,基于在显示单元中感测到的触摸输入来指定区域可以包括:追踪在显示单元上显示的屏幕信息上感测到的触摸输入;基于触摸输入的轨迹,在屏幕信息上指定区域;以及显示指定的区域,使得其与屏幕信息的其它区域相区别。
从下文中所给出的具体实施方式,本发明的可应用性的进一步的范围将变得显而易见。然而,应该理解的是,详细描述和特定示例在指示本发明的优选实施例时仅通过举例说明来给出,因为从详细描述中本发明的精神和范围内的各种改变和修改对本领域的技术人员而言将变得显而易见。
附图说明
从下文中所给出的具体描述和附图,将变得更加充分地理解本发明,附图仅以图示方式给出,并且因此不限制本发明,以及其中:
图1是根据本发明实施例的移动终端的框图。
图2A和图2B分别是图示根据本发明实施例的移动终端的外部的透视图。
图3是图示根据本发明实施例的移动终端的控制方法的处理的流程图。
图4至图20分别是图示图3中的移动终端的操作示例的概念图。
具体实施方式
现在详细地参考本发明的优选实施例,在附图中图示其示例。
图1是根据本发明实施例的移动终端100的框图。参考图1,移动终端100包括无线通信单元110、A/V(音频/视频)输入单元(在下文中,被称为“用户跟踪单元”)、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制单元180、以及电源单元190等。图1将移动终端示出为具有各种组件,但是应理解,实现所有的被图示的组件不是要求。可替选地,可以实现较多的或者较少的组件。
在下文中,如下将详细地描述移动终端100的元件100至190。
无线通信单元110通常包括允许移动终端100和无线通信***之间或者移动终端100和其中移动终端位于的网络之间的无线电通信的一个或者多个模块。例如,无线通信单元可以包括广播接收模块111、移动通信模块112、无线因特网模块113、短程通信模块114、以及位置信息模块115中的至少一个。
广播接收模块111经由广播信道从外部广播管理服务器接收广播信号和/或广播相关信息。广播相关信息可以指的是与广播信道、广播节目、或者广播服务提供商相关联的信息。还可以经由移动通信网络来提供广播相关信息,并且在该情况下,可以通过移动通信模块112来接收广播相关信息。经由广播接收模块111接收到的广播信号和/或广播相关信号可以被存储在存储器160中。
移动通信模块112将无线电信号发送到基站、外部终端以及服务器中的至少一个和/或从基站、外部终端以及服务器中的至少一个接收无线电信号。根据文本和/或多媒体消息传输和/或接收等,这样的无线电信号可以包括语音呼叫信号、视频呼叫信号或各种类型的数据。
无线因特网模块113支持对于移动终端100的无线因特网接入。该模块可以内部地或外部地耦合到移动终端100。所实现的无线因特网接入技术可以包括WLAN(无线LAN)(Wi-Fi)、Wibro(无线宽带)、Wimax(全球微波接入互操作性)、HSDPA(高速下行链路分组接入)等。
短程通信模块114是用于支持短程通信的模块。短程通信技术的一些示例包括蓝牙TM、射频识别(RFID)、红外线数据协会(IrDA)、超宽带(UWB)、紫峰TM(zigBeeTM)等。
位置信息模块115是用于检查或获取移动终端100的位置的模块。位置信息模块的典型示例是GPS(全球定位***)。
参考图1,A/V输入单元120包括相机121和麦克风122。相机121处理由图像传感器在视频捕获模式或图像捕获模式下所获得的静止图片或视频的图像帧。通过相机121处理的图像帧可以被显示在显示单元151上。处理的图像帧可以被存储在存储器160中或者经由无线通信单元110来发送到外部。可以根据使用环境来提供两个或两个以上的相机121。
麦克风122可以在电话呼叫模式、记录模式、语音识别模式等中将从外部源输入的音频信号处理成电子语音数据。在电话呼叫模式的情况下,通过麦克风122处理的音频(语音)数据可以被变换为经由移动通信模块112可发送到移动通信基站的格式以用于输出。麦克风122可以实现各种类型的噪声消除(或抑制)算法,以消除(或抑制)在接收和发送音频信号的过程中所生成的噪声或干扰。
用户输入单元130可以根据由用户键入的以控制移动终端的各种操作的命令来生成输入数据。用户输入单元130可以包括键盘、圆顶开关、触摸板、转向轮(jog wheel)、转向开关等。
感测单元140检测移动终端100的当前状态,并且生成用于控制移动终端100的操作的命令或信号,移动终端100的当前状状态诸如移动终端100的打开或关闭状态、移动终端100的位置、用户与移动终端100的接触(即,触摸输入)的存在或不存在、移动终端100的定向、移动终端100的加速或减速移动以及方向等。例如,当移动终端100被实现为滑盖型移动电话时,感测单元140可以感测滑盖电话打开还是关闭。另外,感测单元140能够检测电源单元190是否提供电力、或者接口单元170是否与外部设备耦合。
感测单元140可以包括接近传感器141。此外,感测单元140可以包括触摸传感器(未示出),该触摸传感器用于感测相对于显示单元151的触摸操作。
触摸传感器可以具有触摸膜、触摸片、触摸板等的形式。触摸传感器可以被配置为将施加到显示单元151的特定部分的压力或者在显示单元151的特定部分产生的电容等的变化转换为电输入信号。触摸传感器可以被配置为检测当施加触摸时的压力以及触摸的位置和区域。
当触摸传感器和显示单元151被以分层方式进行覆盖时,显示单元151可以用作输入设备和输出设备。这样的显示单元151也可以被称为“触摸屏”。
当存在通过触摸屏的触摸输入时,相应的信号(多个信号)被发送到触摸控制单元。触摸控制单元处理从触摸传感器发送的信号,以及将相应的数据发送到控制单元180。因此,控制单元180可以识别显示单元151的哪一部分已经被触摸。
当触摸屏是静电式触摸屏时,触摸屏可以根据对象的接近基于电场中的变化检测对象的接近(或者检测目标)。这样的触摸屏可以被分类成接近传感器141。
接近传感器141是用于在没有物理接触的情况下使用电磁力或红外线来检测对象的存在或不存在的传感器。因此,与接触型传感器相比,接近传感器141具有相当长的寿命,并且其能够用于各种目的。接近传感器141的示例可以包括透射式光电传感器、直接反射式光电传感器、镜反射式光电传感器、RF振荡式接近传感器、电容式接近传感器、磁接近传感器、红外接近传感器等。
在下面的描述中,为了解释,要感测的对象被定位在靠近触摸屏的识别将会被称为“接近触摸”,而要感测的对象在触摸屏上的实际接触的识别将被称为“接触触摸”。
接近传感器141感测接近触摸和接近触摸模式(例如,接近触摸距离、接近触摸速度、接近触摸时间、接近触摸位置、接近触摸移动状态等),并且与检测到的接近触摸操作和接近触摸模式相对应的信息能够被输出到触摸屏。
输出单元150被配置成以视觉、听觉和/或触觉方式提供输出。输出单元150可以包括显示单元151、音频输出模块152、报警单元153、触觉模块154等。
显示单元151可以显示(输出)在移动终端100中处理的信息。例如,当移动终端100处于电话呼叫模式中时,显示单元151可以显示与呼叫或其它通信(诸如文本消息收发、多媒体文件下载等)相关联的用户界面(UI)或图形用户界面(GUI)。当移动终端100处于视频呼叫模式或图像捕获模式中时,显示单元151可以显示捕获的图像和/或接收到的图像、示出与其相关的视频或图像以及功能的UI或GUI等。
显示单元151可以包括液晶显示器(LCD)、薄膜晶体管-LCD(TFT-LCD)、有机发光二极管显示器(OLED)、柔性显示器和三维(3D)显示器、以及电子墨显示器中的至少一个。
上述显示器中的一些可以被配置成为透明的或者光透射的以允许看到外部,这可以被称为透明显示器。典型的透明显示器可以是,例如TOLED(透明有机发光二极管)显示器等。通过这样的配置,用户能够通过由终端主体的显示单元151所占据的区域来观看位于在终端主体后侧的对象。
根据其特定的期望实施例,移动终端100可以包括两个或两个以上显示单元。例如,多个显示单元可以被单独地或整体地设置在移动终端的一个表面上,或可以被单独地设置在相互不同的表面上。
音频输出模块152可以在呼叫信号接收模式、呼叫模式、记录模式、语音识别模式、广播接收模式等中转换和输出从无线通信单元110接收到的或者被存储在存储器160中的声音音频数据。此外,音频输出模块152可以提供与通过移动终端100执行的特定功能有关的音频输出(例如,呼叫信号接收声音、消息接收声音等)。音频输出模块152可以包括扬声器、蜂鸣器或其它声音产生设备。
报警单元153可以提供输出以通知与移动终端100的事件的发生。典型的事件可以包括呼叫接收、消息接收、键信号输入、触摸输入等。除了音频或视频输出之外,报警单元153还可以以不同的方式提供输出以通知事件的发生。例如,报警单元153可以以振动的形式提供输出。也可以通过显示单元151或者音频输出模块152输出视频信号或者音频信号,因此显示单元151和音频输出模块152可以被分类成报警单元153的一部分。
触觉模块154产生用户会感觉到的各种触觉效果。通过触觉模块154产生的触觉效果的典型示例是振动。能够控制触觉模块154的强度和模式。例如,不同的振动可以被组合以被输出或者被顺序地输出。
除了振动之外,触觉模块154可以产生各种其它触觉效果,诸如通过相对于接触皮肤垂直移动的针排列的刺激、通过喷射孔或者吸入开口的空气喷射力或者空气吸入力、皮肤上的接触、电极的接触、静电力等的效果、通过使用能够吸收或者产生热的元件再现寒冷和温暖的感觉的效果。
触觉模块154可以被实现为允许用户通过诸如用户的手指或者手臂的肌肉感觉来感受触觉效果,以及通过直接接触来传送触觉效果。根据移动终端100的配置,可以提供两个或更多触觉模块154。
存储器160可以存储用于处理和控制通过控制器180执行的操作的软件程序,或者可以暂时地存储输入或者输出的数据(例如,电话簿、消息、静止图像、视频等)。另外,存储器160可以存储关于当触摸被输入到触摸屏时而输出的各种模式的振动和音频信号的数据。
存储器160可以包括包含快闪存储器、硬盘、多媒体卡微型、卡型存储器(例如,SD或者DX存储器等)、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁存储器、磁盘、以及光盘中的至少一种类型的存储介质。此外,可以与在因特网上执行存储器160的存储功能的网络存储设备相关地操作移动终端100。
接口单元170用作与移动终端100连接的每一个外部设备的接口。例如,外部设备可以将数据发送到外部设备,接收并且发送电力到移动终端100的每个元件,或者将移动终端100的内部数据发送到外部设备。例如,接口单元170可以包括有线或者无线头戴式受话器端口、外部电源端口、有线或者无线数据端口、存储卡端口、用于连接具有标识模块的设备的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等。
标识模块可以是存储用于认证使用移动终端100的权限的各种信息的芯片,并且可以包括用户身份模块(UIM)、订户身份模块(SIM)、通用订户身份模块(USIM)等。另外,具有标识模块的设备(在下文中,被称为“标识设备”)可以采用智能卡的形式。因此,标识设备可以经由端口与移动终端100相连接。
当移动终端100与外部托架相连接时,接口单元170可以用作允许通过其将来自托架的电力供应给移动终端100的通道,或者可以用作允许通过其将用户输入的各种命令信号从托架传送到移动终端的通道。从托架输入的各种命令信号或电力可以***作为用于识别移动终端被正确地安装在托架上的信号。
控制单元180通常控制移动终端的一般操作。例如,控制单元180执行与语音呼叫、数据通信、视频呼叫等相关联的控制和处理。控制单元180可以包括用于再现多媒体数据的多媒体模块181。多媒体模块181可以被配置在控制单元180内或者可以被配置为与控制单元180分离。控制单元180可以执行模式识别处理以将在触摸屏上执行的手写输入或者绘图输入分别识别为字符或者图像。
电源单元190接收外部电力或者内部电力并且供应用于在控制单元180的控制下操作各个元件和组件所要求的适当的电力。
使用例如软件、硬件、或者其任何组合在计算机可读或者其类似的介质中可以实现在此描述的各种实施例。
对于硬件实现,通过使用被设计为执行在此描述的功能的专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、处理器、控制单元、微控制单元、微处理器、电子单元中的至少一个,可以实现在此描述的实施例。在一些情况下,可以通过控制单元180自身实现这样的实施例。
对于软件实现,可以通过单独的软件模块来实现在此描述的诸如程序或者功能的实施例。每个软件模块可以执行在此描述的一个或者多个功能或者操作。通过以任何适合的编程语言所写的软件应用能够实现软件代码。软件代码可以被存储在存储器160中并且通过控制单元180执行。
在下文中,将会描述相对于移动终端100处理用户输入的方法。
操纵用户输入单元130以接收用于控制移动终端100的操作的命令并且可以包括多个操纵单元。操作单元可以通常被称为操纵部分,并且对于操纵部分能够采用各种方法和技术,只要用户能够以触觉的方式操作它们。
各种类型的视觉信息可以被显示在显示单元151上。信息可以以字符、数字、符号、图形、图标等的形式显示。为了输出信息,可以以特定的设置显示字符、数字、符号、图形以及图标中的至少一个,以便以键盘的形式实现。这样的键盘可以是所谓的“软键”。
显示单元151可以作为整个区域进行操作或者可以被划分为多个区域并且因此***作。在后述情况中,多个区域可以彼此相关联地操作。例如,输出窗口和输入窗口可以分别被显示在显示单元151的上部分和下部分处。输出窗口和输入窗口分别是被分配用于输出或者输入信息的区域。包括用于输入电话号码等的数字的软键可以被输出到输入窗口。当软键被触摸时,与被触摸的软键相对应的数字被显示在输出窗口上。当操纵单元***纵时,企图进行相对于在输出窗口上显示的电话号码的呼叫连接,或者在输出窗口上显示的文本可以被输入到应用。
显示单元151或者触摸板可以被配置成感测触摸滚动。用户可以通过滚动显示单元151或者触摸板来移动被定位在显示单元151上显示的实体,例如,图标等上的光标或者指示器。另外,当用户在显示单元151或者触摸板时移动他的手指时,沿着其移动用户的手指的路径可以被视觉地显示在显示单元151上。这在编辑显示单元151上显示的图像中会是有用的。
在特定时间范围内一起触摸显示单元151和触摸板的情况下可以执行终端的一个功能。利用用户的拇指和食指,触摸可以是夹紧终端主体。在这样的情况下执行的一个功能可以是,例如,显示单元151或者触摸板的激活或者失活。
图2A和图2B分别是示出根据本发明实施例的移动终端100的外观的透视图。具体地,图2A示出移动终端100的前表面和一个横向表面,并且图2B示出移动终端100的后表面和另一个横向表面。
参考图2A,移动终端100具有直板型终端主体。然而,在没有对其进行限制的情况下,本发明可以应用于滑盖型移动终端、折叠型移动终端、摆动型移动终端、旋转型移动终端等,其中两个或更多主体被耦合以可相对地移动。
终端主体包括组成终端主体的外观的壳体(或外壳、外罩、盖等)。壳体可以被划分为前壳体101和后壳体102。各种电子组件被安装在前壳体101与后壳体102之间的空间中。一个或多个中间壳体可以被附加地设置在前壳体101与后壳体102之间。
壳体可以由注模成型合成树脂来形成或可以由诸如不锈钢(STS)或钛(Ti)等金属材料来制成。
显示单元151、音频输出模块152、相机121、用户输入单元130(请参见图1)、麦克风122、接口单元170等可以位于终端主体上,即,主要地位于前壳体101上。
显示单元151占据前壳体101的前表面的大部分。音频输出单元152和相机121被设置在与显示单元151的一个端部相邻的区域处,并且第一用户输入单元131和麦克风122被设置在与显示单元151的另一端部相邻的区域处。第二用户输入单元132和接口170可以被设置在前外壳101和后外壳102的侧面上。
操纵用户输入单元130以接收用于控制移动终端100的操作的命令,并且可以包括多个操纵单元131和132。
第一或者第二操纵单元131或者132可以接收各种命令。例如,第一操纵单元可以接收诸如开始、结束、滚动等的命令,并且第二操纵单元132可以接收诸如调整从音频输出单元152输出的声音的大小或转换成显示单元151的触摸识别模式等的命令。
参考图2B,后相机121’可以附加地设置在终端主体的后表面上,即,后壳体102上。后相机121’可以具有与相机121(请参见图2A)基本上相对的图像捕获方向,并且与前相机121相比可以支持不同数目的像素(即,具有不同的分辨率)。
例如,前相机121可以具有相对少的数目的像素,并且后相机121’可以具有相对大的数目的像素。因此,在捕获用户的面部并且将被捕获的图像实时发送到对方的情况下用于视频呼叫的前相机121的使用能够减少传输数据的大小。其间,后相机121’可以被用于存储高质量图像的目的。
其间,相机121和121’可以被安装在终端上,使得它们被旋转或者弹出。
闪光灯123和镜子124可以被附加地设置与相机121’相邻。当用户利用后相机121’捕获物体的图像时,闪光灯123照亮该物体。当他想通过使用后相机121’来捕获他自己的图像(即,自拍)时镜子124允许用户看见他自己。
音频输出单元152’可以被附加地设置在终端主体的后表面上。后音频输出单元152’可以与音频输出模块152(请参见图2A)一起实现立体功能,并且可以被用于在呼叫通信期间实现扬声器电话模式。
除了支持呼叫通信的天线之外广播信号接收天线116可以被附加地设置在天线主体的侧面上。形成广播接收模块111(请参见图1)的一部分的天线116可以被安装以从终端主体中抽出。
用于将电力供应到移动终端100的电源单元190可以被安装在终端主体上。电源单元190可以被安装在终端主体中或者可以被直接地从终端主体的外部拆卸。
用于检测触摸的触摸板135可以被附加地安装在后壳体102上。这样的触摸板可以被配置成像显示单元151(请参见图2A)一样是透光的。此外,后显示单元可以被附加地安装在触摸板135上以便于输出视觉信息。在这样的情况下,可以通过触摸板135可以控制从前显示单元151和后显示单元这二者输出的信息。
与显示单元151相关地操作触摸板135。可以设置触摸板135以平行于显示单元151的后侧。触摸板135可以具有与显示单元151相同的尺寸或者比显示单元151小的尺寸。
其间,移动终端100可以通过使用相机单元121捕获图像。然而,在这样的情况下,当在其中主屏幕、锁定屏幕、或者应用的执行屏幕被显示在显示单元151上的状态下用户想要操作相机单元121时,执行数个阶段的处理,由此要求数秒钟。
因此,在下文中,将会参考伴随的附图描述能够在操作相机单元121中增强用户便利的移动终端100及其控制方法。
图3是图示根据本发明实施例的移动终端的控制方法的处理的流程图。移动终端包括相机单元121(请参见图1)、显示单元151(请参见图1)、以及控制单元180(请参见图1)。
参考图3,执行基于在显示单元151中感测到的触摸输入指定区域的步骤(S110)。
主屏幕、锁定屏幕、或者与应用有关的执行屏幕可以被显示在显示单元151上。此外,包括图像或者文本的页面、网页、电子邮件、电子文档、以及社交网络服务(SNS)的内容中的至少一个可以被显示在显示单元151上。在此,屏幕信息指的是在显示单元151的至少部分区域中显示的每个信息。
控制单元180可以基于在被显示在显示单元151上的屏幕信息上感测到的触摸输入指定屏幕信息上的区域。
详细地,控制单元180可以追踪在屏幕信息上感测到的触摸输入并且基于触摸输入的轨迹指定屏幕信息上的区域。其间,控制单元180也可以基于在屏幕信息上感测的触摸输入开始的点和触摸输入被释放的点指定屏幕信息上的区域。
控制单元180可以显示指定的区域使得与屏幕信息的其它区域相区别。例如,控制单元180可以在显示单元151上显示指定的区域的轮廓。此外,控制单元180可以以特定的颜色着色指定的区域的内部。
其后,当区域被指定时,在步骤S120中相机模块被执行以允许相机单元121接收图像。
详细地,当在指定的区域中感测到预设触摸输入(例如,长的触摸输入)时,控制单元180可以执行相机模式以允许相机单元121被激活。当相机模式被执行时,相机单元121可以从外部感测图像以接收图像。通过相机单元121实时接收到的图像(在下文中,被称为“预览图像”)可以被显示在指定的区域中。
在此,预览图像指的是与通过相机单元121输入的物体相对应的图像。在此,物体指的是其图像被捕获的对象,例如,被拍摄的对象,其可以是人或者事物。
此外,在相机模式下,根据用户的选择或者控制单元180的设置仅被包括在相机单元121中的多个相机中的任意一个可以被激活或者多个相机可以被同时激活。
在下文中,根据本发明实施例的用于通过激活单个相机捕获图像的方法将会作为示例描述。然而,能够捕获3D图像的移动终端100具有被形成在其一个表面上的多个相机,即,通常两个相机,因此,在这样的情况下,多个相机可以被同时激活。
其后,在步骤S130中控制相机单元121以执行对接收到的图像的捕获。
在其中预览图像被显示在指定的区域中的状态下,当感测到被施加到预览图像的触摸输入时,控制单元180可以控制相机单元121以执行对接收到的图像的捕获。因此,相机单元121可以捕获图像。
其后,在步骤S140中捕获的图像被显示在指定的区域中。
控制单元180可以在指定的区域中显示通过相机单元121捕获的图像。在此,在预设的时间段期间控制单元180可以在显示单元151上显示包括与捕获的图像相对应的缩略图图像的剪贴板。剪贴板可以包括分别与多个图像相对应的缩略图图像。当选择缩略图图像中的任意一个时,控制单元180可以在指定的区域中显示与所选择的缩略图图像相对应的图像。
如上所述,在根据本发明实施例的移动终端100的情况下,当通过在显示单元151上感测到的触摸输入指定区域时,可以立即操作相机单元121。即,在其中特定屏幕信息被显示在显示单元151上的状态下,可以通过被简化的控制操作提供用于操作相机单元121的登录路径。因此,在多任务期间用户能够在没有必须执行复杂的操纵的情况下操作相机单元121。因此,能够增强用户便利。
图4是图示图3中的移动终端的操作示例的概念视图。移动终端200包括相机单元121(请参见图1)、显示单元251(请参见图1)、以及控制单元180(请参见图1)。
参考图4(a),显示单元251可以显示屏幕信息。如所图示的,显示单元251可以显示与电子笔记应用有关的执行屏幕作为屏幕信息。虽然未示出,但是显示单元251可以显示主屏幕、锁定屏幕等作为屏幕信息。
显示单元251可以被配置成允许进行触摸输入。当用户将触摸输入(例如,拖动输入)应用于屏幕信息时,控制单元180可以追踪触摸输入。
其后,参考图4(b),控制单元180可以基于触摸输入的轨迹指定屏幕信息上的区域252。如所图示的,控制单元180可以显示指定的区域252,使得其与屏幕信息的其它区域相区别。例如,控制单元180可以在显示单元251上显示指定的区域252的轮廓。虽然未示出,但是控制单元180可以以特定的颜色着色指定的区域的内部。
其后,参考图4(c),当在指定的区域中感测到预设触摸输入(例如,例如,长的触摸输入)时,控制单元180可以执行相机模式。在此,相机模式可以指的是其中操作相机单元121以从外部感测图像的模式。即,随着相机模式被执行,相机单元121可以被激活。
如所图示的,当相机模式被执行时,相机单元121可以从外部实时接收图像。实时接收到的图像253(在下文中,被称为“预览图像”)可以被显示在指定的区域252中。
其后,当感测到被施加到预览图像253的触摸输入时,参考图4(d),控制单元180可以控制相机单元121以对接收到的图像执行捕获。因此,相机单元121可以捕获图像。此外,捕获的图像可以被显示在指定的区域252中。
结果,捕获的图像254可以被包括在指定的区域252中并且被显示在电子笔记应用的执行屏幕上。通过将触摸输入施加到电子笔记应用的执行屏幕数次,用户可以将来自于相机单元121的捕获的图像254***到电子笔记。
图5是图示图3中的移动终端200的操作示例的概念视图。移动终端200包括相机单元121(请参见图1)、显示单元251(请参见图1)、以及控制单元180(请参见图1)。
参考图5,控制单元180可以基于被施加到屏幕信息的触摸输入的轨迹指定屏幕信息上的区域252。
即,参考图5(a),当用户施加顺序地连接第一至第四点252a至252d的拖动输入时,控制单元180可以指定连接第一至第四点252a至252d的轮廓内的区域252。此外,通过在屏幕信息上显示连接第一至第四点252a至252d的轮廓,控制单元180可以将指定的区域252与其它区域相区别。
此外,参考图5(b)和图5(c),当用户将在特定方向中施加的拖动输入施加到用户信息上时,控制单元180可以指定其中已经感测到拖动输入的点,作为区域252。通过用户的手指或者通过用户的手掌可以施加拖动输入。在这样的情况下,较大的区域可以被指定为区域252。
其间,虽然未示出,但是控制单元180可以检测在屏幕信息上感测到的触摸输入的开始点和释放点,并且基于开始点和释放点指定屏幕信息上的区域252。例如,当在屏幕信息上感测到第一和第二触摸输入时,控制单元180可以指定包括第一和第二触摸输入的点的区域252。
图6是图示在图3中的移动终端200的操作示例的概念视图。移动终端200包括相机单元121(参见图1)、显示单元251(参见图1)、以及控制单元180(参见图1)。
参考图6,控制单元180可以基于在指定的区域251中感测到的触摸输入将指定的区域252移动到屏幕信息的不同区域。
详细地,参考图6(a),显示单元251可以在指定的区域252中显示捕获的图像254。
在此,当感测到在特定方向中被施加到指定的区域252的拖动输入时,参考图6(b),控制单元180可以将指定的区域252移动到屏幕信息的不同区域。因此,被显示在指定的区域252中的捕获的图像254也可以被移动到屏幕信息的不同区域。
虽然在附图中图示拖动输入,但当感测到被施加到指定的区域252的第一触摸输入(例如,短的触摸输入)并且感测到被施加到屏幕信息的不同区域的第二触摸输入(例如,短的触摸输入)时,控制单元180可以将指定的区域252移动到已经感测到第一触摸输入的点。
其间,虽然未示出,但是与删除指定的区域252的功能相对应的图标(在下文中,被称为“删除图标”)可以被显示在显示单元上。在此,当朝着删除图标拖动指定的区域252时,控制单元180可以删除指定的区域252。因此,也可以删除被显示在指定的区域252中的捕获的图像254。
图7是图示图3中的移动终端200的操作示例的概念视图。移动终端200包括相机单元121(请参见图1)、显示单元251(请参见图1)、以及控制单元180(请参见图1)。
参考图7,控制单元180可以控制相机单元121以执行重新捕获图像。
详细地,参考图7(a),显示单元251可以在指定的区域252中显示捕获的图像254。
在此,参考图7(b),当感测到被施加到指定的区域252的预设触摸输入(例如,擦掉指定的区域252的轮廓的触摸输入)时,控制单元180可以提供抖动指定的区域252的轮廓的效果。同时,控制单元180可以再次执行其中相机单元121被激活的相机模式。
其后,参考图7(c),随着相机模式被再次执行,相机单元121可以感测和接收来自于外部的图像。因此,通过相机单元121实时接收到的图像,即,预览图像253,可以被显示在指定的区域252中。
其后,虽然未示出,当感测到被施加到预览图像253的触摸输入时,控制单元180可以控制相机单元121以对最近接收到的图像执行捕获。因此,相机121可以捕获图像。
图8是图示图3中的移动终端200的操作示例的概念视图。移动终端200包括相机单元121(请参见图1)、显示单元251(请参见图1)、以及控制单元180(请参见图1)。
参考图8,在指定的区域252中显示捕获的图像254时,控制单元180可以显示包括与捕获的图像252相对应的缩略图图像256的剪贴板255。
详细地,参考图8(a),显示单元251可以在指定的区域252中显示通过相机单元121实时接收到的图像,即,预览图像253。
在此,当感测到被施加到预览图像253的触摸输入时,参考图8(b),控制单元180可以控制相机单元121以对最近接收到的图像执行捕获。因此,相机单元121可以捕获图像。控制单元180可以在指定的区域252中显示通过相机单元121捕获的图像254。
在这样的情况下,如所图示的,控制单元180可以生成与捕获的图像254相对应的缩略图像256,并且在显示单元251上显示包括缩略图图像256的剪贴板255。剪贴板255可以包括分别与多个图像相对应的所有多个缩略图图像、以及与当前捕获的图像254相对应的缩略图图像256。
在这样的情况下,虽然未示出,当选择多个缩略图图像中的任意一个时,与所选择的缩略图图像相对应的图像可以被显示在指定的区域255中。
其间,参考图8(c),在其中剪贴板255被显示在显示单元251上的状态下,当已经经过预设时间时,剪贴板可以从显示单元251消失。
图9和图10分别是图示图3中的移动终端200的操作示例的概念视图。移动终端200包括相机单元121(请参见图1)、显示单元251(请参见图1)、以及控制单元180(请参见图1)。
参考图9和图10,控制单元180可以接收关于是否在指定的区域252中显示相机单元的预览图像253或者是否在指定的区域252中显示先前存储在存储器160(请参见图1)中的图像的选择。
详细地,参考图9(a),可以在屏幕信息上指定区域252。控制单元180可以在指定的区域252内显示多个图标(在下文中,被称为“照片捕获图标”和“图像检索图标”)257a和257b,以便于接收关于是否在指定的区域252中显示相机单元121的预览图像253或者是否在指定的区域252中显示先前存储在存储器160中的图像254的选择。
在这样的情况下,当照片捕获图标257a被选择时,参考图9(b),控制单元180可以执行其中相机单元121被激活的相机模式。因此,通过相机单元121实时接收到的预览图像253可以被显示在指定的区域252中。
其后,虽然未示出,当感测到被施加到预览图像253的触摸输入时,相机单元121可以捕获图像。
另一方面,参考图10(a),在指定的区域252内显示的照片捕获图标257a和图像检索图标257b之中,可以选择图像检索图标257b。
参考图10(b),控制单元180可以在显示单元251上显示与先前存储在存储器160中的图像有关的缩略图图像。在这样的情况下,当选择缩略图图像中的任意一个258a时,参考图10(c),控制单元180可以在指定的区域252中显示与所选择的缩略图图像258a相对应的图像258a。
其后,当感测到施加到在指定的区域252中显示的图像258a’的预设触摸输入(例如,从右到左的轻弹输入)时,控制单元180可以将在指定的区域252中显示的图像258a’变成不同的图像258b’。
例如,如在图10(d)中所图示的,控制单元180可以基于在存储器160中存储的图像的预设顺序(例如,被存储的顺序)在指定的区域252中显示在指定的区域252中已经显示的图像258a后面顺序存储的图像258b’。
图11和图13分别是图示图3中的移动终端200的操作示例的概念视图。移动终端200包括相机单元121(请参见图1)、显示单元251(请参见图1)、以及控制单元180(请参见图1)。
参考图11和图12,控制单元180可以基于被施加到指定的区域252的触摸输入的属性信息来控制在指定的区域252中显示的图像254的缩放和亮度中的至少一个。
详细地,参考图11(a)和图12(a),显示单元251可以在指定的区域252中显示捕获的图像254。虽然在附图中图示捕获的图像254,但是先前存储在存储器160(请参见图1)中的图像或者从服务器下载的图像可以被显示在显示单元251上。
当触摸输入被施加到在指定的区域252中显示的捕获的图像254时,参考图11(b),控制单元180可以生成用于控制捕获的图像254的缩放和亮度的控制命令。因此,如所图示的,控制单元180可以在指定的区域252中显示指示捕获的图像254的缩放信息的第一指示器259a和指示亮度信息的第二指示器259b。
其后,当在指定的区域252中感测到在第一方向(例如,从左到右的方向)中施加的拖动输入时,参考图11(c),控制单元180可以放大被显示在指定的区域252中的捕获的图像254。
其间,虽然未示出,即使在感测到在第一方向中被施加到第一指示器259a的拖动输入的情况下,控制单元180可以放大被捕获的图像254。此外,即使在感测到被施加到第一指示器259a的一个点的触摸输入的情况下,控制单元180可以通过使用与一个点相对应的缩放信息放大或者缩小捕获的图像254。
此外,虽然未示出,但是控制单元180可以基于在第一方向中施加的拖动输入的长度确定放大捕获的图像254的程度。
此外,在附图中,图示其中随着缩放捕获的图像254第一指示符259a消失的情况,但是本发明不限于此并且即使捕获的图像254被放大之后在预设的时间段期间可以继续地显示第一指示符259a。
其间,参考图12(b),当在指定的区域252中感测到在第二方向(例如,从下侧到上侧的方向)中施加的拖动输入时,参考图12(c),控制单元180可以调节被显示在指定的区域252中的捕获的图像254的亮度使得其变得更加明亮。
其间,虽然未示出,即使在其中感测到在第二方向中被施加到第二指示器259a的拖动输入的情况下,控制单元180可以调节捕获的图像254的亮度。此外,即使在其中感测到被施加到第二指示器259b的一个点的触摸输入的情况下,控制单元180可以通过使用与一个点相对应的亮度信息调节捕获的图像254的亮度。
此外,在附图中图示其中随着捕获的图像254的亮度被调节第二指示器259b消失的情况,但是本发明不限于此,并且即使在捕获的图像254的亮度被调节之后在预设的时间段期间可以继续地显示第二指示器259b。
参考图13,在与指定的区域252相邻的区域中,控制单元180可以显示用于激活与相机单元121有关的特定功能或者与指定的区域252有关的特定功能的菜单图标260。
详细地,参考图13(a)和图13(b),当感测到被施加到指定的区域252或者捕获的图像254的触摸输入时,在与指定的区域252相邻的区域中,控制单元180可以显示用于激活与相机单元121有关的特定功能和与指定的区域252有关的特定功能的一个或者多个菜单图标260。
在此,菜单图标260可以包括与多个特定功能相对应的多个图标。
例如,与相机单元121有关的特地功能可以包括缩放功能、亮度调节功能、以及在相机模式下选择菜单的功能中的至少一个。
此外,与指定的区域252有关的特定功能可以包括缩放在指定的区域252中显示的图像254的功能、删除被显示的图像254的功能、以及在指定的区域252中显示不同的图像的功能中的至少一个。
在其中选择功能之一,例如,与放大捕获的图像254的功能相对应的图标(在下文中,被称为“放大图标”)的情况下,参考图13(c),控制单元180可以放大捕获的图像254。
此外,如所图示的,为了允许通知用户关于捕获的图像254的缩放,控制单元180可以生成指示捕获的图像254的缩放信息的指示器261,并且在与菜单图标260相邻的区域中显示指示器261。在此,在预设的时间段期间可以显示指示器261,并且在经过预设的时间段之后可能消失。
图14至图16分别是图示在图3中的移动终端200的操作示例的概念视图。移动终端200包括相机单元121(请参见图1)、显示单元251(请参见图1)以及控制单元180(请参见图1)。
参考图14和图15,控制单元180可以指定与在屏幕信息上感测到的触摸输入的次数相对应的区域。
详细地,参考图14(a)和图15(a),控制单元180可以基于在屏幕信息上感测到的触摸输入指定第一区域252a。
其后,参考图14(b)和图15(b),在第一区域252a的指定之后控制单元180可以基于在屏幕信息上感测到的触摸输入的次数指定第二至第四区域252b至252d。
其后,参考图14(c)和图15(c),当感测到用于生成包围第一至第四区域252a至252d的区域的拖动输入时,控制单元180可以生成围绕第一至第四区域252a至252d的第五区域252e。当第五区域252e被生成时,控制单元180可以执行其中相机单元121被激活的相机模式。
图14(d)图示其中通过相机单元121实时接收到的预览图像被划分为多个部分并且被显示在第一至第四区域252a至252d的实施例。
详细地,虽然未示出,但控制单元180可以将通过相机单元121实时接收到的预览图像划分为多个部分。例如,控制单元180可以在第一至第四区域252a至252d中单独地显示被划分为四个部分的预览图像的第一至第四部分253a至253d。
其后,参考图14(d),当感测到被施加到预览图像的第一至第四部分253a至253d的触摸输入时,相机单元121可以捕获图像。控制单元180可以将捕获的图像划分为多个部分。控制单元180可以在第一至第四区域252a至252d中单独地显示已经被划分为四个部分的捕获的图像的第一至第四部分254a至254d。
其间,虽然未示出,当感测到仅被施加到预览图像的第一部分253a的触摸输入时,相机单元121可以捕获图像,并且在第一区域252a中仅显示捕获的图像的第一部分。因此,预览图像的第二至第四部分253b至253d始终可以被显示在第二至第四区域252b至252d中。
其间,图15(d)图示其中第一至第四区域252a至252d中的通过相机单元121实时接收到的预览图像的实施例。
详细地,虽然未示出,但是在第一至第四区域252a至252d中控制单元180可以单独地显示通过相机单元121实时接收到的预览图像。
其后,参考图15(d),当感测到分别被顺序地施加到第一至第四部分253a至253d的四个触摸输入时,相机单元121可以分别捕获图像四次。控制单元180可以在第一至第四区域252a至252d中分别显示已经被顺序地捕获的第一至第四图像254a至254d。
参考图16,当多个区域重叠时,控制单元180可以合并重叠区域。
详细地,参考图16(a),控制单元180可以基于在屏幕信息上感测到的触摸输入指定第一和第二区域252a和252b。在此,第一和第二区域252a和252b的至少部分可以重叠。
其后,参考图16(b),当感测到用于生成包围第一和第二区域252a和252b的拖动输入时,参考图16(c),控制单元180可以合并第一和第二区域252a和252b以生成第三区域252c。
其后,参考图16(d),当生成第三区域252c时,控制单元180可以执行其中相机单元121被激活的相机模式。如所图示的,控制单元180可以在第三区域252c中显示通过相机单元121实时接收到的预览图像253。
虽然未示出,但当感测到被施加到预览图像253的触摸输入时,控制单元180可以控制相机单元121以执行对接收到的图像的捕获。因此,相机单元121可以捕获图像。
图17是图示在图3中的移动终端200的操作示例的概念视图。移动终端200包括相机单元121(请参见图1)、显示单元251(请参见图1)、以及控制单元180(请参见图1)。
参考图17(a),控制单元128可以基于在屏幕信息上感测到的触摸输入指定区域252。在此,控制单元180可以检测在指定的区域252的宽度与长度之间的比率是否对应于用于全景拍摄的预设比率。
在此,全景拍摄指的是,通过移动相机单元121的透镜拍摄多个场景以便于拍摄广范围的场景。控制单元180可以连接多个捕获的图像以生成全景图像。
当在指定的区域252的宽度与长度之间的比率对应于用于全景拍摄的预设比率时,如在图17(b)中所图示,控制单元180可以控制相机单元121以执行对通过相机单元121接收到的图像的全景拍摄。
因此,如在图17(b)和图17(c)中所示,捕获的图像254可以被顺序地显示在指定的区域252中。
图18至图20分别是图示在图3中的移动终端200的操作示例的概念视图。移动终端200包括相机单元121(请参见图1)、显示单元251(请参见图1)、以及控制单元180(请参见图1)。
参考图18和图19,控制单元180可以沿着在屏幕信息上感测到的触摸输入的轨迹布置预设文本数据。
详细地,参考图18(a)和图18(b),当感测到被施加到屏幕信息的一个点的触摸输入并且触摸输入在特定方向中继续时,控制单元180可以追踪触摸输入。
其后,控制单元180可以沿着屏幕信息上的触摸输入的轨迹布置预设文本数据(例如,最近复制的文本数据)262。此外,如所图示的,控制单元180可以显示指示屏幕信息上的触摸输入的轨迹的线262。
类似地,参考图19(a)和图19(b),显示单元251可以显示被再现(或者被播放)的视频数据。控制单元180可以沿着在视频数据上感测到的触摸输入的轨迹布置关于视频数据的预设文本数据(例如,与子标题信息相对应的文本数据)263。
虽然未示出,当在其中屏幕信息被显示在显示单元251上的状态下音频输出单元152(请参见图1)正在输出声音时,控制单元180可以沿着在屏幕信息上感测到的触摸输入的轨迹布置与屏幕信息上的歌词信息相对应的文本数据。
参考图20,基于在屏幕信息上感测到的触摸输入的长度信息,控制单元180可以在预设时间段期间执行应用。
详细地,参考图20(a)和20(b),在其中感测到被施加到屏幕信息的一个点的触摸输入并且触摸输入在特定方向中继续的情况下,控制单元180可以沿着屏幕信息上的触摸输入的轨迹来显示线262。此外,控制单元180可以在屏幕信息上显示与特定应用(例如,记录应用)相对应的图标264。
其后,当触摸输入被释放时,参考图20(c),控制单元180可以执行记录应用。在这样的情况下,根据线262的长度信息,控制单元可以设置其中记录应用要被执行的持续时间。虽然记录应用被执行,但控制单元180可以改变线262的形状,并且可以随着时间的流逝减少线262的长度。
其后,当已经经过预设的持续时间时,控制单元180可以终止记录应用。此外,如在图20(d)中所图示,控制单元180可以在屏幕信息上显示与用于再现被记录的内容的应用相对应的图标(在下文中,被称为“再现图标(或者播放图标)”)264’。
虽然未示出,但是在其中选择再现图标264’的情况下,控制单元180可以输出被记录的语音数据。
在本发明的实施例中,前述方法可以被实现为在程序记录介质中能够被处理器读取的代码。处理器可读介质可以包括ROM、RAM、CD-ROM、磁带、软盘、光数据存储设备等。处理器可读介质也包括以载波或者信号的形式的实现(例如,经由因特网的传输)。计算机可以包括终端的控制单元。
根据本公开的实施例的移动终端在其配置和方法的应用方面没有受到限制,而是实施例的整体或者部分可以被选择性地组合以被配置成各种修改。
因为在不背离其特性的情况下,可以以若干形式来实现示例性实施例,所以还应当理解,除非另外指明,否则上述示例实施例不受前面描述的任何细节限制,而是应该在所附权利要求中所限定的范围内被广泛地解释。因此,落入权利要求的范围、或这样的范围的等价物内的各种改变和修改意欲被说明书和权利要求所包括。
Claims (17)
1.一种移动终端,包括:
相机;
触摸屏,所述触摸屏被配置成显示笔记应用的执行屏幕;
控制单元,所述控制单元被配置成:
响应于施加到所述笔记应用的执行屏幕的第一触摸输入,
基于所述第一触摸输入来指定第一区域;
当所述第一区域通过所述第一触摸输入被指定时,操作所述相机,以及
在所述笔记应用的执行屏幕的第一区域中,显示由所述相机接收到的预览图像,
其中,所述第一触摸输入是拖动触摸输入,所述预览图像被显示在所述笔记应用的执行屏幕上,以及基于所述第一触摸输入的轨迹来指定所述第一区域。
2.根据权利要求1所述的移动终端,其中,响应于所述第一触摸输入的轨迹显示轮廓。
3.根据权利要求2所述的移动终端,其中,指定在所述轮廓内的第一区域。
4.根据权利要求1所述的移动终端,其中,所述控制单元进一步被配置成:响应于第二触摸输入使所述相机捕获图像。
5.根据权利要求4所述的移动终端,其中,所述第二触摸输入被施加到所述预览图像。
6.根据权利要求4所述的移动终端,其中,捕获的图像被显示在所述第一区域中。
7.根据权利要求1所述的移动终端,其中,所述控制单元被进一步配置成:响应于所述第一触摸输入,使所述相机被激活。
8.根据权利要求6所述的移动终端,其中,响应于所述第一触摸输入,在所述第一区域中显示所述预览图像。
9.根据权利要求6所述的移动终端,其中,响应于拖动输入,所述捕获的图像被显示在所述执行屏幕的第二区域中。
10.根据权利要求6所述的移动终端,其中,所述控制单元被进一步配置成:显示与所述相机或所述第一区域有关联的菜单图标。
11.根据权利要求10所述的移动终端,其中,所述菜单图标包括用于删除所述捕获的图像的图标。
12.根据权利要求1所述的移动终端,其中,所述控制单元被进一步配置成:在所述第一区域和在所述第一区域的指定之后指定的所述执行屏幕的至少一个区域上显示所述预览图像。
13.根据权利要求12所述的移动终端,其中,基于第二触摸输入的轨迹,指定所述至少一个区域。
14.根据权利要求13所述的移动终端,其中,响应于所述第二触摸输入,显示轮廓。
15.根据权利要求14所述的移动终端,其中,在所述轮廓内指定至少一个区域。
16.根据权利要求12所述的移动终端,其中,所述预览图像被划分为多个部分并且所述多个部分被显示在所述第一区域和所述至少一个区域中。
17.根据权利要求1所述的移动终端,其中,备忘录与所述预览图像一起显示在所述执行屏幕上。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120122516A KR101990036B1 (ko) | 2012-10-31 | 2012-10-31 | 이동 단말기 및 그것의 제어 방법 |
KR10-2012-0122516 | 2012-10-31 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103793097A CN103793097A (zh) | 2014-05-14 |
CN103793097B true CN103793097B (zh) | 2017-09-12 |
Family
ID=48625841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310311337.XA Active CN103793097B (zh) | 2012-10-31 | 2013-07-23 | 移动终端及其控制方法 |
Country Status (5)
Country | Link |
---|---|
US (4) | US9591224B2 (zh) |
EP (1) | EP2728455B1 (zh) |
KR (1) | KR101990036B1 (zh) |
CN (1) | CN103793097B (zh) |
DE (1) | DE202013012353U1 (zh) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9639199B2 (en) * | 2013-06-07 | 2017-05-02 | Samsung Electronics Co., Ltd. | Method and device for controlling a user interface |
KR20150003560A (ko) * | 2013-07-01 | 2015-01-09 | 삼성전자주식회사 | 사용자의 모션 정보에 기초하여 사용자 인터페이스(ui)를 변경시키는 방법 및 장치 |
KR102082661B1 (ko) * | 2013-07-12 | 2020-02-28 | 삼성전자주식회사 | 전자 장치의 촬영 이미지 생성 방법 및 장치 |
JP6071866B2 (ja) * | 2013-12-18 | 2017-02-01 | キヤノン株式会社 | 表示制御装置、表示装置、撮像システム、表示制御方法、及びプログラム |
JP2015200975A (ja) * | 2014-04-04 | 2015-11-12 | キヤノン株式会社 | 情報処理装置、コンピュータプログラムおよび記録媒体 |
JP6371577B2 (ja) * | 2014-05-08 | 2018-08-08 | 古野電気株式会社 | 情報表示装置及び情報表示装置の表示レイアウト変更方法 |
KR102252448B1 (ko) * | 2014-09-12 | 2021-05-14 | 삼성전자주식회사 | 제어 방법 및 그 방법을 처리하는 전자장치 |
EP3010225B1 (en) * | 2014-10-14 | 2019-07-24 | Nokia Technologies OY | A method, apparatus and computer program for automatically capturing an image |
KR102304305B1 (ko) | 2015-01-21 | 2021-09-23 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
CN105892472A (zh) * | 2015-02-13 | 2016-08-24 | Lg电子株式会社 | 移动终端及其控制方法 |
US9652125B2 (en) | 2015-06-18 | 2017-05-16 | Apple Inc. | Device, method, and graphical user interface for navigating media content |
KR20170023648A (ko) * | 2015-08-24 | 2017-03-06 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어방법 |
US9928029B2 (en) | 2015-09-08 | 2018-03-27 | Apple Inc. | Device, method, and graphical user interface for providing audiovisual feedback |
US9990113B2 (en) | 2015-09-08 | 2018-06-05 | Apple Inc. | Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control |
KR20170049991A (ko) * | 2015-10-29 | 2017-05-11 | 삼성전자주식회사 | 압력 터치를 이용한 사용자 인터렉션 제공 방법 및 그를 이용하는 전자 장치 |
US10222979B2 (en) * | 2015-12-04 | 2019-03-05 | Datalogic Usa, Inc. | Size adjustable soft activation trigger for touch displays on electronic device |
KR101866417B1 (ko) * | 2016-05-26 | 2018-06-11 | 주식회사 한글과컴퓨터 | 단말기의 다중 터치 조작에 따른 처리방법 및 그 장치 |
KR20180041484A (ko) * | 2016-10-14 | 2018-04-24 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어방법 |
KR20180057366A (ko) * | 2016-11-22 | 2018-05-30 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
KR20180095331A (ko) * | 2017-02-17 | 2018-08-27 | 엘지전자 주식회사 | 이동단말기 및 그 제어 방법 |
CN107808600A (zh) * | 2017-12-08 | 2018-03-16 | 京东方科技集团股份有限公司 | 显示装置及其控制方法 |
CN108007946A (zh) * | 2017-12-27 | 2018-05-08 | 同方威视技术股份有限公司 | 安全检查***和检查方法 |
US11922006B2 (en) | 2018-06-03 | 2024-03-05 | Apple Inc. | Media control for screensavers on an electronic device |
KR20190142192A (ko) | 2018-06-15 | 2019-12-26 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 제어 방법 |
CN108924354A (zh) * | 2018-06-29 | 2018-11-30 | 北京微播视界科技有限公司 | 一种视频拍摄方法、客户端、终端及存储介质 |
CN109917956B (zh) | 2019-02-22 | 2021-08-03 | 华为技术有限公司 | 一种控制屏幕显示的方法和电子设备 |
JP7307643B2 (ja) * | 2019-09-25 | 2023-07-12 | キヤノン株式会社 | 撮像装置、システム、撮像装置の制御方法、プログラム |
KR20220072327A (ko) * | 2020-11-25 | 2022-06-02 | 주식회사 엘엑스세미콘 | 데이터처리장치, 디스플레이장치 및 데이터처리장치의 열화 보상 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101639760A (zh) * | 2009-08-27 | 2010-02-03 | 上海合合信息科技发展有限公司 | 联系信息输入方法及*** |
CN101808193A (zh) * | 2009-02-17 | 2010-08-18 | 奥林巴斯映像株式会社 | 摄影装置和摄影装置的控制方法 |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10124689A (ja) * | 1996-10-15 | 1998-05-15 | Nikon Corp | 画像記録再生装置 |
US6621524B1 (en) * | 1997-01-10 | 2003-09-16 | Casio Computer Co., Ltd. | Image pickup apparatus and method for processing images obtained by means of same |
JP3375852B2 (ja) * | 1997-06-13 | 2003-02-10 | 三洋電機株式会社 | ディジタルカメラ |
US7057658B1 (en) * | 1998-03-16 | 2006-06-06 | Sanyo Electric Co., Ltd. | Digital camera capable of forming a smaller motion image frame |
JP2004015286A (ja) * | 2002-06-05 | 2004-01-15 | Seiko Epson Corp | ディジタルカメラ |
US7391445B2 (en) * | 2004-03-31 | 2008-06-24 | Magix Ag | System and method of creating multilayered digital images in real time |
US20060077266A1 (en) * | 2004-10-08 | 2006-04-13 | Nokia Corporation | Image processing in a communication device having a camera |
KR100640808B1 (ko) * | 2005-08-12 | 2006-11-02 | 엘지전자 주식회사 | 촬상 이미지의 듀얼 디스플레이 기능을 갖는 이동통신단말기 및 그 방법 |
US20090295830A1 (en) * | 2005-12-07 | 2009-12-03 | 3Dlabs Inc., Ltd. | User interface for inspection of photographs |
US20090213086A1 (en) * | 2006-04-19 | 2009-08-27 | Ji Suk Chae | Touch screen device and operating method thereof |
US8139083B2 (en) * | 2006-08-09 | 2012-03-20 | Sony Ericsson Mobile Communications Ab | Custom image frames |
KR100820275B1 (ko) * | 2007-04-30 | 2008-04-08 | 삼성전자주식회사 | 분할 촬영 방법 및 이를 이용하는 이동통신 단말기 |
WO2009071112A1 (en) * | 2007-12-03 | 2009-06-11 | Nokia Corporation | Media embedded in mobile messaging |
US8594740B2 (en) * | 2008-06-11 | 2013-11-26 | Pantech Co., Ltd. | Mobile communication terminal and data input method |
KR100969790B1 (ko) * | 2008-09-02 | 2010-07-15 | 엘지전자 주식회사 | 이동단말기 및 그 컨텐츠 합성방법 |
KR101075728B1 (ko) * | 2008-09-25 | 2011-10-21 | 엘지전자 주식회사 | 영상표시장치 및 영상표시장치의 채널정보 표시방법 |
JP5495602B2 (ja) * | 2009-04-02 | 2014-05-21 | オリンパスイメージング株式会社 | 撮影装置および撮影方法 |
KR20100123108A (ko) * | 2009-05-14 | 2010-11-24 | 삼성전자주식회사 | 휴대 단말기의 아이콘 위치 이동 운용 방법 및 이를 지원하는 휴대 단말기 |
US8570305B2 (en) * | 2009-07-07 | 2013-10-29 | Microsoft Corporation | Smoothing of touch input |
JP2011028560A (ja) * | 2009-07-27 | 2011-02-10 | Sony Corp | 情報処理装置、表示方法及び表示プログラム |
NO332170B1 (no) * | 2009-10-14 | 2012-07-16 | Cisco Systems Int Sarl | Anordning og fremgangsmate for kamerakontroll |
JP2011217284A (ja) * | 2010-04-01 | 2011-10-27 | Olympus Imaging Corp | 撮像装置 |
JP5269851B2 (ja) * | 2010-09-27 | 2013-08-21 | 富士フイルム株式会社 | 画像編集装置及びその画像編集方法並びにそのプログラム |
KR101915615B1 (ko) * | 2010-10-14 | 2019-01-07 | 삼성전자주식회사 | 모션 기반 사용자 인터페이스 제어 장치 및 방법 |
KR101361333B1 (ko) * | 2011-08-26 | 2014-02-10 | 주식회사 팬택 | 잠금 상태 제어 장치 및 방법 |
US9137444B2 (en) * | 2011-09-26 | 2015-09-15 | Sony Corporation | Image photography apparatus for clipping an image region |
CA2782784A1 (en) * | 2011-10-17 | 2013-04-17 | Research In Motion Limited | Electronic device interface |
KR101819513B1 (ko) * | 2012-01-20 | 2018-01-17 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
KR101861377B1 (ko) * | 2012-03-09 | 2018-05-28 | 삼성전자주식회사 | 이동 단말에서 모션 기반의 화면 제어 방법 및 이를 위한 이동 단말 |
CN102681775A (zh) | 2012-04-13 | 2012-09-19 | 中兴通讯股份有限公司 | 一种显示区域控制方法、***及移动终端 |
US9025066B2 (en) * | 2012-07-23 | 2015-05-05 | Adobe Systems Incorporated | Fill with camera ink |
KR20140051719A (ko) | 2012-10-23 | 2014-05-02 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어 방법 |
-
2012
- 2012-10-31 KR KR1020120122516A patent/KR101990036B1/ko active IP Right Grant
-
2013
- 2013-05-02 US US13/875,334 patent/US9591224B2/en active Active
- 2013-06-11 DE DE202013012353.2U patent/DE202013012353U1/de not_active Expired - Lifetime
- 2013-06-11 EP EP13171566.6A patent/EP2728455B1/en active Active
- 2013-07-23 CN CN201310311337.XA patent/CN103793097B/zh active Active
-
2016
- 2016-04-01 US US15/088,956 patent/US9716836B2/en active Active
-
2017
- 2017-06-23 US US15/631,896 patent/US10528177B2/en active Active
-
2019
- 2019-12-05 US US16/704,503 patent/US11099704B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101808193A (zh) * | 2009-02-17 | 2010-08-18 | 奥林巴斯映像株式会社 | 摄影装置和摄影装置的控制方法 |
CN101639760A (zh) * | 2009-08-27 | 2010-02-03 | 上海合合信息科技发展有限公司 | 联系信息输入方法及*** |
Also Published As
Publication number | Publication date |
---|---|
US11099704B2 (en) | 2021-08-24 |
DE202013012353U1 (de) | 2016-06-09 |
US20140118595A1 (en) | 2014-05-01 |
US9716836B2 (en) | 2017-07-25 |
EP2728455A2 (en) | 2014-05-07 |
EP2728455B1 (en) | 2022-03-16 |
KR101990036B1 (ko) | 2019-06-17 |
CN103793097A (zh) | 2014-05-14 |
US10528177B2 (en) | 2020-01-07 |
US20200110503A1 (en) | 2020-04-09 |
US20160219224A1 (en) | 2016-07-28 |
US9591224B2 (en) | 2017-03-07 |
US20170293391A1 (en) | 2017-10-12 |
EP2728455A3 (en) | 2016-12-07 |
KR20140055515A (ko) | 2014-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103793097B (zh) | 移动终端及其控制方法 | |
CN103916535B (zh) | 移动终端及其控制方法 | |
US10048772B2 (en) | Mobile terminal and method for controlling the same | |
CN105278855B (zh) | 移动终端及其控制方法 | |
CN105830351B (zh) | 移动终端及其控制方法 | |
CN103811005B (zh) | 移动终端及其控制方法 | |
CN104281408B (zh) | 移动终端及其控制方法 | |
CN104750354B (zh) | 电子设备及其控制方法 | |
CN103793170B (zh) | 移动终端及其控制方法 | |
CN104932816B (zh) | 移动终端及其控制方法 | |
CN103793167B (zh) | 移动终端及其控制方法 | |
CN102355526B (zh) | 能提供多玩家游戏的移动终端及控制移动终端操作的方法 | |
US9600143B2 (en) | Mobile terminal and control method thereof | |
US20130305189A1 (en) | Mobile terminal and control method thereof | |
CN103577097B (zh) | 终端及在终端中共享笔迹的方法 | |
CN105808137A (zh) | 移动终端及其控制方法 | |
CN106559686A (zh) | 移动终端及其控制方法 | |
CN103577093B (zh) | 移动终端及其控制方法 | |
CN104735341A (zh) | 移动终端和控制移动终端的方法 | |
CN106406688A (zh) | 移动终端及其控制方法 | |
KR20150127842A (ko) | 이동 단말기 및 그것의 제어 방법 | |
CN103810073B (zh) | 移动终端和控制移动终端的方法 | |
KR101448650B1 (ko) | 단말기 및 그 제어 방법 | |
KR102214838B1 (ko) | 단말기 및 그 동작 방법 | |
KR20100101817A (ko) | 멀티 미디어 파일을 재생하는 이동 단말기 및 이동 단말기의 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |