CN111630833B - 电子设备及其控制方法 - Google Patents

电子设备及其控制方法 Download PDF

Info

Publication number
CN111630833B
CN111630833B CN201980009277.1A CN201980009277A CN111630833B CN 111630833 B CN111630833 B CN 111630833B CN 201980009277 A CN201980009277 A CN 201980009277A CN 111630833 B CN111630833 B CN 111630833B
Authority
CN
China
Prior art keywords
sensor
external device
electronic device
color
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201980009277.1A
Other languages
English (en)
Other versions
CN111630833A (zh
Inventor
金胡延
李相永
赵圭炫
郑熙锡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN111630833A publication Critical patent/CN111630833A/zh
Application granted granted Critical
Publication of CN111630833B publication Critical patent/CN111630833B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72415User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories for remote control of appliances
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/4222Remote control device emulator integrated into a non-television apparatus, e.g. a PDA, media center or smart toy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42224Touch pad or touch panel provided on the remote control
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/90Additional features
    • G08C2201/93Remote control using other portable devices, e.g. mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/34Microprocessors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/38Displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42208Display device provided on the remote control
    • H04N21/42209Display device provided on the remote control for displaying non-command information, e.g. electronic program guide [EPG], e-mail, messages or a second television channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42221Transmission circuitry, e.g. infrared [IR] or radio frequency [RF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Environmental & Geological Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

公开了一种电子设备,包括:通信器,被配置为与外部设备通信;多个传感器;以及处理器,被配置为:基于通过多个传感器感测到的第一传感器值,以第一模式执行电子设备的操作,基于通过多个传感器感测到的第二传感器值,以第二模式识别用户动作方向,并且基于识别出的用户动作方向,控制通信器向外部设备输出控制命令。因此,该电子设备可以在没有单独的动作识别传感器的情况下识别用户动作方向,并执行控制外部设备的功能,并且由于用户可以在看着外部设备的同时控制外部设备,因此对于用户而言是方便的。

Description

电子设备及其控制方法
技术领域
与示例性实施例一致的设备和方法涉及电子设备及其控制方法,并且更具体地涉及响应于接收到的用户输入来控制外部设备的电子设备及其控制方法。
背景技术
随着功能的多样化,智能电话等电子设备已经成为现代人的必需品。作为功能之一,一种功能是使用电子设备来控制另一电子设备(以下称为“外部设备”)。通过控制外部设备的功能,用户向电子设备进行输入并通过该电子设备来控制外部设备。
例如,当外部设备所具有的各种功能以图形用户界面(GUI)的形式显示在电子设备的屏幕上时,用户在看着电子设备的屏幕的同时进行触摸输入等以选择显示为GUI的各种功能之一。然后,电子设备识别通过触摸屏接收的用户的触摸输入,并且控制外部设备以实现与通过所识别的触摸输入选择的GUI相对应的功能。
然而,在该现有技术中,用户必须在看着外部设备的屏幕的同时看着电子设备的屏幕以进行输入,因此给用户带来了不便,因为用户的眼睛要从外部设备转移到电子设备。为了解决这样的问题,如果进行自由动作式的用户输入而不是使用GUI的触摸输入,则电子设备另外需要动作识别传感器来识别用户动作,从而引起成本增加的另一问题。
发明内容
技术方案
一个或多个示例性实施例的一方面在于提供一种电子设备及其控制方法,其中在不使用单独的动作识别传感器的情况下识别用于控制外部设备的用户动作,从而执行对外部设备的控制功能。
根据示例实施例,提供了一种电子设备,包括:通信器,被配置为与外部设备通信;多个传感器;以及处理器,被配置为:基于通过多个传感器感测到的第一传感器值,以第一模式执行电子设备的操作,基于通过多个传感器感测到的第二传感器值,以第二模式识别用户动作方向,并且基于识别出的用户动作方向,控制通信器向外部设备输出控制命令。
这里,多个传感器可以沿着预定方向被布置,并且处理器可以基于多个传感器感测到的第二传感器值的变化来识别用户动作方向。
这里,多个传感器可以包括接近传感器和光学传感器。
这里,处理器可以基于多个传感器感测到的第二传感器值的样式来识别用户动作方向。
这里,电子设备还可以包括显示器,其中,处理器控制光学传感器感测从外部设备发射的外部光的颜色,并且控制显示器显示具有与感测到的颜色相对应的至少一种颜色的图像。
这里,处理器可以控制显示器,以使所显示的图像的至少一种颜色不同于由光学传感器感测到的光的颜色。
这里,具有至少一种颜色的图像包括具有不同的多种颜色的图像,并且处理器控制将图像显示为使得多种颜色沿着布置多个传感器的方向布置。
这里,处理器可以基于从外部设备接收到的控制信号来控制显示器显示具有至少一种颜色的图像。
根据示例性实施例,提供了一种控制电子设备的方法,该电子设备包括与外部设备通信的通信器以及多个传感器,该方法包括:基于通过多个传感器感测到的第一传感器值,以第一模式执行电子设备的操作;以及基于通过多个传感器感测到的第二传感器值,以第二模式识别用户动作方向,并且基于识别出的用户动作方向,向外部设备输出控制命令。
这里,多个传感器可以包括沿着预定方向布置的多个传感器,并且识别用户动作方向可以包括:基于由多个传感器感测到的第二传感器值的变化来识别用户动作方向。
这里,多个传感器可以包括接近传感器和光学传感器。
识别用户动作方向可以包括:基于由多个传感器感测到的第二传感器值的样式来识别用户动作方向。
这里,识别用户动作方向可以包括:由光学传感器感测从外部设备发射的外部光的颜色;以及显示具有与感测到的颜色相对应的至少一种颜色的图像。
这里,显示图像可以包括:通过使所显示的图像的至少一种颜色不同于由光学传感器感测到的光的颜色来显示图像。
这里,具有至少一种颜色的图像可以包括具有不同的多种颜色的图像,并且显示图像可以包括:将图像显示为使得多种颜色沿着布置多个传感器的方向布置。
这里,显示图像可以包括:基于从外部设备接收到的控制信号来显示具有至少一种颜色的图像。
根据示例性实施例,提供了一种存储有计算机程序的记录介质,该计算机程序包括用于执行控制电子设备的方法的计算机可读代码,该电子设备包括与外部设备通信的通信器和多个传感器,该方法包括:基于通过多个传感器感测到的第一传感器值,以第一模式执行电子设备的操作;以及基于通过多个传感器感测到的第二传感器值,以第二模式识别用户动作方向,并且基于识别出的用户动作方向,向外部设备输出控制命令。
附图说明
从以下结合附图对示例性实施例的描述中,上述和/或方面将变得清楚并且更容易理解,在附图中:
图1示出了根据本公开的一个实施例的电子设备控制外部设备的示例;
图2是图1的电子设备的框图;
图3是图1的电子设备的控制方法的流程图;
图4示出了图1的电子设备通过从第一模式切换到第二模式来进行操作的示例;
图5示出了图1的电子设备显示控制图像的示例;
图6和图7示出了图1的电子设备根据传感器值的变化识别用户动作的示例;
图8示出了图1的电子设备中设置的传感器被布置的位置;
图9示出了引导图1的电子设备的取向的示例;
图10和图11示出了图1的电子设备根据第二模式下的传感器值的样式来识别用户动作的示例;
图12示出了图1的电子设备基于控制图像的传感器值的变化来识别用户动作的示例;
图13示出了替代图12的控制图像的实施例;以及
图14示出了图1的电子设备根据声音传感器和光学传感器的第二传感器值的变化来识别用户动作的示例。
具体实施方式
以下,将参考附图详细地描述本公开的实施例。在以下实施例的描述中,将参考附图中示出的元件,并且在附图中阐述的相似数字或符号指代具有基本相同功能的相似元件。在本公开中,多个元件中的至少一个不仅指所有多个元件,而且指除其他元件之外的多个元件中的每个元件及其组合。
图1示出了根据本公开的一个实施例的电子设备控制外部设备的示例。图1被示出为:假设在看着显示在外部设备200上的图像210的同时,用户通过电子设备100控制外部设备200。外部设备200可以是电视(TV)等显示设备,但是在本公开中可以不受限制地实现。例如,外部设备200可以通过诸如计算机、多媒体播放器、电子相框、数字广告牌、大幅面显示器(LFD)、数字标牌、机顶盒、冰箱等的各种设备来实现。
电子设备100是指与外部设备200分离的设备,并且例如可以通过智能电话、智能平板、可穿戴智能设备、移动电话、平板个人计算机(PC)、电子书终端、个人数字助理(PDA)、便携式多媒体播放器(PMP)等来实现,但不限于此。
电子设备100可以根据其实现形式来执行各种功能。例如,电子设备100不仅可以执行对外部设备200的控制,还可以执行各种功能,例如回放内容、进行语音通话、进行视频通话、捕获运动图像、捕获静止图像、发送消息、浏览互联网等。
为了执行前述功能,电子设备100可以使用由传感器获得的传感器值。例如,电子设备100可以通过执行拍摄应用来执行捕获静止图像的功能。电子设备100可以基于来自接近传感器的接近传感器值和来自光学传感器的光学传感器值,控制相机的聚焦或曝光。这样,电子设备100采用接近传感器、光学传感器等传感器并执行其自身功能(例如,拍摄静止图像等的功能)的模式称为第一模式。在根据示例性实施例的第一模式下,可以执行各种功能,例如回放内容、进行语音呼叫、进行视频呼叫、捕获运动图像、捕获静止图像、发送消息、浏览互联网等。
根据示例性实施例的电子设备100可以响应于用户输入来控制外部设备200的功能。除前述功能之外,电子设备100控制外部设备200的功能的模式将被称为第二模式。在第二模式下,电子设备100可以通过多个传感器识别用于控制外部设备200的功能的用户输入。
在第二模式下,用户输入包括用户动作。即,电子设备100可以采用在第一模式下用于执行其自身功能的多个传感器,识别用于在第二模式下控制外部设备200的用户动作。作为根据示例性实施例的多个传感器的示例,接近传感器和光学传感器被用于电子设备100的功能以在第一模式下设置拍摄条件,但是用来识别用于在第二模式下控制外部设备200的用户动作。
更详细地,将假设用户动作是例如身体部位之中的手的活动,并且将用户的手从左向右移动的动作是用于增大外部设备200的音量的控制命令。
当在第二模式下,用户做出相对于电子设备100将手从左向右移动的动作时,电子设备100基于接近传感器和光学传感器的传感器值来识别出该动作是从左向右进行的。电子设备100将关于识别出的动作的信息发送到外部设备200,外部设备200基于接收到的关于动作的信息来确定控制命令,并且响应于该控制命令而执行调高音量的操作。备选地,电子设备100可以基于关于识别出的动作的信息来将用于调高外部设备200的音量的控制命令发送到外部设备200,外部设备200可以响应于接收到的控制命令而执行调高音量的操作。
该实施例中的动作不限于手的动作,并且电子设备100可以基于诸如用户的脸、手臂、身体、腿等的另一身体部位来感测动作。此外,电子设备100可以被设计为识别各种动作的方向,并且可以将不同的控制命令分别指派给各种动作的方向。例如,电子设备100可以识别相对于电子设备100的左/右方向、上/下方向、对角线方向、垂直接近/后退方向等。与电子设备100的动作的方向相对应地,各种控制命令用于外部设备200中的电源开/关、频道加/减、音量加/减、内容选择、内容下载、内容播放、内容停止、内容删除等。
因此,根据示例性实施例的电子设备100对于用户来说更加方便,因为用户可以基于动作来输入控制命令而无需看着电子设备100的屏幕进行触摸输入,从而可以在观看外部设备200的同时控制外部设备200。此外,用于执行电子设备100的功能的多个传感器被用于识别用于控制外部设备200的用户动作,因此由于不需要用于识别用户动作的单独的动作识别传感器而降低了成本。
图2是图1的电子设备的框图。图1中的电子设备100可以包括传感器单元110、显示器120、用户输入单元130、声音接收器140、声音输出单元150、通信器160、存储装置170、图像捕获器180和处理器190。然而,电子设备100可以被设计为从图2所示的元件中去除至少一个,或者添加图2中未示出的另一元件。
传感器单元110可以包括用于获得与电子设备100有关的各种传感器值的多个传感器。例如,传感器单元110可以包括图像传感器180、接近传感器111、光学传感器112、声音传感器、温度传感器、湿度传感器、压力传感器、冲击传感器、深度传感器、全球定位***(GPS)传感器、陀螺仪传感器等。
图像传感器180获得其前方的捕获图像。图像传感器180可以由互补金属氧化物半导体(CMOS)或电荷耦合器件(CCD)的相机来实现。可以存在两个或更多个图像传感器180。
接近传感器111被配置为感测到周围对象的距离。例如,当接近传感器111采用飞行时间方法来测量红外信号时,电子设备100通过测量输出的红外信号被移动对象反射并返回的延迟时间来测量到该对象的距离。当接近传感器111采用对象的磁测量方法时,基于磁场、磁强度、磁场方向、磁力的变化等来测量到移动对象的距离。然而,接近传感器111的种类没有限制,并且接近传感器111可以通过磁饱和型、高频振荡型、差动线圈、静电电容型等来实现。
光学传感器112测量电子设备100周围的光的强度和量。光学传感器112例如可以通过硫化铅(PbS)或硫化镉(CdS)光电导单元来实现。根据示例性实施例,图像传感器180可以用作光学传感器112。
显示器120基于图像信号来显示图像。显示器120可以通过液晶显示器、薄膜晶体管液晶显示器、有机发光二极管、柔性显示器、3维(3D)显示器等来实现。显示器120还可以实现为将触摸屏与用于接收触摸输入的用户输入单元130结合在一起。
用户输入单元130接收用于控制电子设备100的操作的用户输入。用户输入单元130可以包括触摸屏、键盘,半球形开关、触摸板(静压/静电)、滚轮、滚轮开关、手指鼠标等。
声音接收器140接收声音信号并将其处理为电音频信号。声音接收器140可以使用各种噪声去除算法来去除在接收声音信号时产生的噪声。声音接收器140可以由麦克风实现,并且麦克风可以用作声音传感器。声音输出单元150可以将处理后的音频信号输出到外部。声音输出单元150可以由扬声器实现。
通信器160可以通过各种通信标准与外部设备200执行无线通信。例如,通信器160可以基于Wi-Fi、蓝牙、ZigBee、Wi-Fi直连(WFD)、超宽带(UWB)、红外数据协会(IrDA)、蓝牙低功耗(BLE)、近场通信(NFC)等来执行无线通信。
通信器160还可以包括:移动通信模块161,用于通过移动通信网络向基站、外部终端和服务器中的至少一个发送和从其接收无线信号;无线互联网模块162,用于与互联网进行无线连接;用于近场通信的近场通信模块;GPS模块等。
存储装置170可以被配置为存储用于将由电子设备100实现的各种功能的数据、程序或应用。存储装置170可以包括闪存类型、硬盘类型、多媒体卡微型类型、卡型存储器(例如安全数字(SD)或极限数字(XD)存储器)、随机存取存储器(RAM)和只读存储器(ROM)等)中的至少一种的存储介质。存储装置170可以由在互联网上运营的网络存储器来实现。
处理器190可以总体上控制电子设备100的元件。处理器190基于传感器单元110在第一模式下感测到的传感器值来执行电子设备100的功能。此外,处理器190可以基于传感器单元110在不同于第一模式的第二模式下感测到的传感器值来执行控制功能以识别用户动作,并向外部设备200输出对识别出的动作的方向加以指示的控制命令。
处理器190执行用于总体上控制如上所述的元件的控制程序(或指令)。电子设备100可以包括安装有控制程序的非易失性存储器和加载有至少一部分已安装的控制程序的易失性存储器。另外,这样的控制程序也可以存储在电子设备100以外的其他电子设备中。
控制程序可以包括以基本输入/输出***(BIOS)、设备驱动程序、操作***(OS)、固件、平台和应用程序中的至少一个的形式实现的程序。根据示例性实施例,可以在制造电子设备100时预先安装或存储应用,或者当将来使用它时可以基于从外部接收的应用数据来安装应用。例如,可以从应用市场等外部服务器下载应用数据。这样的外部服务器是计算机程序产品的示例,但不限于此示例。
电子设备100还可以包括信号处理器和电源。信号处理器对接收到的视频或音频信号进行各种处理,使得显示器120或声音输出单元150可以输出图像或声音。信号处理器可以包括由安装在印刷电路板上的芯片组、电路、缓冲器等实现的硬件处理器,并且还可以被设计为片上***(SoC)。此外,电源可以在处理器190的控制下接收外部电力或内部电力,并且提供电子设备100的元件所需的电力。
图3是图1的电子设备的控制方法的流程图。当图2所示的电子设备100的处理器190执行至少一个控制程序时,可以执行图3所示的电子设备的控制方法。在下面的描述中,除非另有说明,否则处理器190的操作是通过执行控制程序而执行的操作。
首先,处理器190可以在第一模式下,基于通过包括多个传感器的传感器单元110感测到的传感器值来执行电子设备100的操作(S310)。此外,处理器190可以在第二模式下,基于通过传感器单元110感测到的传感器值来识别用户动作方向,并且将与所确定的动作方向相对应的控制命令输出到外部设备200(S320)。
在操作S310和S320中,处理器190可以根据是否发生预设事件来识别当前模式是第一模式还是第二模式。例如,当还没有发生预设事件时,处理器190识别当前模式是第一模式。当在第一模式下发生当前事件时,处理器190识别当前模式为第二模式。即,电子设备100可以在以第一模式操作时,响应于预设事件的发生而切换到第二模式并且以第二模式操作。
图4示出了图1的电子设备通过从第一模式切换到第二模式来进行操作的示例。在图4中,将假设外部设备200正在显示图像210,并且用户300想要控制图像210在外部设备200中的显示。此外,还将假设电子设备100以第一模式执行操作。
第一模式下的操作例如可以不仅包括用于提供用户300可以积极使用的功能的操作,例如回放内容、拨打电话、捕获图像、发送消息、浏览互联网等,还包括用于提供用户300无法积极使用的功能的操作,例如,智能手机的待机模式等。
处理器190确定在以第一模式操作时是否发生预设事件。在该实施例中的当前事件可以例如包括:外部设备200的用户300接近电子设备100直到距电子设备100的预定距离内。
例如,当用户300在拿起电子设备100的同时朝外部设备200移动以观看外部设备200的图像210时,处理器190基于通过通信器160等获得的信息来识别外部设备200接近电子设备100直到距电子设备100的预定距离内。
备选地,预设事件可以包括电子设备100被连接以与外部设备200通信。电子设备100与外部设备200之间的通信方法可以例如是Wi-Fi、蓝牙等。例如,当用户300在拿着电子设备100的同时靠近外部设备200时,处理器190控制通信器160以通过诸如蓝牙等的预设通信方法与外部设备200连接,并基于此类连接的完成来识别出发生预设事件。
备选地,预设事件可以包括用户输入单元130从用户300接收进入第二模式的命令。例如,处理器190可以响应于在以第一模式操作期间在触摸屏上接收到的触摸输入、语音命令等,识别接收到的触摸输入、语音命令等是否对应于进入第二模式的命令。在这种情况下,处理器190在显示器120上显示包括菜单项的UI,该UI将接收用户300进入第二模式的命令,并且基于通过UI的菜单项接收到的触摸输入来识别预设事件。
备选地,预设事件可以包括从外部设备200或外部服务器400接收到进入第二模式的请求。例如,当电子设备100执行与外部设备200或外部服务器400连接以进行通信的第一模式的操作时,处理器190可以基于通过通信器160从外部设备200或外部服务器400接收到的信号来识别从外部设备200或外部服务器400接收的信号是否对应于用于进入第二模式的请求。外部设备200或外部服务器400可以通过传感器等识别用户的意图或者接收用户的输入,从而向电子设备100发送将用于进入第二模式的请求信号。
备选地,预设事件可以包括外部设备200显示预设图像210。外部设备200显示的预设图像210例如可以是预设内容或来自预设类别的内容的图像210。例如,处理器190可以基于在通过通信器160从外部设备200接收的信号中包括的信息来识别外部设备200显示预设图像210。在这种情况下,外部设备200可以向电子设备100发送包括关于当前显示的内容的信息在内的信号。
备选地,处理器190可以基于由诸如图像传感器180等的传感器单元110获得的信息来识别外部设备200是否显示预设图像210。
根据示例性实施例的预设事件不限于前述示例,并且可以包括除前述示例之外的各种事件。
根据一个实施例,处理器190可以基于用户的设备使用历史来识别发生预设事件。用户的设备使用历史可以例如是电子设备100或外部设备200的使用时间、使用地点等。基于设备使用历史的预设事件可以例如包括用户在某个时间在某个地方观看电视。此外,根据示例性实施例的预设事件可以基于用户的日常生活,例如用户的唤醒时间、就寝时间等。
根据示例性实施例,用户的设备使用历史或关于用户的日常生活的信息可以存储在电子设备100中或者可以存储在外部设备200或外部服务器400中。当信息存储在外部设备200或外部服务器400中时,处理器190可以从外部设备200或从外部服务器400接收信息,或者可以从存储该信息的外部设备200或外部服务器400接收用于进入第二模式的请求。
当识别出在第一模式的操作期间发生当前事件时,处理器190可以切换到第二模式进行操作。具体地,处理器190可以响应于预设事件的发生而执行专用于控制外部设备的应用。根据示例性实施例的专用应用可以是如上所述的至少一个控制程序之一。
根据示例性实施例,当预设事件发生时,处理器190可以在显示器120上显示UI121,该UI 121向用户引导外部设备200的控制模式。UI 121可以包括用于允许用户选择是否执行外部设备200的控制模式的项目。当通过UI 121接收到用于执行控制模式的用户触摸输入时,处理器190可以执行专用应用并终止第二模式。
图5示出了图1的电子设备显示控制图像的示例。参考图5,根据本示例性实施例的处理器190可以响应于进入第二模式来控制显示器120显示用于控制外部设备200的图像(在下文中,称为“控制图像”)。
根据示例性实施例,控制图像128的亮度或颜色可以被预先确定或者可以根据周围环境而变化。根据示例性实施例,当用户在观看外部设备200的屏幕210的同时进行动作以便控制外部设备200时,控制图像128用于使用户直观地知道电子设备100的位置而无需将他/她的眼睛移向电子设备100。因此,根据示例性实施例的控制图像128被配置为具有亮度或相应的颜色,使得用户在观看外部设备200的屏幕210的同时可以容易地估计电子设备100的位置。
例如,处理器190可以将控制图像128的亮度控制为高于周围照明的强度。处理器190可以基于由图像传感器180、光学传感器112等获得的信息来识别周围的照明。因此,用户可以基于比周围照明更亮的控制图像128来容易地估计电子设备100的位置。
作为附加或备选示例,处理器190可以控制控制图像128的颜色以与环境光的颜色区分开。处理器190可以基于由图像传感器180、光学传感器112等获得的信息来识别环境光的颜色。例如,处理器190可以将与环境光的颜色互补的颜色设置为控制图像128的颜色。因此,用户可以基于示出与环境光的颜色的对比的控制图像128,更容易地估计电子设备100的位置。
作为可选示例,处理器190可以基于在外部设备200上显示的图像210的亮度或颜色211来识别周围照明或环境光的颜色。例如,处理器190可以通过通信器160从外部设备200接收关于在外部设备200上显示的图像210的信息,并且基于接收到的信息来识别周围照明或环境光的颜色。作为可选示例,处理器190可以根据周围照明或环境光的颜色的变化来改变控制图像128的亮度或颜色。作为可选示例,处理器190可以基于用户所设定的设置来设置控制图像128的亮度或颜色。在这种情况下,处理器190可以控制显示器120以显示包括用于设置控制图像128的亮度或颜色的菜单项在内的UI,并基于通过该UI接收到的用户输入来设置控制图像128的亮度或颜色。
根据示例性实施例的处理器190基于在第二模式下由传感器单元110获得的传感器值来识别用于控制外部设备200的用户动作,并且执行控制以向外部设备200发送关于识别出的用户动作的信息。下面,将详细描述根据示例性实施例的电子设备100基于由传感器单元110获得的传感器值来识别用户动作的示例。
图6和图7示出了图1的电子设备根据传感器值的变化识别用户动作的示例。电子设备100包括形成外观的壳体101。壳体101被设置在电子设备100的前部和后部,从而形成用于容纳电子设备100的元件的空间。
在壳体101上,可以设置接近传感器111、光学传感器112、显示器120、用户输入单元130、声音接收器140、声音输出单元150和图像捕获器180。备选地,电子设备100可以被设计为从设置在壳体101上的元件中去除至少一个元件或包括附加元件。
电子设备100的接近传感器111和光学传感器112可以被布置为在壳体101上保留预定距离D。电子设备100的接近传感器111可以布置在光学传感器112的左侧,并且在宽度方向上与光学传感器112间隔开预定距离。然而,对布置或方向没有限制。备选地,两个传感器111和112可以沿电子设备100的长度方向或对角线方向布置,并且光学传感器112也可以布置在接近传感器111的左侧,并与接近传感器111间隔开预定距离D。
根据示例性实施例,将假设接近传感器111输出随着对象靠近接近传感器111(因此接近传感器111与对象之间的距离变短)而减小的传感器值,并且光学传感器112输出随着对象阻挡入射到光学传感器112的光(因此光的强度减小)而增加的传感器值。然而,接近传感器111和光学传感器112的这种感测特征仅是示例,并且可以被设计为相反地获得传感器值。
图6示出了用户将手310从电子设备100的左侧向右侧的移动被划分为(a)和(b)的总体操作。图6中的(a)示出了用户的手310位于电子设备100的左侧,而图6中的(b)示出了手310从电子设备100的左侧移动至右侧。此外,图6的曲线图(c)示出了随着手310从电子设备100的左侧向右侧移动,接近传感器值和光学传感器值的相对变化。
参考图6的曲线图,随着手310从电子设备100的左侧向右侧移动,接近传感器值逐渐减小,在第一时间点a1达到最小值Ma,保持最小值Ma,并在第二时间点a2增加。这里,最小值Ma是指与手310和接近传感器111之间的最短距离相对应的接近传感器值。
当手310覆盖光学传感器112时,光学传感器值逐渐增加,在第三时间点b1达到最大值Mb,保持最大值Mb,并在第四时间点b2减小。这里,最大值Mb是指与被手310阻挡的最低强度的光对应的光学传感器值。
由于接近传感器111和光学传感器112之间的位置不同,接近传感器值达到最小值Ma的第一时间点a1在光学传感器值达到最大值Mb的第三时间点b1之前。即,当第一时间点a1在第三时间点b1之前时,电子设备100确定动作是在从电子设备100的左侧到右侧的方向上进行的。
为了更准确地确定用户动作方向,电子设备100还可以确定接近传感器值从最小值Ma增加的第二时间点a2是否在光学传感器值从最大值Mb减小的第四时间点b2之前。即,当第二时间点a2在第四时间点b2之前时,电子设备100确定动作是在从电子设备100的左侧到右侧的方向上进行的。
图7示出了用户将手310从电子设备100的右侧向左侧的移动被划分为(a)和(b)的总体操作。图7中的(a)示出了用户的手310位于电子设备100的右侧,而图7中的(b)示出了手310从电子设备100的右侧移动至左侧。此外,图7的曲线图(c)示出了随着手310从电子设备100的右侧向左侧移动,接近传感器值和光学传感器值的相对变化。
参考图7的曲线图,由于接近传感器111和光学传感器112之间的位置不同,接近传感器值达到最小值Ma的第一时间点a1在光学传感器值达到最大值Mb的第三时间点b1之后。即,当第一时间点a1滞后于第三时间点b1时,电子设备100确定动作是在从电子设备100的右侧到左侧的方向上进行的。
为了更准确地确定用户动作方向,电子设备100还可以确定接近传感器值从最小值Ma增加的第二时间点a2是否在光学传感器值从最大值Mb减小的第四时间点b2之后。即,当第二时间点a2滞后于第四时间点b2时,电子设备100确定动作是在从电子设备100的右侧到左侧的方向上进行的。
这样,电子设备100基于接近传感器值和光学传感器值的变化来确定用户动作方向。因此,由于电子设备100确定用户动作方向并且用户不必将他/她已经聚焦在要远程控制的外部设备200上的眼睛移动到电子设备100,因此电子设备100对于用户来说是方便的。
图8示出了图1的电子设备中设置的传感器被布置的位置。在图6和图7中,接近传感器111和光学传感器112被布置为在宽度方向上保留预定距离D,但是距离D和布置方向没有限制。备选地,各种距离D和布置方向是可行的。
例如,如图8的(a)所示,接近传感器111和光学传感器112沿电子设备100的宽度方向布置,但是接近传感器111和光学传感器112可以分别被布置在声音输出单元150的左侧和右侧。根据备选实施例,接近传感器111可以布置在右侧,光学传感器112可以布置在左侧。
通过这种布置,接近传感器111和光学传感器112之间的预定距离D大于图6和图7中的预定距离。随着接近传感器111和光学传感器112之间的距离D增加,更容易确定第一时间点a1在第三时间点b1之前还是之后,以及第二时间点a2在第四时间点b2之前还是之后。
此外,如图8的(b)所示,接近传感器111和光学传感器112可以沿电子设备100的长度方向布置,并且接近传感器111和光学传感器112可以分别位于显示器120的左侧和右侧。作为备选实施例,其可以被设计为将接近传感器111布置在右侧,将光学传感器112布置在左侧。
利用这种布置,接近传感器111和光学传感器112之间的预定距离D大于图8的(a)中的预定距离,因此更容易确定第一时间点a1在第三时间点b1之前还是之后,以及第二时间点a2在第四时间点b2之前还是之后。
图9示出了引导图1的电子设备的取向的示例。当电子设备100切换到第二模式时,根据接近传感器111和光学传感器112的布置来引导电子设备100的优选取向。引导方法可以包括通过显示器120显示UI的方法或通过声音输出单元150输出声音的方法。
根据示例性实施例,如图9的(a)所示,当接近传感器111和光学传感器112沿电子设备100的宽度方向布置时,电子设备100的上侧和下侧朝向外部设备200取向的UI 123可以显示在显示器120上。UI 123可以引导用户正确地定位电子设备100。根据需要,还可以显示指示电子设备100可识别的动作方向的UI 311,以引导用户正确地做出动作。
此外,如图9的(b)所示,当接近传感器111和光学传感器112沿电子设备100的长度方向布置时,电子设备100的左侧和右侧朝向外部设备200取向的UI 123可以显示在显示器120上。根据需要,还可以显示指示电子设备100可识别的动作方向的UI 311。
图10和图11示出了图1的电子设备根据第二模式下的传感器值的样式(pattern)来识别用户动作的示例。在图10和图11的电子设备100中,假设接近传感器111和光学传感器112沿电子设备100的宽度方向布置,但不限于此。
图10示出了用户将手310从电子设备100的底部向顶部的移动被划分为(a)和(b)的总体操作。图10中的(a)示出了用户的手310位于电子设备100的底部,而图10中的(b)示出了手310从电子设备100的底部移动至顶部。此外,图10的曲线图(c)示出了随着手310从电子设备100的底部向顶部移动,接近传感器值和光学传感器值的相对变化。
参考图10的曲线图,随着手310从电子设备100的底部向顶部移动,接近传感器值逐渐减小,并且从第一时间点a1开始保持最小值Ma。当手310覆盖光学传感器112时,光学传感器值逐渐增加,并且从第三时间点b12开始保持最大值Mb。
因为接近传感器111和光学传感器112沿电子设备100的宽度方向布置,所以第一时间点a1可以等于第三时间点b12。换句话说,当第一时间点a1等于第三时间点b12时,电子设备100可以确定动作方向为从电子设备100的底部朝向顶部。
然而,手310的轮廓不规则,以至于第一时间点a1和第三时间点b12可能会改变。例如,即使手310从电子设备100的底部向顶部移动,也可以检测到第三时间点b11在第一时间点a1之前或第三时间点b13在第一时间点a1之后。
在这种情况下,可以基于传感器值的样式来确定动作方向。再次参考图6的曲线图,其中,手310从左侧向右侧移动,为了描述基于光学传感器值的样式来识别动作方向的情况,图6的曲线图中的光学传感器值包括:第一区间w1,其中在最大值Mb开始的第三时间点b1之前光学传感器值增加;第二区间w2,其中最大值Mb保持;以及第三区间w3,其中在最大值Mb结束的第四时间点b2之后,光学传感器值减小。
另一方面,参考图10的曲线图,其中手310从底部朝向顶部移动,光学传感器值包括:第一区间w1,其中在最大值Mb开始的第三时间点b12之前光学传感器值增加;以及第二区间w2,其中最大值Mb保持。换句话说,当手310从底部向顶部移动时,光学传感器值不包括:第三区间w3,其中在最大值Mb结束的第四时间点b2之后光学传感器值减小。
即,电子设备100可以基于包括第一区间w1和第二区间w2在内的光学传感器值的样式来确定手310从底部向顶部移动,即使不清楚随着第一时间点a1和第三时间点b12的变化,第一时间点a1是在第三时间点b12之前还是之后。另一方面,电子设备100可以基于包括第三区间w3以及第一区间w1和第二区间w2在内的光学传感器值的样式来确定手310从左侧向右侧移动。
以相同的方式,电子设备100可以基于接近传感器值的样式来确定动作方向。即,当接近传感器值的样式不包括接近传感器值在第二时间点a2之后从最小值Ma增加的区间(如图6的曲线图所示)时,电子设备100确定手310从底部朝顶部移动。
图11示出了用户将手310从电子设备100的顶部向底部的移动被划分为(a)、(b)和(c)的总体操作。图11中的(a)示出了用户的手310位于电子设备100的底部,而图11中的(b)示出了手310从底部移动至顶部。这里,图11的(a)和(b)示出了将手310从底部向顶部移动的总体操作,这将是将手310从顶部向底部移动的前提。图11的(a)和(b)涉及在手310从底部向顶部移动的同时手310的垂直移动的高度差H大于或等于预定阈值,而图10的(a)和(b)则示出了手310的水平移动的高度差H小于或等于预定阈值。
同时,图11的(c)示出了手310从顶部移动至底部。此外,图11的曲线图(d)示出了随着手310从电子设备100的底部向顶部移动,接近传感器值和光学传感器值的相对变化。
参考图11的曲线图,随着手310从电子设备100的底部向顶部移动,接近传感器值逐渐减小,在第一时间点a1达到最小值Ma,保持最小值Ma,并在第二时间点a2开始增加。当手310覆盖光学传感器112时,光学传感器值逐渐增加,在第三时间点b1达到最大值Mb,保持最大值Mb,并在第四时间点b2开始减小。
因为接近传感器111和光学传感器112沿电子设备100的宽度方向布置,所以第一时间点a1可以等于第三时间点b1,或者第二时间点a2可以等于第四时间点b2。在这种情况下,电子设备100可以确定动作方向为从电子设备100的底部朝向顶部。
然而,手310的轮廓不规则,使得第三时间点b1和第四时间点b2可能分别相对于第一时间点a1和第二时间点a2改变。在这种情况下,电子设备100可以基于传感器值的样式来确定动作方向。
返回参考图6和图10的曲线图,其中,手310从左侧向右侧移动,为了描述基于光学传感器值的样式来识别动作方向的情况,图6的曲线图中的光传感器值在第一区间w1中以第一变化率c1增加,并且图10的曲线图中的光传感器值在第一区间w1中以第二变化率c2增加。
然而,图6和图10中的手310示出了高度差H小于或等于预定阈值的水平移动,而图11中的手310涉及高度差H大于或等于预定阈值的垂直移动。因此,图11的曲线图中的光学传感器值以比第一变化率c1或第二变化率c2低的第三变化率c3增加。
即,电子设备100可以基于在第一区间w1中示出平缓梯度的光学传感器值的样式来确定手310从顶部向底部移动。类似地,电子设备100可以基于与图6和图10的接近传感器值的样式不同的接近传感器值来确定手310从顶部向底部移动。
图12示出了图1的电子设备基于控制图像的传感器值的变化来识别用户动作的示例。如以上参考图5所描述的,当响应于各种事件而进入第二模式时,电子设备100可以在显示器120上以预定的亮度或颜色显示控制图像128。
例如,处理器190可以在显示器120上显示具有预定颜色的控制图像125,并且感测随着手310从(a)移动到(b)所反射的光的传感器值的变化或变化样式。控制图像125可以被显示在显示器120的任何区域上,但是优选地,控制图像125被显示在光学传感器112附近的区域上。
电子设备100基于接近传感器值和反射光的光学传感器值的变化或变化样式来确定手310的移动方向的过程等同于参考图6、图7、图10和图11描述的过程,因此将避免重复描述。如此,当在显示器120上显示具有预定颜色的控制图像125时,可以在不受周围环境影响的情况下容易地远程控制外部设备200。
图13示出了替代图12的控制图像的实施例。图12的电子设备100在显示器120的特定区域上显示具有一种颜色的控制图像125,但是图13的电子设备100在显示器120的特定区域上显示颜色不同的至少两个图像126和127。
图13示出了具有第一颜色的第一控制图像126沿电子设备100的宽度方向显示在具有第二颜色的第二控制图像127的左侧。然而,第一控制图像126和第二控制图像127之间的显示位置或排列顺序没有限制。例如,第一控制图像126和第二控制图像127可以沿接近传感器111和光学传感器112的布置方向显示在与光学传感器112相邻的区域上。
光学传感器112可以感测基于第一控制图像126的第一颜色值和基于第二控制图像127的第二颜色值。光学传感器112可以被提供为能够感测两种或更多种颜色的单个传感器,或者可以被提供为用于感测不同颜色的两个或更多个光学传感器。
图13的曲线图(c)示出了随着手310从电子设备100的左侧向右侧移动(例如从(a)到(b)),第一颜色值和第二颜色值的相对变化。参考图13的曲线图,随着手310从电子设备100的左侧向右侧移动,第一颜色值逐渐增加,在第一时间点a1达到最大值Ma,保持最大值Ma,并在第二时间点a2开始减小。这里,最大值Ma可以指与从手310反射的第一颜色的最大强度相对应的第一颜色值。第二颜色值也逐渐增加,在第三时间点b1达到最大值Mb,保持最大值Mb,并在第四时间点b2开始减小。这里,最大值Mb可以指与从手310反射的第二颜色的最大强度相对应的第二颜色值。
由于第一控制图像126和第二控制图像127之间的位置不同,所以第一时间点a1在第三时间点b1之前。即,当第一时间点a1在第三时间点b1之前时,电子设备100可以确定动作方向为从电子设备100的左侧朝向右侧。为了更准确地确定动作方向,电子设备100还可以确定第二时间点a2是否在第四时间点b2之前。
同时,电子设备100基于第一颜色值和第二颜色值的变化或变化样式来确定手310的移动方向的过程等同于参考图6、图7、图10和图11描述的过程,因此将避免重复描述。
图14示出了图1的电子设备根据声音传感器和光学传感器的第二传感器值的变化来识别用户动作的示例。图14的电子设备100使用声音传感器140代替图6、图7、图10和图11的电子设备100使用的接近传感器111。声音传感器140感测是否通过手310的移动来改变通过声音输出单元150输出的声音的强度。
参考图14的曲线图(c),随着手310从电子设备100的左侧向右侧移动,例如从(a)到(b),声音传感器值逐渐减小,在第一时间点a1达到最小值Ma,保持最小值Ma,并在第二时间点a2开始增加。这里,最小值Ma是指与手310和声音传感器140之间的最大声音强度相对应的声音传感器值。当手310覆盖光学传感器112时,光学传感器值逐渐增加,在第三时间点b1达到最大值Mb,保持最大值Mb,并在第四时间点b2开始减小。
由于声音传感器140和光学传感器112之间的位置不同,声音传感器值达到最小值Ma的第一时间点a1在光学传感器值达到最大值Mb的第三时间点b1之前,并且声音传感器值从最小值Ma开始增加的第二时间点a2在光学传感器值从最大值Mb开始减小的第四时间点b2之前。在这种情况下,电子设备100可以确定动作方向为从电子设备100的左侧朝向右侧。电子设备100基于声音传感器值和光学传感器值的变化或变化样式来确定手310的移动方向的过程等同于参考图5、图6、图9和图10描述的过程,因此将省略其重复描述。
根据前述示例性实施例的方法可以以能够在各种计算机中实现并记录在计算机可读介质中的程序命令的形式来实现。这样的计算机可读介质可以包括程序命令、数据文件、数据结构等、或其组合。例如,计算机可读介质可以存储在易失性存储装置(诸如ROM等)或非易失性存储装置(例如,RAM、存储器芯片、类似存储器的装置或集成电路(IC))中,而不管其是否是可删除或可重写的,或者,可以存储在光学或磁性可记录或机器(例如计算机)可读存储介质(例如,光盘(CD)、数字通用盘(DVD)、磁盘、磁带等)中。应当理解,可以包括在移动终端中的存储器是适于存储具有用于实现示例性实施例的指令的程序的机器可读存储介质的示例。记录在该存储介质中的程序命令可以根据示例性实施例被具体设计和配置,或者可以是计算机软件领域的技术人员公知的和可用的。
因此,根据本公开的电子设备在不使用单独的动作识别传感器的情况下识别用于控制外部设备的用户动作方向,并且执行控制外部设备的功能,并且由于用户可以在看着外部设备的同时控制外部设备,因此对于用户而言更方便。
尽管已经参考特定实施例和附图描述了本公开和优点,但是权利的公开和范围不限于此。本领域技术人员应当认识到:在不脱离本发明原理和精神的前提下可以在这些示例性实施例中进行各种改变,本发明的范围由所附权利要求及其等同物限定。将理解的是,本公开中的详细描述和附图仅是用于描述的示例,并且各种备选实施例也包括在本公开的范围内。

Claims (15)

1.一种电子设备,包括:
通信器,被配置为与外部设备通信;
显示器;
多个传感器,包括第一传感器和第二传感器,所述第一传感器被布置为与所述第二传感器分开预定距离;以及
处理器,被配置为:
当通过所述通信器从所述外部设备接收到关于由所述外部设备显示的内容图像的信息时,识别是否需要针对由所述外部设备显示的内容图像的控制,
基于当从所述外部设备接收到所述信息时识别出需要针对由所述外部设备显示的内容图像的控制,控制所述显示器显示用于指示所述电子设备的位置的图像,其中由所述显示器显示的图像的颜色不同于由所述外部设备显示的内容图像的颜色,
通过所述第一传感器获得第一感测值,并且通过所述第二传感器获得第二感测值,
基于所述预定距离识别所获得的第一感测值的最大值或最小值的发生时间与所获得的第二感测值的最大值或最小值的发生时间之间的发生顺序,
基于所识别的发生顺序,识别用户动作相对于所述多个传感器的方向,并且
基于识别出的用户动作的方向,控制所述通信器向所述外部设备发送与所需要的针对由所述外部设备显示的内容图像的控制相对应的控制命令。
2.根据权利要求1所述的电子设备,其中,
所述多个传感器沿着预定方向布置。
3.根据权利要求1所述的电子设备,其中,所述多个传感器包括接近传感器和光学传感器。
4.根据权利要求1所述的电子设备,其中,所述处理器基于所述第一感测值和所述第二感测值中的至少一个的样式来识别所述用户动作的方向。
5.根据权利要求3所述的电子设备,
其中,所述处理器控制所述光学传感器感测从所述外部设备发射的外部光的颜色,并且控制所述显示器显示具有与感测到的颜色相对应的至少一种颜色的图像。
6.根据权利要求5所述的电子设备,其中,所述处理器控制所述显示器,以使所显示的图像的至少一种颜色不同于由所述光学传感器感测到的光的颜色。
7.根据权利要求5所述的电子设备,其中,
具有至少一种颜色的所述图像包括具有多种不同颜色的图像,并且
所述处理器控制将所述图像显示为使得所述多种不同颜色沿着布置所述多个传感器的方向布置。
8.根据权利要求5所述的电子设备,其中,所述处理器基于从所述外部设备接收到的控制信号来控制所述显示器显示具有所述至少一种颜色的所述图像。
9.一种控制电子设备的方法,所述电子设备包括与外部设备通信的通信器、显示器以及多个传感器,所述多个传感器包括第一传感器和第二传感器,所述第一传感器被布置为与所述第二传感器分开预定距离,所述方法包括:
当通过所述通信器从所述外部设备接收到关于由所述外部设备显示的内容图像的信息时,识别是否需要针对由所述外部设备显示的内容图像的控制;
基于当从所述外部设备接收到所述信息时识别出需要针对由所述外部设备显示的内容图像的控制,控制所述显示器显示用于指示所述电子设备的位置的图像,其中由所述显示器显示的图像的颜色不同于由所述外部设备显示的内容图像的颜色;
通过所述第一传感器获得第一感测值,并且通过所述第二传感器获得第二感测值;
基于所述预定距离识别所获得的第一感测值的最大值或最小值的发生时间与所获得的第二感测值的最大值或最小值的发生时间之间的发生顺序;
基于所识别的发生顺序,识别用户动作相对于所述多个传感器的方向;以及
基于识别出的用户动作的方向,控制所述通信器向所述外部设备发送与所需要的针对由所述外部设备显示的内容图像的控制相对应的控制命令。
10.根据权利要求9所述的方法,其中,
所述多个传感器包括沿着预定方向布置的多个传感器。
11.根据权利要求10所述的方法,其中,所述多个传感器包括接近传感器和光学传感器。
12.根据权利要求9所述的方法,其中,识别所述用户动作方向包括:基于所述第一感测值和所述第二感测值中的至少一个的样式来识别所述用户动作的方向。
13.根据权利要求11所述的方法,其中,识别所述用户动作方向包括:由所述光学传感器感测从所述外部设备发射的外部光的颜色;以及显示具有与感测到的颜色相对应的至少一种颜色的图像。
14.根据权利要求13所述的方法,其中,显示所述图像包括:通过使所显示的图像的至少一种颜色不同于由所述光学传感器感测到的光的颜色来显示所述图像。
15.根据权利要求13所述的方法,其中,
具有至少一种颜色的所述图像包括具有多种不同颜色的图像,并且
显示所述图像包括:将所述图像显示为使得所述多种不同颜色沿着布置所述多个传感器的方向布置。
CN201980009277.1A 2018-01-31 2019-01-29 电子设备及其控制方法 Active CN111630833B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020180011713A KR102495326B1 (ko) 2018-01-31 2018-01-31 전자장치 및 그 제어방법
KR10-2018-0011713 2018-01-31
PCT/KR2019/001189 WO2019151739A1 (en) 2018-01-31 2019-01-29 Electronic apparatus and control method thereof

Publications (2)

Publication Number Publication Date
CN111630833A CN111630833A (zh) 2020-09-04
CN111630833B true CN111630833B (zh) 2022-08-05

Family

ID=67393893

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980009277.1A Active CN111630833B (zh) 2018-01-31 2019-01-29 电子设备及其控制方法

Country Status (5)

Country Link
US (1) US11106325B2 (zh)
EP (1) EP3701709A4 (zh)
KR (1) KR102495326B1 (zh)
CN (1) CN111630833B (zh)
WO (1) WO2019151739A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019108851B4 (de) * 2019-04-04 2020-10-15 Newel AG Einteilige, wasserdichte Wandverkleidungsvorrichtung
USD944830S1 (en) 2020-05-14 2022-03-01 Lutron Technology Company Llc Display screen or portion thereof with graphical user interface

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101729670A (zh) * 2008-10-27 2010-06-09 Lg电子株式会社 移动终端
CN103455134A (zh) * 2012-06-01 2013-12-18 腾讯科技(深圳)有限公司 移动设备与被控设备进行交互的方法及***
CN103713735A (zh) * 2012-09-29 2014-04-09 华为技术有限公司 一种使用非接触式手势控制终端设备的方法和装置
CN104111730A (zh) * 2014-07-07 2014-10-22 联想(北京)有限公司 一种控制方法及电子设备
CN204965278U (zh) * 2015-09-17 2016-01-13 力智电子股份有限公司 穿戴式电子装置
WO2016113740A1 (en) * 2015-01-15 2016-07-21 Snapback S.R.L. Control methods for mobile electronic devices in distributed environments
US9484001B2 (en) * 2013-12-23 2016-11-01 Google Technology Holdings LLC Portable electronic device controlling diffuse light source to emit light approximating color of object of user interest
CN106462325A (zh) * 2014-05-27 2017-02-22 三星电子株式会社 控制显示器的方法和提供该方法的电子设备

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009041060A1 (ja) * 2007-09-28 2009-04-02 Kyocera Corporation 携帯情報機器及びマナーモード移行プログラム
US8294105B2 (en) 2009-05-22 2012-10-23 Motorola Mobility Llc Electronic device with sensing assembly and method for interpreting offset gestures
KR101590918B1 (ko) * 2009-06-19 2016-02-02 엘지전자 주식회사 이동 단말기 및 이동 단말기의 기능 수행 방법
KR101602461B1 (ko) 2009-09-22 2016-03-15 삼성전자주식회사 디스플레이 장치 및 휴대폰의 제어방법
CN102176728B (zh) * 2009-10-24 2013-12-11 汉达精密电子(昆山)有限公司 依据背景光源变色的电子装置及电致变色层的颜色修正方法
KR101670352B1 (ko) 2009-12-03 2016-10-28 엘지전자 주식회사 이동 단말기, 전자 기기 및 전자 기기의 제어 방법
US20120135783A1 (en) * 2010-11-29 2012-05-31 Google Inc. Mobile device image feedback
KR101924974B1 (ko) 2011-01-04 2018-12-04 삼성전자주식회사 이동통신 단말기에서 주변 디바이스를 원격 제어하기 위한 장치 및 방법
KR101788006B1 (ko) 2011-07-18 2017-10-19 엘지전자 주식회사 원격제어장치 및 원격제어장치로 제어 가능한 영상표시장치
JP2012253716A (ja) 2011-06-07 2012-12-20 Nec Saitama Ltd 携帯端末、携帯端末の操作方法、携帯端末の操作プログラム、動画再生システム
KR101325026B1 (ko) 2011-09-24 2013-11-08 주식회사 인프라웨어테크놀러지 스마트 단말을 이용한 안드로이드 플랫폼 기반의 애플리케이션 실행 단말 제어방법 및 이를 위한 컴퓨터로 판독가능한 기록매체
CN103186234A (zh) * 2011-12-31 2013-07-03 联想(北京)有限公司 控制方法以及电子设备
CN103295560B (zh) * 2012-02-24 2016-01-27 联想(北京)有限公司 终端设备及其显示调整方法
KR101372582B1 (ko) 2012-04-26 2014-03-24 주식회사 플러 무선제어를 위한 스마트폰의 사용자 인터페이스 장치
KR101379398B1 (ko) * 2013-01-29 2014-03-28 은명진 스마트 텔레비전용 원격 제어 방법
US20140380249A1 (en) * 2013-06-25 2014-12-25 Apple Inc. Visual recognition of gestures
KR102034587B1 (ko) * 2013-08-29 2019-10-21 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
US9965999B1 (en) * 2014-06-26 2018-05-08 Amazon Technologies, Inc. Adjusting display color based on brightness
WO2016072635A1 (en) 2014-11-03 2016-05-12 Samsung Electronics Co., Ltd. User terminal device and method for control thereof and system for providing contents
KR20160143136A (ko) * 2015-06-04 2016-12-14 엘지전자 주식회사 위치 기반 알림 시스템 및 그것의 제어방법
US10114467B2 (en) * 2015-11-30 2018-10-30 Photopotech LLC Systems and methods for processing image information
US10372892B2 (en) 2016-07-13 2019-08-06 Motorola Mobility Llc Electronic device with gesture actuation of companion devices, and corresponding systems and methods
CN107248272A (zh) * 2017-06-07 2017-10-13 青岛海信电器股份有限公司 一种遥控方法及遥控装置
CN107291334A (zh) * 2017-06-27 2017-10-24 努比亚技术有限公司 一种图标字体颜色确定方法及设备
KR20170087438A (ko) 2017-07-18 2017-07-28 삼성전자주식회사 의료 기기를 제어하는 모바일 단말기 및 이의 의료 기기 제어 방법
CN107645610B (zh) * 2017-10-19 2020-07-03 维沃移动通信有限公司 一种移动终端的控制方法及移动终端

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101729670A (zh) * 2008-10-27 2010-06-09 Lg电子株式会社 移动终端
CN103455134A (zh) * 2012-06-01 2013-12-18 腾讯科技(深圳)有限公司 移动设备与被控设备进行交互的方法及***
CN103713735A (zh) * 2012-09-29 2014-04-09 华为技术有限公司 一种使用非接触式手势控制终端设备的方法和装置
US9484001B2 (en) * 2013-12-23 2016-11-01 Google Technology Holdings LLC Portable electronic device controlling diffuse light source to emit light approximating color of object of user interest
CN106462325A (zh) * 2014-05-27 2017-02-22 三星电子株式会社 控制显示器的方法和提供该方法的电子设备
CN104111730A (zh) * 2014-07-07 2014-10-22 联想(北京)有限公司 一种控制方法及电子设备
WO2016113740A1 (en) * 2015-01-15 2016-07-21 Snapback S.R.L. Control methods for mobile electronic devices in distributed environments
CN204965278U (zh) * 2015-09-17 2016-01-13 力智电子股份有限公司 穿戴式电子装置

Also Published As

Publication number Publication date
KR102495326B1 (ko) 2023-02-02
US11106325B2 (en) 2021-08-31
US20190238785A1 (en) 2019-08-01
KR20190092672A (ko) 2019-08-08
CN111630833A (zh) 2020-09-04
WO2019151739A1 (en) 2019-08-08
EP3701709A4 (en) 2020-12-09
EP3701709A1 (en) 2020-09-02

Similar Documents

Publication Publication Date Title
EP3282347A1 (en) Terminal and touch response method and device
EP3196736A1 (en) Method and apparatus for recognizing gesture
CN109426478B (zh) 用于使用多个控制器控制电子设备的显示器的方法和设备
CN104486451B (zh) 应用程序推荐方法及装置
KR20190035116A (ko) Ar 객체를 표시하기 위한 장치 및 방법
US11328469B2 (en) Electronic device and method for providing drawing environment
CN105208284B (zh) 拍摄提醒方法及装置
KR102645340B1 (ko) 전자 장치 및 그의 녹화 방법
US9921796B2 (en) Sharing of input information superimposed on images
JP2013240000A (ja) 電子機器、録音制御プログラムおよび録音制御方法
KR102271184B1 (ko) 영상 투사 장치 및 그의 동작 방법
CN105183755B (zh) 一种图片的显示方法及装置
CN109618192B (zh) 播放视频的方法、装置、***和存储介质
CN112650405A (zh) 一种电子设备的交互方法及电子设备
CN111630833B (zh) 电子设备及其控制方法
US11164024B2 (en) Method, apparatus and storage medium for controlling image acquisition component
KR102653252B1 (ko) 외부 객체의 정보에 기반하여 시각화된 인공 지능 서비스를 제공하는 전자 장치 및 전자 장치의 동작 방법
CN104702848A (zh) 显示取景信息的方法及装置
US10133966B2 (en) Information processing apparatus, information processing method, and information processing system
KR102125525B1 (ko) 이미지 처리 방법 및 그 전자 장치
CN108509127B (zh) 启动录屏任务的方法、装置及计算机设备
US20210072832A1 (en) Contactless gesture control method, apparatus and storage medium
CN104020933A (zh) 菜单显示方法及装置
KR102081659B1 (ko) 시각 효과 적용을 위한 촬영 방법 및 장치
CN112068721A (zh) 触控信号响应方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant