WO2021187935A1 - 에어 제스처에 의한 스타일러스 펜과 연관된 기능을 제어하기 위한 전자 장치, 그 동작 방법 - Google Patents

에어 제스처에 의한 스타일러스 펜과 연관된 기능을 제어하기 위한 전자 장치, 그 동작 방법 Download PDF

Info

Publication number
WO2021187935A1
WO2021187935A1 PCT/KR2021/003405 KR2021003405W WO2021187935A1 WO 2021187935 A1 WO2021187935 A1 WO 2021187935A1 KR 2021003405 W KR2021003405 W KR 2021003405W WO 2021187935 A1 WO2021187935 A1 WO 2021187935A1
Authority
WO
WIPO (PCT)
Prior art keywords
stylus pen
input signal
electronic device
detected
air gesture
Prior art date
Application number
PCT/KR2021/003405
Other languages
English (en)
French (fr)
Inventor
이지훈
한종현
김민경
김선화
문희경
양지은
오영일
유혜미
이민희
이보나
임동규
전진희
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2021187935A1 publication Critical patent/WO2021187935A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Definitions

  • Various embodiments relate to an electronic device for controlling a function related to a stylus pen using an air gesture, and an operating method thereof.
  • BACKGROUND Electronic devices are being developed to receive various inputs from a user through a specified input device (eg, a stylus pen) connected to the electronic device through wireless communication.
  • the electronic device may identify a location on the electronic device designated by an input device having a pen function (hereinafter, may be referred to as a “stylus pen” for convenience of description), and may perform a corresponding function. have.
  • the electronic device may detect a magnetic field generated from the stylus pen using an electromagnetic induction (electromagnetic resonance, hereinafter referred to as EMR) method.
  • EMR electromagnetic induction
  • the electronic device may identify the position of the stylus pen based on the induced electromotive force generated by the magnetic field for each channel.
  • the stylus pen may be connected to the electronic device through short-range communication (eg, Bluetooth low energy (BLE)).
  • the stylus pen may, for example, transmit information about a pressing state of a button disposed on the housing of the stylus pen to the electronic device through short-distance communication, and the electronic device may perform a specified operation based on the received information.
  • short-range communication eg, Bluetooth low energy (BLE)
  • BLE Bluetooth low energy
  • the user may input handwriting or draw a picture, such as taking notes on the screen of the electronic device.
  • a picture such as taking notes on the screen of the electronic device.
  • the user can not only draw a picture, but also variously change pen drawing options such as pen thickness, brush, and color to output drawing marks.
  • pen drawing options such as pen thickness, brush, and color to output drawing marks.
  • the user may conveniently and intuitively provide an input to the electronic device by using the stylus pen.
  • the user may have to repeat the manipulation using the stylus pen.
  • the user since the user must frequently and repeatedly perform an operation of setting pen drawing options and adjusting detailed setting values, it may cause inconvenience to the user. Therefore, a method for quickly and easily controlling various functions based on the stylus pen may be required without interruption.
  • an electronic device includes a display device including a sensing panel, at least one sensor, at least one processor operatively connected to the display device and the at least one sensor, and operatively with the at least one processor. and a memory coupled to the memory, wherein, when executed, the at least one processor detects a first input signal corresponding to an air gesture in a proximity region of the electronic device by the at least one sensor, and When the second input signal corresponding to the input by the stylus pen is not detected through the sensing panel, a first function related to screen display is controlled in response to the first input signal, and the second input signal is detected When the first input signal is detected, instructions configured to control a second function related to the stylus pen in response to the first input signal may be stored.
  • a first input signal corresponding to the air gesture in a proximity area of the electronic device and the stylus pen by at least one sensor an operation of identifying whether at least one of the second input signals corresponding to the input by and controlling a second function related to the stylus pen in response to the detection of the first input signal while the second input signal is detected.
  • a function related to the stylus pen may be conveniently and intuitively used through an air gesture while an application supporting various functions based on the stylus pen is running.
  • a function related to the stylus pen may be easily controlled through an air gesture of the opposite hand holding the stylus pen, so that work efficiency may be increased through both hands manipulation.
  • the user since it is possible to control the application execution screen or change the properties related to the stylus pen in response to a fixed pop-up window, for example, an air gesture rather than a fixed palette panel, the user can obtain immediate feedback and execute It may be effective in using space by not covering at least a part of the screen.
  • FIG. 1 is a block diagram of an electronic device in a network environment according to various embodiments of the present disclosure
  • FIG. 2 is a perspective view of an electronic device including a stylus pen according to an exemplary embodiment.
  • 3A is a block diagram illustrating a stylus pen according to an exemplary embodiment.
  • 3B is an exploded perspective view of a stylus pen according to an exemplary embodiment
  • FIG. 4 is an internal block diagram of an electronic device for processing an air gesture associated with a stylus pen according to an embodiment.
  • FIG 5 is an exemplary screen view for explaining control of an application execution screen using an air gesture according to an embodiment.
  • FIG. 6 is an exemplary screen view for explaining a change of a stylus pen property when hovering using an air gesture according to an embodiment.
  • FIG. 7 is a flowchart illustrating an operation of an electronic device for processing an air gesture associated with a stylus pen according to an exemplary embodiment.
  • FIG. 8 is a table illustrating types of air gestures according to an embodiment.
  • 9A is a diagram illustrating an application execution screen before activating an air gesture mode according to an embodiment.
  • 9B is an exemplary screen view for explaining a change in a tool panel when an air gesture mode is activated, according to an embodiment.
  • 9C is an exemplary screen view for explaining a change in a tool panel upon completion of activation of an air gesture mode, according to an embodiment.
  • 9D is an exemplary screen view for explaining a hidden state of a tool panel upon completion of activation of an air gesture mode according to an embodiment.
  • 10A is an exemplary view of a screen providing status information upon entering an air gesture mode according to an embodiment.
  • 10B is an exemplary view of a screen providing status information according to an air gesture input according to an embodiment.
  • 10C is an exemplary view of a screen providing state information according to an air gesture not detected, according to an embodiment.
  • 11A is an exemplary screen view for explaining an operation of changing pen properties based on an air gesture according to an embodiment.
  • 11B is an exemplary view of a screen providing an icon panel according to a change in pen properties, according to an embodiment.
  • 11C is an exemplary screen view illustrating a hidden state of an icon panel according to a change in pen properties, according to an exemplary embodiment.
  • FIG. 12 is an exemplary screen view for explaining a display operation of an icon panel according to hovering, according to an embodiment.
  • 13A is an exemplary view of a screen for a right-hand mode according to an embodiment.
  • 13B is an exemplary view of a screen for a left hand mode according to an embodiment.
  • FIG. 14 is an exemplary screen view for explaining an operation using an air gesture when the stylus pen is removed according to an embodiment.
  • 15 is an exemplary screen view for explaining an operation of a translator using an air gesture according to an embodiment.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100a, according to various embodiments of the present disclosure.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or a second network 199 . It may communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • the electronic device 101 includes a processor 120 , a memory 130 , an input device 150 , a sound output device 155 , a display device 160 , an audio module 170 , and a sensor module ( 176 , interface 177 , haptic module 179 , camera module 180 , power management module 188 , battery 189 , communication module 190 , subscriber identification module 196 , or antenna module 197 . ) may be included. In some embodiments, at least one of these components (eg, the display device 160 or the camera module 180 ) may be omitted or one or more other components may be added to the electronic device 101 . In some embodiments, some of these components may be implemented as a single integrated circuit. For example, the sensor module 176 (eg, a fingerprint sensor, an iris sensor, or an illuminance sensor) may be implemented while being embedded in the display device 160 (eg, a display).
  • the sensor module 176 eg, a fingerprint sensor, an iris sensor, or an illumina
  • the processor 120 for example, executes software (eg, a program 140) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120 . It can control and perform various data processing or operations. According to an embodiment, as at least part of data processing or operation, the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190) to the volatile memory 132 . may be loaded into the volatile memory 132 , process commands or data stored in the volatile memory 132 , and store the resulting data in the non-volatile memory 134 .
  • software eg, a program 140
  • the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190) to the volatile memory 132 .
  • the volatile memory 132 may be loaded into the volatile memory 132 , process commands or data stored in the volatile memory 132 , and store the resulting data in the non-volatile memory 134 .
  • the processor 120 includes a main processor 121 (eg, a central processing unit or an application processor), and an auxiliary processor 123 (eg, a graphic processing unit or an image signal processor) that can be operated independently or together with the main processor 121 . , a sensor hub processor, or a communication processor). Additionally or alternatively, the auxiliary processor 123 may be configured to use less power than the main processor 121 or to be specialized for a designated function. The auxiliary processor 123 may be implemented separately from or as a part of the main processor 121 .
  • a main processor 121 eg, a central processing unit or an application processor
  • an auxiliary processor 123 eg, a graphic processing unit or an image signal processor
  • the auxiliary processor 123 may be configured to use less power than the main processor 121 or to be specialized for a designated function.
  • the auxiliary processor 123 may be implemented separately from or as a part of the main processor 121 .
  • the auxiliary processor 123 may be, for example, on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or when the main processor 121 is active (eg, executing an application). ), together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display device 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
  • the auxiliary processor 123 eg, an image signal processor or a communication processor
  • the memory 130 may store various data used by at least one component of the electronic device 101 (eg, the processor 120 or the sensor module 176 ).
  • the data may include, for example, input data or output data for software (eg, the program 140 ) and instructions related thereto.
  • the memory 130 may include a volatile memory 132 or a non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 , and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the input device 150 may receive a command or data to be used by a component (eg, the processor 120 ) of the electronic device 101 from the outside (eg, a user) of the electronic device 101 .
  • the input device 150 may include, for example, a microphone, a mouse, a keyboard, or a digital pen (eg, a stylus pen).
  • the sound output device 155 may output a sound signal to the outside of the electronic device 101 .
  • the sound output device 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback, and the receiver can be used to receive incoming calls. According to an embodiment, the receiver may be implemented separately from or as a part of the speaker.
  • the display device 160 may visually provide information to the outside (eg, a user) of the electronic device 101 .
  • the display device 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the corresponding device.
  • the display device 160 may include a touch circuitry configured to sense a touch or a sensor circuit (eg, a pressure sensor) configured to measure the intensity of a force generated by the touch. have.
  • the audio module 170 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 acquires a sound through the input device 150 , or an external electronic device (eg, a sound output device 155 ) connected directly or wirelessly with the electronic device 101 . Sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • an external electronic device eg, a sound output device 155
  • Sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more specified protocols that may be used by the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102 ).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • the connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 188 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • the battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishment and communication through the established communication channel.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : It may include a local area network (LAN) communication module, or a power line communication module).
  • a wireless communication module 192 eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 eg, : It may include a local area network (LAN) communication module, or a power line communication module.
  • a corresponding communication module is a first network 198 (eg, a short-range communication network such as Bluetooth, WiFi direct, or IrDA (infrared data association)) or a second network 199 (eg, a cellular network, the Internet, or It may communicate with an external electronic device via a computer network (eg, a telecommunication network such as a LAN or WAN).
  • a computer network eg, a telecommunication network such as a LAN or WAN.
  • These various types of communication modules may be integrated into one component (eg, a single chip) or may be implemented as a plurality of components (eg, multiple chips) separate from each other.
  • the wireless communication module 192 uses the subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199 .
  • the electronic device 101 may be identified and authenticated.
  • the antenna module 197 may transmit or receive a signal or power to the outside (eg, an external electronic device).
  • the antenna module may include one antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 197 may include a plurality of antennas. In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected from the plurality of antennas by, for example, the communication module 190 . can be selected. A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, RFIC
  • other than the radiator may be additionally formed as a part of the antenna module 197 .
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the electronic devices 102 and 104 may be the same or a different type of the electronic device 101 .
  • all or a part of operations performed by the electronic device 101 may be performed by one or more of the external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 may perform the function or service itself instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • the one or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101 .
  • the electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing, distributed computing, or client-server computing technology may be used.
  • FIG. 2 is a perspective view of an electronic device 101 including a stylus pen 201 (eg, the electronic device 102 of FIG. 1 ), according to an exemplary embodiment.
  • the stylus pen 201 may correspond to the input device 150 of FIG. 1 instead of the electronic device 102 of FIG. 1 .
  • the electronic device 101 may include the configuration illustrated in FIG. 1 , and may include a structure into which the stylus pen 201 may be inserted.
  • the electronic device 101 may include a housing 210 , and a hole 211 may be provided in a portion of the housing 210 , for example, a portion of the side surface 210a.
  • the electronic device 101 may include a first inner space 212 that is an accommodation space connected to the hole 211 , and the stylus pen 201 may be inserted into the first inner space 212 .
  • the stylus pen 201 includes a first button 201a that can be pressed at one end so as to easily take the stylus pen 201 out of the first internal space 212 of the electronic device 101 .
  • a repulsion mechanism configured in association with the first button 201a (for example, a repulsion mechanism by at least one elastic member (eg, a spring)) operates, so that the first inner space ( The stylus pen 201 may be separated from the 212 .
  • FIG. 3A is a block diagram illustrating a stylus pen (eg, the stylus pen 201 of FIG. 2 ) according to an exemplary embodiment.
  • the stylus pen 201 includes a processor 220 , a memory 230 , a resonance circuit 287 , a charging circuit 288 , a battery 289 , and a communication circuit 290 . , an antenna 297 , a trigger circuit 298 and/or a sensor 299 .
  • the processor 220 of the stylus pen 201, at least a portion of the resonant circuit 287, and/or at least a portion of the communication circuit 290 may be configured on a printed circuit board or in the form of a chip. have.
  • the processor 220 , the resonant circuit 287 and/or the communication circuit 290 may include a memory 230 , a charging circuit 288 , a battery 289 , an antenna 297 , a trigger circuit 298 and/or a sensor. (299) may be electrically connected.
  • the processor 220 may include a generic processor configured to execute a customized hardware module or software (eg, an application program).
  • the processor 220 includes at least one of various sensors provided in the stylus pen 201, a data measurement module, an input/output interface, a module for managing the state or environment of the stylus pen 201, or a communication module. It may include a component (function) or a software element (program).
  • the processor 220 may include, for example, one or a combination of two or more of hardware, software, and firmware.
  • the processor 220 may include information indicating a pressed state of a button (eg, button 337), sensing information acquired by the sensor 299, and/or information calculated based on the sensing information ( Example: information related to the position of the stylus pen 201 may be set to be transmitted to the electronic device 101 through the communication circuit 290 .
  • the resonance circuit 287 may resonate based on an electromagnetic field signal generated from a digitizer (eg, the display device 160 ) of the electronic device 101 , and by resonance, an electromagnetic resonance method (electro-resonance) A magnetic resonance (EMR) input signal (or magnetic field and) may be radiated.
  • the electronic device 101 may identify the position of the stylus pen 201 on the electronic device 101 by using the electromagnetic resonance method input signal. For example, the electronic device 101, in each of a plurality of channels (eg, a plurality of loop coils) in the digitizer, based on the magnitude of an induced electromotive force (eg, output current) generated by an electromagnetic resonance input signal Thus, the position of the stylus pen 201 may be confirmed.
  • the electronic device 101 and the stylus pen 201 operate based on the EMR method, this is merely an example, and the electronic device 101 is electrically coupled resonance (ECR) method. It is also possible to generate a signal based on an electric field based on The resonance circuit of the stylus pen 201 may be resonated by an electric field.
  • the electronic device 101 may check a potential in a plurality of channels (eg, electrodes) due to resonance in the stylus pen 201 , and may check a position of the stylus pen 201 based on the potential .
  • the stylus pen 201 may be implemented in an active electrostatic (AES) method, and there is no limitation in the type of implementation.
  • the electronic device 101 may detect the stylus pen 201 based on a change in capacitance (self capacitance or mutual capacitance) associated with at least one electrode of the touch panel. In this case, the stylus pen 201 may not include a resonance circuit.
  • “panel” or “sensing panel” may be used as a term encompassing a digitizer and a touch screen panel (TSP).
  • the memory 230 may store information related to the operation of the stylus pen 201 .
  • the information may include information for communication with the electronic device 101 and frequency information related to an input operation of the stylus pen 201 .
  • the memory 230 a program (or an application, an algorithm, or processing loop).
  • the memory 230 may store a communication stack of the communication circuit 290 .
  • communication circuitry 290 and/or processor 220 may include dedicated memory.
  • the resonance circuit 287 may include a coil (or an inductor) and/or a capacitor.
  • the resonance circuit 287 may resonate based on an input electric field and/or magnetic field (eg, an electric field and/or magnetic field generated from the digitizer of the electronic device 101 ).
  • the stylus pen 201 transmits a signal by the EMR method
  • the stylus pen 201 sets a resonance frequency based on an electromagnetic field generated from an inductive panel of the electronic device 101 . It is possible to generate a signal containing
  • the stylus pen 201 may generate a signal using the electronic device 101 and capacitive coupling.
  • the stylus pen 201 When the stylus pen 201 transmits a signal by the ECR method, the stylus pen 201 generates a signal including a resonance frequency based on an electric field generated from a capacitive device of an electronic device.
  • the resonance circuit 287 may be used to change the strength or frequency of the electromagnetic field according to a user's manipulation state.
  • the resonance circuit 287 may provide various frequencies for recognizing a hovering input, a drawing input, a button input, or an erasing input.
  • the resonant circuit 287 may provide various resonant frequencies according to a connection combination of a plurality of capacitors, or may provide various resonant frequencies based on a variable inductor and/or a variable capacitor.
  • the stylus pen 201 may determine whether the stylus pen 201 is inserted into the electronic device 101 by using the voltage level of the DC signal detected by the charging circuit 288 . Alternatively, the stylus pen 201 may check whether the stylus pen 201 is inserted by checking a pattern corresponding to the signal identified by the charging circuit 288 .
  • the battery 289 may be configured to store power required for the operation of the stylus pen 201 .
  • the battery 289 may include, for example, a lithium-ion battery or a capacitor, and may be rechargeable or replaceable. According to an embodiment, the battery 289 may be charged using power (eg, a DC signal (DC power)) provided from the charging circuit 288 .
  • power eg, a DC signal (DC power)
  • the communication circuit 290 may be configured to perform a wireless communication function between the stylus pen 201 and the communication module 190 of the electronic device 101 .
  • the communication circuit 290 may transmit state information, input information, and/or information related to a location of the stylus pen 201 to the electronic device 101 using a short-distance communication method.
  • the communication circuit 290 may include direction information (eg, motion sensor data) of the stylus pen 201 acquired through the trigger circuit 298 , voice information input through a microphone, or the remaining amount of the battery 289 . Information may be transmitted to the electronic device 101 .
  • the communication circuit 290 may transmit sensing data obtained from the sensor 299 and/or information related to the position of the stylus pen 201 identified based on the sensing data to the electronic device 101 .
  • the communication circuit 290 may transmit information about a state of a button (eg, the button 337 ) included in the stylus pen 201 to the electronic device 101 .
  • the short-range communication method may include at least one of Bluetooth, Bluetooth low energy (BLE), NFC, and Wi-Fi direct, but there is no limitation on the type.
  • the antenna 297 may be used to transmit or receive a signal or power to the outside (eg, the electronic device 101 ).
  • the stylus pen 201 may include a plurality of antennas 297 , and among them, at least one antenna 297 suitable for a communication method may be selected. Through the selected at least one antenna 297 , the communication circuit 290 may exchange a signal or power with an external electronic device.
  • the trigger circuit 298 may include at least one button or a sensor circuit.
  • the processor 220 may check the input method (eg, touch or press) or type (eg, EMR button or BLE button) of the button of the stylus pen 201 .
  • the trigger circuit 298 may transmit a trigger signal to the electronic device 101 using an input signal of a button or a signal through the sensor 299 .
  • the sensor 299 may include an acceleration sensor, a gyro sensor, and/or a geomagnetic sensor.
  • the acceleration sensor may sense information about the linear movement of the stylus pen 201 and/or the acceleration of the stylus pen 201 in three axes.
  • the gyro sensor may sense information related to rotation of the stylus pen 201 .
  • the geomagnetic sensor may sense information about a direction in which the stylus pen 201 faces in an absolute coordinate system.
  • the sensor 299 is not only a sensor for measuring motion, but also a sensor capable of generating an electrical signal or data value corresponding to an internal operating state of the stylus pen 201 or an external environmental state.
  • the processor 220 may transmit information obtained from the sensor 299 to the electronic device 101 through the communication circuit 290 .
  • the processor 220 based on the information obtained from the sensor 299 , information related to the position of the stylus pen 201 (eg, coordinates of the stylus pen 201 and/or displacement of the stylus pen 201 ) ) may be transmitted to the electronic device 101 through the communication circuit 290 .
  • FIG. 3B is an exploded perspective view of a stylus pen (eg, the stylus pen 201 of FIG. 2 ) according to an embodiment.
  • the stylus pen 201 may include a pen housing 300 constituting an outer shape of the stylus pen 201 and an inner assembly inside the pen housing 300 .
  • the inner assembly may be inserted into the pen housing 300 by one assembly operation in a state in which several components mounted inside the stylus pen 201 are coupled together.
  • the pen housing 300 may have an elongated shape between the first end 300a and the second end 300b, and may include a second internal space 301 therein.
  • the pen housing 300 may have an elliptical cross section comprising a major axis and a minor axis, and may be formed in an elliptical column shape as a whole.
  • the first internal space 212 of the electronic device 101 described above with reference to FIG. 2 may also have an elliptical cross-section corresponding to the shape of the pen housing 300 .
  • at least a portion of the pen housing 300 may include a synthetic resin (eg, plastic) and/or a metallic material (eg, aluminum).
  • the first end 300a of the pen housing 300 may be made of a synthetic resin material.
  • Various other embodiments may be applied to the material of the pen housing 300 .
  • the inner assembly may have an elongated shape corresponding to the shape of the pen housing 300 .
  • the inner assembly may be largely divided into three components along the longitudinal direction.
  • the inner assembly may include a coil unit 310 disposed at a position corresponding to the first end 300a of the pen housing 300 , and a position corresponding to the second end 300b of the pen housing 300 .
  • It may include an ejection member (320) disposed on the circuit board portion (330) disposed at a position corresponding to the body of the pen housing (300).
  • the coil unit 310 includes a pen tip 311 exposed to the outside of the first end 300a when the inner assembly is completely inserted into the pen housing 300 , a packing ring 312 , and a coil wound a plurality of times. 313 and/or a pen pressure sensing unit 314 for acquiring a change in pressure according to the pressure of the pen tip 311 may be included.
  • the packing ring 312 may include epoxy, rubber, urethane, or silicone.
  • the packing ring 312 may be provided for the purpose of waterproofing and dustproofing, and may protect the coil unit 310 and the circuit board unit 330 from immersion or dust.
  • the coil 313 may form a resonant frequency in a set frequency band (eg, 500 kHz), and is combined with at least one element (eg, a capacitive element) in a range to a certain extent.
  • the resonance frequency formed by the coil 313 may be adjusted.
  • the ejection member 320 may include a configuration for withdrawing the stylus pen 201 from the first internal space 212 of the electronic device (eg, 101 of FIG. 2 ).
  • the ejection member 320 is disposed around the shaft 321 and the shaft 321, the ejection body 322 and the button portion 323 forming the overall outer shape of the ejection member 320 (323) ( Example: the first button 201a of FIG. 2) may be included.
  • a portion including the shaft 321 and the ejection body 322 is surrounded by the second end 300b of the pen housing 300 , and a button portion At least a portion of the 323 may be exposed to the outside of the second end 300b.
  • a plurality of components not shown, for example, cam members or elastic members, may be disposed in the ejection body 322 to form a push-pull structure.
  • the button portion 323 may be substantially coupled to the shaft 321 to make a linear reciprocating motion with respect to the ejection body 322 .
  • the button unit 323 may include a button having a locking structure so that a user can take out the stylus pen 201 using a fingernail.
  • the stylus pen 201 may provide another input method by including a sensor for detecting a linear reciprocating motion of the shaft 321 .
  • the circuit board unit 330 may include a printed circuit board 332 , a base 331 surrounding at least one surface of the printed circuit board 332 , and an antenna.
  • a substrate seating part 333 on which a printed circuit board 332 is disposed is formed on the upper surface of the base 331 , and the printed circuit board 332 is seated on the substrate seating part 333 .
  • the printed circuit board 332 may include a first surface and a second surface, and a variable capacitance capacitor or a switch 334 connected to the coil 313 may be disposed on the first surface.
  • a charging circuit, a battery 336 or a communication circuit may be disposed on the second side.
  • the first surface and the second surface of the printed circuit board 332 may mean different stacked surfaces in a structure stacked up/down according to one embodiment, and according to another embodiment, the printed circuit board ( 332) may mean different portions of the printed circuit board disposed along the longitudinal direction.
  • the battery 336 may include an electric double layered capacitor (EDLC).
  • the charging circuit is positioned between the coil 313 and the battery, and may include a voltage detector circuitry and a rectifier.
  • the battery 336 may not necessarily be disposed on the second surface of the printed circuit board 332 .
  • the position of the battery 336 may be variously set according to various mounting structures of the circuit board 330 , and may be arranged at a position different from that shown in the drawings.
  • the antenna may include an antenna embedded in an antenna structure 339 and/or a printed circuit board 332 such as the example shown in FIG. 3B .
  • a switch 334 may be provided on the printed circuit board 332 .
  • the second button 337 provided in the stylus pen 201 is used to press the switch 334 and may be exposed to the outside through the side opening 302 of the pen housing 300 . While the second button 337 is supported by the support member 338 , if there is no external force acting on the second button 337 , the support member 338 provides an elastic restoring force to keep the second button 337 constant. It may be restored or maintained in its deployed state.
  • the second button 337 may be implemented in any one of a physical key, a touch key, a motion key, a pressure key, and a key less method, and there is no limitation in the implementation form of the button.
  • the circuit board unit 330 may include, for example, a packing ring such as an O-ring.
  • a packing ring such as an O-ring.
  • O-rings made of an elastic material may be disposed at both ends of the base 331 to form a sealing structure between the base 331 and the pen housing 300 .
  • the support member 338 may partially adhere to the inner wall of the pen housing 300 around the side opening 302 to form a sealing structure.
  • the circuit board part 330 may also include a waterproof and dustproof structure similar to the packing ring 312 of the coil part 310 in at least one portion thereof.
  • the stylus pen 201 may include a battery receiving part 333a in which the battery 336 is disposed on the upper surface of the base 331 .
  • the battery 336 that may be mounted on the battery mounting part 333a may include, for example, a cylinder type battery.
  • the stylus pen 201 may include a microphone (not shown) and/or a speaker.
  • the microphone and/or speaker may be directly connected to the printed circuit board 332 or connected to a separate flexible printed circuit board (FPCB) (not shown) connected to the printed circuit board 332 .
  • the microphone and/or the speaker may be disposed in a position parallel to the second button 337 in the longitudinal direction of the stylus pen 301 .
  • FIG. 4 is an internal block diagram 400 of an electronic device for processing an air gesture associated with a stylus pen according to an embodiment.
  • the display device 460 (eg, the display device 160 of FIG. 1 ) sensing an input of the stylus pen 201 (eg, the stylus pen 201 of FIG. 2 ) is the electronic device 101 . ) (eg, the electronic device 101 of FIG. 1 ).
  • the display device 460 may simultaneously support data input/output functions and may sense a touch.
  • the display device 460 may include a sensing panel 461 , a display panel 462 , and a display controller 463 .
  • the sensing panel 461 is included in the display device 460 in FIG. 4 , it may form a layer structure with the display panel 462 to operate as an input panel different from the display device 160 .
  • the sensing panel 461 may detect the position of the touch input of the stylus pen 201 , and the display panel 462 may output an image.
  • the display controller 463 may be a driving circuit that controls the display panel 462 to output an image through the display panel 462 .
  • the sensing panel 461 may be configured as an EMR method using an electromagnetic sensor or an EMI (electro-magnetic interface) type input pad, which As an example, it may also be configured as an electrically coupled resonance (ECR) type input pad.
  • EMR electrically coupled resonance
  • the sensing panel 461 may receive a magnetic field from the stylus pen 201 and detect the position of the stylus pen 201 therefrom.
  • the sensing panel 461 may include one or more panels forming a mutually layered structure in order to sense an input using a plurality of sensors.
  • the sensing panel 461 may be implemented as a touch screen panel (TSP), and if implemented as a touch screen panel, the position of the stylus pen 200 is determined based on an output signal from an electrode. You can also check Those skilled in the art will understand that the stylus pen 201 may be implemented in an active electrostatic (AES) method, and there is no limitation in the type of implementation.
  • AES active electrostatic
  • the sensing panel 461 may sense that the stylus pen 201 or the user's finger touches or approaches. For example, the sensing panel 461 may detect a hovering input by the stylus pen 201 . The sensing panel 461 may generate an input signal corresponding to the hovering input and transmit it to the processor 120 . The sensing panel 461 may generate an input signal including information of the hovering input based on the location of the hovering input, the stylus pen 201 , and a manipulation state by a button provided in the stylus pen 201 .
  • sensing panel 461 hardware implemented as an EMR method or a touch screen panel capable of sensing a signal from the stylus pen may be referred to as a sensing panel 461 .
  • the sensing panel 461 may detect a touch input by a human body or detect an input by the stylus pen 201 .
  • the configuration of the display device 460 illustrated in FIG. 4 is only an example, and the types and number of panels constituting the display device 460 and positions of upper and lower layers of the panels may vary depending on the manufacturing technology of the electronic device 101 . can be changed drastically.
  • the display device 460 may display a pop-up window for items related to stylus pen properties according to, for example, execution of an application. Since the user needs to change the stylus pen properties only through the pop-up window, a large portion of the application execution screen may be covered by the pop-up window each time. In addition, since a palm reject function is applied to the display device 460 to prevent a touch malfunction, a new input method instead of the existing touch input method may be required while using the stylus pen 201 .
  • an air gesture using the opposite hand instead of the hand holding the stylus pen 201 may be used as a new input method while using the stylus pen 201 .
  • an air gesture using the opposite hand instead of the hand holding the stylus pen 201 may be used as a new input method while using the stylus pen 201 .
  • the senor 476 may sense an air gesture by the user's hand.
  • the air gesture operation may be an operation in which the user moves a hand or finger without touching the touch screen by being spaced apart from the electronic device 101 by a predetermined distance.
  • the air gesture associated with the stylus pen may mean a movement for controlling a related function by the stylus pen 201 on the electronic device 101 .
  • the sensor 476 may include at least one sensor for sensing an air gesture by a hand opposite to the hand holding the stylus pen 201 . If such a sensor 476 is used, it can be determined in which direction the air gesture by the user's hand is detected from the left and right directions with respect to the central axis of the front of the electronic device 101 in a state in which the rear surface of the electronic device 101 is placed in contact with the floor. can be identified. In addition, since the sensor 476 may detect the pose of the hand holding the stylus pen 201 when the user holds the stylus pen 201 , it is possible to distinguish whether the hand holding the stylus pen 201 is a right hand or a left hand.
  • a hand holding the stylus pen 201 and a hand not holding the stylus pen 201 may be distinguished based on the data sensed by the sensor 476 .
  • a graphic UI for the right hand may be displayed on the display device 460 in response to an air gesture by the left hand.
  • a graphic UI listing tool sets made of tools corresponding to the operating state of the stylus pen 201 may be moved to the right on the display device 460 to be displayed so that a user using a right hand can use it more easily.
  • the graphic UI for the left hand may be displayed on the display device 460 in response to the air gesture by the right hand.
  • the components of the graphic UI are arranged on the right or displayed on the right so that the user can use the space on the left side of the screen of the electronic device more widely. It can be implemented so that it becomes and disappears.
  • the sensor 476 may be an RF spectrum type sensor.
  • the sensor 476 may use the frequency of the WiFi wireless antenna of 60Ghz. For example, by sending an RF signal toward a target object and receiving a reflected radio wave signal, the pattern of the RF signal returning after the radiated RF signal is reflected by the target object may be analyzed. The user's hand gesture can be identified based on the pattern of the RF signal. For example, air gesture recognition based on an RF signal uses a frequency domain of 5Ghz to 60Ghz, and may have a field of view (FOV) of 160 to 180 degrees. In the case of an air gesture using such an RF signal, fine control of a related function by the stylus pen 201 may be possible.
  • FOV field of view
  • the senor 476 may be any one of an infrared sensor, an ultrasonic sensor, a motion sensor, a 3D sensor, and a vision sensor, but the type of sensor is not limited thereto. Information sensed by at least two of these sensors may be combined and utilized to detect an air gesture by a user's hand. For example, the air gesture by the user's hand may be detected based on the output from the ultrasonic sensor and the camera.
  • the sensed data from the sensor 476 may be transmitted to the processor 420 , and the sensed data may be processed by the processor 420 .
  • the processor 420 may identify an air gesture (eg, an air gesture type) based on the sensed data of the sensor 476 and may perform an operation corresponding to the air gesture. According to an embodiment, the processor 420 may distinguish between the hand holding the stylus pen 201 and the opposite hand among both hands of the user based on the data sensed by the sensor 476 . According to an embodiment, the processor 420 determines that the air gesture is a gesture using the opposite hand holding the stylus pen 201, a gesture using one finger of the opposite hand, a gesture using two fingers of the opposite hand, a gesture using a multi-finger, It is possible to recognize whether the gesture corresponds to any one of a clenched hand gesture and an open palm gesture.
  • an air gesture eg, an air gesture type
  • the air gesture calls a menu related to the stylus pen 201 with the other hand while holding the stylus pen 201 with either hand of the user without interfering with the use of the stylus pen 201, or Can be used to control the current running screen.
  • the processor 420 may transmit a function mapped to the air gesture to the application.
  • the processor 420 provides, based on the air gesture, at least one icon panel (eg, consisting of icons that can change pen functions) related to pen properties (eg, thickness, and/or color); You can change pen properties (eg thickness, and/or color).
  • the processor 420 may perform a control operation on the currently running application screen based on the air gesture.
  • the at least one icon panel is a graphic UI listing tool sets used for work using the stylus pen 201 , and may be temporarily displayed on the application execution screen and then disappear.
  • the tool set may include tools usable in an application being executed using the stylus pen 201 .
  • at least one icon panel may include various pen functions related to the stylus pen 201 , for example, functions such as a translator and a smart select.
  • the processor 420 may map a function related to the stylus pen 201 corresponding to the air gesture, and may check and perform the mapped function.
  • the processor 420 may recognize both hands of the user based on the sensing data of the sensor 476 within the proximity area of the electronic device 101, for example, within a spatial range recognizing an air gesture.
  • a hand holding the stylus pen 201 and a hand not holding the stylus pen 201 may be recognized sequentially or simultaneously.
  • the hand not holding the stylus pen 201 may be recognized first, and then the hand holding the stylus pen 201 may be recognized.
  • the processor 420 may perform a sensing operation for detecting an air gesture in a direction opposite to the recognized hand.
  • the processor 420 performs the stylus pen 201 when the stylus pen 201 is removed from the storage space of the electronic device 101 or when hovering is detected by the stylus pen 201 . ) button is pressed, the sensing function for air gesture recognition can be activated. Accordingly, according to an embodiment, the processor 420 may, for example, when the stylus pen 201 is removed from the receiving space of the electronic device 101 , based on the sensing data of the sensor 476 , the hand to be used as the input interface among both hands. can be identified.
  • the process 420 may recognize an air gesture when the hovering is detected by the stylus pen 201 , but even when not in a hovering state, for example, the user activates the air gesture mode displayed on the screen. If the stylus pen 201 is prepared in a state where an icon for , that is, when the stylus pen 201 is being prepared on the screen to use the stylus pen 201 even if there is no hovering, the air gesture may be recognized. In addition, even when a predetermined touch input for activating the air gesture mode is input by the user, the operation of the air gesture may be recognized when the stylus pen 201 is prepared.
  • the process 420 identifies a direction corresponding to the recognized hand and detects the air gesture only in the identified direction to prevent the input interface from being changed during the execution of the application. For example, recognition of an air gesture by a hand holding the stylus pen 201 may be prevented.
  • the memory 430 may store information related to the operation of the stylus pen 201 .
  • the memory 430 may store a program (or an application, an algorithm, or a processing loop) for performing an operation corresponding to the air gesture.
  • the memory 430 may store an instruction for causing the electronic device 101 or the stylus pen 201 to perform a specific operation in response to the air gesture.
  • the electronic device 101 is operatively connected to a display device 460 including a sensing panel 461 , at least one sensor 476 , the display device, and the at least one sensor 476 .
  • a display device 460 including a sensing panel 461 , at least one sensor 476 , the display device, and the at least one sensor 476 .
  • a first function related to screen display is controlled in response to the first input signal, and when the first input signal is detected while the second input signal is detected, the first input signal
  • instructions configured to control a second function related to the stylus pen may be stored.
  • the first function related to the screen display may be a control function for a running application screen
  • the second function related to the stylus pen may be a function related to the stylus pen property.
  • the second input signal may not be detected but the first input signal may be detected.
  • the current screen is displayed in response to the air gesture. display can be adjusted. For example, controls such as screen enlargement, reduction, upper scrolling, lower scrolling, and screen rotation may be performed in response to an air gesture, and functions that can be mapped in relation to screen control may not be limited thereto.
  • the second input signal may be detected when the user holds the stylus pen near the screen or in a hovering state, and while the second input signal is detected, the first input signal corresponding to the air gesture is simultaneously detected can be
  • a second function related to the stylus pen may be controlled in response to the air gesture.
  • the stylus pen property may be changed in response to an air gesture.
  • the instructions include, by the at least one processor 420, after the removal of the stylus pen from the electronic device is detected, at least one of the first input signal and the second input signal can be configured to identify whether it is detected.
  • the instructions when the at least one processor 420 detects the first input signal while the second input signal is detected, the instructions include the stylus pen in response to the first input signal.
  • Control to change the second function related to and may be configured to be removed after displaying information on the changed second function on the display device for a specified time. Also, for example, if the second input signal is detected again within a predetermined time after the second input signal is detected, an item related to the currently changed stylus pen property is displayed on the display device 460 for a specified time It may be configured to be removed after doing so.
  • the instructions when the at least one processor 420 detects removal of the stylus pen 201 from the electronic device 101 , the instructions include a plurality of executables related to the stylus pen 201 . may be configured to display applications of , and change a function of any one of the plurality of applications in response to the first input signal.
  • the at least one processor 420 detects a third input signal indicating that a button (eg, button 337 ) of the stylus pen 420 is pressed.
  • a button eg, button 337
  • the second function associated with the stylus pen may be changed in response to the first input signal.
  • the instructions include a state in which the button of the stylus pen is released after the at least one processor 420 detects a third input signal indicating that the button of the stylus pen is pressed It may be configured to change the second function related to the stylus pen in real time based on the first input signal until a fourth input signal indicating that the stylus is detected.
  • the instructions include, when the first input signal is detected by the at least one processor 420 after the removal of the stylus pen from the electronic device is detected, the display device 460 . It may be configured to display an icon indicating the air gesture activation state on the application execution screen displayed in the .
  • the instructions include, if the first input signal is not detected for a predetermined time after the at least one processor 420 displays an icon indicating the air gesture activation state, An icon indicating an inactive state may be configured to be displayed on an application execution screen displayed on the display device 460 .
  • the instructions may include a second input signal related to the stylus pen.
  • At least one function item is rearranged on the display device 460 of the electronic device 101 to correspond to the right-hand mode, and the first input signal is a region corresponding to a right direction of the electronic device 101 .
  • it may be configured to rearrange at least one item for the second function related to the stylus pen on the display device 460 of the electronic device 101 to correspond to the left hand mode.
  • the at least one sensor 476 may include an RF spectrum type sensor capable of detecting a first input signal corresponding to the air gesture in a proximity region of the electronic device 101, infrared (Infrared). ) sensor, an ultrasonic sensor, a motion sensor, a 3D sensor, and a vision sensor.
  • an RF spectrum type sensor capable of detecting a first input signal corresponding to the air gesture in a proximity region of the electronic device 101
  • infrared (Infrared). ) sensor an ultrasonic sensor
  • a motion sensor a motion sensor
  • 3D sensor a 3D sensor
  • vision sensor a vision sensor
  • FIG. 5 is an exemplary screen diagram 500a and 500b for explaining control of an application execution screen using an air gesture according to an embodiment.
  • the electronic device 101 determines which hand to use as the input interface corresponding to the air gesture. You can decide whether you are right-handed or left-handed. For example, as illustrated in 500A of FIG. 5 , when an air gesture is detected in the proximity area 515 in the first direction (eg, the left side of the electronic device 101 ), the hand to be used as the input interface is the left hand 510 . ) can be recognized.
  • the electronic device 101 may change the UI arrangement to correspond to the identified left or right hand in real time. For example, when recognizing that the hand to be used as the input interface corresponding to the air gesture is the left hand, the electronic device 101 may optimally arrange the UI on the right hand using the stylus pen 201 to enhance user convenience. On the contrary, the electronic device 101 may optimally arrange the UI on the left hand using the stylus pen 201 when the right hand is recognized.
  • the UI may include icons related to a stylus pen function. The electronic device 101 may set and store the arrangement of UI components related to the stylus pen function to match the left-hand or right-hand mode in advance.
  • the user draws a picture using the stylus pen 201 with the right hand.
  • the user draws a picture using the stylus pen 201 with the right hand.
  • the screen 530 may be enlarged and displayed in response to the out gesture. In this way, the user can control the application execution screen by simply taking a hand gesture without touching the screen to which the palm reject function is applied while the application is running.
  • FIG. 6 is an exemplary screen view ( 600a , 600b ) for explaining a change of a stylus pen property when hovering using an air gesture according to an exemplary embodiment.
  • the electronic device 101 may perform an operation different from a case in which an air gesture is recognized in a state without hovering when the air gesture is recognized in a state in which a signal indicating hovering is input.
  • an operation mapped to the detected air gesture may vary.
  • the signal indicating the hovering 640 is being input means that the user is preparing on the screen to use the stylus pen 201
  • the electronic device 101 uses the stylus pen ( 201) may provide at least one tool UI or change pen properties.
  • the user based on sensing data detected in the proximity area 620 in the first direction (eg, the left side of the electronic device 101 ), the user recognizes that the left hand 610 is the hand to be used as the input interface for the air gesture.
  • the user draws a picture using the stylus pen 201 with his right hand, while the hovering 640 is maintained on the screen 625 , the electronic device 101 )
  • the stylus pen 201 property in response to the pinch out gesture This can be changed.
  • the case of recognizing the air gesture while the hovering 640 is maintained has been described as an example, but even when the hovering state is not, for example, the user is ready to use the stylus pen 201 or When there is a touch input using the stylus pen 201 , that is, when preparing on the screen to use the stylus pen 201 even if there is no hovering, the air gesture may be recognized.
  • the application execution screen may be controlled in response to the operation of the air gesture.
  • the operation of the air gesture is recognized in real time in a state where the input by the stylus pen 201 is sensed according to the hovering input or the touch input by the stylus pen 201, properties or functions related to the stylus pen 201 are It can be changed immediately.
  • properties such as thickness and opacity of the stylus pen 201 may be changed in response to a pinch-out gesture.
  • the tool UI 630 related to the stylus pen property may be temporarily displayed on at least a part of the application execution screen 635 so that the user can know at a glance what the changed stylus pen property is, and then disappear.
  • the tool UI 630 indicating the stylus pen property that is gradually changed in response to the degree to which the thumb and index finger are apart may be displayed on the application execution screen 635 .
  • the pinch-out gesture of opening or closing two fingers may correspond to an operation of adjusting the pen thickness and opacity value.
  • the operations of the air gesture may be implemented to correspond to adjusting or changing properties related to the stylus pen.
  • the user executes the electronic device 101 using the stylus pen 201 simply by making a hand gesture in an area close to the electronic device 101 without touching the related items individually in order to change the properties related to the stylus pen.
  • the screen may be controlled or properties related to the stylus pen 201 may be changed.
  • FIG. 7 is a flowchart 700 of an operation of an electronic device for processing an air gesture associated with a stylus pen according to an exemplary embodiment.
  • the operation method may include operations 705 to 720 .
  • Each step/operation of the operating method of FIG. 7 includes an electronic device (eg, the electronic device 101 of FIG. 1 ), at least one processor of the electronic device (eg, the processor 120 of FIG. 1 , and the processor
  • the application related to the stylus pen 201 is running means that the stylus pen 201 is removed from the electronic device 101 , and various functions related to the stylus pen 201 according to an air gesture in the removed state It may mean that it is a state in which it can be controlled.
  • the electronic device 101 may identify an air gesture initiation event.
  • the stylus pen 201 may be removed from the storage space of the electronic device 101 , and an air gesture initiation event may be confirmed when the stylus pen 201 is removed. That is, an operation for detecting the air gesture may be performed upon removal.
  • the electronic device 101 may identify an air gesture initiation event based on information included in the communication signal from the stylus pen 201 .
  • the air gesture initiation event may be, for example, detection of a pressed state of a button (eg, button 337 ) included in the stylus pen 201 .
  • the button may be implemented in any one of a physical key, a touch key, a motion key, a pressure key, and a key less method, and there is no limitation in the implementation form.
  • the stylus pen 201 may transmit a communication signal including information indicating the pressed state of the button to the electronic device 101 .
  • the electronic device 101 may identify whether a first input signal corresponding to the air gesture is detected in the proximity region of the electronic device 101 . If the first input signal corresponding to the air gesture is detected in the proximity area of the electronic device 101, the first input signal may be identified. For example, the shape of the air gesture corresponding to the first input signal may be identified, and the electronic device 101 determines that the air gesture is a gesture using the opposite hand holding the stylus pen 201, a gesture using one finger of the opposite hand, It is possible to recognize any one of a plurality of air gestures, such as a gesture using two fingers of the opposite hand, a gesture using multiple fingers, a clenched hand gesture, and a palm open gesture.
  • the input by the stylus pen 201 may include a hovering input.
  • the electronic device 101 performs the second input signal. 2
  • the application execution screen may be controlled in response to the detection of the first input signal.
  • the electronic device 101 may adjust the application execution screen according to the air gesture corresponding to the first input signal. For example, according to the rotation gesture, the application execution screen may be rotated in a direction corresponding to the rotation gesture.
  • the electronic device 101 may change the stylus pen property in response to the first input signal in a state in which the second input signal corresponding to the hovering input is detected.
  • the electronic device 101 may determine whether there is a hovering input and may control a corresponding function according to the determination result.
  • a screen control operation based on an air gesture may be performed when hovering or when a touch input is performed.
  • the operation mapped to the air gesture is different when compared to the air gesture detected in a state without hovering.
  • a signal indicating hovering is being input means that the user is preparing on the screen to use the stylus pen 201
  • the electronic device 101 communicates with the stylus pen 201 based on the air gesture.
  • At least one related tool e.g. pen thickness, opacity, brush, consisting of an icon that allows you to change color and/or color
  • a UI or pen properties e.g. pen weight, opacity, brush, color and/or color
  • a method for controlling a function related to a stylus pen by an air gesture in an electronic device eg, the electronic device 101 of FIG. 1
  • at least one sensor is used in the proximity area of the electronic device. identifying whether at least one of a first input signal corresponding to an air gesture and a second input signal corresponding to an input by a stylus pen is detected;
  • An operation of controlling a first function related to a screen display in response to detection, and an operation of controlling a second function related to the stylus pen in response to detection of the first input signal in a state in which the second input signal is detected may include.
  • the identifying whether at least one of the first input signal and the second input signal is detected may include, after the removal of the stylus pen from the electronic device is detected, the first input signal and and identifying whether at least one of the second input signals is detected.
  • the operation of controlling a second function related to the stylus pen in response to detection of the first input signal in a state in which the second input signal is detected may include: It may include an operation of controlling to change the second function related to the stylus pen in response to a first input signal, and an operation of displaying information on the changed second function for a specified time and then removing the information.
  • the method includes an operation of displaying a plurality of executable applications related to the stylus pen when the removal of the stylus pen from the electronic device is detected, and an operation of displaying a plurality of executable applications related to the stylus pen and receiving the first input signal from among the plurality of applications.
  • the operation of changing the function of any one application may be further included.
  • the stylus pen when the first input signal is detected while a third input signal indicating that the button of the stylus pen is pressed, the stylus pen corresponds to the first input signal.
  • the method may further include an operation of changing the related second function.
  • the method after a third input signal indicating that the button of the stylus pen is in a pressed state is detected, until a fourth input signal indicating that the button of the stylus pen is in a released state is detected
  • the method may further include changing a second function related to the stylus pen in real time based on the first input signal.
  • the method displays an icon indicating the activation state of the air gesture on the application execution screen
  • the method may further include displaying an icon indicating an inactive state of the air gesture when the first input signal is not detected for a predetermined time after displaying an icon indicating the air gesture activation state and the air gesture activation state.
  • the method when the first input signal is detected in a region corresponding to the left direction of the electronic device, the method sets at least one item for the second function related to the stylus pen to correspond to the right hand mode.
  • the rearranged display operation and the first input signal are detected in the region corresponding to the right direction of the electronic device, at least one item for the second function related to the stylus pen is rearranged to correspond to the left hand mode.
  • An operation of displaying may be further included.
  • FIG. 8 is a table 800 illustrating types of air gestures according to an embodiment.
  • a table 800 exemplifying the types of air gestures is a shape 810 of an air gesture, a description 820 of an air gesture, an operation 830 by an air gesture, and air when hovering.
  • An operation 840 by a gesture and a UI 850 for a stylus pen-related item may be included.
  • the pinch-in/out gesture represents a motion of gathering the thumb and index finger together and then spreading them apart or again.
  • the canvas can be enlarged/reduced, that is, the application execution screen can be enlarged/reduced.
  • the stylus pen property may be changed in response to the pinch-in/out gesture. For example, values such as pen thickness and pen transparency may be adjusted as stylus pen properties, and the UI 851 in which pen thickness and pen transparency are adjusted so that the user can identify a change state is at least part of the application execution screen. can be displayed in
  • the rotation gesture represents an operation of turning the thumb and index finger to the left or right, and in the absence of hovering, the canvas may be rotated, that is, the application execution screen may be rotated.
  • the type of brush may be changed as a stylus pen property in response to a rotation gesture in a state of hovering.
  • the brushes may be sequentially changed within the UI 852 in which the types of brushes are listed in correspondence to the rotation direction and the degree of rotation so that the user can identify the types of brushes to be changed.
  • the brush may be sequentially changed in the right direction, and when the rotation gesture is stopped, the type of the brush corresponding to the selected brush may be determined.
  • the up-down gesture refers to a motion of moving the index finger up and down or left and right, and in a state in which hovering is not performed, scrolling up and down or moving left and right on the application execution screen.
  • color or saturation may be adjusted using the stylus pen property.
  • the color or saturation value may be adjusted in response to the degree of the up-down gesture or the degree of the left-to-right gesture, and a UI 853 in which the color or saturation value is adjusted correspondingly may be displayed.
  • the double-tap gesture indicates a user's double tapping with one finger, and in a state where there is no hovering, the canvas may be enlarged/reduced at a fixed ratio, for example, on the application execution screen.
  • a call/end of a color picker may be executed.
  • a color picker may be called in response to a double tap gesture in a state of hovering, or a color may be changed to a color designated by a user as a stylus pen property.
  • a UI 854 in which a color changed in response to a double tap gesture is selected may be displayed.
  • the palm swipe gesture represents an action of the user rubbing the palm left and right, and may undo/redo contents executed on the application execution screen. For example, when the user rubs the palm to the left, undo may be performed, and when the user rubs the palm to the right, redo may be performed. For example, a UI 855 indicating an operation executed in response to a palm swipe gesture may be displayed.
  • the clean gesture represents a user's fist clenching action, and may perform an entire erasing of content displayed on the application execution screen. For example, when the user makes a clean gesture while the application execution screen is being displayed, a UI 856 informing that all drawings are deleted may be displayed.
  • the UI 850 for the stylus pen-related item may be implemented to disappear after being displayed on at least a part of the application execution screen for a certain period of time so as not to cover the application execution screen as much as possible.
  • the UI 850 for the stylus pen related item may be displayed near the hovered position while the stylus pen 201 is hovered.
  • the UI 851 may be temporarily displayed on the top of the application execution screen during hovering, and then may be hidden.
  • various air gestures may correspond to control of an application execution screen and change of stylus pen properties.
  • an operation of erasing part or all of the contents on the application execution screen may be performed using an eraser gesture indicating an operation of rubbing a plane with a finger.
  • actions used in real life such as applying a picking up gesture as an action to select an object on the screen, can be applied as an air gesture as it is, and mapping actions related to the stylus pen in response to the air gesture are may not be limited.
  • FIG. 9A is a diagram illustrating an application execution screen before activating an air gesture mode according to an embodiment.
  • the panel 900 that is always exposed at the top of the application execution screen is displayed, and the panel 905 for changing the properties related to the stylus pen 201 is displayed.
  • the application is an application capable of drawing letters or pictures using the stylus pen 201 , and may be referred to as a note application, a memo application, or a painting application.
  • Tool panels 900 and 905 capable of changing properties such as pen thickness and color are provided in these applications, and these tool panels 900 and 905 can always cover a part of the application execution screen or whenever properties are changed. .
  • the panel when the air gesture mode is activated, the panel may be adjusted to a minimized size as shown in FIGS. 9B to 9D .
  • 9B to 9D illustrate a process in which the size of the panel is sequentially changed when the air gesture mode is activated.
  • 9B is an exemplary screen view for explaining a change in a tool panel when an air gesture mode is activated, according to an embodiment.
  • the air gesture mode when the air gesture 910 is detected in the proximity area of the electronic device 101, the air gesture mode may be activated, and when the air gesture mode is activated, an interactive visual effect so as not to interfere with the user's work can provide
  • at least one tool panel related to the properties of the stylus pen 201 eg, consisting of icons that can change the pen thickness, transparency, brush, color and/or color
  • 915 is directed in the first direction 920 .
  • FIG. 9C is an exemplary screen view for explaining a change in a tool panel upon completion of activation of an air gesture mode, according to an embodiment.
  • the display of the tool panel 925 may be temporarily stopped before disappearing in the first direction 930 , so that the user can recognize the currently selected pen properties related to the stylus pen 2010 . .
  • 9D is an exemplary screen view for explaining a hidden state of a tool panel upon completion of activation of an air gesture mode according to an embodiment.
  • 9D illustrates a case in which the tool panel 925 of FIG. 9C is in a hidden state.
  • the display of the tool panel may be sequentially changed to a minimized size.
  • the activation of the air gesture mode is completed, that is, when the function related to the stylus pen using the air gesture becomes controllable, hovering by the stylus pen 201 on the screen It is possible to change the color, brightness, transparency, shape, saturation, and color effect (eg, gradation effect, blinking effect) of the graphic object (eg, pointer, indicator) 945 representing .
  • the air gesture mode may indicate that the air gesture mode is activated by changing the color of the graphic object to another color or by changing the shape of the graphic object, for example, the shape of a pointer.
  • a status icon 940 indicating whether the air gesture is activated or not may be provided on the screen so that the user can intuitively know that the air gesture mode is activated.
  • the user when activating the air gesture mode, the user can easily recognize the activation state of the air gesture mode by differently outputting a graphic object on the screen according to the entry and completion of the entry into the air gesture mode.
  • FIG. 10A is an exemplary view of a screen providing status information upon entering an air gesture mode according to an embodiment.
  • FIG. 10A when an air gesture is detected by the user's hand 1010 in the proximity region of the electronic device 101, a case in which an entry state into the air gesture mode is indicated is exemplified. Similar to FIG. 9D , in FIG. 10A , a pointer 1015 by the stylus pen 201 and an icon 1005 indicating whether an air gesture is activated or not may be provided on the application execution screen.
  • FIG. 10B is an exemplary view of a screen providing status information according to an air gesture input according to an embodiment.
  • the air gesture 1010 by the user's hand is detected in a state in which the air gesture mode is activated, the air gesture is checked and a property related to the stylus pen 201 corresponding to the confirmed air gesture is changed.
  • a case in which the UI 1025 is displayed is exemplified.
  • the color of the icon 1005 indicating whether the air gesture is activated may be changed.
  • the color of the icon 1005 indicating whether the air gesture is activated may be displayed by being converted into a predetermined color, for example, another color while the air gesture is input.
  • a predetermined color for example, another color while the air gesture is input.
  • the UI 1025 in which any one of the brush types is sequentially selected and displayed in response to the rotation gesture may be temporarily displayed and then disappear.
  • 10C is an exemplary view of a screen providing state information according to an air gesture not detected, according to an embodiment.
  • 10C exemplifies a screen when the air gesture mode is activated but a hand is not detected in the proximity area.
  • the air gesture mode may be automatically terminated, and accordingly
  • the color of the icon 1030 indicating whether the air gesture is activated may be changed to a color indicating the inactive state, for example, light gray and displayed.
  • the display state of the icon (or indicators) indicating whether the air gesture is activated on the application execution screen is displayed according to whether a hand performing the air gesture is detected in the proximity area of the electronic device 101. may vary.
  • 11A is an exemplary screen view for explaining an operation of changing pen properties based on an air gesture according to an embodiment.
  • the air gesture mode is indicated by the icon 1105 indicating whether the air gesture is activated or not
  • the user can take the desired air gesture using one hand 1110, and the In response to the gesture, the icon panel 1100 including changeable pen properties in an overlay form may be displayed at the pointer position of the stylus pen 201 .
  • the degree of the air gesture for example, the rotation direction and the rotation degree of the rotation gesture
  • real-time movement 1100 between brush types may be possible.
  • Such UI 1100 may disappear after, for example, N seconds when a brush type is selected in response to the air gesture.
  • FIG. 11B is an exemplary view of a screen providing an icon panel according to a change in pen properties, according to an embodiment.
  • the icon panel 1115 indicating the selected brush may be popped up for a predetermined period of time (eg, N seconds).
  • the color of the icon 1120 indicating whether the air gesture is activated or not may be changed on the screen.
  • the selected brush information such as the brush type and the current color may be temporarily displayed and then disappeared as shown in FIG. 11C .
  • FIG. 11C is an exemplary screen view illustrating a hidden state of an icon panel according to a change in pen properties according to an exemplary embodiment.
  • the electronic device 101 may display the icon panel 1125 in a hidden state on one side of the screen and maintain the color of the icon 1120 indicating whether the air gesture is activated.
  • an icon panel that is temporarily displayed when an air gesture is input, the currently set pen properties are notified to the user and the user can continue drawing without interruption.
  • an icon panel temporarily displayed according to a hovering state may be provided.
  • 12 is an exemplary screen view for explaining a display operation of an icon panel according to hovering, according to an embodiment.
  • 12 exemplifies a case in which the display of the icon panel is changed according to a case in which hovering is input again when there is no hovering for N seconds during hovering.
  • the electronic device 101 may temporarily display the icon panel so that the user can know what the properties of the stylus pen 201 are until just before the stylus pen 201 is removed.
  • the electronic device 101 may display the icon panel 1205 in a hidden state while hovering, and when hovering is released and there is no hovering for N seconds, at least a portion of the screen, for example.
  • the icon panel 1210 indicating the current pen properties is displayed on the upper left of the screen and then hovering again, the icon panel 1215 may be displayed in a hidden state.
  • the user can know which pen is currently being used.
  • 13A is an exemplary view of a screen for a right-hand mode according to an embodiment.
  • the stylus pen 201 when an air gesture 1310a by the user's left hand is detected in an area corresponding to the left direction of the electronic device 101, the stylus pen 201 is used to select an item related to the stylus pen property. It can be displayed by rearranging it to correspond to the right-handed mode. For example, the positions of some tools 1305 and 1315 on the icon panel may be rearranged to correspond to the right-hand mode, and the order of options may be flipped left/right. Accordingly, when the air gesture is detected by the left hand, an icon panel in which the most frequently used tool 1325 is disposed on the left may be displayed as in the first screen 1320 . Also, as in the second screen 1330 , the icon panel 1335 in a hidden state may also be disposed to be positioned on the left side.
  • FIG. 13B is an exemplary view of a screen for a left hand mode according to an embodiment.
  • the item related to the stylus pen property is set using the stylus pen 201 . It can be displayed by rearranging it to correspond to the left-handed mode.
  • the icon panel 1340 may be hidden in the right direction
  • the position of the icon panel 1355 may be rearranged to correspond to the left-hand mode as in the first screen 1350
  • the second screen 1360 may be hidden.
  • the icon panel 1365 in a hidden state may also be arranged to be located on the right side.
  • the screen switching for the right-hand or left-hand mode is for facilitating the user's manipulation, and when there is no hovering, it may be easy to directly manipulate the screen interface with the right hand.
  • the electronic device 101 may rearrange and display the items related to the stylus pen 201 property to correspond to the right hand mode. Conversely, when the air gesture is detected in the region corresponding to the right direction of the electronic device, the electronic device 101 may rearrange and display items related to the properties of the stylus pen 201 to correspond to the left hand mode.
  • FIG. 14 is an exemplary screen view for explaining an operation using an air gesture when the stylus pen is removed according to an embodiment.
  • the stylus pen 201 may be detached 1405 from the storage space of the electronic device 101 .
  • the user may take out the stylus pen 201 from the storage space of the electronic device 101 .
  • the electronic device 101 may detect removal of the stylus pen 201 .
  • the electronic device 101 may detect the detachment of the stylus pen 201 based on the non-reception of a signal from the stylus pen 201 , but there is no limitation on a detachment detection method.
  • the stylus pen 201 may also detect the removal of the stylus pen 201 .
  • the stylus pen 201 may detect the detachment of the stylus pen 201 based on the non-reception of a signal from the electronic device 101 , but there is no limitation on a detachment detection method.
  • a plurality of applications executable in relation to the stylus pen 201 may be displayed on the screen 1420 as shown in 1400b of FIG. 14 .
  • icons corresponding to frequently used applications in relation to the stylus pen 201 may be displayed on the screen.
  • various functions such as writing a new note, viewing all notes, smart select, writing after capture, a live message, and a translator may correspond to a plurality of applications executable in relation to the stylus pen 201 .
  • the user may use an air gesture instead of the stylus pen 201 to select and store or share a desired area. For example, if there is content you want to capture, you can select the area by selecting the smart select function, selecting the shape of the area to be captured using the air gesture, and then dragging.
  • the electronic device 101 when the electronic device 101 recognizes the air gesture 1410 by the user who selects the smart select function among a plurality of applications, the electronic device 101 displays that the smart select function 1425 is selected. can Then, after executing the smart select function in response to the selection of the smart select function 1425, for example, an area may be selected in response to an air gesture indicating an operation of dragging the area to be captured, and the air gesture is different from the air gesture. When another air gesture is additionally input, an operation mapped to the additionally input air gesture may be performed for the selected area. An operation mapped to each of these air gestures may vary depending on a case in which the stylus pen 201 is in a hovering state and a case in which the stylus pen 201 is not in a hovering state.
  • the air gesture when an air gesture is input in a hovering state, the air gesture may be identified and an area may be selected based on the identified air gesture. That is, the shape of the selected area may vary depending on the shape of the air gesture. For example, when an air gesture is input in the absence of hovering, any one of the sub-functions of the smart select function mapped to the input air gesture, such as sharing a selected area or saving in a gallery, is performed. can
  • 15 is an exemplary screen view for explaining an operation of a translator using an air gesture according to an embodiment.
  • the electronic device 101 checks the air gesture and performs an operation mapped to the translator function in response to the air gesture. have. For example, it is possible to change the language 1515 of the translator or select a part to be translated ( 1520 ) using the air gesture 1510 , and then control the translation to be executed. For example, when an air gesture is received while the stylus pen 201 is brought close to a word requiring translation, the electronic device 101 may display the translation result.
  • the translator function may be executed using an air gesture while the stylus pen 201 is removed from the electronic device 101, and the translator function is executed.
  • the language to be used in a window displayed at the top of the screen may be automatically changed in response to the other air gesture.
  • the translation text selection unit may be changed to a word or a sentence, and this change may also be set by an air gesture.
  • various functions related to the stylus pen 201 that can be mapped to the air gesture of the electronic device 101 may not be limited thereto. That is, the above-described operation according to the air gesture is merely exemplary, and operations related to the stylus pen that can be mapped to the air gesture are not limited thereto.
  • Electronic devices may be devices of various types.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a camera
  • a wearable device e.g., a smart bracelet
  • first”, “second”, or “first” or “second” may simply be used to distinguish the component from other components in question, and may refer to components in other aspects (e.g., importance or order) is not limited. It is said that one (eg, first) component is “coupled” or “connected” to another (eg, second) component, with or without the terms “functionally” or “communicatively”. When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
  • module may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic block, component, or circuit.
  • a module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document include one or more instructions stored in a storage medium (eg, internal memory 136 or external memory 138) readable by a machine (eg, electronic device 101).
  • a machine eg, electronic device 101
  • the processor eg, the processor 120
  • the device eg, the electronic device 101
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain a signal (eg, electromagnetic wave), and this term is used in cases where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
  • a signal eg, electromagnetic wave
  • the method according to various embodiments disclosed in this document may be provided by being included in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play Store TM ) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly, online between smartphones (eg: smartphones).
  • a part of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • each component eg, a module or a program of the above-described components may include a singular or a plurality of entities.
  • one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, omitted, or , or one or more other operations may be added.
  • a storage medium storing instructions, wherein the instructions are configured to cause the at least one processor to perform at least one operation when executed by the at least one processor, wherein the at least one operation is the at least one operation is an operation of identifying whether at least one of a first input signal corresponding to an air gesture and a second input signal corresponding to an input by a stylus pen is detected in a proximity region of the electronic device by at least one sensor;

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자 장치는, 센싱 패널을 포함하는 표시 장치, 적어도 하나의 센서, 상기 표시 장치 및 상기 적어도 하나의 센서와 작동적으로 연결된 적어도 하나의 프로세서 및 상기 적어도 하나의 프로세서와 작동적으로 연결된 메모리를 포함하며, 상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가, 상기 적어도 하나의 센서에 의해 상기 전자 장치의 근접 영역에서 에어 제스처에 대응하는 제1 입력 신호가 검출되고, 상기 센싱 패널을 통해 상기 스타일러스 펜에 의한 입력에 대응하는 제2 입력 신호가 검출되지 않으면, 상기 제1 입력 신호에 대응하여 화면 표시와 관련된 제1 기능을 제어하고, 상기 제2 입력 신호가 검출된 상태에서 상기 제1 입력 신호가 검출되면, 상기 제1 입력 신호에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 제어하도록 구성된 인스트럭션들을 저장할 수 있다. 다른 실시 예가 가능하다.

Description

에어 제스처에 의한 스타일러스 펜과 연관된 기능을 제어하기 위한 전자 장치, 그 동작 방법
다양한 실시 예는 에어 제스처에 의한 스타일러스 펜과 연관된 기능을 제어하기 위한 전자 장치, 그 동작 방법에 관한 것이다.
전자 장치는, 전자 장치와 무선 통신을 통하여 연결된 특정한(specified) 입력 장치(예: 스타일러스 펜)를 통하여 사용자로부터 다양한 입력을 받을 수 있도록 개발되고 있다. 전자 장치는, 펜 기능을 가지는 입력 장치(이하, 설명의 편의를 위하여 "스타일러스 펜"이라는 용어로 언급될 수 있다)에 의하여 지정된 전자 장치 상의 위치를 확인할 수 있으며, 이에 대응하는 기능을 수행할 수 있다.
전자 장치는, 전자기 유도(Electro magnetic resonance, 이하 EMR이라 함)방식을 이용하여 스타일러스 펜으로부터 발생하는 자기장을 검출할 수 있다. 전자 장치는, 채널 별로 자기장에 의하여 발생되는 유도 기전력에 기반하여 스타일러스 펜의 위치를 확인할 수 있다.
스타일러스 펜은, 전자 장치와 근거리 통신(예: 블루투스 저 에너지(BLE))을 통하여 연결될 수 있다. 스타일러스 펜은, 예를 들어 스타일러스 펜의 하우징 상에 배치되는 버튼의 눌림 상태에 대한 정보를 근거리 통신을 통하여 전자 장치로 송신할 수 있으며, 전자 장치는 수신한 정보에 기반하여 지정된 동작을 수행할 수 있다.
스타일러스 펜을 이용함으로써 사용자는 전자 장치의 화면 위에서 노트에 필기하는 것과 같이 손글씨를 입력하거나 그림을 그릴 수 있다. 또한, 노트 어플리케이션을 통해 사용자는 그림을 그릴 수 있을 뿐만 아니라 펜의 굵기, 브러쉬, 색과 같은 펜 드로잉 옵션들을 다양하게 변경하여 드로잉 표시를 출력할 수 있다. 이와 같이 사용자는 스타일러스 펜을 이용하여 편리하고 직관적으로 전자 장치에 입력을 제공할 수 있다.
하지만, 스타일러스 펜에 기반한 다양한 기능을 지원하는 어플리케이션의 경우 상기 다양한 기능을 사용자가 일일이 선택 및 설정해야 하므로, 효과적인 제어가 어려울 수 있다. 예를 들어, 노트 어플리케이션이 실행된 상태에서 사용자가 펜 드로잉 옵션들을 설정하기 위해서는 팔레트(pallet)를 먼저 선택한 후 브러쉬를 선택하고 이어 굵기를 선택하는 순서와 같이 순차적 경로를 통해서만 하위 경로에 접근이 가능할 수 있다. 게다가 터치 오동작 방지를 위해 팜 리젝(palm reject) 기능이 적용되고 있기 때문에, 멀티 터치 인터랙션 적용이 어려울 수 있다.
아울러, 특정 동작의 반복을 위하여, 사용자는 스타일러스 펜을 이용한 조작을 반복하여야 할 수 있다. 예를 들어, 사용자가 펜 드로잉 옵션을 설정하고 세부 설정값을 조정하는 동작을 빈번하게 반복적으로 수행해야 하므로 사용자 입장에서는 번거로움을 유발할 수 있다. 따라서 스타일러스 펜에 기반한 다양한 기능을 끊김 없이 빠르고 쉽게 제어할 수 있는 방법이 요구될 수 있다.
일 실시 예에 따르면, 전자 장치는, 센싱 패널을 포함하는 표시 장치, 적어도 하나의 센서, 상기 표시 장치 및 상기 적어도 하나의 센서와 작동적으로 연결된 적어도 하나의 프로세서 및 상기 적어도 하나의 프로세서와 작동적으로 연결된 메모리를 포함하며, 상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가, 상기 적어도 하나의 센서에 의해 상기 전자 장치의 근접 영역에서 에어 제스처에 대응하는 제1 입력 신호가 검출되고, 상기 센싱 패널을 통해 상기 스타일러스 펜에 의한 입력에 대응하는 제2 입력 신호가 검출되지 않으면, 상기 제1 입력 신호에 대응하여 화면 표시와 관련된 제1 기능을 제어하고, 상기 제2 입력 신호가 검출된 상태에서 상기 제1 입력 신호가 검출되면, 상기 제1 입력 신호에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 제어하도록 구성된 인스트럭션들을 저장할 수 있다.
일 실시 예에 따르면, 전자 장치에서 에어 제스처에 의한 스타일러스 펜과 연관된 기능을 제어하기 위한 방법은, 적어도 하나의 센서에 의해 상기 전자 장치의 근접 영역에서 에어 제스처에 대응하는 제1 입력 신호 및 스타일러스 펜에 의한 입력에 대응하는 제2 입력 신호 중 적어도 하나가 검출되는지를 식별하는 동작, 상기 제2 입력 신호가 검출되지 않는 상태에서 상기 제1 입력 신호의 검출에 대응하여, 화면 표시와 관련된 제1 기능을 제어하는 동작, 및 상기 제2 입력 신호가 검출되는 상태에서 상기 제1 입력 신호의 검출에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 제어하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 스타일러스 펜에 기반한 다양한 기능을 지원하는 어플리케이션이 실행된 상태에서 에어 제스처를 통해 스타일러스 펜과 연관된 기능을 편리하고 직관적으로 이용할 수 있다.
일 실시 예에 따르면, 스타일러스 펜을 쥔 반대쪽 손의 에어 제스처를 통해 스타일러스 펜과 연관된 기능을 손쉽게 제어할 수 있어 양손 조작을 통한 작업 효율성이 증대될 수 있다.
일 실시 예에 따르면, 스타일러스 펜을 이용한 드로잉 시에는 실행 화면이 아닌 전자 장치)의 근접 영역에서 에어 제스처를 이용함으로써 스타일러스 펜을 쥔 손의 끊김 없는 드로잉이 가능할 뿐만 아니라 드로잉 집중도도 향상될 수 있다.
일 실시 예에 따르면, 고정된 팝업창 예컨대, 고정된 팔레트 패널이 아닌 에어 제스처에 대응하여 어플리케이션 실행 화면의 제어 또는 스타일러스 펜과 관련된 속성 변경이 가능하기 때문에 사용자 입장에서는 즉각적인 피드백을 얻을 수 있을 뿐만 아니라 실행 화면의 적어도 일부를 가리지 않아 공간 활용에 있어 효율적일 수 있다.
도 1은 다양한 실시 예에 따른 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2는 일 실시 예에 따른 스타일러스 펜을 포함하는 전자 장치의 사시도이다.
도 3a는 일 실시 예에 따른 스타일러스 펜을 도시하는 블록도이다.
도 3b는 일 실시 예에 따른 스타일러스 펜의 분리 사시도이다.
도 4는 일 실시 예에 따른 스타일러스 펜과 연관된 에어 제스처를 처리하기 위한 전자 장치의 내부 블록 구성도이다.
도 5는 일 실시 예에 따른 에어 제스처를 이용한 어플리케이션 실행 화면의 제어를 설명하기 위한 화면 예시도이다.
도 6은 일 실시 예에 따른 에어 제스처를 이용한 호버링 시의 스타일러스 펜 속성 변경을 설명하기 위한 화면 예시도이다.
도 7은 일 실시 예에 따른 스타일러스 펜과 연관된 에어 제스처를 처리하기 위한 전자 장치의 동작 흐름도이다.
도 8은 일 실시 예에 따른 에어 제스처의 종류를 예시한 테이블이다.
도 9a는 일 실시 예에 따른 에어 제스처 모드 활성화 전 어플리케이션 실행 화면 예시도이다.
도 9b는 일 실시 예에 따른 에어 제스처 모드 활성화 시 툴 패널의 변화를 설명하기 위한 화면 예시도이다.
도 9c는 일 실시 예에 따른 에어 제스처 모드의 활성화 완료 시 툴 패널의 변화를 설명하기 위한 화면 예시도이다.
도 9d는 일 실시 예에 따른 에어 제스처 모드 활성화 완료 시 툴 패널의 숨김 상태를 설명하기 위한 화면 예시도이다.
도 10a는 일 실시 예에 따른 에어 제스처 모드 진입에 따른 상태 정보를 제공하는 화면 예시도이다.
도 10b는 일 실시 예에 따른 에어 제스처 입력에 따른 상태 정보를 제공하는 화면 예시도이다.
도 10c는 일 실시 예예 따른 에어 제스처 미검출에 따른 상태 정보를 제공하는 화면 예시도이다.
도 11a는 일 실시 예에 따른 에어 제스처에 기반한 펜 속성 변경 동작을 설명하기 위한 화면 예시도이다.
도 11b는 일 실시 예에 따른 펜 속성 변경에 따른 아이콘 패널을 제공하는 화면 예시도이다.
도 11c는 일 실시 예에 따른 펜 속성 변경에 따른 아이콘 패널의 숨김 상태를 나타내는 화면 예시도이다.
도 12는 일 실시 예에 따른 호버링에 따른 아이콘 패널의 표시 동작을 설명하기 위한 화면 예시도이다.
도 13a는 일 실시 예에 따른 오른손 모드용 화면 예시도이다.
도 13b는 일 실시 에에 따른 왼손 모드용 화면 예시도이다.
도 14는 일 실시 예에 따른 스타일러스 펜 탈거 시 에어 제스처를 이용한 동작을 설명하기 위한 화면 예시도이다.
도 15는 일 실시 예에 따른 에어 제스처를 이용한 번역기 동작을 설명하기 위한 화면 예시도이다.
본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명의 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전에 정의된 용어들은 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미를 가지는 것으로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 발명의 실시 예들을 배제하도록 해석될 수 없다.
도 1은, 다양한 실시 예에 따른, 네트워크 환경(100a) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100a)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시 예에서는, 이 구성 요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시 예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)은 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성 요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성 요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)는, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)는, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시 예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시 예에 따르면, 연결 단자(178)은, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시 예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시 예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일 실시 예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시 예에 따르면, 안테나 모듈은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시 예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시 예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, or 108) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2는, 일 실시 예에 따른, 스타일러스 펜(201)(예: 도 1의 전자 장치(102))을 포함하는 전자 장치(101)의 사시도이다. 일 실시 예에 따르면, 스타일러스 펜(201)은 도 1의 전자 장치(102)가 아닌 도 1의 입력 장치(150)에 대응될 수도 있다.
도 2를 참조하면, 일 실시 예의 전자 장치(101)는, 도 1에 도시된 구성을 포함할 수 있으며, 스타일러스 펜(201)이 삽입될 수 있는 구조를 포함할 수 있다. 전자 장치(101)는 하우징(210)을 포함하며, 상기 하우징(210)의 일 부분, 예를 들면, 측면(210a)의 일 부분에는 홀(211)을 포함할 수 있다. 전자 장치(101)는, 상기 홀(211)과 연결된 수납 공간인 제1 내부 공간(212)을 포함할 수 있으며, 스타일러스 펜(201)은 제1 내부 공간(212) 내에 삽입될 수 있다. 도시된 실시예에 따르면, 스타일러스 펜(201)은, 스타일러스 펜(201)을 전자 장치(101)의 제1 내부 공간(212)으로부터 꺼내기 용이하도록, 일 단부에 눌림 가능한 제1 버튼(201a)을 포함할 수 있다. 상기 제1 버튼(201a)이 눌리면, 제1 버튼(201a)과 연계 구성된 반발 메커니즘(예를 들어, 적어도 하나의 탄성 부재(예: 스프링)에 의한 반발 메커니즘)이 작동하여, 제1 내부 공간(212)으로부터 스타일러스 펜(201)이 이탈될 수 있다.
도 3a는, 일 실시 예에 따른, 스타일러스 펜(예: 도 2의 스타일러스 펜(201))을 도시하는 블록도이다.
도 3a를 참조하면, 일 실시예에 따른 스타일러스 펜(201)은, 프로세서(220), 메모리(230), 공진 회로(287), 충전 회로(288), 배터리(289), 통신 회로(290), 안테나(297), 트리거 회로(298) 및/또는 센서(299)를 포함할 수 있다. 어떤 실시예들에서는, 상기 스타일러스 펜(201)의 프로세서(220), 공진 회로(287)의 적어도 일부 및/또는 통신 회로(290)의 적어도 일부는 인쇄회로기판 상에 또는 칩 형태로 구성될 수 있다. 상기 프로세서(220), 공진 회로(287) 및/또는 통신 회로(290)는 메모리(230), 충전 회로(288), 배터리(289), 안테나(297), 트리거 회로(298) 및/또는 센서(299)와 전기적으로 연결될 수 있다.
일 실시 예에 따른 프로세서(220)는, 커스터마이즈드(customized) 하드웨어 모듈 또는 소프트웨어(예를 들어, 어플리케이션 프로그램)를 실행하도록 구성된 제너릭(generic) 프로세서를 포함할 수 있다. 상기 프로세서(220)는, 스타일러스 펜(201)에 구비된 다양한 센서들, 데이터 측정 모듈, 입출력 인터페이스, 스타일러스 펜(201)의 상태 또는 환경을 관리하는 모듈 또는 통신 모듈 중 적어도 하나를 포함하는 하드웨어적인 구성 요소(기능) 또는 소프트웨어적인 요소(프로그램)를 포함할 수 있다. 상기 프로세서(220)는 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함할 수 있다. 일 실시 예에 따르면, 프로세서(220)는 버튼(예: 버튼(337))의 눌림 상태를 나타내는 정보, 센서(299)에 의하여 획득된 센싱 정보, 및/또는 센싱 정보에 기반하여 계산된 정보(예: 스타일러스 펜(201)의 위치와 연관된 정보)를, 통신 회로(290)를 통하여 전자 장치(101)로 송신하도록 설정될 수 있다.
일 실시 예에 따른 공진 회로(287)는, 전자 장치(101)의 디지타이저(예: 표시 장치(160))로부터 발생되는 전자기장 신호에 기반하여 공진될 수 있으며, 공진에 의하여 전자기 공명 방식(electro-magnetic resonance, EMR) 입력 신호(또는, 자기장 및)를 방사할 수 있다. 전자 장치(101)는, 전자기 공명 방식 입력 신호를 이용하여, 전자 장치(101) 상의 스타일러스 펜(201)의 위치를 확인할 수 있다. 예를 들어, 전자 장치(101)는, 디지타이저 내의 복수 개의 채널들(예: 복수 개의 루프 코일들) 각각에서, 전자기 공명 방식 입력 신호에 의하여 발생되는 유도 기전력(예: 출력 전류)의 크기에 기반하여, 스타일러스 펜(201)의 위치를 확인할 수 있다. 한편, 상술한 바에서는, 전자 장치(101) 및 스타일러스 펜(201)이 EMR 방식에 기반하여 동작하는 것과 같이 설명되었지만, 이는 단순히 예시적인 것으로, 전자 장치(101)는 ECR(electrically coupled resonance) 방식에 기반하여 전기장에 기반한 신호를 발생시킬 수도 있다. 스타일러스 펜(201)의 공진 회로는, 전기장에 의하여 공진될 수 있다. 전자 장치(101)는, 스타일러스 펜(201)에서의 공진에 의한 복수 개의 채널들(예: 전극들)에서의 전위를 확인할 수 있으며, 전위에 기반하여 스타일러스 펜(201)의 위치를 확인할 수도 있다. 스타일러스 펜(201)은, AES(active electrostatic) 방식으로 구현될 수도 있으며, 그 구현 종류에는 제한이 없음을 당업자는 이해할 것이다. 아울러, 전자 장치(101)는 터치 패널의 적어도 하나의 전극과 연관된 커패시턴스(셀프 커패시턴스 또는 뮤추얼 커패시턴스)의 변경에 기반하여 스타일러스 펜(201)을 검출할 수도 있다. 이 경우, 스타일러스 펜(201)에는 공진 회로가 포함되지 않을 수도 있다. 본 개시에서 "패널", 또는 "센싱 패널"은, 디지타이저 및 TSP(touch screen panel)를 포괄하는 용어로 이용될 수 있다.
일 실시 예에 따른 메모리(230)는, 스타일러스 펜(201)의 동작에 관련된 정보를 저장할 수 있다. 예를 들어, 상기 정보는 상기 전자 장치(101)와의 통신을 위한 정보 및 스타일러스 펜(201)의 입력 동작에 관련된 주파수 정보를 포함할 수 있다. 아울러, 메모리(230)는, 센서(299)의 센싱 데이터로부터 스타일러스 펜(201)의 위치에 대한 정보(예: 좌표 정보, 및/또는 변위 정보)를 계산하기 위한 프로그램(또는, 어플리케이션, 알고리즘, 또는 처리 루프)을 저장할 수도 있다. 메모리(230)는, 통신 회로(290)의 통신 스택을 저장할 수도 있다. 구현에 따라, 통신 회로(290) 및/또는 프로세서(220)는 전용 메모리를 포함할 수도 있다.
일 실시 예에 따른 공진 회로(287)는, 코일(coil)(또는, 인덕터(inductor)) 및/또는 캐패시터(capacitor)를 포함할 수 있다. 상기 공진 회로(287)는, 입력되는 전기장 및/또는 자기장(예: 전자 장치(101)의 디지타이저로부터 발생되는 전기장 및/또는 자기장)에 기반하여 공진할 수 있다. 스타일러스 펜(201)이 EMR 방식에 의하여 신호를 전송하는 경우, 스타일러스 펜(201)은 전자 장치(101)의 유도성 패널(inductive panel)로부터 발생되는 전자기장(electromagnetic field)에 기반하여, 공진 주파수를 포함하는 신호를 생성할 수 있다. 스타일러스 펜(201)이 AES 방식에 의하여 신호를 전송하는 경우, 스타일러스 펜(201)은 전자 장치(101)와 용량 결합(capacity coupling)을 이용하여 신호를 생성할 수 있다. 스타일러스 펜(201)이 ECR 방식에 의하여 신호를 전송하는 경우, 스타일러스 펜(201)은 전자 장치의 용량성(capacitive) 장치로부터 발생되는 전기장(electric field)에 기반하여, 공진 주파수를 포함하는 신호를 생성할 수 있다. 일 실시 예에 따르면, 상기 공진 회로(287)는 사용자의 조작 상태에 따라 전자기장의 세기 또는 주파수를 변경시키는데 이용될 수 있다. 예를 들어, 상기 공진 회로(287)는, 호버링 입력, 드로잉 입력, 버튼 입력 또는 이레이징 입력을 인식하기 위한 다양한 주파수를 제공할 수 있다. 예를 들어, 공진 회로(287)는, 복수 개의 커패시터의 연결 조합에 따라 다양한 공진 주파수를 제공할 수 있거나, 또는 가변 인덕터, 및/또는 가변 커패시터에 기반하여 다양한 공진 주파수를 제공할 수도 있다.
일 실시 예에 따른 충전 회로(288)는 스위칭 회로에 기반하여 공진 회로(287)와 연결된 경우, 공진 회로(287)에서 발생되는 공진 신호를 직류 신호로 정류하여 배터리(289)에 제공할 수 있다. 일 실시 예에 따르면, 스타일러스 펜(201)은 충전 회로(288)에서 감지되는 직류 신호의 전압 레벨을 이용하여, 상기 전자 장치(101)에 스타일러스 펜(201)이 삽입되었는지 여부를 확인할 수 있다. 또는, 스타일러스 펜(201)은 충전 회로(288)에서 확인되는 신호에 대응하는 패턴을 확인하여, 스타일러스 펜(201)이 삽입되었는지 여부를 확인할 수도 있다.
일 실시 예에 따른 배터리(289)는 스타일러스 펜(201)의 동작에 요구되는 전력을 저장하도록 구성될 수 있다. 상기 배터리(289)는, 예를 들어, 리튬-이온 배터리, 또는 캐패시터를 포함할 수 있으며, 충전식 또는 교환식일 수 있다. 일 실시 예에 따르면, 배터리(289)는 충전 회로(288)로부터 제공받은 전력(예를 들어, 직류 신호(직류 전력))을 이용하여 충전될 수 있다.
일 실시 예에 따른 통신 회로(290)는, 스타일러스 펜(201)과 전자 장치(101)의 통신 모듈(190) 간의 무선 통신 기능을 수행하도록 구성될 수 있다. 일 실시 예에 따르면, 통신 회로(290)는 근거리 통신 방식을 이용하여 스타일러스 펜(201)의 상태 정보, 입력 정보, 및/또는 위치와 연관된 정보를 전자 장치(101)로 전송할 수 있다. 예를 들어, 통신 회로(290)는 트리거 회로(298)를 통해 획득한 스타일러스 펜(201)의 방향 정보(예: 모션 센서 데이터), 마이크로 폰을 통해 입력된 음성 정보 또는 배터리(289)의 잔량 정보를 전자 장치(101)로 전송할 수 있다. 예를 들어, 통신 회로(290)는, 센서(299)로부터 획득된 센싱 데이터, 및/또는 센싱 데이터에 기반하여 확인된 스타일러스 펜(201)의 위치와 연관된 정보를 전자 장치(101)로 송신할 수 있다. 예를 들어, 통신 회로(290)는, 스타일러스 펜(201)에 구비된 버튼(예: 버튼(337))의 상태에 대한 정보를 전자 장치(101)로 송신할 수 있다. 일 예로, 근거리 통신 방식은 블루투스, BLE(bluetooth low energy), NFC, Wi-Fi direct 중 적어도 하나를 포함할 수 있으나, 그 종류에는 제한이 없다.
일 실시 예에 따른 안테나(297)는 신호 또는 전력을 외부(예를 들어, 상기 전자 장치(101))로 송신하거나 외부로부터 수신하는데 이용될 수 있다. 일 실시 예에 따르면, 스타일러스 펜(201)은, 복수의 안테나(297)들을 포함할 수 있고, 이들 중에, 통신 방식에 적합한 적어도 하나의 안테나(297)를 선택할 수 있다. 상기 선택된 적어도 하나의 안테나(297)를 통하여, 통신 회로(290)는 신호 또는 전력을 외부 전자 장치와 교환할 수 있다.
일 실시 예에 따른 트리거 회로(298)는 적어도 하나의 버튼 또는 센서 회로를 포함할 수 있다. 일 실시 예에 따르면, 프로세서(220)는 스타일러스 펜(201)의 버튼의 입력 방식(예를 들어, 터치 또는 눌림) 또는 종류(예를 들어, EMR 버튼 또는 BLE 버튼)를 확인할 수 있다. 일 실시 예에 따르면, 트리거 회로(298)는 버튼의 입력 신호 또는 센서(299)를 통한 신호를 이용하여 전자 장치(101)로 트리거 신호를 전송할 수 있다.
일 실시 예에 따른 센서(299)는, 가속도 센서(accelerometer), 자이로 센서(gyro sensor), 및/또는 지자계 센서(geomagnetic sensor)를 포함할 수 있다. 가속도 센서는, 스타일러스 펜(201)의 리니어한 움직임 및/또는 스타일러스 펜(201)의 3축에 대한 가속도에 대한 정보를 센싱할 수 있다. 자이로 센서는, 스타일러스 펜(201)의 회전과 관련된 정보를 센싱할 수 있다. 지자계 센서는, 스타일러스 펜(201)의 절대 좌표계 내에서의 향하는 방향에 대한 정보를 센싱할 수 있다. 일 실시 예에 따르면, 센서(299)는, 움직임을 측정하기 위한 센서뿐만 아니라, 스타일러스 펜(201)의 내부의 작동 상태 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있는 센서, 예를 들어, 배터리 잔량 감지 센서, 압력 센서, 광 센서, 온도 센서, 생체 센서 중 적어도 하나를 포함할 수 있다. 다양한 실시예에 따라서, 프로세서(220)는, 센서(299)로부터 획득한 정보를, 통신 회로(290)를 통하여 전자 장치(101)로 송신할 수 있다. 또는, 프로세서(220)는, 센서(299)로부터 획득한 정보에 기반하여, 스타일러스 펜(201)의 위치와 연관된 정보(예: 스타일러스 펜(201)의 좌표 및/또는 스타일러스 펜(201)의 변위)를, 통신 회로(290)를 통하여 전자 장치(101)로 송신할 수도 있다.
도 3b는, 일 실시 예에 따른, 스타일러스 펜(예: 도 2의 스타일러스 펜(201))의 분리 사시도이다.
도 3b를 참조하면, 스타일러스 펜(201)은 스타일러스 펜(201)의 외형을 구성하는 펜 하우징(300)과 펜 하우징(300) 내부의 내부 조립체(inner assembly)를 포함할 수 있다. 도시된 실시예에서, 상기 내부 조립체는, 스타일러스 펜(201) 내부에 실장되는 여러 부품들이 함께 결합된 상태에서, 펜 하우징(300) 내부에 1 회의 조립 동작으로 삽입될 수 있다.
펜 하우징(300)은, 제1 단부(300a) 및 제2 단부(300b) 사이에 길게 연장된 모양을 가지며, 내부에 제2 내부 공간(301)을 포함할 수 있다. 상기 펜 하우징(300)은 단면이 장축과 단축으로 이루어진 타원형일 수 있으며, 전체적으로는 타원 기둥 형태로 형성될 수 있다. 도 2에서 전술한, 전자 장치(101)의 제1 내부 공간(212) 또한 펜 하우징(300)의 형상에 대응하여 단면이 타원형으로 형성될 수 있다. 일 실시 예에 따르면, 펜 하우징(300)은, 적어도 일부분이 합성 수지(예: 플라스틱) 및/또는 금속성 재질(예: 알루미늄)을 포함할 수 있다. 일 실시 예에 따르면, 펜 하우징(300)의 제1 단부(300a)는 합성 수지 재질로 구성될 수 있다. 펜 하우징(300)의 재질에 대해서는 이 밖에 다양한 실시예들이 적용될 수 있다.
상기 내부 조립체(inner assembly)는, 펜 하우징(300)의 형상에 대응하여 길게 연장된 형상을 가질 수 있다. 상기 내부 조립체는 길이 방향을 따라 크게 3가지의 구성으로 구분될 수 있다. 예를 들면, 상기 내부 조립체는, 펜 하우징(300)의 제1 단부(300a)에 대응하는 위치에 배치되는 코일부(310), 펜 하우징(300)의 제2 단부(300b)에 대응하는 위치에 배치되는 이젝션 부재(ejection member, 320) 및 펜 하우징(300)의 몸통에 대응하는 위치에 배치되는 회로기판부(330)를 포함할 수 있다.
상기 코일부(310)는, 상기 내부 조립체가 상기 펜 하우징(300)에 완전히 삽입되면 제1 단부(300a)의 외부로 노출되는 펜 팁(311), 패킹 링(312), 복수 회 권선된 코일(313) 및/또는 펜 팁(311)의 가압에 따른 압력의 변화를 획득하기 위한 필압 감지부(314)를 포함할 수 있다. 패킹 링(312)은 에폭시(epoxy), 고무, 우레탄 또는 실리콘을 포함할 수 있다. 패킹 링(312)은 방수 및 방진의 목적으로 구비될 수 있으며, 코일부(310) 및 회로기판부(330)를 침수 또는 먼지로부터 보호할 수 있다. 일실시예에 따르면, 코일(313)은 설정된 주파수 대역(예: 500kHz)에서 공진 주파수를 형성할 수 있으며, 적어도 하나의 소자(예: 용량성 소자(capacitor))와 조합되어 일정 정도의 범위에서 코일(313)이 형성하는 공진 주파수를 조절할 수 있다.
상기 이젝션 부재(320)는, 전자 장치(예: 도 2의 101)의 제1 내부 공간(212)으로부터 스타일러스 펜(201)을 빼내기 위한 구성을 포함할 수 있다. 일실시예에 따르면, 이젝션 부재(320)는 샤프트(321)와 상기 샤프트(321)의 둘레에 배치되며, 이젝션 부재(320)의 전체적인 외형을 이루는 이젝션 몸체(322) 및 버튼부(323)(예: 도 2의 제1 버튼(201a))를 포함할 수 있다. 상기 내부 조립체가 상기 펜 하우징(300)에 완전히 삽입되면, 상기 샤프트(321) 및 이젝션 몸체(322)를 포함한 부분은 상기 펜 하우징(300)의 제2 단부(300b)에 의해 둘러싸이고, 버튼부(323)의 적어도 일부분은 제2 단부(300b)의 외부로 노출될 수 있다. 이젝션 몸체(322) 내에는 도시되지 않은 복수의 부품들, 예를 들면, 캠 부재들 또는 탄성 부재들이 배치되어 푸시-풀(push-pull) 구조를 형성할 수 있다. 한 실시예에서 버튼부(323)는 실질적으로 샤프트(321)와 결합하여 이젝션 몸체(322)에 대하여 직선 왕복 운동을 할 수 있다. 다양한 실시예에 따르면, 버튼부(323)는 사용자가 손톱을 이용해 스타일러스 펜(201)을 빼낼 수 있도록 걸림 구조가 형성된 버튼을 포함할 수 있다. 일실시예에 따르면, 스타일러스 펜(201)은 샤프트(321)의 직선 왕복 운동을 검출하는 센서를 포함함으로써, 또 다른 입력 방식을 제공할 수도 있다.
상기 회로기판부(330)는, 인쇄회로기판(332), 상기 인쇄회로기판(332)의 적어도 일면을 둘러싸는 베이스(331) 및 안테나를 포함할 수 있다. 일실시예에 따르면, 베이스(331)의 상면에는 인쇄회로기판(332)이 배치되는 기판안착부(333)가 형성되고, 인쇄회로기판(332)은 기판안착부(333)에 안착된 상태로 고정될 수 있다. 일실시예에 따르면, 인쇄회로기판(332)은 제1 면과 제2 면을 포함할 수 있으며, 제1 면에는 코일(313)과 연결되는 가변용량 커패시터 또는 스위치(334)가 배치될 수 있으며, 제2 면에는 충전 회로, 배터리(336) 또는 통신 회로가 배치될 수 있다. 여기서 인쇄회로기판(332)의 제1 면과 제2 면은 일실시예에 따르면, 위/아래로 적층된 구조에서 서로 다른 적층면을 의미할 수 있으며, 다른 실시예에 따르면, 인쇄회로기판(332)의 길이 방향을 따라 배치된 인쇄회로기판의 서로 다른 부분을 의미할 수 있다. 배터리(336)는 EDLC(electric double layered capacitor)를 포함할 수 있다. 충전 회로는 코일(313) 및 배터리 사이에 위치하며, 전압 검출 회로(voltage detector circuitry) 및 정류기(rectifier)를 포함할 수 있다. 여기서, 배터리(336)는 반드시 인쇄회로기판(332)의 제2 면에 배치되지 않을 수 있다. 배터리(336)의 위치는 회로기판(330)의 다양한 실장 구조에 따라 다양하게 설정될 수 있으며, 도면에 도시된 것과 다른 위치에 배치될 수 있다.
상기 안테나는, 도 3b에 도시된 예와 같은 안테나 구조물(339) 및/또는 인쇄회로기판(332)에 임베디드(embedded)되는 안테나를 포함할 수 있다. 다양한 실시예들에 따르면, 인쇄회로기판(332) 상에는 스위치(334)가 구비될 수 있다. 스타일러스 펜(201)에 구비되는 제2 버튼(337)은 스위치(334)를 누르는데 이용되고 펜 하우징(300)의 측면 개구부(302)를 통해 외부로 노출될 수 있다. 상기 제2 버튼(337)은 지지부재(338)에 의해 지지되면서, 제2 버튼(337)에 작용하는 외력이 없으면, 지지부재(338)가 탄성 복원력을 제공하여 제2 버튼(337)을 일정 위치에 배치된 상태로 복원 또는 유지할 수 있다. 한편, 제2 버튼(337)은, 물리 키, 터치 키, 모션 키, 압력 키, 키 리스(key less)의 방식 중 어느 하나로 구현될 수 있으며, 버튼의 구현 형태에는 제한이 없다.
상기 회로기판부(330)는 예를 들면, 오-링(O-ring)과 같은 패킹 링을 포함할 수 있다. 일실시예에 따르면, 상기 베이스(331)의 양단에 탄성체로 제작된 오-링이 배치되어 상기 베이스(331)와 상기 펜 하우징(300) 사이에 밀봉 구조가 형성될 수 있다. 어떤 실시예에서, 상기 지지부재(338)는 부분적으로 상기 측면 개구부(302)의 주위에서 상기 펜 하우징(300)의 내벽에 밀착하여 밀봉 구조를 형성할 수 있다. 예컨대, 상기 회로기판부(330)도 적어도 일 부분에 상기 코일부(310)의 패킹 링(312)과 유사한 방수, 방진 구조를 포함할 수 있다.
스타일러스 펜(201)은, 베이스(331)의 상면에 배터리(336)가 배치되는 배터리 안착부(333a)를 포함할 수 있다. 배터리 안착부(333a)에 탑재될 수 있는 배터리(336)는, 예를 들어, 실린더형(cylinder type) 배터리를 포함할 수 있다.
스타일러스 펜(201)은, 마이크로 폰(미도시) 및/또는 스피커를 포함할 수 있다. 마이크로 폰 및/또는 스피커는 인쇄회로기판(332)에 직접 연결되거나, 인쇄회로기판(332)과 연결된 별도의 FPCB(flexible printed circuit board)(미도시)에 연결될 수 있다. 다양한 실시예에 따르면, 마이크로 폰 및/또는 스피커는 스타일러스 펜(301)의 긴 방향으로 제2 버튼(337)과 평행한 위치에 배치될 수 있다.
도 4는 일 실시 예에 따른 스타일러스 펜과 연관된 에어 제스처를 처리하기 위한 전자 장치의 내부 블록 구성도(400)이다.
도 4를 참조하면, 스타일러스 펜(201)(예: 도 2의 스타일러스 펜(201))의 입력을 감지하는 표시 장치(460)(예: 도 1의 표시 장치(160))가 전자 장치(101)(예: 도 1의 전자 장치(101))에 제공될 수 있다. 표시 장치(460)는 데이터의 입/출력 기능을 동시에 지원할 뿐만 아니라 터치를 감지할 수 있다.
일 실시 예에 따르면, 표시 장치(460)는 센싱 패널(461), 디스플레이 패널(462) 및 디스플레이 제어부(463)를 포함할 수 있다. 도 4에서는 센싱 패널(461)이 표시 장치(460)에 포함되는 것으로 설명하지만, 디스플레이 패널(462)과 레이어 구조를 이루어 표시 장치(160)와는 다른 입력 패널로 동작할 수도 있다.
센싱 패널(461)은 스타일러스 펜(201)의 터치 입력의 위치를 검출할 수 있고, 디스플레이 패널(462)은 이미지를 출력할 수 있다. 디스플레이 제어부(463)는 디스플레이 패널(462)을 통해 이미지를 출력하기 위해 디스플레이 패널(462)을 제어하는 구동회로일 수 있다.
센싱 패널(461)은 스타일러스 펜(201)이 EMR(electro-magnetic resonance) 방식을 지원하는 경우, 전자기 센서를 이용하는 EMR 방식 또는 EMI(electro-magnetic interface) 방식의 입력 패드로 구성될 수 있으며, 이는 단순히 예시적인 것으로, ECR(electrically coupled resonance) 방식의 입력 패드로도 구성될 수도 있다.
센싱 패널(461)은 스타일러스 펜(201)으로부터 자기장을 인가받고 이로부터 스타일러스 펜(201)의 위치를 검출할 수 있다. 센싱 패널(461)은 복수의 센서를 이용하여 입력을 감지하기 위하여 상호 레이어 구조를 이루는 하나 이상의 패널로 구성될 수 있다.
또한, 센싱 패널(461)은 터치 스크린 패널(TSP)(touch screen panel)로 구현될 수 있으며, 만일 터치 스크린 패널로 구현되는 경우에는 전극으로부터의 출력 신호에 기반하여 스타일러스 펜(200)의 위치를 확인할 수도 있다. 스타일러스 펜(201)은, AES(active electrostatic) 방식으로 구현될 수도 있으며, 그 구현 종류에는 제한이 없음을 당업자는 이해할 것이다.
또한, 센싱 패널(461)은 스타일러스 펜(201) 또는 사용자의 손가락이 접촉 또는 근접하는 것을 감지할 수 있다. 예를 들어, 센싱 패널(461)은 스타일러스 펜(201)에 의한 호버링 입력을 감지할 수 있다. 센싱 패널(461)은 호버링 입력에 대응하는 입력 신호를 생성하고, 이를 프로세서(120)로 전달할 수 있다. 센싱 패널(461)은 호버링 입력의 발생 위치, 스타일러스 펜(201), 스타일러스 펜(201)에 구비되는 버튼에 의한 조작 상태를 기반으로, 호버링 입력의 정보를 포함하는 입력 신호를 생성할 수 있다.
이와 같이 스타일러스 펜으로부터의 신호를 센싱할 수 있는 EMR 방식 또는 터치 스크린 패널로 구현된 하드웨어를 센싱 패널(461)이라고 칭할 수 있다. 이러한 센싱 패널(461)은 인체에 의한 터치 입력을 감지하거나 스타일러스 펜(201)에 의한 입력을 감지할 수 있다. 도 4에 도시된 표시 장치(460)의 구성은 일 예에 불과하며, 표시 장치(460)를 구성하는 패널의 종류 및 개수, 패널의 상하층 위치는 전자 장치(101)의 제조 기술에 따라 다양하게 변화될 수 있다.
표시 장치(460)는 예를 들어, 어플리케이션의 실행에 따라 스타일러스 펜 속성과 관련된 항목들을 위한 팝업창을 표시할 수 있다. 사용자는 팝업창을 통해서만 스타일러스 펜 속성을 변경해야 하므로, 팝업창에 의해 매번 어플리케이션 실행 화면의 상당 부분이 가려질 수 있다. 게다가 표시 장치(460)에서는 터치 오동작 방지를 위해 팜 리젝(palm reject) 기능이 적용되고 있기 때문에, 스타일러스 펜(201)을 이용하면서 기존의 터치 입력 방식이 아닌 새로운 입력 방식이 필요할 수 있다.
이를 위해 일 실시 예에 따르면, 스타일러스 펜(201)을 이용하는 중에 새로운 입력 방식으로 스타일러스 펜(201)을 쥔 손이 아닌 반대쪽 손을 이용한 에어 제스처를 이용할 수 있다. 일 실시 예에 따르면, 반대쪽 손에 의한 에어 제스처를 이용함으로써 어플리케이션 실행 시 스타일러스 펜(201)에 의한 어플리케이션 실행 화면의 제어 또는 스타일러스 펜과 관련된 속성 변경이 가능하기 때문에, 사용자 입장에서는 빈번하고 반복적인 태스크 예컨대, 옵션 선택 및 세부 설정값 조정과 같은 스타일러스 펜(201) 이용 시의 관련 설정을 손쉽게 변경할 수 있어 사용자 접근성을 높일 수 있다.
또한 스타일러스 펜(201)을 이용한 드로잉 시에는 실행 화면이 아닌 전자 장치(101)의 근접 영역에서 에어 제스처를 이용함으로써 스타일러스 펜(201)을 쥔 손의 끊김 없는 드로잉이 가능할 뿐만 아니라 드로잉 집중도도 향상될 수 있으며, 양손 조작을 활용한 생산성 증대 효과를 기대할 수 있다. 게다가 고정된 팝업창 예컨대, 고정된 팔레트 패널이 아닌 에어 제스처에 대응하여 어플리케이션 실행 화면의 제어 또는 스타일러스 펜과 관련된 속성 변경이 가능하기 때문에 사용자 입장에서는 즉각적인 피드백을 얻을 수 있을 뿐만 아니라 실행 화면의 적어도 일부를 가리지 않아 공간 활용에 있어 효율적일 수 있다.
일 실시 예에 따르면, 센서(476)(예: 도 1의 센서 모듈(176))는 사용자의 손에 의한 에어 제스처를 센싱할 수 있다. 에어 제스처 동작은 전자 장치(101)로부터 일정 거리만큼 이격되어 사용자가 터치 스크린을 터치하지 않고 손 또는 손가락을 움직이는 동작일 수 있다. 일 실시 예에 따라, 스타일러스 펜과 연관된 에어 제스처란 전자 장치(101) 상에서 스타일러스 펜(201)에 의한 관련 기능을 제어하기 위한 움직임을 의미할 수 있다.
예를 들어, 센서(476)는 스타일러스 펜(201)을 쥔 손이 아닌 반대쪽 손에 의한 에어 제스처를 센싱하기 위한 적어도 하나의 센서를 포함할 수 있다. 이러한 센서(476)를 이용한다면 전자 장치(101)의 후면이 바닥에 닿도록 놓여진 상태에서 전자 장치(101)의 전면 중심축을 기준으로 좌우 방향 중 어느 방향에서 사용자 손에 의한 에어 제스처가 검출되는지를 식별할 수 있다. 또한 센서(476)는 사용자가 스타일러스 펜(201)을 잡고 있을 때 잡고 있는 손의 포즈를 검출할 수 있기 때문에 스타일러스 펜(201)을 잡고 있는 손이 오른손인지 왼손인지를 구별할 수 있다.
상기한 바와 같이 센서(476)에 의한 센싱 데이터를 기반으로, 스타일러스 펜(201)을 잡고 있는 손과, 스타일러스 펜(201)을 잡고 있지 않은 손을 구별할 수 있다. 예를 들어, 사용자가 자신의 오른손으로 스타일러스 펜(201)을 잡고 사용하고 있다면 왼손에 의한 에어 제스처에 대응하여 오른손용 그래픽 UI가 표시 장치(460) 상에 표시될 수 있다. 예를 들어, 스타일러스 펜(201)의 동작 상태에 대응되는 툴들로 이루어진 툴 셋을 나열한 그래픽 UI를 표시 장치(460) 상에서 오른쪽으로 옮겨 오른손을 사용하는 사용자가 보다 쉽게 이용할 수 있도록 표시할 수 있다. 이와 반대로 왼손으로 스타일러스 펜(201)을 잡고 사용하고 있다면 오른손에 의한 에어 제스처에 대응하여 왼손용 그래픽 UI가 표시 장치(460) 상에 표시될 수 있다. 다르게는 예를 들어, 사용자가 왼손으로 스타일러스 펜(201)을 잡고 사용하고 있다면, 전자 장치의 화면의 왼쪽 공간을 사용자가 더 넓게 활용할 수 있도록 그래픽 UI의 구성 요소들을 오른쪽으로 배치시키거나 오른쪽에 표시되었다가 사라지도록 구현될 수 있다.
상기한 바와 같은 에어 제스처를 검출하기 위한 센서의 일 예로, 일 실시 예에 따르면, 센서(476)는 RF 스펙트럼 방식의 센서일 수 있다. 센서(476)는 60Ghz의 WiFi 무선 안테나의 주파수를 이용할 수 있다. 예를 들어, 대상 물체를 향해 RF 신호를 보내고 반사되어 되돌아온 전파 신호를 수신하여, 방사된 RF 신호가 대상 물체에 반사된 후 되돌아오는 RF 신호의 패턴을 분석할 수 있다. RF 신호의 패턴을 기반으로 사용자의 손 제스처를 식별할 수 있다. 예를 들어, RF 신호에 기초한 에어 제스처 인식은 5Ghz to 60Ghz의 주파수 도메인을 사용하며, 160 ~ 180도의 시야각(field of view: FOV)을 가질 수 있다. 이러한 RF 신호를 사용한 에어 제스처의 경우 스타일러스 펜(201)에 의한 관련 기능에 대한 미세 제어가 가능할 수 있다.
일 실시 예에 따르면, 센서(476)는 적외선(Infrared) 센서, 초음파 센서, 모션 센서, 3D 센서, 비전 센서 중 어느 하나가 될 수 있으며, 센서의 종류는 이에 한정되는 것은 아니다. 이러한 센서들 중 적어도 두 개의 센서에서 센싱되는 정보들을 조합하여 사용자 손에 의한 에어 제스처 검출에 활용할 수도 있다. 예를 들어, 초음파 센서 및 카메라로부터의 출력에 기초하여 사용자 손에 의한 에어 제스처를 검출할 수도 있다.
센서(476)로부터의 센싱 데이터는 프로세서(420)로 전달될 수 있으며, 프로세서(420)에 의해 센싱 데이터가 처리될 수도 있다.
일 실시 예에 따르면, 프로세서(420)는 센서(476)의 센싱 데이터에 기반하여 에어 제스처(예: 에어 제스처 타입)를 확인할 수 있으며, 에어 제스처에 대응하는 동작을 수행할 수 있다. 일 실시 예에 따르면, 프로세서(420)는 센서(476)에 의한 센싱 데이터를 기반으로 사용자의 양 손 중 스타일러스 펜(201)을 쥔 손 및 반대쪽 손을 구별할 수 있다. 일 실시 예에 따르면, 프로세서(420)는 에어 제스처가 스타일러스 펜(201)을 쥔 반대쪽 손, 반대쪽 손의 1개의 손가락을 이용한 제스처, 반대쪽 손의 2개의 손가락을 이용한 제스처, 멀티 손가락을 이용한 제스처, 주먹 쥔 손 제스처, 손바닥을 편 제스처 중 어느 하나에 해당하는지를 인식할 수 있다.
에어 제스처는 스타일러스 펜(201)의 사용을 방해하는 일 없이 사용자의 양 손 중 어느 한 손으로 스타일러스 펜(201)을 잡고 있는 상태에서 다른 한 손에 의해 스타일러스 펜(201)과 관련된 메뉴를 호출하거나 현재 실행 화면을 제어하기 위해 사용될 수 있다. 일 실시 예에 따르면, 스타일러스 펜(201)을 잡고 있는 상태에서 반대쪽 손에 의한 에어 제스처가 입력되면, 프로세서(420)는 에어 제스처에 매핑된 기능을 어플리케이션에 전달할 수 있다.
예를 들어, 프로세서(420)는 에어 제스처에 기반하여, 펜 속성(예: 두께, 및/또는 색상)과 관련된 적어도 하나의 아이콘 패널(예: 펜 기능을 변경할 수 있는 아이콘으로 구성됨)을 제공하거나 펜 속성(예: 두께, 및/또는 색상)을 변경할 수 있다. 또는 프로세서(420)는 에어 제스처에 기반하여, 현재 실행 중인 어플리케이션 화면에 대한 제어 동작을 수행할 수 있다. 여기서, 적어도 하나의 아이콘 패널은 스타일러스 펜(201)을 이용한 작업에 활용하는 툴 셋을 나열한 그래픽 UI로, 어플리케이션 실행 화면 상에 일시적으로 표시되었다가 사라지도록 구현될 수 있다. 예를 들어, 툴 셋은 스타일러스 펜(201)을 이용하여 실행 중인 어플리케이션에서 사용 가능한 툴을 포함할 수 있다. 상기한 바 이외에 적어도 하나의 아이콘 패널은 스타일러스 펜(201)과 관련한 다양한 펜 기능 예컨대, 번역기, 스마트 셀렉트와 같은 기능을 포함할 수 있다.
일 실시 예에 따르면, 프로세서(420)는 에어 제스처에 대응하는 스타일러스 펜(201)과 관련한 기능을 매핑시킬 수 있으며, 매핑된 기능을 확인하여 수행할 수 있다.
일 실시 예에 따르면, 프로세서(420)는 센서(476)의 센싱 데이터에 기반하여 전자 장치(101)의 근접 영역 예컨대, 에어 제스처를 인식하는 공간적 범위 내에서 사용자의 양 손을 인식할 수 있으나, 순차적으로 또는 동시에 스타일러스 펜(201)을 쥔 손과 아닌 손을 인식할 수 있다. 또는 스타일러스 펜(201)을 쥐고 있지 않은 손을 먼저 인식한 후, 스타일러스 펜(201)을 쥔 손을 인식할 수도 있다. 다르게는 스타일러스 펜(201)을 쥔 손이 어느 손인지를 먼저 인식한 후, 프로세서(420)는 인식된 손의 반대되는 방향에서 에어 제스처를 검출하기 위한 센싱 동작을 수행할 수 있다.
일 실시 예에 따르면, 에어 제스처를 검출하기 위해 프로세서(420)는 스타일러스 펜(201)이 전자 장치(101)의 수납 공간으로부터 탈거되거나, 스타일러스 펜(201)에 의한 호버링 검출 시, 스타일러스 펜(201)의 버튼이 눌릴 경우 에어 제스처 인식을 위한 센싱 기능을 활성화시킬 수 있다. 이에 따라 일 실시 예에 따르면, 프로세서(420)는 예컨대, 스타일러스 펜(201)이 전자 장치(101)의 수납 공간으로부터 탈거 시 센서(476)의 센싱 데이터에 기반하여 양 손 중 입력 인터페이스로 사용할 손을 식별할 수 있다.
일 실시 예에 따르면, 프로세스(420)는 스타일러스 펜(201)에 의한 호버링 검출 시 에어 제스처를 인식할 수도 있으나, 호버링 상태가 아닌 경우에도 예를 들어, 사용자가 화면 상에 표시되는 에어 제스처 모드 활성화를 위한 아이콘을 선택한 상태에서 스타일러스 펜(201)이 준비되어 있다면 즉, 호버링이 없더라도 스타일러스 펜(201)을 이용하려고 화면 상에서 준비 중일 경우에는 에어 제스처를 인식할 수 있다. 이외에도 사용자가 에어 제스처 모드를 활성화하기 위한 미리 정해진 터치 입력이 입력된 경우에도 스타일러스 펜(201)이 준비되어 있는 상태에서는 에어 제스처의 동작을 인식할 수 있다.
일 실시 예에 따르면, 프로세스(420)는 인식된 손에 해당하는 방향을 식별하여, 식별된 방향에 대해서만 에어 제스처를 검출하여 어플리케이션 실행 도중에 입력 인터페이스가 변경되는 것을 방지할 수 있다. 예를 들어, 스타일러스 펜(201)을 쥔 손에 의한 에어 제스처가 인식되는 것을 방지할 수 있다.
일 실시 예에 따르면, 메모리(430)는 스타일러스 펜(201)의 동작에 관련된 정보를 저장할 수 있다. 일 실시 예에 따르면, 메모리(430)는 에어 제스처에 대응하는 동작을 수행하기 위한 프로그램(또는, 어플리케이션, 알고리즘, 또는 처리 루프)을 저장할 수도 있다. 메모리(430)는 전자 장치(101) 또는 스타일러스 펜(201)이 에어 제스처에 대응하여 특정 동작을 수행하도록 하는 인스트럭션을 저장할 수 있다.
일 실시 예에 따르면, 전자 장치(101)는 센싱 패널(461)을 포함하는 표시 장치(460), 적어도 하나의 센서(476), 상기 표시 장치 및 상기 적어도 하나의 센서(476)와 작동적으로 연결된 적어도 하나의 프로세서(420) 및 상기 적어도 하나의 프로세서(420)와 작동적으로 연결된 메모리(430)를 포함하며, 상기 메모리(430)는, 실행 시에, 상기 적어도 하나의 프로세서(420)가, 상기 적어도 하나의 센서(476)에 의해 상기 전자 장치(101)의 근접 영역에서 에어 제스처에 대응하는 제1 입력 신호가 검출되고, 상기 센싱 패널을 통해 상기 스타일러스 펜에 의한 입력에 대응하는 제2 입력 신호가 검출되지 않으면, 상기 제1 입력 신호에 대응하여 화면 표시와 관련된 제1 기능을 제어하고, 상기 제2 입력 신호가 검출된 상태에서 상기 제1 입력 신호가 검출되면, 상기 제1 입력 신호에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 제어하도록 구성된 인스트럭션들을 저장할 수 있다. 일 실시 예에 따르면, 상기 상기 화면 표시와 관련된 제1 기능은, 실행 중인 어플리케이션 화면에 대한 제어 기능이며, 상기 스타일러스 펜과 관련된 제2 기능은, 상기 스타일러스 펜 속성과 관련된 기능일 수 있다. 예를 들어, 사용자가 스타일러스 펜을 쥔 상태에서 다른 손으로 에어 제스처를 취할 경우 제2 입력 신호는 검출되고 있지 않지만 제1 입력 신호는 검출될 수 있는데, 이러한 경우 상기 에어 제스처에 대응하여 현재 화면에 대한 표시가 조절될 수 있다. 예를 들어, 에어 제스처에 대응하여 화면 확대, 축소, 상측 스크롤, 하측 스크롤, 화면 회전과 같은 제어를 수행할 수 있으며, 화면 제어와 관련하여 매핑 가능한 기능은 이에 한정되지 않을 수 있다.
예를 들어, 사용자가 화면 가까이에서 스타일러스 펜을 쥔 상태에서 또는 호버링 상태에서는 제2 입력 신호가 검출될 수 있으며, 상기 제2 입력 신호가 검출되는 동안에 에어 제스처에 해당하는 제1입력 신호도 동시에 검출될 수 있다. 이러한 경우 에어 제스처에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 제어할 수 있다. 예를 들어, 에어 제스처에 대응하여 상기 스타일러스 펜 속성을 변경할 수 있다.
일 실시 예에 따르면, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서(420)가, 상기 전자 장치로부터 상기 스타일러스 펜의 탈거가 감지된 이후에, 상기 제1 입력 신호 및 상기 제2 입력 신호 중 적어도 하나가 검출되는지를 식별하도록 구성될 수 있다.
일 실시 예에 따르면, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서(420)가, 상기 제2 입력 신호가 검출된 상태에서 상기 제1 입력 신호가 검출되면, 상기 제1 입력 신호에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 변경하도록 제어하며, 상기 변경된 제2 기능에 대한 정보를 지정된 시간 동안 상기 표시 장치 상에 표시한 후 제거되도록 구성될 수 있다. 또한, 예를 들어, 상기 제2 입력 신호가 감지된 이후 미리 정해진 시간 이내에 상기 제2 입력 신호가 다시 감지되면, 현재 변경된 스타일러스 펜 속성과 관련된 항목을 지정된 시간 동안 상기 표시 장치(460) 상에 표시한 후 제거되도록 구성될 수 있다.
일 실시 예에 따르면, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서(420)가, 상기 전자 장치(101)로부터 상기 스타일러스 펜(201)의 탈거가 감지되면, 상기 스타일러스 펜(201)과 관련된 실행 가능한 복수의 어플리케이션들을 표시하고, 상기 복수의 어플리케이션들 중 상기 제1 입력 신호에 대응하여 어느 하나의 어플리케이션의 기능을 변경하도록 구성될 수 있다.
일 실시 예에 따르면, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서(420)가, 상기 스타일러스 펜(420)의 버튼(예: 버튼(337))이 눌러진 상태임을 나타내는 제3 입력 신호가 감지된 상태에서 상기 제1 입력 신호가 검출되면, 상기 제1 입력 신호에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 변경하도록 구성될 수 있다.
일 실시 예에 따르면, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서(420)가, 상기 스타일러스 펜의 버튼이 눌러진 상태임을 나타내는 제3 입력 신호가 감지된 이후, 상기 스타일러스 펜의 상기 버튼이 릴리즈된 상태임을 나타내는 제4 입력 신호가 감지되기 전까지 상기 제1 입력 신호에 기반하여 상기 스타일러스 펜과 관련된 제2 기능을 실시간으로 변경하도록 구성될 수 있다.
일 실시 예에 따르면, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서(420)가, 상기 전자 장치로부터 상기 스타일러스 펜의 탈거가 감지된 이후에, 상기 제1 입력 신호가 검출되면, 상기 표시 장치(460)에 표시되는 어플리케이션 실행 화면 상에 상기 에어 제스처 활성화 상태를 나타내는 아이콘을 표시하도록 구성될 수 있다.
일 실시 예에 따르면, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서(420)가, 상기 에어 제스처 활성화 상태를 나타내는 아이콘을 표시한 후, 상기 제1 입력 신호가 일정 시간 동안 검출되지 않으면, 상기 에어 제스처의 비활성화 상태를 나타내는 아이콘을 상기 표시 장치(460)에 표시되는 어플리케이션 실행 화면 상에 표시하도록 구성될 수 있다.
일 실시 예에 따르면, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서(420)가, 상기 제1 입력 신호를 상기 전자 장치(101)의 왼쪽 방향에 해당하는 영역에서 검출하면, 상기 스타일러스 펜과 관련된 제2 기능에 대한 적어도 하나의 항목을 오른손 모드에 대응되도록 상기 전자 장치(101)의 표시 장치(460) 상에 재배열하며, 상기 제1 입력 신호를 상기 전자 장치(101)의 오른쪽 방향에 해당하는 영역에서 검출하면, 상기 스타일러스 펜과 관련된 제2 기능에 대한 적어도 하나의 항목을 왼손 모드에 대응되도록 상기 전자 장치(101)의 표시 장치(460) 상에 재배열하도록 구성될 수 있다.
일 실시 예에 따르면, 상기 적어도 하나의 센서(476)는, 상기 전자 장치(101)의 근접 영역에서 상기 에어 제스처에 대응하는 제1 입력 신호를 검출할 수 있는 RF 스펙트럼 방식의 센서, 적외선(Infrared) 센서, 초음파 센서, 모션 센서, 3D 센서, 비전 센서 중 적어도 하나를 포함할 수 있다.
도 5는 일 실시 예에 따른 에어 제스처를 이용한 어플리케이션 실행 화면의 제어를 설명하기 위한 화면 예시도(500a, 500b)이다.
도 5의 500a에 도시된 바와 같이, 전자 장치(101)의 에어 제스처를 인식하는 공간적 범위 내에서 예컨대, 제1 방향(예: 전자 장치(101)의 좌측)의 근접 영역(515) 또는 제2 방향(예: 전자 장치(101)의 우측)의 근접 영역(520) 중 어느 방향의 근접 영역에서 에어 제스처가 검출되는지에 따라, 전자 장치(101)는 에어 제스처에 해당하는 입력 인터페이스로 사용할 손이 오른손인지 왼손인지를 결정할 수 있다. 예를 들어, 도 5의 500a에 도시된 바와 같이, 제1 방향(예: 전자 장치(101)의 좌측)의 근접 영역(515)에서 에어 제스처가 검출되는 경우 입력 인터페이스로 사용할 손이 왼손(510)이라고 인식할 수 있다.
다양한 실시 예에 따르면, 전자 장치(101)는 사용자의 왼손 또는 오른손을 식별한 후, 식별된 왼손 또는 오른손에 대응하도록 UI 배치를 실시간으로 변경할 수 있다. 예를 들어, 전자 장치(101)는 사용자 편의를 높이기 위해 에어 제스처에 해당하는 입력 인터페이스로 사용할 손이 왼손이라고 인식 시 UI를 스타일러스 펜(201)을 이용하는 오른손에 최적으로 배치할 수 있다. 이와 반대로 전자 장치(101)는 오른손 인식 시 UI를 스타일러스 펜(201)을 이용하는 왼손에 최적으로 배치할 수 있다. 일 실시 예에 따르면, 상기 UI는 스타일러스 펜 기능과 관련한 아이콘들을 포함할 수 있다. 전자 장치(101)는 스타일러스 펜 기능과 관련한 UI 구성 요소들의 배치를 왼손 또는 오른손 모드에 미리 매치하여 설정하고 저장할 수 있다.
한편, 사용자가 에어 제스처를 위해 입력 인터페이스로 사용할 손이 왼손(510)임을 인식한 상태에서, 도 5의 500b에 도시된 바와 같이, 사용자가 오른손으로 스타일러스 펜(201)을 이용하여 그림을 그리다가 잠시 화면(525)으로부터 뗀 상태에서, 전자 장치(101)의 화면을 터치하는 일 없이 인식된 왼손(510)의 엄지 손가락과 검지 손가락을 모았다가 벌리는 핀치 아웃(pinch out) 제스처를 취하는 경우, 핀치 아웃 제스처에 대응하여 화면(530)이 확대 표시될 수 있다. 이와 같이 사용자는 어플리케이션이 실행된 상태에서 팜 리젝 기능이 적용되는 화면을 터치하지 않고도 손 동작을 취하는 것만으로도 상기 어플리케이션 실행 화면에 대한 제어를 할 수 있다.
도 6은 일 실시 예에 따른 에어 제스처를 이용한 호버링 시의 스타일러스 펜 속성 변경을 설명하기 위한 화면 예시도(600a, 600b)이다.
도 6의 600a에서는, 전자 장치(101)의 에어 제스처를 인식하는 공간적 범위 내에서 예컨대, 제1 방향(예: 전자 장치(101)의 좌측)의 근접 영역(620)에서 에어 제스처가 검출되는 경우를 예시하고 있다. 일 실시 예에서, 전자 장치(101)는, 호버링을 나타내는 신호가 입력되는 상태에서 에어 제스처가 확인되는 경우, 호버링이 없는 상태에서의 에어 제스처가 확인되는 경우와는 상이한 동작을 수행할 수 있다.
일 실시 예에 따르면, 스타일러스 펜(201)에 의한 호버링(640)을 나타내는 신호가 입력되는 상태에서 에어 제스처가 검출되는 경우, 검출되는 에어 제스처에 매핑되는 동작이 달라질 수 있다. 예를 들어, 호버링(640)을 나타내는 신호가 입력되고 있다는 것은 사용자가 스타일러스 펜(201)을 이용하려고 화면 상에서 준비 중이라는 것을 의미하므로, 전자 장치(101)는 에어 제스처에 기반하여, 스타일러스 펜(201)과 관련된 적어도 하나의 툴 UI를 제공하거나 펜 속성을 변경할 수 있다.
예를 들어, 제1 방향(예: 전자 장치(101)의 좌측)의 근접 영역(620)에서 검출되는 센싱 데이터를 기반으로 사용자가 에어 제스처를 위해 입력 인터페이스로 사용할 손이 왼손(610)임을 인식한 상태에서, 도 6의 600b에 도시된 바와 같이, 사용자가 오른손으로 스타일러스 펜(201)을 이용하여 그림을 그리다가 화면(625) 상에 호버링(640)이 유지되는 상태에서, 전자 장치(101)의 화면(635)을 터치하는 일 없이 인식된 왼손(610)의 엄지 손가락과 검지 손가락을 모았다가 벌리는 핀치 아웃(pinch out) 제스처를 취하는 경우, 핀치 아웃 제스처에 대응하여 스타일러스 펜(201) 속성이 변경될 수 있다. 전술한 바에서는 호버링(640)이 유지되는 상태에서 에어 제스처를 인식하는 경우를 예로 들어 설명하였으나, 호버링 상태가 아닌 경우에도 예를 들어, 사용자가 스타일러스 펜(201)으로 사용할 준비가 되어 있는 상태 또는 스타일러스 펜(201)을 이용한 터치 입력이 있는 경우 즉, 호버링이 없더라도 스타일러스 펜(201)을 이용하려고 화면 상에서 준비 중일 경우에는 에어 제스처를 인식할 수 있다.
예를 들어, 스타일러스 펜(201)에 의한 입력이 감지되지는 않지만 준비 중인 상태에서 에어 제스처의 동작을 실시간으로 인식함에 따라 상기 에어 제스처의 동작에 대응하여 어플리케이션 실행 화면을 제어할 수 있다. 반면, 스타일러스 펜(201)에 의한 호버링 입력 또는 터치 입력에 따라 스타일러스 펜(201)에 의한 입력이 감지되는 상태에서 에어 제스처의 동작을 실시간으로 인식함에 따라 스타일러스 펜(201)과 관련한 속성 또는 기능들이 즉각적으로 변경될 수 있다.
예를 들어, 스타일러스 펜(201)의 굵기, 불투명함(opacity)과 같은 속성이 핀치 아웃 제스처에 대응하여 변경될 수 있다. 이때, 사용자가 변경된 스타일러스 펜 속성이 어떠한 것인지를 한 눈에 알 수 있도록 어플리케이션 실행 화면(635) 상의 적어도 일부에는 스타일러스 펜 속성에 관련한 툴 UI(630)가 일시적으로 표시되었다가 사라질 수 있다.
일 실시 예에 따르면, 핀치 아웃 제스처의 경우 엄지 손가락과 검지 손가락이 벌어지는 정도에 대응하여 점차적으로 변경되는 스타일러스 펜 속성을 나타내는 툴 UI(630)가 어플리케이션 실행 화면(635) 상에 표시될 수도 있다. 예를 들어, 핀치 아웃 제스처에 의해 제어되는 펜 속성이 펜 굵기와 불투명값이라고 할 경우, 두 손가락을 벌리거나 오므리는 핀치 아웃 제스처는 펜 굵기와 불투명값을 조절하는 동작에 해당할 수 있다. 이와 같이 에어 제스처의 동작들은 스타일러스 펜과 관련한 속성을 조절하거나 변경하는 것에 대응되도록 구현될 수 있다. 이에 따라 사용자는 스타일러스 펜과 관련한 속성을 변경하기 위해 관련 항목들을 일일이 터치하지 않고도 전자 장치(101)와 근접한 영역에서 손 동작을 취하는 것만으로도 스타일러스 펜(201)을 이용한 전자 장치(101)의 실행 화면을 제어하거나 스타일러스 펜(201)과 관련한 속성을 변경할 수 있다.
도 7은 일 실시 예에 따른 스타일러스 펜과 연관된 에어 제스처를 처리하기 위한 전자 장치의 동작 흐름도(700)이다.
도 7을 참조하면, 동작 방법은 705 동작 내지 720동작들을 포함할 수 있다. 도 7의 동작 방법의 각 단계/동작은, 전자 장치(예: 도 1의 전자 장치(101), 전자 장치의 적어도 하나의 프로세서(예: 도 1의 프로세서(120) 및 도 4의 프로세서(420)) 중 적어도 하나에 의해 수행될 수 있다. 한 실시 예에서, 705 동작 내지 720 동작들 중 적어도 하나가 생략되거나, 일부 동작들의 순서가 바뀌거나, 다른 동작이 추가될 수 있다.
이하, 스타일러스 펜(201)과 관련한 어플리케이션이 구동되고 있는 경우 에어 제스처를 이용하여 스타일러스 펜(201)과 관련한 기능을 제어하는 경우를 설명하기로 한다.
여기서, 스타일러스 펜(201)과 관련한 어플리케이션이 구동되고 있다는 것은, 전자 장치(101)로부터 스타일러스 펜(201)이 탈거된 상태이며, 탈거된 상태에서 에어 제스처에 따라 스타일러스 펜(201)과 관련한 다양한 기능을 제어할 수 있는 상태라는 것을 의미할 수 있다.
일 실시 예에 따라서, 전자 장치(101)는, 에어 제스처 개시 이벤트를 확인할 수 있다. 예를 들어, 스타일러스 펜(201)은 전자 장치(101)의 수납 공간으로부터 탈거될 수 있으며, 탈거 시 에어 제스처 개시 이벤트를 확인할 수 있다. 즉, 탈거 시 에어 제스처를 검출하기 위한 동작을 수행할 수 있다.
다르게는 예를 들어, 전자 장치(101)는, 스타일러스 펜(201)으로부터 통신 신호에 포함된 정보에 기반하여, 에어 제스처 개시 이벤트를 확인할 수 있다. 에어 제스처 개시 이벤트는, 예를 들어 스타일러스 펜(201)에 구비된 버튼(예: 버튼(337))의 눌린 상태 검출일 수 있다. 버튼은, 물리 키, 터치 키, 모션 키, 압력 키, 키 리스(key less)의 방식 중 어느 하나로 구현될 수 있으며, 구현 형태에는 제한이 없다. 스타일러스 펜(201)은, 버튼의 눌린 상태를 확인 후, 버튼의 눌린 상태를 나타내는 정보를 포함하는 통신 신호를 전자 장치(101)로 송신할 수 있다.
705 동작에서 전자 장치(101)는 전자 장치(101)의 근접 영역에서 에어 제스처에 대응하는 제1 입력 신호가 검출되는지를 식별할 수 있다. 만일 전자 장치(101)의 근접 영역에서 에어 제스처에 대응하는 제1 입력 신호가 검출되는 경우, 제1 입력 신호를 확인할 수 있다. 예를 들어, 제1 입력 신호에 해당하는 에어 제스처의 형태를 식별할 수 있는데, 전자 장치(101)는 에어 제스처가 스타일러스 펜(201)을 쥔 반대쪽 손, 반대쪽 손의 1개의 손가락을 이용한 제스처, 반대쪽 손의 2개의 손가락을 이용한 제스처, 멀티 손가락을 이용한 제스처, 주먹 쥔 손 제스처, 손바닥을 편 제스처와 같이 복수의 에어 제스처 중 어느 하나에 해당하는지를 인식할 수 있다.
710 동작에서 스타일러스 펜(201)에 의한 입력에 대응하는 제2 입력 신호가 검출되는지를 식별할 수 있다. 일 실시 예에 따르면, 스타일러스 펜(201)에 의한 입력은, 호버링 입력을 포함할 수 있다.
만일 상기 스타일러스 펜(201)에 의한 입력에 대응하는 제2 입력 신호가 검출되지 않는 경우 즉, 상기 에어 제스처에 대응하는 제1 입력 신호만 검출된 경우, 720 동작에서 전자 장치(101)는 상기 제2 입력 신호가 검출되지 않는 상태에서 상기 제1 입력 신호의 검출에 대응하여 어플리케이션 실행 화면을 제어할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 상기 제1입력 신호에 대응하는 에어 제스처에 따라, 어플리케이션 실행 화면을 조절할 수 있다. 예를 들어, 회전 제스처에 따라 회전 제스처에 대응하는 방향으로 어플리케이션 실행 화면을 회전시킬 수 있다.
반면, 상기 스타일러스 펜(201)에 의한 호버링 입력에 대응하는 제2 입력 신호가 검출되는 경우 즉, 상기 스타일러스 펜(201)에 의한 호버링 입력에 대응하는 제2 입력 신호가 검출된 상태에서 상기 제1 입력 신호가 검출되는 경우 715 동작에서 전자 장치(101)는 상기 호버링 입력에 대응하는 제2 입력 신호가 감지된 상태에서의 상기 제1 입력 신호에 대응하여 상기 스타일러스 펜 속성을 변경할 수 있다. 상기한 바와 같이 전자 장치(101)는 에어 제스처가 입력되면 호버링 입력이 있는지 판단하여, 판단 결과에 따라 대응되는 기능을 제어할 수 있다. 또한 전술한 바에서는 에어 제스처가 입력된 상태에서 호버링 입력이 있는지를 판단하는 경우를 예시하나, 호버링 입력 이외에 실제 사용자가 스타일러스 펜(201)을 사용하는 터치 입력이 있는지를 판단할 수도 있다. 이에 따라 호버링 시 또는 터치 입력 시 에어 제스처에 기반한 화면 제어 동작이 이루어질 수 있다.
일 실시 예에 따르면, 스타일러스 펜(201)에 의한 호버링을 나타내는 신호가 입력되는 상태에서 에어 제스처가 검출되는 경우, 호버링이 없는 상태에서 검출되는 에어 제스처와 비교했을 때 에어 제스처에 매핑되는 동작이 달라질 수 있다. 예를 들어, 호버링을 나타내는 신호가 입력되고 있다는 것은 사용자가 스타일러스 펜(201)을 이용하려고 화면 상에서 준비 중이라는 것을 의미하므로, 전자 장치(101)는 에어 제스처에 기반하여, 스타일러스 펜(201)과 관련된 적어도 하나의 툴(예: 펜 굵기, 투명도, 브러쉬, 컬러 및/또는 색상을 변경할 수 있는 아이콘으로 구성됨) UI를 제공하거나 펜 속성(예: 펜 굵기, 투명도, 브러쉬, 컬러 및/또는 색상)을 변경할 수 있다.
일 실시 예에 따르면, 전자 장치(예: 도 1의 전자 장치(101))에서 에어 제스처에 의한 스타일러스 펜과 연관된 기능을 제어하기 위한 방법은, 적어도 하나의 센서에 의해 상기 전자 장치의 근접 영역에서 에어 제스처에 대응하는 제1 입력 신호 및 스타일러스 펜에 의한 입력에 대응하는 제2 입력 신호 중 적어도 하나가 검출되는지를 식별하는 동작, 상기 제2 입력 신호가 검출되지 않는 상태에서 상기 제1 입력 신호의 검출에 대응하여, 화면 표시와 관련된 제1 기능을 제어하는 동작, 및 상기 제2 입력 신호가 검출되는 상태에서 상기 제1 입력 신호의 검출에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 제어하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 상기 제1 입력 신호 및 상기 제2 입력 신호 중 적어도 하나가 검출되는지를 식별하는 동작은, 상기 전자 장치로부터 상기 스타일러스 펜의 탈거가 감지된 이후에, 상기 제1 입력 신호 및 상기 제2 입력 신호 중 적어도 하나가 검출되는지를 식별하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 상기 제2 입력 신호가 검출되는 상태에서 상기 제1 입력 신호의 검출에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 제어하는 동작은, 상기 제2 입력 신호가 검출되는 동안 상기 제1 입력 신호에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 변경하도록 제어하는 동작 및 상기 변경된 제2 기능에 대한 정보를 지정된 시간 동안 표시한 후 제거하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 상기 방법은, 상기 전자 장치로부터 상기 스타일러스 펜의 탈거가 감지되면, 상기 스타일러스 펜과 관련된 실행 가능한 복수의 어플리케이션들을 표시하는 동작 및 상기 복수의 어플리케이션들 중 상기 제1 입력 신호에 대응하여 어느 하나의 어플리케이션의 기능을 변경하는 동작을 더 포함할 수 있다.
일 실시 예에 따르면, 상기 방법은, 상기 스타일러스 펜의 버튼이 눌러진 상태임을 나타내는 제3 입력 신호가 검출된 상태에서 상기 제1 입력 신호가 검출되면, 상기 제1 입력 신호에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 변경하는 동작을 더 포함할 수 있다.
일 실시 예에 따르면, 상기 방법은, 상기 스타일러스 펜의 버튼이 눌러진 상태임을 나타내는 제3 입력 신호가 검출된 이후, 상기 스타일러스 펜의 상기 버튼이 릴리즈된 상태임을 나타내는 제4 입력 신호가 감지되기 전까지 상기 제1 입력 신호에 기반하여 상기 스타일러스 펜과 관련된 제2 기능을 실시간으로 변경하는 동작을 더 포함할 수 있다.
일 실시 예에 따르면, 상기 방법은, 상기 전자 장치로부터 상기 스타일러스 펜의 탈거가 감지된 이후에, 상기 제1 입력 신호가 검출되면, 상기 어플리케이션 실행 화면 상에 상기 에어 제스처 활성화 상태를 나타내는 아이콘을 표시하는 동작 및 상기 에어 제스처 활성화 상태를 나타내는 아이콘을 표시한 후, 상기 제1 입력 신호가 일정 시간 동안 검출되지 않으면, 상기 에어 제스처의 비활성화 상태를 나타내는 아이콘을 표시하는 동작을 더 포함할 수 있다.
일 실시 예에 따르면, 상기 방법은, 상기 제1 입력 신호가 상기 전자 장치의 왼쪽 방향에 해당하는 영역에서 검출되면, 상기 스타일러스 펜과 관련된 제2 기능에 대한 적어도 하나의 항목을 오른손 모드에 대응되도록 재배열하여 표시하는 동작 및 상기 제1 입력 신호가 상기 전자 장치의 오른쪽 방향에 해당하는 영역에서 검출되면, 상기 스타일러스 펜과 관련된 제2 기능에 대한 적어도 하나의 항목을 왼손 모드에 대응되도록 재배열하여 표시하는 동작을 더 포함할 수 있다.
도 8은 일 실시 예에 따른 에어 제스처의 종류를 예시한 테이블(800)이다.
도 8에 도시된 바와 같이, 에어 제스처의 종류를 예시한 테이블(800)은 에어 제스처의 모양(810), 에어 제스처에 대한 설명(820), 에어 제스처에 의한 동작(830), 호버링 시의 에어 제스처에 의한 동작(840), 스타일러스 펜 관련 항목에 대한 UI(850)를 포함할 수 있다.
핀치 인/아웃 제스처는 엄지 손가락과 검지 손가락을 모았다가 벌리거나 다시 모으는 동작을 나타내고, 호버링이 없는 상태에서는 캔버스의 확대/축소 즉, 어플리케이션 실행 화면을 확대/축소시킬 수 있다. 반면, 호버링이 있는 상태에서 즉, 스타일러스 펜(201)을 화면 가까이에 가져간 상태에서 핀치 인/아웃 제스처를 취하면 핀치 인/아웃 제스처에 대응하여 스타일러스 펜 속성이 변경될 수 있다. 예를 들어, 스타일러스 펜 속성으로 펜 굵기, 펜 투명도와 같은 값들이 조절될 수 있으며, 사용자가 변경 상태를 식별할 수 있도록 펜 굵기, 펜 투명도가 조절되는 UI(851)가 어플리케이션 실행 화면 상의 적어도 일부에 표시될 수 있다.
회전 제스처는 엄지 손가락과 검지 손가락을 왼쪽 또는 오른쪽으로 돌리는 동작을 나타내고, 호버링이 없는 상태에서는 캔버스의 회전 즉, 어플리케이션 실행 화면을 회전시킬 수 있다. 반면, 호버링이 있는 상태에서의 회전 제스처에 대응하여 스타일러스 펜 속성으로 브러쉬의 종류가 변경될 수 있다. 예를 들어, 사용자가 변경되는 브러쉬의 종류를 식별할 수 있도록 회전 방향 및 회전 정도에 대응하여 브러쉬의 종류가 나열된 UI(852) 내에서 순차적으로 브러쉬가 변경될 수 있다. 예를 들어, 사용자가 오른쪽으로 회전 동작을 나타내는 회전 제스처를 취하는 경우, 오른쪽 방향으로 순차적으로 브러쉬가 변경될 수 있으며, 회전 제스처를 멈출 경우 선택된 브러쉬에 대응하는 브로쉬의 종류로 정해질 수 있다.
업다운 제스처는 검지 손가락을 상하 또는 좌우로 움직이는 동작을 나타내고, 호버링이 없는 상태에서는 어플리케이션 실행 화면에서 상하로 스크롤하거나 좌우로 움직일 수 있다. 반면, 호버링이 있는 상태에서의 업다운 제스처에 대응하여 스타일러스 펜 속성으로 컬러 또는 채도가 조절될 수 있다. 예를 들어, 업다운 제스처의 정도 또는 좌우로 움직이는 제스처의 정도에 대응하여 컬러 또는 채도값이 조절될 수 있으며, 이에 대응하여 컬러 또는 채도값이 조절되는 UI(853)가 표시될 수 있다.
더블 탭 제스처는 사용자가 한 손가락으로 두 번 두들기는 동작을 나타내고, 호버링이 없는 상태에서는 어플리케이션 실행 화면에서 캔버스를 예컨대, 고정 비율로 확대/축소시킬 수 있다. 반면, 호버링이 있는 상태에서의 더블 탭 제스처에 대응하여 컬러 피커(picker)의 호출/종료가 실행될 수 있다. 예를 들어, 호버링이 있는 상태에서의 더블 탭 제스처에 대응하여 컬러 피커가 호출되거나 스타일러스 펜 속성으로 사용자에 의해 지정된 컬러로 컬러가 변경될 수도 있다. 예를 들어, 더블 탭 제스처에 대응하여 변경된 컬러가 선택된 UI(854)가 표시될 수 있다.
팜 스와이프 제스처는 사용자가 손바닥을 좌우로 문지르는 동작을 나타내고, 어플리케이션 실행 화면에서 실행된 내용을 언두(Undo)/리두(Redo)할 수 있다. 예를 들어, 사용자가 손바닥을 왼쪽으로 문지를 경우 언두가 수행될 수 있으며, 손바닥을 오른쪽으로 문지를 경우 리두가 수행될 수 있다. 예를 들어, 팜 스와이프 제스처에 대응하여 실행되는 동작을 나타내는 UI(855)가 표시될 수 있다.
클렌치 제스처는 사용자가 주먹을 쥐는 동작을 나타내고, 어플리케이션 실행 화면에서 표시되고 있는 내용에 대한 전체 지우기를 수행할 수 있다. 예를 들어, 사용자가 어플리케이션 실행 화면이 표시되고 있는 상태에서 클렌치 제스처를 취하는 경우 모든 드로잉이 삭제됨을 알리는 UI(856)이 표시될 수 있다.
일 실시 예에 따르면, 스타일러스 펜 관련 항목에 대한 UI(850)는 어플리케이션 실행 화면을 최대한 가리지 않도록 어플리케이션 실행 화면 상의 적어도 일부에 일정 시간 동안만 표시된 후 사라지도록 구현될 수 있다.
일 실시 예에 따르면, 스타일러스 펜 관련 항목에 대한 UI(850)는 스타일러스 펜(201)이 호버링된 상태에서는 호버링된 위치와 가까이에 표시될 수 있다. 다르게는 상기 UI(851)는 호버링 시에는 어플리케이션 실행 화면 상단에 일시적으로 표시되었다가 숨김 상태로 될 수도 있다.
상기한 바에서는 에어 제스처의 종류와 그에 맵핑되는 기능을 설명하고 있으나, 다양한 에어 제스처가 어플리케이션 실행 화면의 제어 및 스타일러스 펜 속성의 변경을 위해 대응될 수 있다. 예를 들어, 팜 스와이프 제스처 대신 평면 위를 손가락으로 문지르는 동작을 나타내는 이레이저(eraser) 제스처를 이용하여 어플리케이션 실행 화면 상의 일부 또는 전체 내용을 지우는 동작을 수행할 수도 있다. 상기한 바 이외에도 물건을 집는 제스처를 화면의 객체를 선택하는 동작으로 적용하는 것과 같이 실생활에서 사용하는 동작들을 그대로 에어 제스처로 적용할 수 있으며, 에어 제스처에 대응하여 스타일러스 펜과 관련된 매핑 가능한 동작들은 이에 한정되지 않을 수 있다.
도 9a는 일 실시 예에 따른 에어 제스처 모드 활성화 전 어플리케이션 실행 화면 예시도이다. 도 9a에서는 어플리케이션 실행 화면의 상단에 상시 노출되는 패널(900)이 표시되며, 스타일러스 펜(201)과 관련한 속성을 변경하기 위한 패널(905)이 표시되는 경우를 예시하고 있다. 여기서, 어플리케이션은 스타일러스 펜(201)을 이용한 글씨 또는 그림을 그릴 수 있는 어플리케이션으로, 일명 노트 어플리케이션, 메모 어플리케이션, 그림판 어플리케이션이라고 칭할 수 있다. 이러한 어플리케이션에서 펜 굵기, 색과 같은 속성을 변경할 수 있는 툴 패널들(900, 905)을 제공하는데, 이러한 툴 패널들(900, 905)은 어플리케이션 실행 화면의 일부를 항시 또는 속성 변경 시마다 가릴 수 있다. 일 실시 예에 따르면, 에어 제스처 모드의 활성화 시에는 도 9b 내지 도 9d에 도시된 바와 같이 패널이 최소화된 크기로 조절될 수 있다. 도 9b 내지 도 9d는 에어 제스처 모드의 활성화 시 순차적으로 패널의 크기가 변화하는 과정을 예시하고 있다.
도 9b는 일 실시 예에 따른 에어 제스처 모드 활성화 시 툴 패널의 변화를 설명하기 위한 화면 예시도이다.
도 9b에 도시된 바와 같이 전자 장치(101)의 근접 영역에서 에어 제스처(910)가 감지되면 에어 제스처 모드가 활성화될 수 있으며, 에어 제스처 모드의 활성화 시 사용자의 작업을 방해하지 않도록 인터랙티브한 시각적 효과를 제공할 수 있다. 예를 들어, 스타일러스 펜(201)의 속성과 관련된 적어도 하나의 툴 패널(예: 펜 굵기, 투명도, 브러쉬, 컬러 및/또는 색상을 변경할 수 있는 아이콘으로 구성됨)(915)이 제1 방향(920)으로 사라지는 비주얼 인터랙션(visul interaction)을 제공할 수 있다.
도 9c는 일 실시 예에 따른 에어 제스처 모드의 활성화 완료 시 툴 패널의 변화를 설명하기 위한 화면 예시도이다. 도 9c에 도시된 바와 같이 툴 패널(925)의 표시가 제1 방향(930)으로 사라지기 전에 일시적으로 멈출 수 있는데, 이에 따라 사용자는 스타일러스 펜(2010과 관련한 현재 선택된 펜 속성을 인지할 수 있다.
도 9d는 일 실시 예에 따른 에어 제스처 모드 활성화 완료 시 툴 패널의 숨김 상태를 설명하기 위한 화면 예시도이다. 도 9d에서는 도 9c의 툴 패널(925)이 숨김 상태가 된 경우를 예시하고 있다.
도 9b 내지 도 9d에 도시된 바와 같이 에어 제스처 모드가 활성화됨에 따라 순차적으로 툴 패널의 표시가 최소화되는 크기로 변경될 수 있다. 또한 도 9b 내지 도 9d에 도시된 바와 같이, 에어 제스처 모드의 활성화가 완료된 경우 즉, 에어 제스처를 이용한 스타일러스 펜과 관련한 기능의 제어가 가능한 상태가 된 경우, 화면 상에서 스타일러스 펜(201)에 의한 호버링을 나타내는 그래픽 객체(예: 포인터, 인디케이터)(945)의 색, 밝기, 투명도, 형태, 채도, 색상 효과(예: 그라데이션 효과, 점멸 효과)를 변경할 수 있다. 예를 들어, 상기 그래픽 객체에 대한 색을 다른색으로 변경하거나 상기 그래픽 객체의 형태 예를 들어, 포인터의 모양을 변경함으로써 에어 제스처 모드가 활성화된 상태임을 나타낼 수 있다. 또한, 화면 상에 에어 제스처의 활성화 여부를 나타내는 상태 아이콘(940)을 제공하여 사용자가 에어 제스처 모드의 활성화를 직관적으로 알 수 있도록 할 수 있다.
상기한 바와 같이 에어 제스처 활성화 시 에어 제스처 모드의 진입 및 진입 완료에 따라 화면 상에 그래픽 객체를 다르게 출력함으로써 사용자 입장에서는 에어 제스처 모드의 활성화 상태를 손쉽게 인지할 수 있다.
도 10a는 일 실시 예에 따른 에어 제스처 모드 진입에 따른 상태 정보를 제공하는 화면 예시도이다. 도 10a에서는 전자 장치(101)의 근접 영역에서 사용자 손(1010)에 의한 에어 제스처 검출 시, 에어 제스처 모드로의 진입 상태를 나타내는 경우를 예시하고 있다. 도 9d와 유사하게 도 10a에서는 어플리케이션 실행 화면 상에 스타일러스 펜(201)에 의한 포인터(1015)와 에어 제스처의 활성화 여부를 나타내는 아이콘(1005)이 제공될 수 있다.
도 10b는 일 실시 예에 따른 에어 제스처 입력에 따른 상태 정보를 제공하는 화면 예시도이다. 도 10b에서는 에어 제스처 모드가 활성화된 상태에서, 사용자 손에 의한 에어 제스처(1010)가 검출되는 경우, 에어 제스처를 확인하여, 확인된 에어 제스처에 대응하는 스타일러스 펜(201)과 관련한 속성을 변경하기 위한 UI(1025)가 표시되는 경우를 예시하고 있다. 이때, 도 10b에 도시된 바와 같이 에어 제스처 모드가 활성화된 상태에서, 사용자 손에 의한 에어 제스처(1010)가 검출되는 경우 에어 제스처의 활성화 여부를 나타내는 아이콘(1005)의 색이 변경될 수 있다. 예를 들어, 에어 제스처의 활성화 여부를 나타내는 아이콘(1005)의 색은 에어 제스처가 입력되는 중에는 미리 정해진 색 예컨대, 다른 색으로 전환되어 표시될 수 있다. 또한 아이콘(1005)의 색 이외에 밝기, 투명도, 형태, 채도, 색상 효과(예: 그라데이션 효과, 점멸 효과)를 변경함으로써 에어 제스처의 활성화 여부를 나타낼 수 있다. 또한 일 실시 예에 따르면, 확인된 에어 제스처가 회전 제스처일 경우 회전 제스처에 대응하여 브러쉬의 종류 중 어느 하나가 순차적으로 선택되어 표시되는 UI(1025)가 일시적으로 표시되었다가 사라질 수도 있다.
도 10c는 일 실시 예예 따른 에어 제스처 미검출에 따른 상태 정보를 제공하는 화면 예시도이다. 도 10c에서는 에어 제스처 모드의 활성화 상태이나 근접 영역 내에 손이 검출되지 않는 경우의 화면을 예시하고 있다. 도 10c에 도시된 바와 같이 에어 제스처를 나타내는 손이 근접 영역 안에 일정 시간 동안 부재 시에는 즉, 지정된 시간 이후에도 손(1010)이 검출되지 않는 경우에는 에어 제스처 모드는 자동으로 종료될 수 있으며, 이에 따라 에어 제스처의 활성화 여부를 나타내는 아이콘(1030)의 색은 비활성화 상태를 나타내기 위한 색 예컨대, 연회색으로 변경되어 표시될 수 있다.
도 10a 내지 도 10c에서와 같이 에어 제스처를 수행하는 손이 전자 장치(101)의 근접 영역에서 검출되는지 여부에 따라 어플리케이션 실행 화면 상에 에어 제스처 활성화 여부를 나타내는 아이콘(또는 인디케이터들)의 표시 상태가 달라질 수 있다.
도 11a는 일 실시 예에 따른 에어 제스처에 기반한 펜 속성 변경 동작을 설명하기 위한 화면 예시도이다. 도 11a에 도시된 바와 같이 에어 제스처 활성화 여부를 나타내는 아이콘(1105)에 의해 에어 제스처 모드가 활성화된 상태임을 나타내는 경우, 사용자는 한 손(1110)을 이용하여 원하는 에어 제스처를 취할 수 있으며, 상기 에어 제스처에 대응하여 스타일러스 펜(201)의 포인터 위치에 오버레이 형태로 변경 가능한 펜 속성을 포함하는 아이콘 패널(1100)이 표시될 수 있다. 예를 들어, 에어 제스처의 정도 예를 들어, 회전 제스처의 회전 방향 및 회전 정도에 대응하여 브러쉬의 종류들 간에 실시간 이동(1100)이 가능할 수 있다. 이러한 UI(1100)는 에어 제스처에 대응하여 브러쉬 종류가 선택되면 예를 들어, N초 후 사라질 수 있다.
도 11b는 일 실시 예에 따른 펜 속성 변경에 따른 아이콘 패널을 제공하는 화면 예시도이다. 도 11b에 도시된 바와 같이 에어 제스처에 대응하여 브러쉬 종류가 선택되면 선택된 브러쉬를 나타내는 아이콘 패널(1115)을 일정 시간 동안(예: N초)만 팝업시킬 수 있다. 이때, 에어 제스처를 이용한 브러쉬 선택이 완료된 상태이기 때문에 화면 상에는 에어 제스처 활성화 여부를 나타내는 아이콘(1120)의 색이 변경될 수 있다. 예컨대, 브러쉬 종류, 현재 컬러와 같은 선택된 브러쉬 정보를 일시적으로 보여준 후 도 11c에 도시된 바와 같이 사라지도록 할 수 있다. 여기서, 도 11c는 일 실시 예에 따른 펜 속성 변경에 따른 아이콘 패널의 숨김 상태를 나타내는 화면 예시도이다. 도 11c에 도시된 바와 같이 전자 장치(101)는 화면의 일측면에 아이콘 패널(1125)을 숨김 상태로 표시할 수 있으며, 에어 제스처 활성화 여부를 나타내는 아이콘(1120)의 색을 유지시킬 수 있다.
상기한 도 11a 내지 도 11c에 도시된 바와 같이 에어 제스처 입력 시 일시적으로 표시되는 아이콘 패널을 제공함으로써 사용자에게 현재 설정된 펜 속성을 알려줌과 동시에 사용자 입장에서는 드로잉을 끊김 없이 이어서 할 수 있다. 상기한 바 이외에 도 12에 도시된 바와 같이 호버링 상태에 따라 일시적으로 표시되는 아이콘 패널을 제공할 수도 있다.
도 12는 일 실시 예에 따른 호버링에 따른 아이콘 패널의 표시 동작을 설명하기 위한 화면 예시도이다. 도 12에서는 호버링 중, N초 동안 호버링이 없을 경우, 다시 호버링이 입력되는 경우에 따라 아이콘 패널의 표시가 달라지는 경우를 예시하고 있다. 예를 들어, 사용자가 스타일러스 펜(201)을 이용하여 글씨 또는 그림을 그리다가 일시적으로 화면에서 스타일러스 펜(201)을 떼었지만 다시 글씨를 쓰거나 그림을 그리는 경우가 있을 수 있다. 이러한 경우, 전자 장치(101)는 스타일러스 펜(201)을 떼기 직전까지 사용하던 스타일러스 펜(201)의 속성이 무엇인지 알 수 있도록 아이콘 패널을 일시적으로 표시할 수 있다.
일 실시 예에 따르면, 도 12에 도시된 바와 같이 전자 장치(101)는 호버링 중에는 아이콘 패널(1205)을 숨김 상태로 표시할 수 있으며, 호버링이 해제되어 N초 동안 호버링 없을 시 화면의 적어도 일부 예컨대, 화면 왼쪽 상단에 현재 펜 속성을 나타내는 아이콘 패널(1210)을 표시한 후, 다시 호버링이 있으면 아이콘 패널(1215)을 숨김 상태로 표시할 수 있다. 상기한 바와 같이 스타일러스 펜(201)을 사용하기 직전에 현재 펜 속성을 알려줌으로써 사용자 입장에서는 현재 어떠한 펜을 사용 중이었는지를 알 수 있다.
도 13a는 일 실시 예에 따른 오른손 모드용 화면 예시도이다.
도 13a에 도시된 바와 같이, 전자 장치(101)의 왼쪽 방향에 해당하는 영역에서 사용자 왼손에 의한 에어 제스처(1310a)가 검출되면, 상기 스타일러스 펜 속성과 관련된 항목을 상기 스타일러스 펜(201)을 사용하는 오른손 모드에 대응되도록 재배열하여 표시할 수 있다. 예를 들어, 아이콘 패널 상의 일부 툴(1305, 1315)이 오른손 모드에 대응되도록 위치가 재배치될 수 있으며, 옵션 순서를 좌/우를 플립(flip)할 수도 있다. 이에 따라 왼손에 의한 에어 제스처 검출 시에는 제1 화면(1320)에서와 같이 가장 자주 사용하는 툴(1325)이 왼쪽에 배치된 아이콘 패널이 표시될 수 있다. 또한, 제2 화면(1330)에서와 같이 숨김 상태의 아이콘 패널(1335)도 왼쪽에 위치하도록 배치될 수 있다.
도 13b는 일 실시 에에 따른 왼손 모드용 화면 예시도이다. 도 13b에 도시된 바와 같이, 전자 장치(101)의 오른쪽 방향에 해당하는 영역에서 사용자 오른손에 의한 에어 제스처(1310b)가 검출되면, 상기 스타일러스 펜 속성과 관련된 항목을 상기 스타일러스 펜(201)을 사용하는 왼손 모드에 대응되도록 재배열하여 표시할 수 있다. 예를 들어, 아이콘 패널(1340)은 오른쪽 방향으로 숨겨질 수 있으며, 제1 화면(1350)에서와 같이 왼손 모드에 대응되도록 아이콘 패널(1355)의 위치가 재배치될 수 있으며, 제2 화면(1360)에서와 같이 숨김 상태의 아이콘 패널(1365)도 오른쪽에 위치하도록 배치될 수 있다. 이러한 오른손 또는 왼손 모드용 화면 전환은 사용자의 조작이 용이하게 하기 위한 것으로, 호버링이 없는 경우에 오른손으로 직접적인 화면 인터페이스 조작에 용이할 수 있다.
상기한 바와 같이 전자 장치(101)는 에어 제스처가 상기 전자 장치의 왼쪽 방향에 해당하는 영역에서 검출되면, 상기 스타일러스 펜(201) 속성과 관련된 항목을 오른손 모드에 대응되도록 재배열하여 표시할 수 있다. 이와 반대로 에어 제스처가 상기 전자 장치의 오른쪽 방향에 해당하는 영역에서 검출되면, 전자 장치(101)는 상기 스타일러스 펜(201) 속성과 관련된 항목을 왼손 모드에 대응되도록 재배열하여 표시할 수 있다.
도 14는 일 실시 예에 따른 스타일러스 펜 탈거 시 에어 제스처를 이용한 동작을 설명하기 위한 화면 예시도이다.
도 14의 1400a에 도시된 바와 같이 스타일러스 펜(201)은 전자 장치(101)의 수납 공간으로부터 탈거(1405)될 수 있다. 예를 들어, 사용자는 전자 장치(101)의 수납 공간으로부터 스타일러스 펜(201)을 꺼낼 수 있다. 일 실시 예에 따르면, 전자 장치(101)는, 스타일러스 펜(201)의 탈거를 감지할 수 있다. 예를 들어, 전자 장치(101)는, 스타일러스 펜(201)으로부터의 신호 미수신에 기반하여 스타일러스 펜(201)의 탈거를 감지할 수 있으나, 탈거 감지 방법에는 제한이 없다. 반면, 스타일러스 펜(201)도, 스타일러스 펜(201)의 탈거를 감지할 수 있다. 예를 들어, 스타일러스 펜(201)은, 전자 장치(101)로부터의 신호 미수신에 기반하여 스타일러스 펜(201)의 탈거를 감지할 수 있으나, 탈거 감지 방법에는 제한이 없다.
만일 탈거가 감지된 경우, 도 14의 1400b에 도시된 바와 같이 화면(1420) 상에는 스타일러스 펜(201)과 관련하여 실행 가능한 복수의 어플리케이션들이 표시될 수 있다. 또는 스타일러스 펜(201)과 관련하여 자주 사용하는 어플리케이션들에 해당하는 아이콘들이 화면 상에 표시될 수도 있다. 일 실시 예에 따르면, 스타일러스 펜(201)과 관련하여 실행 가능한 복수의 어플리케이션들에는 새노트 작성, 모든 노트 보기, 스마트 셀렉트, 캡처 후 쓰기, 라이브 메시지, 번역기와 같은 다양한 기능들이 해당될 수 있다. 예를 들어, 스마트 셀렉트 기능의 경우 사용자는 스타일러스 펜(201) 대신 에어 제스처를 이용하여 원하는 영역을 선택하여 저장하거나 공유할 수 있다. 예를 들어, 캡처하고 싶은 콘텐츠가 있는 경우 스마트 셀렉트 기능을 선택한 후, 에어 제스처를 이용하여 캡처할 영역의 모양을 선택한 후 드래그하여 영역을 선택할 수 있다.
도 14의 1400b에 도시된 바와 같이, 전자 장치(101)는 복수의 어플리케이션들 중 스마트 셀렉트 기능을 선택하는 사용자에 의한 에어 제스처(1410)를 인식하면, 스마트 셀렉트 기능(1425)이 선택되었음을 표시할 수 있다. 이어, 스마트 셀렉트 기능(1425)의 선택에 대응하여 스마트 셀렉트 기능을 실행한 후, 예를 들어, 캡처할 영역을 드래그하는 동작을 나타내는 에어 제스처에 대응하여 영역을 선택할 수 있으며, 상기 에어 제스처와는 다른 에어 제스처가 추가로 입력되는 경우 선택된 영역에 대해 추가로 입력된 에어 제스처에 맵핑된 동작을 수행할 수 있다. 이러한 각 에어 제스처에 맵핑되는 동작은 스타일러스 펜(201)에 의한 호버링 상태인 경우와 호버링 상태가 아닌 경우에 따라 달라질 수 있다. 예를 들어, 호버링 상태에서 에어 제스처가 입력되는 경우에는, 에어 제스처를 식별하여, 식별된 에어 제스처를 기반으로 영역을 선택할 수 있다. 즉, 선택된 영역의 모양이 에어 제스처의 형태에 의해 달라질 수 있다. 예를 들어, 호버링이 없는 상태에서 에어 제스처가 입력되는 경우에는 입력된 에어 제스처에 맵핑된 예컨대, 선택한 영역을 공유하거나 갤러리에 저장하는 기능과 같이 스마트 셀렉트 기능의 하위 기능들 중 어느 하나가 수행될 수 있다.
도 15는 일 실시 예에 따른 에어 제스처를 이용한 번역기 동작을 설명하기 위한 화면 예시도이다.
도 15를 참조하면, 전자 장치(101)는 복수의 어플리케이션들 중 번역기 기능이 실행된 상태에서 에어 제스처가 수신되면, 에어 제스처를 확인하여 에어 제스처에 대응하여 번역기 기능에 맵핑된 동작을 수행할 수 있다. 예를 들어, 에어 제스처(1510)를 이용하여 번역기의 언어(1515)를 변경하거나 번역할 부분을 선택(1520)한 후 번역을 실행하도록 제어할 수 있다. 예를 들어, 전자 장치(101)는 번역이 필요한 단어 위에 스타일러스 펜(201)을 가까이 가져간 상태에서 에어 제스처가 수신되는 경우, 번역 결과를 표시할 수 있다.
또한, 예를 들어, 번역하고 싶은 단어나 문장이 있는 경우 전자 장치(101)로부터 스타일러스 펜(201)이 탈거된 상태에서 에어 제스처를 이용하여 번역기 기능을 실행시킬 수 있으며, 번역기 기능이 실행된 상태에서 다른 에어 제스처가 입력되는 경우 상기 다른 에어 제스처에 대응하여 화면 상단에 표시되는 창에서 사용할 언어가 자동으로 변경될 수도 있다. 이때, 번역 텍스트 선택 단위를 단어 또는 문장으로 변경할 수 있는데, 이러한 변경도 에어 제스처에 의해 설정될 수 있다. 다만, 이는 예시적인 것으로, 다양한 실시 예에 따른 전자 장치(101)는 에어 제스처에 매핑 가능한 스타일러스 펜(201)과 관련한 다양한 기능들은 이에 한정되지 않을 수 있다. 즉, 상술한 에어 제스처에 따른 동작은 단순히 예시적인 것으로, 에어 제스처에 매핑 가능한 스타일러스 펜 관련한 동작들은 이에 한정되지 않는다.
본 문서에 개시된 다양한 실시 예에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시 예 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시 예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시 예는 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시 예에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시 예에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
명령들을 저장하고 있는 저장 매체에 있어서, 상기 명령들은 적어도 하나의 프로세서에 의하여 실행될 때에 상기 적어도 하나의 프로세서로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 상기 적어도 하나의 동작은, 적어도 하나의 센서에 의해 상기 전자 장치의 근접 영역에서 에어 제스처에 대응하는 제1 입력 신호 및 스타일러스 펜에 의한 입력에 대응하는 제2 입력 신호 중 적어도 하나가 검출되는지를 식별하는 동작, 상기 제2 입력 신호가 검출되지 않는 상태에서 상기 제1 입력 신호의 검출에 대응하여, 화면 표시와 관련된 제1 기능을 제어하는 동작, 및 상기 제2 입력 신호가 검출되는 상태에서 상기 제1 입력 신호의 검출에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 제어하는 동작을 포함할 수 있다.
그리고 본 명세서와 도면에 발명된 본 발명의 실시 예들은 본 발명의 실시 예에 따른 기술 내용을 쉽게 설명하고 본 발명의 실시 예의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 실시 예의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 다양한 실시 예의 범위는 여기에 발명된 실시 예들 이외에도 본 발명의 다양한 실시 예의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 다양한 실시 예의 범위에 포함되는 것으로 해석되어야 한다.

Claims (15)

  1. 전자 장치에 있어서,
    센싱 패널을 포함하는 표시 장치;
    적어도 하나의 센서;
    상기 표시 장치 및 상기 적어도 하나의 센서와 작동적으로 연결된 적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 작동적으로 연결된 메모리를 포함하며,
    상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가,
    상기 적어도 하나의 센서에 의해 상기 전자 장치의 근접 영역에서 에어 제스처에 대응하는 제1 입력 신호가 검출되고, 상기 센싱 패널을 통해 상기 스타일러스 펜에 의한 입력에 대응하는 제2 입력 신호가 검출되지 않으면, 상기 제1 입력 신호에 대응하여 화면 표시와 관련된 제1 기능을 제어하고,
    상기 제2 입력 신호가 검출된 상태에서 상기 제1 입력 신호가 검출되면, 상기 제1 입력 신호에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 제어하도록 구성된 인스트럭션들을 저장하는, 전자 장치.
  2. 제1항에 있어서, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서가,
    상기 전자 장치로부터 상기 스타일러스 펜의 탈거가 감지된 이후에, 상기 제1 입력 신호 및 상기 제2 입력 신호 중 적어도 하나가 검출되는지를 식별하도록 구성된, 전자 장치.
  3. 제1항에 있어서, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서가,
    상기 제2 입력 신호가 검출된 상태에서 상기 제1 입력 신호가 검출되면, 상기 제1 입력 신호에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 변경하도록 제어하며,
    상기 변경된 제2 기능에 대한 정보를 지정된 시간 동안 상기 표시 장치 상에 표시한 후 제거되도록 구성된, 전자 장치.
  4. 제1항에 있어서, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서가,
    상기 전자 장치로부터 상기 스타일러스 펜의 탈거가 감지되면, 상기 스타일러스 펜과 관련된 실행 가능한 복수의 어플리케이션들을 표시하고, 상기 복수의 어플리케이션들 중 상기 제1 입력 신호에 대응하여 어느 하나의 어플리케이션의 기능을 변경하도록 구성된, 전자 장치.
  5. 제1항에 있어서, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서가,
    상기 스타일러스 펜의 버튼이 눌러진 상태임을 나타내는 제3 입력 신호가 감지된 상태에서 상기 제1 입력 신호가 검출되면, 상기 제1 입력 신호에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 변경하도록 구성된, 전자 장치.
  6. 제1항에 있어서, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서가,
    상기 스타일러스 펜의 버튼이 눌러진 상태임을 나타내는 제3 입력 신호가 감지된 이후, 상기 스타일러스 펜의 상기 버튼이 릴리즈된 상태임을 나타내는 제4 입력 신호가 감지되기 전까지 상기 제1 입력 신호에 기반하여 상기 스타일러스 펜과 관련된 제2 기능을 실시간으로 변경하도록 구성된, 전자 장치.
  7. 제1항에 있어서, 상기 화면 표시와 관련된 제1 기능은,
    실행 중인 어플리케이션 화면에 대한 제어 기능이며, 상기 스타일러스 펜과 관련된 제2 기능은, 상기 스타일러스 펜 속성과 관련된 기능인, 전자 장치.
  8. 제1항에 있어서, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서가,
    상기 전자 장치로부터 상기 스타일러스 펜의 탈거가 감지된 이후에, 상기 제1 입력 신호가 검출되면, 상기 표시 장치에 표시되는 어플리케이션 실행 화면 상에 상기 에어 제스처 활성화 상태를 나타내는 아이콘을 표시하며,
    상기 에어 제스처 활성화 상태를 나타내는 아이콘을 표시한 후, 상기 제1 입력 신호가 일정 시간 동안 검출되지 않으면, 상기 에어 제스처의 비활성화 상태를 나타내는 아이콘을 상기 표시 장치에 표시되는 어플리케이션 실행 화면 상에 표시하도록 구성된, 전자 장치.
  9. 제1항에 있어서, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서가,
    상기 제1 입력 신호를 상기 전자 장치의 왼쪽 방향에 해당하는 영역에서 검출하면, 상기 스타일러스 펜과 관련된 제2 기능에 대한 적어도 하나의 항목을 오른손 모드에 대응되도록 상기 전자 장치의 표시 장치 상에 재배열하며,
    상기 제1 입력 신호를 상기 전자 장치의 오른쪽 방향에 해당하는 영역에서 검출하면, 상기 스타일러스 펜과 관련된 제2 기능에 대한 적어도 하나의 항목을 왼손 모드에 대응되도록 상기 전자 장치의 표시 장치 상에 재배열하도록 구성된, 전자 장치.
  10. 전자 장치에서 에어 제스처에 의한 스타일러스 펜과 연관된 기능을 제어하기 위한 방법에 있어서,
    적어도 하나의 센서에 의해 상기 전자 장치의 근접 영역에서 에어 제스처에 대응하는 제1 입력 신호 및 스타일러스 펜에 의한 입력에 대응하는 제2 입력 신호 중 적어도 하나가 검출되는지를 식별하는 동작;
    상기 제2 입력 신호가 검출되지 않는 상태에서 상기 제1 입력 신호의 검출에 대응하여, 화면 표시와 관련된 제1 기능을 제어하는 동작; 및
    상기 제2 입력 신호가 검출되는 상태에서 상기 제1 입력 신호의 검출에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 제어하는 동작을 포함하는, 에어 제스처에 의한 스타일러스 펜과 연관된 기능을 제어하기 위한 방법.
  11. 제10항에 있어서, 상기 제1 입력 신호 및 상기 제2 입력 신호 중 적어도 하나가 검출되는지를 식별하는 동작은,
    상기 전자 장치로부터 상기 스타일러스 펜의 탈거가 감지된 이후에, 상기 제1 입력 신호 및 상기 제2 입력 신호 중 적어도 하나가 검출되는지를 식별하는 동작을 포함하는, 에어 제스처에 의한 스타일러스 펜과 연관된 기능을 제어하기 위한 방법.
  12. 제10항에 있어서, 상기 제2 입력 신호가 검출되는 상태에서 상기 제1 입력 신호의 검출에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 제어하는 동작은,
    상기 제2 입력 신호가 검출되는 동안 상기 제1 입력 신호에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 변경하도록 제어하는 동작; 및
    상기 변경된 제2 기능에 대한 정보를 지정된 시간 동안 표시한 후 제거하는 동작을 포함하는, 에어 제스처에 의한 스타일러스 펜과 연관된 기능을 제어하기 위한 방법.
  13. 제10항에 있어서,
    상기 전자 장치로부터 상기 스타일러스 펜의 탈거가 감지되면, 상기 스타일러스 펜과 관련된 실행 가능한 복수의 어플리케이션들을 표시하는 동작; 및
    상기 복수의 어플리케이션들 중 상기 제1 입력 신호에 대응하여 어느 하나의 어플리케이션의 기능을 변경하는 동작을 더 포함하는, 에어 제스처에 의한 스타일러스 펜과 연관된 기능을 제어하기 위한 방법.
  14. 제10항에 있어서,
    상기 스타일러스 펜의 버튼이 눌러진 상태임을 나타내는 제3 입력 신호가 검출된 상태에서 상기 제1 입력 신호가 검출되면, 상기 제1 입력 신호에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 변경하는 동작을 더 포함하는, 에어 제스처에 의한 스타일러스 펜과 연관된 기능을 제어하기 위한 방법.
  15. 제10항에 있어서,
    상기 스타일러스 펜의 버튼이 눌러진 상태임을 나타내는 제3 입력 신호가 검출된 이후, 상기 스타일러스 펜의 상기 버튼이 릴리즈된 상태임을 나타내는 제4 입력 신호가 감지되기 전까지 상기 제1 입력 신호에 기반하여 상기 스타일러스 펜과 관련된 제2 기능을 실시간으로 변경하는 동작을 더 포함하는, 에어 제스처에 의한 스타일러스 펜과 연관된 기능을 제어하기 위한 방법.
PCT/KR2021/003405 2020-03-19 2021-03-19 에어 제스처에 의한 스타일러스 펜과 연관된 기능을 제어하기 위한 전자 장치, 그 동작 방법 WO2021187935A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0033863 2020-03-19
KR1020200033863A KR20210117540A (ko) 2020-03-19 2020-03-19 에어 제스처에 의한 스타일러스 펜과 연관된 기능을 제어하기 위한 전자 장치, 그 동작 방법 및 저장 매체

Publications (1)

Publication Number Publication Date
WO2021187935A1 true WO2021187935A1 (ko) 2021-09-23

Family

ID=77771508

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/003405 WO2021187935A1 (ko) 2020-03-19 2021-03-19 에어 제스처에 의한 스타일러스 펜과 연관된 기능을 제어하기 위한 전자 장치, 그 동작 방법

Country Status (2)

Country Link
KR (1) KR20210117540A (ko)
WO (1) WO2021187935A1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140046319A (ko) * 2012-10-10 2014-04-18 삼성전자주식회사 멀티 디스플레이 장치 및 멀티 디스플레이 방법
KR20140076261A (ko) * 2012-12-12 2014-06-20 삼성전자주식회사 펜을 이용한 사용자 인터페이스 제공 단말 및 방법
KR20150014083A (ko) * 2013-07-29 2015-02-06 삼성전자주식회사 전자 장치 및 전자 장치의 입력 인식 방법
KR20160102811A (ko) * 2015-02-23 2016-08-31 엘지전자 주식회사 손목착용형 디바이스를 착용한 손의 제스처를 통해 필기관련 기능을 제어할 수 있는 이동 단말기 및 그 제어방법
US20170115844A1 (en) * 2015-10-24 2017-04-27 Microsoft Technology Licensing, Llc Presenting control interface based on multi-input command
KR101967632B1 (ko) * 2012-02-13 2019-04-11 삼성전자주식회사 사용자 인터페이스를 가진 태블릿

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101967632B1 (ko) * 2012-02-13 2019-04-11 삼성전자주식회사 사용자 인터페이스를 가진 태블릿
KR20140046319A (ko) * 2012-10-10 2014-04-18 삼성전자주식회사 멀티 디스플레이 장치 및 멀티 디스플레이 방법
KR20140076261A (ko) * 2012-12-12 2014-06-20 삼성전자주식회사 펜을 이용한 사용자 인터페이스 제공 단말 및 방법
KR20150014083A (ko) * 2013-07-29 2015-02-06 삼성전자주식회사 전자 장치 및 전자 장치의 입력 인식 방법
KR20160102811A (ko) * 2015-02-23 2016-08-31 엘지전자 주식회사 손목착용형 디바이스를 착용한 손의 제스처를 통해 필기관련 기능을 제어할 수 있는 이동 단말기 및 그 제어방법
US20170115844A1 (en) * 2015-10-24 2017-04-27 Microsoft Technology Licensing, Llc Presenting control interface based on multi-input command

Also Published As

Publication number Publication date
KR20210117540A (ko) 2021-09-29

Similar Documents

Publication Publication Date Title
WO2020045947A1 (en) Electronic device to control screen property based on distance between pen input device and electronic device and method of controlling same
WO2021020777A1 (en) Electronic device for identifying gesture performed by stylus pen and method for operating the same
WO2020013528A1 (ko) 플렉서블 디스플레이 및 이를 포함하는 전자 장치
WO2019168318A1 (en) Electronic device and fingerprint authentication interface method thereof
WO2015002440A1 (en) Method for switching digitizer mode
WO2014129813A1 (ko) 터치 스크린에 디스플레이되는 아이콘을 제어하는 휴대 단말 및 방법
WO2014112777A1 (en) Method for providing haptic effect in portable terminal, machine-readable storage medium, and portable terminal
WO2020130424A1 (en) Method and electronic device for interacting between multiple areas of a display
WO2020032720A1 (en) Electronic device including button and method for operation in electronic device
WO2020159299A1 (en) Electronic device and method for mapping function of electronic device to operation of stylus pen
WO2020032524A1 (ko) 전자 장치와 연결된 스타일러스 펜과 연관된 정보를 출력하기 위한 장치 및 그에 관한 방법
WO2021020851A1 (en) Electronic device identifying gesture with stylus pen and method for operating the same
WO2020159308A1 (en) Electronic device and method for mapping function to button input
WO2020076055A1 (en) Electronic device including pen input device and method of operating the same
WO2020091538A1 (ko) 저전력 상태에서 디스플레이를 통해 화면을 표시하기 위한 전자 장치 및 그의 동작 방법
WO2020027483A1 (en) Electronic device including digital pen
WO2021187837A1 (ko) 원격 인터렉션 제어 방법 및 전자 장치
WO2021025329A1 (en) Electronic device including display and sensor
WO2020027412A1 (ko) 스타일러스 펜을 이용한 입력을 처리하는 방법 및 그 전자 장치
WO2022164200A1 (ko) 전자 장치 및 전자 장치에서 스트로크 분석 기반 도형 인식 방법
WO2020013542A1 (ko) 전자 장치 및 전자 장치의 기능 수행 방법
WO2022154423A1 (ko) 전자 장치 및 전자 장치에서 스타일러스 펜의 입력을 처리하는 방법
WO2021187935A1 (ko) 에어 제스처에 의한 스타일러스 펜과 연관된 기능을 제어하기 위한 전자 장치, 그 동작 방법
WO2021172791A1 (ko) 전자 장치 및 이를 이용한 시각적 효과 제공 방법
WO2021025457A1 (ko) 스타일러스 펜을 인식하는 전자 장치 및 그 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21770593

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21770593

Country of ref document: EP

Kind code of ref document: A1