WO2018117376A1 - 컨텐츠 운용 방법 및 이를 구현한 전자 장치 - Google Patents

컨텐츠 운용 방법 및 이를 구현한 전자 장치 Download PDF

Info

Publication number
WO2018117376A1
WO2018117376A1 PCT/KR2017/010289 KR2017010289W WO2018117376A1 WO 2018117376 A1 WO2018117376 A1 WO 2018117376A1 KR 2017010289 W KR2017010289 W KR 2017010289W WO 2018117376 A1 WO2018117376 A1 WO 2018117376A1
Authority
WO
WIPO (PCT)
Prior art keywords
voice
information
processor
content
electronic device
Prior art date
Application number
PCT/KR2017/010289
Other languages
English (en)
French (fr)
Inventor
김선옥
장성운
백성환
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US16/471,968 priority Critical patent/US11508383B2/en
Publication of WO2018117376A1 publication Critical patent/WO2018117376A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • G10L17/24Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6209Protecting access to data via a platform, e.g. using keys or access control rules to a single file or object, e.g. in a secure envelope, encrypted and accessed using a key, or with access control rules appended to the object itself
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques

Definitions

  • Various embodiments relate to a method and an apparatus for operating content.
  • the electronic device includes a fingerprint sensor or an iris sensor to increase security.
  • the electronic device provides various services (or functions) using voice recognition technology.
  • the speech recognition technology may include, for example, a technology for converting an acoustic speech signal obtained by an electronic device through a sound sensor such as a microphone into words or sentences.
  • speech recognition technology performs a task of removing noise after extracting an acoustic signal, and then performing speech recognition by extracting a feature of the speech signal and comparing it with a speech model database (DB). have.
  • DB speech model database
  • the electronic device provides various voice services (or voice recognition services) based on voice recognition technology.
  • the electronic device provides various life convenience services such as mobile search, schedule management, dialing, memo, or music playback based on a user's voice command.
  • the content hiding (or locking, password) function provided by each application of the electronic device may set whether to apply the hiding function to the selected content.
  • the user can set the hiding function (eg, on) or not (eg, off). You can use a common password to access hidden content. In other words, even when one content is to be checked, it may be possible to confirm the encryption of all contents of the encrypted application.
  • the electronic device or the application provides a function that can be visually confirmed by the user. Thus, other than the user can access the encrypted content only by knowing the password or secret pattern for the encrypted content, the encrypted content can be easily exposed to others.
  • Various embodiments may provide a method and apparatus for easily operating content using a voice of a user.
  • an electronic device includes a voice recognition unit, a memory, a display, and a processor operatively connected to the voice recognition unit, the memory, or the display, wherein the processor is a user recognized by the voice recognition unit. If the voice information of the includes a hidden command, obtain the password information for the content selected by the user, request the user to speak the obtained password information, based on the voice information received according to the request It may be set to encrypt the content.
  • an operation method of an electronic device including a voice recognition unit may include: recognizing voice information of a user using the voice recognition unit, and when the recognized voice information includes a hiding command, selected by the user. Obtaining cryptographic information about the content, requesting the user to utter the obtained cryptographic information, and encrypting the content based on voice information received according to the request.
  • a password may be generated based on characteristics of the content (for example, attribute information, metadata, and tag information), and the content may be hidden using user voice authentication.
  • security may be provided by making the hidden content accessible through speaker authentication using a user's voice.
  • the user may be prevented from accessing the hidden content by not informing the user that there is the hidden content.
  • FIG. 1 is a diagram illustrating an electronic device in a network environment according to various embodiments of the present disclosure.
  • FIG. 2 is a block diagram illustrating a configuration of an electronic device according to various embodiments of the present disclosure.
  • FIG. 3 is a block diagram illustrating a program module according to various embodiments.
  • FIG. 4 is a diagram illustrating a configuration of an electronic device according to various embodiments of the present disclosure.
  • FIG. 5 is a flowchart illustrating a method of operating an electronic device according to various embodiments of the present disclosure.
  • FIG. 6 is a diagram illustrating a user interface associated with content hiding according to various embodiments.
  • FIG. 7 is a flowchart illustrating a content encryption method using a user voice according to various embodiments.
  • FIG. 8 is a flowchart illustrating a password generation method of an electronic device according to various embodiments of the present disclosure.
  • FIG. 9 is a flowchart illustrating a content encryption method of an electronic device according to various embodiments of the present disclosure.
  • FIG. 10 is a flowchart illustrating a method of providing hidden content of an electronic device according to various embodiments of the present disclosure.
  • 11A and 11B illustrate a user interface for providing hidden content according to various embodiments.
  • FIG. 12 is a flowchart illustrating a content decryption method of an electronic device according to various embodiments of the present disclosure.
  • the expression “device configured to” may mean that the device “can” together with other devices or components.
  • processor configured (or configured to) perform A, B, and C may be implemented by executing a dedicated processor (eg, an embedded processor) to perform its operation, or one or more software programs stored in a memory device. It may mean a general purpose processor (eg, a CPU or an application processor) capable of performing the corresponding operations.
  • An electronic device may be, for example, a smartphone, a tablet PC, a mobile phone, a video phone, an e-book reader, a desktop PC, a laptop PC, a netbook computer, a workstation, a server, a PDA, a PMP. It may include at least one of a portable multimedia player, an MP3 player, a medical device, a camera, or a wearable device. Wearable devices may be accessory (e.g. watches, rings, bracelets, anklets, necklaces, eyeglasses, contact lenses, or head-mounted-devices (HMDs), textiles or clothing integrated (e.g.
  • HMDs head-mounted-devices
  • an electronic device may comprise, for example, a television, a digital video disk (DVD) player, Audio, Refrigerator, Air Conditioner, Cleaner, Oven, Microwave Oven, Washing Machine, Air Purifier, Set Top Box, Home Automation Control Panel, Security Control Panel, Media Box (e.g. Samsung HomeSync TM , Apple TV TM , or Google TV TM ) , A game console (eg, Xbox TM , PlayStation TM ), an electronic dictionary, an electronic key, a camcorder, or an electronic picture frame.
  • DVD digital video disk
  • the electronic device may include a variety of medical devices (e.g., various portable medical measuring devices such as blood glucose meters, heart rate monitors, blood pressure meters, or body temperature meters), magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), Computed tomography (CT), cameras or ultrasounds), navigation devices, global navigation satellite systems (GNSS), event data recorders (EDRs), flight data recorders (FDRs), automotive infotainment devices, ship electronics (E.g., various portable medical measuring devices such as blood glucose meters, heart rate monitors, blood pressure meters, or body temperature meters), magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), Computed tomography (CT), cameras or ultrasounds), navigation devices, global navigation satellite systems (GNSS), event data recorders (EDRs), flight data recorders (FDRs), automotive infotainment devices, ship electronics (E.g.
  • various portable medical measuring devices such as blood glucose meters, heart rate monitors, blood pressure meters, or body temperature meters
  • MRA magnetic resonance angiography
  • marine navigation systems gyro compasses, etc.
  • avionics security devices
  • vehicle head units industrial or household robots
  • drones drones
  • ATMs in financial institutions point of sale (POS) points in stores
  • POS point of sale
  • Internet of Things devices eg, light bulbs, various sensors, sprinkler devices, fire alarms, thermostats, street lights, toasters, exercise equipment, hot water tanks, heaters, boilers, etc.
  • an electronic device may be a part of a furniture, building / structure or automobile, an electronic board, an electronic signature receiving device, a projector, or various measuring devices (eg, water, electricity, Gas, or a radio wave measuring instrument).
  • the electronic device may be flexible or a combination of two or more of the aforementioned various devices.
  • Electronic devices according to embodiments of the present disclosure are not limited to the above-described devices.
  • the term user may refer to a person who uses an electronic device or a device (eg, an artificial intelligence electronic device) that uses an electronic device.
  • FIG. 1 is a diagram illustrating an electronic device 101 in a network environment 100 according to various embodiments.
  • the electronic device 101 may include a bus 110, a processor 120, a memory 130, an input / output interface 150, a display 160, and a communication interface 170.
  • the electronic device 101 may omit at least one of the components or additionally include other components.
  • the electronic device 101 may further include a voice recognition unit or a biometric sensor.
  • the bus 110 may include circuitry that connects the components 110-170 to each other and transfers communication (eg, control messages or data) between the components.
  • the processor 120 may include one or more of a central processing unit (CPU), an application processor (AP), or a communication processor (CP).
  • the processor 120 may execute, for example, an operation or data processing related to control and / or communication of at least one other component of the electronic device 101.
  • the memory 130 may include volatile and / or nonvolatile memory.
  • the memory 130 may store, for example, commands or data related to at least one other element of the electronic device 101.
  • the memory 130 may store software and / or a program 140.
  • the program 140 may include, for example, a kernel 141, middleware 143, an application programming interface (API) 145, an application program (or “application”) 147, or the like.
  • API application programming interface
  • application or “application”
  • At least a portion of kernel 141, middleware 143, or API 145 may be referred to as an operating system.
  • the kernel 141 may be a system resource (eg, used to execute an action or function implemented in, for example, other programs (eg, middleware 143, API 145, or application program 147).
  • the bus 110, the processor 120, or the memory 130 may be controlled or managed.
  • the kernel 141 may provide an interface for controlling or managing system resources by accessing individual components of the electronic device 101 from the middleware 143, the API 145, or the application program 147. Can be.
  • the middleware 143 may serve as an intermediary for allowing the API 145 or the application program 147 to communicate with the kernel 141 to exchange data.
  • the middleware 143 may process one or more work requests received from the application program 147 according to priority.
  • the middleware 143 may use system resources (eg, the bus 110, the processor 120, or the memory 130, etc.) of the electronic device 101 for at least one of the application programs 147. Prioritize and process the one or more work requests.
  • the API 145 is an interface for the application 147 to control functions provided by the kernel 141 or the middleware 143.
  • the API 145 may include at least the following: file control, window control, image processing, or character control. It can contain one interface or function (eg command).
  • the input / output interface 150 may transmit, for example, a command or data input from a user or another external device to other component (s) of the electronic device 101, or other components of the electronic device 101 ( Commands or data received from the device) can be output to the user or other external device.
  • Display 160 may be, for example, a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, or a microelectromechanical system (MEMS) display, or an electronic paper display. It may include.
  • the display 160 may display, for example, various types of content (eg, text, images, videos, icons, and / or symbols, etc.) to the user.
  • the display 160 may include a touch screen and may receive, for example, a touch, gesture, proximity, or hovering input using an electronic pen or a part of a user's body.
  • the communication interface 170 may establish communication between the electronic device 101 and an external device (eg, the first external electronic device 102, the second external electronic device 104, or the server 106). Can be.
  • the communication interface 170 may be connected to the network 162 through wireless or wired communication to communicate with an external device (eg, the second external electronic device 104 or the server 106).
  • Wireless communication may include, for example, LTE, LTE advance (LTE-A), code division multiple access (CDMA), wideband CDMA (WCDMA), universal mobile telecommunications system (UMTS), wireless broadband (WiBro), or global GSM (GSM). system for mobile communications), and the like.
  • the wireless communication is, for example, wireless fidelity (WiFi), Bluetooth, Bluetooth low energy (BLE), Zigbee (Nigital), near field communication (NFC), magnetic secure transmission (magnetic secure) transmission, radio frequency (RF), or body area network (BAN).
  • WiFi wireless fidelity
  • BLE Bluetooth low energy
  • Zigbee Zigbee
  • NFC near field communication
  • MSN magnetic secure transmission
  • RF radio frequency
  • BAN body area network
  • the wireless communication may include GNSS.
  • the GNSS may be, for example, a global positioning system (GPS), a global navigation satellite system (Glonass), a beidou navigation satellite system (hereinafter referred to as "Beidou”), or galileo, the European global satellite-based navigation system.
  • GPS global positioning system
  • Beidou a Bertdou navigation satellite system
  • Wired communication may include, for example, at least one of a universal serial bus (USB), a high definition multimedia interface (HDMI), a standard standard232 (RS-232), a power line communication, a plain old telephone service (POTS), and the like.
  • the network 162 may comprise a telecommunications network, for example at least one of a computer network (eg, LAN or WAN), the Internet, or a telephone network.
  • Each of the first and second external electronic devices 102 and 104 may be a device that is the same as or different from the electronic device 101. According to various embodiments of the present disclosure, all or part of operations executed in the electronic device 101 may be executed in another or a plurality of electronic devices (for example, the electronic devices 102 and 104 or the server 106). According to this, when the electronic device 101 needs to perform a function or service automatically or by request, the electronic device 101 may instead execute or execute the function or service by itself, or at least some function associated therewith.
  • the other electronic device may request the requested function or The additional function may be executed and the result may be transmitted to the electronic device 101.
  • the electronic device 101 may provide the requested function or service by processing the received result as it is or additionally.
  • Cloud computing distributed computing, or client-server computing techniques can be used.
  • FIG. 2 is a block diagram illustrating a configuration of an electronic device 201 according to various embodiments.
  • the electronic device 201 may include, for example, all or part of the electronic device 101 illustrated in FIG. 1.
  • the electronic device 201 may include one or more processors (eg, AP) 210, communication module 220, memory 230, sensor module 240, input device 250, display 260, interface 270. , An audio module 280, a camera module 291, a power management module 295, a battery 296, an indicator 297, and a motor 298.
  • the processor 210 may control, for example, a plurality of hardware or software components connected to the processor 210 by running an operating system or an application program, and may perform various data processing and operations.
  • the processor 210 may be implemented with, for example, a system on chip (SoC).
  • SoC system on chip
  • the processor 210 may further include a graphic processing unit (GPU) and / or an image signal processor.
  • the processor 210 may include at least some of the components illustrated in FIG. 2 (eg, the cellular module 221).
  • the processor 210 may load and process instructions or data received from at least one of other components (eg, nonvolatile memory) into the volatile memory, and store the result data in the nonvolatile memory.
  • the communication module 220 may have a configuration that is the same as or similar to that of the communication interface 170 of FIG. 1.
  • the communication module 220 may include, for example, a cellular module 221, a WiFi module 223, a Bluetooth module 225, a GNSS module 227, an NFC module 228, and an RF module 229. have.
  • the cellular module 221 may provide, for example, a voice call, a video call, a text service, or an internet service through a communication network.
  • the cellular module 221 may perform identification and authentication of the electronic device 201 in a communication network by using a subscriber identification module (eg, a SIM card) 224.
  • the cellular module 221 may perform at least some of the functions that the processor 210 may provide.
  • the cellular module 221 may include a communication processor (CP).
  • CP communication processor
  • the cellular module 221, the WiFi module 223, the Bluetooth module 225, the GNSS module 227, or the NFC module 228 may be one integrated chip. (IC) or in an IC package.
  • the RF module 229 may transmit / receive a communication signal (for example, an RF signal), for example.
  • the RF module 229 may include, for example, a transceiver, a power amp module (PAM), a frequency filter, a low noise amplifier (LNA), an antenna, or the like.
  • At least one of the cellular module 221, the WiFi module 223, the Bluetooth module 225, the GNSS module 227, or the NFC module 228 may transmit and receive an RF signal through a separate RF module.
  • Subscriber identification module 224 may include, for example, a card or embedded SIM that includes a subscriber identification module, and may include unique identification information (eg, integrated circuit card identifier (ICCID)) or subscriber information (eg, IMSI). (international mobile subscriber identity)).
  • ICCID integrated circuit card identifier
  • IMSI international mobile subscriber identity
  • the memory 230 may include, for example, an internal memory 232 or an external memory 234.
  • the internal memory 232 may include, for example, volatile memory (for example, DRAM, SRAM, or SDRAM), nonvolatile memory (for example, one time programmable ROM (OTPROM), PROM, EPROM, EEPROM, mask ROM, flash ROM).
  • the flash memory may include at least one of a flash memory, a hard drive, or a solid state drive (SSD)
  • the external memory 234 may be a flash drive, for example, a compact flash (CF) or a secure digital (SD). ), Micro-SD, Mini-SD, extreme digital (xD), multi-media card (MMC), memory stick, etc.
  • the external memory 234 may be functionally connected to the electronic device 201 through various interfaces. Or physically connected.
  • the sensor module 240 may measure, for example, a physical quantity or detect an operation state of the electronic device 201 and convert the measured or detected information into an electrical signal.
  • the sensor module 240 includes, for example, a gesture sensor 240A, a gyro sensor 240B, an air pressure sensor 240C, a magnetic sensor 240D, an acceleration sensor 240E, a grip sensor 240F, and a proximity sensor ( 240G), color sensor 240H (e.g., red (green, blue) sensor), biometric sensor 240I, temperature / humidity sensor 240J, illuminance sensor 240K, or UV (ultra violet) ) May include at least one of the sensors 240M.
  • sensor module 240 may include, for example, an e-nose sensor, an electromyography (EMG) sensor, an electrocardiogram (EEG) sensor, an electrocardiogram (ECG) sensor, Infrared (IR) sensors, iris sensors and / or fingerprint sensors.
  • the sensor module 240 may further include a control circuit for controlling at least one or more sensors belonging therein.
  • the electronic device 201 further includes a processor configured to control the sensor module 240 as part of or separately from the processor 210, while the processor 210 is in a sleep state. The sensor module 240 may be controlled.
  • the input device 250 may include, for example, a touch panel 252, a (digital) pen sensor 254, a key 256, or an ultrasonic input device 258.
  • the touch panel 252 may use at least one of capacitive, resistive, infrared, or ultrasonic methods, for example.
  • the touch panel 252 may further include a control circuit.
  • the touch panel 252 may further include a tactile layer to provide a tactile response to the user.
  • the (digital) pen sensor 254 may be, for example, part of a touch panel or may include a separate recognition sheet.
  • the key 256 may include, for example, a physical button, an optical key, or a keypad.
  • the ultrasonic input device 258 may detect ultrasonic waves generated by an input tool through a microphone (for example, the microphone 288) and check data corresponding to the detected ultrasonic waves.
  • Display 260 may include panel 262, hologram device 264, projector 266, and / or control circuitry to control them.
  • the panel 262 may be implemented to be, for example, flexible, transparent, or wearable.
  • the panel 262 may be configured with the touch panel 252 and one or more modules.
  • panel 262 may include a pressure sensor (or force sensor) capable of measuring the strength of the pressure on the user's touch.
  • the pressure sensor may be integrally implemented with the touch panel 252 or one or more sensors separate from the touch panel 252.
  • the hologram 264 may show a stereoscopic image in the air by using interference of light.
  • the projector 266 may display an image by projecting light onto a screen.
  • the screen may be located inside or outside the electronic device 201.
  • the interface 270 may include, for example, an HDMI 272, a USB 274, an optical interface 276, or a D-subminiature 278.
  • the interface 270 may be included in, for example, the communication interface 170 illustrated in FIG. 1. Additionally or alternatively, interface 270 may include, for example, a mobile high-definition link (MHL) interface, an SD card / multi-media card (MMC) interface, or an infrared data association (IrDA) compliant interface. have.
  • MHL mobile high-definition link
  • MMC Secure Digital Card
  • IrDA infrared data association
  • the audio module 280 may bidirectionally convert, for example, a sound and an electrical signal. At least some components of the audio module 280 may be included in, for example, the input / output interface 145 illustrated in FIG. 1.
  • the audio module 280 may process sound information input or output through, for example, a speaker 282, a receiver 284, an earphone 286, a microphone 288, or the like.
  • the camera module 291 is, for example, a device capable of capturing still images and moving images. According to one embodiment, the camera module 291 is one or more image sensors (eg, a front sensor or a rear sensor), a lens, an image signal processor (ISP) Or flash (eg, LED or xenon lamp, etc.).
  • ISP image signal processor
  • flash eg, LED or xenon lamp, etc.
  • the power management module 295 may manage power of the electronic device 201, for example.
  • the power management module 295 may include a power management integrated circuit (PMIC), a charger IC, or a battery or fuel gauge.
  • the PMIC may have a wired and / or wireless charging scheme.
  • the wireless charging method may include, for example, a magnetic resonance method, a magnetic induction method, an electromagnetic wave method, or the like, and may further include additional circuits for wireless charging, such as a coil loop, a resonance circuit, a rectifier, and the like. have.
  • the battery gauge may measure, for example, the remaining amount of the battery 296, the voltage, the current, or the temperature during charging.
  • the battery 296 may include, for example, a rechargeable cell and / or a solar cell.
  • the indicator 297 may display a specific state of the electronic device 201 or a part thereof (for example, the processor 210), for example, a booting state, a message state, or a charging state.
  • the motor 298 may convert electrical signals into mechanical vibrations, and may generate vibrations or haptic effects.
  • the electronic device 201 may be, for example, a mobile TV supporting device capable of processing media data according to a standard such as digital multimedia broadcasting (DMB), digital video broadcasting (DVB), or mediaFlo TM . : GPU).
  • DMB digital multimedia broadcasting
  • DVD digital video broadcasting
  • mediaFlo TM . : GPU mediaFlo TM .
  • Each of the components described in this document may be composed of one or more components, and the name of the corresponding component may vary according to the type of electronic device.
  • the electronic device eg, the electronic device 201) may include some components, omit additional components, or combine some of the components to form a single entity. It is possible to perform the same function of the previous corresponding
  • FIG. 3 is a block diagram of a program module according to various embodiments of the present disclosure.
  • the program module 310 may include an operating system and / or various applications running on the operating system for controlling resources related to the electronic device (eg, the electronic device 101).
  • the application program 147 may be included.
  • the operating system may include, for example, Android TM , iOS TM , Windows TM , Symbian TM , Tizen TM , or Bada TM .
  • the program module 310 may include the kernel 320 (eg, the kernel 141), the middleware 330 (eg, the middleware 143), and the API 360 (eg, the API 145).
  • At least a portion of the program module 310 may be preloaded on the electronic device or may be an external electronic device (eg, an electronic device ( 102, 104, server 106, etc.).
  • the kernel 320 may include, for example, a system resource manager 321 and / or a device driver 323.
  • the system resource manager 321 may perform control, allocation, or retrieval of system resources.
  • the system resource manager 321 may include a process manager, a memory manager, or a file system manager.
  • the device driver 323 may include, for example, a display driver, a camera driver, a Bluetooth driver, a shared memory driver, a USB driver, a keypad driver, a WiFi driver, an audio driver, or an inter-process communication (IPC) driver. .
  • IPC inter-process communication
  • the middleware 330 may provide various functions through the API 360, for example, to provide functions commonly required by the application 370, or to allow the application 370 to use limited system resources inside the electronic device. May be provided to the application 370.
  • the middleware 330 may include a runtime library 335, an application manager 341, a window manager 342, a multimedia manager 343, a resource manager 344, a power manager 345, and a database manager ( 346, a package manager 347, a connectivity manager 348, a notification manager 349, a location manager 350, a graphic manager 351, or a security manager 352.
  • the runtime library 335 may include, for example, a library module that the compiler uses to add new functionality through the programming language while the application 370 is running.
  • the runtime library 335 may perform input / output management, memory management, or arithmetic function processing.
  • the application manager 341 may manage, for example, the life cycle of the application 370.
  • the window manager 342 may manage GUI resources used on the screen.
  • the multimedia manager 343 may identify a format necessary for playing the media files, and may encode or decode the media file using a codec suitable for the format.
  • the resource manager 344 may manage space of source code or memory of the application 370.
  • the power manager 345 may manage, for example, the capacity or power of the battery and provide power information necessary for the operation of the electronic device. According to an embodiment of the present disclosure, the power manager 345 may interwork with a basic input / output system (BIOS).
  • BIOS basic input / output system
  • the database manager 346 may create, retrieve, or change a database to be used, for example, in the application 370.
  • the package manager 347 may manage installation or update of an application distributed in the form of a package file.
  • the connectivity manager 348 may manage, for example, a wireless connection.
  • the notification manager 349 may provide the user with events such as, for example, an arrival message, an appointment, a proximity notification, and the like.
  • the location manager 350 may manage location information of the electronic device, for example.
  • the graphic manager 351 may manage, for example, graphic effects to be provided to the user or a user interface related thereto.
  • the security manager 352 may provide system security or user authentication, for example.
  • the middleware 330 may include a telephony manager for managing a voice or video call function of the electronic device or a middleware module capable of forming a combination of functions of the above-described components. .
  • the middleware 330 may provide a module specialized for each type of operating system.
  • the middleware 330 may dynamically delete some of the existing components or add new components.
  • API 360 is, for example, a set of API programming functions, which may be provided in different configurations depending on the operating system. For example, in the case of Android or iOS, one API set may be provided for each platform, and in Tizen, two or more API sets may be provided for each platform.
  • the application 370 is, for example, a home 371, a dialer 372, an SMS / MMS 373, an instant message (IM) 374, a browser 375, a camera 376, an alarm 377. , Contacts 378, voice dials 379, emails 380, calendars 381, media players 382, albums 383, watches 384, health care (e.g., measures exercise or blood sugar, etc.) Or an application for providing environmental information (eg, barometric pressure, humidity, or temperature information).
  • the application 370 may include an information exchange application capable of supporting information exchange between the electronic device and the external electronic device.
  • the information exchange application may include, for example, a notification relay application for delivering specific information to the external electronic device, or a device management application for managing the external electronic device.
  • the notification delivery application may deliver notification information generated by another application of the electronic device to the external electronic device, or receive notification information from the external electronic device and provide the notification information to the user.
  • the device management application may be, for example, the ability of an external electronic device to communicate with the electronic device (e.g. turn-on / turn-off of the external electronic device itself (or some component) or the brightness (or resolution) of the display). Control), or install, delete, or update an application running on the external electronic device.
  • the application 370 may include an application (eg, a health care application of a mobile medical device) designated according to an attribute of the external electronic device.
  • the application 370 may include an application received from an external electronic device.
  • At least a portion of the program module 310 may be implemented (eg, executed) in software, firmware, hardware (eg, the processor 210), or a combination of at least two or more thereof, and a module for performing one or more functions; It can include a program, routine, instruction set, or process.
  • module includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic blocks, components, or circuits.
  • the module may be an integrally formed part or a minimum unit or part of performing one or more functions.
  • Modules may be implemented mechanically or electronically, for example, application-specific integrated circuit (ASIC) chips, field-programmable gate arrays (FPGAs), or known or future developments that perform certain operations. It can include a programmable logic device.
  • ASIC application-specific integrated circuit
  • FPGAs field-programmable gate arrays
  • At least a portion of an apparatus (eg, modules or functions thereof) or method (eg, operations) may be stored on a computer-readable storage medium (eg, memory 130) in the form of a program module. It can be implemented as.
  • the processor may perform a function corresponding to the command.
  • FIG. 4 is a diagram illustrating a configuration of an electronic device according to various embodiments of the present disclosure.
  • the electronic device 400 may include a processor 410, a voice recognition unit 411, a biometric sensor 430, and a memory 440. It may include a display 450 and a communication unit 420.
  • the processor 410 may recognize the detected voice, encrypt the selected content with the voice, and provide the encrypted content based on the voice of the user.
  • the content may include at least one of a text, an image, a video, a document, a file, an application, or a program.
  • the processor 410 may include a voice recognition unit 411, a voice encryption processing unit 413, or a speaker recognition unit 415.
  • the voice recognition unit 411 may serve to recognize a voice (eg, automatic speech recognition (ASR)) by processing a voice signal (eg, pre-processing) input through a microphone (eg, a microphone 288).
  • ASR automatic speech recognition
  • the speech recognition unit 411 may perform language processing (eg, natural language understanding (NLU)), dialogue management (DM), or text to speech (TTS) on the recognized speech. ) Can be performed.
  • the voice recognition unit 411 may interwork with a voice processing server for voice processing and voice recognition. That is, the voice recognition unit 411 may transmit a voice signal to the voice processing server and receive voice information (or text information corresponding to the voice information) from the voice processing server. The voice recognition unit 411 may transfer the recognized voice information to the voice encryption processing unit 413.
  • NLU natural language understanding
  • DM dialogue management
  • TTS text to speech
  • the voice password processing unit 413 may generate password information by using characteristics (eg, attribute information, metadata, tag information, etc.) of content selected by the user.
  • the voice encryption processing unit 413 may generate the encryption information by further considering the context information of the electronic device 400.
  • the voice encryption processing unit 413 may encrypt the selected content by voice using the voice information transmitted from the voice recognition unit 411. Encrypting the content may mean, for example, processing the content so that it is not visible to others other than the user. Therefore, content encryption may mean content hiding processing or content locking processing.
  • the speaker recognition unit 415 may recognize whether the voice information transmitted from the voice recognition unit 411 is the voice of the user. For example, when the voice information transmitted from the voice recognition unit 411 is a user's voice, the speaker recognition unit 415 may control to provide encrypted content. However, the speaker recognition unit 415 may control not to provide encrypted contents when the voice information transmitted from the voice recognition unit 411 is not the voice of the user. Alternatively, when the voice information transmitted from the voice recognition unit 411 is not the voice of the user, the speaker recognition unit 415 may request the user to recognize the biometric information.
  • the biometric sensor 430 may be a sensor that recognizes biometric characteristics of a user.
  • the biometric sensor 430 may include at least one of a voice recognition sensor, a retina recognition sensor, an iris recognition sensor, a face recognition sensor, or a fingerprint recognition sensor.
  • the biometric sensor 430 may transmit the recognized biometric information of the user to the processor 410.
  • the processor 410 may store cryptographic information and voice information corresponding to the cryptographic information in the memory 440.
  • the memory 440 may include a password storage unit for storing encryption information and voice information corresponding to the password information, and a content storage unit for storing contents encrypted with the voice information.
  • the memory 440 may store a voice command table corresponding to a voice of a user, a voice call command, a hidden command (or an encryption command, a lock command), a release command, or a content call command.
  • the memory 440 may further store biometric information.
  • the memory 440 may be the same as or similar to the memory 130 of FIG. 1 or the memory 230 of FIG. 2.
  • the processor 410 may display various user interfaces related to executed content or content encryption on the display 450. Such a display 450 may be the same as or similar to the display 160 of FIG. 1 or the display 260 of FIG. 2.
  • the processor 410 may exchange data with another electronic device or server connected to the electronic device 400 using the communication unit 420.
  • the communication unit 420 may be the same as or similar to the communication interface 170 of FIG. 1 or the communication module 220 of FIG. 2.
  • the electronic device 400 includes a voice recognition unit 411, a memory 440, a display 450, and a processor 410 functionally connected to the voice recognition unit, the memory, or the display.
  • the processor may acquire password information of the content selected by the user when the voice information of the user recognized by the voice recognition unit includes a hiding command, and utter the obtained password information to the user. Request and encrypt the content based on voice information received according to the request.
  • the processor may be configured to determine whether the voice information is a voice of an authenticated user and to generate the password information when the voice information is a voice of an authenticated user.
  • the processor may be configured to generate cryptographic information based on at least one or more information associated with the selected content.
  • the processor may be configured to generate the cryptographic information based on attribute information of the content or context information of the electronic device.
  • the processor may be configured to receive cryptographic information from the user.
  • the processor may be configured to store the encryption information and voice information corresponding to the encryption information in the memory in association with the contents.
  • the processor When the voice information recognized by the voice recognition unit is an encrypted content call instruction, the processor requests to utter encryption information associated with the encrypted content, and the voice information received according to the request is stored in the memory. It may be set to provide the encrypted content by determining whether it is the same as the encryption information.
  • the processor may be configured to provide encrypted content when the voice information received according to the request is the same as the voice information corresponding to the encryption information stored in the memory.
  • the electronic device further includes a biometric sensor 430, and the processor is further configured to, when the text information of the voice information received according to the request is not the same as the password information stored in the memory, the biometric information using the biometric sensor. It may be set to provide encrypted content through authentication.
  • the processor searches the content stored in the memory to determine whether the retrieved content is encrypted, and when the content is encrypted, the encrypted
  • the apparatus may be configured to provide encrypted content by requesting to utter cipher information associated with the content, and determining whether the voice information received according to the request is the same as the cipher information stored in the memory.
  • the processor When the voice information recognized by the voice recognition unit is an encrypted content release command, the processor requests to utter encryption information associated with the encrypted content, and the voice information received according to the request is stored in the memory. It may be set to decrypt the encrypted content by determining whether it is the same as the password information.
  • the processor may be configured to decrypt the encrypted content through biometric authentication using the biometric sensor when the text information of the voice information received according to the request is not the same as the encryption information stored in the memory. have.
  • FIG. 5 is a flowchart illustrating a method of operating an electronic device according to various embodiments of the present disclosure.
  • the electronic device 400 may detect a voice input.
  • the processor 410 eg, the voice recognition unit 411) may detect whether sound is input from the microphone (eg, the microphone 288).
  • the processor 410 may start a voice service (eg, activate a voice function) based on a voice wake-up method.
  • the processor 410 may further include a wake-up processing unit (or a wake-up engine).
  • the electronic device 400 includes a first processor in a low power mode including the wake-up processing unit, a voice recognition unit 411, a voice encryption processing unit 413, and a speaker recognition unit 415. It may include a second processor.
  • the processor 410 may use a specific voice command (eg, a word) as a voice call command (eg, a wake-up word), and before the voice call command is input, Speech recognition for user speech may not be performed.
  • the voice call command (eg, wake-up word) may include, for example, a name of an electronic device (or an agent (or artificial intelligence) of the electronic device).
  • a user In order to use a voice service in the electronic device 400, a user must include a voice call command for driving a voice recognition engine (eg, a voice agent), which is a wake-up command. may be referred to as a wake-up command or a wake-up word, when the electronic device recognizes a voice call command, the electronic device starts a speech recognition engine, and then recognizes a user's speech to provide a voice service.
  • the processor 410 may start a voice service based on a user input such as selecting a specific button (eg, a home button) or inputting a specific command.
  • the processor 410 eg, the voice recognition unit 411
  • the speech signal processing is a preprocessing process for speech recognition, and may mean, for example, converting sound into a speech signal.
  • the electronic device 400 may recognize a voice for the detected voice input.
  • the processor 410 for example, the speech recognizer 411
  • the speech recognizer 411 may process a language for the converted speech signal and convert the text into text (for example, speech to text). Since it is a technology, detailed description can be omitted.
  • the electronic device 400 may determine whether the recognized voice includes a hidden command (or an encryption command or a lock command). If the recognized voice includes a hidden command, the processor 410 may determine that the user has spoken with the intention of hiding the content.
  • the hiding command may be a command for encrypting content so that a person other than the user may not view the content.
  • the hidden command may include words such as 'hide', 'invisible', 'password', 'security', 'secret', and 'lock'.
  • the word for the hidden command may be stored in the memory 440 in advance.
  • the processor 410 eg, the voice encryption processing unit 413) may determine whether the text converted from the voice corresponds to a hidden command stored in the memory 440.
  • the processor 410 may perform operation 507 when at least some of the voice information converted to the voice corresponds to the hidden command, and when at least some of the voice information to which the voice is converted does not correspond to the hidden command. Operation 506 may be performed.
  • the electronic device 400 may perform a function corresponding to the recognized voice.
  • the processor 410 eg, the voice recognition unit 411) according to various embodiments may provide various functions (or services) corresponding to the recognized voice by using a voice recognition technology.
  • the processor 410 may provide various functions such as mobile search, schedule management, dialing, memo, or music playback based on the converted text.
  • the electronic device 400 may determine whether the recognized voice (or detected voice input) is the voice of an authenticated user.
  • the processor 410 eg, the speaker recognizer 415) according to various embodiments may identify a user's voice by using the voice signal. For example, the processor 410 may extract a specific frequency from the voice signal, and determine whether the extracted frequency matches a user-specific voice frequency. To this end, a memory frequency for the voice of the user may be stored in the memory 440. Operation 507 may be performed before speech recognition, that is, after operation 501.
  • the recognized voice when it is not a hidden command, since a general voice service is provided, it may not perform an operation of determining whether the voice of the authenticated user is the voice of the authenticated user. If a hidden command is input and the recognized voice is not the voice of the authenticated user, the processor 410 may not perform operations for encrypting content (eg, operations 509 to 515). Can be.
  • the processor 410 may perform operation 509 when the recognized voice matches the voice of an authenticated user, and perform operation 508 when the recognized voice does not match the voice of an authenticated user. have.
  • the electronic device 400 may notify that the recognized voice is an unauthenticated user.
  • the processor 410 eg, the speaker recognition unit 415) may inform that the recognized voice is not a user of the electronic device 400. For example, if the voice frequency associated with the voice of the user is not stored in the memory 440, the processor 410 may request the user to store the voice frequency.
  • the processor 410 may display a prompt message such as "Please perform voice authentication first" on the display 450, or guide message (for example, "Voice authentication first") through a speaker (for example, speaker 282). ) Can be output as voice.
  • the user may first authenticate his / her voice and then input the voice into the electronic device 400 as in operation 501.
  • the processor 410 may request to input the voice again.
  • the processor 410 may display a prompt message on the display 450, such as "Not an authorized user. Please perform voice input again.”
  • the processor 410 may output the prompt message through a speaker (for example, the speaker 282). Can be.
  • the user may input the voice to the electronic device 400 again as in operation 501.
  • the processor 410 may inform that the voice frequency stored in the memory 440 does not coincide with the recognized voice and thus cannot perform a process of encrypting content.
  • Processor 410 is not "Authenticated User. Shut down service.”
  • the guidance message such as, for example, may be displayed on the display 450, or the guidance message may be output as a voice through a speaker (eg, the speaker 282).
  • the user may input the voice to the electronic device 400 again as in operation 501. Others may know that they cannot use the service in their own voice and may not proceed further.
  • the electronic device 400 may generate cryptographic information according to a cryptographic generation method.
  • the processor 410 eg, the voice encryption processing unit 413 according to various embodiments may receive a content to be hidden from the user before performing the operation 501.
  • the content may include at least one of a text, an image, a video, a document, a file, an application, or a program.
  • the user may input a voice including a hidden command while the content to be hidden is at least partially displayed on the display 450.
  • the processor 410 may receive the content to be hidden from the user after performing the operation 507. For example, after performing operation 507, the processor 410 may provide a list of contents that can be hidden among the contents list currently executed in the electronic device 400 or the contents stored in the memory 440. The processor 410 may receive at least one content selected from the user in the content list.
  • the processor 410 may generate encryption information using attribute information of the content selected by the user or context information of the electronic device 400.
  • the attribute information of the content refers to information associated with the content, and may further include metadata or tag information.
  • the contextual information may be information obtained from the electronic device 400 when the content is generated (or obtained).
  • the situation information may include at least one of a date, a time, a location (eg, a geographic location), or a storage location.
  • the situation information may further include usage history information based on the usage history of the user.
  • the usage history information may include a user's most used application, a word used the most, information on the other party contacted the most.
  • the attribute information of the content may be at least one of a name, a size, a type, a creation date and time, a generation location, a generation mode, a generation method, a playback time, a storage location, album information, and memo information associated with the content.
  • the processor 410 may receive encryption information directly from a user.
  • the user can say the password information he / she wants or can directly through the keypad.
  • the processor 410 may receive cryptographic information through a microphone (eg, the microphone 288) or an input device (eg, the input device 250).
  • the electronic device 400 may display cryptographic information and request to speak.
  • the processor 410 eg, the voice password processing unit 413) may display the generated password information on the display 450 to guide the user to speak the displayed password information aloud. For example, when the cipher information is “Yeouido night view photo,” the processor 410 may display a utterance request message “Please read according to“ Yeouido night view photo ”” on the display 450. In addition, the processor 410 may output a voice of “Please read along the Yeouido night view photograph” through a speaker (eg, the speaker 282).
  • a speaker eg, the speaker 282
  • the electronic device 400 may receive voice information according to the speech.
  • the processor 410 eg, the voice recognition unit 411) may receive a voice from the user through a microphone (eg, the microphone 288) by operation 511.
  • the processor 410 may process the input voice to recognize the voice.
  • the processor 410 may transmit a voice signal for the input voice to a voice processing server and receive voice information (or text information corresponding to the voice information) from the voice processing server.
  • the electronic device 400 may encrypt content based on voice information.
  • the processor 410 eg, the voice encryption processing unit 413 may encrypt the content by using some or all of the obtained voice information, and store the encrypted content in the memory 440.
  • the processor 410 may display the result of the encrypted content.
  • the processor 410 may display a lock display image (eg, a lock icon) on the encrypted information of the encrypted content or the content as a result of the encrypted content.
  • the processor 410 may blur or shade the content as a result of the encrypted content.
  • FIG. 6 is a diagram illustrating a user interface associated with content hiding according to various embodiments.
  • the electronic device 400 may display the first user interface 610 including the content 611 on the display 450.
  • the processor 410 may receive a voice 613 from a user in the first user interface 610.
  • the voice 613 may be input through a microphone (eg, the microphone 288) provided at the lower end of the electronic device 400.
  • the processor 410 may transmit the processed voice signal for the voice 613 to the voice processing server, and receive voice information from the voice processing server.
  • the processor 410 may determine whether a hidden command is included in the voice information corresponding to the voice 613. When the hidden information is included in the voice information, the processor 410 may generate encryption information for encrypting the content 611 based on the information associated with the content 611.
  • the information associated with the content 611 may include attribute information (eg, a picture) of the content 611 or situation information (eg, time, location, usage history) of the electronic device 400.
  • the processor 410 may generate cryptographic information as a "Yeouido night view hidden file.”
  • the processor 410 may display the second user interface 620 on the display 450 including the content 621 and a speech request message 623 for content encryption.
  • the utterance request message 623 may be to provide a user with a guide message "Please read according to 'Yeouido night view hidden file'".
  • the processor 410 may output a speech request message 623 as a voice through a speaker (for example, the speaker 282).
  • the processor 410 may receive a voice from the user through a microphone (eg, the microphone 288) by the speech request message 623.
  • the processor 410 may transmit a voice signal for the input voice to a voice processing server and receive voice information from the voice processing server.
  • the processor 410 may encrypt content based on some or all of the voice information.
  • the processor 410 may encrypt the content based on the voice information, and display a result of the encrypted content. For example, the processor 410 may display a lock display image (eg, a lock icon) on the encrypted information of the encrypted content or the content as a result of the encrypted content.
  • a lock display image eg, a lock icon
  • FIG. 7 is a flowchart illustrating a content encryption method using a user voice according to various embodiments.
  • FIG. 7 is a further embodiment of the flowchart of FIG. 5.
  • the electronic device 400 may execute content.
  • the processor 410 may execute content by a command of a user.
  • the content may include at least one of a text, an image, a video, a document, a file, an application, and a program.
  • the processor 410 may display the executed content on the display 450.
  • the electronic device 400 may detect a voice input.
  • the processor 410 eg, the voice recognition unit 411) may detect whether sound is input from the microphone (eg, the microphone 288).
  • the processor 410 activates a voice recognition function (eg, voice service) when at least one of a voice call command (eg, wake-up word), a specific button selection, and a specific command input is detected. can do. Since operation 703 is the same as or similar to operation 501 of FIG. 5, a detailed description thereof will be omitted.
  • the electronic device 400 may recognize a voice for the detected voice input.
  • the processor 410 for example, the speech recognizer 411 may process a language for the converted speech signal and convert the language into text).
  • the processor 410 may be connected to a speech processing server for the speech recognition. Since operation 705 is the same as or similar to operation 503 of FIG. 5, a detailed description thereof will be omitted.
  • the electronic device 400 may determine whether a hidden command is included in the recognized voice.
  • the hidden command may include words such as 'hide', 'invisible', 'password', 'security', 'secret', and 'lock'.
  • the word for the hidden command may be stored in the memory 440 in advance.
  • the processor 410 eg, the voice encryption processing unit 413 may determine whether the text information corresponding to the recognized voice corresponds to the hidden command stored in the memory 440. Since operation 707 is the same as or similar to operation 505 of FIG. 5, a detailed description thereof will be omitted.
  • the processor 410 may perform operation 709 when at least some of the voice information converted to the voice corresponds to the hidden command, and at least some of the voice information to which the voice is converted does not correspond to the hidden command. Operation 708 may be performed.
  • the electronic device 400 may perform a function corresponding to the recognized voice.
  • the processor 410 for example, the voice recognition unit 411) according to various embodiments may provide various functions (or services) in response to the text information converted from the voice. For example, when the recognized voice is 'memo', the processor 410 may execute a memo application and provide a memo list.
  • the electronic device 400 may determine whether the recognized voice (or the detected voice input) is the voice of an authenticated user.
  • the voice of the authenticated user may mean a user who owns the electronic device 400.
  • the hiding command may be a request for the user to encrypt the content in order to prevent the content from being exposed to others except the user of the electronic device 400. Therefore, the processor 410 may not perform operations for encrypting content (for example, operations 509 to 515) when a hidden command is input by someone other than the user of the electronic device 400. have.
  • the processor 410 eg, the speaker recognizer 415) extracts a specific frequency from the voice signal, and determines whether the extracted frequency matches a user-specific voice frequency stored in the memory 440. can do.
  • Operation 709 may be performed before speech recognition, that is, after operation 703.
  • the operation 708 when the operation 708 is performed, the operation of determining whether the voice of the authenticated user is the voice of the authenticated user may not be performed.
  • the processor 410 may determine whether the voice input is the voice of an authenticated user only when a hidden instruction is included in the recognized voice to reduce unnecessary processing.
  • the processor 410 may determine whether the voice input is the voice of an authenticated user even when providing a voice service according to a user's setting or the setting of the electronic device 400. This is because, during the voice service, schedule management, dialing, and the like may be locked. In this case, the processor 410 may determine whether the recognized voice is the voice of the authenticated user before performing the voice service, and provide the voice service only when the voice of the authenticated user is. That is, the processor 410 may determine whether the recognized voice is the voice of the authenticated user before performing all voice services or when the voice service to be performed is locked by the user. In this case, operation 709 may be performed before operation 705. The processor 410 may provide a voice service when the recognized voice is the voice of an authenticated user and the hidden voice is not included in the recognized voice.
  • the processor 410 may perform operation 711 when the recognized voice matches the voice of an authenticated user, and perform operation 710 when the recognized voice does not match the voice of an authenticated user. have.
  • the electronic device 400 may notify that the recognized voice is an unauthenticated user.
  • the processor 410 eg, the speaker recognition unit 415) may inform that the recognized voice is not a user of the electronic device 400. For example, if the voice frequency associated with the voice of the user is not stored in the memory 440, the processor 410 may request the user to store the voice frequency. Alternatively, the processor 410 may request to input a voice again when the voice frequency stored in the memory 440 does not match the recognized voice. Alternatively, the processor 410 may inform that the voice frequency stored in the memory 440 does not coincide with the recognized voice and thus cannot perform a process of encrypting content.
  • the electronic device 400 may identify a password generation method.
  • the user encrypts the content on the electronic device 400
  • the user wants the electronic device 400 to automatically generate password information (for example, an automatic password generation method), or input a desired password for the user (for example, manual password generation). Method) may be set in advance in the electronic device 400.
  • the processor 410 may determine a password generation method set by the electronic device 400 to determine what the password generation method is desired by the user.
  • the processor 410 may provide a user interface for selecting a password generation method.
  • the user interface may include an automatic password generation button and a manual password generation button with a guide message 'Please select a password generation method'. If the user selects the automatic password generation button, the processor 410 may perform operation 715, and if the manual password generation button is selected, operation 717.
  • the electronic device 400 may determine whether automatic password generation.
  • the processor 410 performs operation 715 if the password generation method set in the electronic device 400 is an automatic password generation method, and performs operation 717 if the password generation method set in the electronic device 400 is a manual password generation method. Can be done.
  • One of operations 711 and 713 may be omitted. That is, the processor 410 may check the password generation method set in the electronic device 400, perform operation 715 in the case of automatic password generation, and perform operation 717 in the case of manual password generation. Alternatively, the processor 410 may perform operation 715 when the user selects the automatic password generation button in the user interface for selecting a password generation method, and perform operation 717 when the manual password generation button is selected. .
  • the electronic device 400 may generate encryption information based on information associated with the content.
  • the processor 410 may generate encryption information based on the characteristics of the content executed in operation 701, so that the user may easily memorize the password for the content.
  • the processor 410 may generate cryptographic information using attribute information of the content or context information of the electronic device 400.
  • the attribute information of the content refers to information associated with the content, and may further include metadata or tag information.
  • the context information may be information obtained from the electronic device 400 when the content is generated.
  • the situation information may include at least one of a date, a time, a location, and a storage location.
  • the situation information may further include usage history information based on the usage history of the user.
  • the attribute information of the content may be at least one of a name, a size, a type, a creation date, a generation location, a generation mode, a generation method, a playing time, a storage location, album information, and memo information associated with the content.
  • the processor 410 may generate the cipher information in consideration of all or a part of a plurality of content attribute information or a plurality of context information.
  • the automatic password generation method will be described in detail with reference to FIG. 8 to be described later.
  • the electronic device 400 may receive an input of password information from a user.
  • the user may speak his or her desired password information or directly via the keypad.
  • the processor 410 may receive cryptographic information through a microphone (eg, the microphone 288) or an input device (eg, the input device 250).
  • a manual password generation method will be described in detail with reference to FIG. 8 to be described later.
  • the electronic device 400 may encrypt the content based on the voice information associated with the encryption information.
  • the manually generated password information may be voice or text, but the automatically generated password information may be text information.
  • the cipher information in text form may be similar to an encryption method such as an existing password or secret pattern.
  • the user's voice can be used as a password by causing the user to utter the password information directly by the user's voice instead of the textual password information.
  • the security can be improved by providing the encrypted content only when the password information in the form of voice recognition text and the voice information that is the voice of the user match.
  • the processor 410 may automatically or manually generate the cryptographic information, display the generated cryptographic information, and request the utterance.
  • the processor 410 may request a utterance for the user to read the cipher information aloud.
  • the processor 410 may display the generated password information on the display 450 to guide the user to speak the displayed password information aloud.
  • the processor 410 may receive a voice from a user through a microphone (for example, the microphone 288) according to the speech request.
  • the processor 410 may process the input voice to recognize the voice.
  • the processor 410 may encrypt the content based on the voice recognized voice information, and store the encrypted content in the memory 440.
  • FIG. 8 is a flowchart illustrating a password generation method of an electronic device according to various embodiments of the present disclosure.
  • FIG. 8 may be performed after operation 713 of FIG. 7.
  • the electronic device 400 may analyze (or extract) attribute information of content.
  • the attribute information may further include metadata or tag information of the content.
  • the attribute information may vary depending on the type of content.
  • the following table shows attribute information according to the type of content.
  • the text-type content may include at least one attribute information of a name, size, type, creation date, modification date, or storage location.
  • Contents in the form of images include name, size, type (e.g. extension), creation date (date and time), location information, creation mode (e.g. shooting mode), tags, album information and creation method ( For example, camera shooting, download, capture, etc.), or may include at least one attribute information of the storage location.
  • Content in the form of video e.g. Video Files
  • the processor 410 may use different attribute information for generating cryptographic information according to the type of the executed content.
  • the electronic device 400 may analyze (or obtain) situation information of the electronic device 400. It may be information obtained from the electronic device 400 when the content is generated (or obtained).
  • the situation information may include at least one of a date, a time, a location, or a storage location.
  • the content when the content is downloaded, the content may include at least one of a downloaded date, time, or a storage location.
  • the content when the content is generated by a user, the content may include at least one of a date, a time, a location (eg, a geographic location), or a storage location where the content is generated.
  • the attribute information of the content may be configured with information obtained when the content is generated or obtained, part of the content information may be the same as or similar to the context information of the electronic device 400. That is, the contextual information of the electronic device 400 may partially overlap the attribute information of the content. Alternatively, the situation information may further include usage history information based on the usage history of the user.
  • the attribute information of the content is first analyzed, and the context information of the electronic device 400 is analyzed.
  • the context information of the electronic device 400 may be analyzed first, and the attribute information of the content may be analyzed. That is, operations 801 and 803 may be performed simultaneously or sequentially.
  • the electronic device 400 may generate cryptographic information based on attribute information of the content or context information of the electronic device 400.
  • the processor 410 may select attribute information to be used for generating cryptographic information based on the type of the content. For example, when the type of the content is text, the processor 410 may generate the cipher information using a name and a type (eg, an extension). Alternatively, when the type of the content is an image, the processor 410 may generate the cipher information by using a name, a date and time of creation, location information, or a generation method.
  • the processor 410 may generate encryption information based on only the attribute information of the content based on the type of the content, and may encrypt the content using the attribute information of the content and the context information of the electronic device 400. You can also generate information. For example, when the type of the content is text, the processor 410 may generate cryptographic information using only attribute information of the content. When the type of the content is sound, the processor 410 may generate cryptographic information using both attribute information of the content and context information of the electronic device 400.
  • the processor 410 according to various embodiments of the present disclosure. According to the user's setting, the cipher information may be generated using only the attribute information of the content or the cipher information may be generated using the attribute information of the content and the context information of the electronic device 400.
  • the processor 410 may grasp information meaningful to the user based on usage history information included in the contextual information.
  • the processor 410 may select at least one attribute information meaningful to the user from among a plurality of content attribute information based on the meaningful information. Accordingly, the processor 410 may use some or all of the attribute information of the content to generate the cryptographic information based on the usage history information.
  • the electronic device 400 may display the generated cryptographic information.
  • the processor 410 may display the generated cryptographic information on the display 450.
  • the processor 410 may provide a user interface including various control buttons (or keys) associated with the encryption information together with the encryption information.
  • the user interface may include at least one of a confirmation button, a regeneration button, or a manual input button (or password input button).
  • the confirmation button may be selected when the content is to be encrypted using the encryption information.
  • the regenerating button may request to regenerate other cryptographic information except for the generated cryptographic information.
  • the manual input button may be selected when the user wants to input the password information manually.
  • the user interface may further include a cancel button.
  • the cancel button may be selected when the content encryption process is to be terminated.
  • the processor 410 may perform operation 809 in response to one of the control buttons being selected.
  • the electronic device 400 may determine whether encryption regeneration is requested.
  • the processor 410 may determine whether a 'regenerate password button' is selected in a user interface including the encryption information and a control button (eg, a confirmation button, a regeneration button, a manual input button).
  • a control button eg, a confirmation button, a regeneration button, a manual input button.
  • the processor 410 may return to operation 805 when the password regeneration is requested, and perform operation 811 when the password regeneration is not requested. For example, if a password regeneration button is selected, the processor 410 may return to operation 805 to regenerate the password. For example, the user may request other password information when the user does not like the password information. Upon returning to operation 805, the processor 410 may generate cryptographic information that is different from the previously generated cryptographic information.
  • the electronic device 400 may determine whether a password input is selected. For example, the processor 410 may determine whether a 'manual input button' is selected in the user interface including the password information and the control button. For example, the user may select the manual input button when the user does not like the password information or wants to input the password information directly.
  • the processor 410 may perform operation 851 when a manual input is requested, and perform an operation 813 when a manual input is not requested. For example, when a manual input button is selected, the processor 410 may perform an operation 851 for a manual password input process in which a user directly inputs password information. For example, if the user wants to encrypt the content with the encryption information, the user may select a 'confirmation button'.
  • the electronic device 400 may request the cryptographic information to be uttered.
  • the processor 410 may guide the user to speak out the cryptographic information displayed in operation 807. For example, if the cipher information is "December 25 us", the processor 410 may display a speech request message "Please read according to" December 25 us "'on the display 450. have. In addition, the processor 410 may output a voice of “Please read along 'December 25 us'” through a speaker (eg, the speaker 282).
  • the electronic device 400 may receive voice information according to the speech.
  • the processor 410 may receive a voice from the user through a microphone (eg, the microphone 288) by operation 813.
  • the processor 410 may process the input voice to recognize the voice.
  • the processor 410 may determine whether the recognized voice matches the voice of a user. For example, if the recognized voice matches the voice of the user, the processor 410 may use the voice information for content encryption.
  • the processor 410 may display an error message on the display 450 (eg, 'Not an authenticated user. Please perform voice input again').
  • the processor 410 may terminate the content encryption process after displaying the error message. That is, the processor 410 may end without performing an operation (eg, operation 519 of FIG. 7) of encrypting content based on voice information.
  • the processor 410 may perform operations 813 and 815 again according to a user's selection.
  • the processor 410 counts the number of times the error message is displayed, and terminates the content encryption process regardless of the user's selection when the error message is displayed more than a preset number (eg, three times). can do.
  • the electronic device 400 eg, the processor
  • 410 may request a voice input.
  • the processor 410 may display a prompt message (eg, “speak a desired password”) on the display 450 to prompt the user to speak a desired password.
  • the processor 410 may output a guide message for requesting a voice input through a microphone (for example, the microphone 288).
  • the electronic device 400 may detect a voice input.
  • Operation 853 is the same as or similar to operation 501 of FIG. 5 or operation 703 of FIG. 7, and thus a detailed description thereof will be omitted.
  • the electronic device 400 may recognize a voice regarding the detected voice input.
  • Operation 855 is the same as or similar to operation 503 of FIG. 5 or operation 705 of FIG. 7, and thus a detailed description thereof will be omitted.
  • the electronic device 400 may display the voice recognized cryptographic information.
  • the processor 410 may display the cryptographic information in text form of the recognized voice on the display 450.
  • the processor 410 may provide a user interface including various control buttons (or keys) associated with the cryptographic information along with the cryptographic information.
  • the user interface may include at least one of a confirmation button, a regeneration button, or an automatic password generation button (or an automatic generation button).
  • the confirmation button may be selected when the content is to be encrypted using the encryption information.
  • the regeneration button may request to recognize the voice again when the voice recognition is wrong and the user is different from the text input by the voice.
  • the automatic password generation button may be selected when the user wants to automatically generate password information.
  • the user interface may further include a touch input button.
  • the touch input button may be selected when the user wants to directly input password information through an input device (eg, a keypad).
  • the processor 410 may provide a keypad to the display 450 when the touch input button is selected.
  • the user interface may further include a cancel button.
  • the cancel button may be selected when the content encryption process is to be terminated.
  • the processor 410 may perform operation 809 in response to one of the control buttons being selected.
  • the electronic device 400 may determine whether encryption regeneration is requested.
  • the processor 410 may determine whether a 'regenerate password button' is selected in a user interface including the encryption information and a control button (for example, a confirmation button, a regeneration button, and an automatic password generation button).
  • a control button for example, a confirmation button, a regeneration button, and an automatic password generation button.
  • the processor 410 may return to operation 851 when the encryption regeneration is requested, and perform operation 861 when the encryption regeneration is not requested. For example, if the cryptographic regeneration button is selected, the processor 410 may return to operation 851 to perform voice recognition again. For example, the user may request to perform voice recognition again if the password information is different from what he said. Upon returning to operation 851, the processor 410 may request the user to input a voice again.
  • the electronic device 400 may determine whether automatic password generation is requested. For example, the processor 410 may determine whether the 'automatic password generation button' is selected in the user interface including the password information and the control button. The user may be selected when the password information desired by the user is not properly recognized or when the user wants to automatically generate the password information.
  • the processor 410 may perform operation 801 when automatic password generation is requested, and perform operation 863 when automatic password generation is not requested. For example, when the automatic password generation button is selected, the processor 410 may perform an operation 851 for the automatic password generation process of automatically generating password information in the electronic device 400. For example, if the user wants to encrypt the content with the encryption information, the user may select a 'confirmation button'.
  • operation 863 the electronic device 400 (eg, the processor 410) may request the password information to be uttered.
  • the processor 410 may guide the user to speak out the cryptographic information displayed in operation 807.
  • Operation 863 is similar or identical to operation 813, and thus detailed description thereof may be omitted.
  • the electronic device 400 may receive voice information according to the speech.
  • the processor 410 may receive a voice from the user through a microphone (eg, the microphone 288) by operation 863.
  • the processor 410 may process the input voice to recognize the voice.
  • the processor 410 may determine whether the recognized voice matches the voice of a user. For example, if the recognized voice matches the voice of the user, the processor 410 may use the voice information for content encryption. Alternatively, if the recognized voice does not match the voice of the user, the processor 410 may display an error message on the display 450. The processor 410 may terminate the content encryption process after displaying the error message.
  • the processor 410 may perform operations 813 and 815 again according to a user's selection.
  • the processor 410 may terminate the content encryption process regardless of the user's selection when the error message is displayed more than a preset number (for example, three times).
  • 9 is a flowchart illustrating a content encryption method of an electronic device according to various embodiments of the present disclosure. 9 may be a scenario that is performed when the display 450 of the electronic device 400 is in an off state.
  • operation 901 the electronic device 400 (eg, the processor 410) may detect a voice input.
  • Operation 901 is the same as or similar to operation 501 of FIG. 5 or operation 703 of FIG. 7, and thus a detailed description thereof will be omitted.
  • the electronic device 400 may recognize a voice regarding the detected voice input.
  • Operation 903 is the same as or similar to operation 503 of FIG. 5 or operation 705 of FIG. 7, and thus a detailed description thereof will be omitted.
  • the electronic device 400 may determine whether a hidden command is included in the recognized voice.
  • the hiding command may be a command for encrypting content so that a person other than the user may not view the content.
  • the processor 410 may determine whether the recognized voice corresponds to a hidden instruction stored in the memory 440.
  • the voice information input when the display is on as shown in FIGS. 5 and 7, and the voice information input when the display is off, as shown in FIG. 9, may be the same or different. Can be.
  • the voice information input while the display is on may include an instruction pronoun indicating content to be encrypted.
  • the voice information input while the display is on may include an indication pronoun such as 'hide this picture' and 'this security'.
  • the voice information input while the display is off may not include an instruction pronoun. If the display is off, the user may not know what content is running and may not include an instruction pronoun.
  • the processor 410 performs an operation 907 when at least some of the recognized voices correspond to the hidden command, and performs an operation 906 when at least some of the recognized voices do not correspond to the hidden command. can do.
  • the electronic device 400 may perform a function corresponding to the recognized voice.
  • the processor 410 may provide various functions (or services) using voice recognition technology in response to the recognized voice. For example, when the recognized voice is 'Harry Potter', the processor 410 may execute an internet application and provide a search result searched by Harry Potter.
  • the electronic device 400 may determine whether the recognized voice (or the detected voice input) is the voice of an authenticated user.
  • the voice of the authenticated user may mean a user who owns the electronic device 400.
  • the processor 410 may extract a specific frequency from the voice signal, and determine whether the extracted frequency matches a user-specific voice frequency stored in the memory 440.
  • Operation 907 is the same as or similar to operation 709, and thus detailed description thereof will be omitted.
  • the processor 410 may perform operation 909 when the recognized voice matches the voice of an authenticated user, and perform operation 908 when the recognized voice does not match the voice of an authenticated user. have.
  • the electronic device 400 may notify that the recognized voice is an unauthenticated user.
  • the processor 410 eg, the speaker recognition unit 415) may inform that the recognized voice is not a user of the electronic device 400.
  • the processor 410 may request to input a voice again when the voice frequency stored in the memory 440 does not match the recognized voice.
  • the processor 410 may inform that the voice frequency stored in the memory 440 does not coincide with the recognized voice and thus cannot perform a process of encrypting content.
  • Operation 908 is the same as or similar to operation 710, and thus detailed description thereof will be omitted.
  • the electronic device 400 may determine whether there is content being executed. For example, in a state in which the display 450 is off, the processor 410 may determine whether there is content being executed in the electronic device 400. For example, the processor 410 may determine whether there is content that was executed last before the display 450 is turned off. The last executed content may be one or more. Alternatively, the processor 410 may determine whether there is content executed in the foreground before the display 450 is turned off.
  • the processor 410 may perform operation 911 when there is content being executed, and perform operation 913 when there is no content being executed.
  • the electronic device 400 may process a voice password with respect to content being executed.
  • the processor 410 may encrypt the content by the voice recognized in operation 903.
  • the processor 410 may encrypt all the last executed content using the voice recognized in operation 903.
  • the processor 410 may encrypt one piece of content that is displayed on at least a portion of the display by the voice recognized in operation 903.
  • the user may voicely encrypt the last used content by inputting a short voice as 'Hidden' because the last used content may be exposed. Can be.
  • the electronic device 400 may provide a content list.
  • the processor 410 may display on the display 450 a list of all contents that can be encrypted with a voice password. In this case, the processor 410 may turn on the display 450 to provide the content list.
  • the electronic device 400 may receive at least one content from the user in the content list.
  • the processor 410 may provide a check box for each content to receive at least one content from the user.
  • the user may select a plurality of contents by selecting and dragging one content.
  • the processor 410 may select all contents existing from a point at which the touch is recognized (eg, a start point) to a point at which the touch is released (eg, an end point).
  • the electronic device 400 may process a voice encryption for the selected content.
  • the processor 410 may encrypt the selected content by the voice recognized in operation 903.
  • the processor 410 may terminate without performing a content encryption process when there is no content being executed. In other words, if there is no content being executed, the processor 410 may end without performing operations 913 to 917.
  • FIG. 10 is a flowchart illustrating a method of providing hidden content of an electronic device according to various embodiments of the present disclosure.
  • the electronic device 400 may detect a voice input. Since operation 1011 is the same as or similar to operation 501 of FIG. 5 or operation 703 of FIG. 7, a detailed description thereof will be omitted.
  • the electronic device 400 may recognize a voice for the detected voice input. Since operation 1013 is the same as or similar to operation 503 of FIG. 5 or operation 705 of FIG. 7, a detailed description thereof will be omitted.
  • the electronic device 400 may determine whether the recognized voice is a content call command.
  • the processor 410 may include a call command such as “show me” whether the text corresponding to the recognized voice is mapped to a name or a kind of content (eg, a picture, a document, a video, etc.) related to the content. Can be determined.
  • the processor 410 may determine that the user speaks with the intention of viewing the content.
  • the processor 410 may perform operation 1017 when the recognized voice (eg, text information) is a content call command, and perform operation 1016 when the recognized voice is not a content call command.
  • the recognized voice eg, text information
  • the electronic device 400 may perform a function corresponding to the recognized voice.
  • Operation 1016 is the same as or similar to operation 506 of FIG. 5 or operation 708 of FIG. 7, and thus detailed description thereof will be omitted.
  • the electronic device 400 may search for content corresponding to the recognized voice.
  • the processor 410 may search in the memory 440 whether there is content of a name corresponding to a part or all of the recognized voice, or whether there is a kind of content corresponding to a part or all of the recognized voice.
  • the electronic device 400 may determine whether the retrieved content is encrypted.
  • the processor 410 may determine whether the retrieved content is encrypted using a voice password or a password.
  • the processor 410 may only determine whether there is content encrypted with a voice password.
  • the processor 410 may perform operation 1021 when the retrieved content is encrypted, and perform operation 1020 when the retrieved content is not encrypted.
  • the electronic device 400 may provide the retrieved content.
  • the processor 410 may display the searched content or the content list including the searched content on the display 450.
  • the processor 410 may execute a gallery application to display a picture list on the display 450.
  • the electronic device 400 may determine whether the voice of the authenticated user is a voice.
  • the processor 410 may extract a specific frequency from the voice signal, and determine whether the extracted frequency matches a user-specific voice frequency stored in the memory 440. Since operation 1021 is the same as or similar to operation 907, a detailed description thereof will be omitted.
  • the processor 410 may perform operation 1023 when the recognized voice matches the voice of the authenticated user, and may terminate when the recognized voice does not match the voice of the authenticated user. For example, the processor 410 (eg, the speaker recognizer 415) may terminate after displaying an error message indicating that the recognized voice is not a user of the electronic device 400. 410 may perform operation 1041 when the recognized voice does not match the voice of an authenticated user. For example, the processor 410 may terminate or perform operation 1041 according to the setting of the electronic device 400 or the setting of the user. This is simply a design change and may vary from implementation to implementation.
  • the electronic device 400 may determine whether cryptographic information is input.
  • the processor 410 may determine whether the user calls content together with the encryption information. For example, when the voice information recognized in operation 1013 is 'show Yeouido night view photo', the processor 410 interprets 'show me' or 'photo' as a content call command, and displays 'Yeouido night view' or 'Yeouido' 'Night view photos' can be interpreted as crypto information To this end, the word corresponding to the content call command is stored in the memory 440, and the processor 410 may determine the remaining voice information except the content call command among the voice information as the encryption information.
  • the processor 410 may perform operation 1025 when cryptographic information is input, and perform operation 1031 when cryptographic information is not input.
  • the electronic device 400 may request the cryptographic information to be uttered. For example, if the user does not speak the cryptographic information in operation 1011, operation 1031 may be performed.
  • the processor 410 may display a utterance request message on the display 450 such as “speak a password for desired content”. Alternatively, the processor 410 may output a voice corresponding to the speech request message through the speaker.
  • the electronic device 400 may receive voice information according to the speech request.
  • the processor 410 may perform an operation 1025 to determine whether the received voice information matches voice information that has encrypted content.
  • the electronic device 400 may determine whether the passwords match. For example, the processor 410 may determine whether the text information corresponding to the voice information matches the encryption information stored in the memory 440. Since it is checked through operation 1021 whether the user's voice is correct, in operation 1025, it may be determined whether password information in a text form is matched. In other words, the processor 410 may convert the voice-recognized voice information into a text form and compare two pieces of cryptographic information in the text form with each other. Alternatively, the processor 410 may determine whether the voice information corresponding to the cryptographic information and the voice information acquired in operation 1013 match the memory 440. That is, the processor 410 may compare two pieces of cryptographic information in a voice form with each other.
  • the electronic device 400 may display content mapped to the password.
  • the processor 410 may display content in which two pieces of cryptographic information in the form of voice exactly match.
  • the processor 410 may display the content mapped to the password information when the voice of the authenticated user and some of the password information in the text form match.
  • the processor 410 may display the content mapped to the password information when the voice of the authenticated user is equal to or greater than a set ratio (for example, 70%) among the password information in the text form.
  • the electronic device 400 may request biometric information from the user.
  • the processor 410 may request biometric information when the user input in operation 1011 is an authenticated user but the password information does not match. That is, the user may not be able to store the encrypted information that encrypted the content.
  • the processor 410 may request biometric information and activate a biometric sensor (eg, a fingerprint sensor, an iris sensor) to recognize the biometric information.
  • the processor 410 may display a guide message such as “recognize a fingerprint”, indicate a location (eg, a home button) provided with a fingerprint sensor, and activate a fingerprint sensor.
  • the processor 410 may display the guide message at a location where the fingerprint recognition sensor is provided.
  • the processor 410 may display a guide message such as “recognize the iris” or indicate a location (eg, a top camera of the electronic device) provided with the iris recognition sensor, and activate the iris recognition sensor.
  • the processor 410 may display the guide message at a location where the iris recognition sensor is provided.
  • the processor 410 may provide a user interface for selecting biometric information to be recognized.
  • the user interface may include a button for selecting a biometric part, such as a fingerprint recognition button, an iris recognition button, and a face recognition button, together with a guide message (eg, select a biometric part).
  • the processor 410 may activate a recognition sensor selected from the user and display a user interface related to the activated recognition sensor.
  • the user interface may include a guide message (eg, recognize a fingerprint), a position indicator of the recognition sensor (eg, an arrow indicating a location where the recognition sensor is provided), and a confirmation button.
  • the electronic device 400 may complete user authentication.
  • the processor 410 may obtain biometric information such as a fingerprint, an iris, and a face from the user by requesting the biometric information, and determine whether the obtained biometric information matches the biometric information stored in the memory 440.
  • the processor 410 may complete user authentication when the obtained biometric information matches the biometric information stored in the memory 440.
  • the processor 410 may terminate when the obtained biometric information does not match the biometric information stored in the memory 440.
  • the processor 410 may request the biometric information again.
  • the processor 410 may count the number of times of re-requesting biometric information. If the number of times of re-request is more than a predetermined number of times, the processor 410 may terminate the biometric information without re-requesting it.
  • the electronic device 400 may display an encrypted content list.
  • the processor 410 increases security by providing an encrypted content when the user input in operation 1011 is an authenticated user but the password information does not match, and further checks the biometric information and matches the biometric information. Can be. That is, when the user cannot remember the encrypted information that encrypted the content, the user may check the encrypted content by using the biometric information.
  • the content list may include content that matches only a part of the recognized cryptographic information, or may include all encrypted contents.
  • 11A and 11B illustrate a user interface for providing hidden content according to various embodiments.
  • 11A illustrates an example of providing hidden content when a user speaks cryptographic information.
  • the electronic device 400 may receive a voice input 1113 from a user.
  • the electronic device 400 may be in a home screen display state, a lock state, and an application execution state.
  • the first user interface 1110 receiving the voice input 1113 may be in a state of displaying a home screen screen 1111.
  • the processor 410 may determine whether the voice command 1113 is a content call command.
  • the voice input 1113 may include a content call command (eg, show) or a content name (eg, Yeouido night view hidden file).
  • the processor 410 may determine that the user has uttered the intention to view the content.
  • the processor 410 may search for content based on text information (eg, the Yeouido night view hidden file) except for the content call command.
  • the processor 410 may determine whether the searched content is encrypted, and if the searched content is encrypted, determine whether the voice of the user who input the voice 1113 is the voice of the authenticated user.
  • the processor 410 may extract a specific frequency from the voice signal corresponding to the voice input 1113, and determine whether the extracted frequency matches a user-specific voice frequency stored in the memory 440.
  • the processor 410 may determine whether password information is included in the voice input 1113 when the voice of the user who performs the voice input 1113 matches the voice of the authenticated user.
  • the processor 410 interprets 'show me' as a content call command in the text information corresponding to the voice input 1113, and encrypts 'Yeouido night view', 'Yeouido night view hidden', and 'Yeouido night view hidden file' Can be interpreted as information.
  • the processor 410 may determine whether the encryption of the text information corresponding to the voice input 1113 matches the encryption information stored in the memory 440. When the cryptographic information included in the voice input 1113 matches the cryptographic information stored in the memory 440, the processor 410 may provide the content 1121 corresponding to the cryptographic information.
  • the processor 410 may display the second user interface 1120 including the content 1121 on the display 450.
  • 11B is a diagram illustrating an example of providing a hidden content list when user authentication is completed.
  • the electronic device 400 may request the user to speak the password information.
  • the processor 410 may display a third user interface 1130 on the display 450 that includes a prompt message (eg, say a password!).
  • the processor 410 may output a voice message (eg, say a password!) Through a speaker (eg, the speaker 282).
  • the processor 410 may receive a voice including cryptographic information from the user through the third user interface 1130.
  • the processor 410 may request biometric information from the user when the encryption information included in the received voice does not match the encryption information stored in the memory 440.
  • the processor 410 may display a fourth user interface 1140 on the display 450 including a guide message (eg, touch a finger!).
  • the processor 410 may indicate a location (eg, a home button) where the fingerprint recognition sensor is provided and activate the fingerprint recognition sensor.
  • the processor 410 may output a voice message (eg, touch a finger!) Through a speaker (eg, the speaker 282).
  • the processor 410 may display an encrypted content list.
  • the processor 410 may include, as the content list, a fifth user interface 1150 including an encrypted image (eg, a lock icon) such that the content is encrypted along with a content name (eg, AAA, BBB, etc.). ) May be displayed on the display 460.
  • FIG. 12 is a flowchart illustrating a content decryption method of an electronic device according to various embodiments of the present disclosure.
  • the electronic device 400 may execute content.
  • the processor 410 may execute content by a command of a user.
  • the content may be encrypted content or unencrypted content.
  • the processor 410 may display the executed content on the display 450.
  • the electronic device 400 may detect a voice input.
  • Operation 1203 is the same as or similar to operation 501 of FIG. 5 or operation 703 of FIG. 7, and thus a detailed description thereof will be omitted.
  • the electronic device 400 may recognize a voice for the detected voice input. Since operation 1205 is the same as or similar to operation 503 of FIG. 5 or operation 705 of FIG. 7, a detailed description thereof will be omitted.
  • the electronic device 400 may determine whether a release command (eg, an unlocking command, a decoding command) is included in the recognized voice. If the recognized voice includes a release command, the processor 410 may determine that the user has spoken with the intention of releasing the encrypted content.
  • the release command may be a command for releasing encrypted content so that the content can be viewed by someone other than the user.
  • the release command may include words such as 'release', 'unlock', 'secret release', 'password release', and 'security release'.
  • the word for the release command may be stored in the memory 440 in advance.
  • the processor 410 (for example, the voice encryption processor 413) may determine whether the text converted from the voice corresponds to a release command stored in the memory 440.
  • the processor 410 performs operation 1209 when at least some of the voice information converted to the voice corresponds to the release command, and when at least some of the voice information to which the voice is converted does not correspond to the release command. Operation 1208 may be performed.
  • the electronic device 400 may perform a function corresponding to the recognized voice.
  • Operation 1208 is the same as or similar to operation 1016, and thus detailed description thereof may be omitted.
  • the electronic device 400 may determine whether the recognized voice (or detected voice input) is the voice of an authenticated user.
  • the processor 410 may extract a specific frequency from the voice signal, and determine whether the extracted frequency matches a user-specific voice frequency stored in the memory 440. Since operation 1209 is the same as or similar to operation 1021, detailed descriptions thereof will be omitted.
  • the processor 410 may perform operation 1211 when the recognized voice is the voice of an authenticated user, and perform operation 1221 when the recognized voice is not the voice of an authenticated user.
  • the electronic device 400 may request to speak the cryptographic information about the content.
  • the processor 410 may request an utterance to read the cryptographic information aloud once more from the user in order to decrypt the encrypted content. This may be to improve security by requesting a password for content decryption once again.
  • the processor 410 may display, on the display 450, a speech request message such as “speak password information aloud”.
  • the processor 410 may output the speech request message through a speaker.
  • the electronic device 400 may receive voice information according to the speech.
  • the processor 410 may receive a voice from a user through a microphone (eg, the microphone 288) by operation 1111.
  • the processor 410 may process the input voice to recognize the voice.
  • the processor 410 according to various embodiments may determine whether the recognized voice matches the voice of a user.
  • Operation 1113 is the same as or similar to operation 865, and thus a detailed description thereof may be omitted.
  • the electronic device 400 may release a content cipher based on the voice information.
  • the processor 410 decrypts the encrypted content when the recognized voice matches the user's voice and the voice information is the same as the voice information corresponding to the password information stored in the memory 440. can do. That is, the user may decrypt the encrypted content in the same manner as the content is encrypted. That is, the processor 410 may decrypt the content executed in operation 1101. If the encryption is decrypted, the processor 410 may display the decrypted result. For example, the processor 410 may delete the lock display image (eg, the lock icon) displayed together with the content so as not to be displayed together with the content.
  • the lock display image eg, the lock icon
  • the electronic device 400 may request biometric information from the user.
  • the processor 410 may request biometric information when the user input in operation 1103 is not an authenticated user.
  • the user entered in operation 1103 is a user owned by the electronic device 400, but the user entered in operation 1103 is authenticated due to an error (eg, a voice recognition error) of the electronic device 400. It may be determined that the user is not.
  • the processor 410 may request biometric information and activate a biometric sensor (eg, fingerprint sensor, iris sensor) to receive biometric information from the user.
  • Operation 1121 is the same as or similar to operation 1041, and thus detailed description thereof may be omitted.
  • the electronic device 400 may determine whether user authentication is successful.
  • the processor 410 may obtain biometric information such as a fingerprint, an iris, and a face from the user by requesting the biometric information, and determine whether the obtained biometric information matches the biometric information stored in the memory 440.
  • the processor 410 may determine that the user authentication is successful, and may complete the biometric information authentication.
  • the processor 410 may terminate when the obtained biometric information does not match the biometric information stored in the memory 440.
  • the processor 410 may request the biometric information again. For example, the processor 410 may count the number of biometric authentications, and when the counted number of biometric authentications is equal to or more than a preset number (for example, three times), the processor 410 may end without re-requesting biometric information.
  • the electronic device 400 may decrypt the content.
  • the processor 410 may further check the biometric information and decrypt the content if the biometric information matches, thereby increasing security. . That is, the user may decrypt the encrypted content using the biometric information.
  • the processor 410 may decrypt the content executed in operation 1101.
  • the method of deleting the encrypted content may be the same as or similar to the decryption method.
  • an operation method of an electronic device 400 including a voice recognition unit 411 may include: recognizing voice information of a user using the voice recognition unit, wherein the recognized voice information includes a hiding command. In the case of obtaining password information for the content selected by the user, requesting the user to speak the obtained password information, and encrypting the content based on voice information received according to the request. It may include.
  • the acquiring operation may include determining whether the voice information is a voice of an authenticated user, and generating the password information when the voice information is a voice of an authenticated user.
  • the generating may include generating the encryption information based on attribute information of the content or context information of the electronic device.
  • the acquiring operation may include receiving encryption information from the user.
  • the method may further include storing the encryption information and voice information corresponding to the encryption information in the memory 440 of the electronic device in association with the contents.
  • the method includes requesting to utter encryption information associated with the encrypted content, and the voice information received according to the request is stored in the memory.
  • the method may further include providing the encrypted content by determining whether the stored encryption information is the same.
  • the providing of the encrypted content may include providing the encrypted content when the voice information received according to the request is the same as the voice information corresponding to the encryption information stored in the memory.
  • the providing of the encrypted content may include requesting biometric authentication if the text information of the voice information received according to the request is not the same as the encryption information stored in the memory, and responding to the request.
  • the method may include obtaining biometric information of the user using the biometric sensor 430, and providing encrypted content when the obtained biometric information and the biometric information stored in the memory are the same.
  • a computer-readable recording medium may include a method of recognizing a voice using a voice recognition unit, and if a hidden command is included in the recognized voice information, the content selected by the user according to a password generation method.
  • the program may include obtaining an encryption information, requesting the user to speak the obtained encryption information, and encrypting the content based on voice information received according to the request.
  • Computer-readable recording media include hard disks, floppy disks, magnetic media (e.g. magnetic tape), optical recording media (e.g. CD-ROM, DVD, magnetic-optical media (e.g. floppy disks), internal memory, etc.
  • Instructions may include code generated by a compiler or code executable by an interpreter Modules or program modules according to various embodiments may include at least one or more of the above-described components.
  • operations performed by a module, a program module, or another component may be executed sequentially, in parallel, repeatedly, or heuristically, or at least, or may include other components. Some operations may be executed in a different order, omitted, or other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

다양한 실시예는 음성 인식부, 메모리, 디스플레이, 및 상기 음성 인식부, 상기 메모리 또는 상기 디스플레이와 기능적으로 연결된 프로세서를 포함하고, 상기 프로세서는, 상기 음성 인식부에 의해 인식된 사용자의 음성 정보가 숨김 명령어를 포함하는 경우, 상기 사용자에 의해 선택된 컨텐츠에 대한 암호 정보를 획득하고, 상기 획득한 암호 정보를 상기 사용자에게 발화하도록 요청하고, 상기 요청에 따라 수신되는 음성 정보에 기반하여 상기 컨텐츠를 암호화하도록 설정된 전자 장치 및 방법을 제공한다. 또한, 다른 실시예도 가능하다.

Description

컨텐츠 운용 방법 및 이를 구현한 전자 장치
다양한 실시예는 컨텐츠를 운용하는 방법 및 장치에 관한 것이다.
최근 디지털 기술의 발달과 함께 이동통신 단말기, PDA(personal digital assistant), 전자수첩, 스마트 폰, 태블릿 PC(personal computer), 웨어러블 디바이스(wearable device) 등과 같은 다양한 유형의 전자 장치가 널리 사용되고 있다. 이러한, 전자 장치는 기능 지지 및 증대를 위해, 전자 장치의 하드웨어적인 부분 및/또는 소프트웨어적인 부분이 지속적으로 개량되고 있다. 일례로, 전자 장치는 보안 기능을 높이기 위해 지문 인식 센서 또는 홍채 인식 센서를 구비하고 있다.
또한, 전자 장치는, 음성 인식 기술을 이용한 다양한 서비스(또는 기능)를 제공하고 있다. 음성 인식 기술은, 예를 들면, 전자 장치가 마이크와 같은 소리 센서를 통해 획득하는 음향학적 신호(acoustic speech signal)를 단어나 문장으로 변환시키는 기술을 포함할 수 있다. 음성 인식 기술은 일반적으로, 음향 신호를 추출한 후 잡음(noise)을 제거하는 작업을 수행하게 되며, 이후 음성 신호의 특징을 추출하여 음성모델 데이터베이스(DB)와 비교하는 방식으로 음성 인식을 수행할 수 있다. 전자 장치는 음성 인식 기술을 바탕으로 한 다양한 음성 서비스(또는 음성 인식 서비스)를 제공하고 있다. 한 실시 예에 따르면, 전자 장치는 사용자의 음성 명령을 바탕으로 모바일 검색, 일정 관리, 전화 걸기, 메모, 또는 음악 재생 등 다양한 생활 편의 서비스를 제공하고 있다.
한편, 전자 장치의 각 어플리케이션에서 제공하는 컨텐츠 숨김(또는 잠금, 암호) 기능은 선택된 컨텐츠에 숨김 기능을 적용할지 여부를 설정하는 것일 수 있다. 예를 들어, 사용자는 숨김 기능을 설정(예: on(온))하거나, 설정하지 않을(예: off(오프)) 수 있다. 숨김 설정된 컨텐츠에 접근하기 위해서는 공통된 암호를 사용할 수 있다. 즉, 하나의 컨텐츠를 확인하고자 하는 경우에도 암호화된 어플리케이션의 모든 컨텐츠에 대해서 암호화를 해제해야 확인이 가능할 수 있다. 또한, 암호화된 컨텐츠가 존재하는 경우, 전자 장치 또는 어플리케이션은 시각적으로 사용자가 확인할 수 있는 기능을 제공하고 있다. 이에, 사용자가 아닌 타인은 암호화된 컨텐츠에 대한 비밀번호나 비밀패턴만 알면 암호화된 컨텐츠에 접근할 수 있으므로, 타인에게 암호화된 컨텐츠가 쉽게 노출될 수 있다.
다양한 실시예들은 사용자의 음성으로 쉽게 컨텐츠를 운용하는 방법 및 장치를 제공할 수 있다.
다양한 실시예들에 따른 전자 장치는 음성 인식부, 메모리, 디스플레이, 및 상기 음성 인식부, 상기 메모리 또는 상기 디스플레이와 기능적으로 연결된 프로세서를 포함하고, 상기 프로세서는, 상기 음성 인식부에 의해 인식된 사용자의 음성 정보가 숨김 명령어를 포함하는 경우, 상기 사용자에 의해 선택된 컨텐츠에 대한 암호 정보를 획득하고, 상기 획득한 암호 정보를 상기 사용자에게 발화하도록 요청하고, 상기 요청에 따라 수신되는 음성 정보에 기반하여 상기 컨텐츠를 암호화하도록 설정될 수 있다.
다양한 실시예들에 따른 음성 인식부를 포함하는 전자 장치의 동작 방법은 상기 음성 인식부를 이용하여 사용자의 음성 정보를 인식하는 동작, 상기 인식된 음성 정보가 숨김 명령어를 포함하는 경우, 상기 사용자에 의해 선택된 컨텐츠에 대한 암호 정보를 획득하는 동작, 상기 획득한 암호 정보를 상기 사용자에게 발화하도록 요청하는 동작, 및 상기 요청에 따라 수신되는 음성 정보에 기반하여 상기 컨텐츠를 암호화하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 컨텐츠의 특성(예: 속성 정보, 메타 데이터, 태그 정보)에 기반하여 암호를 생성하고, 사용자 음성 인증을 이용하여 컨텐츠를 숨길수 있다.
다양한 실시예들에 따르면, 사용자의 목소리를 이용한 화자 인증을 통해 숨긴 컨텐츠에 접근 가능하도록 하여, 보안성을 제공 수 있다.
다양한 실시예들에 따르면, 사용자에게 숨긴 컨텐츠가 있음을 안내하지 않음으로써, 다른 사용자가 숨긴 컨텐츠에 대한 접근을 방지할 수 있다.
도 1은 다양한 실시예들에 따른 네트워크 환경 내의 전자 장치를 도시한 도면이다.
도 2는 다양한 실시예들에 따른 전자 장치의 구성을 도시한 블록도이다.
도 3은 다양한 실시예들에 따른 프로그램 모듈을 도시한 블록도이다.
도 4는 다양한 실시예들에 따른 전자 장치의 구성을 도시한 도면이다.
도 5는 다양한 실시예들에 따른 전자 장치의 동작 방법을 도시한 흐름도이다.
도 6은 다양한 실시예들에 따른 컨텐츠 숨김과 연관된 사용자 인터페이스를 도시한 도면이다.
도 7은 다양한 실시예들에 따른 사용자 음성을 이용한 컨텐츠 암호화 방법을 도시한 흐름도이다.
도 8은 다양한 실시예들에 따른 전자 장치의 암호 생성 방법을 도시한 흐름도이다.
도 9는 다양한 실시예들에 따른 전자 장치의 컨텐츠 암호화 방법을 도시한 흐름도이다.
도 10은 다양한 실시예들에 따른 전자 장치의 숨김 컨텐츠 제공 방법을 도시한 흐름도이다.
도 11a 및 도 11b는 다양한 실시예들에 따른 숨김 컨텐츠를 제공하는 사용자 인터페이스를 도시한 도면들이다.
도 12는 다양한 실시예들에 따른 전자 장치의 컨텐츠 암호 해제 방법을 도시한 흐름도이다.
이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 기재된다. 실시예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1," "제 2," "첫째," 또는 "둘째,"등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서의 다양한 실시예들에 따른 전자 장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM, 상점의 POS(point of sales), 또는 사물 인터넷 장치 (예: 전구, 각종 센서, 스프링클러 장치, 화재 경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.
어떤 실시예에 따르면, 전자 장치는 가구, 건물/구조물 또는 자동차의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터, 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시예에서, 전자 장치는 플렉서블하거나, 또는 전술한 다양한 장치들 중 둘 이상의 조합일 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 다양한 실시예들에 따른 네트워크 환경(100) 내의 전자 장치(101)를 도시한 도면이다.
도 1을 참조하면, 전자 장치(101)는 버스(110), 프로세서(120), 메모리(130), 입출력 인터페이스(150), 디스플레이(160), 및 통신 인터페이스(170)를 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)는, 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다. 예를 들어, 전자 장치(101)는 음성 인식부 또는 생체 인식 센서를 더 포함할 수 있다.
버스(110)는 구성요소들(110-170)을 서로 연결하고, 구성요소들 간의 통신(예: 제어 메시지 또는 데이터)을 전달하는 회로를 포함할 수 있다.
프로세서(120)는, 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(120)는, 예를 들면, 전자 장치(101)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.
메모리(130)는, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(130)는, 예를 들면, 전자 장치(101)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시예에 따르면, 메모리(130)는 소프트웨어 및/또는 프로그램(140)을 저장할 수 있다. 프로그램(140)은, 예를 들면, 커널(141), 미들웨어(143), 어플리케이션 프로그래밍 인터페이스(API)(145), 및/또는 어플리케이션 프로그램(또는 "어플리케이션")(147) 등을 포함할 수 있다. 커널(141), 미들웨어(143), 또는 API(145)의 적어도 일부는, 운영 시스템으로 지칭될 수 있다. 커널(141)은, 예를 들면, 다른 프로그램들(예: 미들웨어(143), API(145), 또는 어플리케이션 프로그램(147))에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스(110), 프로세서(120), 또는 메모리(130) 등)을 제어 또는 관리할 수 있다. 또한, 커널(141)은 미들웨어(143), API(145), 또는 어플리케이션 프로그램(147)에서 전자 장치(101)의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어(143)는, 예를 들면, API(145) 또는 어플리케이션 프로그램(147)이 커널(141)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 미들웨어(143)는 어플리케이션 프로그램(147)으로부터 수신된 하나 이상의 작업 요청들을 우선 순위에 따라 처리할 수 있다. 예를 들면, 미들웨어(143)는 어플리케이션 프로그램(147) 중 적어도 하나에 전자 장치(101)의 시스템 리소스(예: 버스(110), 프로세서(120), 또는 메모리(130) 등)를 사용할 수 있는 우선 순위를 부여하고, 상기 하나 이상의 작업 요청들을 처리할 수 있다. API(145)는 어플리케이션(147)이 커널(141) 또는 미들웨어(143)에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 영상 처리, 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
입출력 인터페이스(150)는, 예를 들면, 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 전자 장치(101)의 다른 구성요소(들)에 전달하거나, 또는 전자 장치(101)의 다른 구성요소(들)로부터 수신된 명령 또는 데이터를 사용자 또는 다른 외부 기기로 출력할 수 있다.
디스플레이(160)는, 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 또는 마이크로 전자기계 시스템 (MEMS) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이(160)는, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 및/또는 심볼 등)을 표시할 수 있다. 디스플레이(160)는, 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수 있다.
통신 인터페이스(170)는, 예를 들면, 전자 장치(101)와 외부 장치(예: 제 1 외부 전자 장치(102), 제 2 외부 전자 장치(104), 또는 서버(106)) 간의 통신을 설정할 수 있다. 예를 들면, 통신 인터페이스(170)는 무선 통신 또는 유선 통신을 통해서 네트워크(162)에 연결되어 외부 장치(예: 제 2 외부 전자 장치(104) 또는 서버(106))와 통신할 수 있다. 무선 통신은, 예를 들면, LTE, LTE-A(LTE advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(wireless broadband), 또는 GSM(global system for mobile communications) 등 중 적어도 하나를 사용하는 셀룰러 통신을 포함할 수 있다. 한 실시예에 따르면, 무선 통신은, 예를 들면, WiFi(wireless fidelity), 블루투스, 블루투스 저전력(BLE: bluetooth low energy), 지그비(Zigbee), NFC(near field communication), 자력 시큐어 트랜스미션(magnetic secure transmission), 라디오 프리퀀시(RF), 또는 보디 에어리어 네트워크(BAN) 중 적어도 하나를 포함할 수 있다.
한실시예에 따르면, 무선 통신은 GNSS를 포함할 수 있다. GNSS는, 예를 들면, GPS(global positioning system), Glonass(global navigation satellite system), beidou navigation satellite system(이하 "Beidou") 또는 galileo, the european global satellite-based navigation system일 수 있다. 이하, 본 문서에서는, "GPS"는 "GNSS"와 상호 호환적으로 사용될 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 중 적어도 하나를 포함할 수 있다. 네트워크(162)는 텔레커뮤니케이션 네트워크, 예를 들면, 컴퓨터 네트워크(예: LAN 또는 WAN), 인터넷, 또는 텔레폰 네트워크 중 적어도 하나를 포함할 수 있다.
제1 및 제2 외부 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 다양한 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 전자 장치(예: 전자 장치(102,104), 또는 서버(106)에서 실행될 수 있다. 한 실시예에 따르면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 다른 장치(예: 전자 장치(102, 104), 또는 서버(106))에게 요청할 수 있다. 다른 전자 장치(예: 전자 장치(102, 104), 또는 서버(106))는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2는 다양한 실시예에 따른 전자 장치(201)의 구성을 도시한 블록도이다.
도 2를 참조하면, 전자 장치(201)는, 예를 들면, 도 1에 도시된 전자 장치(101)의 전체 또는 일부를 포함할 수 있다. 전자 장치(201)는 하나 이상의 프로세서(예: AP)(210), 통신 모듈(220), 메모리(230), 센서 모듈(240), 입력 장치(250), 디스플레이(260), 인터페이스(270), 오디오 모듈(280), 카메라 모듈(291), 전력 관리 모듈(295), 배터리(296), 인디케이터(297), 및 모터(298) 를 포함할 수 있다.
프로세서(210)는, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서(210)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(210)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시예에 따르면, 프로세서(210)는 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서를 더 포함할 수 있다. 프로세서(210)는 도 2에 도시된 구성요소들 중 적어도 일부(예: 셀룰러 모듈(221))를 포함할 수도 있다. 프로세서(210) 는 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드)하여 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다.
통신 모듈(220)은 도 1의 통신 인터페이스(170)와 동일 또는 유사한 구성을 가질 수 있다. 통신 모듈(220)은, 예를 들면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227), NFC 모듈(228) 및 RF 모듈(229)를 포함할 수 있다. 셀룰러 모듈(221)은, 예를 들면, 통신망을 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 가입자 식별 모듈(예: SIM 카드)(224)을 이용하여 통신 네트워크 내에서 전자 장치(201)의 구별 및 인증을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 프로세서(210)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 커뮤니케이션 프로세서(CP)를 포함할 수 있다.
어떤 실시예에 따르면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. RF 모듈(229)은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. RF 모듈(229)은, 예를 들면, 트랜시버, PAM(power amp module), 주파수 필터, LNA(low noise amplifier), 또는 안테나 등을 포함할 수 있다. 다른 실시예에 따르면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다. 가입자 식별 모듈(224)은, 예를 들면, 가입자 식별 모듈을 포함하는 카드 또는 임베디드 SIM을 포함할 수 있으며, 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리(230)(예: 메모리(130))는, 예를 들면, 내장 메모리(232) 또는 외장 메모리(234)를 포함할 수 있다. 내장 메모리(232)는, 예를 들면, 휘발성 메모리(예: DRAM, SRAM, 또는 SDRAM 등), 비휘발성 메모리(예: OTPROM(one time programmable ROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, 플래시 메모리, 하드 드라이브, 또는 솔리드 스테이트 드라이브 (SSD) 중 적어도 하나를 포함할 수 있다. 외장 메모리(234)는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD, Mini-SD, xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱 등을 포함할 수 있다. 외장 메모리(234)는 다양한 인터페이스를 통하여 전자 장치(201)와 기능적으로 또는 물리적으로 연결될 수 있다.
센서 모듈(240)은, 예를 들면, 물리량을 계측하거나 전자 장치(201)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈(240)은, 예를 들면, 제스처 센서(240A), 자이로 센서(240B), 기압 센서(240C), 마그네틱 센서(240D), 가속도 센서(240E), 그립 센서(240F), 근접 센서(240G), 컬러(color) 센서(240H)(예: RGB(red, green, blue) 센서), 생체 센서(240I), 온/습도 센서(240J), 조도 센서(240K), 또는 UV(ultra violet) 센서(240M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 센서 모듈(240)은, 예를 들면, 후각(e-nose) 센서, 일렉트로마이오그라피(EMG) 센서, 일렉트로엔씨팔로그램(EEG) 센서, 일렉트로카디오그램(ECG) 센서, IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다. 센서 모듈(240)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시예에서는, 전자 장치(201)는 프로세서(210)의 일부로서 또는 별도로, 센서 모듈(240)을 제어하도록 구성된 프로세서를 더 포함하여, 프로세서(210)가 슬립(sleep) 상태에 있는 동안, 센서 모듈(240)을 제어할 수 있다.
입력 장치(250)는, 예를 들면, 터치 패널(252), (디지털) 펜 센서(254), 키(256), 또는 초음파 입력 장치(258)를 포함할 수 있다. 터치 패널(252)은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널(252)은 제어 회로를 더 포함할 수도 있다. 터치 패널(252)은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다. (디지털) 펜 센서(254)는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트를 포함할 수 있다. 키(256)는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 초음파 입력 장치(258)는 마이크(예: 마이크(288))를 통해, 입력 도구에서 발생된 초음파를 감지하여, 상기 감지된 초음파에 대응하는 데이터를 확인할 수 있다.
디스플레이(260)(예: 디스플레이(160))는 패널(262), 홀로그램 장치(264), 프로젝터(266), 및/또는 이들을 제어하기 위한 제어 회로를 포함할 수 있다. 패널(262)은, 예를 들면, 유연하게, 투명하게, 또는 착용할 수 있게 구현될 수 있다. 패널(262)은 터치 패널(252)과 하나 이상의 모듈로 구성될 수 있다. 한 실시예에 따르면, 패널(262)은 사용자의 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서(또는 포스 센서)를 포함할 수 있다. 상기 압력 센서는 터치 패널(252)과 일체형으로 구현되거나, 또는 터치 패널(252)과는 별도의 하나 이상의 센서로 구현될 수 있다.
홀로그램 장치(264)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터(266)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치(201)의 내부 또는 외부에 위치할 수 있다. 인터페이스(270)는, 예를 들면, HDMI(272), USB(274), 광 인터페이스(optical interface)(276), 또는 D-sub(D-subminiature)(278)를 포함할 수 있다. 인터페이스(270)는, 예를 들면, 도 1에 도시된 통신 인터페이스(170)에 포함될 수 있다. 추가적으로 또는 대체적으로, 인터페이스(270)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈(280)은, 예를 들면, 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈(280)의 적어도 일부 구성요소는, 예를 들면, 도 1 에 도시된 입출력 인터페이스(145)에 포함될 수 있다. 오디오 모듈(280)은, 예를 들면, 스피커(282), 리시버(284), 이어폰(286), 또는 마이크(288) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다. 카메라 모듈(291)은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, 이미지 시그널 프로세서(ISP), 또는 플래시(예: LED 또는 xenon lamp 등)를 포함할 수 있다.
전력 관리 모듈(295)은, 예를 들면, 전자 장치(201)의 전력을 관리할 수 있다. 한 실시예에 따르면, 전력 관리 모듈(295)은 PMIC(power management integrated circuit), 충전 IC, 또는 배터리 또는 연료 게이지를 포함할 수 있다. PMIC는, 유선 및/또는 무선 충전 방식을 가질 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함하며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다. 배터리 게이지는, 예를 들면, 배터리(296)의 잔량, 충전 중 전압, 전류, 또는 온도를 측정할 수 있다. 배터리(296)는, 예를 들면, 충전식 전지 및/또는 태양 전지를 포함할 수 있다.
인디케이터(297)는 전자 장치(201) 또는 그 일부(예: 프로세서(210))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터(298)는 전기적 신호를 기계적 진동으로 변환할 수 있고, 진동, 또는 햅틱 효과 등을 발생시킬 수 있다. 전자 장치(201)는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting), 또는 미디어플로(mediaFloTM) 등의 규격에 따른 미디어 데이터를 처리할 수 있는 모바일 TV 지원 장치(예: GPU)를 포함할 수 있다. 본 문서에서 기술된 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시예에서, 전자 장치(예: 전자 장치(201))는 일부 구성요소가 생략되거나, 추가적인 구성요소를 더 포함하거나, 또는, 구성요소들 중 일부가 결합되어 하나의 개체로 구성되되, 결합 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.
도 3은 다양한 실시예에 따른 프로그램 모듈의 블록도이다.
한 실시예에 따르면, 프로그램 모듈(310)(예: 프로그램(140))은 전자 장치(예: 전자 장치(101))에 관련된 자원을 제어하는 운영 체제 및/또는 운영 체제 상에서 구동되는 다양한 어플리케이션(예: 어플리케이션 프로그램(147))을 포함할 수 있다. 운영 체제는, 예를 들면, AndroidTM, iOSTM, WindowsTM, SymbianTM, TizenTM, 또는 BadaTM를 포함할 수 있다. 도 3을 참조하면, 프로그램 모듈(310)은 커널(320)(예: 커널(141)), 미들웨어(330)(예: 미들웨어(143)), (API(360)(예: API(145)), 및/또는 어플리케이션(370)(예: 어플리케이션 프로그램(147))을 포함할 수 있다. 프로그램 모듈(310)의 적어도 일부는 전자 장치 상에 프리로드 되거나, 외부 전자 장치(예: 전자 장치(102, 104), 서버(106) 등)로부터 다운로드 가능하다.
커널(320)은, 예를 들면, 시스템 리소스 매니저(321) 및/또는 디바이스 드라이버(323)를 포함할 수 있다. 시스템 리소스 매니저(321)는 시스템 리소스의 제어, 할당, 또는 회수를 수행할 수 있다. 한 실시예에 따르면, 시스템 리소스 매니저(321)는 프로세스 관리부, 메모리 관리부, 또는 파일 시스템 관리부를 포함할 수 있다. 디바이스 드라이버(323)는, 예를 들면, 디스플레이 드라이버, 카메라 드라이버, 블루투스 드라이버, 공유 메모리 드라이버, USB 드라이버, 키패드 드라이버, WiFi 드라이버, 오디오 드라이버, 또는 IPC(inter-process communication) 드라이버를 포함할 수 있다.
미들웨어(330)는, 예를 들면, 어플리케이션(370)이 공통적으로 필요로 하는 기능을 제공하거나, 어플리케이션(370)이 전자 장치 내부의 제한된 시스템 자원을 사용할 수 있도록 API(360)를 통해 다양한 기능들을 어플리케이션(370)으로 제공할 수 있다. 한 실시예에 따르면, 미들웨어(330) 는 런타임 라이브러리(335), 어플리케이션 매니저(341), 윈도우 매니저(342), 멀티미디어 매니저(343), 리소스 매니저(344), 파워 매니저(345), 데이터베이스 매니저(346), 패키지 매니저(347), 커넥티비티 매니저(348), 노티피케이션 매니저(349), 로케이션 매니저(350), 그래픽 매니저(351), 또는 시큐리티 매니저(352) 중 적어도 하나를 포함할 수 있다.
런타임 라이브러리(335)는, 예를 들면, 어플리케이션(370)이 실행되는 동안에 프로그래밍 언어를 통해 새로운 기능을 추가하기 위해 컴파일러가 사용하는 라이브러리 모듈을 포함할 수 있다. 런타임 라이브러리(335)는 입출력 관리, 메모리 관리, 또는 산술 함수 처리를 수행할 수 있다. 어플리케이션 매니저(341)는, 예를 들면, 어플리케이션(370)의 생명 주기를 관리할 수 있다. 윈도우 매니저(342)는 화면에서 사용되는 GUI 자원을 관리할 수 있다. 멀티미디어 매니저(343)는 미디어 파일들의 재생에 필요한 포맷을 파악하고, 해당 포맷에 맞는 코덱을 이용하여 미디어 파일의 인코딩 또는 디코딩을 수행할 수 있다.
리소스 매니저(344)는 어플리케이션(370)의 소스 코드 또는 메모리의 공간을 관리할 수 있다. 파워 매니저(345)는, 예를 들면, 배터리의 용량 또는 전원을 관리하고, 전자 장치의 동작에 필요한 전력 정보를 제공할 수 있다. 한 실시예에 따르면, 파워 매니저(345)는 바이오스(BIOS: basic input/output system)와 연동할 수 있다. 데이터베이스 매니저(346)는, 예를 들면, 어플리케이션(370)에서 사용될 데이터베이스를 생성, 검색, 또는 변경할 수 있다. 패키지 매니저(347)는 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 갱신을 관리할 수 있다.
커넥티비티 매니저(348)는, 예를 들면, 무선 연결을 관리할 수 있다. 노티피케이션 매니저(349)는, 예를 들면, 도착 메시지, 약속, 근접성 알림 등의 이벤트를 사용자에게 제공할 수 있다. 로케이션 매니저(350)는, 예를 들면, 전자 장치의 위치 정보를 관리할 수 있다. 그래픽 매니저(351)는, 예를 들면, 사용자에게 제공될 그래픽 효과 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다. 보안 매니저(352)는, 예를 들면, 시스템 보안 또는 사용자 인증을 제공할 수 있다.
한 실시예에 따르면, 미들웨어(330)는 전자 장치의 음성 또는 영상 통화 기능을 관리하기 위한 통화(telephony) 매니저 또는 전술된 구성요소들의 기능들의 조합을 형성할 수 있는 하는 미들웨어 모듈을 포함할 수 있다. 한 실시예에 따르면, 미들웨어(330)는 운영 체제의 종류 별로 특화된 모듈을 제공할 수 있다. 미들웨어(330)는 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다. API(360)는, 예를 들면, API 프로그래밍 함수들의 집합으로, 운영 체제에 따라 다른 구성으로 제공될 수 있다. 예를 들면, 안드로이드 또는 iOS의 경우, 플랫폼 별로 하나의 API 셋을 제공할 수 있으며, 타이젠의 경우, 플랫폼 별로 두 개 이상의 API 셋을 제공할 수 있다.
어플리케이션(370)은, 예를 들면, 홈(371), 다이얼러(372), SMS/MMS(373), IM(instant message)(374), 브라우저(375), 카메라(376), 알람(377), 컨택트(378), 음성 다이얼(379), 이메일(380), 달력(381), 미디어 플레이어(382), 앨범(383), 와치(384), 헬스 케어(예: 운동량 또는 혈당 등을 측정), 또는 환경 정보(예: 기압, 습도, 또는 온도 정보) 제공 어플리케이션을 포함할 수 있다. 한 실시예에 따르면, 어플리케이션(370)은 전자 장치와 외부 전자 장치 사이의 정보 교환을 지원할 수 있는 정보 교환 어플리케이션을 포함할 수 있다. 정보 교환 어플리케이션은, 예를 들면, 외부 전자 장치에 특정 정보를 전달하기 위한 노티피케이션 릴레이 어플리케이션, 또는 외부 전자 장치를 관리하기 위한 장치 관리 어플리케이션을 포함할 수 있다.
예를 들면, 알림 전달 어플리케이션은 전자 장치의 다른 어플리케이션에서 발생된 알림 정보를 외부 전자 장치로 전달하거나, 또는 외부 전자 장치로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 장치 관리 어플리케이션은, 예를 들면, 전자 장치와 통신하는 외부 전자 장치의 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴-온/턴-오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 또는 외부 전자 장치에서 동작하는 어플리케이션을 설치, 삭제, 또는 갱신할 수 있다. 한 실시예에 따르면, 어플리케이션(370)은 외부 전자 장치의 속성에 따라 지정된 어플리케이션(예: 모바일 의료 기기의 건강 관리 어플리케이션)을 포함할 수 있다. 한 실시예에 따르면, 어플리케이션(370)은 외부 전자 장치로부터 수신된 어플리케이션을 포함할 수 있다. 프로그램 모듈(310)의 적어도 일부는 소프트웨어, 펌웨어, 하드웨어(예: 프로세서(210)), 또는 이들 중 적어도 둘 이상의 조합으로 구현(예: 실행)될 수 있으며, 하나 이상의 기능을 수행하기 위한 모듈, 프로그램, 루틴, 명령어 세트 또는 프로세스를 포함할 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays), 또는 프로그램 가능 논리 장치를 포함할 수 있다. 다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체(예: 메모리(130))에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서(120))에 의해 실행될 경우, 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다.
도 4는 다양한 실시예들에 따른 전자 장치의 구성을 도시한 도면이다.
도 4를 참조하면, 전자 장치(400)(예: 전자 장치(101) 또는 전자 장치(201))는 프로세서(410), 음성 인식부(411), 생체 인식 센서(430), 메모리(440), 디스플레이(450) 및 통신부(420)를 포함할 수 있다.
프로세서(410)는 검출되는 음성을 인식하고, 선택된 컨텐츠를 음성으로 암호화하고, 사용자의 목소리에 기반하여 암호화된 컨텐츠를 제공할 수 있다. 상기 컨텐츠는 텍스트, 이미지, 비디오, 문서, 파일, 어플리케이션 또는 프로그램 중 적어도 하나를 포함할 수 있다. 이러한, 프로세서(410)는 음성 인식부(411), 음성 암호 처리부(413) 또는 화자 인식부(415)를 포함할 수 있다. 음성 인식부(411)는 마이크(예: 마이크(288))를 통해 입력되는 소리를 음성 신호 처리하여(예: pre-processing) 음성을 인식(예: automatic speech recognition; ASR)하는 역할을 할 수 있다. 또한, 음성 인식부(411)는 인식된 음성에 대한 언어 처리(예: 자연어 이해(natural language understanding; NLU)), 대화 관리(dialogue management; DM) 또는 텍스트에서 음성 변환(text to speech; TTS))을 수행할 수 있다. 이러한, 음성 인식부(411)는 음성 처리 및 음성 인식을 위해 음성 처리 서버와 연동할 수 있다. 즉, 음성 인식부(411)는 음성 신호를 상기 음성 처리 서버로 전송하고, 상기 음성 처리 서버로부터 음성 정보(또는 음성 정보에 대응하는 텍스트 정보)를 수신할 수 있다. 음성 인식부(411)는 인식된 음성 정보를 음성 암호 처리부(413)로 전달할 수 있다.
음성 암호 처리부(413)는 사용자로부터 선택된 컨텐츠의 특성(예: 속성 정보, 메타 데이터 또는 태그 정보 등)을 이용하여 암호 정보를 생성할 수 있다. 또는, 음성 암호 처리부(413)는 전자 장치(400)의 상황(context) 정보를 더 고려하여 상기 암호 정보를 생성할 수 있다. 또한, 음성 암호 처리부(413)는 음성 인식부(411)로부터 전달되는 음성 정보를 이용하여 상기 선택된 컨텐츠를 음성으로 암호화할 수 있다. 컨텐츠를 암호화하는 것은 예를 들어, 사용자가 아닌 타인에게 컨텐츠가 보이지 않도록 처리하는 것을 의미할 수 있다. 따라서, 컨텐츠 암호화는 컨텐츠 숨김 처리 또는 컨텐츠 잠금 처리를 의미할 수 있다.
또한, 화자 인식부(415)는 음성 인식부(411)로부터 전달되는 음성 정보가 사용자의 목소리인지 인식할 수 있다. 예를 들어, 화자 인식부(415)는 음성 인식부(411)로부터 전달되는 음성 정보가 사용자의 목소리인 경우, 암호화된 컨텐츠가 제공되도록 제어할 수 있다. 그러나, 화자 인식부(415)는 음성 인식부(411)로부터 전달되는 음성 정보가 사용자의 목소리가 아닌 경우, 암호화된 컨텐츠를 제공되지 않도록 제어할 수 있다. 또는, 화자 인식부(415)는 음성 인식부(411)로부터 전달되는 음성 정보가 사용자의 목소리가 아닌 경우, 사용자에게 생체 정보를 인식하도록 요청할 수 있다.
생체 인식 센서(430)는 사용자의 생체 특성을 인식하는 센서일 수 있다. 예를 들어, 생체 인식 센서(430)는 음성 인식 센서, 망막 인식 센서, 홍채 인식 센서, 얼굴 인식 센서 또는 지문 인식 센서 중 적어도 하나를 포함할 수 있다. 생체 인식 센서(430)는 인식된 사용자의 생체 정보를 프로세서(410)로 전달할 수 있다.
프로세서(410)는 암호 정보 및 상기 암호 정보에 대응하는 음성 정보를 메모리(440)에 저장할 수 있다. 메모리(440)는 암호 정보 및 상기 암호 정보에 대응하는 음성 정보를 저장하는 암호 저장부 및 상기 음성 정보로 암호화된 컨텐츠를 저장하는 컨텐츠 저장부를 포함할 수 있다. 또한, 메모리(440)는 사용자의 목소리, 음성 호출 명령어, 숨김 명령어(또는 암호화 명령어, 잠금 명령어), 해제 명령어 또는 컨텐츠 호출 명령어에 대응하는 음성 명령어 테이블을 저장할 수 있다. 또한, 메모리(440)는 생체 정보를 더 저장할 수 있다. 이러한, 메모리(440)는 도 1의 메모리(130) 또는 도 2의 메모리(230)와 동일 또는 유사할 수 있다.
프로세서(410)는 실행된 컨텐츠 또는 컨텐츠 암호와 관련된 다양한 사용자 인터페이스를 디스플레이(450)에 표시할 수 있다. 이러한, 디스플레이(450)는 도 1의 디스플레이(160) 또는 도 2의 디스플레이(260)와 동일 또는 유사할 수 있다. 프로세서(410)는 통신부(420)를 이용하여 전자 장치(400)와 연결된 다른 전자 장치 또는 서버와 데이터를 교환할 수 있다. 이러한, 통신부(420)는 도 1의 통신 인터페이스(170) 또는 도 2의 통신 모듈(220)과 동일 또는 유사할 수 있다.
다양한 실시예들에 따른 전자 장치(400)는 음성 인식부(411), 메모리(440), 디스플레이(450), 및 상기 음성 인식부, 상기 메모리 또는 상기 디스플레이와 기능적으로 연결된 프로세서(410)를 포함하고, 상기 프로세서는, 상기 음성 인식부에 의해 인식된 사용자의 음성 정보가 숨김 명령어를 포함하는 경우, 상기 사용자에 의해 선택된 컨텐츠의 암호 정보를 획득하고, 상기 획득한 암호 정보를 상기 사용자에게 발화하도록 요청하고, 상기 요청에 따라 수신되는 음성 정보에 기반하여 상기 컨텐츠를 암호화하도록 설정될 수 있다.
상기 프로세서는, 상기 음성 정보가 인증된 사용자의 목소리인지 판단하고, 인증된 사용자의 목소리인 경우 상기 암호 정보를 생성하도록 설정될 수 있다.
상기 프로세서는, 상기 선택된 컨텐츠와 연관된 적어도 하나 이상의 정보에 기반하여 암호 정보를 생성하도록 설정될 수 있다.
상기 프로세서는, 상기 컨텐츠의 속성 정보 또는 상기 전자 장치의 상황 정보에 기반하여 상기 암호 정보를 생성하도록 설정될 수 있다.
상기 프로세서는, 상기 사용자로부터 암호 정보를 입력받도록 설정될 수 있다.
상기 프로세서는, 상기 암호 정보 및 상기 암호 정보에 대응하는 음성 정보를 상기 컨텐츠와 연관하여 상기 메모리에 저장하도록 설정될 수 있다.
상기 프로세서는, 상기 음성 인식부에 의해 인식된 음성 정보가 암호화된 컨텐츠 호출 명령어인 경우, 상기 암호화된 컨텐츠와 연관된 암호 정보를 발화하도록 요청하고, 상기 요청에 따라 수신되는 음성 정보가 상기 메모리에 저장된 암호 정보와 동일한지 여부를 판단하여 암호화된 컨텐츠를 제공하도록 설정될 수 있다.
상기 프로세서는, 상기 요청에 따라 수신되는 음성 정보가 상기 메모리에 저장된 암호 정보에 대응하는 음성 정보와 동일한 경우 암호화된 컨텐츠를 제공하도록 설정될 수 있다.
상기 전자 장치는 생체 인식 센서(430)를 더 포함하고, 상기 프로세서는, 상기 요청에 따라 수신되는 음성 정보의 텍스트 정보가 상기 메모리에 저장된 암호 정보와 동일하지 않은 경우 상기 생체 인식 센서를 이용한 생체 정보 인증을 통해 암호화된 컨텐츠를 제공하도록 설정될 수 있다.
상기 프로세서는, 상기 음성 인식부에 의해 인식된 음성 정보에 컨텐츠 호출 명령어가 포함되어 있는 경우, 상기 메모리에 저장된 컨텐츠를 검색하여 상기 검색된 컨텐츠가 암호화되었는지 판단하고, 상기 컨텐츠가 암호화된 경우 상기 암호화된 컨텐츠와 연관된 암호 정보를 발화하도록 요청하고, 상기 요청에 따라 수신되는 음성 정보가 상기 메모리에 저장된 암호 정보와 동일한지 여부를 판단하여 암호화된 컨텐츠를 제공하도록 설정될 수 있다.
상기 프로세서는, 상기 음성 인식부에 의해 인식된 음성 정보가 암호화된 컨텐츠 해제 명령어인 경우, 상기 암호화된 컨텐츠와 연관된 암호 정보를 발화하도록 요청하고, 상기 요청에 따라 수신되는 음성 정보가 상기 메모리에 저장된 암호 정보와 동일한지 여부를 판단하여 암호화된 컨텐츠에 대한 암호를 해제하도록 설정될 수 있다.
상기 프로세서는, 상기 요청에 따라 수신되는 음성 정보의 텍스트 정보가 상기 메모리에 저장된 암호 정보와 동일하지 않은 경우 상기 생체 인식 센서를 이용한 생체 정보 인증을 통해 암호화된 컨텐츠에 대한 암호를 해제하도록 설정될 수 있다.
도 5는 다양한 실시예들에 따른 전자 장치의 동작 방법을 도시한 흐름도이다.
도 5를 참조하면, 동작(501)에서, 전자 장치(400)(예: 프로세서(410))는 음성 입력을 검출할 수 있다. 프로세서(410)(예: 음성 인식부(411))는 마이크(예: 마이크(288))로부터 소리가 입력되는지 여부를 검출할 수 있다. 다양한 실시예들에 따른 프로세서(410)는 음성 웨이크-업(voice wake-up) 방식에 기반하여 음성 서비스를 시작(예: 음성 기능 활성화)할 수 있다. 이를 위해, 프로세서(410)는 웨이크-업 처리부(또는 웨이크-업 엔진(wake-up engine))를 더 포함할 수 있다. 다양한 실시예들에 따르면, 전자 장치(400)는 상기 웨이크-업 처리부를 포함하는 저전력 모드의 제1 프로세서와 음성 인식부(411), 음성 암호 처리부(413) 및 화자 인식부(415)를 포함하는 제2 프로세서를 포함할 수 있다.
한 실시 예에 따르면, 프로세서(410)는 특정 음성 명령어(예: 단어)를 음성 호출 명령어(예: 웨이크-업 워드(wake-up word))로 사용할 수 있으며, 음성 호출 명령어가 입력되기 이전에는 사용자 발화에 대한 음성 인식을 수행하지 않을 수 있다. 음성 호출 명령어(예: 웨이크-업 워드)는, 예를 들면, 전자 장치(또는 전자 장치의 에이전트(agent)(또는 인공 지능(AI, artificial intelligence))의 이름(name) 등이 웨이크-업 워드로 사용될 수 있다. 사용자는 전자 장치(400)에서 음성 서비스를 이용하기 위해서는, 음성 인식 엔진(예: 음성 에이전트(voice agent))을 구동시키기 위한 음성 호출 명령어를 포함해야 하며, 이를 웨이크-업 커맨드(wake-up command) 또는 웨이크-업 워드(wake-up word)라 할 수 있다. 전자 장치는 음성 호출 명령어를 인식하는 경우, 음성 인식 엔진을 구동하고, 이후 사용자의 발화를 인식하여 음성 서비스를 제공하고 있다.
다양한 실시예들에 따르면, 프로세서(410)는 특정 버튼(예: 홈 버튼)이 선택되거나, 특정 명령어가 입력되는 등의 사용자 입력에 기반하여 음성 서비스를 시작할 수 있다. 프로세서(410)(예: 음성 인식부(411))는 음성 서비스를 시작하여 마이크로부터 입력되는 소리를 검출하여 음성 신호 처리할 수 있다. 음성 신호 처리란 음성 인식을 위한 전처리 과정으로서, 예를 들어, 소리를 음성 신호로 변환하는 것을 의미할 수 있다.
동작(503)에서, 전자 장치(400)(예: 프로세서(410))는 검출된 음성 입력에 대한 음성을 인식할 수 있다. 예를 들어, 프로세서(410)(예: 음성 인식부(411)는 상기 변환된 음성 신호에 대한 언어를 처리하여 텍스트로 변환(예: speech to text)할 수 있다. 음성 인식 기술에 대해서는 이미 공지된 기술이므로, 자세한 설명을 생략할 수 있다.
동작(505)에서, 전자 장치(400)(예: 프로세서(410))는 인식된 음성에 숨김 명령어(또는 암호화 명령어, 잠금 명령어)가 포함되어 있는지 판단할 수 있다. 상기 인식된 음성에 숨김 명령어가 포함되어 있는 경우, 프로세서(410)는 사용자가 컨텐츠를 숨기려는 의도를 갖고 발화한 것으로 판단할 수 있다. 상기 숨김 명령어는 컨텐츠를 암호화하여 상기 사용자가 아닌 타인이 상기 컨텐츠를 보지 못하도록 요청하는 명령일 수 있다. 예를 들어, 상기 숨김 명령어는 '숨겨줘', '안보이게 해줘', '암호', '보안', '비밀', '잠금' 등의 단어를 포함할 수 있다. 상기 숨김 명령어에 대한 단어는 메모리(440)에 미리 저장되어 있을 수 있다. 프로세서(410)(예: 음성 암호 처리부(413))는 상기 음성을 변환한 텍스트가 메모리(440)에 저장된 숨김 명령어에 대응되는지 여부를 판단할 수 있다.
프로세서(410)는 상기 음성을 변환한 텍스트 정보 중 적어도 일부가 상기 숨김 명령어에 대응되는 경우 동작(507)을 수행하고, 상기 음성을 변환한 텍스트 정보 중 적어도 일부가 상기 숨김 명령어에 대응되지 않는 경우 동작(506)을 수행할 수 있다.
동작(506)에서, 전자 장치(400)(예: 프로세서(410))는 상기 인식된 음성에 대응하는 기능을 수행할 수 있다. 다양한 실시예들에 따른 프로세서(410)(예: 음성 인식부(411))는 음성 인식 기술을 활용하여 상기 인식된 음성에 대응하는 다양한 기능(또는 서비스)을 제공할 수 있다. 예를 들어, 프로세서(410)는 상기 음성을 변환한 텍스트에 기반하여 모바일 검색, 일정 관리, 전화 걸기, 메모, 또는 음악 재생 등 다양한 기능을 제공할 수 있다.
동작(507)에서, 전자 장치(400)(예: 프로세서(410))는 상기 인식된 음성(또는 검출된 음성 입력)이 인증된 사용자의 목소리인지 판단할 수 있다. 다양한 실시예들에 따른 프로세서(410)(예: 화자 인식부(415))는 상기 음성 신호를 이용하여 사용자의 목소리를 식별할 수 있다. 예를 들어, 프로세서(410)는 상기 음성 신호로부터 특정 주파수를 추출하고, 추출된 주파수가 사용자 특유의 음성 주파수와 일치하는지 여부를 판단할 수 있다. 이를 위해, 메모리(440)에는 사용자의 목소리에 대한 음성 주파수가 저장되어 있을 수 있다. 동작(507)은 음성 인식 전에 즉, 동작(501) 이후에 수행될 수 있다. 다만, 인식된 음성이 숨김 명령어가 아닌 경우에는 일반적인 음성 서비스를 제공하므로, 음성 서비스를 제공할 때는 인증된 사용자의 목소리인지 판단하는 동작을 수행하지 않을 수 있다. 프로세서(410)는 숨김 명령어가 입력되고, 상기 인식된 음성이 상기 인증된 사용자의 목소리가 아닌 경우, 컨텐츠를 암호화하기 위한 동작들(예: 동작(509) 내지 동작(515))을 수행하지 않을 수 있다.
프로세서(410)는 상기 인식된 음성이 인증된 사용자의 목소리와 일치하는 경우 동작(509)을 수행하고, 상기 인식된 음성이 인증된 사용자의 목소리와 일치하지 않는 경우 동작(508)을 수행할 수 있다.
동작(508)에서, 전자 장치(400)(예: 프로세서(410))는 상기 인식된 음성이 미인증 사용자임을 알림할 수 있다. 프로세서(410)(예: 화자 인식부(415))는 상기 인식된 음성이 전자 장치(400)의 사용자가 아님을 안내할 수 있다. 예를 들어, 프로세서(410)는 메모리(440)에 사용자의 목소리와 연관된 음성 주파수가 저장되어 있지 않은 경우 사용자에게 음성 주파수를 저장할 것을 요청할 수 있다. 프로세서(410)는 "목소리 인증을 먼저 수행하세요" 등의 안내 메시지를 디스플레이(450)에 표시하거나, 스피커(예: 스피커(282))를 통해 안내 메시지(예: "목소리 인증을 먼저 수행하세요")를 음성으로 출력할 수 있다. 사용자는 자신의 목소리를 먼저 인증한 후 동작(501)에서와 같이 전자 장치(400)에 음성 입력할 수 있다.
예를 들어, 프로세서(410)는 메모리(440)에 저장된 음성 주파수와 상기 인식된 음성이 일치하지 않는 경우, 다시 음성 입력할 것을 요청할 수 있다. 프로세서(410)는 "인증된 사용자가 아닙니다. 음성 입력을 다시 수행하세요" 등의 안내 메시지를 디스플레이(450)에 표시하거나, 스피커(예: 스피커(282))를 통해 안내 메시지를 음성으로 출력할 수 있다. 이 경우, 사용자는 자신의 음성이 맞는데도 전자 장치(400) 상의 오류로 인해 음성 인식이 안될 경우 다시 동작(501)에서와 같이 전자 장치(400)에 음성 입력할 수 있다.
예를 들어, 프로세서(410)는 메모리(440)에 저장된 음성 주파수와 상기 인식된 음성이 일치하지 않으므로, 컨텐츠를 암호화하는 프로세스를 수행할 수 없음을 안내할 수 있다. 프로세서(410)는 "인증된 사용자가 아닙니다. 서비스를 종료합니다." 등의 안내 메시지를 디스플레이(450)에 표시하거나, 스피커(예: 스피커(282))를 통해 안내 메시지를 음성으로 출력할 수 있다. 이 경우, 사용자는 자신의 음성이 맞는데도 전자 장치(400) 상의 오류로 인해 음성 인식이 안될 경우 다시 동작(501)에서와 같이 전자 장치(400)에 음성 입력할 수 있다. 타인의 경우 자신의 목소리로는 서비스 이용이 안된다는 것을 알고 더 이상 진행하지 않을 수 있다.
동작(509)에서, 전자 장치(400)(예: 프로세서(410))는 암호 생성 방법에 따라 암호 정보를 생성할 수 있다. 다양한 실시예들에 따른 프로세서(410)(예: 음성 암호 처리부(413))는 동작(501)을 수행하기 전에 사용자로부터 숨기려는 컨텐츠를 선택받을 수 있다. 상기 컨텐츠는 텍스트, 이미지, 비디오, 문서, 파일, 어플리케이션 또는프로그램 중 적어도 하나를 포함할 수 있다. 예를 들어, 사용자는 숨기려는 컨텐츠가 디스플레이(450)에 적어도 일부분 표시된 상태에서 숨김 명령어를 포함한 음성을 입력할 수 있다.
다양한 실시예들에 따른 프로세서(410)는 동작(507)을 수행한 후 사용자로부터 숨기려는 컨텐츠를 선택받을 수 있다. 예를 들어, 프로세서(410)는 동작(507)을 수행한 후 현재 전자 장치(400)에서 실행 중인 컨텐츠 리스트 또는 메모리(440)에 저장된 컨텐츠 중에서 숨기기가 가능한 컨텐츠 리스트를 제공할 수 있다. 프로세서(410)는 상기 컨텐츠 리스트 중에서 상기 사용자로부터 적어도 하나의 컨텐츠를 선택받을 수 있다.
다양한 실시예들에 따른 프로세서(410)(예: 음성 암호 처리부(413))는 사용자로부터 선택된 컨텐츠의 속성 정보 또는 전자 장치(400)의 상황 정보를 이용하여 암호 정보를 생성할 수 있다. 예를 들어, 상기 컨텐츠의 속성 정보는 상기 컨텐츠와 연관된 정보를 의미하는 것으로, 메타 데이터 또는 태그 정보를 더 포함할 수 있다. 상기 상황 정보는 상기 컨텐츠 생성(또는 획득) 시 전자 장치(400)로부터 획득되는 정보일 수 있다. 예를 들어, 상기 상황 정보는 날짜, 시간, 위치(예: 지리적 위치), 또는 저장 위치 중 적어도 하나를 포함할 수 있다. 또는, 상기 상황 정보에는 사용자의 사용 이력을 기반한 사용 이력 정보가 더 포함될 수 있다. 상기 사용 이력 정보에는 사용자가 가장 많이 쓰는 어플리케이션, 가장 많이 쓰는 단어, 가장 많이 연락하는 상대방 정보 등이 포함될 수 있다. 상기 컨텐츠의 속성 정보는 컨텐츠와 연관된 이름, 크기, 타입, 생성 일시, 생성 위치, 생성 모드, 생성 방식, 재생 시간, 저장 위치, 앨범 정보, 또는 메모 정보 중 적어도 하나일 수 있다.
다양한 실시예들에 따른 프로세서(410)는 사용자로부터 직접 암호 정보를 입력받을 수 있다. 사용자는 자신이 원하는 암호 정보를 말하거나, 키패드를 통해 직접할 수 있다. 프로세서(410)는 마이크(예: 마이크(288)) 또는 입력 장치(예: 입력 장치(250))를 통해 암호 정보를 수신할 수 있다.
동작(511)에서, 전자 장치(400)(예: 프로세서(410))는 암호 정보를 표시하고, 발화를 요청할 수 있다. 프로세서(410)(예: 음성 암호 처리부(413))는 상기 생성된 암호 정보를 디스플레이(450)에 표시하여 사용자가 상기 표시된 암호 정보를 소리내어 말하도록 안내할 수 있다. 예를 들어, 상기 암호 정보가 "여의도 야경 사진"인 경우, 프로세서(410)는 "'여의도 야경 사진'이라고 따라 읽어주세요'"라는 발화 요청 메시지를 디스플레이(450)에 표시할 수 있다. 또한, 프로세서(410)는 스피커(예: 스피커(282))를 통해 "'여의도 야경 사진'이라고 따라 읽어주세요'"라는 음성을 출력할 수 있다.
동작(513)에서, 전자 장치(400)(예: 프로세서(410))는 발화에 따른 음성 정보를 수신할 수 있다. 프로세서(410)(예: 음성 인식부(411))는 동작(511)에 의해 사용자로부터 마이크(예: 마이크(288))를 통해 음성을 입력받을 수 있다. 프로세서(410)는 입력된 음성을 신호 처리하여 음성 인식할 수 있다. 예를 들어, 프로세서(410)는 상기 입력된 음성에 대한 음성 신호를 음성 처리 서버로 전송하고, 상기 음성 처리 서버로부터 음성 정보(또는 음성 정보에 대응하는 텍스트 정보)를 수신할 수 있다.
동작(515)에서, 전자 장치(400)(예: 프로세서(410))는 음성 정보에 기반하여 컨텐츠를 암호화 처리할 수 있다. 프로세서(410)(예: 음성 암호 처리부(413))는 상기 획득한 음성 정보의 일부 또는 전체를 이용하여 상기 컨텐츠를 암호화하고, 암호화된 컨텐츠를 메모리(440)에 저장할 수 있다. 또한, 프로세서(410)는 암호화된 컨텐츠에 대한 결과를 표시할 수 있다. 예를 들어, 프로세서(410)는 암호화된 컨텐츠에 대한 결과로서, 암호화한 컨텐츠의 암호 정보 또는 상기 컨텐츠에 잠금 표시 이미지(예: 자물쇠 아이콘)를 표시할 수 있다. 또는, 프로세서(410)는 암호화된 컨텐츠에 대한 결과로서, 상기 컨텐츠를 블러(blur) 처리하거나, 음영 처리할 수 있다.
도 6은 다양한 실시예들에 따른 컨텐츠 숨김과 연관된 사용자 인터페이스를 도시한 도면이다.
도 6을 참조하면, 전자 장치(400)(예: 프로세서(410))는 컨텐츠(611)를 포함하는 제1 사용자 인터페이스(610)를 디스플레이(450)에 표시할 수 있다. 프로세서(410)는 제1 사용자 인터페이스(610)에서 사용자로부터 음성(613)을 입력받을 수 있다. 예를 들어, 음성(613)은 전자 장치(400)의 하단부에 구비된 마이크(예: 마이크(288))를 통해 입력될 수 있다. 프로세서(410)는 음성(613)에 대한 신호 처리한 음성 신호를 음성 처리 서버로 전송하고, 음성 처리 서버로부터 음성 정보를 수신할 수 있다. 프로세서(410)는 음성(613)에 대응하는 음성 정보에 숨김 명령어가 포함되어 있는지 판단할 수 있다. 프로세서(410)는 상기 음성 정보에 숨김 명령어가 포함되어 있는 경우, 컨텐츠(611)와 연관된 정보에 기반하여 컨텐츠(611)를 암호화할 암호 정보를 생성할 수 있다. 컨텐츠(611)와 연관된 정보는 컨텐츠(611)의 속성 정보(예: 사진) 또는 전자 장치(400)의 상황 정보(예: 시간, 위치, 사용 이력)를 포함할 수 있다. 예를 들어, 프로세서(410)는 "여의도 야경 숨김파일"로 암호 정보를 생성할 수 있다.
프로세서(410)는 컨텐츠(621) 및 컨텐츠 암호화를 위한 발화 요청 메시지(623)를 포함하는 제2 사용자 인터페이스(620)를 디스플레이(450)에 표시할 수 있다. 발화 요청 메시지(623)는 "'여의도 야경 숨김 파일'이라고 따라 읽어주세요"라는 가이드 메시지를 사용자에게 제공하는 것일 수 있다. 또한, 프로세서(410)는 스피커(예: 스피커(282))를 통해 발화 요청 메시지(623)를 음성으로 출력할 수 있다. 프로세서(410)는 발화 요청 메시지(623)에 의해 상기 사용자로부터 마이크(예: 마이크(288))를 통해 음성을 입력받을 수 있다. 프로세서(410)는 상기 입력된 음성에 대한 음성 신호를 음성 처리 서버로 전송하고, 상기 음성 처리 서버로부터 음성 정보를 수신할 수 있다. 프로세서(410))는 상기 음성 정보의 일부 또는 전체에 기반하여 컨텐츠를 암호화 처리할 수 있다. 프로세서(410)는 상기 음성 정보에 기반하여 상기 컨텐츠를 암호화하고, 암호화된 컨텐츠에 대한 결과를 표시할 수 있다. 예를 들어, 프로세서(410)는 암호화된 컨텐츠에 대한 결과로서, 암호화한 컨텐츠의 암호 정보 또는 상기 컨텐츠에 잠금 표시 이미지(예: 자물쇠 아이콘)를 표시할 수 있다.
도 7은 다양한 실시예들에 따른 사용자 음성을 이용한 컨텐츠 암호화 방법을 도시한 흐름도이다. 도 7은 도 5의 흐름도를 조금 더 구체화한 것이다.
도 7을 참조하면, 동작(701)에서, 전자 장치(400)(예: 프로세서(410))는 컨텐츠를 실행할 수 있다. 프로세서(410)는 사용자의 명령에 의해 컨텐츠를 실행할 수 있다. 상기 컨텐츠는 텍스트, 이미지, 비디오, 문서, 파일, 어플리케이션, 프로그램 중 적어도 하나를 포함할 수 있다. 예를 들어, 프로세서(410)는 실행된 컨텐츠를 디스플레이(450)에 표시할 수 있다.
동작(703)에서, 전자 장치(400)(예: 프로세서(410))는 음성 입력을 검출할 수 있다. 프로세서(410)(예: 음성 인식부(411))는 마이크(예: 마이크(288))로부터 소리가 입력되는지 여부를 검출할 수 있다. 예를 들어, 프로세서(410))는 음성 호출 명령어(예: 웨이크-업 워드), 특정 버튼 선택, 특정 명령어 입력 중 적어도 하나가 검출되면, 음성 인식을 위한 기능(예: 음성 서비스))을 활성화할 수 있다. 동작(703)은 도 5의 동작(501)과 동일 또는 유사하므로, 자세한 설명은 생략하기로 한다.
동작(705)에서, 전자 장치(400)(예: 프로세서(410))는 검출된 음성 입력에 대한 음성을 인식할 수 있다. 예를 들어, 프로세서(410)(예: 음성 인식부(411)는 상기 변환된 음성 신호에 대한 언어를 처리하여 텍스트로 변환할 수 있다. 프로세서(410)는 상기 음성 인식을 위해 음성 처리 서버와 연동할 수 있다. 동작(705)은 도 5의 동작(503)과 동일 또는 유사하므로, 자세한 설명은 생략하기로 한다.
동작(707)에서, 전자 장치(400)(예: 프로세서(410))는 인식된 음성에 숨김 명령어가 포함되어 있는지 판단할 수 있다. 예를 들어, 상기 숨김 명령어는 '숨겨줘', '안보이게 해줘', '암호', '보안', '비밀', '잠금' 등의 단어를 포함할 수 있다. 상기 숨김 명령어에 대한 단어는 메모리(440)에 미리 저장되어 있을 수 있다. 프로세서(410)(예: 음성 암호 처리부(413))는 상기 인식된 음성에 대응하는 텍스트 정보가 메모리(440)에 저장된 숨김 명령어에 대응되는지 여부를 판단할 수 있다. 동작(707)은 도 5의 동작(505)과 동일 또는 유사하므로, 자세한 설명은 생략하기로 한다.
프로세서(410)는 상기 음성을 변환한 텍스트 정보 중 적어도 일부가 상기 숨김 명령어에 대응되는 경우 동작(709)을 수행하고, 상기 음성을 변환한 텍스트 정보 중 적어도 일부가 상기 숨김 명령어에 대응되지 않는 경우 동작(708)을 수행할 수 있다.
동작(708)에서, 전자 장치(400)(예: 프로세서(410))는 상기 인식된 음성에 대응하는 기능을 수행할 수 있다. 다양한 실시예들에 따른 프로세서(410)(예: 음성 인식부(411))는 상기 음성을 변환한 텍스트 정보에 대응하여 다양한 기능(또는 서비스)을 제공할 수 있다. 예를 들어, 프로세서(410)는 상기 인식된 음성이 '메모'인 경우, 메모 어플리케이션을 실행시켜 메모 리스트를 제공할 수 있다.
동작(709)에서, 전자 장치(400)(예: 프로세서(410))는 상기 인식된 음성(또는 검출된 음성 입력)이 인증된 사용자의 목소리인지 판단할 수 있다. 상기 인증된 사용자의 목소리는 전자 장치(400)를 소유한 사용자를 의미할 수 있다. 상기 숨김 명령어는 전자 장치(400)의 사용자를 제외한 타인에게 컨텐츠가 노출되는 것을 미연에 방지하기 위하여 상기 사용자가 상기 컨텐츠를 암호화하기를 요청하는 것일 수 있다. 따라서, 프로세서(410)는 전자 장치(400)의 사용자를 제외한 타인에 의해 숨김 명령어가 입력되었을 경우에는 컨텐츠를 암호화하는 동작들(예: 동작(509) 내지 동작(515))을 수행하지 않을 수 있다. 예를 들어, 프로세서(410)(예: 화자 인식부(415))는 상기 음성 신호로부터 특정 주파수를 추출하고, 추출된 주파수가 메모리(440)에 저장된 사용자 특유의 음성 주파수와 일치하는지 여부를 판단할 수 있다.
다양한 실시예들에 따른 동작(709)은 음성 인식 전에 즉, 동작(703) 이후에 수행될 수 있다. 다만, 인식된 음성이 숨김 명령어가 아닌 경우에는 일반적인 음성 기능을 제공하므로, 동작(708)을 수행할 경우에는 인증된 사용자의 목소리인지 판단하는 동작을 수행하지 않을 수 있다. 즉, 프로세서(410)는 불필요한 프로세싱을 줄이기 위하여 상기 인식된 음성에 숨김 명령어가 포함되어 있는 경우에만 상기 음성 입력이 인증된 사용자의 목소리인지 판단할 수 있다.
다양한 실시예들에 따른 프로세서(410)는 사용자의 설정 또는 전자 장치(400)의 설정에 따라 음성 서비스 제공 시에도 상기 음성 입력이 인증된 사용자의 목소리인지 판단할 수 있다. 왜냐하면, 상기 음성 서비스 중에 일정 관리, 전화 걸기 등은 잠금 설정되어 있을 수 있다. 이 경우, 프로세서(410)는 음성 서비스를 수행하기 전에 인식된 음성이 인증된 사용자의 목소리인지 여부를 판단하여, 인증된 사용자의 목소리인 경우에만 음성 서비스를 제공할 수 있다. 즉, 프로세서(410)는 모든 음성 서비스를 수행하기 전에 또는 수행하려는 음성 서비스가 사용자에 의해 잠금 설정되어 있는 경우, 인식된 음성이 인증된 사용자의 목소리인지 여부를 판단할 수 있다. 이 경우, 동작(709)은 동작(705) 전에 수행될 수 있다. 프로세서(410)는 인식된 음성이 인증된 사용자의 목소리이고, 상기 인식된 음성에 숨김 명령어가 포함되어 있지 않은 경우, 음성 서비스를 제공할 수 있다.
프로세서(410)는 상기 인식된 음성이 인증된 사용자의 목소리와 일치하는 경우 동작(711)을 수행하고, 상기 인식된 음성이 인증된 사용자의 목소리와 일치하지 않는 경우 동작(710)을 수행할 수 있다.
동작(710)에서, 전자 장치(400)(예: 프로세서(410))는 상기 인식된 음성이 미인증 사용자임을 알림할 수 있다. 프로세서(410)(예: 화자 인식부(415))는 상기 인식된 음성이 전자 장치(400)의 사용자가 아님을 안내할 수 있다. 예를 들어, 프로세서(410)는 메모리(440)에 사용자의 목소리와 연관된 음성 주파수가 저장되어 있지 않은 경우 사용자에게 음성 주파수를 저장할 것을 요청할 수 있다. 또는, 프로세서(410)는 메모리(440)에 저장된 음성 주파수와 상기 인식된 음성이 일치하지 않는 경우, 다시 음성 입력할 것을 요청할 수 있다. 또는, 프로세서(410)는 메모리(440)에 저장된 음성 주파수와 상기 인식된 음성이 일치하지 않으므로, 컨텐츠를 암호화하는 프로세스를 수행할 수 없음을 안내할 수 있다.
동작(711)에서, 전자 장치(400)(예: 프로세서(410))는 암호 생성 방법을 확인할 수 있다. 사용자는 전자 장치(400)에서 컨텐츠를 암호화할 때 전자 장치(400)에서 암호 정보를 자동으로 생성(예: 자동 암호 생성 방법)하도록 할 것인지, 사용자가 직접 원하는 암호를 입력(예: 수동 암호 생성 방법)하도록 할 것인지 전자 장치(400)에 미리 설정할 수 있다. 프로세서(410)는 전자 장치(400)에 설정된 암호 생성 방법을 확인하여 사용자가 원하는 암호 생성 방법이 무엇인지 판단할 수 있다.
다양한 실시예들에 따른 프로세서(410)는 암호 생성 방법을 선택하기 위한 사용자 인터페이스를 제공할 수 있다. 상기 사용자 인터페이스에는 '암호 생성 방법을 선택하세요'라는 안내 메시지와 함께 자동 암호 생성 버튼 및 수동 암호 생성 버튼을 포함할 수 있다. 상기 사용자가 자동 암호 생성 버튼을 선택하면, 프로세서(410)는 동작(715)을 수행하고, 수동 암호 생성 버튼을 선택한 경우 동작(717)을 수행할 수 있다.
동작(713)에서, 전자 장치(400)(예: 프로세서(410))는 자동 암호 생성인지 판단할 수 있다. 프로세서(410)는 전자 장치(400)에 설정된 암호 생성 방법이 자동 암호 생성 방법이면 동작(715)을 수행하고, 전자 장치(400)에 설정된 암호 생성 방법이 수동 암호 생성 방법이면 동작(717)을 수행할 수 있다.
동작(711) 및 동작(713) 중 하나는 생략 가능할 수 있다. 즉, 프로세서(410)는 전자 장치(400)에 설정된 암호 생성 방법을 확인하여 자동 암호 생성인 경우 동작(715)을 수행하고, 수동 암호 생성인 경우 동작(717)을 수행할 수 있다. 또는, 프로세서(410)는 암호 생성 방법을 선택하기 위한 사용자 인터페이스에서 사용자가 자동 암호 생성 버튼을 선택한 경우 동작(715)을 수행하고, 수동 암호 생성 버튼을 선택한 경우 동작(717)을 수행할 수 있다.
자동 암호 생성 방법인 경우, 동작(715)에서, 전자 장치(400)(예: 프로세서(410))는 컨텐츠와 연관된 정보에 기반하여 암호 정보를 생성할 수 있다. 예를 들어, 프로세서(410)는 동작(701)에서 실행된 컨텐츠의 특성에 기반하여 암호 정보를 생성함으로써, 사용자가 컨텐츠에 대한 암호를 쉽게 외울 수 있도록 할 수 있다. 프로세서(410)는 컨텐츠의 속성 정보 또는 전자 장치(400)의 상황 정보를 이용하여 암호 정보를 생성할 수 있다. 예를 들어, 상기 컨텐츠의 속성 정보는 상기 컨텐츠와 연관된 정보를 의미하는 것으로, 메타 데이터 또는 태그 정보를 더 포함할 수 있다. 상기 상황 정보는 상기 컨텐츠 생성 시 전자 장치(400)로부터 획득되는 정보일 수 있다. 예를 들어, 상기 상황 정보는 날짜, 시간, 위치, 저장 위치 중 적어도 하나를 포함할 수 있다. 또는, 상기 상황 정보에는 사용자의 사용 이력을 기반한 사용 이력 정보가 더 포함될 수 있다. 상기 컨텐츠의 속성 정보는 컨텐츠와 연관된 이름, 크기, 타입, 생성 일시, 생성 위치, 생성 모드, 생성 방식, 재생 시간, 저장 위치, 앨범 정보, 메모 정보 중 적어도 하나일 수 있다. 프로세서(410)는 복수 개의 컨텐츠 속성 정보 또는 복수 개의 상황 정보의 전체 또는 일부를 종합 고려하여 상기 암호 정보를 생성할 수 있다. 자동 암호 생성 방법에 대해서는 후술하는 도 8을 참조하여 자세히 설명하기로 한다.
수동 암호 생성 방법인 경우, 동작(717)에서, 전자 장치(400)(예: 프로세서(410))는 사용자로부터 암호 정보의 입력을 수신할 수 있다. 예를 들어, 사용자는 자신이 원하는 암호 정보를 말하거나, 키패드를 통해 직접할 수 있다. 프로세서(410)는 마이크(예: 마이크(288)) 또는 입력 장치(예: 입력 장치(250))를 통해 암호 정보를 수신할 수 있다. 수동 암호 생성 방법에 대해서는 후술하는 도 8을 참조하여 자세히 설명하기로 한다.
동작(719)에서, 전자 장치(400)(예: 프로세서(410))는 상기 암호 정보와 연관된 음성 정보에 기반하여 컨텐츠를 암호화 처리할 수 있다. 수동으로 생성된 암호 정보는 음성이거나, 텍스트일 수 있지만, 자동으로 생성된 암호 정보는 텍스트 정보일 수 있다. 텍스트 형태의 암호 정보는 기존의 비밀번호 또는 비밀패턴과 같은 암호화 방법과 유사할 수 있다. 본 발명에서는 상기 컨텐츠를 암호화할 때 텍스트 형태의 암호 정보가 아니라 사용자의 목소리로 직접 암호 정보를 발화하게 하여 사용자의 목소리를 암호로서 이용할 수 있다. 이 경우, 음성 인식된 텍스트 형태의 암호 정보와 사용자의 목소리인 음성 정보가 일치하는 경우에만 암호화된 컨텐츠가 제공되도록 함으로써 보안성을 향상시킬 수 있다.
이를 위해, 프로세서(410)는 자동 또는 수동으로 암호 정보가 생성되면, 생성된 암호 정보를 표시하고, 발화를 요청할 수 있다. 즉, 프로세서(410)는 상기 암호 정보를 사용자가 소리내어 읽도록 하는 발화를 요청할 수 있다. 예를 들어, 프로세서(410)는 상기 생성된 암호 정보를 디스플레이(450)에 표시하여 사용자가 상기 표시된 암호 정보를 소리내어 말하도록 안내할 수 있다. 프로세서(410)는 상기 발화 요청에 따라 사용자로부터 마이크(예: 마이크(288))를 통해 음성을 입력받을 수 있다. 프로세서(410)는 입력된 음성을 신호 처리하여 음성 인식할 수 있다. 프로세서(410)는 상기 음성 인식된 음성 정보에 기반하여 상기 컨텐츠를 암호화하고, 암호화된 컨텐츠를 메모리(440)에 저장할 수 있다.
도 8은 다양한 실시예들에 따른 전자 장치의 암호 생성 방법을 도시한 흐름도이다. 도 8은 도 7의 동작(713) 이후에 수행되는 것일 수 있다.
도 8을 참조하면, 자동 암호 생성 방법인 경우, 동작(801)에서, 전자 장치(400)(예: 프로세서(410))는 컨텐츠의 속성 정보를 분석(또는 추출)할 수 있다. 상기 속성 정보는 상기 컨텐츠의 메타 데이터 또는 태그 정보를 더 포함하는 것일 수 있다. 상기 속성 정보는 컨텐츠의 종류에 따라 다를 수 있다. 이하는, 컨텐츠 종류에 따른 속성 정보를 나타낸 표이다.
Figure PCTKR2017010289-appb-T000001
예를 들어, 표 1을 참고하여 설명하면, 텍스트 형태의 컨텐츠(예: Document Files)는 이름, 크기, 타입, 생성 일시, 수정 일시, 또는 저장 위치 중 적어도 하나의 속성 정보를 포함할 수 있다. 이미지 형태의 컨텐츠(예: image files)는 이름, 크기, 타입(예: 확장자), 생성 일시(날짜 및 시간), 위치정보, 생성 모드(예: 촬영 모드), 태그, 앨범 정보, 생성 방식(예: 카메라 촬영, 다운로드, 캡쳐 등), 또는, 저장 위치 중 적어도 하나의 속성 정보를 포함할 수 있다. 비디오 형태의 컨텐츠(예: Video Files)는 이름, 크기, 타입(예: 확장자), 생성 일시, 위치정보, 생성 모드(예: 촬영 모드), 태그, 앨범 정보, 생성 방식(예: 카메라 촬영, 다운로드, 캡쳐 등), 재생 시간, 또는 저장 위치 중 적어도 하나의 속성 정보를 포함할 수 있다. 프로세서(410)는 상기 실행된 컨텐츠의 종류에 따라 암호 정보 생성을 위해 서로 다른 속성 정보를 이용할 수 있다.
동작(803)에서, 전자 장치(400)(예: 프로세서(410))는 전자 장치(400)의 상황 정보를 분석(또는 획득)할 수 있다. 상기 컨텐츠 생성(또는 획득) 시 전자 장치(400)로부터 획득되는 정보일 수 있다. 예를 들어, 상기 상황 정보는 날짜, 시간, 위치, 또는 저장 위치 중 적어도 하나를 포함할 수 있다. 예를 들어, 상기 컨텐츠가 다운로드된 경우, 다운로드한 날짜, 시간, 또는 저장 위치 중 적어도 하나를 포함할 수 있다. 또는, 상기 컨텐츠가 사용자에 의해 생성된 경우, 상기 컨텐츠를 생성한 날짜, 시간, 위치(예: 지리적 위치), 또는 저장 위치 중 적어도 하나를 포함할 수 있다. 다양한 실시예들에 따른 상기 컨텐츠의 속성 정보는 컨텐츠 생성 또는 획득 시 얻어지는 정보들로 구성되는 것이 있으므로, 전자 장치(400)의 상황 정보와 일부가 동일 또는 유사할 수 있다. 즉, 전자 장치(400)의 상황 정보는 상기 컨텐츠의 속성 정보와 일부가 중첩될 수 있다. 또는, 상기 상황 정보에는 사용자의 사용 이력을 기반한 사용 이력 정보가 더 포함될 수 있다.
도 8에서는 컨텐츠의 속성 정보를 먼저 분석하고, 전자 장치(400)의 상황 정보를 분석하는 것으로 도시하였지만, 전자 장치(400)의 상황 정보를 먼저 분석하고, 컨텐츠의 속성 정보를 분석할 수 있다. 즉, 동작(801) 및 동작(803)은 동시에 또는 상호 순차적으로 수행될 수 있다.
동작(805)에서, 전자 장치(400)(예: 프로세서(410))는 상기 컨텐츠의 속성 정보 또는 전자 장치(400)의 상황 정보에 기반하여 암호 정보를 생성할 수 있다. 프로세서(410)는 상기 컨텐츠의 종류에 기반하여 암호 정보 생성에 이용할 속성 정보를 선택할 수 있다. 예를 들어, 프로세서(410)는 상기 컨텐츠의 종류가 텍스트인 경우, 이름 및 타입(예: 확장자)을 이용하여 상기 암호 정보를 생성할 수 있다. 또는, 프로세서(410)는 상기 컨텐츠의 종류가 이미지인 경우, 이름, 생성 일시, 위치 정보 또는 생성 방식을 이용하여 상기 암호 정보를 생성할 수 있다.
다양한 실시예들에 따른 프로세서(410)는 상기 컨텐츠의 종류에 기반하여 상기 컨텐츠의 속성 정보만으로 암호 정보를 생성할 수도 있고, 상기 컨텐츠의 속성 정보와 전자 장치(400)의 상황 정보를 이용하여 암호 정보를 생성할 수도 있다. 예를 들어, 프로세서(410)는 상기 컨텐츠의 종류가 텍스트인 경우, 상기 컨텐츠의 속성 정보만으로 암호 정보를 생성할 수 있다. 프로세서(410)는 상기 컨텐츠의 종류가 사운드인 경우, 상기 컨텐츠의 속성 정보와 전자 장치(400)의 상황 정보를 모두 이용하여 암호 정보를 생성할 수 있다.다양한 실시예들에 따른 프로세서(410)는 사용자의 설정에 따라 상기 컨텐츠의 속성 정보만으로 암호 정보를 생성할 수도 있고, 상기 컨텐츠의 속성 정보와 전자 장치(400)의 상황 정보를 이용하여 암호 정보를 생성할 수도 있다.
다양한 실시예들에 따른 프로세서(410)는 상기 상황 정보에 포함된 사용 이력 정보에 기반하여 상기 사용자에게 의미 있는 정보를 파악할 수 있다. 프로세서(410)는 의미 있는 정보에 기반하여 복수 개의 컨텐츠 속성 정보 중에서 상기 사용자에게 의미 있는 적어도 하나의 속성 정보를 선택할 수 있다. 따라서, 프로세서(410)는 상기 사용 이력 정보에 기반하여 상기 컨텐츠의 속성 정보의 일부 또는 전체를 상기 암호 정보를 생성하는데 이용할 수 있다.
동작(807)에서, 전자 장치(400)(예: 프로세서(410))는 상기 생성된 암호 정보를 표시할 수 있다. 예를 들어, 프로세서(410)는 상기 생성된 암호 정보를 디스플레이(450)에 표시할 수 있다. 이때, 프로세서(410)는 상기 암호 정보와 함께 상기 암호 정보와 연관된 다양한 제어 버튼(또는 키)을 포함하는 사용자 인터페이스를 제공할 수 있다. 예를 들어, 상기 사용자 인터페이스에는 확인 버튼, 재생성 버튼, 또는 수동 입력 버튼(또는 암호 입력 버튼) 중 적어도 하나를 포함할 수 있다. 상기 확인 버튼은 상기 암호 정보를 이용하여 컨텐츠를 암호화하고자 하는 경우 선택될 수 있다. 상기 재생성 버튼은 상기 생성된 암호 정보를 제외한 다른 암호 정보를 다시 생성할 것을 요청하는 것일 수 있다. 상기 수동 입력 버튼은 사용자가 수동으로 암호 정보를 입력하고자 하는 경우 선택될 수 있다. 또는, 상기 사용자 인터페이스에는 취소 버튼이 더 포함될 수 있다. 상기 취소 버튼은 컨텐츠 암호화 프로세스를 종료하고자 하는 경우 선택될 수 있다. 프로세서(410)는 상기 제어 버튼 중에서 어느 하나가 선택됨에 응답하여 동작(809)을 수행할 수 있다.
동작(809)에서, 전자 장치(400)(예: 프로세서(410))는 암호 재생성이 요청된 것인지 판단할 수 있다. 예를 들어, 프로세서(410)는 상기 암호 정보 및 제어 버튼(예: 확인 버튼, 재생성 버튼, 수동 입력 버튼)을 포함하는 사용자 인터페이스에서 '암호 재생성 버튼'이 선택되었는지 판단할 수 있다.
프로세서(410)는 상기 암호 재생성이 요청된 경우 동작(805)으로 리턴하고, 상기 암호 재생성이 요청되지 않은 경우 동작(811)을 수행할 수 있다. 예를 들어, 암호 재생성 버튼이 선택된 경우, 프로세서(410)는 암호를 재생성하기 위하여 동작(805)으로 리턴할 수 있다. 예를 들어, 상기 사용자는 상기 암호 정보가 마음에 들지 않을 때 다른 암호 정보를 요청할 수 있다. 프로세서(410)는 동작(805)으로 리턴하면 기존에 생성한 암호 정보와 다른 암호 정보를 생성할 수 있다.
암호 재생성 버튼이 선택되지 않은 경우, 동작(811)에서, 전자 장치(400)(예: 프로세서(410))는 암호 입력이 선택된 것인지 판단할 수 있다. 예를 들어, 프로세서(410)는 상기 암호 정보 및 제어 버튼을 포함하는 사용자 인터페이스에서 '수동 입력 버튼'이 선택되었는지 판단할 수 있다. 예를 들어, 상기 사용자는 상기 암호 정보가 마음에 들지 않거나, 자신이 직접 암호 정보를 입력하고자 하는 경우 수동 입력 버튼을 선택할 수 있다.
프로세서(410)는 수동 입력이 요청된 경우 동작(851)을 수행하고, 수동 입력이 요청되지 않은 경우 동작(813)을 수행할 수 있다. 예를 들어, 수동 입력 버튼이 선택된 경우, 프로세서(410)는 사용자가 직접 암호 정보를 입력하는 수동 암호 입력 프로세스를 위한 동작(851)을 수행할 수 있다. 예를 들어, 상기 사용자는 상기 암호 정보로 컨텐츠를 암호화하고자 하는 경우 '확인 버튼'을 선택할 수 있다.
수동 입력이 요청되지 않은 경우(예: 확인 버튼이 선택된 경우) 동작(813)에서, 전자 장치(400)(예: 프로세서(410))는 암호 정보 발화를 요청할 수 있다. 프로세서(410)는 사용자가 동작(807)에서 표시된 암호 정보를 소리내어 말하도록 안내할 수 있다. 예를 들어, 상기 암호 정보가 "12월 25일 우리들"인 경우, 프로세서(410)는 "'12월 25일 우리들'이라고 따라 읽어주세요'"라는 발화 요청 메시지를 디스플레이(450)에 표시할 수 있다. 또한, 프로세서(410)는 스피커(예: 스피커(282))를 통해 "'12월 25일 우리들'"이라고 따라 읽어주세요'"라는 음성을 출력할 수 있다.
동작(815)에서, 전자 장치(400)(예: 프로세서(410))는 발화에 따른 음성 정보를 수신할 수 있다. 프로세서(410)는 동작(813)에 의해 사용자로부터 마이크(예: 마이크(288))를 통해 음성을 입력받을 수 있다. 프로세서(410)는 입력된 음성을 신호 처리하여 음성 인식할 수 있다. 다양한 실시예들에 따른 프로세서(410)는 상기 인식된 음성이 사용자의 목소리와 일치하는지 확인할 수 있다. 예를 들어, 프로세서(410)는 상기 인식된 음성이 사용자의 목소리와 일치하는 경우, 상기 음성 정보를 컨텐츠 암호화에 이용할 수 있다.
프로세서(410)는 상기 인식된 음성이 사용자의 목소리와 일치하지 않는 경우, 에러 메시지(예: '인증된 사용자가 아닙니다. 음성 입력을 다시 수행하세요')를 디스플레이(450)에 표시할 수 있다. 프로세서(410)는 상기 에러 메시지 표시 후 컨텐츠 암호화 프로세스를 종료할 수 있다. 즉, 프로세서(410)는 음성 정보에 기반하여 컨텐츠를 암호화하는 동작(예: 도 7의 동작(519))을 수행하지 않고 종료할 수 있다. 또는, 프로세서(410)는 사용자의 선택에 따라 동작(813) 및 동작(815)을 다시 수행할 수 있다. 다양한 실시예들에 따른 프로세서(410)는 에러 메시지를 표시한 횟수를 카운트하고, 기설정된 횟수(예: 3회) 이상, 상기 에러 메시지를 표시한 경우 사용자의 선택과 상관없이 컨텐츠 암호화 프로세스를 종료할 수 있다.
도 7의 동작(713)에서 수동 암호 생성 방법(예: 아니오)인 경우 또는 도 8의 동작(811)에서 수동 입력 버튼을 선택한 경우, 동작(851)에서, 전자 장치(400)(예: 프로세서(410))는 음성 입력을 요청할 수 있다. 예를 들어, 프로세서(410)는 사용자에게 원하는 암호를 말하도록 하는 안내 메시지(예: '원하는 암호를 말하세요')를 디스플레이(450)에 표시할 수 있다. 프로세서(410)는 마이크(예: 마이크(288))를 통해 음성 입력을 요청하기 위한 안내 메시지를 출력할 수 있다.
동작(853)에서, 전자 장치(400)(예: 프로세서(410))는 음성 입력을 검출할 수 있다. 동작(853)은 도 5의 동작(501) 또는 도 7의 동작(703)과 동일 또는 유사하므로, 자세한 설명은 생략하기로 한다.
동작(855)에서, 전자 장치(400)(예: 프로세서(410))는 검출된 음성 입력에 대한 음성을 인식할 수 있다. 동작(855)은 도 5의 동작(503) 또는 도 7의 동작(705)과 동일 또는 유사하므로, 자세한 설명은 생략하기로 한다.
동작(857)에서, 전자 장치(400)(예: 프로세서(410))는 상기 음성 인식된 암호 정보를 표시할 수 있다. 예를 들어, 프로세서(410)는 상기 인식된 음성에 대한 텍스트 형태의 암호 정보를 디스플레이(450)에 표시할 수 있다. 다양한 실시예들에 따른 프로세서(410)는 상기 암호 정보와 함께 상기 암호 정보와 연관된 다양한 제어 버튼(또는 키)을 포함하는 사용자 인터페이스를 제공할 수 있다. 예를 들어, 상기 사용자 인터페이스에는 확인 버튼, 재생성 버튼, 또는 자동 암호 생성 버튼(또는 자동 생성 버튼) 중 적어도 하나를 포함할 수 있다. 상기 확인 버튼은 상기 암호 정보를 이용하여 컨텐츠를 암호화하고자 하는 경우 선택될 수 있다. 상기 재생성 버튼은 상기 음성 인식이 잘못되어 사용자가 음성 입력한 텍스트와 다른 경우 다시 음성 인식할 것을 요청하는 것일 수 있다. 상기 자동 암호 생성 버튼은 사용자가 자동으로 암호 정보를 생성하고자 하는 경우 선택될 수 있다.
다양한 실시예들에 따르면, 상기 사용자 인터페이스에는 터치 입력 버튼이 더 포함될 수 있다. 상기 터치 입력 버튼은 사용자가 입력 장치(예: 키패드))를 통해 직접 암호 정보를 입력하고자 하는 경우 선택될 수 있다. 프로세서(410)는 상기 터치 입력 버튼이 선택된 경우, 디스플레이(450)에 키패드를 제공할 수 있다. 또는, 상기 사용자 인터페이스에는 취소 버튼이 더 포함될 수 있다. 상기 취소 버튼은 컨텐츠 암호화 프로세스를 종료하고자 하는 경우 선택될 수 있다. 프로세서(410)는 상기 제어 버튼 중에서 어느 하나가 선택됨에 응답하여 동작(809)을 수행할 수 있다.
동작(859)에서, 전자 장치(400)(예: 프로세서(410))는 암호 재생성이 요청된 것인지 판단할 수 있다. 예를 들어, 프로세서(410)는 상기 암호 정보 및 제어 버튼(예: 확인 버튼, 재생성 버튼, 자동 암호 생성 버튼)을 포함하는 사용자 인터페이스에서 '암호 재생성 버튼'이 선택되었는지 판단할 수 있다.
프로세서(410)는 상기 암호 재생성이 요청된 경우 동작(851)으로 리턴하고, 상기 암호 재생성이 요청되지 않은 경우 동작(861)을 수행할 수 있다. 예를 들어, 암호 재생성 버튼이 선택된 경우, 프로세서(410)는 음성 인식을 다시 수행하기 위하여 동작(851)으로 리턴할 수 있다. 예를 들어, 상기 사용자는 상기 암호 정보가 자신이 말한 것과 다른 경우 음성 인식을 다시 수행할 것을 요청할 수 있다. 프로세서(410)는 동작(851)으로 리턴하면 사용자에게 다시 음성 입력할 것을 요청할 수 있다.
암호 재생성 버튼이 선택되지 않은 경우, 동작(861)에서, 전자 장치(400)(예: 프로세서(410))는 자동 암호 생성이 요청된 것인지 판단할 수 있다. 예를 들어, 프로세서(410)는 상기 암호 정보 및 제어 버튼을 포함하는 사용자 인터페이스에서 '자동 암호 생성 버튼'이 선택되었는지 판단할 수 있다. 상기 사용자는 자신이 원하는 암호 정보가 제대로 인식되지 않거나, 자동으로 암호 정보를 생성하고자 하는 경우 선택될 수 있다.
프로세서(410)는 자동 암호 생성이 요청된 경우 동작(801)을 수행하고, 자동 암호 생성이 요청되지 않은 경우 동작(863)을 수행할 수 있다. 예를 들어, 자동 암호 생성 버튼이 선택된 경우, 프로세서(410)는 전자 장치(400)에서 자동으로 암호 정보를 생성하는 자동 암호 생성 프로세스를 위한 동작(851)을 수행할 수 있다. 예를 들어, 상기 사용자는 상기 암호 정보로 컨텐츠를 암호화하고자 하는 경우 '확인 버튼'을 선택할 수 있다.
자동 암호 생성이 요청되지 않은 경우(예: 확인 버튼이 선택된 경우) 동작(863)에서, 전자 장치(400)(예: 프로세서(410))는 암호 정보 발화를 요청할 수 있다. 프로세서(410)는 사용자가 동작(807)에서 표시된 암호 정보를 소리내어 말하도록 안내할 수 있다. 동작(863)은 동작(813)과 유사 또는 동일하므로 자세한 설명을 생략할 수 있다.
동작(865)에서, 전자 장치(400)(예: 프로세서(410))는 발화에 따른 음성 정보를 수신할 수 있다. 프로세서(410)는 동작(863)에 의해 사용자로부터 마이크(예: 마이크(288))를 통해 음성을 입력받을 수 있다. 프로세서(410)는 입력된 음성을 신호 처리하여 음성 인식할 수 있다. 다양한 실시예들에 따른 프로세서(410)는 상기 인식된 음성이 사용자의 목소리와 일치하는지 확인할 수 있다. 예를 들어, 프로세서(410)는 상기 인식된 음성이 사용자의 목소리와 일치하는 경우, 상기 음성 정보를 컨텐츠 암호화에 이용할 수 있다. 또는, 프로세서(410)는 상기 인식된 음성이 사용자의 목소리와 일치하지 않는 경우, 에러 메시지를 디스플레이(450)에 표시할 수 있다. 프로세서(410)는 상기 에러 메시지 표시 후 컨텐츠 암호화 프로세스를 종료할 수 있다. 또는, 프로세서(410)는 용자의 선택에 따라 동작(813) 및 동작(815)을 다시 수행할 수 있다. 다양한 실시예들에 따른 프로세서(410)는 기설정된 횟수(예: 3회) 이상, 상기 에러 메시지를 표시한 경우 사용자의 선택과 상관없이 컨텐츠 암호화 프로세스를 종료할 수 있다.
도 9는 다양한 실시예들에 따른 전자 장치의 컨텐츠 암호화 방법을 도시한 흐름도이다. 도 9는 전자 장치(400)의 디스플레이(450)가 오프(off)된 상태인 경우 수행되는 시나리오일 수 있다.
도 9를 참조하면, 동작(901)에서, 전자 장치(400)(예: 프로세서(410))는 음성 입력을 검출할 수 있다. 동작(901)은 도 5의 동작(501) 또는 도 7의 동작(703)과 동일 또는 유사하므로, 자세한 설명은 생략하기로 한다.
동작(903)에서, 전자 장치(400)(예: 프로세서(410))는 검출된 음성 입력에 대한 음성을 인식할 수 있다. 동작(903)은 도 5의 동작(503) 또는 도 7의 동작(705)과 동일 또는 유사하므로, 자세한 설명은 생략하기로 한다.
동작(905)에서, 전자 장치(400)(예: 프로세서(410))는 인식된 음성에 숨김 명령어가 포함되어 있는지 판단할 수 있다. 상기 숨김 명령어는 컨텐츠를 암호화하여 상기 사용자가 아닌 타인이 상기 컨텐츠를 보지 못하도록 요청하는 명령일 수 있다. 프로세서(410)는 상기 인식된 음성이 메모리(440)에 저장된 숨김 명령어에 대응되는지 여부를 판단할 수 있다. 다양한 실시예들에 따르면, 도 5, 도 7과 같이 디스플레이가 온(on) 상태에서 입력되는 음성 정보와 도 9와 같이 디스플레이가 오프(off) 상태에서 입력되는 음성 정보는 동일할 수도 있고, 다를 수 있다. 예를 들어, 디스플레이가 온(on) 상태에서 입력되는 음성 정보는 암호화할 컨텐츠를 지시하는 지시 대명사가 포함되어 있을 수 있다. 예를 들어, 디스플레이가 온(on) 상태에서 입력되는 음성 정보는 '이 사진 숨겨줘', '이거 보안' 등 지시 대명사가 포함될 수 있다. 디스플레이가 오프(off) 상태에서 입력되는 음성 정보는 지시 대명사가 포함되어 있지 않을 수 있다. 디스플레이가 오프(off) 상태인 경우 사용자는 어떤 컨텐츠가 실행 중인지 알 수 없을 수 있기 때문에 지시 대명사가 포함되어 있지 않을 수 있다.
프로세서(410)는 상기 인식된 음성 중 적어도 일부가 상기 숨김 명령어에 대응되는 경우 동작(907)을 수행하고, 상기 인식된 음성 중 적어도 일부가 상기 숨김 명령어에 대응되지 않는 경우 동작(906)을 수행할 수 있다.
동작(906)에서, 전자 장치(400)(예: 프로세서(410))는 상기 인식된 음성에 대응하는 기능을 수행할 수 있다. 다양한 실시예들에 따른 프로세서(410)는 상기 인식된 음성에 대응하여 음성 인식 기술을 활용한 다양한 기능(또는 서비스)을 제공할 수 있다. 예를 들어, 프로세서(410)는 상기 인식된 음성이 '해리포터'인 경우, 인터넷 어플리케이션을 실행시켜 해리포터로 검색된 검색 결과를 제공할 수 있다.
동작(907)에서, 전자 장치(400)(예: 프로세서(410))는 상기 인식된 음성(또는 검출된 음성 입력)이 인증된 사용자의 목소리인지 판단할 수 있다. 상기 인증된 사용자의 목소리는 전자 장치(400)를 소유한 사용자를 의미할 수 있다. 프로세서(410)는 상기 음성 신호로부터 특정 주파수를 추출하고, 추출된 주파수가 메모리(440)에 저장된 사용자 특유의 음성 주파수와 일치하는지 여부를 판단할 수 있다. 동작(907)은 동작(709)과 동일 또는 유사하므로, 자세한 설명을 생략하도록 한다.
프로세서(410)는 상기 인식된 음성이 인증된 사용자의 목소리와 일치하는 경우 동작(909)을 수행하고, 상기 인식된 음성이 인증된 사용자의 목소리와 일치하지 않는 경우 동작(908)을 수행할 수 있다.
동작(908)에서, 전자 장치(400)(예: 프로세서(410))는 상기 인식된 음성이 미인증 사용자임을 알림할 수 있다. 프로세서(410)(예: 화자 인식부(415))는 상기 인식된 음성이 전자 장치(400)의 사용자가 아님을 안내할 수 있다. 또는, 프로세서(410)는 메모리(440)에 저장된 음성 주파수와 상기 인식된 음성이 일치하지 않는 경우, 다시 음성 입력할 것을 요청할 수 있다. 또는, 프로세서(410)는 메모리(440)에 저장된 음성 주파수와 상기 인식된 음성이 일치하지 않으므로, 컨텐츠를 암호화하는 프로세스를 수행할 수 없음을 안내할 수 있다. 동작(908)은 동작(710)과 동일 또는 유사하므로, 자세한 설명을 생략하도록 한다.
동작(909)에서, 전자 장치(400)(예: 프로세서(410))는 실행 중인 컨텐츠가 있는지 판단할 수 있다. 예를 들어, 디스플레이(450)가 오프(off)된 상태에서, 프로세서(410)는 전자 장치(400)에 실행 중인 컨텐츠가 있는지 판단할 수 있다. 예를 들어, 프로세서(410)는 디스플레이(450)가 오프(off)되기 전에 마지막으로 실행한 컨텐츠가 있는지 판단할 수 있다. 상기 마지막으로 실행한 컨텐츠는 하나 이상일 수 있다. 또는, 프로세서(410)는 디스플레이(450)가 오프(off)되기 전에 포그라운드에서 실행한 컨텐츠가 있는지 판단할 수 있다.
프로세서(410)는 실행 중인 컨텐츠가 있는 경우 동작(911)을 수행하고, 실행 중인 컨텐츠가 없는 경우 동작(913)을 수행할 수 있다.
실행 중인 컨텐츠가 있는 경우 동작(911)에서, 전자 장치(400)(예: 프로세서(410))는 실행 중인 컨텐츠에 대하여 음성 암호를 처리할 수 있다. 예를 들어, 프로세서(410)는 동작(903)에서 인식된 음성으로 상기 컨텐츠를 암호화 처리할 수 있다. 프로세서(410)는 마지막으로 실행한 모든 컨텐츠에 대하여 동작(903)에서 인식된 음성으로 암호화할 수 있다. 또는, 프로세서(410)는 디스플레이상의 적어도 일부분에 표시되고 있는 하나의 컨텐츠에 대하여 동작(903)에서 인식된 음성으로 암호화할 수 있다. 사용자는 디스플레이(450)가 오프된 상태에서 타인에 의해 디스플레이(450)가 온될 경우 마지막으로 사용한 컨텐츠가 노출될 수 있음을 우려하여 '숨겨'라고 짧게 음성 입력하여 마지막으로 사용한 컨텐츠에 대해서 음성 암호화할 수 있다.
실행 중인 컨텐츠가 없는 경우 동작(913)에서, 전자 장치(400)(예: 프로세서(410))는 컨텐츠 리스트를 제공할 수 있다. 예를 들어, 프로세서(410)는 음성 암호로 암호화가 가능한 모든 컨텐츠들에 대한 리스트를 디스플레이(450)에 표시할 수 있다. 이때, 프로세서(410))는 디스플레이(450)를 온시켜 상기 컨텐츠 리스트를 제공할 수 있다.
동작(915)에서, 전자 장치(400)(예: 프로세서(410))는 상기 컨텐츠 리스트 중에서 상기 사용자로부터 적어도 하나의 컨텐츠를 선택받을 수 있다. 프로세서(410)는 각 컨텐츠별로 체크 박스를 제공하여 상기 사용자로부터 적어도 하나의 컨텐츠를 선택받을 수 있다. 사용자는 하나의 컨텐츠를 선택한 후 드래그함으로써, 다수개의 컨텐츠를 선택할 수 있다. 프로세서(410)는 터치가 인식된 지점(예: 시작 지점)부터 터치가 해제는 지점(예: 종료 지점)까지 존재하는 모든 컨텐츠들을 선택할 수 있다.
동작(917)에서, 전자 장치(400)(예: 프로세서(410))는 선택된 컨텐츠에 대한 음성 암호를 처리할 수 있다. 예를 들어, 프로세서(410)는 동작(903)에서 인식된 음성으로 상기 선택된 컨텐츠를 암호화 처리할 수 있다.
다양한 실시예들에 따른 프로세서(410))는 실행 중인 컨텐츠가 없는 경우 컨텐츠 암호화 프로세스를 수행하지 않고 종료할 수 있다. 즉, 프로세서(410))는 실행 중인 컨텐츠가 없는 경우 동작(913) 내지 동작(917)을 수행하지 않고 종료할 수도 있다.
도 10은 다양한 실시예들에 따른 전자 장치의 숨김 컨텐츠 제공 방법을 도시한 흐름도이다.
도 10을 참조하면, 동작(1011)에서, 전자 장치(400)(예: 프로세서(410))는 음성 입력을 검출할 수 있다. 동작(1011)은 도 5의 동작(501) 또는 도 7의 동작(703)과 동일 또는 유사하므로, 자세한 설명은 생략하기로 한다.
동작(1013)에서, 전자 장치(400)(예: 프로세서(410))는 검출된 음성 입력에 대한 음성을 인식할 수 있다. 동작(1013)은 도 5의 동작(503) 또는 도 7의 동작(705)과 동일 또는 유사하므로, 자세한 설명은 생략하기로 한다.
동작(1015)에서, 전자 장치(400)(예: 프로세서(410))는 상기 인식된 음성이 컨텐츠 호출 명령인지 판단할 수 있다. 예를 들어, 프로세서(410)는 상기 인식된 음성에 대응하는 텍스트가 컨텐츠와 관련된 이름 또는 컨텐츠의 종류(예: 사진, 문서, 동영상 등)에 매핑되는지, '보여줘'와 같은 호출 명령어가 포함되어 있는지 여부를 판단할 수 있다. 상기 인식된 음성에 컨텐츠 호출 명령어가 포함되어 있는 경우, 프로세서(410)는 사용자가 컨텐츠를 보려는 의도를 갖고 발화한 것으로 판단할 수 있다.
프로세서(410)는 상기 인식된 음성(예: 텍스트 정보)이 컨텐츠 호출 명령인 경우 동작(1017)을 수행하고, 상기 인식된 음성이 컨텐츠 호출 명령이 아닌 경우 동작(1016)을 수행할 수 있다.
동작(1016)에서, 전자 장치(400)(예: 프로세서(410))는 상기 인식된 음성에 대응하는 기능을 수행할 수 있다. 동작(1016)은 도 5의 동작(506) 또는 도 7의 동작(708)과 동일 또는 유사하므로 자세한 설명을 생략하기로 한다.
동작(1017)에서, 전자 장치(400)(예: 프로세서(410))는 인식된 음성에 대응하는 컨텐츠를 검색할 수 있다. 프로세서(410)는 상기 인식된 음성의 일부 또는 전체에 대응하는 이름의 컨텐츠가 있는지 또는 상기 인식된 음성의 일부 또는 전체에 대응하는 종류의 컨텐츠가 있는지 여부를 메모리(440)에서 검색할 수 있다.
동작(1019)에서, 전자 장치(400)(예: 프로세서(410))는 검색된 컨텐츠가 암호화되었는지 판단할 수 있다. 프로세서(410)는 상기 검색된 컨텐츠가 음성 암호 또는 비밀번호 등으로 암호화되어 있는지 판단할 수 있다. 프로세서(410)는 음성 암호로 암호화된 컨텐츠가 있는지 여부만 판단할 수 있다.
프로세서(410)는 검색된 컨텐츠가 암호화된 경우 동작(1021)을 수행하고, 검색된 컨텐츠가 암호화되지 않은 경우 동작(1020)을 수행할 수 있다.
검색된 컨텐츠가 암호화되지 않은 경우 동작(1020)에서, 전자 장치(400)(예: 프로세서(410))는 상기 검색된 컨텐츠를 제공할 수 있다. 예를 들어, 프로세서(410)는 상기 검색된 컨텐츠 또는 검색된 컨텐츠를 포함하는 컨텐츠 리스트를 디스플레이(450)에 표시할 수 있다. 예를 들어, 프로세서(410)는 상기 사용자가 동작(1011)에서 '사진 보여줘'라고 음성 입력한 경우, 갤러리 어플리케이션을 실행시켜 사진 리스트를 디스플레이(450)에 표시할 수 있다.
검색된 컨텐츠가 암호화된 경우 동작(1021)에서, 전자 장치(400)(예: 프로세서(410))는 인증된 사용자의 목소리인지 판단할 수 있다. 프로세서(410)는 상기 음성 신호로부터 특정 주파수를 추출하고, 추출된 주파수가 메모리(440)에 저장된 사용자 특유의 음성 주파수와 일치하는지 여부를 판단할 수 있다. 동작(1021)은 동작(907)과 동일 또는 유사하므로, 자세한 설명을 생략하도록 한다.
프로세서(410)는 상기 인식된 음성이 인증된 사용자의 목소리와 일치하는 경우 동작(1023)을 수행하고, 상기 인식된 음성이 인증된 사용자의 목소리와 일치하지 않는 경우 종료할 수 있다. 예를 들어, 프로세서(410)(예: 화자 인식부(415))는 상기 인식된 음성이 전자 장치(400)의 사용자가 아님을 안내하는 에러 메시지를 표시한 후 종료할 수 있다 또는, 프로세서(410)는 상기 인식된 음성이 인증된 사용자의 목소리와 일치하지 않는 경우 동작(1041)을 수행할 수도 있다. 예를 들어, 프로세서(410)는 전자 장치(400)의 설정 또는 사용자의 설정에 따라 종료하거나, 동작(1041)을 수행할 수도 있다. 이는 단순히 설계 변경 사항으로 구현에 따라 다를 수 있다.
동작(1023)에서, 전자 장치(400)(예: 프로세서(410))는 암호 정보가 입력되었는지 여부를 판단할 수 있다. 프로세서(410)는 동작(1011)에서 사용자가 암호 정보와 함께 컨텐츠를 호출한 것인지 판단할 수 있다. 예를 들어, 프로세서(410)는 동작(1013)에서 인식된 음성 정보가 '여의도 야경 사진 보여줘'인 경우, '보여줘' 또는 '사진'을 컨텐츠 호출 명령으로 해석하고, '여의도 야경' 또는 '여의도 야경 사진'을 암호 정보로 해석할 수 있다. 이를 위해서는 컨텐츠 호출 명령에 대응하는 단어를 메모리(440)에 저장하고, 프로세서(410)는 음성 정보 중에서 컨텐츠 호출 명령을 제외한 나머지 음성 정보를 암호 정보로 판단할 수 있다.
프로세서(410)는 암호 정보가 입력된 경우 동작(1025)을 수행하고, 암호 정보가 입력되지 않은 경우 동작(1031)을 수행할 수 있다.
암호 정보가 입력되지 않은 경우 동작(1031)에서, 전자 장치(400)(예: 프로세서(410))는 암호 정보 발화를 요청할 수 있다. 예를 들어, 상기 사용자가 동작(1011)에서 암호 정보를 말하지 않은 경우, 동작(1031)을 수행할 수 있다. 프로세서(410)는 "원하는 컨텐츠에 대한 암호를 말하세요"와 같은 발화 요청 메시지를 디스플레이(450)에 표시할 수 있다. 또는, 프로세서(410)는 발화 요청 메시지에 해당하는 음성을 스피커를 통해 출력할 수 있다.
동작(1033)에서, 전자 장치(400)(예: 프로세서(410))는 상기 발화 요청에 따른 음성 정보를 수신할 수 있다. 상기 음성 정보가 수신되면 프로세서(410)는 동작(1025)을 수행하여 상기 수신된 음성 정보가 컨텐츠를 암호화한 음성 정보와 일치하는지 여부를 판단할 수 있다.
암호 정보가 입력된 경우 동작(1025)에서, 전자 장치(400)(예: 프로세서(410))는 암호가 일치하는지 여부를 판단할 수 있다. 예를 들어, 프로세서(410)는 상기 음성 정보에 대응하는 텍스트 정보가 메모리(440)에 저장된 암호 정보와 일치하는지 여부를 판단할 수 있다. 사용자의 목소리가 맞는지는 동작(1021)을 통해서 확인하였으므로, 동작(1025)에서는 텍스트 형태의 암호 정보가 일치하는지 여부를 판단할 수 있다. 즉, 프로세서(410)는 음성 인식된 음성 정보를 텍스트 형태로 변환하여, 텍스트 형태의 두 개의 암호 정보를 서로 비교할 수 있다. 또는, 프로세서(410)는 메모리(440)에 암호 정보에 대응하는 음성 정보와 동작(1013)에서 획득한 음성 정보가 일치하는지 여부를 판단할 수 있다. 즉, 프로세서(410)는 음성 형태의 두 개의 암호 정보를 서로 비교할 수 있다.
암호 정보가 일치하는 경우 동작(1027)에서, 전자 장치(400)(예: 프로세서(410))는 암호에 매핑되는 컨텐츠를 표시할 수 있다. 다양한 실시예에 따른 프로세서(410)는 음성 형태의 두 개의 암호 정보가 정확히 일치하는 컨텐츠를 표시할 수 있다. 또는, 프로세서(410)는 인증된 사용자의 목소리이고, 텍스트 형태의 암호 정보 중 일부가 일치하는 경우 암호 정보에 매핑되는 컨텐츠를 표시할 수 있다. 또는, 프로세서(410)는 인증된 사용자의 목소리이고, 텍스트 형태의 암호 정보 중 설정된 비율(예: 70%) 이상 일치하는 경우 암호 정보에 매핑되는 컨텐츠를 표시할 수 있다.
암호 정보가 일치하지 않는 경우 동작(1041)에서, 전자 장치(400)(예: 프로세서(410))는 사용자에게 생체 정보를 요청할 수 있다. 프로세서(410)는 동작(1011)에서 입력한 사용자가 인증된 사용자가 맞지만, 암호 정보가 일치하지 않는 경우 생체 정보를 요청할 수 있다. 즉, 사용자는 컨텐츠를 암호화한 암호 정보를 기억하지 못할 수도 있다. 이 경우, 프로세서(410)는 생체 정보를 요청하고, 생체 정보를 인식하기 위하여 생채 인식 센서(예: 지문 인식 센서, 홍채 인식 센서)를 활성화시킬 수 있다. 프로세서(410)는 "지문을 인식하세요"와 같은 안내 메시지를 표시하거나, 지문 인식 센서가 구비된 위치(예: 홈 버튼)를 나타내고, 지문 인식 센서를 활성화시킬 수 있다. 프로세서(410)는 상기 지문 인식 센서가 구비된 위치에 상기 안내 메시지를 표시할 수 있다. 또는, 프로세서(410)는 "홍채를 인식하세요"와 같은 안내 메시지를 표시하거나, 홍채 인식 센서가 구비된 위치(예: 전자 장치의 상단 카메라)를 나타내고, 홍채 인식 센서를 활성화시킬 수 있다. 프로세서(410)는 상기 홍채 인식 센서가 구비된 위치에 상기 안내 메시지를 표시할 수 있다.
다양한 실시예들에 따른 프로세서(410)는 인식할 생체 정보를 선택하도록 하는 사용자 인터페이스를 제공할 수 있다. 상기 사용자 인터페이스에는 안내 메시지(예: 생체 부위를 선택하세요)와 함께 지문 인식 버튼, 홍채 인식 버튼, 얼굴 인식 버튼과 같은 생체 인식 부위를 선택하는 버튼을 포함할 수 있다. 프로세서(410)는 사용자로부터 선택된 인식 센서를 활성화시키고, 활성화된 인식 센서와 관련된 사용자 인터페이스를 표시할 수 있다. 예를 들어, 상기 사용자 인터페이스는 안내 메시지(예: 지문을 인식하세요), 인식 센서의 위치 지시자(예: 인식 센서가 구비된 위치를 화살표로 표시), 확인 버튼을 포함할 수 있다.
동작(1043)에서, 전자 장치(400)(예: 프로세서(410))는 사용자 인증을 완료할 수 있다. 프로세서(410)는 생체 정보 요청에 의해 사용자로부터 지문, 홍채, 얼굴 등의 생체 정보를 획득하고, 획득한 생체 정보가 메모리(440)에 저장된 생체 정보와 일치하는지 여부를 판단할 수 있다. 프로세서(410)는 획득한 생체 정보가 메모리(440)에 저장된 생체 정보와 일치하는 경우 사용자 인증을 완료할 수 있다. 또는, 프로세서(410)는 획득한 생체 정보가 메모리(440)에 저장된 생체 정보와 일치하지 않는 경우 종료할 수 있다. 또는, 프로세서(410)는 획득한 생체 정보가 메모리(440)에 저장된 생체 정보와 일치하지 않는 경우 생체 정보를 재요청할 수 있다. 프로세서(410)는 생체 정보를 재요청한 횟수를 카운트하고, 재요청한 횟수가 기설정된 회수 이상인 경우, 생체 정보를 재요청하지 않고 종료할 수 있다.
동작(1045)에서, 전자 장치(400)(예: 프로세서(410))는 암호화된 컨텐츠 리스트를 표시할 수 있다. 프로세서(410)는 동작(1011)에서 입력한 사용자가 인증된 사용자가 맞지만, 암호 정보가 일치하지 않는 경우 생체 정보를 더 확인하여 생체 정보가 일치하는 경우 암호화된 컨텐츠를 제공함으로써, 보안성을 높일 수 있다. 즉, 사용자는 컨텐츠를 암호화한 암호 정보를 기억하지 못하는 경우 생체 정보를 이용하여 암호화한 컨텐츠를 확인할 수 있다. 상기 컨텐츠 리스트는 인식된 암호 정보 중에서 일부만 일치하는 컨텐츠를 포함하거나, 암호화된 컨텐츠를 모두 포함하는 것을 수 있다.
도 11a 및 도 11b는 다양한 실시예들에 따른 숨김 컨텐츠를 제공하는 사용자 인터페이스를 도시한 도면들이다.
도 11a는 사용자가 암호 정보를 말하면 숨김 컨텐츠를 제공하는 일례를 도시한 도면이다.
도 11a를 참조하면, 전자 장치(400)(예: 프로세서(410))는 사용자로부터 음성 입력(1113)을 수신할 수 있다. 음성 입력(1113) 수신 시, 전자 장치(400)는 홈 스크린 표시 상태, 잠금 상태, 어플리케이션 실행 상태일 수 있다. 음성 입력(1113)을 수신한 제1 사용자 인터페이스(1110)는 홈 스크린 화면(1111)을 표시한 상태일 수 있다. 프로세서(410)는 음성 명령(1113)이 컨텐츠 호출 명령인지 판단할 수 있다. 예를 들어, 음성 입력(1113)에는 컨텐츠 호출 명령(예: 보여줘) 또는 컨텐츠 이름(예: 여의도 야경 숨김 파일)이 포함되어 있을 수 있다. 프로세서(410)는 음성 입력(1113)에 대응하는 텍스트에 컨텐츠 호출 명령어(예: 보여줘)가 포함되어 있는 경우, 사용자가 컨텐츠를 보려는 의도를 갖고 발화한 것으로 판단할 수 있다. 프로세서(410)는 컨텐츠 호출 명령어를 제외한 텍스트 정보(예: 여의도 야경 숨김 파일)에 기반하여 컨텐츠를 검색할 수 있다.
프로세서(410)는 검색된 컨텐츠가 암호화되었는지 판단하고, 검색된 컨텐츠가 암호화된 경우 음성 입력(1113)한 사용자의 목소리가 인증된 사용자의 목소리인지 판단할 수 있다. 프로세서(410)는 음성 입력(1113)에 대응하는 음성 신호로부터 특정 주파수를 추출하고, 추출된 주파수가 메모리(440)에 저장된 사용자 특유의 음성 주파수와 일치하는지 여부를 판단할 수 있다. 프로세서(410)는 음성 입력(1113)을 한 사용자의 목소리가 인증된 사용자의 목소리와 일치하는 경우 음성 입력(1113)에 암호 정보가 포함되어 있는지 판단할 수 있다. 예를 들어, 프로세서(410)는 음성 입력(1113)에 대응하는 텍스트 정보에서 '보여줘'를 컨텐츠 호출 명령으로 해석하고, '여의도 야경', '여의도 야경 숨김', '여의도 야경 숨김 파일'을 암호 정보로 해석할 수 있다. 프로세서(410)는 음성 입력(1113)에 대응하는 텍스트 정보의 암호가 메모리(440)에 저장된 암호 정보와 일치하는지 여부를 판단할 수 있다. 프로세서(410)는 음성 입력(1113)에 포함된 암호 정보가 메모리(440)에 저장된 암호 정보와 일치하는 경우, 암호 정보에 대응하는 컨텐츠(1121)를 제공할 수 있다. 프로세서(410)는 컨텐츠(1121)를 포함하는 제2 사용자 인터페이스(1120)를 디스플레이(450)에 표시할 수 있다.
도 11b는 사용자 인증을 완료하면 숨김 컨텐츠 리스트를 제공하는 일례를 도시한 도면이다.
도 11b를 참조하면, 전자 장치(400)(예: 프로세서(410))는 숨김 컨텐츠를 요청한 사용자의 음성 입력에 암호 정보가 포함되어 있지 않은 경우, 사용자에게 암호 정보를 말하도록 요청할 수 있다. 예를 들어, 프로세서(410)는 안내 메시지(예: 암호를 말하세요!)를 포함하는 제3 사용자 인터페이스(1130)를 디스플레이(450)에 표시할 수 있다. 또한, 프로세서(410)는 스피커(예: 스피커(282))를 통해 안내 메시지(예: 암호를 말하세요!)를 음성으로 출력할 수 있다. 프로세서(410)는 제3 사용자 인터페이스(1130)를 통해 사용자로부터 암호 정보를 포함하는 음성을 수신할 수 있다. 프로세서(410)는 상기 수신된 음성에 포함된 암호 정보가 메모리(440)에 저장된 암호 정보와 일치하지 않는 경우 사용자에게 생체 정보를 요청할 수 있다.
예를 들어, 프로세서(410)는 안내 메시지(예: 손가락을 접촉해주세요!)를 포함하는 제4 사용자 인터페이스(1140)를 디스플레이(450)에 표시할 수 있다. 이때, 프로세서(410)는 지문 인식 센서가 구비된 위치(예: 홈 버튼)를 나타내고, 지문 인식 센서를 활성화시킬 수 있다. 또한, 프로세서(410)는 스피커(예: 스피커(282))를 통해 안내 메시지(예: 손가락을 접촉해주세요!)를 음성으로 출력할 수 있다. 프로세서(410)는 제4 사용자 인터페이스(1140)를 통해 사용자 인증을 완료하면, 암호화된 컨텐츠 리스트를 표시할 수 있다. 예를 들어, 프로세서(410)는 상기 컨텐츠 리스트로서 컨텐츠 이름(예: AAA, BBB 등)과 함께 컨텐츠가 암호화 상태임을 알 수 있도록 암호화 이미지(예: 자물쇠 아이콘)를 포함하는 제5 사용자 인터페이스(1150)를 디스플레이(460)에 표시할 수 있다.
도 12는 다양한 실시예들에 따른 전자 장치의 컨텐츠 암호 해제 방법을 도시한 흐름도이다.
도 12를 참조하면, 동작(1201)에서, 전자 장치(400)(예: 프로세서(410))는 컨텐츠를 실행할 수 있다. 프로세서(410)는 사용자의 명령에 의해 컨텐츠를 실행할 수 있다. 상기 컨텐츠는 암호화된 컨텐츠 또는 암호화되지 않은 컨텐츠일 수 있다. 예를 들어, 프로세서(410)는 실행된 컨텐츠를 디스플레이(450)에 표시할 수 있다.
동작(1203)에서, 전자 장치(400)(예: 프로세서(410))는 음성 입력을 검출할 수 있다. 동작(1203)은 도 5의 동작(501) 또는 도 7의 동작(703)과 동일 또는 유사하므로, 자세한 설명은 생략하기로 한다.
동작(1205)에서, 전자 장치(400)(예: 프로세서(410))는 검출된 음성 입력에 대한 음성을 인식할 수 있다. 동작(1205)은 도 5의 동작(503) 또는 도 7의 동작(705)과 동일 또는 유사하므로, 자세한 설명은 생략하기로 한다.
동작(1207)에서, 전자 장치(400)(예: 프로세서(410))는 상기 인식된 음성에 해제 명령어(예: 잠금 해제 명령어, 복호 명령어)가 포함되어 있는지 판단할 수 있다. 상기 인식된 음성에 해제 명령어가 포함되어 있는 경우, 프로세서(410)는 사용자가 암호화된 컨텐츠를 해제하려는 의도를 갖고 발화한 것으로 판단할 수 있다. 상기 해제 명령어는 암호화된 컨텐츠를 해제하여 상기 사용자가 아닌 타인에 의해 상기 컨텐츠가 보여질 수 있도록 요청하는 명령일 수 있다. 예를 들어, 상기 해제 명령어는 '풀어줘', '잠금 해제', '비밀 해제', '암호 해제', '보안 해제' 등의 단어를 포함할 수 있다. 상기 해제 명령어에 대한 단어는 메모리(440)에 미리 저장되어 있을 수 있다. 프로세서(410)(예: 음성 암호 처리부(413))는 상기 음성을 변환한 텍스트가 메모리(440)에 저장된 해제 명령어에 대응되는지 여부를 판단할 수 있다.
프로세서(410)는 상기 음성을 변환한 텍스트 정보 중 적어도 일부가 상기 해제 명령어에 대응되는 경우 동작(1209)을 수행하고, 상기 음성을 변환한 텍스트 정보 중 적어도 일부가 상기 해제 명령어에 대응되지 않는 경우 동작(1208)을 수행할 수 있다.
동작(1208)에서, 전자 장치(400)(예: 프로세서(410))는 상기 인식된 음성에 대응하는 기능을 수행할 수 있다. 동작(1208)은 동작(1016)과 동일 또는 유사하므로 자세한 설명을 생략할 수 있다.
동작(1209)에서, 전자 장치(400)(예: 프로세서(410))는 상기 인식된 음성(또는 검출된 음성 입력)이 인증된 사용자의 목소리인지 판단할 수 있다. 프로세서(410)는 상기 음성 신호로부터 특정 주파수를 추출하고, 추출된 주파수가 메모리(440)에 저장된 사용자 특유의 음성 주파수와 일치하는지 여부를 판단할 수 있다. 동작(1209)은 동작(1021)과 동일 또는 유사하므로, 자세한 설명을 생략하도록 한다.
프로세서(410)는 상기 인식된 음성이 인증된 사용자의 목소리인 경우 동작(1211)을 수행하고, 상기 인식된 음성이 인증된 사용자의 목소리가 아닌 경우 동작(1221)을 수행할 수 있다.
동작(1211)에서, 전자 장치(400)(예: 프로세서(410))는 컨텐츠에 대한 암호 정보 발화를 요청할 수 있다. 프로세서(410)는 암호화된 컨텐츠에 대한 암호를 해제하기 위하여 사용자로부터 한번 더 암호 정보를 소리내어 읽도록 하는 발화를 요청할 수 있다. 이는, 컨텐츠 암호 해제 시의 비밀번호를 한번 더 요청함으로써, 보안성을 향상시키기 위한 것일 수 있다. 예를 들어, 프로세서(410)는 '암호 정보를 소리내어 말하세요'와 같은 발화 요청 메시지를 디스플레이(450)에 표시할 수 있다. 또는, 프로세서(410)는 상기 발화 요청 메시지를 스피커를 통해 출력할 수 있다.
동작(1213)에서, 전자 장치(400)(예: 프로세서(410))는 발화에 따른 음성 정보를 수신할 수 있다. 프로세서(410)는 동작(1111)에 의해 사용자로부터 마이크(예: 마이크(288))를 통해 음성을 입력받을 수 있다. 프로세서(410)는 입력된 음성을 신호 처리하여 음성 인식할 수 있다. 다양한 실시예들에 따른 프로세서(410)는 상기 인식된 음성이 사용자의 목소리와 일치하는지 확인할 수 있다. 동작(1113)은 동작(865)와 동일 또는 유사하므로 자세한 설명을 생략할 수 있다.
동작(1215)에서, 전자 장치(400)(예: 프로세서(410))는 상기 음성 정보에 기반하여 컨텐츠 암호를 해제할 수 있다. 예를 들어, 프로세서(410)는 상기 인식된 음성이 사용자의 목소리와 일치하고, 상기 음성 정보가 메모리(440)에 저장된 암호 정보에 대응하는 음성 정보와 동일한 경우, 암호화한 컨텐츠에 대한 암호를 해제할 수 있다. 즉, 사용자는 컨텐츠를 암호화하는 방법과 동일한 방법으로 암호화한 컨텐츠에 대한 암호를 해제할 수 있다. 즉, 프로세서(410)는 동작(1101)에서 실행된 컨텐츠에 대한 암호를 해제할 수 있다. 암호가 해제되면, 프로세서(410)는 암호 해제된 결과를 표시할 수 있다. 예를 들어, 프로세서(410)는 컨텐츠와 함께 표시된 잠금 표시 이미지(예: 자물쇠 아이콘)를 삭제하여 컨텐츠와 함께 표시되지 않도록 제어할 수 있다.
상기 인식된 음성이 인증된 사용자의 목소리가 아닌 경우 동작(1221)에서, 전자 장치(400)(예: 프로세서(410))는 사용자에게 생체 정보를 요청할 수 있다. 프로세서(410)는 동작(1103)에서 입력한 사용자가 인증된 사용자가 아닌 경우, 생체 정보를 요청할 수 있다. 예를 들어, 동작(1103)에서 입력한 사용자가 전자 장치(400)의 소유인 사용자가 맞지만 전자 장치(400)의 오류(예: 음성 인식 오류)로 인해 동작(1103)에서 입력한 사용자가 인증된 사용자가 아니라고 판단될 수도 있다. 이 경우, 프로세서(410)는 생체 정보를 요청하고, 사용자로부터 생체 정보를 입력받기 위하여 생채 인식 센서(예: 지문 인식 센서, 홍채 인식 센서)를 활성화시킬 수 있다. 동작(1121)은 동작(1041)과 동일 또는 유사하므로 자세한 설명을 생략할 수 있다.
동작(1223)에서, 전자 장치(400)(예: 프로세서(410))는 사용자 인증이 성공되었는지 판단할 수 있다. 프로세서(410)는 생체 정보 요청에 의해 사용자로부터 지문, 홍채, 얼굴 등의 생체 정보를 획득하고, 획득한 생체 정보가 메모리(440)에 저장된 생체 정보와 일치하는지 여부를 판단할 수 있다. 프로세서(410)는 획득한 생체 정보가 메모리(440)에 저장된 생체 정보와 일치하는 경우 사용자 인증이 성공한 것으로 판단하고, 생체 정보 인증을 완료할 수 있다. 또는, 프로세서(410)는 획득한 생체 정보가 메모리(440)에 저장된 생체 정보와 일치하지 않는 경우 종료할 수 있다. 또는, 프로세서(410)는 획득한 생체 정보가 메모리(440)에 저장된 생체 정보와 일치하지 않는 경우 생체 정보를 재요청할 수 있다. 예를 들어, 프로세서(410)는 생체 인증 횟수를 카운트하고, 카운트한 생체 인증 횟수가 기설정된 횟수(예: 3회) 이상인 경우, 더 이상 생체 정보를 재요청하지 않고 종료할 수 있다.
동작(1225)에서, 전자 장치(400)(예: 프로세서(410))는 컨텐츠에 대한 암호를 해제할 수 있다. 예를 들어, 프로세서(410)는 음성 인식 오류 또는 타인에 의해 컨텐츠 암호 해제가 요청되는 경우, 생체 정보를 더 확인하여 생체 정보가 일치하는 경우 컨텐츠에 대한 암호를 해제함으로써, 보안성을 높일 수 있다. 즉, 사용자는 생체 정보를 이용하여 암호화한 컨텐츠에 대한 암호를 해제할 수 있다. 프로세서(410)는 동작(1101)에서 실행된 컨텐츠에 대한 암호를 해제할 수 있다.
도 12에서는 암호 해제 방법에 대해 설명하였지만, 암호화된 컨텐츠를 삭제하는 방법도 암호 해제 방법과 동일 또는 유사할 수 있다.
다양한 실시예들에 따른 음성 인식부(411)를 포함하는 전자 장치(400)의 동작 방법은 상기 음성 인식부를 이용하여 사용자의 음성 정보를 인식하는 동작, 상기 인식된 음성 정보가 숨김 명령어를 포함하는 경우, 상기 사용자에 의해 선택된 컨텐츠에 대한 암호 정보를 획득하는 동작, 상기 획득한 암호 정보를 상기 사용자에게 발화하도록 요청하는 동작, 및 상기 요청에 따라 수신되는 음성 정보에 기반하여 상기 컨텐츠를 암호화하는 동작을 포함할 수 있다.
상기 획득하는 동작은, 상기 음성 정보가 인증된 사용자의 목소리인지 판단하는 동작, 및 인증된 사용자의 목소리인 경우 상기 암호 정보를 생성하는 동작을 포함할 수 있다.
상기 생성하는 동작은, 상기 컨텐츠의 속성 정보 또는 상기 전자 장치의 상황 정보에 기반하여 상기 암호 정보를 생성하는 동작을 포함할 수 있다.
상기 획득하는 동작은, 상기 사용자로부터 암호 정보를 입력받는 동작을 포함할 수 있다.
상기 방법은 상기 암호 정보 및 상기 암호 정보에 대응하는 음성 정보를 상기 컨텐츠와 연관하여 상기 전자 장치의 메모리(440)에 저장하는 동작을 더 포함할 수 있다.
상기 방법은 상기 음성 인식부에 의해 인식된 음성 정보가 암호화된 컨텐츠 호출 명령어인 경우, 상기 암호화된 컨텐츠와 연관된 암호 정보를 발화하도록 요청하는 동작, 및 상기 요청에 따라 수신되는 음성 정보가 상기 메모리에 저장된 암호 정보와 동일한지 여부를 판단하여 암호화된 컨텐츠를 제공하는 동작을 더 포함할 수 있다.
상기 암호화된 컨텐츠를 제공하는 동작은, 상기 요청에 따라 수신되는 음성 정보가 상기 메모리에 저장된 암호 정보에 대응하는 음성 정보와 동일한 경우 암호화된 컨텐츠를 제공하는 동작을 포함할 수 있다.
상기 암호화된 컨텐츠를 제공하는 동작은, 상기 요청에 따라 수신되는 음성 정보의 텍스트 정보가 상기 메모리에 저장된 암호 정보와 동일하지 않은 경우, 생체 인증을 요청하는 동작, 상기 요청에 응답하여 상기 전자 장치의 생체 인식 센서(430)를 이용하여 사용자의 생체 정보를 획득하는 동작, 및 상기 획득한 생체 정보와 상기 메모리에 저장된 생체 정보가 동일한 경우, 암호화된 컨텐츠를 제공하는 동작을 포함할 수 있다.
다양한 실시예들에 따른 컴퓨터로 판독 가능한 기록 매체는 음성 인식부를 이용하여 음성을 인식하는 동작, 상기 인식된 음성 정보에 숨김 명령어가 포함되어 있는 경우, 암호 생성 방법에 따라 사용자에 의해 선택된 컨텐츠에 대한 암호 정보를 획득하는 동작, 상기 획득한 암호 정보를 상기 사용자에게 발화하도록 요청하는 동작, 및 상기 요청에 따라 수신되는 음성 정보에 기반하여 상기 컨텐츠를 암호화하는 동작을 실행하는 프로그램을 포함할 수 있다.
컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(예: 자기테이프), 광기록 매체(예: CD-ROM, DVD, 자기-광 매체 (예: 플롭티컬 디스크), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 다양한 실시예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 다른 구성요소를 더 포함할 수 있다. 다양한 실시예에 따른, 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
그리고 본 명세서와 도면에 개시된 실시 예들은 본 발명의 내용을 쉽게 설명하고, 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (15)

  1. 전자 장치에 있어서,
    음성 인식부;
    메모리;
    디스플레이; 및
    상기 음성 인식부, 상기 메모리 또는 상기 디스플레이와 기능적으로 연결된 프로세서를 포함하고, 상기 프로세서는,
    상기 음성 인식부에 의해 인식된 사용자의 음성 정보가 숨김 명령어를 포함하는 경우, 상기 사용자에 의해 선택된 컨텐츠의 암호 정보를 획득하고, 상기 획득한 암호 정보를 상기 사용자에게 발화하도록 요청하고, 상기 요청에 따라 수신되는 음성 정보에 기반하여 상기 컨텐츠를 암호화하도록 설정된 전자 장치.
  2. 제1항에 있어서, 상기 프로세서는,
    상기 음성 정보가 인증된 사용자의 목소리인지 판단하고, 인증된 사용자의 목소리인 경우 상기 암호 정보를 생성하도록 설정된 전자 장치.
  3. 제1항에 있어서, 상기 프로세서는,
    상기 선택된 컨텐츠와 연관된 적어도 하나 이상의 정보에 기반하여 암호 정보를 생성하도록 설정된 전자 장치.
  4. 제1항에 있어서, 상기 프로세서는,
    상기 컨텐츠의 속성 정보 또는 상기 전자 장치의 상황 정보에 기반하여 상기 암호 정보를 생성하도록 설정된 전자 장치.
  5. 제1항에 있어서, 상기 프로세서는,
    상기 사용자로부터 암호 정보를 입력받도록 설정된 전자 장치.
  6. 제1항에 있어서, 상기 프로세서는,
    상기 암호 정보 및 상기 암호 정보에 대응하는 음성 정보를 상기 컨텐츠와 연관하여 상기 메모리에 저장하도록 설정된 전자 장치.
  7. 제6항에 있어서, 상기 프로세서는,
    상기 음성 인식부에 의해 인식된 음성 정보가 암호화된 컨텐츠 호출 명령어인 경우, 상기 암호화된 컨텐츠와 연관된 암호 정보를 발화하도록 요청하고, 상기 요청에 따라 수신되는 음성 정보가 상기 메모리에 저장된 암호 정보와 동일한지 여부를 판단하여 암호화된 컨텐츠를 제공하도록 설정된 전자 장치.
  8. 제7항에 있어서, 상기 프로세서는,
    상기 요청에 따라 수신되는 음성 정보가 상기 메모리에 저장된 암호 정보에 대응하는 음성 정보와 동일한 경우 암호화된 컨텐츠를 제공하도록 설정된 전자 장치.
  9. 제7항에 있어서,
    생체 인식 센서를 더 포함하고,
    상기 프로세서는,
    상기 요청에 따라 수신되는 음성 정보의 텍스트 정보가 상기 메모리에 저장된 암호 정보와 동일하지 않은 경우 상기 생체 인식 센서를 이용한 생체 정보 인증을 통해 암호화된 컨텐츠를 제공하도록 설정된 전자 장치.
  10. 제1항에 있어서, 상기 프로세서는,
    상기 음성 인식부에 의해 인식된 음성 정보에 컨텐츠 호출 명령어가 포함되어 있는 경우, 상기 메모리에 저장된 컨텐츠를 검색하여 상기 검색된 컨텐츠가 암호화되었는지 판단하고, 상기 컨텐츠가 암호화된 경우 상기 암호화된 컨텐츠와 연관된 암호 정보를 발화하도록 요청하고, 상기 요청에 따라 수신되는 음성 정보가 상기 메모리에 저장된 암호 정보와 동일한지 여부를 판단하여 암호화된 컨텐츠를 제공하도록 설정된 전자 장치.
  11. 제1항에 있어서, 상기 프로세서는,
    상기 음성 인식부에 의해 인식된 음성 정보가 암호화된 컨텐츠 해제 명령어인 경우, 상기 암호화된 컨텐츠와 연관된 암호 정보를 발화하도록 요청하고, 상기 요청에 따라 수신되는 음성 정보가 상기 메모리에 저장된 암호 정보와 동일한지 여부를 판단하여 암호화된 컨텐츠에 대한 암호를 해제하도록 설정된 전자 장치.
  12. 제11항에 있어서,
    생체 인식 센서를 더 포함하고,
    상기 프로세서는,
    상기 요청에 따라 수신되는 음성 정보의 텍스트 정보가 상기 메모리에 저장된 암호 정보와 동일하지 않은 경우 상기 생체 인식 센서를 이용한 생체 정보 인증을 통해 암호화된 컨텐츠에 대한 암호를 해제하도록 설정된 전자 장치.
  13. 음성 인식부를 포함하는 전자 장치의 동작 방법에 있어서,
    상기 음성 인식부를 이용하여 사용자의 음성 정보를 인식하는 동작;
    상기 인식된 음성 정보가 숨김 명령어를 포함하는 경우, 상기 사용자에 의해 선택된 컨텐츠에 대한 암호 정보를 획득하는 동작;
    상기 획득한 암호 정보를 상기 사용자에게 발화하도록 요청하는 동작; 및
    상기 요청에 따라 수신되는 음성 정보에 기반하여 상기 컨텐츠를 암호화하는 동작을 포함하는 방법.
  14. 제13항에 있어서, 상기 획득하는 동작은,
    상기 음성 정보가 인증된 사용자의 목소리인지 판단하는 동작; 및
    인증된 사용자의 목소리인 경우 상기 암호 정보를 생성하는 동작을 포함하는 방법.
  15. 제14항에 있어서, 상기 생성하는 동작은,
    상기 컨텐츠의 속성 정보 또는 상기 전자 장치의 상황 정보에 기반하여 상기 암호 정보를 생성하는 동작을 포함하는 방법.
PCT/KR2017/010289 2016-12-21 2017-09-20 컨텐츠 운용 방법 및 이를 구현한 전자 장치 WO2018117376A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/471,968 US11508383B2 (en) 2016-12-21 2017-09-20 Method for operating content and electronic device for implementing same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0175412 2016-12-21
KR1020160175412A KR102636638B1 (ko) 2016-12-21 2016-12-21 컨텐츠 운용 방법 및 이를 구현한 전자 장치

Publications (1)

Publication Number Publication Date
WO2018117376A1 true WO2018117376A1 (ko) 2018-06-28

Family

ID=62626672

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/010289 WO2018117376A1 (ko) 2016-12-21 2017-09-20 컨텐츠 운용 방법 및 이를 구현한 전자 장치

Country Status (3)

Country Link
US (1) US11508383B2 (ko)
KR (1) KR102636638B1 (ko)
WO (1) WO2018117376A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220284892A1 (en) * 2021-03-05 2022-09-08 Lenovo (Singapore) Pte. Ltd. Anonymization of text transcripts corresponding to user commands

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
CN104969289B (zh) 2013-02-07 2021-05-28 苹果公司 数字助理的语音触发器
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
AU2017100670C4 (en) 2016-06-12 2019-11-21 Apple Inc. User interfaces for retrieving contextually relevant media content
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US10887351B2 (en) * 2018-05-02 2021-01-05 NortonLifeLock Inc. Security for IoT home voice assistants
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
KR102306542B1 (ko) * 2018-06-05 2021-09-29 삼성전자주식회사 정보 처리 방법 및 디바이스
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11113383B2 (en) * 2019-07-17 2021-09-07 Lenovo (Singapore) Pte. Ltd. Permitting login with password having dynamic character(s)
CN110380856B (zh) * 2019-08-15 2023-04-18 Oppo(重庆)智能科技有限公司 终端设备及其语音信息处理方法、装置以及存储介质
KR102165743B1 (ko) * 2019-10-01 2020-10-14 한화시스템 주식회사 음성인식 기능을 내장한 함정 전투체계용 다기능 콘솔 장치
CN111292747B (zh) * 2020-02-07 2023-08-15 普强时代(珠海横琴)信息技术有限公司 一种电话网络用文本自动语音录入***
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
CN111833868A (zh) * 2020-06-30 2020-10-27 北京小米松果电子有限公司 语音助手控制方法、装置及计算机可读存储介质
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
CN113158172B (zh) * 2021-02-26 2022-03-22 山东英信计算机技术有限公司 一种基于芯片的密码获取方法、装置、设备及存储介质
CN113205821B (zh) * 2021-04-25 2023-08-29 广州大学 一种基于对抗样本的语音隐写方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100968190B1 (ko) * 2005-07-27 2010-07-07 인터내셔널 비지네스 머신즈 코포레이션 인가된 수신자에 대한 파일의 안전한 전달을 위한 시스템및 방법
KR101052294B1 (ko) * 2011-01-28 2011-07-27 주식회사 상상커뮤니케이션 콘텐츠 보안 장치 및 콘텐츠 보안 방법
JP2011216031A (ja) * 2010-04-01 2011-10-27 Panasonic Corp コンテンツ検索制御装置、コンテンツ再生装置、集積回路、コンテンツ検索制御方法、コンテンツ検索制御プログラムおよび記録媒体
KR20150110400A (ko) * 2014-03-21 2015-10-02 삼성전자주식회사 생체 정보를 이용하여 파일을 실행하는 시스템 및 방법
KR20160011612A (ko) * 2014-06-26 2016-02-01 시아오미 아이엔씨. 파일 잠금방법, 장치, 프로그램 및 기록매체

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8166562B2 (en) * 2002-05-31 2012-04-24 Peoplechart Corporation Method and system for protecting information on a computer system
US7660413B2 (en) * 2005-04-08 2010-02-09 Shahram Partovi Secure digital couriering system and method
US20070038868A1 (en) * 2005-08-15 2007-02-15 Top Digital Co., Ltd. Voiceprint-lock system for electronic data
US20120096542A1 (en) * 2010-10-14 2012-04-19 Shea David P Portable confidential account information management device
US8543834B1 (en) * 2012-09-10 2013-09-24 Google Inc. Voice authentication and command
US9723000B1 (en) * 2013-05-09 2017-08-01 Isaac S. Daniel System and method of securing content
US9904774B2 (en) 2014-06-26 2018-02-27 Xiaomi Inc. Method and device for locking file
KR20160016522A (ko) * 2014-07-31 2016-02-15 삼성전자주식회사 콘텐츠를 암호화/복호화하는 디바이스 및 방법
US10594688B2 (en) 2015-03-09 2020-03-17 Cross Match Technologies, Inc. Privacy-enhanced biometrics-secret binding scheme
EP3271852A4 (en) * 2015-03-18 2018-11-07 Amaani, LLC System and method of efficiently generating and transmitting encrypted documents
US10375088B2 (en) * 2015-06-04 2019-08-06 Vm-Robot, Inc. Routing systems and methods

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100968190B1 (ko) * 2005-07-27 2010-07-07 인터내셔널 비지네스 머신즈 코포레이션 인가된 수신자에 대한 파일의 안전한 전달을 위한 시스템및 방법
JP2011216031A (ja) * 2010-04-01 2011-10-27 Panasonic Corp コンテンツ検索制御装置、コンテンツ再生装置、集積回路、コンテンツ検索制御方法、コンテンツ検索制御プログラムおよび記録媒体
KR101052294B1 (ko) * 2011-01-28 2011-07-27 주식회사 상상커뮤니케이션 콘텐츠 보안 장치 및 콘텐츠 보안 방법
KR20150110400A (ko) * 2014-03-21 2015-10-02 삼성전자주식회사 생체 정보를 이용하여 파일을 실행하는 시스템 및 방법
KR20160011612A (ko) * 2014-06-26 2016-02-01 시아오미 아이엔씨. 파일 잠금방법, 장치, 프로그램 및 기록매체

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220284892A1 (en) * 2021-03-05 2022-09-08 Lenovo (Singapore) Pte. Ltd. Anonymization of text transcripts corresponding to user commands

Also Published As

Publication number Publication date
US20190333523A1 (en) 2019-10-31
US11508383B2 (en) 2022-11-22
KR20180072148A (ko) 2018-06-29
KR102636638B1 (ko) 2024-02-15

Similar Documents

Publication Publication Date Title
WO2018117376A1 (ko) 컨텐츠 운용 방법 및 이를 구현한 전자 장치
WO2018135743A1 (ko) 발화 완료 감지 방법 및 이를 구현한 전자 장치
AU2015350680B2 (en) Power control method and apparatus for reducing power consumption
WO2018038385A2 (ko) 음성 인식 방법 및 이를 수행하는 전자 장치
WO2017069595A1 (en) Electronic device and method for executing function using speech recognition thereof
WO2017142256A1 (en) Electronic device for authenticating based on biometric data and operating method thereof
WO2017164585A1 (en) Electronic device and control method thereof
WO2017116052A1 (ko) 컨텐트 인식 장치 및 그 동작 방법
WO2018217066A1 (ko) 생체 정보를 측정하는 전자 장치와 이의 동작 방법
WO2017119662A1 (en) Electronic device and operating method thereof
WO2018174648A1 (ko) 전자 장치 및 이를 이용한 카메라 촬영 환경 및 장면에 따른 영상 처리 방법
WO2016129936A1 (ko) 보안 메시지 전송 장치 및 그 처리 방법
WO2016093543A1 (en) Method for controlling and electronic device thereof
WO2017119631A1 (ko) 잠금 장치 제어를 위한 방법 및 그 전자 장치
WO2017131469A1 (ko) 어플리케이션을 제어하는 전자 장치와 이의 동작 방법
WO2017135645A1 (en) User interfacing method and electronic device for performing the same
WO2018128432A1 (ko) 전자 장치 간 콘텐츠 공유 시스템 및 전자 장치의 콘텐츠 공유 방법
WO2018080198A1 (ko) 인증을 수행하기 위한 전자 장치 및 방법
WO2018155928A1 (ko) 복수의 생체 센서를 이용하여 인증을 수행하기 위한 전자 장치 및 그의 동작 방법
WO2017119690A1 (ko) 전자 장치 및 그 동작 방법
WO2018048217A1 (en) Electronic apparatus and operating method thereof
WO2018101628A1 (ko) 조건부 액션에 대한 정보를 공유하기 위한 방법 및 그 전자 장치
WO2016039596A1 (en) Method and apparatus for generating preview data
WO2018135750A1 (ko) 전자 장치 및 전자 장치 제어 방법
WO2018038526A1 (en) Electronic device and method for measuring heart rate based on infrared rays sensor using the same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17882594

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17882594

Country of ref document: EP

Kind code of ref document: A1