WO2024080633A1 - 전자 장치 및 그 동작 방법 - Google Patents

전자 장치 및 그 동작 방법 Download PDF

Info

Publication number
WO2024080633A1
WO2024080633A1 PCT/KR2023/014757 KR2023014757W WO2024080633A1 WO 2024080633 A1 WO2024080633 A1 WO 2024080633A1 KR 2023014757 W KR2023014757 W KR 2023014757W WO 2024080633 A1 WO2024080633 A1 WO 2024080633A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
voice
transmission mode
signal
processor
Prior art date
Application number
PCT/KR2023/014757
Other languages
English (en)
French (fr)
Inventor
최병근
서윤섭
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220156496A external-priority patent/KR20240050215A/ko
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US18/477,803 priority Critical patent/US20240121333A1/en
Publication of WO2024080633A1 publication Critical patent/WO2024080633A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments

Definitions

  • Embodiments disclosed in this document relate to electronic devices and methods of operating the same.
  • a microphone including a first communication circuit providing a communication channel with a first external electronic device and a second communication circuit providing a communication channel with a second external electronic device; and a processor electrically connected to the communication module, wherein the processor allows the electronic device operating in a first transmission mode and a first external electronic device to establish a call connection through the first communication circuit, and the call connection is established.
  • a method of operating an electronic device includes providing a communication channel with a first external electronic device and a communication channel with a second external electronic device in a first transmission mode; While a call connection between the electronic device and the first external electronic device is maintained, checking whether a user wearing the second external electronic device speaks, and while the call connection is maintained, the first external electronic device operating in a second transmission mode different from the first transmission mode based on the fact that the user's voice signal to be transmitted to the device is not recognized; While the call connection is maintained, the method may include operating in the first transmission mode based on recognition of the user's voice signal to be transmitted to the first external electronic device.
  • FIG. 1 is a block diagram of an electronic device in a network environment, according to one embodiment.
  • FIG. 2 is a diagram illustrating an example of the use of electronic devices according to an embodiment of this document.
  • FIG. 3 is a diagram illustrating a communication environment of a user's electronic device, an audio device, and a counterpart device, according to an embodiment.
  • Figure 4 is a block diagram showing an electronic device according to an embodiment.
  • FIG. 5 is a block diagram illustrating transmission and reception of a voice signal between an electronic device and a counterpart device according to an embodiment.
  • FIGS. 6A and 6B are diagrams illustrating identification information of each frame of an electronic device according to an embodiment.
  • FIGS. 7A and 7B are diagrams showing peak current according to the operation mode of an electronic device according to an embodiment.
  • FIG. 8 is a flowchart illustrating a method of determining an operation mode of an electronic device according to an embodiment.
  • FIG. 9 is a flowchart illustrating a method of controlling an operation mode of an electronic device according to an embodiment.
  • Figure 10 is a flowchart showing a method of operating an electronic device according to an embodiment.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100, according to one embodiment.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with at least one of the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network). According to one embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • a first network 198 e.g., a short-range wireless communication network
  • a second network 199 e.g., a long-distance wireless communication network.
  • the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197.
  • at least one of these components eg, the connection terminal 178) may be omitted or one or more other components may be added to the electronic device 101.
  • some of these components e.g., sensor module 176, camera module 180, or antenna module 197) are integrated into one component (e.g., display module 160). It can be.
  • the processor 120 for example, executes software (e.g., program 140) to operate at least one other component (e.g., hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and various data processing or calculations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • software e.g., program 140
  • the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132.
  • the commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • the processor 120 includes a main processor 121 (e.g., a central processing unit or an application processor) or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • a main processor 121 e.g., a central processing unit or an application processor
  • auxiliary processor 123 e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor.
  • the electronic device 101 includes a main processor 121 and a secondary processor 123
  • the secondary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can.
  • the auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.
  • the auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the electronic device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled.
  • co-processor 123 e.g., image signal processor or communication processor
  • may be implemented as part of another functionally related component e.g., camera module 180 or communication module 190. there is.
  • the auxiliary processor 123 may include a hardware structure specialized for processing artificial intelligence models.
  • Artificial intelligence models can be created through machine learning. For example, such learning may be performed in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (e.g., server 108).
  • Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited.
  • An artificial intelligence model may include multiple artificial neural network layers.
  • Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above.
  • artificial intelligence models may additionally or alternatively include software structures.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto.
  • Memory 130 may include volatile memory 132 or non-volatile memory 134.
  • the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.
  • the input module 150 may receive commands or data to be used in a component of the electronic device 101 (e.g., the processor 120) from outside the electronic device 101 (e.g., a user).
  • the input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
  • the sound output module 155 may output sound signals to the outside of the electronic device 101.
  • the sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback.
  • the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display module 160 can visually provide information to the outside of the electronic device 101 (eg, a user).
  • the display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device.
  • the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
  • the audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device (e.g., directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (e.g., speaker or headphone).
  • the electronic device 102 e.g., speaker or headphone
  • the sensor module 176 detects the operating state (e.g., power or temperature) of the electronic device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.
  • the interface 177 may support one or more designated protocols that can be used to connect the electronic device 101 directly or wirelessly with an external electronic device (eg, the electronic device 102).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card interface
  • audio interface audio interface
  • connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 can capture still images and moving images.
  • the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 can manage power supplied to the electronic device 101.
  • the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101.
  • the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • Communication module 190 is configured to provide a direct (e.g., wired) communication channel or wireless communication channel between electronic device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108). It can support establishment and communication through established communication channels. Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
  • processor 120 e.g., an application processor
  • the communication module 190 is a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g., : LAN (local area network) communication module, or power line communication module) may be included.
  • a wireless communication module 192 e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 e.g., : LAN (local area network) communication module, or power line communication module
  • the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It may communicate with an external electronic device 104 through a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network
  • the wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199.
  • subscriber information e.g., International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology).
  • NR access technology provides high-speed transmission of high-capacity data (enhanced mobile broadband (eMBB)), minimization of terminal power and access to multiple terminals (massive machine type communications (mMTC)), or ultra-reliable and low-latency (URLLC). -latency communications)) can be supported.
  • the wireless communication module 192 may support high frequency bands (eg, mmWave bands), for example, to achieve high data rates.
  • the wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing.
  • MIMO massive array multiple-input and multiple-output
  • the wireless communication module 192 may support various requirements specified in the electronic device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199). According to one embodiment, the wireless communication module 192 supports Peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC.
  • Peak data rate e.g., 20 Gbps or more
  • loss coverage e.g., 164 dB or less
  • U-plane latency e.g., 164 dB or less
  • the antenna module 197 may transmit or receive signals or power to or from the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB).
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected to the plurality of antennas by, for example, the communication module 190. can be selected. Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna.
  • other components eg, radio frequency integrated circuit (RFIC) may be additionally formed as part of the antenna module 197.
  • RFIC radio frequency integrated circuit
  • a mmWave antenna module includes: a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.
  • a first side e.g., bottom side
  • a designated high frequency band e.g., mmWave band
  • a plurality of antennas e.g., array antennas
  • peripheral devices e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal e.g. commands or data
  • commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the external electronic devices 102 or 104 may be of the same or different type as the electronic device 101.
  • all or part of the operations performed in the electronic device 101 may be executed in one or more of the external electronic devices 102, 104, or 108.
  • the electronic device 101 may perform the function or service instead of executing the function or service on its own.
  • one or more external electronic devices may be requested to perform at least part of the function or service.
  • One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device 101.
  • the electronic device 101 may process the result as is or additionally and provide it as at least part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology can be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of Things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or server 108 may be included in the second network 199.
  • the electronic device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
  • FIG. 2 is a diagram illustrating an example of the use of electronic devices according to an embodiment of this document.
  • the audio device 220 may include a microphone, a speaker, and an amplifier.
  • the audio device 220 may receive external audio through a microphone, process the received audio into a signal (e.g., apply a filter or amplify the signal), and output it through a speaker.
  • the audio device 220 may be a wearable device that can be worn on at least part of the body 230 (eg, ears) of the wearer (or user).
  • the audio device 220 may be worn inside or outside the wearer's ear and output sound near the user's ear through a speaker.
  • the audio device 220 (e.g., the external electronic devices 102 and 104 in FIG.
  • a call function may be provided to the wearer through a microphone and speaker.
  • the audio device 220 may have various forms depending on the user's purpose of use and may provide various functions. Audio device 220 may include a headset, headphones, earpieces, hearing aids, or personal sound amplification products.
  • the audio device 220 may be a hearing aid that is mounted on the user's ear and amplifies sound. Hearing aids can operate according to the hearing frequency of each hearing loss person.
  • the hearing aid can convert the voice received from the electronic device 210 that provides a call function into a signal in a specific frequency band and output it.
  • a hearing aid may be equipped with a receiver that includes a telecoil (tele-coil or T-coil).
  • the electronic device 210 (eg, electronic device 101 of FIG. 1) of the user wearing the audio device 220 may provide various functions.
  • the electronic device 210 may provide a call function (e.g., a voice call, a video call, or an Internet call, etc.), a content playback function (e.g., a music playback or a video playback, etc.), a data transmission/reception function, etc. can be provided.
  • a call function e.g., a voice call, a video call, or an Internet call, etc.
  • a content playback function e.g., a music playback or a video playback, etc.
  • a data transmission/reception function etc.
  • the electronic device 210 may provide a hearing aid compatibility (HAC) mode. For example, when an item for activating the HAC mode is selected in the settings menu of the electronic device 210, the electronic device 210 may activate the HAC mode. As another example, the electronic device 210 may activate the HAC mode when detecting a preset (eg, designated) gesture. As another example, when the audio device 220 exists in close proximity to the electronic device 210 (or the electronic device 210 and the audio device 220 are in contact), the electronic device 210 may activate the HAC mode. You can. As another example, when a communication connection (e.g., call connection) is established between the electronic device 210 and the counterpart device (e.g., the electronic devices 102 and 104 of FIG. 1), the electronic device 210 automatically activates the HAC mode. can do.
  • HAC hearing aid compatibility
  • the electronic device 210 can support HAC mode by satisfying the regulations according to HAC T-coil performance (Spec). HAC T-coil performance is unnecessary without applying the audio signal (audio band magnetic 1, ABM1) output through the speaker of the electronic device 210 and required for the hearing aid, and the audio signal output from the speaker of the electronic device 210. It can be determined by the difference (signal to noise ratio, SNR) between magnetic signals (audio band magnetic 2, ABM2).
  • the target ABM1 is at a specific location of the electronic device 210, the X-axis in the longitudinal direction of the electronic device 200, the Y-axis in the width direction of the electronic device 210, and the thickness direction of the electronic device 210 It can be measured in the Z-axis direction. Unwanted ABM2 can be measured in the X-, Y-, and Z-axis directions at the same location as the target ABM1.
  • the electronic device 210 can satisfy HAC regulations by reducing magnetic field noise induced by the audio device 220.
  • the flow of signals generated by radio frequency (RF) operation of the electronic device 210 may act as magnetic field noise on the hearing aid used by the wearer.
  • the electronic device according to one embodiment is capable of minimizing and/or reducing magnetic field noise generated from the electronic device 210 during a sign language section where audio signals from the other device are heard without the user's voice during a call, thereby satisfying HAC regulations. there is.
  • At least one of the audio device 220 and the electronic device 210 may provide a hearing correction function.
  • the audio device 220 and the electronic device 210 may correct data on sound received from the outside or audio data played internally.
  • the audio device 220 or the electronic device 210 may use the user's hearing data to correct the data to suit the user's hearing characteristics.
  • auditory data may include information on noise reduction amount, filter value, pass frequency, cutoff frequency, sound amplification value, directionality, fitting parameters for each user, etc. corresponding to the user's hearing characteristics.
  • the audio device 220 and the electronic device 210 may correct different data.
  • the audio device 220 may correct data on sound received from the outside, and the electronic device 210 may correct audio data played internally.
  • audio data played internally may include audio data when playing voice or content (audio content or video content), or voice data when making a call.
  • the audio device 220 may be connected to the electronic device 210.
  • the audio device 220 and the electronic device 210 may be connected wired or wirelessly and communicate with each other.
  • the audio device 220 and the electronic device 210 may share data through communication.
  • the audio device 220 and the electronic device 210 may transmit and receive data about sound or audio data through communication.
  • the audio device 220 and the electronic device 210 may transmit and receive data corrected for sound or data corrected for audio data.
  • FIG. 3 is a diagram illustrating a communication environment of a user's electronic device, an audio device, and a counterpart device, according to an embodiment.
  • the electronic device 310 of the user wearing the audio device 320 (e.g., the electronic device 101 of FIG. 1) and the counterpart device 340 (e.g., the external electronic device of FIG. 1 (e.g., 102 and 104)) include at least some of the same or similar configurations as the electronic device 101 shown in FIG. 1, and at least some of them may use the same or similar functions.
  • the user's electronic device 310 may include a processor 311 (eg, including a processing circuit), a memory 312, and wireless communication circuits 313 and 314.
  • the processor 310 may be substantially the same as the processor 120 of Figure 1 or may be included in the processor 120.
  • the memory 312 may be substantially the same as the memory 130 of Figure 1 or may be included in the memory 130.
  • the wireless communication circuits 313 and 314 may be substantially the same as the wireless communication module 192 of FIG. 1 or may be included in the wireless communication module 192.
  • the processor 311 may be operatively connected to at least one of the wireless communication circuits 313 and 314 and the memory 312.
  • the processor 311 may be an application processor (AP) (e.g., the main processor 121 in FIG. 1) and/or a communication processor (CP) (e.g., the auxiliary processor 123 in FIG. 1, FIG. 4 It may include the audio processor 410 of and the communication processor 420 of FIG. 4).
  • AP application processor
  • CP communication processor
  • the memory 312 may store various data used by at least one component (eg, the processor 311 or the wireless communication circuits 313 and 314) of the electronic device 310.
  • the memory 312 can store various instructions that can be executed through the processor 311.
  • the wireless communication circuits 313 and 314 may receive signals from the counterpart device 340 and/or transmit signals to the counterpart device 340 and the audio device 320 through a plurality of antennas (not shown).
  • the wireless communication circuits 313 and 314 may include a first communication circuit 313 and a second communication circuit 314.
  • the first communication circuit 313 and the second communication circuit 314 may include different circuits or different hardware.
  • the first communication circuit 313 and the second communication circuit 314 may be logically (eg, software) separated parts.
  • the first communication circuit 313 may form a first link (or first communication channel) 301 with the counterpart device 340.
  • the first communication circuit 313 may be a long-distance communication circuit for a call connection with the counterpart device 340.
  • the first communication circuit 313 may support long-distance communication, such as a legacy cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • the second communication circuit 314 may form a second link (or second communication channel) with the audio device 320.
  • the second communication circuit 314 may be a short-distance communication circuit for transmitting and receiving voice signals to and from the audio device 320.
  • the second communication circuit 314 may support short-range communication such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA).
  • the electronic device 310 may create or establish a first link 301 with the counterpart device 340 through the first communication circuit 313.
  • the electronic device 310 and the counterpart device 340 can transmit and receive data packets through the first link 301.
  • the electronic device 310 may transmit a data packet containing content such as text, audio, image, or video to the counterpart device 340.
  • the electronic device 310 may create a first link 301 with the counterpart device 340 based on a communication protocol.
  • the electronic device 310 may create the first link 301 based on a synchronous connection protocol or an asynchronous connection protocol.
  • a synchronous connection protocol may include a protocol that supports real-time audio data exchange (e.g., a protocol that supports hands-free profile (HFP)).
  • the asynchronous connection protocol may include a profile that uses an asynchronous connection-less (ACL) protocol (e.g., advanced audio distribution profile (A2DP) or serial port profile (SPP)).
  • ACL asynchronous connection-less protocol
  • the electronic device 310 may create or establish a second link 302 with the audio device 320 through the second communication circuit 314.
  • the electronic device 310 may create a second link 302 with the audio device 320 based on a communication protocol.
  • the electronic device 201 may create the second link 302 based on a synchronous connection protocol or an asynchronous connection protocol.
  • the electronic device 310 may function as a central device in the second link 302, and the audio device 320 may function as a peripheral device. .
  • the electronic device 310 may transmit a data packet including voice content such as audio or video to the audio device 320.
  • voice content such as audio or video
  • the electronic device 310 may be referred to as a source device
  • the audio device 320 may be referred to as a sink device.
  • the electronic device 310 uses one of the first transmission mode (or speech mode) and the second transmission mode (or sign language mode) depending on whether the user's voice is to be transmitted to the other device 340. It can operate in mode.
  • the first transmission mode may be executed when a call channel is established with the other device 340 and there is a user's voice to be transmitted to the other device 340. That is, the first transmission mode may be a mode in which data including the user's transmission voice is transmitted to the counterpart device 340.
  • the first transmission mode may be the same operating mode as the basic mode set in the electronic device 310 before, during, or after establishing a call channel with the counterpart device 340.
  • the second transmission mode may be executed when a call channel is established with the other device 340 and there is no user's voice to transmit to the other device 340. That is, the second transmission mode may be a mode in which data including silence is transmitted to the counterpart device 340 without the user's transmission voice. The second transmission mode may be a mode in which data including audio (eg, received voice) of the other device 340 is received without the user's transmitted voice.
  • the electronic device 310 may set at least one of transmission power and peak current during a wireless communication (RF) operation (e.g., a call) to be lower in the second transmission mode than in the first transmission mode.
  • RF wireless communication
  • Transmission power and peak current in the first transmission mode and the second transmission mode can be selectively adjusted to suit the situation of the user wearing the audio device 320.
  • the electronic device 310 can reduce transmission power and peak current in the second transmission mode, and thus magnetic field noise radiated from the electronic device 310 in the second transmission mode can be reduced. Accordingly, interference with the hearing frequency of an audio device (eg, a hearing aid) caused by magnetic field noise can be reduced, thereby providing an improved audio signal to the user.
  • an audio device eg, a hearing aid
  • Figure 4 is a block diagram showing an example configuration of an electronic device according to an embodiment.
  • an electronic device includes an audio processor 410 (audio digital signal processor (DSP)) (e.g., including a signal processing circuit) and a communication processor 420 (communication processor (CP)). ) (e.g., including a processing circuit) and an RF (radio frequency) operating unit 430 (e.g., including an RF circuit).
  • the audio processor 410, the communication processor 420, and the RF operation unit 430 may form at least a part of a wireless communication module (eg, the wireless communication module of FIG. 2).
  • the audio processor 410 and the communication processor 420 form at least a part of an auxiliary processor (e.g., the auxiliary processor 123 in FIG. 2)
  • the RF operating unit 430 forms an antenna module (e.g. : Can form at least a part of the antenna module 197 in FIG. 1.
  • some or all of the blocks shown in FIG. 4 may be implemented as hardware and/or software components that execute specific functions.
  • the functions performed by the blocks shown in FIG. 4 may be implemented by at least one microprocessor or by circuit configurations for the corresponding functions.
  • Some or all of the blocks shown in FIG. 4 may be software modules composed of various programming languages or script languages that run on a processor (eg, processor 120 of FIG. 1).
  • the audio processor 410 includes various signal processing circuits and may periodically receive audio signals input through a microphone of an electronic device. For example, the audio processor 410 may receive an audio signal at a period of 20 ms. The audio processor 410 may receive audio signals in frames at a preset period and sequentially store the received frames according to the order of creation (or the order of input to the microphone).
  • the audio processor 410 may recognize whether a user wearing an audio device (eg, the audio device 320 of FIG. 3) speaks based on the received audio signal. For example, the audio processor 410 may recognize whether the user has spoken based on an audio signal (e.g., a voice signal) of a specified size or greater in a designated band (e.g., a human vocal range band).
  • an audio signal e.g., a voice signal
  • a designated band e.g., a human vocal range band
  • the audio processor 410 may divide each frame into a voice frame and a silence frame based on the presence or absence of voice (or transmitted voice) according to the user's (e.g., user of the audio device) speech.
  • the audio processor 410 may distinguish frames containing voice (or transmitted voice) according to the user's speech into voice frames.
  • the audio processor 410 may distinguish frames that do not contain voice according to the user's speech as silent frames.
  • the audio processor 410 detects the presence or absence of the user's voice using Speech Activity Detection (SAD) (or Voice Activity Detection, VAD) technology based on the normal distribution of the intensity of the audio signal input through the microphone. can be judged.
  • SAD Speech Activity Detection
  • VAD Voice Activity Detection
  • the audio processor 410 may include artificial communication noise (comfort noise) generated using a comfort noise generation (CNG) method in the silence frame.
  • Communication noise may have a lower voice intensity than the user's voice.
  • Communication noise may be background noise that is inserted to make it feel natural without feeling disconnected between voice frames, even if it is a silent frame without the user's voice.
  • the audio processor 410 can transmit a plurality of frames in one packet.
  • the audio processor 410 can transmit up to 7 to 20 consecutive silence frames in a SID (silence insertion descriptor) packet.
  • a section in which only a plurality of silent frames are transmitted continuously may be referred to as a silent section or a discontinuous transmission (DTX) section.
  • the audio processor 410 transmits eight consecutive silence frames in a SID packet, so the SID packet can be transmitted at a period of 160 ms in the DTX section.
  • the audio processor 410 may transmit a plurality of consecutive voice frames in a speech packet.
  • a section in which only a plurality of voice frames are transmitted continuously may be referred to as a voice section.
  • the audio processor 410 transmits 10 consecutive voice frames together in a speech packet, so speech packets may be transmitted at a period of 200 ms during the voice section.
  • the communication processor 420 may include a signal processing unit 421, a monitoring unit 422, and an RF control unit 423.
  • Each of the signal processing unit 421, monitoring unit 422, and RF control unit 423 may include various processing circuits and/or executable program instructions.
  • the signal processing unit 421 may perform signal processing so that voice frames and silence frames can be output through the RF operation unit 430.
  • the signal processing unit 421 may perform signal processing (e.g., applying a filter or amplifying a signal) on data of input voice frames and silence frames.
  • the monitoring unit 422 may monitor voice frames and silence frames input to the signal processing unit 421.
  • the monitoring unit 422 may monitor the duration of a DTX section in which a plurality of silent frames are consecutive, or monitor the number of consecutive repetitions (or number of continuations, or number of repetitions) of the DTX section.
  • the monitoring unit 422 may monitor (or count) whether the number of consecutive repetitions of the DTX section is greater than or equal to the first preset number after the last voice frame of the voice section. For example, when the silence frame includes voice to which the AMR codec is applied, the monitoring unit 422 can monitor whether the DTX section is 3 to 4 times or more. When the silence frame includes a voice to which the EVS codec is applied, the monitoring unit 422 can monitor whether the DTX section occurs more than once or twice.
  • the monitoring unit 422 may monitor the duration of a voice section in which a plurality of voice frames are consecutive, or the number of consecutive repetitions of a plurality of voice frames. For example, the monitoring unit 422 may monitor (or count) whether the number of consecutive repetitions of the voice frame is a preset second number (eg, 10 times) after the DTX section. The second number of times may be greater than the first number of times.
  • a preset second number eg, 10 times
  • the RF control unit 423 includes various RF control/processing circuits, and based on the monitoring results of the monitoring unit 422, the RF operation unit 430 switches to the first transmission mode (or, It can be controlled to operate in either a sending mode (speech mode) or a second transmission mode (or sign language mode).
  • the first transmission mode may include a mode for transmitting data including the user's transmission voice to the other device.
  • the second transmission mode may include a mode of transmitting data including silence without the user's transmission voice to the other device and receiving data including the reception voice of the other device.
  • the second transmission mode may be a mode that can maintain the magnetic field noise radiated from the electronic device during the DTX period below a predefined standard value.
  • the second transmission mode may be a mode in which less magnetic field noise is emitted from the electronic device than the first transmission mode.
  • the RF control unit 423 includes various circuits and can generate a mode conversion signal and a mode recovery signal that can control the RF operation unit 430.
  • the mode change signal may be a signal that switches the operation of the RF operating unit from the first transmission mode, which is a preset initial operation mode of the electronic device, to the second transmission mode.
  • the mode recovery signal may be a signal that restores the operation of the RF operating unit from the second transmission mode to the first transmission mode.
  • the RF control unit 423 sends a control signal (or a mode switching signal and a mode recovery signal) for determining the transmission power and peak current of the RF signal that affects the magnetic field induced from the electronic device to the audio device to the RF operation unit 430. ) can be transmitted to.
  • a control signal or a mode switching signal and a mode recovery signal
  • the RF control unit 423 may transmit a mode change signal to the RF operation unit 430 when the number of consecutive repetitions of the DTX section is greater than the first preset number after the last voice frame of the voice section.
  • the RF control unit 423 may transmit a mode restoration signal to the RF operation unit 430 if, after the DTX section, the number of consecutive repetitions of the voice frame is a preset second number.
  • the RF control unit 423 may be set to determine the strength of the transmission power of the RF signal input to the antenna (ANT) based on the monitoring result of the monitoring unit 422.
  • the RF control unit 423 may control the RF operation unit 430 so that the RF operation unit 430 transmits an RF signal with first transmission power in response to the mode recovery signal.
  • the RF control unit 423 may control the RF operation unit 430 so that the RF operation unit 430 transmits an RF signal with a second transmission power that is lower than the first transmission power in response to the mode change signal.
  • the RF control unit 423 may be set to determine the strength of the peak current of the RF signal input to the antenna (ANT) based on the monitoring result of the monitoring unit 422.
  • the RF control unit 423 may control the RF operation unit 430 so that the RF operation unit 430 transmits an RF signal of the first peak current in response to the mode recovery signal.
  • the RF control unit 423 may control the RF operation unit 430 so that the RF operation unit 430 transmits an RF signal with a second peak current that is lower than the first peak current in response to the mode change signal.
  • the RF operation unit 430 includes various circuits and can transmit voice data of voice frames and silence frames as RF signals.
  • the RF operation unit 430 operates by switching from the first transmission mode (or speaking mode) to the second transmission mode (or receiving mode) when establishing a call connection in response to a mode change signal from the RF control unit 423. can do.
  • the RF operation unit 430 may operate by restoring (or recovering) from the second transmission mode to the first transmission mode in response to a mode restoration signal from the RF control unit 423.
  • the RF operation unit 430 may operate in a first transmission mode that transmits an RF signal with first transmission power in response to a mode recovery signal.
  • the RF operation unit 430 may maintain the preset first transmission power without lowering the transmission power in the first transmission mode in which the user's voice is transmitted during a call.
  • the RF operating unit 430 may transmit a plurality of voice frames with the first transmission power.
  • the RF operating unit 430 may operate in a second transmission mode that transmits an RF signal with a second transmission power that is lower than the first transmission power in response to the mode change signal.
  • the RF operation unit 430 may lower the transmission power to a second transmission power lower than the first transmission power 430 in the second transmission mode in which there is no user's transmission voice during a call.
  • the RF operation unit 430 may transmit a SID packet including a plurality of silence frames at the second transmission power.
  • the RF operation unit 430 may apply back-off to the transmission power to lower it to the second transmission power.
  • the RF operating unit 430 may apply backoff so that the second transmission power is adjusted according to the RF radiation electric field conditions.
  • the RF operation unit 430 may adjust the second transmission power to be 3 dB lower than the first transmission power.
  • the RF operation unit 430 can adjust the second transmission power to be 6 dB lower than the first transmission power.
  • the RF operation unit 430 may operate in a first transmission mode that transmits an RF signal of the first peak current in response to the mode recovery signal.
  • the RF operation unit 430 may supply a preset first RF peak current to the antenna without lowering the RF peak current in the first transmission mode in which the user's voice is transmitted during a call.
  • the RF operating unit 430 may operate in a second transmission mode that transmits an RF signal with a second peak current lower than the first peak current in response to the mode change signal.
  • the RF operation unit 430 may supply a second RF peak current that is lower than the first RF peak current to the antenna in a second transmission mode in which there is no user's voice transmission during a call.
  • the RF operation unit 430 may apply back-off to the RF peak current to lower the RF peak current to the second peak current.
  • the electronic device may change the RF operation settings in the second transmission mode in which there is no user's transmission voice to be transmitted to the other device to be different from the first transmission mode.
  • backoff may be applied to the transmission power of the RF signal that may act as noise to the audio device.
  • the transmission power of the RF signal can be lower than in the first transmission mode in which the user's voice is transmitted to the other device.
  • the peak current (or RF operating current) (or current consumption) when transmitting an RF signal may be lowered.
  • the peak current of the RF signal may be lower than that in the first transmission mode.
  • the area where magnetic field noise ABM2 is generated in the electronic device may be reduced.
  • the amount of magnetic field noise (ABM2) generated in the electronic device and induced into the audio device is reduced, so the user can experience improved audio performance.
  • Figure 5 is a block diagram illustrating transmission and reception of a voice signal between an electronic device and a counterpart device according to an embodiment.
  • the electronic device 501 (e.g., electronic device 310 of FIG. 3) of a user wearing an audio device (e.g., audio device 320 of FIG. 3) is connected to a counterpart device 502 (e.g., : A connection for a voice call can be established with the counterpart device 340 in FIG. 3.
  • the electronic device 501 and the counterpart device 502 can compress or decode the voice signal using a codec.
  • the electronic device 501 and the counterpart device 502 may support various voice codecs. Examples of voice codecs include AMR (Adaptive Multi-Rate), AMR-NB (AMR-Narrowband), AMR-WB (AMR-Wideband), EVS (Enhanced Voice Services), and EVRC (Enhanced Variable Rate Codec). , but is not limited to this. Examples of signal bands supported by the EVS codec include NB (20 ⁇ 4,000Hz), WB (20 ⁇ 8,000Hz), SWB (20 ⁇ 16,000Hz), and FB (20 ⁇ 20,000Hz).
  • the voice codec may be determined based on at least one of a voice signal input to the electronic device 501 and the counterpart device 502, a user input, and a network signal.
  • Each of the electronic device 501 and the counterpart device 502 may compress a voice signal to be transmitted and restore a received voice signal based on at least one of the bit-rate and bandwidth of the determined codec.
  • the electronic device 501 may include a first voice encoder 510 and a first voice decoder 610.
  • the counterpart device 502 may include a second voice encoder 520 and a voice decoder 620.
  • Each of the first voice encoder 510 and the second voice encoder 520 can compress a transmitted voice signal.
  • Each of the first voice decoder 610 and the second voice decoder 620 can decode a compressed received voice signal.
  • the first voice decoder 610 of the electronic device 501 includes at least a portion of the same or similar configuration as the second voice decoder 620 of the counterpart device 502, and at least a portion may use the same or similar functions. .
  • the second voice encoder 520 of the counterpart device 502 includes at least a portion of the same or similar configuration as the first voice encoder 510 of the electronic device 501, and at least a portion of the second voice encoder 520 may use the same or similar functions.
  • Each of the electronic device 501 and the counterpart device 502 is a transmitting and receiving terminal, but hereinafter, the electronic device 501 transmits the user's voice of the electronic device 501 to the counterpart device 502 and the audio device (to: the audio device in FIG. 3). (320)), and the other device 502 receives the user's voice as an example.
  • the first voice encoder 510 of the electronic device 501 may perform encoding on the voice signal of the user input through the microphone of the electronic device 501 to compress the voice signal.
  • the first voice encoder 510 includes a voice activity detector (VAD) (e.g., including various circuits and/or executable program instructions) 511, a comfort noise encoder 512, and , may include an encoder control unit 513 (e.g., including various processing/control circuits).
  • VAD voice activity detector
  • comfort noise encoder 512 e.g., including various circuits and/or executable program instructions
  • an encoder control unit 513 e.g., including various processing/control circuits.
  • the voice activity detector 511 includes various circuits and/or executable program instructions and determines whether the user of the electronic device 501 speaks during a call based on an audio signal received through the microphone of the electronic device 501. It can be detected.
  • the voice activation detector 511 can distinguish between utterances of an outsider (e.g., a person other than the wearer) and utterances of the wearer.
  • the communication noise encoder 512 can encode artificial communication noise (comfort noise) generated using a comfort noise generation (CNG) method.
  • Communication noise may have a lower voice intensity than the user's voice.
  • the encoder control unit 513 includes various circuits and can transmit a silence frame and a voice frame including the user's voice to the other device. Communication noise may be inserted into a plurality of silent frames transmitted continuously in the DTX section. Accordingly, even silent frames in which the user's voice is not received through the microphone during a call can be felt naturally without interruption between voice frames.
  • the second voice decoder 620 of the counterpart device 502 may encode the received user's voice.
  • the second voice decoder 620 may include a communication noise decoder 621 and an error concealment unit 622 (eg, including various circuits and/or executable program instructions).
  • the communication noise decoder 621 may receive communication noise of a silent frame and perform decoding on the communication noise.
  • the second voice decoder 620 can receive the user's voice in the voice frame and perform decoding on the user's voice.
  • the error concealment unit 622 includes various circuits and/or executable program instructions, and restores frames lost or distorted due to transmission errors in the process of transmitting silence frames and voice frames through a wireless network using an error concealment method.
  • Error concealment methods may include muting, repetition, or interpolation.
  • the silence method can weaken the effect of errors on the output signal by reducing the volume of sound in frames where errors occur.
  • the repetition method can restore the signal of the frame in which an error occurred by repeatedly playing the previous good frame of the frame in which an error occurred.
  • the interpolation method can predict the parameters of an error frame by interpolating the parameters of the previous good frame and the next good frame.
  • silent frames and voice frames may be restored using an error concealment method. Even if a silent frame is transmitted with at least one of the transmission power and peak current of the RF signal in the second transmission mode, the silent frame can be restored to its original state using an error concealment method.
  • Some or all of the blocks shown in FIG. 5 may be implemented as hardware and/or software components that perform specific functions. The functions performed by the blocks shown in FIG. 5 may be implemented by at least one microprocessor or by circuit configurations for the corresponding functions. Some or all of the blocks shown in FIG. 5 may be software modules composed of various programming languages or script languages that run on a processor (eg, processor 120 in FIG. 1).
  • FIGS. 6A and 6B are diagrams illustrating identification information of each frame of an electronic device according to an embodiment.
  • the VAD flag may be a flag indicating whether the user's voice was detected during a call. If the VAD flag is high logic (or 1), it may mean voice, and if it is low logic (or 0), it may mean silence.
  • the electronic device can generate and transmit identification information about the state of the frame for each frame.
  • a frame whose frame identification (frame type) information is indicated as “S” is SPEECH_GOOD, which may mean a voice frame containing the user's voice.
  • the frame marked with “F” is the “first silence frame (SID_FIRST or Primary SID),” which may mean the first silence frame that does not contain the user’s voice.
  • Frames marked with “N” are “NO_DATA” and may mean silence frames that appear consecutively after the first silence frame.
  • the frame marked with “U” is “SID_Update”, which is the m (where m is a natural number greater than 1)th (e.g.
  • the flag and frame identification information are not limited to the embodiments described in FIGS. 6A and 6B and may vary depending on the method defined by the user. Meanwhile, frame identification information may only be a conceptual name to describe the encoding mechanism and may not be transmitted to the other device. Only encoded voice frames and encoded silence frames can actually be transmitted to the other device.
  • a hangover section may be formed between the voice section and the silence section.
  • the hangover section may include a plurality of silence frames after the last voice frame of the voice section.
  • the hangover section may refer to a section where the voice encoder waits to be deactivated for a predetermined period after the first silence frame of the silence section. If a plurality (e.g., 8) or more silence frames persist, it may be determined that the voice section has been converted to a silence section.
  • the electronic device may switch from the first transmission mode to the second transmission mode if a silence frame after the last voice frame of the voice section continues for more than a preset first period (eg, 480 ms). If a DTX section containing a plurality of (e.g., 8) silence frames continues more than a plurality of times (e.g., 3 times) after the voice section, the electronic device determines that there is no user's voice to be transmitted to the other device and transmits a second transmission. It can be operated in mode.
  • a preset first period eg. 480 ms
  • the electronic device may switch from the second transmission mode to the first transmission mode if the voice frame continues for a preset second period (eg, 200 ms) after the last silence frame of the silence period. If the voice frame continues more than a plurality of times (e.g., 10 times) after the DTX section, the electronic device may determine that there is a user's voice to be transmitted to the other device and operate in the first transmission mode. Meanwhile, the second period may be shorter than the first period.
  • a preset second period eg, 200 ms
  • FIGS. 7A and 7B are diagrams showing peak current according to the operation mode of an electronic device according to an embodiment.
  • the electronic devices e.g., electronic device 310 of FIG. 3 of a user wearing an audio device (e.g., the audio device 320 of FIG. 3) communicate with each other based on the presence or absence of the user's voice during a call. You can select a tune code to have different antenna impedance performance.
  • the RF operating unit of the electronic device e.g., the communication circuits 313 and 314 in FIG. 3 or the RF operating unit 430 in FIG. 4) may include an antenna tuner IC (not shown) connected to a matching terminal of the antenna. The antenna tuner can adjust the impedance of the connected antenna based on the selected tune code.
  • the electronic device may select the first tune code corresponding to the first transmission mode.
  • the electronic device may select the first tune code corresponding to the first transmission mode in the voice section.
  • the electronic device may tune the antenna with the selected first tune code and transmit an RF signal having a first peak current higher than the allowable current value 801, as shown in FIG. 7A.
  • the electronic device may select a second tune code corresponding to the second transmission mode.
  • the electronic device may select a second tune code corresponding to the second transmission mode in the silence section or the DTX section.
  • the electronic device may tune the antenna with the selected second tune code and transmit an RF signal having a second peak current that is lower than the first peak current, as shown in FIG. 7B.
  • the second peak current value may be equal to the allowable current value 801, which is lower than the first peak current value, or may be greater than the allowable current value 801 and lower than the first peak current value.
  • the first tune code may be a tune code that is more optimized for transmission performance than the second tune code.
  • the second tune code may be a tune code tailored to reception performance at the minimum allowable level of transmission power.
  • FIG. 8 is a flowchart illustrating a method of determining an operation mode of an electronic device according to an embodiment.
  • the electronic device e.g., electronic device 310 of FIG. 3 of a user wearing an audio device (e.g., audio device 320 of FIG. 3) connects to the other device (e.g., the audio device 320 of FIG. 3).
  • the other device e.g., the audio device 320 of FIG. 3
  • the electronic device may determine that it has entered the DTX section if the duration (or number of consecutive repetitions) of the silence frame is greater than or equal to the threshold after the last voice frame of the voice section.
  • the electronic device may determine whether the DTX section continues based on the duration (or number of consecutive repetitions) of the DTX section.
  • the electronic device maintains a communication connection with the other device and the audio device in a second transmission mode (or sign language mode) in which there is no user's voice to transmit to the other device. You can.
  • the electronic device can transmit a silence frame that does not contain the user's voice to the other device and the audio device.
  • the electronic device can receive an audio signal from the other device.
  • the second transmission mode may be an operation mode tailored to reception performance at an acceptable level of transmission performance lower than that of the first transmission mode (or speaking mode).
  • the electronic device may determine whether the operation mode satisfies the restoration condition based on the duration (or number of consecutive repetitions) of the voice frame containing the user's voice to be transmitted to the other device.
  • the electronic device may satisfy the restoration condition if the duration (or number of consecutive repetitions) of the voice frame after the last silence frame included in the silence section is greater than or equal to the threshold.
  • the electronic device transmits the first transmission in the second transmission mode.
  • the operation mode can be restored using the mode.
  • the electronic device can maintain a communication connection with the other device in the first transmission mode in which transmission performance is optimized.
  • the electronic device may transmit a voice frame containing the user's voice to the other device in the first transmission mode.
  • the electronic device maintains a communication connection with the other device in the second transmission mode if the duration (or number of consecutive repetitions) of the voice frame is less than the threshold after the last silence frame included in the silence section (operation 813 (No No)). You can.
  • the operation mode may be restored from the second transmission mode to the first transmission mode.
  • a control signal eg, PUCCH
  • FIG. 9 is a flowchart illustrating a method of controlling an operation mode of an electronic device according to an embodiment.
  • an electronic device e.g., electronic device 310 of FIG. 3 of a user wearing an audio device (e.g., audio device 320 of FIG. 3) uses a communication module (e.g., FIG. A call connection can be established with a counterpart device (e.g., the counterpart device 340 of FIG. 3) using the communication module 190 of 1.
  • the electronic device may activate HAC mode before or after establishing a call connection with the other device.
  • the electronic device may set the operation mode to the first transmission mode or maintain the first transmission mode when communicating with at least one of the audio device and the counterpart device (operation 928).
  • the electronic device determines whether to enter the DTX section while maintaining a call connection with the other device. You can.
  • the electronic device may determine that it has not entered the DTX section for the first time. If the DTX section is not entered (operation 922 (No)), in operation 928, the electronic device may maintain the first transmission mode, which is the current operation mode.
  • the electronic device may determine that it has entered the DTX section for the first time (operation 922 (example Yes)).
  • the electronic device may determine the continuity of the DTX section. For example, after first entering the DTX section, the electronic device may determine whether the DTX section is continuous again. If the DTX section is not continuous (operation 923 (No)), in operation 928, the electronic device may maintain the first transmission mode, which is the current operation mode.
  • the electronic device may determine the number of consecutive repetitions (or duration) of the DTX section. . For example, the electronic device may determine whether the number of consecutive repetitions of the DTX section reaches the threshold (or N (where N is a natural number of 3 or more) times).
  • the threshold for the number of consecutive repetitions of the DTX section can be set or changed by the user or manufacturer. If the number of consecutive repetitions of the DTX section is less than the threshold (operation 924 (No)), in operation 928, the electronic device may maintain a communication connection with the other device in the first transmission mode, which is the current operation mode.
  • the electronic device switches the operation mode to the second transmission mode when the number of consecutive repetitions of the DTX section reaches the threshold (operation 924 (example Yes)). can do.
  • the electronic device can maintain a communication connection with the other device in the second transmission mode in which there is no user's voice to transmit to the other device.
  • the electronic device may transmit a silence frame that does not contain the user's voice to the other device and receive an audio signal from the other device.
  • the electronic device may determine whether the DTX section continues after switching to the second transmission mode. After switching to the second transmission mode, if the DTX section continues (operation 926 (Yes)), the electronic device may maintain a communication connection with the other device in the second transmission mode.
  • the electronic device determines the duration (or number of consecutive repetitions) of the voice frame in operation 927 and It is possible to determine whether the frame continues. If a plurality of voice frames do not continue after the last silence frame included in the DTX section (operation 927 (No No)), the electronic device (e.g., the communication processor 420 of FIG. 4) transmits data to the other device in the second transmission mode. Communication connections can be maintained.
  • the electronic device e.g., the communication processor 420 of FIG. 4 continues in the second transmission mode if a plurality of voice frames continue after the last silence frame included in the DTX section (operation 927 (example Yes)).
  • the operation mode can be restored to the first transmission mode.
  • the electronic device can maintain a communication connection with the other device in the first transmission mode.
  • the electronic device can transmit a voice frame containing the user's voice to the other device in the first transmission mode.
  • the electronic device may confirm call disconnection.
  • the electronic device may return to the state before the call connection.
  • the electronic device may maintain the first transmission mode.
  • the electronic device may return to the first transmission mode.
  • FIG. 10 is a flowchart illustrating the operation of an electronic device according to an exemplary embodiment.
  • the electronic device e.g., electronic device 310 of FIG. 3 of the user wearing the audio device (e.g., audio device 320 of FIG. 3) may activate the HAC mode.
  • the electronic device can activate the HAC mode.
  • the electronic device may activate the HAC mode.
  • the electronic device may activate HAC mode.
  • the electronic device may activate HAC mode.
  • the electronic device may activate HAC mode.
  • An electronic device in which the HAC mode is activated may form a communication channel with an audio device through a communication module (e.g., the communication module 190 in FIG. 1 or the second communication circuit 314 in FIG. 3).
  • the electronic device may operate in the first transmission mode when activated in HAC mode and when establishing a communication channel with the audio device.
  • the electronic device may be set to activate the HAC mode for a certain period of time and then deactivate it.
  • the electronic device can be set to disable HAC mode when the call connection with the other device is disconnected.
  • the electronic device may generate a request for at least one of call reception and call origination through a communication module (e.g., the communication module 190 of FIG. 1 or the first communication circuit 313 of FIG. 3). there is.
  • the electronic device may establish a call connection with the counterpart device (e.g., the counterpart device 340 in FIG. 3). Meanwhile, the electronic device may set the operation mode to the first transmission mode or maintain the first transmission mode when communicating with at least one of the audio device and the counterpart device.
  • the HAC mode of the electronic device is activated before establishing a call connection with the other device, but the HAC mode may be activated after establishing a call connection with the other device.
  • the electronic device may recognize whether the user is speaking based on the audio signal input through the microphone. For example, an electronic device (e.g., the audio processor 410 of FIG. 4) determines whether the user speaks based on an audio signal (e.g., a voice signal) of a specified size or more in a designated band (e.g., a human vocal range band). It can be recognized. An electronic device (e.g., the audio processor 410 of FIG. 4) may receive the user's voice included in the audio signal. The electronic device can divide each frame into a voice frame and a silence frame based on the presence or absence of voice according to the user's speech.
  • an audio signal e.g., a voice signal
  • a designated band e.g., a human vocal range band
  • the electronic device may determine whether to enter the DTX section based on the continuity of a plurality of silence frames. The electronic device may determine that it has entered the DTX section when the number of consecutive silence frames is greater than or equal to the threshold. If the number of consecutive silence frames is less than the threshold, the electronic device may determine that the DTX section has not been entered.
  • the electronic device After entering the DTX section, the electronic device operates in one of the first transmission mode and the second transmission mode based on the number of consecutive repetitions of the DTX section including a plurality of consecutive silence frames. You can control it to do so. After entering the DTX section, the electronic device may be controlled to release the first transmission mode and switch to the second transmission mode if the DTX section continues multiple times in succession.
  • the electronic device may determine the continuity of a plurality of voice frames if the DTX section does not continue multiple times in succession.
  • the electronic device may be controlled to release the second transmission mode and operate in the first transmission mode. If the number of a plurality of voice frames is less than a threshold, the electronic device may be controlled to maintain the second transmission mode.
  • the electronic device may confirm call disconnection.
  • the electronic device may return to the state before the call connection.
  • the electronic device may return to the first transmission mode.
  • the electronic device may maintain the first transmission mode.
  • Noise emitted from an electronic device may be induced into an audio device (e.g., a hearing aid) worn by the user, deteriorating the quality of audio transmitted to the user.
  • an audio device e.g., a hearing aid
  • An embodiment disclosed in this document relates to an electronic device that can provide improved call quality to hearing-impaired users and a method of controlling the same.
  • a microphone A device that provides a call channel with a first external electronic device (e.g., the electronic devices 102 and 104 of FIG. 1, the counterpart device 220 of FIG. 2, the counterpart device 320 of FIG. 3, and the counterpart device 502 of FIG. 5)
  • a first communication circuit e.g., communication module 190 in FIG. 1, first communication circuit 313 in FIG. 3
  • a second external electronic device e.g., audio device 220 in FIG. 2, audio device in FIG. 3
  • a communication module including a device 320 e.g., communication module 190 in FIG. 1 and second communication circuit 314 in FIG.
  • processor 120 in FIG. 1, processor 311 in FIG. 3, and processors 410 and 420 in FIG. 4 electrically connected to the communication module, and the processor operates in a first transmission mode.
  • An electronic device and a first external electronic device establish a call connection through the first communication circuit, and while the call connection is maintained, check whether a user wearing the second external electronic device makes a speech, and the call While the connection is maintained, operating in a second transmission mode different from the first transmission mode based on the fact that the user's voice signal to be transmitted to the first external electronic device is not recognized, and while the call connection is maintained, It may be set to operate in the first transmission mode based on recognition of the user's voice signal to be transmitted to the first external electronic device.
  • the processor may be set to generate a plurality of voice frames containing the user's voice signal and a plurality of silence frames not including the user's voice signal.
  • At least one of the plurality of silence frames may include communication noise (comfort noise) configured to be generated by the processor.
  • the communication module transmits the plurality of voice frames to the first external electronic device in the first transmission mode, and transmits the plurality of silence frames to the first external electronic device in the second transmission mode. It can be set to transmit to .
  • the communication module is set to transmit the plurality of voice frames and the silence frame as a radio frequency (RF) signal, and the communication module is based on the electronic device operating in the second transmission mode. , the transmission power of the RF signal can be adjusted by performing back-off.
  • RF radio frequency
  • the communication module is set to transmit the plurality of voice frames and the silence frame as a radio frequency (RF) signal, and the communication module is based on the electronic device operating in the first transmission mode.
  • the RF signal may be transmitted with a first transmission power
  • the RF signal may be transmitted with a second transmission power lower than the first transmission power.
  • the communication module is based on the first transmission power in a medium electric field and a strong electric field state, and the second transmission power is higher than the first transmission power in a weak electric field state lower than the medium electric field and the strong electric field. It can be set to adjust the second transmission power to lower.
  • the communication module is set to transmit the plurality of voice frames and the silence frame as a radio frequency (RF) signal, and the communication module is based on the electronic device operating in the first transmission mode.
  • the RF signal of a first peak current may be transmitted, and based on the electronic device operating in the second transmission mode, the RF signal of a second peak current lower than the first peak current may be transmitted.
  • the processor monitors the number of consecutive discontinuous transmission sections in which the plurality of silent frames are consecutive after the last voice frame of the voice section including the plurality of voice frames, and the number of consecutive times is equal to a first threshold. Based on the number being less than the first threshold, the first transmission mode may be maintained, and based on the number of consecutive times being greater than or equal to the first threshold, the first transmission mode may be switched to the second transmission mode.
  • the processor monitors the number of voice frames transmitted after the last silent frame included in the discontinuous transmission period, and based on the number of voice frames being less than a second threshold, the second transmission The mode may be maintained, and the second transmission mode may be restored to the first transmission mode based on the fact that the number of voice frames is greater than or equal to the second threshold.
  • the processor monitors the duration of a discontinuous transmission section in which the plurality of silence frames are consecutive after the last voice frame of the voice section consisting of the plurality of voice frames, and the duration of the discontinuous transmission section is Based on the fact that the duration of the discontinuous transmission period is less than the first threshold period, the first transmission mode can be maintained, and based on the duration of the discontinuous transmission interval being greater than or equal to the first threshold period, the first transmission mode can be switched to the second transmission mode. there is.
  • the processor monitors the duration of a voice section in which the plurality of voice frames are consecutive after the last silence frame included in the discontinuous transmission section, and the duration of the voice section is set to a second threshold period. It may be set to maintain the second transmission mode based on the duration of the voice section being less than or equal to the second threshold period, and to return from the second transmission mode to the first transmission mode based on the duration of the voice section being greater than or equal to the second threshold period.
  • the processor may be set to recognize the presence or absence of the user's voice signal received through the microphone using a voice activity detection (VAD) method.
  • VAD voice activity detection
  • the electronic device may further include a voice decoder that encodes a silence signal received from the first external electronic device and restores the encoded silence signal using an error concealment method.
  • the electronic device is set to support Hearing Aids Compatibility (HAC) mode
  • the second external electronic device may include a hearing aid
  • a method of operating an electronic device includes operating a first external electronic device (e.g., the electronic devices 102 and 104 of FIG. 1, the counterpart device 220 of FIG. 2, and the other device 220 of FIG. 3 in a first transmission mode). Provides a call channel with the counterpart device 320, the counterpart device 502 of FIG. 5) and communicates with a second external electronic device (e.g., the audio device 220 of FIG. 2, the audio device 320 of FIG.
  • a first external electronic device e.g., the electronic devices 102 and 104 of FIG. 1, the counterpart device 220 of FIG. 2, and the other device 220 of FIG. 3 in a first transmission mode.
  • a second external electronic device e.g., the audio device 220 of FIG. 2, the audio device 320 of FIG.
  • the method may include operating in the first transmission mode based on recognition of the user's voice signal to be transmitted to the first external electronic device.
  • the method of operating the electronic device includes transmitting a plurality of voice frames including the user's voice signal to the first external electronic device in the first transmission mode; The method may further include transmitting a plurality of silence frames that do not include the user's voice signal to the first external electronic device in the second transmission mode.
  • the plurality of voice frames may be transmitted as an RF signal with a first transmission power
  • the plurality of silence frames may be transmitted as an RF signal with a second transmission power lower than the first transmission power
  • the plurality of voice frames may be transmitted as an RF signal having a first peak current
  • the plurality of silence frames may be transmitted as an RF signal having a second peak current lower than the first peak current
  • the method of operating the electronic device includes monitoring the number of consecutive discontinuous transmission sections in which the plurality of silence frames are consecutive after the last voice frame of the voice section including the plurality of voice frames; switching from the first transmission mode to the second transmission mode based on the number of consecutive times being greater than or equal to the first threshold; monitoring the number of voice frames transmitted after the last silence frame included in the discontinuous transmission interval; The method may further include returning from the second transmission mode to the first transmission mode based on the number of voice frames being greater than or equal to the second threshold.
  • magnetic field noise (ABM2) emitted from an electronic device can be reduced during a silent section in which there is no user's voice to be transmitted to the other device.
  • the amount of magnetic field noise induced in the audio device (e.g. hearing aid) worn by the user is reduced, thereby providing the user with the best audio signal.
  • magnetic field noise (ABM2) radiated from an electronic device can be reduced even if the printed circuit board (PCB) and power (e.g., GND) wiring are not far away from the speaker. Accordingly, the degree of freedom in designing printed circuit boards and wiring can be increased.
  • backoff may not be performed in a voice section containing the user's voice to be transmitted to the other device, but may be selectively performed in a silence section. Accordingly, performance degradation of the RF signal can be prevented and/or reduced.
  • Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances. Electronic devices according to embodiments of this document are not limited to the above-described devices.
  • first, second, or first or second may be used simply to distinguish one component from another, and to refer to those components in other respects (e.g., importance or order) is not limited.
  • One (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.”
  • each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components.
  • one or more of the components or operations described above may be omitted, or one or more other components or operations may be added.
  • multiple components eg, modules or programs
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component of the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, omitted, or , or one or more other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Neurosurgery (AREA)
  • Otolaryngology (AREA)
  • Telephone Function (AREA)

Abstract

본 문서의 일 실시 예에 따른 전자 장치는 마이크와; 제1 외부 전자 장치와 통화 채널을 제공하는 제1 통신 회로와, 제2 외부 전자 장치와 통신 채널을 제공하는 제2 통신 회로를 포함하는 통신 모듈과; 상기 통신 모듈과 전기적으로 연결된 프로세서를 포함하며, 상기 프로세서는 제1 송신 모드로 동작하는 상기 전자 장치와, 제1 외부 전자 장치가 상기 제1 통신 회로를 통해 통화 연결을 수립하고, 상기 통화 연결이 유지되는 동안, 상기 제2 외부 전자 장치를 착용한 사용자의 발화 여부를 확인하고, 상기 통화 연결이 유지되는 동안, 상기 제1 외부 전자 장치에 전송할 상기 사용자의 음성 신호가 인식되지 않는 것을 기반으로, 상기 제1 송신 모드와 다른 제2 송신 모드로 동작하고, 상기 통화 연결이 유지되는 동안, 상기 제1 외부 전자 장치에 전송할 상기 사용자의 음성 신호가 인식되는 것을 기반으로, 상기 제1 송신 모드로 동작하도록 설정할 수 있다.

Description

전자 장치 및 그 동작 방법
본 문서에서 개시되는 실시 예들은, 전자 장치 및 그 동작 방법에 관한 것이다.
최근에는 전자 장치가 사용자의 편의를 위해 다양한 형태로 발전하고 있으며, 다양한 서비스 또는 기능을 제공되고 있다. 전자 장치의 다양한 서비스 또는 기능 실행에 따른 정보들 중에는 청각 장애를 가진 사용자들에게 최상의 통화 음질을 제공하도록 하는 기능이 있다.
본 문서에 개시되는 일 실시 예에 따르면, 마이크와; 제1 외부 전자 장치와 통화 채널을 제공하는 제1 통신 회로와, 제2 외부 전자 장치와 통신 채널을 제공하는 제2 통신 회로를 포함하는 통신 모듈과; 상기 통신 모듈과 전기적으로 연결된 프로세서를 포함하며, 상기 프로세서는 제1 송신 모드로 동작하는 상기 전자 장치와, 제1 외부 전자 장치가 상기 제1 통신 회로를 통해 통화 연결을 수립하고, 상기 통화 연결이 유지되는 동안, 상기 제2 외부 전자 장치를 착용한 사용자의 발화 여부를 확인하고, 상기 통화 연결이 유지되는 동안, 상기 제1 외부 전자 장치에 전송할 상기 사용자의 음성 신호가 인식되지 않는 것을 기반으로, 상기 제1 송신 모드와 다른 제2 송신 모드로 동작하고, 상기 통화 연결이 유지되는 동안, 상기 제1 외부 전자 장치에 전송할 상기 사용자의 음성 신호가 인식되는 것을 기반으로, 상기 제1 송신 모드로 동작할 수 있다.
본 문서에 개시되는 일 실시 예에 따르면, 전자 장치의 동작 방법은 제1 송신 모드로 제1 외부 전자 장치와 통화 채널을 제공하고 제2 외부 전자 장치와 통신 채널을 제공하는 단계와; 상기 전자 장치와 상기 제1 외부 전자 장치 간의 통화 연결이 유지되는 동안, 상기 제2 외부 전자 장치를 착용한 사용자의 발화 여부를 확인하는 단계와, 상기 통화 연결이 유지되는 동안, 상기 제1 외부 전자 장치에 전송할 상기 사용자의 음성 신호가 인식되지 않는 것을 기반으로, 상기 제1 송신 모드와 다른 제2 송신 모드로 동작하는 단계와; 상기 통화 연결이 유지되는 동안, 상기 제1 외부 전자 장치에 전송할 상기 사용자의 음성 신호가 인식되는 것을 기반으로, 상기 제1 송신 모드로 동작하는 단계를 포함할 수 있다.
본 문서의 다양하면서도 유익한 장점과 효과는 상술한 내용에 한정되지 않으며, 본 문서의 구체적인 실시예를 설명하는 과정에서 보다 쉽게 이해될 수 있을 것이다.
도 1은, 일 실시 예에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 본 문서의 일 실시 예에 따른 전자 장치들의 사용 예를 도시한 도면이다.
도 3은 일 실시 예에 따른 사용자의 전자 장치, 오디오 장치 및 상대 장치의 통신 환경을 도시한 도면이다.
도 4는 일 실시 예에 따른 전자 장치를 나타내는 블록도이다.
도 5는 일 실시 예에 따른 전자 장치 및 상대 장치 간의 음성 신호의 송수신을 설명하기 위한 블록도이다.
도 6a 및 도 6b는 일 실시 예에 따른 전자 장치의 각 프레임의 식별 정보를 예시한 도면들이다.
도 7a 및 도 7b는 일 실시 예에 따른 전자 장치의 동작 모드에 따른 피크 전류를 나타내는 도면들이다.
도 8은 일 실시 예에 따른 전자 장치의 동작 모드를 결정하는 방법을 설명하기 위한 흐름도이다.
도 9는 일 실시 예에 따른 전자 장치의 동작 모드를 제어하는 방법을 설명하기 위한 흐름도이다.
도 10은 일 실시 예에 따른 전자 장치의 동작 방법을 나타내는 흐름도이다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
이하, 본 문서의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 문서를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 문서의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다.
도 1은, 일 실시 예에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시 예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일 실시 예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들 간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시 예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시 예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시 예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2는 본 문서의 일 실시 예에 따른 전자 장치들의 사용 예를 도시한 도면이다.
도 2를 참조하면, 오디오 장치(220)는 마이크, 스피커 및 증폭기를 포함할 수 있다. 예를 들어, 오디오 장치(220)는 마이크를 통하여 외부의 오디오를 수신하고, 수신한 오디오를 신호 처리(예: 필터 적용 또는 신호 증폭)하여 스피커를 통해 출력할 수 있다. 오디오 장치(220)는 착용자(또는, 사용자)의 신체(230)(예: 귀) 적어도 일부에 착용될 수 있는 웨어러블 장치일 수 있다. 예를 들어, 오디오 장치(220)는 착용자의 귀 내부 또는 귀 외부의 인근에 착용되어 스피커를 통하여 사용자의 귀 인근에서 소리를 출력할 수 있다. 오디오 장치(220) (예: 도 1의 외부 전자 장치(102,104))(또는, 제2 외부 전자 장치)는 전자 장치(210)가 상대 장치(예: 도 1의 외부 전자 장치(102,104))(또는, 제1 외부 전자 장치)와 통화 연결시, 마이크와 스피커를 통해 착용자에게 통화 기능을 제공할 수 있다.
오디오 장치(220)는 사용자의 사용 목적에 따라 다양한 형태를 가질 수 있으며, 다양한 기능을 제공할 수 있다. 오디오 장치(220)는, 헤드셋(headset), 헤드폰(headphone), 이어피스(earpiece), 보청기(hearing aids) 또는 소리 증폭기들(personal sound amplification products)를 포함할 수 있다. 예를 들어, 오디오 장치(220)는 사용자의 귀에 장착되어 소리를 증폭하는 보청기일 수 있다. 보청기는 난청인 각각의 주파수별 청력에 맞추어 동작할 수 있다. 보청기는 통화 기능을 제공하는 전자 장치(210)로부터 수신한 음성을 특정 주파수 대역의 신호로 변환하여 출력할 수 있다. 보청기는 텔레코일(tele-coil 또는 T-coil)을 포함하는 리시버를 구비할 수 있다.
오디오 장치(220)를 착용한 사용자의 전자 장치(210)(예: 도 1의 전자 장치(101))는 다양한 기능들을 제공할 수 있다. 예를 들어, 전자 장치(210)는 통화 기능(예를 들어, 음성 통화, 영상 통화, 또는 인터넷 통화 등), 컨텐츠 재생 기능(예를 들어, 음악 재생 또는 영상 재생 등), 데이터 송수신 기능 등을 제공할 수 있다.
전자 장치(210)는 보청기 호환성(hearing aid compatibility: HAC) 모드를 제공할 수 있다. 일 예로, 전자 장치(210)의 설정 메뉴에서 HAC모드를 활성화하는 항목이 선택되면, 전자 장치(210)는 HAC모드를 활성화할 수 있다. 다른 예로, 전자 장치(210)는 기 설정된(예: 지정된) 제스처를 감지하는 경우, HAC모드를 활성화할 수 있다. 또 다른 예로, 전자 장치(210)의 근거리에 오디오 장치(220)가 존재(또는, 전자 장치(210)와 오디오 장치(220)가 접촉)하는 경우, 전자 장치(210)는 HAC모드를 활성화할 수 있다. 또 다른 예로, 전자 장치(210)와, 상대 장치(예: 도 1의 전자 장치(102,104)) 간의 통신 연결(예: 통화 연결)이 수립되면, 전자 장치(210)는 HAC모드를 자동으로 활성화할 수 있다.
전자 장치(210)는 HAC T-coil 성능(Spec)에 따른 규정을 만족함으로써 HAC 모드를 지원할 수 있다. HAC T-coil 성능은 전자 장치(210)의 스피커를 통해 출력되어 보청기에 필요한 음성 신호(audio band magnetic 1, ABM1)와, 전자 장치(210)의 스피커에서 출력되는 음성 신호를 가하지 않은 상태에서 불요 자기 신호(audio band magnetic 2, ABM2) 간의 차이(signal to noise ratio, SNR)로 결정될 수 있다. 예를 들어, 목표 ABM1은 전자 장치(210)의 특정 위치에서, 전자 장치(200)의 길이 방향인 X 축, 전자 장치(210)의 폭 방향인 Y 축, 및 전자 장치(210)의 두께 방향인 Z축 방향으로 측정할 수 있다. 불요 ABM2는 목표 ABM1과 동일한 위치에서 X축, Y축 및 Z축 방향으로 측정될 수 있다.
전자 장치(210)는 오디오 장치(220)로 유기되는 자계 노이즈를 감소시킴으로써 HAC 규정을 만족할 수 있다. 여기서, 전자 장치(210)의 RF(radio frequency) 동작에 의해 발생하는 신호의 흐름이 착용자가 사용하는 보청기에 자계 노이즈로 작용할 수 있다. 일 실시 예에 따른 전자 장치는 통화 중 사용자의 음성없이 상대 장치로부터의 오디오 신호를 듣는 수화 구간시, 전자 장치(210)에서 발생되는 자계 노이즈를 최소화 및/또는 감소할 수 있으므로 HAC 규정을 만족할 수 있다.
일 실시 예에 따르면, 오디오 장치(220) 및 전자 장치(210) 중 적어도 어느 하나는 청각 보정 기능을 제공할 수 있다. 일 예로, 오디오 장치(220) 및 전자 장치(210)는 외부로부터 수신한 소리에 대한 데이터 또는 내부에서 재생되는 오디오 데이터를 보정할 수 있다. 다른 예로, 오디오 장치(220) 또는 전자 장치(210)는 사용자의 청각 데이터를 이용하여 사용자의 청각 특성에 적합하도록 데이터를 보정할 수 있다. 예를 들어, 청각 데이터는 사용자의 청각 특성에 대응되는 노이즈 감쇄량, 필터값, 통과 주파수, 차단 주파수, 소리 증폭 값, 방향성, 사용자 별 피팅(fitting) 파라미터 등에 대한 정보들을 포함할 수 있다. 또 다른 예로, 오디오 장치(220) 및 전자 장치(210)는 서로 다른 데이터를 보정할 수 있다. 예를 들어, 오디오 장치(220)는 외부로부터 수신한 소리에 대한 데이터를 보정하고, 전자 장치(210)는 내부에서 재생되는 오디오 데이터를 보정할 수 있다. 예를 들어, 내부에서 재생되는 오디오 데이터는 음성 또는 컨텐츠(오디오 컨텐츠 또는 비디오 컨텐츠)를 재생 시의 오디오 데이터, 또는 통화 시의 음성 데이터를 포함할 수 있다.
일 실시 예에 따르면, 오디오 장치(220)는 전자 장치(210)와 연결될 수 있다. 예를 들어, 오디오 장치(220) 및 전자 장치(210)는 유선 또는 무선으로 연결되어 서로 통신할 수 있다. 오디오 장치(220) 및 전자 장치(210)는 통신을 통하여 데이터를 공유할 수 있다. 일 예로, 오디오 장치(220) 및 전자 장치(210)는 통신을 통하여 소리에 대한 데이터 또는 오디오 데이터를 송수신할 수 있다. 다른 예로, 오디오 장치(220) 및 전자 장치(210)는 소리에 대한 데이터를 보정한 데이터 또는 오디오 데이터를 보정한 데이터를 송수신할 수 있다.
도 3은 일 실시 예에 따른 사용자의 전자 장치, 오디오 장치 및 상대 장치의 통신 환경을 도시한 도면이다.
도 3을 참조하면, 오디오 장치(320)를 착용한 사용자의 전자 장치(310)(예: 도 1의 전자 장치(101))와, 상대 장치(340)(예: 도 1의 외부 전자 장치(102,104))는 도 1에 도시된 전자 장치(101)와 적어도 일부가 동일하거나 유사한 구성을 포함하고, 적어도 일부가 동일하거나 유사한 기능을 사용할 수 있다.
사용자의 전자 장치(310)는 프로세서(311)(예: 프로세싱 회로를 포함), 메모리(312) 및 무선 통신 회로들(313,314)을 포함할 수 있다. 일 실시 예에 따르면, 프로세서(310)는 도 1의 프로세서(120)와 실질적으로 동일하거나, 프로세서(120)에 포함될 수 있다. 메모리(312)는 도 1의 메모리(130)와 실질적으로 동일하거나, 메모리(130)에 포함될 수 있다. 무선 통신 회로들(313,314)은 도 1의 무선 통신 모듈(192)와 실질적으로 동일하거나, 무선 통신 모듈(192)에 포함될 수 있다.
프로세서(311)는 무선 통신 회로(313,314)들 및 메모리(312) 중 적어도 어느 하나와 작동적으로 연결될 수 있다. 프로세서(311)는 어플리케이션 프로세서(AP: application processor)(예: 도 1의 메인 프로세서(121)) 및/또는 커뮤니케이션 프로세서(CP: communication processor)(예: 도 1의 보조 프로세서(123), 도 4의 오디오 프로세서(410) 및 도 4의 통신 프로세서(420))를 포함할 수 있다.
메모리(312)는 전자 장치(310)의 적어도 하나의 구성 요소(예: 프로세서(311) 또는 무선 통신 회로들(313,314))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 메모리(312)는 프로세서(311)를 통해 실행될 수 있는 다양한 인스트럭션들을 저장할 수 있다
무선 통신 회로들(313,314)은 다수 개의 안테나들(미도시)을 통하여 상대 장치(340)로부터 신호를 수신 및/또는 상대 장치(340) 및 오디오 장치(320)로 신호를 전송할 수 있다. 무선 통신 회로들(313,314)은 제1 통신 회로(313) 및 제2 통신 회로(314)를 포함할 수 있다. 제 1 통신 회로(313) 및 제 2 통신 회로(314)는 서로 다른 회로 또는 서로 다른 하드웨어를 포함할 수 있다. 제 1 통신 회로(313) 및 제 2 통신 회로(314)는 논리적(예: 소프트웨어)으로 구분된 부분일 수도 있다.
제1 통신 회로(313)는 상대 장치(340)와 제1 링크(또는, 제1 통신 채널)(301)를 형성할 수 있다. 제1 통신 회로(313)는 상대 장치(340)와 통화 연결을 위한 원거리 통신 회로일 수 있다. 예를 들어, 제1 통신 회로(313)는 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신을 지원할 수 있다.
제2 통신 회로(314)는 오디오 장치(320)와 제2 링크(또는, 제2 통신 채널)을 형성할 수 있다. 제2 통신 회로(314) 오디오 장치(320)와 음성 신호를 송수신하기 위한 근거리 통신 회로일 수 있다. 제2 통신 회로(314)는 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신을 지원할 수 있다.
일 실시 예에 따르면, 전자 장치(310)는 제1 통신 회로(313)를 통해 상대 장치(340)와 제1 링크(301)를 생성 또는 수립할 수 있다. 전자 장치(310) 및 상대 장치(340)는 제1 링크(301)를 통해 데이터 패킷을 송수신할 수 있다. 전자 장치(310)는 상대 장치(340)에 문자, 오디오, 이미지, 또는 비디오와 같은 콘텐츠를 포함하는 데이터 패킷을 전송할 수 있다. 전자 장치(310)는 통신 프로토콜에 기반하여 상대 장치(340)와의 제1 링크(301)를 생성할 수 있다. 전자 장치(310)는 동기식 연결 프로토콜 또는 비동기식 연결 프로토콜에 기반하여 제1 링크(301)를 생성할 수 있다. 예를 들어, 동기식 연결 프로토콜은 실시간 오디오 데이터 교환을 지원하는 프로토콜(예: HFP(hands-free profile)을 지원하는 프로토콜)을 포함할 수 있다. 비동기식 연결 프로토콜은 ACL(asynchronous connection-less) 프로토콜을 이용하는 프로파일(예: A2DP(advanced audio distribution profile) 또는 SPP(serial port profile))을 포함할 수 있다.
전자 장치(310)는 제2 통신 회로(314)를 통해 오디오 장치(320)와 제2 링크(302)를 생성(create) 또는 수립(establish))할 수 있다. 예를 들어, 전자 장치(310)는 통신 프로토콜에 기반하여 오디오 장치(320)와의 제2 링크(302)를 생성할 수 있다. 전자 장치(201)는 동기식 연결 프로토콜 또는 비동기식 연결 프로토콜에 기반하여 제2 링크(302)를 생성할 수 있다.
일 실시 예에 따르면, 전자 장치(310)는 제2 링크(302)에 있어서 센트럴(central)장치의 역할을 수행하고, 오디오 장치(320)는 페리페럴(peripheral) 장치의 역할을 수행할 수 있다.
일 실시 예에 따르면, 전자 장치(310)는 오디오 장치(320)에 오디오 또는 비디오 같은 음성 콘텐츠를 포함하는 데이터 패킷을 전송할 수 있다. 전자 장치(310)가 데이터 패킷을 전송하는 경우, 전자 장치(310)는 소스 장치(source device)로 지칭되고, 오디오 장치(320)는 싱크 장치(sink device)로 지칭될 수 있다.
일 실시 예에 따르면, 전자 장치(310)는 상대 장치(340)에 전송할 사용자의 음성 유무에 따라 제1 송신 모드(또는, 송화 모드) 및 제2 송신 모드(또는, 수화 모드) 중 어느 하나의 모드로 동작할 수 있다.
제1 송신 모드는 상대 장치(340)와 통화 채널이 형성된 상태에서 상대 장치(340)에 전송할 사용자의 음성이 있을 때 실행될 수 있다. 즉, 제1 송신 모드는 사용자의 송신 음성을 포함하는 데이터를 상대 장치(340)에 전송하는 모드일 수 있다. 제1 송신 모드는 상대 장치(340)와 통화 채널 수립 전후 또는 통화 채널 수립 시에 전자 장치(310)에 설정된 기본 모드와 동일한 동작 모드일 수 있다.
제2 송신 모드는 상대 장치(340)와 통화 채널이 형성된 상태에서 상대 장치(340)에 전송할 사용자의 음성이 없을 때 실행될 수 있다. 즉, 제2 송신 모드는 사용자의 송신 음성없이 묵음을 포함하는 데이터를 상대 장치(340)에 전송하는 모드일 수 있다. 제2 송신 모드는 사용자의 송신 음성없이 상대 장치(340)의 오디오(예: 수신 음성)를 포함하는 데이터를 수신하는 모드일 수 있다.
전자 장치(310)는 무선 통신(RF) 동작(예: 통화)시의 송신 전력 및 피크 전류 중 적어도 어느 하나를 제1 송신 모드보다 제2 송신 모드에서 낮게 설정할 수 있다. 제1 송신 모드 및 제2 송신 모드시의 송신 전력 및 피크 전류는 오디오 장치(320)를 착용한 사용자의 상황에 맞게 선택적으로 조절될 수 있다.
이와 같이, 전자 장치(310)는 제2 송신 모드시의 송신 전력 및 피크 전류를 줄일 수 있어, 제2 송신 모드시 전자 장치(310)에서 방사되는 자계 노이즈가 줄일 수 있다. 이에 따라, 자계 노이즈로 인한 오디오 장치(예: 보청기)의 보청 주파수의 간섭을 줄일 수 있어 사용자에게 향상된 오디오 신호를 제공할 수 있다.
도 4는 일 실시 예에 따른 전자 장치의 예시적인 구성을 나타내는 블록도이다.
도 4를 참조하면, 일 실시 예에 따른 전자 장치는 오디오 프로세서(410)(audio DSP(digital signal processor))(예: 신호 처리 회로를 포함)와, 통신 프로세서(420)(CP(communication processor))(예: 프로세싱 회로를 포함)와, RF(radio frequency) 동작부(430)(예: RF 회로를 포함)를 포함할 수 있다. 일 실시 예에 따르면, 오디오 프로세서(410), 통신 프로세서(420) 및 RF 동작부(430)는 무선 통신 모듈(예: 도 2의 무선 통신 모듈)의 적어도 일부를 형성할 수 있다. 일 실시 예에 따르면, 오디오 프로세서(410) 및 통신 프로세서(420)는 보조 프로세서(예: 도 2의 보조 프로세서(123))의 적어도 일부를 형성하고, RF 동작부(430)는 안테나 모듈(예: 도 1의 안테나 모듈(197))의 적어도 일부를 형성할 수 있다.
한편, 도 4에 도시된 블록들의 일부 또는 전부는, 특정 기능을 실행하는 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 도 4에 도시된 블록들이 수행하는 기능들은, 적어도 하나의 마이크로프로세서에 의해 구현되거나, 해당 기능을 위한 회로 구성들에 의해 구현될 수 있다. 도 4에 도시된 블록들의 일부 또는 전부는 프로세서(예: 도 1의 프로세서(120))에서 실행되는 다양한 프로그래밍 언어 또는 스크립트 언어로 구성된 소프트웨어 모듈일 수 있다.
오디오 프로세서(410)는 다양한 신호 처리 회로를 포함하고, 전자 장치의 마이크를 통해 입력되는 오디오 신호를 주기적으로 수신할 수 있다. 예를 들어, 오디오 프로세서(410)는 오디오 신호를 20ms의 주기로 수신할 수 있다. 오디오 프로세서(410)는 오디오 신호를 기 설정된 주기의 프레임 단위로 수신하고, 수신한 프레임을 생성 순서(또는, 마이크에 입력된 순서)에 맞게 순차적으로 저장할 수 있다.
오디오 프로세서(410)는 수신된 오디오 신호에 기반하여 오디오 장치(예: 도 3의 오디오 장치(320))를 착용한 사용자의 발화 여부를 인식할 수 있다. 예를 들어, 오디오 프로세서(410)는 지정된 대역(예: 사람의 음역 대역)에서, 지정된 크기 이상의 오디오 신호(예: 음성 신호)에 기반하여 사용자의 발화 여부를 인식할 수 있다.
오디오 프로세서(410)는 사용자(예: 오디오 장치의 사용자)의 발화에 따른 음성(또는, 송신 음성)의 유무를 기반으로 각 프레임을 음성 프레임과 묵음 프레임으로 구분할 수 있다. 오디오 프로세서(410)는 사용자의 발화에 따른 음성(또는, 송신 음성)이 포함된 프레임을 음성 프레임으로 구분할 수 있다. 오디오 프로세서(410)는 사용자의 발화에 따른 음성이 비포함된 프레임을 묵음 프레임으로 구분할 수 있다. 오디오 프로세서(410)는 마이크를 통해 입력되는 오디오 신호의 세기에 대한 정규 분포를 기반으로 하는 음성 활동 감지(Speech Activity Detection, SAD)(또는, Voice Activity Detection, VAD) 기술을 이용하여 사용자의 음성 유무를 판단할 수 있다.
오디오 프로세서(410)는 묵음 프레임에, 통신 잡음 생성(comfort noise generation, CNG) 방식을 이용하여 생성된 인공적인 통신 잡음(comfort noise)을 포함시킬 수 있다. 통신 잡음은 사용자의 음성보다 낮은 음성 세기를 가질 수 있다. 통신 잡음은 사용자의 음성이 없는 묵음 프레임일지라도 음성 프레임들 사이에서 단절되는 듯한 느낌을 느끼지 않고 자연스럽게 느껴지도록 하기 위해 삽입되는 배경 잡음일 수 있다.
오디오 프로세서(410)는 하나의 패킷(packet)에 복수개의 프레임을 실어 전송할 수 있다. 오디오 프로세서(410)는 SID(silence insertion descriptor) 패킷에 연속되는 최대 7~20개의 묵음 프레임을 실어 전송할 수 있다. 복수개의 묵음 프레임만이 연속해서 전송되는 구간을 묵음 구간 또는 불연속 전송(discontinuous Transmission: DTX) 구간으로 칭할 수 있다. 예를 들어, 오디오 프로세서(410)는 SID 패킷에 연속되는 8개의 묵음 프레임을 묶어 전송하므로, DTX구간에서는 160ms 주기로 SID 패킷이 전송될 수 있다.
오디오 프로세서(410)는 스피치(speech) 패킷에 연속되는 복수개의 음성 프레임을 실어 전송할 수 있다. 복수개의 음성 프레임만이 연속해서 전송되는 구간을 음성 구간으로 칭할 수 있다. 예를 들어, 오디오 프로세서(410)는 스피치 패킷에 연속되는 10개의 음성 프레임을 묶어 전송하므로, 음성 구간에서는 200ms 주기로 스피치 패킷이 전송될 수 있다.
일 실시 예에 따르면, 통신 프로세서(420)는 신호 처리부(421), 모니터링부(422) 및 RF제어부(423)를 포함할 수 있다. 신호 처리부(421), 모니터링부(422) 및 RF제어부(423) 각각은 다양한 처리 회로 및/또는 실행 가능한 프로그램 명령을 포함할 수 있습니다.
신호 처리부(421)는 음성 프레임 및 묵음 프레임이 RF 동작부(430)를 통해 출력될 수 있도록 신호 처리를 수행할 수 있다. 예를 들어, 신호 처리부(421)는 입력된 음성 프레임 및 묵음 프레임의 데이터에 대해 신호 처리(예: 필터 적용 또는 신호 증폭)를 수행할 수 있다.
모니터링부(422)는 신호 처리부(421)에 입력되는 음성 프레임 및 묵음 프레임을 모니터링할 수 있다.
모니터링부(422)는 복수개의 묵음 프레임이 연속되는 DTX구간의 지속시간을 모니터링하거나, DTX구간의 연속 반복 횟수(또는 연속 횟수, 또는 반복 횟수)를 모니터링할 수 있다. 모니터링부(422)는 음성 구간의 마지막 음성 프레임 이후, DTX구간의 연속 반복 횟수가 기 설정된 제1 횟수 이상인지를 모니터링(또는, 카운팅)할 수 있다. 예를 들어, 묵음 프레임이, AMR 코덱이 적용된 음성을 포함하는 경우, 모니터링부(422)는 DTX구간이 3~4회이상인지를 모니터링할 수 있다. 묵음 프레임이, EVS 코덱이 적용된 음성을 포함하는 경우, 모니터링부(422)는 DTX구간이 1~2회이상인지를 모니터링할 수 있다.
모니터링부(422)는 복수개의 음성 프레임이 연속되는 음성 구간의 지속 시간을 모니터링하거나, 복수개의 음성 프레임의 연속 반복 횟수를 모니터링할 수 있다. 예를 들어, 모니터링부(422)는 DTX구간 이후, 음성 프레임의 연속 반복 횟수가 기 설정된 제2 횟수(예: 10회)인지를 모니터링(또는, 카운팅)할 수 있다. 제2 횟수는 제1 횟수보다 많을 수 있다.
RF 제어부(423)는 다양한 RF 제어/프로세싱 회로를 포함하고, 모니터링부(422)의 모니터링 결과를 기반으로, 전자 장치와 상대 장치의 통화시 RF 동작부(430)가 제1 송신 모드(또는, 송화 모드) 및 제2 송신 모드(또는, 수화 모드) 중 어느 하나로 동작하도록 제어할 수 있다.
제1 송신 모드는 사용자의 송신 음성을 포함하는 데이터를 상대 장치에 전송하는 모드를 포함할 수 있다. 제2 송신 모드는 사용자의 송신 음성없이 묵음을 포함하는 데이터를 상대 장치에 전송하고, 상대 장치의 수신 음성을 포함하는 데이터를 수신하는 모드를 포함할 수 있다. 일 실시 예에 따르면, 제2 송신 모드는 DTX구간동안 전자 장치에서 방사되는 자계 노이즈를 사전 정의된 기준치 이하로 유지할 수 있는 모드일 수 있다. 제2 송신 모드는 제1 송신모드보다 전자 장치에서 방사되는 자계 노이즈가 적게 방사할 수 있는 모드일 수 있다.
RF 제어부(423)는 다양한 회로를 포함하고, RF 동작부(430)를 제어할 수 있는 모드 전환 신호 및 모드 복원 신호를 생성할 수 있다. 모드 전환 신호는 전자 장치의 초기 동작 모드를 사전에 설정한 제1 송신 모드에서, 제2 송신 모드로 RF 동작부의 동작을 전환하는 신호일 수 있다. 모드 복원 신호는 제2 송신 모드에서 제1 송신 모드로 RF 동작부의 동작을 복원하는 신호일 수 있다.
RF 제어부(423)는 전자 장치에서 오디오 장치로 유도되는 자계에 영향을 미치는 RF 신호의 송신 전력 및 피크 전류를 결정하기 위한 제어 신호(또는, 모드 전환 신호 및 모드 복원 신호)를 RF동작부(430)에 전송할 수 있다.
RF 제어부(423)는 음성 구간의 마지막 음성 프레임 이후, DTX구간의 연속 반복 횟수가 기 설정된 제1 횟수 이상인 경우, 모드 전환 신호를 RF 동작부(430)에 전송할 수 있다. RF 제어부(423)는 DTX구간 이후, 음성 프레임의 연속 반복 횟수가 기 설정된 제2 횟수이면, 모드 복원 신호를 RF동작부(430)에 전송할 수 있다.
일 실시 예에 따르면, RF 제어부(423)는 모니터링부(422)의 모니터링 결과를 기반으로, 안테나(ANT)로 입력되는 RF 신호의 송신 전력의 세기를 결정하도록 설정될 수 있다. RF 제어부(423)는 RF동작부(430)가 모드 복원 신호에 응답하여 제1 송신 전력으로 RF 신호를 전송하도록 RF 동작부(430)를 제어할 수 있다. RF 제어부(423)는 RF동작부(430)가 모드 전환 신호에 응답하여 제1 송신 전력보다 낮은 제2 송신 전력으로 RF 신호를 전송하도록 RF 동작부(430)를 제어할 수 있다.
일 실시 예에 따르면, RF 제어부(423)는 모니터링부(422)의 모니터링 결과를 기반으로, 안테나(ANT)로 입력되는 RF 신호의 피크 전류의 세기를 결정하도록 설정될 수 있다. RF 제어부(423)는 RF동작부(430)가 모드 복원 신호에 응답하여 제1 피크 전류의 RF 신호를 전송하도록 RF 동작부(430)를 제어할 수 있다. RF 제어부(423)는 RF동작부(430)가 모드 전환 신호에 응답하여 제1 피크 전류보다 낮은 제2 피크 전류의 RF 신호를 전송하도록 RF 동작부(430)를 제어할 수 있다.
RF 동작부(430)는 다양한 회로를 포함하고, 음성 프레임 및 묵음 프레임의 음성 데이터를 RF 신호로 송신할 수 있다. RF동작부(430)는 RF제어부(423)로부터의 모드 전환 신호에 응답하여 통화 연결 수립시의 제1 송신 모드(또는, 송화 모드)에서 제2 송신 모드(또는, 수화 모드)로 전환되어 동작할 수 있다. RF동작부(430)는 RF제어부(423)로부터의 모드 복원 신호에 응답하여 제2 송신 모드에서 제1 송신 모드로 원복(또는, 회복)되어 동작할 수 있다.
일 실시 예에 따르면, RF동작부(430)는 모드 복원 신호에 응답하여 제1 송신 전력으로 RF 신호를 전송하는 제1 송신 모드로 동작할 수 있다. RF 동작부(430)는 통화 중 사용자의 송신 음성이 있는 제1 송신 모드에서, 송신 전력을 낮추지 않고 기 설정된 제1 송신 전력을 유지할 수 있다. RF 동작부(430)는 제1 송신 전력으로 복수의 음성 프레임을 전송할 수 있다.
RF동작부(430)는 모드 전환 신호에 응답하여 제1 송신 전력보다 낮은 제2 송신 전력으로 RF 신호를 전송하는 제2 송신 모드로 동작할 수 있다. RF 동작부(430)는 통화 중 사용자의 송신 음성이 없는 제2 송신 모드에서, 송신 전력을 제1 송신 전력(430)보다 낮은 제2 송신 전력으로 낮출 수 있다. RF 동작부(430)는 제2 송신 전력으로 복수의 묵음 프레임을 포함하는 SID 패킷을 전송할 수 있다. RF 동작부(430)는 송신 전력에 백 오프를 적용하여 제2 송신 전력으로 낮출 수 있다. RF 동작부(430)는 RF 방사 전계 조건에 맞추어 제2 송신 전력이 조정되도록 백오프를 적용할 수 있다. 예를 들어, RF 동작부(430)는 제1 송신 전력이 100dBm미만의 약전계인 경우, 제2 송신 전력을 제1 송신전력보다 3dB 하향 조절할 수 있다. RF 동작부(430)는 제1 송신 전력이 100dBm이상의 중강전계인 경우, 제2 송신 전력을 제1 송신전력보다 6dB 하향 조절할 수 있다.
일 실시 예에 따르면, RF동작부(430)는 모드 복원 신호에 응답하여 제1 피크 전류의 RF 신호를 전송하는 제1 송신 모드로 동작할 수 있다. RF 동작부(430)는 통화 중 사용자의 송신 음성이 있는 제1 송신 모드에서, RF 피크 전류를 낮추지 않고 기 설정된 제1 RF 피크 전류를 안테나에 공급할 수 있다.
RF동작부(430)는 모드 전환 신호에 응답하여 제1 피크 전류보다 낮은 제2 피크 전류의 RF 신호를 전송하는 제2 송신 모드로 동작할 수 있다. RF 동작부(430)는 통화 중 사용자의 송신 음성이 없는 제2 송신 모드에서, 제1 RF 피크 전류보다 낮은 제2 RF 피크 전류를 안테나에 공급할 수 있다. RF 동작부(430)는 RF 피크 전류에 백 오프를 적용하여 RF 피크 전류를 제2 피크 전류로 낮출 수 있다.
일 실시 예에 따르면, 전자 장치는 상대 장치에 전송할 사용자의 송신 음성이 없는 제2 송신 모드에서, RF 동작 설정을 제1 송신 모드와 다르게 변경될 수 있다. 일 예로, 제2 송신 모드에서, 오디오 장치에 노이즈로 작용할 수 있는 RF 신호의 송신 전력에 백오프를 적용할 수 있다. 제2 송신 모드에서, RF 신호의 송신 전력은 상대 장치에 전송할 사용자의 송신 음성이 있는 제1 송신 모드일 때보다 낮출 수 있다. 다른 예로, 제2 송신 모드에서, RF 신호의 송신시의 피크 전류(또는, RF 동작 전류)(또는, 소모 전류)를 낮출 수 있다. 제2 송신 모드에서, RF 신호의 피크 전류는 제1 송신 모드일 때보다 낮출 수 있다. 이에 따라, 제2 송신 모드에서, 전자 장치에서 자계 노이즈(ABM2)가 발생되는 영역이 줄어들게 될 수 있다. 제2 송신 모드에서, 전자 장치에서 발생되어 오디오 장치로 유도되는 자계 노이즈(ABM2)의 양이 줄어들어 사용자는 향상된 오디오 성능을 경험할 수 있다.
도 5는 일 실시 예에 따른 전자 장치 및 상대 장치 간의 음성 신호의 송수신을 예시적으로 나타낸 블록도이다.
도 5를 참조하면, 오디오 장치(예: 도 3의 오디오 장치(320))를 착용한 사용자의 전자 장치(501)(예: 도 3의 전자 장치(310))는 상대 장치(502)(예: 도 3의 상대 장치(340))와 음성 통화를 위한 연결을 수립할 수 있다. 전자 장치(501) 및 상대 장치(502)는 코덱(codec)을 이용하여 음성신호를 압축하거나 복호화할 수 있다. 전자 장치(501) 및 상대 장치(502)는 다양한 음성 코덱을 지원할 수 있다. 음성 코덱의 예로는 AMR(Adaptive Multi-Rate), AMR-NB(AMR-Narrowband), AMR-WB(AMR-Wideband), EVS(Enhanced Voice Services), EVRC (Enhanced Variable Rate Codec) 등을 들 수 있으나, 이에 한정되지는 않는다. EVS 코덱에서 지원하는 신호대역의 예로는 NB(20~4,000Hz), WB(20~8,000Hz), SWB(20~16,000Hz), 그리고 FB(20~20,000Hz)가 있다.
전자 장치(501) 및 상대 장치(502)에 입력되는 음성 신호, 사용자의 입력 및 네트워크 신호 중 적어도 하나에 의해 음성 코덱이 결정될 수 있다. 전자 장치(501) 및 상대 장치(502) 각각은 결정된 코덱의 비트-레이트 및 대역폭 중 적어도 어느 하나에 기초하여, 전송할 음성 신호를 압축하고 수신한 음성 신호를 복원할 수 있다.
일 실시 예에 따르면, 전자 장치(501)는 제1 음성 인코더(510) 및 제1 음성 디코더(610)를 포함할 수 있다. 상대 장치(502)는 제2 음성 인코더(520) 및 음성 디코더(620)를 포함할 수 있다. 제1 음성 인코더(510) 및 제2 음성 인코더(520) 각각은 송신 음성 신호를 압축할 수 있다. 제1 음성 디코더(610) 및 제2 음성 디코더(620) 각각은 압축된 수신 음성 신호를 복호화할 수 있다. 전자 장치(501)의 제1 음성 디코더(610)는 상대 장치(502)의 제2 음성 디코더(620)와 적어도 일부가 동일하거나 유사한 구성을 포함하고, 적어도 일부가 동일하거나 유사한 기능을 사용할 수 있다. 상대 장치(502)의 제2 음성 인코더(520)는 전자 장치(501)의 제1 음성 인코더(510)와 적어도 일부가 동일하거나 유사한 구성을 포함하고, 적어도 일부가 동일하거나 유사한 기능을 사용할 수 있다. 전자 장치(501) 및 상대 장치(502) 각각은 송수신 단말기이지만, 이하에서는 전자 장치(501)가 전자 장치(501)의 사용자 음성을 상대 장치(502) 및 오디오 장치(에: 도 3의 오디오 장치(320))로 송신하고, 상대 장치(502)가 사용자 음성을 수신하는 경우를 예로 들어 설명하기로 한다.
일 실시 예에 따르면, 전자 장치(501)의 제1 음성 인코더(510)는 전자 장치(501)의 마이크를 통해 입력되는 사용자의 음성 신호를 압축시키기 위해 음성 신호에 대한 부호화를 수행할 수 있다. 제1 음성 인코더(510)는 음성 활성 검출기(voice activity detector, VAD) (예: 다양한 회로 및/또는 실행 가능한 프로그램 지시들을 포함)(511)와, 통신 소음 인코더(comfort noise Encoder)(512)와, 인코더 제어부(513)(예: 다양한 프로세싱/제어 회로를 포함)를 포함할 수 있다.
음성 활성 검출기(511)는 다양한 회로 및/또는 실행 가능한 프로그램 지시들을 포함하고, 통화 중, 전자 장치(501)의 마이크를 통해 수신되는 오디오 신호를 기반으로 전자 장치(501)의 사용자의 발화 여부를 감지할 수 있다. 음성 활성 검출기(511)는 외부인(예: 착용자가 아닌 사람)의 발화와, 착용자의 발화를 구분할 수 있다.
통신 잡음 인코더(512)는 통신 잡음 생성(comfort noise generation, CNG) 방식을 이용하여 생성된 인공적인 통신 잡음(comfort noise)을 인코딩할 수 있다. 통신 잡음은 사용자의 음성보다 낮은 음성 세기를 가질 수 있다.
인코더 제어부(513)는 다양한 회로를 포함하고, 묵음 프레임과, 사용자의 음성을 포함하는 음성 프레임을 상대 장치에 전송할 수 있다. DTX 구간에 연속해서 전송되는 복수개의 묵음 프레임들에는 통신 잡음이 삽입될 수 있다. 이에 따라, 통화 중 마이크를 통해 사용자의 음성이 수신되지 않는 묵음 프레임일지라도 음성 프레임들 사이에서 단절되지 않고 자연스럽게 느껴질 수 있다.
일 실시 예에 따르면, 상대 장치(502)의 제2 음성 디코더(620)는 수신된 사용자의 음성에 대한 부호화를 수행할 수 있다. 제2 음성 디코더(620)는 통신 잡음 디코더(621) 및 에러 은닉(error concealment)부(622)(예: 다양한 회로 및/또는 실행 가능한 프로그램 지시들을 포함)를 포함할 수 있다.
통신 잡음 디코더(621)는 묵음 프레임의 통신 잡음을 수신하고 통신 잡음에 대한 복호화를 수행할 수 있다. 이외에도 제2 음성 디코더(620)는 음성 프레임의 사용자 음성을 수신하고 사용자 음성에 대한 복호화를 수행할 수 있다.
에러 은닉부(622)는 다양한 회로 및/또는 실행 가능한 프로그램 지시들을 포함하고, 무선 네트워크를 통해 묵음 프레임과 음성 프레임을 전송하는 과정에서 전송 상의 오류로 인해 손실되거나 왜곡된 프레임을 에러 은닉 방법으로 복원할 수 있다. 에러 은닉 방법은 묵음(muting)법, 반복(repetition)법, 또는 보간법(interpolation)이 있을 수 있다. 묵음법은 오류가 발생된 프레임에 소리의 크기를 작게 함으로써 오류가 출력 신호에 미치는 영향을 약화시킬 수 있다. 반복법은 오류가 발생된 프레임의 이전 정상 프레임(previous Good Frame)을 반복하여 재생함으로써 오류가 발생된 프레임의 신호를 복원할 수 있다. 보간법은 이전 정상 프레임과 이후 정상 프레임(Next Good Frame)의 파라미터를 보간하여 오류 프레임의 파라미터를 예측할 수 있다. 일 실시 예에서, 묵음 프레임 및 음성 프레임은 에러 은닉 방법으로 복원될 수 있다. RF 신호의 송신 전력 및 피크 전류 중 적어도 어느 하나가 제2 송신 모드로, 묵음 프레임이 전송되더라도, 묵음 프레임은 에러 은닉 방법으로 원래 상태로 복원될 수 있다.
도 5에 도시된 블록들의 일부 또는 전부는, 특정 기능을 실행하는 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 도 5에 도시된 블록들이 수행하는 기능들은, 적어도 하나의 마이크로프로세서에 의해 구현되거나, 해당 기능을 위한 회로 구성들에 의해 구현될 수 있다. 도 5에 도시된 블록들의 일부 또는 전부는 프로세서(예: 도 1의 프로세서 (120))에서 실행되는 다양한 프로그래밍 언어 또는 스크립트 언어로 구성된 소프트웨어 모듈일 수 있다.
도 6a 및 도 6b는 일 실시 예에 따른 전자 장치의 각 프레임의 식별 정보를 예시한 도면들이다. 도 6a 및 도 6b에서, VAD 플래그(Flag)는 통화 중 사용자의 음성이 검출되었는지를 나타내는 플래그일 수 있다. VAD 플래그(Flag)가 하이(high) 논리(또는, 1)인 경우는 음성을 의미하고, 로우(low) 논리(또는, 0)인 경우는 묵음을 의미할 수 있다.
도 6a 및 도 6b를 참조하면, 전자 장치는 각 프레임 별로 프레임의 상태에 대한 식별 정보를 생성하여 전송할 수 있다.
프레임 식별(frame type) 정보가 “S”로 표기된 프레임은 음성 양호(SPEECH_GOOD)로써, 사용자의 음성이 포함되는 음성 프레임을 의미할 수 있다. “F”로 표기된 프레임은 “첫번째 묵음 프레임(SID_FIRST 또는 Primary SID)”으로써, 사용자의 음성이 포함되지 않은 묵음 프레임이 첫번째로 나타나는 묵음 프레임을 의미할 수 있다. “N”으로 표기된 프레임은 “묵음_무데이터(NO_DATA)”로써, 첫번째 묵음 프레임 이후 연속해서 나타나는 묵음 프레임을 의미할 수 있다. “U”로 표기된 프레임은 “SID_Update”로써, 첫번째 묵음 프레임 이후 나타나는 m(여기서, m은 1보다 큰 자연수)번째(예: 3번째) 묵음 프레임과, m번째 묵음 프레임 이후 n(여기서, n은 m보다 큰 자연수)번째(예: 8번째)마다 나타나는 묵음 프레임을 의미할 수 있다. 플래그 및 프레임 식별 정보는 도 6a 및 도 6b에서 설명한 실시 예로 한정되지 않고, 사용자가 정의하는 방식에 따라 달라질 수 있다. 한편, 프레임 식별 정보는 인코딩 메커니즘을 설명하기 위한 개념적인 명칭일 뿐일 수 있으며 상대 장치로 전송되지는 않을 수도 있다. 상대 장치에는 인코딩된 음성 프레임 및 인코딩된 묵음 프레임만이 실제로 전송될 수 있다.
일 실시 예에 따르면, 음성 구간과 묵음 구간 사이에는 행 오버(Hangover) 구간이 형성될 수도 있다. 행 오버 구간은 음성 구간의 마지막 음성 프레임 이후의 복수개의 묵음 프레임을 포함할 수 있다. 행 오버 구간은 묵음 구간의 첫번째 묵음 프레임 이후 소정 기간 동안 음성 인코더가 비활성화되기까지 대기하는 구간을 의미할 수 있다. 복수개(예: 8개) 이상의 묵음 프레임이 지속되면, 음성 구간으로부터 묵음 구간으로 전환되었다고 판단될 수 있다.
일 실시 예에 따르면, 전자 장치는 음성 구간의 마지막 음성 프레임 이후 묵음 프레임이 기 설정된 제1 기간(예: 480ms) 이상 동안 지속된다면, 제1 송신 모드에서 제2 송신 모드로 전환될 수 있다. 전자 장치는 복수개(예: 8개)의 묵음 프레임을 포함하는 DTX구간이, 음성 구간 이후 복수회(예: 3회) 이상 지속된다면, 상대 장치에 전송될 사용자의 음성이 없다고 판단하여 제2 송신 모드로 동작될 수 있다.
일 실시 예에 따르면, 전자 장치는 묵음 구간의 마지막 묵음 프레임 이후, 음성 프레임이 기 설정된 제2 기간(예: 200ms) 동안 지속된다면, 제2 송신 모드에서 제1 송신 모드로 전환될 수 있다. 전자 장치는 DTX구간 이후, 음성 프레임이 복수회(예: 10회)이상 지속된다면, 상대 장치에 전송될 사용자의 음성이 있다고 판단하여 제1 송신 모드로 동작할 수 있다. 한편, 제2 기간은 제1 기간보다 짧은 기간일 수 있다.
도 7a 및 도 7b는 일 실시 예에 따른 전자 장치의 동작 모드에 따른 피크 전류를 나타내는 도면들이다.
일 실시 예에 따르면, 오디오 장치(예: 도 3의 오디오 장치(320))를 착용한 사용자의 전자 장치(예: 도 3의 전자 장치(310))는 통화 중 사용자의 음성 유무에 기반하여 서로 다른 안테나 임피던스 성능을 갖도록 하는 튠 코드(tune code)를 선택할 수 있다. 전자 장치의 RF 동작부(예: 도 3의 통신 회로(313,314) 또는 도 4의 RF동작부(430)는 안테나의 매칭단에 연결되는 안테나 튜너(tuner IC)(미도시)를 포함할 수 있다. 안테나 튜너는 선택된 튠 코드에 기반하여 연결된 안테나의 임피던스를 조절할 수 있다.
전자 장치는 통화 중 상대 장치(예: 도 3의 상대 장치(340))에 전송할 사용자의 음성이 있다고 판단되면, 제1 송신 모드와 대응하는 제1 튠 코드를 선택할 수 있다. 전자 장치는 음성 구간에 제1 송신 모드와 대응하는 제1 튠 코드를 선택할 수 있다. 전자 장치는 선택된 제1 튠 코드로 안테나를 튜닝하여 도 7a에 도시된 바와 같이 허용 전류치(801)보다 높은 제1 피크 전류를 가지는 RF 신호를 전송할 수 있다.
전자 장치는 통화 중 상대방에게 전송할 사용자의 음성이 없다고 판단되면, 제2 송신 모드와 대응하는 제2 튠 코드를 선택할 수 있다. 전자 장치는 묵음 구간 또는 DTX구간에 제2 송신 모드와 대응하는 제2 튠 코드를 선택할 수 있다. 전자 장치는 선택된 제2 튠 코드로 안테나를 튜닝하여 도 7b에 도시된 바와 같이 제1 피크 전류보다 낮은 제2 피크 전류를 가지는 RF 신호를 전송할 수 있다. 제2 피크 전류치는 제1 피크 전류치보다 낮은 허용 전류치(801)와 동일하거나, 허용 전류치(801)보다 크고 제1 피크 전류치보다 낮을 수 있다.
일 실시 예에 따르면, 제1 튠 코드는 제2 튠 코드보다 송신 성능에 최적화된 튠 코드일 수 있다. 제2 튠 코드는 송신 전력의 최소 허용 수준에서, 수신 성능에 맞춘 튠 코드일 수 있다.
도 8은 일 실시 예에 따른 전자 장치의 동작 모드를 결정하는 방법을 예시적으로 나타내는 흐름도이다.
도 8를 참조하면, 동작 811에서, 오디오 장치(예: 도 3의 오디오 장치(320))를 착용한 사용자의 전자 장치(예: 도 3의 전자 장치(310))는 상대 장치(예: 도 3의 상대 장치(340))에 전송할 사용자의 음성이 포함되지 않은 묵음 프레임의 지속 시간(또는 연속 반복 횟수)을 기반으로, DTX 구간의 진입 및 지속 여부를 판단할 수 있다. 전자 장치는 음성 구간의 마지막 음성 프레임 이후, 묵음 프레임의 지속 시간(또는, 연속 반복 횟수)이 임계치 이상이면, DTX 구간에 진입한 것으로 판단할 수 있다. 전자 장치는 DTX 구간의 지속 시간(또는, 연속 반복 횟수)를 기반으로 DTX 구간의 지속 여부를 판단할 수 있다.
동작 812에서, DTX 구간이 사전 정의된 일정 시간 동안 지속되면, 전자 장치는 상대 장치에 전송할 사용자의 음성이 없는 제2 송신 모드(또는, 수화 모드)로, 상대 장치 및 오디오 장치와 통신 연결을 유지할 수 있다. 전자 장치는 사용자의 음성이 포함되지 않은 묵음 프레임을 상대 장치 및 오디오 장치에 전송할 수 있다. 전자 장치는 상대 장치의 오디오 신호를 수신할 수 있다. 제2 송신 모드는 제1 송신 모드(또는, 송화 모드)보다 낮은 송신 성능의 허용 수준에서, 수신 성능에 맞춘 동작 모드일 수 있다.
동작 813에서, 전자 장치는 상대 장치에 전송할 사용자의 음성이 포함된 음성 프레임의 지속 시간(또는, 연속 반복 횟수)를 기반으로, 동작 모드가 원복 조건을 만족하는지 여부를 판단할 수 있다. 전자 장치는 묵음 구간에 포함된 마지막 묵음 프레임 이후, 음성 프레임의 지속 시간(또는, 연속 반복 횟수)이 임계치 이상이면, 원복 조건을 만족할 수 있다.
동작 814에서, 전자 장치는 묵음 구간에 포함된 마지막 묵음 프레임 이후, 음성 프레임의 지속 시간(또는, 연속 반복 횟수)이 임계치 이상이면(동작 813 (예 Yes)), 제2 송신 모드에서 제1 송신 모드로 동작 모드를 원복할 수 있다. 전자 장치는 송신 성능이 최적화된 제1 송신 모드로, 상대 장치와 통신 연결을 유지할 수 있다. 전자 장치는 제1 송신 모드로 사용자의 음성이 포함된 음성 프레임을 상대 장치에 전송할 수 있다.
전자 장치는 묵음 구간에 포함된 마지막 묵음 프레임 이후, 음성 프레임의 지속 시간(또는, 연속 반복 횟수)이 임계치 미만이면(동작 813 (아니오 No)), 제2 송신 모드로 상대 장치와 통신 연결을 유지할 수 있다.
전자 장치는 통화 유지에 필요한 제어 신호(예: PUCCH)를 기지국에 전달시, 동작 모드가 제2 송신 모드에서 제1 송신 모드로 원복될 수도 있다.
도 9는 일 실시 예에 따른 전자 장치의 동작 모드를 제어하는 방법을 예시적으로 나타내는 흐름도이다.
도 9를 참조하면, 동작 921에서, 오디오 장치(예: 도 3의 오디오 장치(320))를 착용한 사용자의 전자 장치(예: 도 3의 전자 장치(310))는 통신 모듈(예: 도 1의 통신 모듈(190))를 이용하여 상대 장치(예: 도 3의 상대 장치(340))와 통화 연결을 수립할 수 있다. 전자 장치는 상대 장치와 통화 연결을 수립하기 전 또는 후에 HAC 모드를 활성화할 수 있다. 한편, 동작 921(아니오 No)에서 전자 장치는 오디오 장치 및 상대 장치 중 적어도 어느 하나와 통신시 동작 모드를 제1 송신 모드로 설정하거나 제1 송신 모드를 유지할 수 있다(동작 928).
HAC 모드가 활성화 상태이면(동작 921(예 Yes)), 동작 922에서, 상대 장치와 통화 연결을 유지하면서 전자 장치(예: 도 4의 통신 프로세서(420))는 DTX구간의 진입 여부를 판단할 수 있다.
전자 장치는 음성 구간의 마지막 음성 프레임 이후, 묵음 프레임의 지속 시간(또는, 연속 반복 횟수)이 임계치 미만이면, DTX 구간에 처음 진입하지 않은 것으로 판단할 수 있다. DTX구간에 미진입한 경우(동작 922(아니오 No)), 동작 928에서, 전자 장치는 현재 동작 모드인 제1 송신 모드를 유지할 수 있다.
전자 장치는 음성 구간의 마지막 음성 프레임 이후, 묵음 프레임의 지속 시간(또는, 연속 반복 횟수)이 임계치 이상이면, DTX 구간에 처음 진입한 것으로 판단할 수 있다(동작 922 (예 Yes)).
동작 923에서, 전자 장치(예: 도 4의 통신 프로세서(420))는 DTX구간의 연속성을 판단할 수 있다. 예를 들어, 전자 장치는 DTX 구간에 처음 진입한 이후, DTX 구간이 다시 연속되는지를 판단할 수 있다. DTX 구간이 연속되지 않는 경우(동작 923(아니오 No)), 동작 928에서, 전자 장치는 현재 동작 모드인 제1 송신 모드를 유지할 수 있다.
DTX 구간이 연속되면(동작 923(예 Yes)), 동작 924에서, 전자 장치(예: 도 4의 통신 프로세서(420))는 DTX구간의 연속 반복 횟수(또는, 지속 시간)를 판단할 수 있다. 예를 들어, 전자 장치는 DTX 구간의 연속 반복 횟수가 임계치(또는, N(여기서, N은 3이상의 자연수)회)에 도달하는지를 판단할 수 있다. DTX구간의 연속 반복 횟수의 임계치는 사용자 또는 제조사에 의해 설정되거나 변경될 수 있다. DTX구간의 연속 반복 횟수가 임계치 미만이면(동작 924(아니오 No)), 동작 928에서, 전자 장치는 현재 동작 모드인 제1 송신 모드로 상대 장치와 통신 연결을 유지할 수 있다.
동작 925에서, 전자 장치(예: 도 4의 RF동작부(430))는 DTX 구간의 연속 반복 횟수가 임계치에 도달한 경우(동작 924(예 Yes)), 동작 모드를 제2 송신 모드로 전환할 수 있다. 전자 장치는 상대 장치에 전송할 사용자의 음성이 없는 제2 송신 모드로, 상대 장치와 통신 연결을 유지할 수 있다. 전자 장치는 사용자의 음성이 포함되지 않은 묵음 프레임을 상대 장치에 전송하고, 상대 장치의 오디오 신호를 수신할 수 있다.
동작 926에서, 전자 장치(예: 도 4의 통신 프로세서(420))는 제2 송신 모드로 전환된 이후, DTX구간의 지속 여부를 판단할 수 있다. 전자 장치는 제2 송신 모드로 전환된 이후, DTX 구간이 지속되면(동작 926(예 Yes)), 제2 송신 모드로 상대 장치와 통신 연결을 유지할 수 있다.
전자 장치(예: 도 4의 통신 프로세서(420))는 DTX 구간이 지속되지 않으면(동작 926(아니오 No)), 동작 927에서, 음성 프레임의 지속 시간(또는, 연속 반복 횟수)를 판단하여 음성 프레임의 지속 여부를 판단할 수 있다. 전자 장치(예: 도 4의 통신 프로세서(420))는 DTX구간에 포함된 마지막 묵음 프레임 이후, 복수개의 음성 프레임이 지속되지 않으면(동작 927(아니오 No)), 제2 송신 모드로 상대 장치와 통신 연결을 유지할 수 있다.
동작 928에서, 전자 장치(예: 도 4의 통신 프로세서(420))는 DTX구간에 포함된 마지막 묵음 프레임 이후, 복수개의 음성 프레임이 지속되면(동작 927(예 Yes)), 제2 송신 모드에서 제1 송신 모드로 동작 모드를 원복할 수 있다. 전자 장치는 제1 송신 모드로, 상대 장치와 통신 연결을 유지할 수 있다. 전자 장치는 제1 송신 모드로, 사용자의 음성이 포함된 음성 프레임을 상대 장치에 전송할 수 있다.
동작 929에서, 전자 장치는 통화 연결 해제를 확인할 수 있다. 통화 연결이 해제되면, 전자 장치는 통화 연결 이전 상태로 복귀할 수 있다. 전자 장치가 제1 송신 모드에서 통화 연결이 해제되면, 전자 장치는 제1 송신 모드를 유지할 수 있다. 전자 장치가 제2 송신 모드에서 통화 연결이 해제되면, 전자 장치는 제1 송신 모드로 회복될 수 있다.
도 10은 일 실시 예에 따른 전자 장치의 동작을 예시적인 방법으로 나타내는 흐름도이다.
도 10을 참조하면, 동작 1001에서, 오디오 장치(예: 도 3의 오디오 장치(320))를 착용한 사용자의 전자 장치(예: 도 3의 전자 장치(310))는 HAC모드 활성화할 수 있다. 일 예로, 전자 장치의 설정 메뉴에서 HAC모드를 활성화하는 항목이 선택되면, 전자 장치는 HAC모드를 활성화할 수 있다. 다른 예로, 전자 장치는 기 설정된 제스처가 감지되는 경우, 전자 장치는 HAC모드를 활성화할 수 있다. 또 다른 예로, 전자 장치가 오디오 장치에 근접하게 배치되는 경우, 전자 장치는 HAC모드를 활성화할 수 있다. 또 다른 예로, 전자 장치와 상대 장치 간의 통신 연결이 수립되면, 전자 장치는 HAC모드를 활성화할 수 있다.
HAC모드가 활성화된 전자 장치는 통신 모듈(예: 도 1의 통신 모듈(190) 또는 도 3의 제2 통신 회로(314))를 통해 오디오 장치와 통신 채널을 형성할 수 있다. 전자 장치는 HAC모드로 활성화시 및 오디오 장치와 통신 채널 형성시 제1 송신 모드로 동작할 수 있다.
일 실시 예에 따르면, 전자 장치는 HAC 모드를 일정 시간 동안 활성화한 후 비활성화하도록 설정할 수 있다. 예를 들어, 전자 장치는 상대 장치와의 통화 연결이 해제되면, HAC모드를 비활성화하도록 설정할 수 있다.
동작 1002에서, 전자 장치는 통신 모듈(예: 도 1의 통신 모듈(190) 또는 도 3의 제1 통신 회로(313))을 통해 통화 수신 및 통화 발신 중 적어도 어느 하나에 대한 요청이 발생될 수 있다. 전자 장치는 상대 장치(예: 도 3의 상대 장치(340))와 통화 연결을 수립할 수 있다. 한편, 전자 장치는 오디오 장치 및 상대 장치 중 적어도 어느 하나와 통신시 동작 모드를 제1 송신 모드로 설정하거나 제1 송신 모드를 유지할 수 있다.
앞서 설명에서는 상대 장치와 통화 연결을 수립하기 전에 전자 장치의 HAC모드가 활성화되는 경우를 예로 들어 설명하였지만, 상대 장치와 통화 연결을 수립한 후에 HAC 모드가 활성화될 수도 있다.
동작 1003에서, 전자 장치(예: 도 4의 오디오 프로세서(410))는 마이크를 통해 입력되는 오디오 신호에 기반하여 사용자의 발화 여부를 인식할 수 있다. 예를 들어, 전자 장치(예: 도 4의 오디오 프로세서(410))는 지정된 대역(예: 사람의 음역 대역)에서, 지정된 크기 이상의 오디오 신호(예: 음성 신호)에 기반하여 사용자의 발화 여부를 인식할 수 있다. 전자 장치(예: 도 4의 오디오 프로세서(410))는 오디오 신호에 포함된 사용자의 음성을 수신할 수 있다. 전자 장치는 사용자의 발화에 따른 음성의 유무를 기반으로 각 프레임을 음성 프레임과 묵음 프레임으로 구분할 수 있다.
동작 1004에서, 전자 장치는 복수개의 묵음 프레임의 연속성을 기반으로, DTX 구간 진입 여부를 판단할 수 있다. 전자 장치는 연속되는 복수개의 묵음 프레임의 개수가 임계치 이상되면, DTX 구간에 진입한 것으로 판단할 수 있다. 전자 장치는 연속되는 복수개의 묵음 프레임의 개수가 임계치 미만이면, DTX구간에 진입하지 않은 것으로 판단할 수 있다.
동작 1005에서, 전자 장치는 DTX 구간 진입 후, 연속되는 복수개의 묵음 프레임을 포함되는 DTX 구간의 연속 반복 횟수를 기반으로, 전자 장치의 동작 모드를 제1 송신 모드 및 제2 송신 모드 중 어느 하나로 동작하도록 제어할 수 있다. 전자 장치는 DTX구간 진입 후 DTX 구간이 복수회 연속해서 지속되면, 제1 송신 모드를 해제하고 제2 송신 모드로 전환하도록 제어될 수 있다.
동작 1006에서, 전자 장치는 DTX 구간에 진입한 후, DTX 구간이 복수회 연속해서 지속되지 않으면, 복수개의 음성 프레임의 연속성을 판단할 수 있다.
동작 1007에서, 전자 장치는, 복수개의 음성 프레임의 개수가 임계치 이상인 경우, 전자 장치는 제2 송신 모드를 해제하고, 제1 송신 모드로 동작하도록 제어될 수 있다. 전자 장치는, 복수개의 음성 프레임의 개수가 임계치 미만인 경우, 전자 장치는 제2 송신 모드를 유지하도록 제어될 수 있다.
동작 1008에서, 전자 장치는 통화 연결 해제를 확인할 수 있다. 통화 연결이 해제되면, 전자 장치는 통화 연결 이전 상태로 복귀할 수 있다. 전자 장치가 제2 송신 모드에서 통화 연결이 해제되면, 전자 장치는 제1 송신 모드로 회복될 수 있다. 전자 장치가 제1 송신 모드에서 통화 연결이 해제되면, 전자 장치는 제1 송신 모드를 유지할 수 있다.
상술한 전자 장치는 각 도면에서 설명한 실시 예로 한정되지 않고, 각 도면에서 설명한 실시 예가 상호 복합적으로 적용될 수 있다.
전자 장치에서 방사되는 노이즈는 사용자가 착용한 오디오 장치(예: 보청기)에 유도되어 사용자에게 전송되는 오디오의 품질이 저하될 수 있다.
본 문서에 개시되는 일 실시 예는, 청각 장애가 있는 사용자들에게 향상된 통화 음질을 제공할 수 있는 전자 장치 및 그 제어 방법에 관한 것이다.
본 문서에서 해결하고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 문서에 개시되는 일 실시 예에 따르면, 마이크와; 제1 외부 전자 장치(예: 도 1의 전자 장치(102,104), 도 2의 상대 장치(220), 도 3의 상대 장치(320), 도 5의 상대 장치(502))와 통화 채널을 제공하는 제1 통신 회로(예: 도 1의 통신 모듈(190), 도 3의 제1 통신 회로(313))와, 제2 외부 전자 장치(예: 도 2의 오디오 장치(220), 도 3의 오디오 장치(320))와 통신 채널을 제공하는 제2 통신 회로(예: 도 1의 통신 모듈(190), 도 3의 제2 통신 회로(314))를 포함하는 통신 모듈과; 상기 통신 모듈과 전기적으로 연결된 프로세서(예: 도 1의 프로세서(120), 도 3의 프로세서(311), 도 4의 프로세서(410,420))를 포함하며, 상기 프로세서는 제1 송신 모드로 동작하는 상기 전자 장치와, 제1 외부 전자 장치가 상기 제1 통신 회로를 통해 통화 연결을 수립하고, 상기 통화 연결이 유지되는 동안, 상기 제2 외부 전자 장치를 착용한 사용자의 발화 여부를 확인하고,상기 통화 연결이 유지되는 동안, 상기 제1 외부 전자 장치에 전송할 상기 사용자의 음성 신호가 인식되지 않는 것을 기반으로, 상기 제1 송신 모드와 다른 제2 송신 모드로 동작하고, 상기 통화 연결이 유지되는 동안, 상기 제1 외부 전자 장치에 전송할 상기 사용자의 음성 신호가 인식되는 것을 기반으로, 상기 제1 송신 모드로 동작하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 프로세서는 상기 사용자의 음성 신호가 포함된 복수의 음성 프레임과 사용자의 음성 신호가 포함되지 않은 복수의 묵음 프레임을 생성하도록 설정 수 있다.
일 실시 예에 따르면, 상기 복수의 묵음 프레임 중 적어도 어느 하나는 상기 프로세서에서 생성하도록 설정된 통신 잡음(comfort noise)을 포함할 수 있다.
일 실시 예에 따르면, 상기 통신 모듈은 상기 복수의 음성 프레임을 상기 제1 송신 모드로 상기 제1 외부 전자 장치에 전송하며, 상기 복수의 묵음 프레임을 상기 제2 송신 모드로 상기 제1 외부 전자 장치에 전송하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 통신 모듈은 상기 복수의 음성 프레임 및 상기 묵음 프레임을 RF(radio frequency) 신호로 전송하도록 설정되며, 상기 통신 모듈은 상기 제2 송신 모드로 동작하는 상기 전자 장치를 기반으로, 백 오프를 진행하여 상기 RF 신호의 송신 전력을 조절할 수 있다.
일 실시 예에 따르면, 상기 통신 모듈은 상기 복수의 음성 프레임 및 상기 묵음 프레임을 RF(radio frequency) 신호로 전송하도록 설정되며, 상기 통신 모듈은 상기 제1 송신 모드로 동작하는 상기 전자 장치를 기반으로, 제1 송신 전력으로 상기 RF 신호를 전송하며, 상기 제2 송신 모드로 동작하는 상기 전자 장치를 기반으로, 상기 제1 송신 전력보다 낮은 제2 송신 전력으로 상기 RF 신호를 전송할 수 있다.
일 실시 예에 따르면, 상기 통신 모듈은 중전계 및 강전계보다 낮은 약전계상태인 상기 제1 송신 전력보다 중전계 및 강전계상태인 상기 제1 송신 전력을 기반으로, 상기 제2 송신 전력이 더 낮아지게 상기 제2 송신 전력을 조절하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 통신 모듈은 상기 복수의 음성 프레임 및 상기 묵음 프레임을 RF(radio frequency) 신호로 전송하도록 설정되며, 상기 통신 모듈은 상기 제1 송신 모드로 동작하는 상기 전자 장치를 기반으로, 제1 피크 전류의 상기 RF 신호를 전송하며, 상기 제2 송신 모드로 동작하는 상기 전자 장치를 기반으로, 상기 제1 피크 전류보다 낮은 제2 피크 전류의 상기 RF 신호를 전송할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 상기 복수의 음성 프레임을 포함하는 음성 구간의 마지막 음성 프레임 이후, 상기 복수의 묵음 프레임이 연속되는 불연속 전송 구간의 연속 횟수를 모니터링하고, 상기 연속 횟수가 제1 임계치 미만인 것을 기반으로, 상기 제1 송신 모드를 유지하며, 상기 연속 횟수가 상기 제1 임계치 이상인 것을 기반으로, 상기 제1 송신 모드에서 상기 제2 송신 모드로 전환할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 상기 불연속 전송 구간에 포함된 마지막 묵음 프레임 이후에, 전송되는 음성 프레임의 개수를 모니터링하고, 상기 음성 프레임의 개수가 제2 임계치 미만인 것을 기반으로, 상기 제2 송신 모드를 유지하고, 상기 음성 프레임의 개수가 상기 제2 임계치 이상인 것을 기반으로, 상기 제2 송신 모드에서 상기 제1 송신 모드로 원복할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 상기 복수의 음성 프레임으로 이루어진 음성 구간의 마지막 음성 프레임 이후, 상기 복수의 묵음 프레임이 연속되는 불연속 전송 구간의 지속 기간을 모니터링하고, 상기 불연속 전송 구간의 지속 기간이 제1 임계 기간 미만인 것을 기반으로, 상기 제1 송신 모드를 유지하며, 상기 불연속 전송 구간의 지속 기간이 제1 임계 기간 이상인 것을 기반으로, 상기 제1 송신 모드에서 상기 제2 송신 모드로 전환할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 상기 불연속 전송 구간에 포함된 마지막 묵음 프레임 이후에, 상기 복수의 음성 프레임이 연속되는 음성 구간의 지속 기간을 모니터링하고, 상기 음성 구간의 지속 기간이 제2 임계 기간 미만인 것을 기반으로, 상기 제2 송신 모드를 유지하고, 상기 음성 구간의 지속 기간이 제2 임계 기간 이상인 것을 기반으로, 상기 제2 송신 모드에서 상기 제1 송신 모드로 원복하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 프로세서는 VAD(voice activity detection) 방식을 이용하여, 상기 마이크를 통해 수신되는 상기 사용자의 음성 신호의 유무를 인식하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 전자 장치는 상기 제1 외부 전자 장치로부터 수신되는 묵음 신호를 부호화하며, 부호화된 묵음 신호를 에러 은닉(error concealment) 방식으로 복원하는 음성 디코더를 더 포함할 수 있다.
일 실시 예에 따르면, 상기 전자 장치는 보청기 호환성(Hearing Aids Compatibility, HAC) 모드를 지원하도록 설정되며, 상기 제2 외부 전자 장치는 보청기를 포함할 수 있다.
본 문서에 개시되는 일 실시 예에 따르면, 전자 장치의 동작 방법은 제1 송신 모드로 제1 외부 전자 장치(예: 도 1의 전자 장치(102,104), 도 2의 상대 장치(220), 도 3의 상대 장치(320), 도 5의 상대 장치(502))와 통화 채널을 제공하고 제2 외부 전자 장치(예: 도 2의 오디오 장치(220), 도 3의 오디오 장치(320))와 통신 채널을 제공하는 단계와; 상기 전자 장치와 상기 제1 외부 전자 장치 간의 통화 연결이 유지되는 동안, 상기 제2 외부 전자 장치를 착용한 사용자의 발화 여부를 확인하단계와, 상기 통화 연결이 유지되는 동안, 상기 제1 외부 전자 장치에 전송할 상기 사용자의 음성 신호가 인식되지 않는 것을 기반으로, 상기 제1 송신 모드와 다른 제2 송신 모드로 동작하는 단계와; 상기 통화 연결이 유지되는 동안, 상기 제1 외부 전자 장치에 전송할 상기 사용자의 음성 신호가 인식되는 것을 기반으로, 상기 제1 송신 모드로 동작하는 단계를 포함할 수 있다.
일 실시 예에 따르면, 상기 전자 장치의 동작 방법은 상기 사용자의 음성 신호가 포함된 복수의 음성 프레임을 상기 제1 송신 모드로 상기 제1 외부 전자 장치에 전송하는 단계와; 상기 사용자의 음성 신호가 포함되지 않은 복수의 묵음 프레임을 상기 제2 송신 모드로 상기 제1 외부 전자 장치에 전송하는 단계를 더 포함할 수 있다.
일 실시 예에 따르면, 상기 복수의 음성 프레임을 제1 송신 전력의 RF 신호로 전송하며, 상기 복수의 묵음 프레임을 상기 제1 송신 전력보다 낮은 제2 송신 전력의 상기 RF 신호를 전송할 수 있다.
일 실시 예에 따르면, 상기 복수의 음성 프레임을 제1 피크 전류를 가지는 RF 신호로 전송하며, 상기 복수의 묵음 프레임을 상기 제1 피크 전류보다 낮은 제2 피크 전류의 상기 RF 신호를 전송할 수 있다.
일 실시 예에 따르면, 상기 전자 장치의 동작 방법은 상기 복수의 음성 프레임을 포함하는 음성 구간의 마지막 음성 프레임 이후, 상기 복수의 묵음 프레임이 연속되는 불연속 전송 구간의 연속 횟수를 모니터링하는 단계와; 상기 연속 횟수가 상기 제1 임계치 이상인 것을 기반으로, 상기 제1 송신 모드에서 상기 제2 송신 모드로 전환하는 단계와; 상기 불연속 전송 구간에 포함된 마지막 묵음 프레임 이후에, 전송되는 음성 프레임의 개수를 모니터링하는 단계와; 상기 음성 프레임의 개수가 상기 제2 임계치 이상인 것을 기반으로, 상기 제2 송신 모드에서 상기 제1 송신 모드로 원복하는 단계를 더 포함할 수 있다.
본 문서에 개시된 일 실시 예에 따르면, 상대 장치에 전송할 사용자의 음성이 없는 묵음 구간에, 전자 장치에서 방사되는 자계 노이즈(ABM2)를 감소시킬 수 있다. 사용자가 착용한 오디오 장치(예: 보청기)에 유도되는 자계 노이즈의 양이 줄어들어 사용자에게 최상의 오디오 신호를 제공할 수 있다.
본 문서에 개시된 일 실시 예에 따르면, 인쇄 회로 기판(PCB) 및 전원(예: GND) 배선이 스피커와 멀리 이격 되지 않아도 전자 장치에서 방사되는 자계 노이즈(ABM2)를 감소시킬 수 있다. 이에 따라, 인쇄 회로 기판 및 배선의 설계 자유도가 높아질 수 있다.
본 문서에 개시된 일 실시 예에 따르면, 상대 장치에 전송할 사용자의 음성이 있는 음성 구간에서 백 오프를 진행하지 않고, 묵음 구간에서 선택적으로 백 오프를 진행할 수 있다. 이에 따라, RF 신호의 성능적 열화를 방지 및/또는 감소시킬 수 있다.
본 문서에 개시된 일 실시 예에 따른 전자 장치는 다양한 형태의 전자 장치에 적용될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
다양한 실시 예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시 예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
본 개시는 다양한 예시적인 실시예들을 참조하여 설명되고 예시되었으나, 다양한 예시적인 실시예들은 제한이 아닌 예시적인 것으로 의도된 것으로 이해될 것이다. 첨부된 청구범위 및 그 균등물들을 포함하는 본 개시의 진정한 사상(true spirit) 및 전체 범위를 벗어나지 않고 형태 및 세부사항의 다양한 변경이 이루어질 수 있다는 것이 당업자에 의해 추가로 이해될 것이다. 본 명세서에서 설명된 임의의 실시예(들)은 본 명세서에서 설명된 임의의 다른 실시예(들)과 함께 사용될 수 있음이 또한 이해될 것이다.

Claims (15)

  1. 전자 장치에 있어서,
    마이크와;
    제1 외부 전자 장치와 통화 채널을 제공하는 제1 통신 회로와, 제2 외부 전자 장치와 통신 채널을 제공하는 제2 통신 회로를 포함하는 통신 모듈과;
    상기 통신 모듈과 전기적으로 연결된 프로세서를 포함하며,
    상기 프로세서는
    제1 송신 모드로 동작하는 상기 전자 장치와, 제1 외부 전자 장치가 상기 제1 통신 회로를 통해 통화 연결을 수립하고,
    상기 통화 연결이 유지되는 동안, 상기 제2 외부 전자 장치를 착용한 사용자의 발화 여부를 확인하고,
    상기 통화 연결이 유지되는 동안, 상기 제1 외부 전자 장치에 전송할 상기 사용자의 음성 신호가 인식되지 않는 것을 기반으로, 상기 제1 송신 모드와 다른 제2 송신 모드로 동작하고,
    상기 통화 연결이 유지되는 동안, 상기 제1 외부 전자 장치에 전송할 상기 사용자의 음성 신호가 인식되는 것을 기반으로, 상기 제1 송신 모드로 동작하도록 설정된 전자 장치.
  2. 제 1 항에 있어서,
    상기 프로세서는
    상기 사용자의 음성 신호가 포함된 복수의 음성 프레임과 사용자의 음성 신호가 포함되지 않은 복수의 묵음 프레임을 생성하도록 설정된 전자 장치.
  3. 제 2 항에 있어서,
    상기 복수의 묵음 프레임 중 적어도 어느 하나는 상기 프로세서에서 생성하도록 설정된 통신 잡음(comfort noise)을 포함하는 전자 장치.
  4. 제 2 항에 있어서,
    상기 통신 모듈은
    상기 복수의 음성 프레임을 상기 제1 송신 모드로 상기 제1 외부 전자 장치에 전송하며,
    상기 복수의 묵음 프레임을 상기 제2 송신 모드로 상기 제1 외부 전자 장치에 전송하도록 설정된 전자 장치.
  5. 제 2 항에 있어서,
    상기 통신 모듈은
    상기 복수의 음성 프레임 및 상기 묵음 프레임을 RF(radio frequency) 신호로 전송하도록 설정되며,
    상기 통신 모듈은 상기 제2 송신 모드로 동작하는 상기 전자 장치를 기반으로, 백 오프를 진행하여 상기 RF 신호의 송신 전력을 조절하도록 설정된 전자 장치.
  6. 제 2 항에 있어서,
    상기 통신 모듈은
    상기 복수의 음성 프레임 및 상기 묵음 프레임을 RF(radio frequency) 신호로 전송하도록 설정되며,
    상기 통신 모듈은
    상기 제1 송신 모드로 동작하는 상기 전자 장치를 기반으로, 제1 송신 전력으로 상기 RF 신호를 전송하며,
    상기 제2 송신 모드로 동작하는 상기 전자 장치를 기반으로, 상기 제1 송신 전력보다 낮은 제2 송신 전력으로 상기 RF 신호를 전송하도록 설정된 전자 장치.
  7. 제 6 항에 있어서,
    상기 통신 모듈은
    중전계 및 강전계보다 낮은 약전계 상태인 상기 제1 송신 전력보다 중전계 및 강전계 상태인 상기 제1 송신 전력을 기반으로, 상기 제2 송신 전력이 더 낮아지게 상기 제2 송신 전력을 조절하도록 설정된 전자 장치.
  8. 제 2 항에 있어서,
    상기 통신 모듈은
    상기 복수의 음성 프레임 및 상기 묵음 프레임을 RF(radio frequency) 신호로 전송하도록 설정되며,
    상기 통신 모듈은
    상기 제1 송신 모드로 동작하는 상기 전자 장치를 기반으로, 제1 피크 전류의 상기 RF 신호를 전송하며,
    상기 제2 송신 모드로 동작하는 상기 전자 장치를 기반으로, 상기 제1 피크 전류보다 낮은 제2 피크 전류의 상기 RF 신호를 전송하는 전자 장치.
  9. 제 2 항에 있어서,
    상기 프로세서는
    상기 복수의 음성 프레임을 포함하는 음성 구간의 마지막 음성 프레임 이후, 상기 복수의 묵음 프레임이 연속되는 불연속 전송 구간의 연속 횟수를 모니터링하고,
    제1 임계치 미만인 상기 연속 횟수를 기반으로, 상기 제1 송신 모드를 유지하며,
    상기 제1 임계치 이상인 상기 연속 횟수를 기반으로, 상기 제1 송신 모드에서 상기 제2 송신 모드로 전환하는 전자 장치.
  10. 제 9 항에 있어서,
    상기 프로세서는
    상기 불연속 전송 구간에 포함된 마지막 묵음 프레임 이후에, 전송되는 음성 프레임의 개수를 모니터링하고,
    제2 임계치 미만인 상기 음성 프레임의 개수를 기반으로, 상기 제2 송신 모드를 유지하고,
    상기 제2 임계치 이상인 상기 음성 프레임의 개수를 기반으로, 상기 제2 송신 모드에서 상기 제1 송신 모드로 원복하는 전자 장치.
  11. 제 2 항에 있어서,
    상기 프로세서는
    상기 복수의 음성 프레임을 포함하는 음성 구간의 마지막 음성 프레임 이후, 상기 복수의 묵음 프레임이 연속되는 불연속 전송 구간의 지속 기간을 모니터링하고,
    제1 임계 기간 미만인 상기 불연속 전송 구간의 지속 기간을 기반으로, 상기 제1 송신 모드를 유지하며,
    상기 제1 임계 기간 이상인 상기 불연속 전송 구간의 지속 기간을 기반으로, 상기 제1 송신 모드에서 상기 제2 송신 모드로 전환하도록 설정된 전자 장치.
  12. 제 11 항에 있어서,
    상기 프로세서는
    상기 불연속 전송 구간에 포함된 마지막 묵음 프레임 이후에, 상기 복수의 음성 프레임이 연속되는 음성 구간의 지속 기간을 모니터링하고,
    제2 임계 기간 미만인 상기 음성 구간의 지속 기간을 기반으로, 상기 제2 송신 모드를 유지하고,
    상기 제2 임계 기간 이상인 상기 음성 구간의 지속 기간을 기반으로, 상기 제2 송신 모드에서 상기 제1 송신 모드로 원복하도록 설정된 전자 장치.
  13. 제 1 항에 있어서,
    상기 프로세서는 VAD(voice activity detection) 방식을 이용하여, 상기 마이크를 통해 수신되는 상기 사용자의 음성 신호의 유무를 인식하도록 설정된 전자 장치.
  14. 제 1 항에 있어서,
    상기 제1 외부 전자 장치로부터 수신되는 묵음 신호를 부호화하며, 부호화된 묵음 신호를 에러 은닉(error concealment) 방식으로 복원하는 음성 디코더를 더 포함하는 전자 장치.
  15. 제 1 항에 있어서,
    상기 전자 장치는 보청기 호환성(Hearing Aids Compatibility, HAC) 모드를 지원하도록 설정되며,
    상기 제2 외부 전자 장치는 보청기를 포함하는 전자 장치.
PCT/KR2023/014757 2022-10-11 2023-09-26 전자 장치 및 그 동작 방법 WO2024080633A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/477,803 US20240121333A1 (en) 2022-10-11 2023-09-29 Electronic device and operating method thereof

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20220129475 2022-10-11
KR10-2022-0129475 2022-10-11
KR1020220156496A KR20240050215A (ko) 2022-10-11 2022-11-21 전자 장치 및 그 동작 방법
KR10-2022-0156496 2022-11-21

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/477,803 Continuation US20240121333A1 (en) 2022-10-11 2023-09-29 Electronic device and operating method thereof

Publications (1)

Publication Number Publication Date
WO2024080633A1 true WO2024080633A1 (ko) 2024-04-18

Family

ID=90669609

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/014757 WO2024080633A1 (ko) 2022-10-11 2023-09-26 전자 장치 및 그 동작 방법

Country Status (1)

Country Link
WO (1) WO2024080633A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090010506A (ko) * 2007-07-23 2009-01-30 삼성전자주식회사 이동통신 단말기 및 그의 통화 중 대기 수행 방법
KR20170060782A (ko) * 2015-11-25 2017-06-02 삼성전자주식회사 전자 장치 및 전자 장치의 통화 서비스 제공 방법
KR20170096445A (ko) * 2016-02-16 2017-08-24 삼성전자주식회사 전자 장치 및 전자 장치의 통화 방식 변환 방법
US20200312303A1 (en) * 2019-03-27 2020-10-01 Sonova Ag Hearing Device User Communicating With a Wireless Communication Device
KR20220118196A (ko) * 2021-02-18 2022-08-25 삼성전자주식회사 통화 기능의 제어 방법 및 이를 지원하는 전자 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090010506A (ko) * 2007-07-23 2009-01-30 삼성전자주식회사 이동통신 단말기 및 그의 통화 중 대기 수행 방법
KR20170060782A (ko) * 2015-11-25 2017-06-02 삼성전자주식회사 전자 장치 및 전자 장치의 통화 서비스 제공 방법
KR20170096445A (ko) * 2016-02-16 2017-08-24 삼성전자주식회사 전자 장치 및 전자 장치의 통화 방식 변환 방법
US20200312303A1 (en) * 2019-03-27 2020-10-01 Sonova Ag Hearing Device User Communicating With a Wireless Communication Device
KR20220118196A (ko) * 2021-02-18 2022-08-25 삼성전자주식회사 통화 기능의 제어 방법 및 이를 지원하는 전자 장치

Similar Documents

Publication Publication Date Title
WO2022055068A1 (ko) 음성에 포함된 커맨드를 확인하는 전자 장치와 이의 동작 방법
WO2022154546A1 (ko) 자동 음량 제어를 수행하는 웨어러블 장치
WO2022154363A1 (ko) 오디오 데이터를 처리하기 위한 오디오 장치 및 그의 동작 방법
WO2022030882A1 (ko) 오디오 데이터를 처리하는 전자 장치와 이의 동작 방법
WO2021221440A1 (ko) 음질 향상 방법 및 그 장치
WO2024080633A1 (ko) 전자 장치 및 그 동작 방법
WO2021201429A1 (ko) 전자 장치 및 그의 오디오 출력을 제어하는 방법
WO2022158787A1 (ko) 전자 장치 및 외부 오디오 장치와의 통신 링크를 전환하는 방법
WO2022231135A1 (ko) 오디오 신호를 출력하는 방법 및 이를 수행하는 전자 장치
WO2022158735A1 (ko) 오디오 데이터를 처리하는 전자 장치와 이의 동작 방법
WO2022025452A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2022154440A1 (ko) 오디오 데이터를 처리하는 전자 장치 및 그 동작 방법
WO2022119194A1 (ko) 전자 장치 및 이를 이용한 멀티 채널 오디오 출력 방법
WO2022005248A1 (ko) 주변 오디오 신호의 감지 방법 및 전자 장치
WO2022197151A1 (ko) 외부 소리를 듣기 위한 전자 장치 및 전자 장치의 동작 방법
WO2024106730A1 (ko) 전자 장치 및 상기 전자 장치를 이용하여 사운드 신호를 제어하는 방법
WO2023163427A1 (ko) 전자 장치의 음량 조절 방법 및 장치
WO2024076043A1 (ko) 진동 소리 신호를 생성하기 위한 전자 장치 및 방법
WO2024053931A1 (ko) 마이크를 전환하는 방법 및 전자 장치
WO2022146033A1 (ko) 전자 장치 및 전자 장치의 음성 입출력 제어 방법
WO2022158852A1 (ko) 소리 데이터에 기초하여 제어되는 전자 장치 및 소리 데이터에 기초하여 전자 장치를 제어하는 방법
WO2023085642A1 (ko) 동작 제어 방법 및 그 전자 장치
WO2022154321A1 (ko) 잡음 환경에 따라서 통신 연결을 전환하는 전자 장치 및 그 제어 방법
WO2024106830A1 (ko) 폰북 기반의 성문 운용 방법 및 이를 지원하는 전자 장치
WO2023090726A1 (ko) 오디오 스트리밍을 수행하는 전자 장치 및 그 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23877561

Country of ref document: EP

Kind code of ref document: A1