WO2022019458A1 - 전자장치 및 그 제어방법 - Google Patents

전자장치 및 그 제어방법 Download PDF

Info

Publication number
WO2022019458A1
WO2022019458A1 PCT/KR2021/006283 KR2021006283W WO2022019458A1 WO 2022019458 A1 WO2022019458 A1 WO 2022019458A1 KR 2021006283 W KR2021006283 W KR 2021006283W WO 2022019458 A1 WO2022019458 A1 WO 2022019458A1
Authority
WO
WIPO (PCT)
Prior art keywords
audio
information
electronic device
feedback
processor
Prior art date
Application number
PCT/KR2021/006283
Other languages
English (en)
French (fr)
Inventor
마규환
장기수
Original Assignee
삼성전자(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자(주) filed Critical 삼성전자(주)
Publication of WO2022019458A1 publication Critical patent/WO2022019458A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • H04N5/607Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals for more than one sound signal, e.g. stereo, multilanguages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/04Diagnosis, testing or measuring for television systems or their details for receivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/04Diagnosis, testing or measuring for television systems or their details for receivers
    • H04N17/045Self-contained testing apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/001Monitoring arrangements; Testing arrangements for loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/007Monitoring arrangements; Testing arrangements for public address systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N2017/006Diagnosis, testing or measuring for television systems or their details for television sound

Definitions

  • the present invention relates to an electronic device and a method for controlling the same, and more particularly, to an electronic device for performing output correction on an audio output unit based on a test signal and a feedback signal, and a method for controlling the same.
  • Speaker output calibration technology is widely used for high-quality audio.
  • output correction for the TV speaker may be performed by allowing an external measuring device to receive audio output from the TV speaker and measure the output of the TV speaker. With this speaker output calibration, the audio quality can be improved to the desired level.
  • the audio output through the TV speaker for self-output correction usually has analog characteristics that are vulnerable to noise, for example, if the audio received by the TV microphone is mixed with ambient noise, the analog characteristics are distorted due to the ambient noise, and the speaker The accuracy of output correction may be reduced.
  • the audio output unit audio receiver; and controlling the first audio and the second audio to be respectively output through the audio output unit based on a first test signal including analog information and a second test signal including digital information, and the first audio and the second audio
  • a first feedback signal and a second feedback signal respectively corresponding to audio are received through the audio receiver, and feedback corresponding to each of the analog information and the digital information included in the received first feedback signal and the second feedback signal
  • an electronic device including a processor that identifies information and performs output correction on the audio output unit.
  • the analog information may include information about at least one of an amplitude, a frequency, or a period of the first test signal.
  • the digital information may include binary data corresponding to the analog information.
  • the processor may control the first audio and the second audio to be output, respectively, based on the first test signal and the second test signal corresponding to the frequency band of the audio output unit.
  • the processor is configured to include: a plurality of first audio and a plurality of the audio output units through the plurality of audio output units based on the plurality of first test signals and the plurality of second test signals respectively corresponding to frequency bands of the plurality of audio output units It is possible to control so that the second audio is output respectively.
  • the processor may control the plurality of first audios and the plurality of second audios to be simultaneously output through the plurality of audio output units.
  • the processor may set the analog information and the digital information based on information about the surrounding environment.
  • the processor identifies whether or not feedback information corresponding to the digital information is normally included in the received second feedback signal when the feedback information corresponding to the analog information is not normally included in the received first feedback signal can do.
  • the processor may identify that feedback information corresponding to the analog information is not normally included.
  • a method comprising: outputting a first audio and a second audio through an audio output unit based on a first test signal including analog information and a second test signal including digital information; receiving a first feedback signal and a second feedback signal respectively corresponding to the first audio and the second audio; and performing output correction on the audio output unit by identifying feedback information corresponding to each of the analog information and the digital information included in the received first and second feedback signals. It can also be achieved by a control method.
  • the analog information may include information about at least one of an amplitude, a frequency, or a period of the first test signal.
  • the digital information may include binary data corresponding to the analog information.
  • the step of outputting the first audio and the second audio may include outputting the first audio and the second audio, respectively, based on the first test signal and the second test signal corresponding to the frequency band of the audio output unit. may include steps.
  • the plurality of audio output units may be configured based on the plurality of first test signals and the plurality of second test signals respectively corresponding to frequency bands of the plurality of audio output units. It may include outputting a plurality of the first audio and a plurality of the second audio respectively through the.
  • the outputting of the plurality of first audios and the plurality of second audios may include simultaneously outputting the plurality of first audios and the plurality of second audios through the plurality of audio output units.
  • the step of outputting the first audio and the second audio, respectively may include setting the analog information and the digital information based on information about the surrounding environment.
  • the step of performing the output correction if the feedback information corresponding to the analog information is not normally included in the received first feedback signal, the feedback information corresponding to the digital information is normally included in the received second feedback signal It may include the step of identifying whether or not.
  • the step of performing output correction may include: identifying that feedback information corresponding to the analog information is not normally included when the amplitude of the received first feedback signal is less than or equal to a first threshold or greater than or equal to a second threshold may include.
  • a method comprising: outputting a first audio and a second audio through an audio output unit based on a first test signal including analog information and a second test signal including digital information; receiving a first feedback signal and a second feedback signal respectively corresponding to the first audio and the second audio; and performing output correction on the audio output unit by identifying feedback information corresponding to each of the analog information and the digital information included in the received first and second feedback signals. It can also be achieved by a recording medium in which a computer readable program is recorded.
  • FIG 1 illustrates an electronic device according to an embodiment of the present invention.
  • FIG. 2 shows an example of the configuration of the electronic device of FIG. 1 .
  • FIG. 3 shows an example of a control method for the electronic device of FIG. 1 .
  • FIG. 4 shows an example of information included in a test signal in relation to operation S31 of FIG. 3 .
  • FIG. 5 shows an example of outputting a test signal according to a frequency band of an audio output unit in relation to operation S31 of FIG. 3 .
  • FIG. 6 illustrates an example of outputting a test signal when a plurality of audio output units are provided in relation to operation S31 of FIG. 3 .
  • FIG. 7 illustrates an example of setting information included in a test signal based on a surrounding environment in relation to operation S31 of FIG. 3 .
  • FIG. 8 illustrates an example of identifying feedback information corresponding to analog information in relation to operation S33 of FIG. 3 .
  • FIG. 9 shows another example of identifying feedback information corresponding to analog information in relation to FIG. 8 .
  • the electronic device 1 illustrates an electronic device according to an embodiment of the present invention.
  • the electronic device 1 includes not only an image display device such as a TV, a tablet, a portable media player, a wearable device, a video wall, an electronic picture frame, etc., but also an image processing device such as a set-top box without a display. , home appliances such as refrigerators and washing machines, and information processing devices such as computer main bodies.
  • the electronic device 1 may be implemented as an artificial intelligence (AI) speaker equipped with an artificial intelligence function, an AI robot, or the like.
  • AI artificial intelligence
  • the type of the electronic device 1 is not limited thereto.
  • the electronic device 1 is implemented as a TV.
  • the electronic device 1 may output audio through the audio output unit 2 .
  • the audio output unit 2 may output audio based on the audio signal.
  • the audio output unit 2 may be an internal audio output unit 2 provided in the electronic device 1 or an external audio output unit 2 provided outside the electronic device 1 .
  • the external audio output unit 2 may receive an audio signal from the electronic device 1 through wired or wireless communication, and may output audio together with or independently of the internal audio output unit 2 based on the audio signal.
  • the external audio output unit 2 may include not only a single speaker, but also various external sound devices having a speaker. However, hereinafter, for convenience of description, it is assumed that the internal audio output unit 2 is described.
  • the electronic device 1 may include an audio receiver 3 .
  • the electronic device 1 may receive an audio signal through the audio receiver 3 .
  • the audio receiver 3 may receive an audio signal for the audio previously output through the audio output unit 2 .
  • the audio receiver 3 may receive a voice signal for the user's utterance uttered by the user.
  • the audio receiver 3 may be an internal audio receiver 3 provided in the electronic device 1 or an external audio receiver 3 provided outside the electronic device 1 .
  • the external audio receiver 3 may be provided in a remote controller (hereinafter, referred to as a “remote control”) separated from the main body of the electronic device 1 , a smart phone, or the like.
  • the electronic device 1 may receive an audio signal, a voice signal, etc. received through an audio receiver such as a remote control or a smart phone.
  • the electronic device 1 may perform a voice recognition function.
  • the electronic device 1 obtains a voice signal for the user's utterance, performs voice recognition processing on the acquired voice signal, and performs an operation corresponding to the recognition result by the voice recognition processing can do.
  • the speech recognition process includes a speech-to-text (STT) process for converting a voice signal into text data, and a command identification and execution process for identifying a command indicated by the text data and performing an operation indicated by the identified command do.
  • STT speech-to-text
  • the STT processing process of the voice recognition process and the command identification and execution process may all be executed in the electronic device 1 .
  • at least one server communicatively connected to the electronic device 1 through a network. can be performed.
  • at least one server may perform an STT processing process, and the electronic device 1 may perform a command identification and execution process.
  • the at least one server may perform both the STT processing process and the command identification and execution process, and the electronic device 1 may only receive the result from the at least one server.
  • the electronic device 1 may perform self-output correction on the audio output unit 2 .
  • Self output correction means output correction for the audio output unit 2 using the audio receiver 3 . More specifically, the electronic device 1 outputs the first audio 6 based on the first test signal 4 through the audio output unit 2, and a first feedback signal ( 8) may be received through the audio receiver 3 .
  • the first test signal 4 includes analog information, and the electronic device 1 identifies whether the first feedback signal 8 includes feedback information corresponding to the analog information, and outputs audio according to the identification result. It is possible to perform output correction for the part (2). For example, if the feedback information corresponding to the analog information is not normally included in the first feedback signal 8, the electronic device 1 outputs to the audio output unit 2 so that the feedback information corresponding to the analog information is normally included. Calibration can be performed.
  • the electronic device 1 performs output correction for the audio output unit 2 through a simple comparison between the analog information included in the first test signal 4 and the feedback information included in the first feedback signal 8 . Since it can be performed, it is possible to achieve the efficiency of self-output correction in terms of design, time, cost, and the like. However, since analog information is sensitive to noise, when a noise signal is included in the first feedback signal 8, as a result of distortion of the feedback information by the noise, the comparison accuracy between the analog information and the feedback information may deteriorate, which It may lead to a decrease in the accuracy of the output correction for the output unit (2). Accordingly, the electronic device 1 may improve the accuracy of self-output calibration by performing self-output calibration using information of a different type than analog information, for example, digital information.
  • the electronic device 1 may output the second audio 7 based on the second test signal 2 and receive the second feedback signal 9 related to the second audio 7 .
  • the second test signal 2 includes digital information
  • the electronic device 1 identifies whether the second feedback signal 9 includes feedback information corresponding to the digital information, and outputs audio according to the identification result. It is possible to perform output correction for the part (2). For example, if the feedback information corresponding to the digital information is not normally included in the second feedback signal 9, the electronic device 1 controls the audio output unit 2 so that the feedback information corresponding to the digital information is normally included. Output calibration can be performed.
  • Digital information may mean binary data information.
  • Digital information is information composed of 1's and 0's corresponding to two voltages, and even if a noise signal is included in the second feedback signal 9, 1 and 0 are not changed unless the two voltages themselves are changed. Accordingly, digital information is less likely to be distorted by noise than analog information due to its immunity to noise.
  • the electronic device 1 can perform self-output correction based on the feedback information included in the first feedback signal 8 and the feedback information included in the second feedback signal 9, in terms of design, time, In addition to being efficient in terms of cost, etc., it is possible to perform more precise self-output correction.
  • FIG. 2 shows an example of the configuration of the electronic device of FIG. 1 .
  • the configuration of the electronic device 1 will be described in detail with reference to FIG. 2 .
  • the electronic device 1 may be implemented with various types of devices, and thus the present embodiment does not limit the configuration of the electronic device 1 .
  • the electronic device 1 is not implemented as a display device such as a TV.
  • the electronic device 1 may not include components for displaying an image, such as the display 24 .
  • the electronic device 1 may output an image signal to an external TV through the interface unit 21 .
  • the electronic device 1 includes an interface unit 21 .
  • the interface unit 21 may include a wired interface unit.
  • the wired interface unit includes a connector or port to which an antenna capable of receiving a broadcast signal according to a broadcasting standard such as terrestrial/satellite broadcasting is connected, or a cable capable of receiving a broadcast signal according to the cable broadcasting standard is connected.
  • the electronic device 1 may have a built-in antenna capable of receiving a broadcast signal.
  • the wired interface includes a connector or port according to video and/or audio transmission standards, such as HDMI port, DisplayPort, DVI port, Thunderbolt, Composite video, Component video, Super Video, SCART, etc. may include
  • the wired interface unit may include a connector or port according to a universal data transmission standard such as a USB port.
  • the wired interface unit may include a connector or a port to which an optical cable can be connected according to an optical transmission standard.
  • the wired interface unit may include an external audio receiver 3 or an external audio device having the audio receiver 3 connected thereto, and may include a connector or port capable of receiving or inputting an audio signal from the audio device.
  • the wired interface unit is connected to an audio device such as a headset, earphone, or external speaker, and may include a connector or port capable of transmitting or outputting an audio signal to the audio device.
  • the wired interface unit may include a connector or port according to a network transmission standard such as Ethernet.
  • the wired interface unit may be implemented as a LAN card connected to a router or a gateway by wire.
  • the wired interface unit is connected to an external device such as a set-top box, an optical media player, or an external display device, a speaker, a server, etc. in a 1:1 or 1:N (N is a natural number) method through the connector or port, so that the corresponding It receives a video/audio signal from an external device or transmits a video/audio signal to the corresponding external device.
  • the wired interface unit may include a connector or a port for separately transmitting video/audio signals.
  • the wired interface unit is embedded in the electronic device 1 according to the present embodiment, it may be implemented in the form of a dongle or a module and detachable from the connector of the electronic device 1 .
  • the interface unit 21 may include a wireless interface unit.
  • the wireless interface unit may be implemented in various ways corresponding to the implementation form of the electronic device 1 .
  • the wireless interface unit performs wireless communication such as RF (Radio Frequency), Zigbee, Bluetooth, Wi-Fi, UWB (Ultra-Wideband) and NFC (Near Field Communication) as a communication method.
  • the wireless interface unit may be implemented as a wireless communication module that performs wireless communication with an AP according to a Wi-Fi method, or a wireless communication module that performs one-to-one direct wireless communication such as Bluetooth.
  • the wireless interface unit may transmit/receive data packets to and from at least one server by wirelessly communicating with a server on a network.
  • the wireless interface unit may include an IR transmitter and/or an IR receiver capable of transmitting and/or receiving an IR (Infrared) signal according to an infrared communication standard.
  • the wireless interface unit may receive or input a remote control signal from the remote control or other external device through the IR transmitter and/or the IR receiver, or transmit or output a remote control signal to the remote control or other external device.
  • the electronic device 1 may transmit/receive a remote control signal to and from a remote control or other external device through a wireless interface unit of another method such as Wi-Fi or Bluetooth.
  • the electronic device 1 may further include a tuner for tuning the received broadcast signal for each channel.
  • the electronic device 1 may include a communication unit 22 .
  • the communication unit 22 may be implemented as at least one communication unit.
  • the communication unit 22 may include a first communication unit that communicates with at least one server and a second communication unit that is connected to external devices other than the server to transmit video/audio signals.
  • the communication unit 22 includes at least one of a wired interface unit and a wireless interface according to a design method, and may perform at least one function of the wired interface unit and the wireless interface.
  • the electronic device 1 includes a user input unit 23 .
  • the user input unit 23 includes various types of input interface related circuits provided to allow a user to manipulate the user in order to perform a user's input.
  • the user input unit 23 may be configured in various forms depending on the type of the electronic device 1 , for example, a mechanical or electronic button unit of the electronic device 1 , a touch pad, or a touch screen installed on the display 24 . etc.
  • the electronic device 1 includes a display 24 .
  • the display 24 includes a display panel capable of displaying an image on the screen.
  • the display panel is provided with a light-receiving structure such as a liquid crystal type or a self-luminous structure such as an OLED type.
  • the display 24 may further include additional components according to the structure of the display panel.
  • the display panel is a liquid crystal type
  • the display 24 includes a liquid crystal display panel, a backlight unit for supplying light, and , and a panel driving substrate for driving the liquid crystal of the liquid crystal display panel.
  • the display 24 may be omitted when the electronic device 1 is implemented as a set-top box or the like.
  • the electronic device 1 includes a sensor unit 25 .
  • the sensor unit 25 may sense the front of the electronic device 1 to detect, for example, the presence, movement, etc. of a user or other electronic device.
  • the sensor unit may be implemented as an image sensor, capture the front of the electronic device 10, and may acquire information about the presence, movement, etc. of the user or other electronic device from the captured image.
  • the image sensor may be implemented as a complementary metal oxide semiconductor (CMOS) or a charge coupled device (CCD) type camera.
  • CMOS complementary metal oxide semiconductor
  • CCD charge coupled device
  • the sensor unit 25 may be implemented as an infrared sensor, and may acquire information about the presence, movement, etc. of a user or other electronic device by measuring a time at which an infrared signal outputted to the front is reflected and returned.
  • the electronic device 1 includes an audio output unit 2 .
  • the audio output unit 2 may output various audio based on the audio signal.
  • the audio output unit 2 may be implemented with at least one speaker.
  • the audio output unit 2 may be implemented as an internal speaker provided in the electronic device 1 or an external speaker provided outside. When the audio output unit 2 is implemented as an external speaker, the electronic device 1 may transmit an audio signal to the external speaker by wire or wirelessly.
  • the electronic device 1 includes an audio receiver 3 .
  • the audio receiver 3 may receive various audio signals. For example, an audio signal for audio output from the audio output unit 2 may be received, or a voice signal for a user utterance uttered by the user may be received. Also, it is possible to receive a noise signal for noise generated in the vicinity of the electronic device 1 .
  • the audio receiver 3 transmits the collected audio signal to the processor 27 .
  • the audio receiver 3 may be implemented as an internal microphone provided in the electronic device 1 or an external microphone provided in a remote control unit separated from the main body, a smartphone, or the like. When the audio receiving unit 3 is implemented as an external microphone, the audio signal received through the external microphone may be digitized and received through the interface unit 21 from a remote control, a smart phone, or the like.
  • a remote control application may be installed on a smartphone or the like.
  • a smartphone or the like may control a function of a remote control, for example, the electronic device 1 through an installed application, or may perform audio processing on an audio signal received through an external microphone provided on a smartphone or the like.
  • These remote control applications can be installed in various external devices such as AI speakers and AI robots.
  • the user input unit 23 , the display 24 , the sensor unit 25 , the audio output unit 2 , the audio receiving unit 3 and the like have been described as separate components from the interface unit 21 , but depending on the design method It may be configured to be included in the interface unit 21 .
  • the electronic device 1 includes a storage unit 26 .
  • the storage unit 26 stores digitized data.
  • the storage unit 26 is a non-volatile property that can preserve data regardless of whether or not power is provided, and data to be processed by the processor 27 is loaded, and data is stored when power is not provided. It includes memory with volatile properties that cannot be done. Storage includes Flash-Memory, Hard-Disc Drive (HDD), Solid-State Drive (SSD), and Read Only Memory (ROM). ), etc.
  • the voice assistant is implemented as software such as an application, the storage unit 26 may include the voice assistant.
  • the electronic device 1 includes a processor 27 .
  • the processor 27 includes one or more hardware processors implemented with a CPU, a chipset, a buffer, a circuit, etc. mounted on a printed circuit board, and may be implemented as a system on chip (SOC) depending on a design method.
  • SOC system on chip
  • the processor 27 includes modules corresponding to various processes such as a demultiplexer, a decoder, a scaler, an audio digital signal processor (DSP), and an amplifier.
  • DSP audio digital signal processor
  • some or all of these modules may be implemented as SOC.
  • a module related to image processing such as a demultiplexer, decoder, and scaler may be implemented as an image processing SOC
  • an audio DSP may be implemented as a chipset separate from the SOC.
  • the processor 27 generates the first audio 6 and The second audio 7 is outputted, respectively, and the first feedback signal 8 and the second feedback signal 9 respectively corresponding to the first audio 6 and the second audio 7 are outputted through the audio receiver 3 .
  • the processor 27 identifies the feedback information corresponding to each of the analog information and the digital information included in the received first feedback signal 8 and the second feedback signal 9, and performs output correction for the audio output unit 2 can be done
  • the processor 27 may perform at least one of the above-described operations while communicating with the server through the communication unit 22 . That is, the processor 27 performs the above-described output operation of the first audio 6 and the second audio 7 , the reception operation of the first feedback signal 8 and the second feedback signal 9 , analog information and digital information At least one of an operation of identifying feedback information corresponding to each and an operation of correcting an output of the audio output unit 2 is performed, and the server may perform the remaining operations.
  • the configuration of the electronic device 1 is not limited to that shown in FIG. 2 , some of the aforementioned configurations may be excluded or other configurations may be included depending on a design method.
  • the processor 27 of the electronic device 1 performs at least a part of data analysis, processing, and result information generation for the above-described output operation, reception operation, identification operation and output correction operation as a rule-based or artificial intelligence algorithm. This may be performed using at least one of learning, a neural network, or a deep learning algorithm.
  • the processor 27 may perform the functions of the learning unit and the recognition unit together.
  • the learning unit may perform a function of generating a learned neural network
  • the recognition unit may perform a function of recognizing (or inferring, predicting, estimating, determining) data using the learned neural network.
  • the learning unit may create or update the neural network.
  • the learning unit may acquire learning data to generate a neural network.
  • the learning unit may acquire the learning data from the storage unit 26 or the server storage unit, or may obtain it from the outside.
  • the learning data may be data used for learning of the neural network, and the neural network may be trained by using the data obtained by performing the above-described operation as learning data.
  • the learning unit may perform a preprocessing operation on the acquired training data before training the neural network using the training data, or may select data to be used for learning from among a plurality of training data. For example, the learning unit may process the learning data in a preset format, filter it, or add/remove noise to process the learning data into a form suitable for learning. The learner may generate a neural network set to perform the above-described operation by using the preprocessed learning data.
  • the learned neural network network may be composed of a plurality of neural network networks (or layers). Nodes of the plurality of neural networks have weights, and the plurality of neural networks may be connected to each other so that an output value of one neural network is used as an input value of another neural network.
  • Examples of neural networks include Convolutional Neural Network (CNN), Deep Neural Network (DNN), Recurrent Neural Network (RNN), Restricted Boltzmann Machine (RBM), Deep Belief Network (DBN), Bidirectional Recurrent Deep Neural Network (BRDNN) and It can include models such as Deep Q-Networks.
  • the recognizer may acquire target data to perform the above-described operation.
  • the target data may be obtained from the storage unit 26 or the server storage unit, or may be obtained from the outside.
  • the target data may be data to be recognized by the neural network.
  • the recognizer may perform preprocessing on the acquired target data before applying the target data to the learned neural network, or select data to be used for recognition from among a plurality of target data.
  • the recognition unit may process the target data into a preset format, filter, or add/remove noise to process the target data into a form suitable for recognition.
  • the recognizer may obtain an output value output from the neural network by applying the preprocessed target data to the neural network.
  • the recognition unit may obtain a probability value or a reliability value together with the output value.
  • FIG. 3 shows an example of a control method for the electronic device of FIG. 1 .
  • Each operation of FIG. 3 may be executed by the processor 27 of the electronic device 1 .
  • the processor 27 generates a second test signal through the audio output unit 2 based on the first test signal 4 including analog information and the second test signal 5 including digital information.
  • the first audio 6 and the second audio 7 may be output, respectively (S31).
  • the processor 27 may receive the first feedback signal 8 and the second feedback signal 9 respectively corresponding to the first audio 6 and the second audio 7 through the audio receiver 3 ( S32).
  • the processor 27 identifies the feedback information corresponding to each of the analog information and the digital information included in the received first feedback signal 8 and the second feedback signal 9, and performs output correction for the audio output unit 2 can be performed (S33).
  • the processor 27 can perform self-output correction for the audio output unit 2 based on the feedback information corresponding to each of the analog information and the digital information, so that the self-output is efficient in design, time, cost, etc. Not only can calibration be performed, but also accurate self-output calibration can be performed.
  • FIG. 4 shows an example of information included in a test signal in relation to operation S31 of FIG. 3 .
  • the processor 27 of the electronic device 1 may perform self-output correction on the audio output unit 2 using analog information and digital information.
  • a process of setting analog information and digital information and performing self-output correction using the set analog information and digital information will be described in detail.
  • the processor 27 may set analog information for self-output correction.
  • the analog information may include information about at least one of an amplitude, a sound pressure, a frequency, a frequency band, or a period. However, hereinafter, for convenience of explanation, it is assumed that analog information is information about amplitude and frequency.
  • the processor 27 may prepare the first test signal 4 based on the set amplitude and frequency. For example, as shown in FIG. 4 , the processor 27 may prepare the first test signal 4 based on different amplitudes and frequencies, such as the first analog information 41 or the second analog information 42 . can However, this is for convenience of explanation, and various types of the first test signal 4 may be provided according to a design method.
  • the first test signal 4 may include a beep signal, a tone signal, etc. prepared based on a predetermined amplitude and frequency.
  • the processor 27 may output the first audio 6 through the audio output unit 2 based on the first test signal 4 prepared as described above.
  • the processor 27 may receive the first feedback signal 8 corresponding to the first audio 6 through the audio receiver 3 , and identify the amplitude and frequency of the received first feedback signal 8 . .
  • the processor 27 may identify whether the amplitude and frequency of the first feedback signal 8 correspond to the amplitude and frequency of the first test signal 4 . For example, the processor 27 may identify in which frequency band the amplitude loss occurred and to what extent. As a result of the identification, if the amplitude and frequency of the first feedback signal 8 are not normally included, the processor 27 determines that the amplitude and frequency of the first feedback signal 8 correspond to the amplitude and frequency of the first test signal 4 . Correspondingly, it is possible to perform self-output correction on the audio output unit 2 .
  • the processor 27 may set digital information for self-output correction.
  • Digital information may mean binary data information converted based on analog information.
  • the binary data information may include information in which amplitudes and frequencies are expressed as 1's and 0's representing two different voltages.
  • the binary data information may correspond to the analog information of the first test signal 4 above, but is not limited thereto, and thus the digital information may include any binary data information.
  • it is assumed that binary data information of digital information is prepared corresponding to analog information. For example, when analog information is as shown in FIG.
  • the first digital information 43 may be expressed as “001000010” based on the first analog information 41
  • the second digital information 44 may be 2 It can be expressed as “01110111” based on the analog information 42 .
  • conversion may be performed differently from that shown in FIG. 4 .
  • the processor 27 may perform modulation based on digital information. Modulation may refer to a process of loading digital information into the second test signal 5 .
  • the processor 27 may utilize frequency modulation for changing a frequency according to digital information under a constant amplitude, amplitude modulation for changing an amplitude according to digital information, and the like.
  • the processor 27 may apply various modulation schemes to digital information.
  • the processor 27 outputs the second audio 7 through the audio output unit 2 based on the second test signal 5 prepared through modulation on the digital information,
  • the second feedback signal 9 may be received through the audio receiver 3 .
  • the processor 27 may demodulate the received second feedback signal 9 .
  • Demodulation is a demodulation method corresponding to the modulation method for the second test signal 5 , and may refer to a process of acquiring digital information from the second feedback signal 9 .
  • the processor 27 may identify whether the digital information obtained from the second feedback signal 9 corresponds to the digital information carried in the second test signal 5 through demodulation. For example, the processor 27 may identify the amplitude loss in which frequency band and to what extent through the comparison between binary data information. As a result of the identification, if the digital information of the second feedback signal 9 is not normally included, the processor 27 controls the audio so that the digital information of the second feedback signal 9 corresponds to the digital information of the second test signal 5 . It is possible to perform self-output correction for the output unit 2 .
  • the processor 27 can utilize analog information, it is possible to efficiently perform self-output correction in terms of design, time, cost, and the like.
  • the processor 27 can utilize digital information, it is possible to perform self-output correction with high accuracy.
  • FIG. 5 shows an example of outputting a test signal according to a frequency band of an audio output unit in relation to operation S31 of FIG. 3 .
  • the output performance 51 of the audio output unit 2 may include at least one of an output amplitude w1, an output sound pressure, an output frequency, an output frequency band b1, or an output period.
  • an output amplitude w1 an output sound pressure
  • an output frequency an output frequency band b1
  • an output period a case of self-correcting the output in consideration of the output amplitude w1 and the output frequency band b1 of the audio output unit 2 will be described.
  • the processor 27 may identify the output amplitude w1 and the output frequency band b1 of the audio output unit 2 .
  • the processor 27 may set the amplitude w2 and the frequency band b2 of the first test signal 4 to correspond to the identified output amplitude w1 and the output frequency band b1.
  • the processor 27 may set the amplitude w2 and the frequency band b2 to be within the output amplitude w1 and the output frequency band b1.
  • the processor 27 may provide the first test signal 4 based on the set amplitude w2 and the frequency band b2 .
  • the processor 27 may perform filtering on the first test signal 4 based on the set amplitude w2 and the frequency band b2 .
  • the processor 27 may utilize a notch filter or a bypass filter for signal filtering, but is not limited thereto, and thus may utilize various filtering configurations for signal filtering.
  • the processor 27 may output the first audio 6 based on the filtered first test signal 4 and receive the first feedback signal 8 corresponding to the first audio 6 .
  • the processor 27 may identify whether the amplitude and frequency band of the received first feedback signal 8 correspond to the amplitude w2 and the frequency band b2 of the first test signal 4 . If the amplitude and frequency band of the first feedback signal 8 do not correspond to the amplitude w2 and frequency band b2 of the first test signal 4, the processor 27 sends the first feedback signal 8
  • the self-output correction of the audio output unit 2 may be performed such that the amplitude and frequency band of the first test signal 4 correspond to the amplitude w2 and the frequency band b2 of the first test signal 4 .
  • the processor 27 may set a specific frequency within the output frequency band b1 of the audio output unit 2 .
  • the processor 27 may filter the first test signal 4 based on the set amplitude w2 and the specific frequency.
  • the number of specific frequencies may be variously provided according to a design method.
  • the processor 27 outputs the first audio 6 based on the filtered first test signal 4, and the amplitude and the specific frequency of the first feedback signal 8 corresponding to the first audio 6 are first 1 Depending on the amplitude w2 of the test signal 4 and whether it corresponds to a specific frequency, self-output correction for the audio output unit 2 may be performed.
  • analog information is set in consideration of the output performance 51 of the audio output unit 2 and the self-output correction process based on the set analog information has been described.
  • the processor 27 may set the digital information in consideration of the output performance 51 of the audio output unit 2 .
  • the processor 27 may set the binary data information of the digital information to indicate the amplitude and frequency band within the output amplitude w1 and the output frequency band b1 of the audio output unit 2 .
  • the processor 27 may filter the second test signal 5 based on the set digital information, and output the second audio 7 based on the filtered second test signal 5 .
  • the processor 27 identifies the digital information of the second feedback signal 8 corresponding to the second audio 7 , and between the digital information of the second test signal 5 and the digital information of the second feedback signal 8 . Correspondence may be identified, and self-output correction may be performed on the audio output unit 2 according to the identification result.
  • the processor 27 can perform self-output correction in consideration of the output performance 51 of the audio output unit 2 , it is possible to perform self-output correction optimized for the audio output unit 2 , which Through this, the accuracy of self-output calibration can be improved.
  • FIG. 6 illustrates an example of outputting a test signal when a plurality of audio output units are provided in relation to operation S31 of FIG. 3 .
  • the processor 27 may perform self-output correction in consideration of the output performance 51 of the audio output unit 2 .
  • FIG. 6 when a plurality of audio output units 2 are provided, a process in which the processor 27 performs self-output correction in consideration of the output performance of each audio output unit 2 will be described in detail. .
  • the audio output unit 2 includes a first audio output unit 61 and a second audio output unit 62 . Since this is for convenience of description, the audio output unit 2 may be provided in various numbers according to a design method.
  • the processor 27 may identify the first output capability 63 of the first audio output unit 61 and the second output capability 64 of the second audio output unit 62 .
  • Each of the first output capability 63 and the second output capability 64 is the output amplitude, output sound pressure, output frequency, output frequency band or output of each of the first audio output unit 61 and the second audio output unit 62 . It may include at least one of the cycles. However, hereinafter, for convenience of description, it is assumed that the output amplitude and output frequency band of each of the audio output units 61 and 62 are considered.
  • the processor 27 sets the amplitude and frequency band of the first sub test signal 65 to correspond to the amplitude and frequency band of the first audio output unit 61 , and outputs based on the first sub test signal 65 . It is possible to identify the amplitude and frequency band of the first sub-feedback signal corresponding to the first sub-audio.
  • the processor 27 may perform self-output correction on the first audio output unit 61 according to the identification result.
  • the processor 27 sets the amplitude and frequency band of the second sub test signal 66 to correspond to the amplitude and frequency band of the second audio output unit 62 , and based on the second sub test signal 66 , to identify the amplitude and frequency band of the second sub-feedback signal corresponding to the output second sub-audio.
  • the processor 27 may perform self-output correction on the second audio output unit 62 according to the identification result.
  • the processor 27 outputs the first sub-audio output based on the first sub-test signal 65 and the second sub-audio output based on the second sub test signal 66 simultaneously or sequentially.
  • the first audio output unit 61 and the second audio output unit 62 may be controlled. That is, the processor 27 may simultaneously or sequentially perform self-output correction for the first audio output unit 61 and the second audio output unit 62 . Whether to proceed simultaneously or sequentially may be determined automatically or according to a user input input through the user input unit 23 .
  • the processor 27 sets the digital information in consideration of the first output performance 63 of the first audio output unit 61 and the second output performance 64 of the second audio output unit 62, and Each of the second test signals 5 may be provided based on the digital information.
  • the processor 27 may respectively output the second audio 7 based on each of the second test signals 5 .
  • the first audio output unit 61 and the second audio output unit 62 may be controlled to output each of the second audio 7 simultaneously or sequentially.
  • the processor 27 may simultaneously or sequentially perform self-output correction for the first audio output unit 61 and the second audio output unit 62 . Whether to proceed simultaneously or sequentially may be determined automatically or according to a user input input through the user input unit 23 .
  • the processor 27 may perform self-output correction optimized for each of the audio output units 2 , and through this, each of the audio output units 2 may be self-corrected. It can improve the accuracy of output calibration.
  • FIG. 7 illustrates an example of setting information included in a test signal based on a surrounding environment in relation to operation S31 of FIG. 3 .
  • the processor 27 sets analog information based on information about the surrounding environment will be described with reference to FIG. 7 .
  • the processor 27 may receive an ambient audio signal 71 for ambient audio through the audio receiver 3 .
  • the processor 27 may acquire information about the ambient audio signal 71 from the ambient audio signal 71 .
  • the information about the surrounding audio signal 71 may include at least one of analog information and digital information.
  • the information on the peripheral audio signal 71 is frequency band information of the peripheral audio signal 71 .
  • the processor 27 may obtain frequency band information of the peripheral audio signal 71 and set the frequency band of the first test signal 4 .
  • the processor 27 may adjust the frequency band of the first test signal 4 so that the frequency band of the first test signal 4 does not overlap with the frequency band of the peripheral audio signal 71 .
  • the processor 27 outputs the first audio 6 based on the first test signal 4 of the adjusted frequency band, and the frequency band of the first feedback signal 8 corresponding to the first audio 6 can be identified.
  • the processor 27 may perform output correction on the audio output unit 2 based on the comparison result between the two frequency bands.
  • the processor 27 may adjust the digital information based on the frequency band information of the surrounding audio signal 71 .
  • the processor 27 may adjust the binary data information of the digital information so that the frequency band of the second test signal 5 does not overlap the frequency band of the surrounding audio signal 71 .
  • the processor 27 may prepare a second test signal 5 based on the adjusted digital information, and may output a second audio 7 based on the second test signal 5 .
  • the processor 27 may perform output correction for the audio output unit 2 based on whether the digital information adjusted prior to the second feedback signal 9 corresponding to the second audio 7 is normally included. have.
  • the processor 27 can set analog information and digital information based on the surrounding environment information, it is possible to prepare so that the accuracy of self-output correction is not reduced by the surrounding environment information.
  • the processor 27 may output the first audio 6 based on the first test signal 4 and receive the first feedback signal 8 corresponding thereto.
  • the processor 27 may identify that the feedback information included in the first feedback signal 8 does not correspond to the analog information due to distortion due to noise.
  • the processor 27 When the processor 27 identifies that the feedback information included in the first feedback signal 8 does not correspond to the analog information, that is, when it identifies that the feedback information is not normally included in the first feedback signal 8, It can be identified whether the feedback information included in the second feedback signal 9 corresponds to digital information. If the second feedback signal 9 has been previously received, the processor 27 may identify whether the feedback information included in the previously received second feedback signal 9 corresponds to the digital information, and the second feedback signal If (9) is not received in advance, the processor 27 causes the second audio 7 based on the second test signal 5 including digital information to be output, so as to correspond to the second test signal 5 The second feedback signal 9 may be received, and it may be identified whether the feedback information included in the received second feedback signal 9 corresponds to digital information.
  • the processor 27 performs preferential identification on the feedback information corresponding to the analog information and performs identification on the feedback information corresponding to the digital information, so that the self-output correction efficiency for the audio output unit 2 is performed. can improve
  • FIG. 9 shows another example of identifying feedback information corresponding to analog information in relation to FIG. 8 .
  • a case of discriminating whether or not feedback information corresponding to analog information is normally included in the first feedback signal 8 will be described in detail with reference to FIG. 9 .
  • the processor 27 may compare the amplitude value and frequency value of the first test signal 4 with the amplitude value and frequency value of the first feedback signal 8 . Taking the case of comparing amplitude values as an example, the processor 27 may identify whether the amplitude value of the first feedback signal 8 corresponds to the amplitude value of the first test signal 4 . The processor 27 determines the amplitude value of the first feedback signal 8 not only when the amplitude value of the first feedback signal 8 and the amplitude value of the first test signal 4 are the same, but also when the amplitude value of the first feedback signal 8 is equal to that shown in FIG.
  • the amplitude value of the first feedback signal 8 is the first test signal It can be identified as corresponding to the amplitude value of (4).
  • the processor 27 responds to the first feedback signal 8 including the first amplitude value 91 or the second feedback signal 8 including the second amplitude value 92, the first test signal It can be identified as not corresponding to the amplitude value of (4).
  • the processor 27 can more precisely identify whether or not feedback information corresponding to the analog information is included, the accuracy of self-output correction for the audio output unit 2 can be improved.
  • Various embodiments disclosed in this document may be implemented as software including one or more instructions stored in a storage medium readable by a machine such as the electronic device 1 .
  • the processor 27 of the electronic device 1 may call at least one of the one or more instructions stored from the storage medium and execute it. This enables a device such as the electronic device 1 to be operated to perform at least one function in accordance with the called at least one command.
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • the 'non-transitory storage medium' is a tangible device and only means that it does not contain a signal (eg, electromagnetic wave), and this term refers to a case in which data is semi-permanently stored in a storage medium and a case in which data is temporarily stored. case is not distinguished.
  • the 'non-transitory storage medium' may include a buffer in which data is temporarily stored.
  • a computer program product may include instructions of software executed by a processor, as mentioned above.
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg, CD-ROM), or via an application store (eg, Play StoreTM) or between two user devices (eg, smartphones). It may be distributed directly, online (eg, downloaded or uploaded).
  • At least a portion of the computer program product (eg, a downloadable app) is stored at least on a machine-readable storage medium, such as a memory of a manufacturer's server, a server of an application store, or a relay server. It may be temporarily stored or temporarily created.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Otolaryngology (AREA)
  • Biomedical Technology (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

본 발명은 아날로그정보를 포함하는 제1테스트신호 및 디지털정보를 포함하는 제2테스트신호에 기초하여 스피커를 통해 제1오디오 및 제2오디오를 각각 출력하고, 제1오디오 및 제2오디오에 각각 대응하는 제1피드백신호 및 제2피드백신호를 마이크를 통해 수신하고, 수신된 제1피드백신호 및 제2피드백신호에 포함된 아날로그정보 및 디지털정보 각각에 대응하는 피드백정보를 식별하여, 스피커에 대한 출력 보정을 수행하는 전자장치에 관한 발명이다.

Description

전자장치 및 그 제어방법
본 발명은 전자장치 및 그 제어방법에 관한 것으로서, 상세하게는, 테스트신호 및 피드백신호에 기초하여 오디오 출력부에 대하여 출력 보정을 수행하는 전자장치 및 그 제어방법에 관한 것이다.
고품질 오디오를 위해 스피커 출력 보정 기술이 널리 활용되고 있다. TV 스피커의 경우, 외부 측정장치로 하여금 TV 스피커로부터 출력되는 오디오를 수신하여 TV 스피커의 출력을 측정하도록 함으로써, TV 스피커에 대한 출력 보정을 수행할 수 있다. 이러한 스피커 출력 보정을 통해 오디오 품질이 원하는 수준까지 향상될 수 있다.
다만 TV의 스피커 개수가 점점 증가함에 따라 외부 측정장치의 규모, 개수 등도 증가하게 되어, 스피커 출력 보정을 위한 설계상, 비용상 등의 부담이 증가하고 있다. 이러한 문제점을 해결하고자 TV 자체에 마련된 마이크를 활용하여 스피커 출력을 보정하는, 소위, 자가 출력 보정이 시도되고 있다. 즉, TV 스피커를 통해 출력되는 오디오를 TV 마이크로 수신하고, TV 마이크로 수신된 오디오에 기초하여 TV 스피커에 대한 출력 보정을 수행함으로써, 외부 측정장치를 활용하는 경우 대비 설계상, 시간상, 비용상 등의 효율성을 향상시킬 수 있다.
그러나 자가 출력 보정을 위해 TV 스피커를 통해 출력되는 오디오는 통상적으로 노이즈에 취약한 아날로그특성을 가지므로, 예컨대, TV 마이크로 수신되는 오디오에 주변 노이즈가 섞여 있다면, 주변 노이즈로 인해 아날로그특성이 왜곡되어, 스피커에 대한 출력 보정의 정확도가 저하될 수 있다.
따라서, 스피커 출력 보정을 수행함에 있어서, 설계상, 시간상, 비용상 등의 효율성뿐만 아니라, 정확도까지 향상시킬 수 있는 방안이 절실하게 요구되고 있다.
본 발명의 목적은, 스피커 출력 보정을 효율적으로 수행하는 한편, 스피커 출력 보정을 정확하게 수행하는 전자장치 및 그 제어방법을 제공하는 것이다.
상기한 본 발명의 목적은, 오디오 출력부; 오디오 수신부; 및 아날로그정보를 포함하는 제1테스트신호 및 디지털정보를 포함하는 제2테스트신호에 기초하여 상기 오디오 출력부를 통해 제1오디오 및 제2오디오가 각각 출력되도록 제어하고, 상기 제1오디오 및 상기 제2오디오에 각각 대응하는 제1피드백신호 및 제2피드백신호를 상기 오디오 수신부를 통해 수신하고, 상기 수신된 제1피드백신호 및 제2피드백신호에 포함된 상기 아날로그정보 및 상기 디지털정보 각각에 대응되는 피드백정보를 식별하여 상기 오디오 출력부에 대한 출력 보정을 수행하는 프로세서를 포함하는 전자장치에 의해 달성될 수 있다.
아날로그정보는 상기 제1테스트신호의 진폭, 주파수 또는 주기 중 적어도 하나에 관한 정보를 포함할 수 있다.
디지털정보는 상기 아날로그정보에 대응하는 이진 데이터를 포함할 수 있다.
프로세서는, 상기 오디오 출력부의 주파수 대역에 대응하는 상기 제1테스트신호 및 상기 제2테스트신호에 기초하여 상기 제1오디오 및 상기 제2오디오가 각각 출력되도록 제어할 수 있다.
프로세서는, 복수의 상기 오디오 출력부의 주파수 대역에 각각 대응하는 복수의 상기 제1테스트신호 및 복수의 상기 제2테스트신호에 기초하여 상기 복수의 오디오 출력부를 통해 복수의 상기 제1오디오 및 복수의 상기 제2오디오가 각각 출력되도록 제어할 수 있다.
프로세서는, 상기 복수의 제1오디오 및 상기 복수의 제2오디오가 상기 복수의 오디오 출력부를 통해 동시에 출력되도록 제어할 수 있다.
프로세서는, 주변 환경에 관한 정보에 기초하여 상기 아날로그정보 및 상기 디지털정보를 설정할 수 있다.
프로세서는, 상기 수신된 제1피드백신호에 상기 아날로그정보에 대응하는 피드백정보가 정상적으로 포함되어 있지 않으면, 상기 수신된 제2피드백신호에 상기 디지털정보에 대응하는 피드백정보가 정상적으로 포함되어 있는지 여부를 식별할 수 있다.
프로세서는, 상기 수신된 제1피드백신호의 진폭이 제1문턱값 이하이거나, 제2문턱값 이상인 경우, 상기 아날로그정보에 대응하는 피드백정보가 정상적으로 포함되어 있지 않은 것으로 식별할 수 있다.
상기한 본 발명의 목적은, 아날로그정보를 포함하는 제1테스트신호 및 디지털정보를 포함하는 제2테스트신호에 기초하여 오디오 출력부를 통해 제1오디오 및 제2오디오를 각각 출력하는 단계; 상기 제1오디오 및 상기 제2오디오에 각각 대응하는 제1피드백신호 및 제2피드백신호를 수신하는 단계; 및 상기 수신된 제1피드백신호 및 제2피드백신호에 포함된 상기 아날로그정보 및 상기 디지털정보 각각에 대응되는 피드백정보를 식별하여 상기 오디오 출력부에 대한 출력 보정을 수행하는 단계를 포함하는 전자장치의 제어방법에 의해서도 달성될 수 있다.
아날로그정보는 상기 제1테스트신호의 진폭, 주파수 또는 주기 중 적어도 하나에 관한 정보를 포함할 수 있다.
디지털정보는 상기 아날로그정보에 대응하는 이진 데이터를 포함할 수 있다.
제1오디오 및 제2오디오를 각각 출력하는 단계는, 상기 오디오 출력부의 주파수 대역에 대응하는 상기 제1테스트신호 및 상기 제2테스트신호에 기초하여 상기 제1오디오 및 상기 제2오디오를 각각 출력하는 단계를 포함할 수 있다.
제1오디오 및 제2오디오를 각각 출력하는 단계는, 복수의 상기 오디오 출력부의 주파수 대역에 각각 대응하는 복수의 상기 제1테스트신호 및 복수의 상기 제2테스트신호에 기초하여 상기 복수의 오디오 출력부를 통해 복수의 상기 제1오디오 및 복수의 상기 제2오디오를 각각 출력하는 단계를 포함할 수 있다.
복수의 제1오디오 및 상기 복수의 제2오디오를 각각 출력하는 단계는, 상기 복수의 제1오디오 및 상기 복수의 제2오디오를 상기 복수의 오디오 출력부를 통해 동시에 출력하는 단계를 포함할 수 있다.
제1오디오 및 제2오디오를 각각 출력하는 단계는, 주변 환경에 관한 정보에 기초하여 상기 아날로그정보 및 상기 디지털정보를 설정하는 단계를 포함할 수 있다.
출력 보정을 수행하는 단계는, 상기 수신된 제1피드백신호에 상기 아날로그정보에 대응하는 피드백정보가 정상적으로 포함되어 있지 않으면, 상기 수신된 제2피드백신호에 상기 디지털정보에 대응하는 피드백정보가 정상적으로 포함되어 있는지 여부를 식별하는 단계를 포함할 수 있다.
출력 보정을 수행하는 단계는, 상기 수신된 제1피드백신호의 진폭이 제1문턱값 이하이거나, 제2문턱값 이상인 경우, 상기 아날로그정보에 대응하는 피드백정보가 정상적으로 포함되어 있지 않은 것으로 식별하는 단계를 포함할 수 있다.
상기한 본 발명의 목적은, 아날로그정보를 포함하는 제1테스트신호 및 디지털정보를 포함하는 제2테스트신호에 기초하여 오디오 출력부를 통해 제1오디오 및 제2오디오를 각각 출력하는 단계; 상기 제1오디오 및 상기 제2오디오에 각각 대응하는 제1피드백신호 및 제2피드백신호를 수신하는 단계; 및 상기 수신된 제1피드백신호 및 제2피드백신호에 포함된 상기 아날로그정보 및 상기 디지털정보 각각에 대응되는 피드백정보를 식별하여 상기 오디오 출력부에 대한 출력 보정을 수행하는 단계를 포함하는 것을 특징으로 하는 컴퓨터가 읽을 수 있는 프로그램이 기록된 기록매체에 의해서도 달성될 수 있다.
본 발명에 의하면, 스피커 출력 보정을 효율적으로 수행하는 한편, 스피커 출력 보정을 정확하게 수행하는 전자장치 및 그 제어방법을 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 전자장치를 도시한다.
도 2는 도 1의 전자장치에 관한 구성의 일 예를 도시한다.
도 3은 도 1의 전자장치에 대한 제어방법의 일 예를 도시한다.
도 4는 도 3의 동작 S31과 관련하여, 테스트신호에 포함된 정보의 일 예를 도시한다.
도 5는 도 3의 동작 S31과 관련하여, 오디오 출력부의 주파수 대역에 따라 테스트신호를 출력하는 일 예를 도시한다.
도 6은 도 3의 동작 S31과 관련하여, 복수의 오디오 출력부가 마련된 경우 테스트신호를 출력하는 일 예를 도시한다.
도 7은 도 3의 동작 S31과 관련하여, 주변 환경에 기초하여 테스트신호에 포함된 정보를 설정하는 일 예를 도시한다.
도 8은 도 3의 동작 S33과 관련하여, 아날로그정보에 대응하는 피드백정보를 식별하는 일 예를 도시한다.
도 9는 도 8과 관련하여, 아날로그정보에 대응하는 피드백정보를 식별하는 다른 예를 도시한다.
이하에서는 첨부도면을 참조하여 본 발명에 따른 실시예들에 관해 상세히 설명한다. 이하 실시예들의 설명에서는 첨부된 도면들에 기재된 사항들을 참조하는 바, 각 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 동작을 수행하는 구성요소를 나타낸다. 본 명세서에서의 복수의 구성 중 적어도 하나(at least one)는, 복수의 구성 전부뿐만 아니라, 복수의 구성 중 나머지를 배제한 각 하나 혹은 이들의 조합 모두를 지칭한다.
도 1은 본 발명의 일 실시예에 따른 전자장치를 도시한다. 도 1에 도시된 바와 같이, 전자장치(1)는 TV, 태블릿, 휴대용 미디어 플레이어, 웨어러블 디바이스, 비디오 월, 전자액자 등과 같이 영상표시장치뿐만 아니라, 디스플레이를 구비하지 않는 셋탑박스 등의 영상처리장치, 냉장고, 세탁기 등의 생활가전, 컴퓨터본체와 같은 정보처리장치 등 다양한 종류의 장치로 구현될 수 있다. 또한, 전자장치(1)는 인공지능 기능을 탑재한 인공지능(Artificial Intelligence, AI) 스피커, AI 로봇 등으로 구현될 수 있다. 다만, 전자장치(1)의 종류는 이에 한정되는 것은 아니지만, 이하에서는 설명의 편의를 위해 전자장치(1)가 TV로 구현되는 경우를 가정한다.
전자장치(1)는 오디오 출력부(2)를 통해 오디오를 출력할 수 있다. 오디오 출력부(2)는 오디오신호에 기초하여 오디오를 출력할 수 있다. 오디오 출력부(2)는 전자장치(1)에 마련된 내부 오디오 출력부(2)이거나, 전자장치(1)의 외부에 마련된 외부 오디오 출력부(2)일 수 있다. 외부 오디오 출력부(2)는 유선 또는 무선 통신을 통해 전자장치(1)로부터 오디오신호를 수신하고, 오디오신호에 기초하여 내부 오디오 출력부(2)와 함께 또는 독립적으로 오디오를 출력할 수 있다. 외부 오디오 출력부(2)는 단품 스피커뿐만 아니라, 스피커를 구비하는 다양한 외부 음향기기를 포함할 수 있다. 다만, 이하에서는 설명의 편의를 위해 내부 오디오 출력부(2)를 가정하여 설명한다.
전자장치(1)는 오디오 수신부(3)를 포함할 수 있다. 전자장치(1)는 오디오 수신부(3)을 통해 오디오신호를 수신할 수 있다. 일 예로, 오디오 수신부(3)는 앞서 오디오 출력부(2)를 통해 출력된 오디오에 대한 오디오신호를 수신할 수 있다. 다만 이에 한정되는 것은 아니므로, 오디오 수신부(3)는 사용자로부터 발화된 사용자발화에 대한 음성신호를 수신할 수 있다. 오디오 수신부(3)은 전자장치(1)에 마련된 내부 오디오 수신부(3)이거나, 전자장치(1)의 외부에 마련된 외부 오디오 수신부(3)일 수 있다. 외부 오디오 수신부(3)는 전자장치(1)의 본체와 분리된 리모트 컨트롤러(이하, "리모컨"이라 지칭), 스마트폰 등에 마련될 수 있다. 이 경우, 전자장치(1)는 리모콘, 스마트폰 등의 오디오 수신부를 통해 수신된 오디오 신호, 음성신호 등을 전달받을 수 있다.
전자장치(1)는 음성 인식 기능을 수행할 수 있다. 전자장치(1)는 사용자로부터 사용자발화를 수신하면, 사용자발화에 대한 음성신호를 획득하고, 획득한 음성신호에 대한 음성 인식 처리를 수행하고, 음성 인식 처리에 의한 인식 결과에 대응하는 동작을 수행할 수 있다. 음성 인식 처리는 음성신호를 텍스트 데이터로 변환하는 STT(Speech-to-Text) 처리 과정과, 텍스트 데이터가 나타내는 커맨드를 식별하여, 식별된 커맨드가 지시하는 동작을 수행하는 커맨드 식별 및 수행 과정을 포함한다.
음성 인식 처리의 STT 처리 과정과, 커맨드 식별 및 수행 과정은, 전자장치(1)에서 모두 실행될 수도 있다. 그러나, 이 경우에 전자장치(1)에 필요한 시스템 부하 및 소요 저장용량이 상대적으로 커지게 되므로, 적어도 일부의 과정은 네트워크를 통해 전자장치(1)와 통신 가능하게 접속되는 적어도 하나의 서버에 의해 수행될 수 있다. 일 예로, 적어도 하나의 서버가 STT 처리 과정을 수행하고, 전자장치(1)가 커맨드 식별 및 수행 과정을 수행할 수 있다. 또는, 적어도 하나의 서버가 STT 처리 과정과, 커맨드 식별 및 수행 과정을 모두 수행하고, 전자장치(1)는 단지 적어도 하나의 서버로부터 결과를 수신하기만 할 수도 있다.
전자장치(1)는 오디오 출력부(2)에 대한 자가 출력 보정을 수행할 수 있다. 자가 출력 보정은, 오디오 수신부(3)를 활용하여 오디오 출력부(2)에 대한 출력 보정을 의미한다. 좀더 구체적으로, 전자장치(1)는 오디오 출력부(2)를 통해 제1테스트신호(4)에 기초한 제1오디오(6)를 출력하고, 제1오디오(6)에 대한 제1피드백신호(8)를 오디오 수신부(3)를 통해 수신할 수 있다. 제1테스트신호(4)에는 아날로그정보가 포함되어 있으며, 전자장치(1)는 제1피드백신호(8)에 아날로그정보에 대응하는 피드백정보가 포함되어 있는지를 식별하고, 식별 결과에 따라 오디오 출력부(2)에 대한 출력 보정을 수행할 수 있다. 일 예로, 제1피드백신호(8)에 아날로그정보에 대응하는 피드백정보가 정상적으로 포함되지 않으면, 전자장치(1)는 아날로그정보에 대응하는 피드백정보가 정상적으로 포함되도록 오디오 출력부(2)에 대한 출력 보정을 수행할 수 있다.
이와 같이, 전자장치(1)는 제1테스트신호(4)에 포함된 아날로그정보 및 제1피드백신호(8)에 포함된 피드백정보 간의 간단한 비교를 통해 오디오 출력부(2)에 대한 출력 보정을 수행할 수 있으므로, 설계상, 시간상, 비용상 등에 있어서 자가 출력 보정의 효율성을 도모할 수 있다. 다만 아날로그정보는 노이즈에 민감하므로, 제1피드백신호(8)에 노이즈신호가 포함되는 경우, 노이즈에 의해 피드백정보가 왜곡되는 결과, 아날로그정보 및 피드백정보 간의 비교 정확도가 저하될 수 있으며, 이는 오디오 출력부(2)에 대한 출력 보정의 정확도 저하를 초래할 수 있다. 이에 전자장치(1)는 아날로그정보와 다른 타입의 정보, 예컨대, 디지털정보를 활용하여 자가 출력 보정을 수행함으로써, 자가 출력 보정의 정확도를 향상시킬 수 있다.
즉, 전자장치(1)는 제2테스트신호(2)에 기초하여 제2오디오(7)를 출력하고, 제2오디오(7)에 관한 제2피드백신호(9)를 수신할 수 있다. 제2테스트신호(2)에는 디지털정보가 포함되어 있으며, 전자장치(1)는 제2피드백신호(9)에 디지털정보에 대응하는 피드백정보가 포함되어 있는지를 식별하고, 식별 결과에 따라 오디오 출력부(2)에 대한 출력 보정을 수행할 수 있다. 일 예로, 제2피드백신호(9)에 디지털정보에 대응하는 피드백정보가 정상적으로 포함되어 있지 않으면, 전자장치(1)는 디지털정보에 대응하는 피드백정보가 정상적으로 포함되도록 오디오 출력부(2)에 대한 출력 보정을 수행할 수 있다. 디지털정보는 이진 데이터 정보를 의미할 수 있다. 디지털정보는 두 전압에 대응시킨 1과 0로 구성된 정보로서, 제2피드백신호(9)에 노이즈신호가 포함되더라도, 두 전압 자체가 변경되지 않은 한 1과 0은 변경되지 않는다. 따라서, 디지털정보는 노이즈에 대한 내성으로 인해, 아날로그정보 대비 노이즈에 의한 왜곡 가능성이 낮다.
이와 같이 전자장치(1)는 제1피드백신호(8)에 포함된 피드백정보 및 제2피드백신호(9)에 포함된 피드백정보에 기초하여 자가 출력 보정을 수행할 수 있으므로, 설계상, 시간상, 비용상 등에 있어서 효율적일 뿐만 아니라, 보다 정밀한 자가 출력 보정을 수행할 수 있다.
도 2는 도 1의 전자장치에 관한 구성의 일 예를 도시한다. 이하에서는 도 2를 참조하여, 전자장치(1)의 구성에 관해 자세히 설명한다. 본 실시예서는 전자장치(1)가 TV인 경우에 관해 설명하지만, 전자장치(1)는 다양한 종류의 장치로 구현될 수 있으므로, 본 실시예가 전자장치(1)의 구성을 한정하는 것은 아니다. 전자장치(1)가 TV와 같은 디스플레이장치로 구현되지 않는 경우도 가능하며, 이 경우의 전자장치(1)는 디스플레이(24)와 같은 영상 표시를 위한 구성요소들을 포함하지 않을 수 있다. 예를 들면 전자장치(1)가 셋탑박스로 구현되는 경우에, 전자장치(1)는 인터페이스부(21)를 통해 외부의 TV에 영상 신호를 출력할 수 있다.
전자장치(1)는 인터페이스부(21)를 포함한다. 인터페이스부(21)는 유선 인터페이스부를 포함할 수 있다. 유선 인터페이스부는 지상파/위성방송 등 방송규격에 따른 방송신호를 수신할 수 있는 안테나가 연결되거나, 케이블 방송 규격에 따른 방송신호를 수신할 수 있는 케이블이 연결될 수 있는 커넥터 또는 포트를 포함한다. 다른 예로서, 전자장치(1)는 방송신호를 수신할 수 있는 안테나를 내장할 수도 있다. 유선 인터페이스부는 HDMI 포트, DisplayPort, DVI 포트, 썬더볼트, 컴포지트(Composite) 비디오, 컴포넌트(Component) 비디오, 슈퍼 비디오(Super Video), SCART 등과 같이, 비디오 및/또는 오디오 전송규격에 따른 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부는 USB 포트 등과 같은 범용 데이터 전송규격에 따른 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부는 광 전송규격에 따라 광케이블이 연결될 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부는 외부 오디오 수신부(3) 또는 오디오 수신부(3)을 구비한 외부 오디오기기가 연결되며, 오디오기기로부터 오디오신호를 수신 또는 입력할 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부는 헤드셋, 이어폰, 외부 스피커 등과 같은 오디오기기가 연결되며, 오디오기기로 오디오신호를 전송 또는 출력할 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부는 이더넷 등과 같은 네트워크 전송규격에 따른 커넥터 또는 포트를 포함할 수 있다. 예컨대, 유선 인터페이스부는 라우터 또는 게이트웨이에 유선 접속된 랜카드 등으로 구현될 수 있다.
유선 인터페이스부는 상기 커넥터 또는 포트를 통해 셋탑박스, 광학미디어 재생장치와 같은 외부기기, 또는 외부 디스플레이장치나, 스피커, 서버 등과 1:1 또는 1:N(N은 자연수) 방식으로 유선 접속됨으로써, 해당 외부기기로부터 비디오/오디오신호를 수신하거나 또는 해당 외부기기에 비디오/오디오신호를 송신한다. 유선 인터페이스부는, 비디오/오디오신호를 각각 별개로 전송하는 커넥터 또는 포트를 포함할 수도 있다.
그리고, 본 실시예에 따르면 유선 인터페이스부는 전자장치(1)에 내장되나, 동글(Dongle) 또는 모듈(Module) 형태로 구현되어 전자장치(1)의 커넥터에 착탈될 수도 있다.
인터페이스부(21)는 무선 인터페이스부를 포함할 수 있다. 무선 인터페이스부는 전자장치(1)의 구현 형태에 대응하여 다양한 방식으로 구현될 수 있다. 예를 들면, 무선 인터페이스부는 통신방식으로 RF(Radio Frequency), 지그비(Zigbee), 블루투스(Bluetooth), 와이파이(Wi-Fi), UWB(Ultra-Wideband) 및 NFC(Near Field Communication) 등 무선통신을 사용할 수 있다. 무선 인터페이스부는 와이파이 방식에 따라서 AP와 무선통신을 수행하는 무선통신모듈이나, 블루투스 등과 같은 1대 1 다이렉트 무선통신을 수행하는 무선통신모듈 등으로 구현될 수 있다. 무선 인터페이스부는 네트워크 상의 서버와 무선 통신함으로써, 적어도 하나의 서버와의 사이에 데이터 패킷을 송수신할 수 있다. 무선 인터페이스부는 적외선 통신규격에 따라 IR(Infrared) 신호를 송신 및/또는 수신할 수 있는 IR송신부 및/또는 IR수신부를 포함할 수 있다. 무선 인터페이스부는 IR송신부 및/또는 IR수신부를 통해 리모컨 또는 다른 외부기기로부터 리모컨신호를 수신 또는 입력하거나, 리모컨 또는 다른 외부기기로 리모컨신호를 전송 또는 출력할 수 있다. 다른 예로서, 전자장치(1)는 와이파이, 블루투스 등 다른 방식의 무선 인터페이스부를 통해 리모컨 또는 다른 외부기기와 리모컨신호를 송수신할 수 있다.
전자장치(1)는 인터페이스부(21)를 통해 수신하는 비디오/오디오신호가 방송신호인 경우, 수신된 방송신호를 채널 별로 튜닝하는 튜너(Tuner)를 더 포함할 수 있다.
전자장치(1)는 통신부(22)를 포함할 수 있다. 통신부(22)는 적어도 하나의 통신부로 구현될 수 있다. 통신부(22)는 적어도 하나의 서버와 통신하는 제1통신부 및 서버 이외의 다른 외부 장치들과 연결되어 비디오/오디오 신호를 전송하는 제2통신부를 포함할 수 있다. 통신부(22)는 설계 방법에 따라 유선 인터페이스부 또는 무선 인터페이스 중 적어도 하나의 구성을 포함하며, 유선 인터페이스부 또는 무선 인터페이스 중 적어도 하나의 기능을 수행할 수 있다.
전자장치(1)는 사용자입력부(23)를 포함한다. 사용자입력부(23)는 사용자의 입력을 수행하기 위해 사용자가 조작할 수 있도록 마련된 다양한 종류의 입력 인터페이스 관련 회로를 포함한다. 사용자입력부(23)는 전자장치(1)의 종류에 따라서 여러 가지 형태의 구성이 가능하며, 예를 들면 전자장치(1)의 기계적 또는 전자적 버튼부, 터치패드, 디스플레이(24)에 설치된 터치스크린 등이 있다.
전자장치(1)는 디스플레이(24)를 포함한다. 디스플레이(24)는 화면 상에 영상을 표시할 수 있는 디스플레이 패널을 포함한다. 디스플레이 패널은 액정 방식과 같은 수광 구조 또는 OLED 방식과 같은 자발광 구조로 마련된다. 디스플레이(24)는 디스플레이 패널의 구조에 따라서 부가적인 구성을 추가로 포함할 수 있는데, 예를 들면, 디스플레이 패널이 액정 방식이라면, 디스플레이(24)는 액정 디스플레이 패널과, 광을 공급하는 백라이트유닛과, 액정 디스플레이 패널의 액정을 구동시키는 패널구동기판을 포함한다. 다만, 디스플레이(24)는 전자장치(1)가 셋탑박스 등으로 구현되는 경우 생략될 수 있다.
전자장치(1)는 센서부(25)를 포함한다. 센서부(25)는 전자장치(1)의 전방을 센싱하여, 예컨대, 사용자 또는 다른 전자장치의 유무, 움직임 등을 감지할 수 있다. 일 예로, 센서부는 이미지 센서로 구현될 수 있으며, 전자장치(10)의 전방을 캡처하여, 캡처된 이미지로부터 사용자 또는 다른 전자장치의 유무, 움직임 등에 관한 정보를 획득할 수 있다. 이미지 센서는, CMOS(Complementary Metal Oxide Semiconductor) 또는 CCD(Charge Coupled Device) 방식의 카메라로 구현될 수 있다. 또는 센서부(25)는 적외선 센서로 구현될 수 있으며, 전방으로 출력되는 적외선 신호가 반사되어 돌아오는 시간을 측정하여 사용자 또는 다른 전자장치의 유무, 움직임 등에 관한 정보를 획득할 수 있다.
전자장치(1)는 오디오 출력부(2)를 포함한다. 오디오 출력부(2)는 오디오신호에 기초하여 다양한 오디오를 출력할 수 있다. 오디오 출력부(2)는 적어도 하나 이상의 스피커로 구현될 수 있다. 오디오 출력부(2)는 전자장치(1)에 마련된 내부 스피커 또는 외부에 마련되는 외부 스피커로 구현될 수 있다. 오디오 출력부(2)가 외부 스피커로 구현되는 경우, 전자장치(1)는 오디오신호를 외부 스피커로 유선 또는 무선으로 전송할 수 있다.
전자장치(1)는 오디오 수신부(3)를 포함한다. 오디오 수신부(3)은 다양한 오디오신호를 수신할 수 있다. 일 예로, 오디오 출력부(2)로부터 출력된 오디오에 대한 오디오신호를 수신하거나, 사용자로부터 발화된 사용자발화에 대한 음성신호를 수신할 수 있다. 또한, 전자장치(1)의 주변에서 발생하는 노이즈에 대한 노이즈신호를 수신할 수 있다. 오디오 수신부(3)은 수집된 오디오신호를 프로세서(27)에 전달한다. 오디오 수신부(3)은 전자장치(1)에 마련된 내부 마이크 또는 본체와 분리된 리모컨, 스마트폰 등에 마련된 외부 마이크로 구현될 수 있다. 오디오 수신부(3)가 외부 마이크로 구현되는 경우, 외부 마이크로 수신된 오디오신호는 디지털화 되어 리모컨, 스마트폰 등으로부터 인터페이스부(21)를 통해 수신될 수 있다.
한편, 스마트폰 등에는 리모컨 어플리케이션이 설치될 수 있다. 스마트폰 등은 설치된 어플리케이션을 통해 리모컨의 기능, 예컨대, 전자장치(1)를 제어하거나, 스마트폰 등에 마련된 외부 마이크를 통해 수신된 오디오신호에 대한 오디오처리를 수행할 수 있다. 이러한 리모컨 어플리케이션은 AI 스피커, AI 로봇 등 다양한 외부 장치에 설치될 수 있다.
상기한 사용자입력부(23), 디스플레이(24), 센서부(25), 오디오 출력부(2), 오디오 수신부(3) 등은 인터페이스부(21)와 별도의 구성으로 기재되었으나, 설계 방법에 따라 인터페이스부(21)에 포함되도록 구성될 수 있다.
전자장치(1)는 저장부(26)를 포함한다. 저장부(26)는 디지털화된 데이터를 저장한다. 저장부(26)는 전원의 제공 유무와 무관하게 데이터를 보존할 수 있는 비휘발성 속성의 스토리지(Storage)와, 프로세서(27)에 의해 처리되기 위한 데이터가 로딩되며 전원이 제공되지 않으면 데이터를 보존할 수 없는 휘발성 속성의 메모리(Memory)를 포함한다. 스토리지에는 플래시메모리(Flash-Memory), HDD(Hard-Disc Drive), SSD(Solid-State Drive), ROM(Read Only Memory) 등이 있으며, 메모리에는 버퍼(Buffer), 램(RAM; Random Access Memory) 등이 있다. 음성 어시스턴스가 어플리케이션 등의 소프트웨어로 구현되는 경우, 저장부(26)는 음성 어시스턴스를 포함할 수 있다.
전자장치(1)는 프로세서(27)를 포함한다. 프로세서(27)는 인쇄회로기판 상에 장착되는 CPU, 칩셋, 버퍼, 회로 등으로 구현되는 하나 이상의 하드웨어 프로세서를 포함하며, 설계 방식에 따라서는 SOC(System On Chip)로 구현될 수도 있다. 프로세서(27)는 전자장치(1)가 디스플레이장치로 구현되는 경우에 디멀티플렉서, 디코더, 스케일러, 오디오 DSP(Digital Signal Processor), 앰프 등의 다양한 프로세스에 대응하는 모듈들을 포함한다. 여기서, 이러한 모듈들 중 일부 또는 전체가 SOC로 구현될 수 있다. 예를 들면, 디멀티플렉서, 디코더, 스케일러 등 영상처리와 관련된 모듈이 영상처리 SOC로 구현되고, 오디오 DSP는 SOC와 별도의 칩셋으로 구현되는 것이 가능하다.
특히, 프로세서(27)는 아날로그정보를 포함하는 제1테스트신호(4) 및 디지털정보를 포함하는 제2테스트신호(5)에 기초하여 오디오 출력부(2)를 통해 제1오디오(6) 및 제2오디오(7)를 각각 출력하고, 오디오 수신부(3)를 통해 제1오디오(6) 및 제2오디오(7)에 각각 대응하는 제1피드백신호(8) 및 제2피드백신호(9)를 수신할 수 있다. 프로세서(27)는 수신된 제1피드백신호(8) 및 제2피드백신호(9)에 포함된 아날로그정보 및 디지털정보 각각에 대응하는 피드백정보를 식별하여 오디오 출력부(2)에 대한 출력 보정을 수행할 수 있다.
다른 예로, 프로세서(27)는 통신부(22)를 통해 서버와 통신하면서, 상기한 동작 중 적어도 하나를 수행할 수 있다. 즉, 프로세서(27)는 상기한 제1오디오(6) 및 제2오디오(7)의 출력 동작, 제1피드백신호(8) 및 제2피드백신호(9)의 수신 동작, 아날로그정보 및 디지털정보 각각에 대응하는 피드백정보의 식별 동작 및 오디오 출력부(2)에 대한 출력 보정 동작 중 적어도 하나를 수행하고, 서버가 나머지 동작을 수행할 수 있다.
다만, 전자장치(1)의 구성은 도 2에 도시된 바에 한정되는 것은 아니므로, 설계 방법에 따라 상기한 구성 중 일부를 제외하거나, 상기한 구성 이외의 구성을 포함할 수 있다.
한편, 전자장치(1)의 프로세서(27)는 상기한 출력 동작, 수신 동작, 식별 동작 및 출력 보정 동작을 위한 데이터 분석, 처리, 및 결과 정보 생성 중 적어도 일부를 규칙 기반 또는 인공지능 알고리즘으로서 기계학습, 신경망 네트워크(Neural Network), 또는 딥러닝 알고리즘 중 적어도 하나를 이용하여 수행할 수 있다.
일 예로, 프로세서(27)는 학습부 및 인식부의 기능을 함께 수행할 수 있다. 학습부는 학습된 신경망 네트워크를 생성하는 기능을 수행하고, 인식부는 학습된 신경망 네트워크를 이용하여 데이터를 인식(또는, 추론, 예측, 추정, 판단)하는 기능을 수행할 수 있다. 학습부는 신경망 네트워크를 생성하거나 갱신할 수 있다. 학습부는 신경망 네트워크를 생성하기 위해서 학습 데이터를 획득할 수 있다. 일 예로, 학습부는 학습 데이터를 저장부(26) 또는 서버저장부로부터 획득하거나, 외부로부터 획득할 수 있다. 학습 데이터는, 신경망 네트워크의 학습을 위해 이용되는 데이터일 수 있으며, 상기한 동작을 수행한 데이터를 학습데이터로 이용하여 신경망 네트워크를 학습시킬 수 있다.
학습부는 학습 데이터를 이용하여 신경망 네트워크를 학습시키기 전에, 획득된 학습 데이터에 대하여 전처리 작업을 수행하거나, 또는 복수 개의 학습 데이터들 중에서 학습에 이용될 데이터를 선별할 수 있다. 일 예로, 학습부는 학습 데이터를 기 설정된 포맷으로 가공하거나, 필터링하거나, 또는 노이즈를 추가/제거하여 학습에 적절한 데이터의 형태로 가공할 수 있다. 학습부는 전처리된 학습 데이터를 이용하여 상기한 동작을 수행하도록 설정된 신경망 네트워크를 생성할 수 있다.
학습된 신경망 네트워크는, 복수의 신경망 네트워크(또는, 레이어)들로 구성될 수 있다. 복수의 신경망 네트워크의 노드들은 가중치를 가지며, 복수의 신경망 네트워크들은 일 신경망 네트워크의 출력 값이 다른 신경망 네트워크의 입력 값으로 이용되도록 서로 연결될 수 있다. 신경망 네트워크의 예로는, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN (Bidirectional Recurrent Deep Neural Network) 및 심층 Q-네트워크 (Deep Q-Networks)과 같은 모델을 포함할 수 있다.
한편, 인식부는 상기한 동작을 수행하기 위해, 타겟 데이터를 획득할 수 있다. 타겟 데이터는 저장부(26) 또는 서버저장부로부터 획득하거나, 외부로부터 획득할 수 있다. 타겟 데이터는 신경망 네트워크의 인식 대상이 되는 데이터일 수 있다. 인식부는 타겟 데이터를 학습된 신경망 네트워크에 적용하기 전에, 획득된 타겟 데이터에 대하여 전처리 작업을 수행하거나, 또는 복수 개의 타겟 데이터들 중에서 인식에 이용될 데이터를 선별할 수 있다. 일 예로, 인식부는 타겟 데이터를 기 설정된 포맷으로 가공하거나, 필터링 하거나, 또는 노이즈를 추가/제거하여 인식에 적절한 데이터의 형태로 가공할 수 있다. 인식부는 전처리된 타겟 데이터를 신경망 네트워크에 적용함으로써, 신경망 네트워크로부터 출력되는 츨력값을 획득할 수 있다. 인식부는 출력값과 함께, 확률값 또는 신뢰도값을 획득할 수 있다.
도 3은 도 1의 전자장치에 대한 제어방법의 일 예를 도시한다. 도 3의 각 동작은 전자장치(1)의 프로세서(27)에 의해 실행될 수 있다. 도 3에 도시된 바와 같이, 프로세서(27)는 아날로그정보를 포함하는 제1테스트신호(4) 및 디지털정보를 포함하는 제2테스트신호(5)에 기초하여 오디오 출력부(2)를 통해 제1오디오(6) 및 제2오디오(7)를 각각 출력할 수 있다(S31).
프로세서(27)는 오디오 수신부(3)를 통해 제1오디오(6) 및 제2오디오(7)에 각각 대응하는 제1피드백신호(8) 및 제2피드백신호(9)를 수신할 수 있다(S32).
프로세서(27)는 수신된 제1피드백신호(8) 및 제2피드백신호(9)에 포함된 아날로그정보 및 디지털정보 각각에 대응하는 피드백정보를 식별하여 오디오 출력부(2)에 대한 출력 보정을 수행할 수 있다(S33).
이와 같이 프로세서(27)는 아날로그정보 및 디지털정보 각각에 대응하는 피드백정보에 기초하여 오디오 출력부(2)에 대한 자가 출력 보정을 수행할 수 있으므로, 설계상, 시간상, 비용상 등에 있어서 효율적인 자가 출력 보정을 수행할 수 있을 뿐만 아니라, 정확한 자가 출력 보정을 수행할 수 있다.
도 4는 도 3의 동작 S31과 관련하여, 테스트신호에 포함된 정보의 일 예를 도시한다. 앞서 도 1을 참조하여 설명한 바와 같이, 전자장치(1)의 프로세서(27)은 아날로그정보 및 디지털정보를 활용하여 오디오 출력부(2)에 대한 자가 출력 보정을 수행할 수 있다. 이하에서는, 아날로그정보 및 디지털정보를 설정하고, 설정된 아날로그정보 및 디지털정보를 이용하여 자가 출력 보정을 수행하는 과정에 대해 자세히 설명한다.
프로세서(27)는 자가 출력 보정을 위한 아날로그정보를 설정할 수 있다. 아날로그정보는 진폭, 음압, 주파수, 주파수 대역 또는 주기 중 적어도 하나에 관한 정보를 포함할 수 있다. 다만 이하에서는 설명의 편의를 위해 아날로그정보가 진폭 및 주파수에 관한 정보인 것으로 가정하여 설명한다. 프로세서(27)는 설정된 진폭 및 주파수에 기초하여 제1테스트신호(4)를 마련할 수 있다. 예컨대, 도 4에 도시된 바와 같이, 프로세서(27)는 제1아날로그정보(41) 또는 제2아날로그정보(42)와 같이 서로 다른 진폭 및 주파수에 기초하여 제1테스트신호(4)를 마련할 수 있다. 다만 이는 설명의 편의를 위한 것이며, 설계 방법에 따라 다양한 형태의 제1테스트신호(4)가 마련될 수 있다. 일 예로, 제1테스트신호(4)는 미리 정해진 진폭 및 주파수에 기초하여 마련된 비프신호, 톤신호 등을 포함할 수 있다. 프로세서(27)는 상기와 같이 마련된 제1테스트신호(4)에 기초하여 오디오 출력부(2)를 통해 제1오디오(6)를 출력할 수 있다.
프로세서(27)는 제1오디오(6)에 대응하는 제1피드백신호(8)를 오디오 수신부(3)를 통해 수신하고, 수신된 제1피드백신호(8)의 진폭 및 주파수를 식별할 수 있다. 프로세서(27)는 제1피드백신호(8)의 진폭 및 주파수가 제1테스트신호(4)의 진폭 및 주파수에 대응하는지 여부를 식별할 수 있다. 예컨대, 프로세서(27)는 어느 주파수 대역에서 어느 정도의 진폭 손실이 되었는지를 식별할 수 있다. 식별 결과, 제1피드백신호(8)의 진폭 및 주파수가 정상적으로 포함되어 있지 않으면, 프로세서(27)는 제1피드백신호(8)의 진폭 및 주파수가 제1테스트신호(4)의 진폭 및 주파수에 대응하도록 오디오 출력부(2)에 대한 자가 출력 보정을 수행할 수 있다.
프로세서(27)는 자가 출력 보정을 위한 디지털정보를 설정할 수 있다. 디지털정보는 아날로그정보에 기초하여 변환된 이진 데이터 정보를 의미할 수 있다. 예컨대, 이진 데이터 정보는 진폭 및 주파수를 서로 다른 두 전압을 나타내는 1과 0로 표현한 정보를 포함할 수 있다. 이진 데이터 정보는 앞서 제1테스트신호(4)의 아날로그정보에 대응할 수 있으나, 이에 한정되는 것은 아니므로, 디지털정보는 임의의 이진 데이터 정보를 포함할 수 있다. 다만 이하에서는 설명의 편의를 위해 디지털정보의 이진 데이터 정보가 아날로그정보에 대응하여 마련된 것으로 가정하여 설명한다. 예컨대, 아날로그정보가 도 4에 도시된 바와 같은 경우, 제1디지털정보(43)는 제1아날로그정보(41)에 기초하여 "001000010"로 표현될 수 있으며, 제2디지털정보(44)는 제2아날로그정보(42)에 기초하여 "01110111"로 표현될 수 있다. 다만 아날로그정보에서 디지털정보로의 변환에는 다양한 변환 알고리즘을 사용될 수 있으므로, 도 4에 표현된 바와 달리 변환될 수 있다.
프로세서(27)는 디지털정보에 기초하여 변조를 수행할 수 있다. 변조는 디지털정보를 제2테스트신호(5)에 싣는 과정을 의미할 수 있다. 예컨대, 프로세서(27)는 일정한 진폭 하에 디지털정보에 따라 주파수를 변경하는 주파수변조, 디지털정보에 따라 진폭을 변경하는 진폭변조 등을 활용할 수 있다. 다만, 이에 한정되는 것은 아니므로, 프로세서(27)는 디지털정보에 대해 다양한 변조 방식을 적용할 수 있다.
프로세서(27)는 디지털정보에 대한 변조를 통해 마련된 제2테스트신호(5)에 기초하여 오디오 출력부(2)를 통해 제2오디오(7)를 출력하고, 제2오디오(7)에 대응하는 제2피드백신호(9)를 오디오 수신부(3)를 통해 수신할 수 있다. 프로세서(27)는 수신된 제2피드백신호(9)에 대한 복조를 수행할 수 있다. 복조는 제2테스트신호(5)에 대한 변조 방식에 대응하는 복조 방식으로, 제2피드백신호(9)로부터 디지털정보를 획득하는 과정을 의미할 수 있다.
프로세서(27)는 복조를 통해 제2피드백신호(9)로부터 획득된 디지털정보가 제2테스트신호(5)에 실린 디지털정보에 대응하는지 여부를 식별할 수 있다. 예컨대, 프로세서(27)는 이진 데이터 정보 간의 비교를 통해, 어느 주파수 대역에서 어느 정도의 진폭 손실이 되었는지를 식별할 수 있다. 식별 결과, 제2피드백신호(9)의 디지털정보가 정상적으로 포함되어 있지 않으면, 프로세서(27)는 제2피드백신호(9)의 디지털정보가 제2테스트신호(5)의 디지털정보에 대응하도록 오디오 출력부(2)에 대한 자가 출력 보정을 수행할 수 있다.
상기한 바와 같이 프로세서(27)는 아날로그정보를 활용할 수 있으므로, 설계상, 시간상, 비용상 등에 있어서 효율적인 자가 출력 보정을 수행할 수 있다. 또한, 프로세서(27)는 디지털정보를 활용할 수 있으므로, 정확도가 높은 자가 출력 보정을 수행할 수 있다.
도 5는 도 3의 동작 S31과 관련하여, 오디오 출력부의 주파수 대역에 따라 테스트신호를 출력하는 일 예를 도시한다. 이하에서는 도 5를 참조하여, 프로세서(27)가 오디오 출력부(2)의 출력 성능(51)을 고려하여 자가 출력 보정하는 경우에 대해 자세히 설명한다. 오디오 출력부(2)의 출력 성능(51)은 출력 진폭(w1), 출력 음압, 출력 주파수, 출력 주파수 대역(b1) 또는 출력 주기 중 적어도 하나를 포함할 수 있다. 이하에서는 설명의 편의를 위해 오디오 출력부(2)의 출력 진폭(w1) 및 출력 주파수 대역(b1)을 고려하여 자가 출력 보정하는 경우에 대해 설명한다.
도 5에 도시된 바와 같이, 프로세서(27)는 오디오 출력부(2)의 출력 진폭(w1) 및 출력 주파수 대역(b1)을 식별할 수 있다. 프로세서(27)는 식별된 출력 진폭(w1) 및 출력 주파수 대역(b1)에 대응하도록 제1테스트신호(4)의 진폭(w2) 및 주파수 대역(b2)를 설정할 수 있다. 예컨대, 프로세서(27)는 진폭(w2) 및 주파수 대역(b2)이 출력 진폭(w1) 및 출력 주파수 대역(b1) 이내가 되도록 설정할 수 있다. 프로세서(27)는 설정된 진폭(w2) 및 주파수 대역(b2)에 기초하여 제1테스트신호(4)를 마련할 수 있다. 예컨대, 프로세서(27)는 설정된 진폭(w2) 및 주파수 대역(b2)에 기초하여 제1테스트신호(4)에 대한 필터링을 수행할 수 있다. 프로세서(27)는 신호 필터링을 위해 노치 필터(Notch Filter) 또는 바이패스 필터(Bandpass Filter)를 활용할 수 있으나, 이에 한정되는 것은 아니므로, 신호 필터링을 위해 다양한 필터링 구성을 활용할 수 있다.
프로세서(27)는 필터링된 제1테스트신호(4)에 기초하여 제1오디오(6)를 출력하고, 제1오디오(6)에 대응하는 제1피드백신호(8)를 수신할 수 있다. 프로세서(27)는 수신된 제1피드백신호(8)의 진폭 및 주파수 대역이 제1테스트신호(4)의 진폭(w2) 및 주파수 대역(b2)에 대응하는지 여부를 식별할 수 있다. 만일, 제1피드백신호(8)의 진폭 및 주파수 대역이 제1테스트신호(4)의 진폭(w2) 및 주파수 대역(b2)에 대응하지 않으면, 프로세서(27)는 제1피드백신호(8)의 진폭 및 주파수 대역이 제1테스트신호(4)의 진폭(w2) 및 주파수 대역(b2)에 대응하도록 오디오 출력부(2)에 대한 자가 출력 보정을 수행할 수 있다.
다른 예로, 프로세서(27)는 오디오 출력부(2)의 출력 주파수 대역(b1) 이내의 특정 주파수를 설정할 수 있다. 이 경우 프로세서(27)는 설정된 진폭(w2) 및 특정 주파수에 기초하여 제1테스트신호(4)를 필터링할 수 있다. 특정 주파수의 개수는 설계 방법에 따라 다양하게 마련될 수 있다. 프로세서(27)는 필터링된 제1테스트신호(4)에 기초하여 제1오디오(6)를 출력하고, 제1오디오(6)에 대응하는 제1피드백신호(8)의 진폭 및 특정 주파수가 제1테스트신호(4)의 진폭(w2) 및 특정 주파수에 대응하는지 여부에 따라 오디오 출력부(2)에 대한 자가 출력 보정을 수행할 수 있다.
이상에서는 오디오 출력부(2)의 출력 성능(51)을 고려하여 아날로그정보를 설정하고, 설정된 아날로그정보에 기초한 자가 출력 보정 과정에 대해 설명하였으나, 디지털정보에 기초한 자가 출력 보정을 수행하는 경우에도 상기한 과정이 동일하게 적용될 수 있다. 즉, 프로세서(27)는 오디오 출력부(2)의 출력 성능(51)을 고려하여 디지털정보를 설정할 수 있다. 예컨대, 프로세서(27)는 디지털정보의 이진 데이터 정보가 오디오 출력부(2)의 출력 진폭(w1) 및 출력 주파수 대역(b1) 이내의 진폭 및 주파수 대역을 나타내도록 설정할 수 있다. 프로세서(27)는 설정된 디지털정보에 기초하여 제2테스트신호(5)를 필터링하고, 필터링된 제2테스트신호(5)에 기초하여 제2오디오(7)를 출력할 수 있다. 프로세서(27)는 제2오디오(7)에 대응하는 제2피드백신호(8)의 디지털정보를 식별하고, 제2테스트신호(5)의 디지털정보 및 제2피드백신호(8)의 디지털정보 간의 대응 여부를 식별하고, 식별 결과에 따라 오디오 출력부(2)에 대한 자가 출력 보정을 수행할 수 있다.
이와 같이 프로세서(27)는 오디오 출력부(2)의 출력 성능(51)을 고려하여 자가 출력 보정을 수행할 수 있으므로, 오디오 출력부(2)에 최적화된 자가 출력 보정을 수행할 수 있으며, 이를 통해 자가 출력 보정의 정확도를 향상시킬 수 있다.
도 6은 도 3의 동작 S31과 관련하여, 복수의 오디오 출력부가 마련된 경우 테스트신호를 출력하는 일 예를 도시한다. 앞서 도 5를 참조하여 설명한 바와 같이, 프로세서(27)는 오디오 출력부(2)의 출력 성능(51)을 고려하여 자가 출력 보정을 수행할 수 있다. 이하에서는 도 6을 참조하여, 오디오 출력부(2)가 복수로 마련된 경우, 프로세서(27)가 각 오디오 출력부(2)의 출력 성능을 고려하여 자가 출력 보정을 수행하는 과정에 대해 자세히 설명한다.
도 6에 도시된 바와 같이, 오디오 출력부(2)는 제1오디오 출력부(61) 및 제2오디오 출력부(62)를 포함하는 것으로 가정한다. 이는 설명의 편의를 위한 것이므로, 오디오 출력부(2)는 설계 방법에 따라 다양한 개수로 마련될 수 있다. 프로세서(27)는 제1오디오 출력부(61)의 제1출력 성능(63) 및 제2오디오 출력부(62)의 제2출력 성능(64)를 식별할 수 있다. 제1출력 성능(63) 및 제2출력 성능(64) 각각은 제1오디오 출력부(61) 및 제2오디오 출력부(62) 각각의 출력 진폭, 출력 음압, 출력 주파수, 출력 주파수 대역 또는 출력 주기 중 적어도 하나를 포함할 수 있다. 다만 이하에서는 설명의 편의를 위해 각 오디오 출력부(61, 62)의 출력 진폭 및 출력 주파수 대역을 고려하는 것으로 가정한다.
프로세서(27)는 제1오디오 출력부(61)의 진폭 및 주파수 대역에 대응하도록 제1서브테스트신호(65)의 진폭 및 주파수 대역을 설정하고, 제1서브테스트신호(65)에 기초하여 출력된 제1서브오디오에 대응하는 제1서브피드백신호의 진폭 및 주파수 대역을 식별할 수 있다. 프로세서(27)는 식별 결과에 따라 제1오디오 출력부(61)에 대한 자가 출력 보정을 수행할 수 있다.
마찬가지로, 프로세서(27)는 제2오디오 출력부(62)의 진폭 및 주파수 대역에 대응하도록 제2서브테스트신호(66)의 진폭 및 주파수 대역을 설정하고, 제2서브테스트신호(66)에 기초하여 출력된 제2서브오디오에 대응하는 제2서브피드백신호의 진폭 및 주파수 대역을 식별할 수 있다. 프로세서(27)는 식별 결과에 따라 제2오디오 출력부(62)에 대한 자가 출력 보정을 수행할 수 있다.
프로세서(27)는 제1서브테스트신호(65)에 기초하여 출력된 제1서브오디오 및 제2서브테스트신호(66)에 기초하여 출력된 제2서브오디오를 동시에 출력하거나, 순차적으로 출력하도록 제1오디오 출력부(61) 및 제2오디오 출력부(62)를 제어할 수 있다. 즉, 프로세서(27)는 제1오디오 출력부(61) 및 제2오디오 출력부(62)에 대한 자가 출력 보정을 동시에 진행하거나, 순차적으로 진행할 수 있다. 동시 또는 순차 진행 여부는 자동으로 정해지거나, 사용자입력부(23)를 통해 입력된 사용자입력에 따라 정해질 수 있다.
이상에서는 오디오 출력부(2)가 복수로 마련된 경우 아날로그정보에 기초하여 제1테스트신호(4)가 마련되는 과정에 대해 설명하였으나, 디지털정보를 포함하는 제2테스트신호(5)를 마련함에 있어서 상기한 과정이 동일하게 적용될 수 있다. 즉, 프로세서(27)는 제1오디오 출력부(61)의 제1출력 성능(63) 및 제2오디오 출력부(62)의 제2출력 성능(64)을 고려하여 디지털정보를 설정하고, 설정된 디지털정보에 기초하여 제2테스트신호(5)를 각각 마련할 수 있다. 프로세서(27)는 제2테스트신호(5) 각각에 기초하여 제2오디오(7)를 각각 출력할 수 있다. 이 경우, 제2오디오(7) 각각을 동시에 출력하거나, 순차적으로 출력하도록 제1오디오 출력부(61) 및 제2오디오 출력부(62)를 제어할 수 있다. 프로세서(27)는 제1오디오 출력부(61) 및 제2오디오 출력부(62)에 대한 자가 출력 보정을 동시에 진행하거나, 순차적으로 진행할 수 있다. 동시 또는 순차 진행 여부는 자동으로 정해지거나, 사용자입력부(23)를 통해 입력된 사용자입력에 따라 정해질 수 있다.
이와 같이 프로세서(27)는 오디오 출력부(2)가 복수로 마련된 경우라도, 오디오 출력부(2) 각각에 최적화된 자가 출력 보정을 수행할 수 있으며, 이를 통해 오디오 출력부(2) 각각에 자가 출력 보정의 정확도를 향상시킬 수 있다.
도 7은 도 3의 동작 S31과 관련하여, 주변 환경에 기초하여 테스트신호에 포함된 정보를 설정하는 일 예를 도시한다. 이하에서는, 도 7을 참조하여 프로세서(27)가 주변 환경에 관한 정보에 기초하여 아날로그정보를 설정하는 일 예에 대해 설명한다.
도 7에 도시된 바와 같이, 프로세서(27)는 오디오 수신부(3)를 통해 주변 오디오에 대한 주변 오디오신호(71)를 수신할 수 있다. 프로세서(27)는 주변 오디오신호(71)를 수신하면, 주변 오디오신호(71)로부터 주변 오디오신호(71)에 관한 정보를 획득할 수 있다. 주변 오디오신호(71)에 관한 정보는 아날로그정보 또는 디지털정보 중 적어도 하나를 포함할 수 있다. 이하에서는 설명의 편의를 위해 주변 오디오신호(71)에 관한 정보가 주변 오디오신호(71)의 주파수 대역 정보인 경우를 가정한다.
즉, 프로세서(27)는 주변 오디오신호(71)의 주파수 대역 정보를 획득하고, 제1테스트신호(4)의 주파수 대역을 설정할 수 있다. 예컨대, 프로세서(27)는 제1테스트신호(4)의 주파수 대역이 주변 오디오신호(71)의 주파수 대역과 중복되지 않도록 제1테스트신호(4)의 주파수 대역을 조정할 수 있다. 프로세서(27)는 조정된 주파수 대역의 제1테스트신호(4)에 기초하여 제1오디오(6)를 출력하고, 제1오디오(6)에 대응하는 제1피드백신호(8)의 주파수 대역을 식별할 수 있다. 프로세서(27)는 양 주파수 대역 간의 비교 결과에 기초하여 오디오 출력부(2)에 대한 출력 보정을 수행할 수 있다.
이상에서는 프로세서(27)가 주변 환경에 관한 정보에 기초하여 아날로그정보를 설정하는 일 예에 대해 설명하였으나, 디지털정보를 설정하는 경우에도 동일하게 적용될 수 있다. 주변 오디오신호(71)의 주파수 대역 정보를 획득한 경우를 예로 들면, 프로세서(27)는 주변 오디오신호(71)의 주파수 대역 정보에 기초하여 디지털정보를 조정할 수 있다. 예컨대, 프로세서(27)는 제2테스트신호(5)의 주파수 대역이 주변 오디오신호(71)의 주파수 대역과 중복되지 않도록 디지털정보의 이진 데이터 정보를 조정할 수 있다. 프로세서(27)는 조정된 디지털정보에 기초하여 제2테스트신호(5)를 마련하고, 제2테스트신호(5)에 기초하여 제2오디오(7)를 출력할 수 있다. 프로세서(27)는 제2오디오(7)에 대응하는 제2피드백신호(9)에 앞서 조정된 디지털정보가 정상적으로 포함되어 있는지 여부에 기초하여 오디오 출력부(2)에 대한 출력 보정을 수행할 수 있다.
이와 같이, 프로세서(27)는 주변 환경 정보에 기초하여 아날로그정보 및 디지털정보를 설정할 수 있으므로, 주변 환경 정보에 의해 자가 출력 보정의 정확도가 저하되지 않도록 대비할 수 있다.
도 8은 도 3의 동작 S33과 관련하여, 아날로그정보에 대응하는 피드백정보를 식별하는 일 예를 도시한다. 앞서 설명한 바와 같이, 프로세서(27)는 제1테스트신호(4)에 기초하여 제1오디오(6)를 출력하고, 이에 대응하는 제1피드백신호(8)를 수신할 수 있다. 제1피드백신호(8)를 수신함에 있어서, 노이즈신호(81)가 유입되는 경우, 도 8에 도시된 바와 같이, 제1피드백신호(8)의 아날로그정보가 노이즈로 인해 왜곡될 수 있다. 프로세서(27)는 노이즈로 인한 왜곡으로 제1피드백신호(8)에 포함된 피드백정보가 아날로그정보에 대응하지 않은 것으로 식별할 수 있다.
프로세서(27)는 제1피드백신호(8)에 포함된 피드백정보가 아날로그정보에 대응하지 않는 것으로 식별하면, 다시 말해, 제1피드백신호(8)에 피드백정보가 정상적으로 포함되지 않은 것으로 식별하면, 제2피드백신호(9)에 포함된 피드백정보가 디지털정보에 대응하는지를 식별할 수 있다. 만일 제2피드백신호(9)가 미리 수신된 경우라면, 프로세서(27)는 미리 수신된 제2피드백신호(9)에 포함된 피드백정보가 디지털정보에 대응하는지를 식별할 수 있으며, 제2피드백신호(9)가 미리 수신되지 않은 경우, 프로세서(27)는 디지털정보를 포함하는 제2테스트신호(5)에 기초한 제2오디오(7)가 출력되도록 하여, 제2테스트신호(5)에 대응하는 제2피드백신호(9)를 수신하고, 수신된 제2피드백신호(9)에 포함된 피드백정보가 디지털정보에 대응하는지를 식별할 수 있다.
이와 같이, 프로세서(27)는 아날로그정보에 대응하는 피드백정보에 대해 우선적 식별을 수행하고, 디지털정보에 대응하는 피드백정보에 대해 식별을 수행함으로써, 오디오 출력부(2)에 대한 자가 출력 보정의 효율성을 향상시킬 수 있다.
도 9는 도 8과 관련하여, 아날로그정보에 대응하는 피드백정보를 식별하는 다른 예를 도시한다. 이하에서는, 도 9를 참조하여 제1피드백신호(8)에 아날로그정보에 대응하는 피드백정보의 정상적 포함 여부를 식별하는 경우에 대해 구체적으로 설명한다.
도 9에 도시된 바와 같이, 프로세서(27)는 제1테스트신호(4)의 진폭값 및 주파수값과, 제1피드백신호(8)의 진폭값 및 주파수값을 비교할 수 있다. 진폭값을 비교하는 경우를 예로 들면, 프로세서(27)는 제1피드백신호(8)의 진폭값이 제1테스트신호(4)의 진폭값에 대응하는지 여부를 식별할 수 있다. 프로세서(27)는 제1피드백신호(8)의 진폭값과 제1테스트신호(4)의 진폭값이 동일한 경우뿐만 아니라, 도 9에 도시된 바와 같이, 제1피드백신호(8)의 진폭값이 제1테스트신호(4)의 진폭값을 포함하는 제1문턱값(A1) 및 제2문턱값(A2) 사이에 포함되는 경우, 제1피드백신호(8)의 진폭값이 제1테스트신호(4)의 진폭값에 대응하는 것으로 식별할 수 있다. 이에 따르면, 프로세서(27)는 제1진폭값(91)을 포함하는 제1피드백신호(8) 또는 제2진폭값(92)을 포함하는 제2피드백신호(8)에 대해서는, 제1테스트신호(4)의 진폭값에 대응하지 않는 것으로 식별할 수 있다.
이와 같이, 프로세서(27)는 아날로그정보에 대응하는 피드백정보의 포함 여부에 대해 보다 정밀하게 식별할 수 있으므로, 오디오 출력부(2)에 대한 자가 출력 보정의 정확도를 향상시킬 수 있다.
본 문서에 개시된 다양한 실시예들은 전자장치(1)와 같은 기기(Machine)가 읽을 수 있는 저장 매체(Storage Medium)에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어로서 구현될 수 있다. 일 예로, 전자장치(1)의 프로세서(27)는 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 전자장치(1)와 같은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(Non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(예컨대, 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 일 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.
일 예로, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(Computer Program Product)에 포함되어 제공될 수 있다. 본 개시에 의한 컴퓨터 프로그램 제품은, 앞서 언급된 바와 같은, 프로세서에 의해 실행되는 소프트웨어의 명령어들을 포함할 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예컨대, CD-ROM)의 형태로 배포되거나, 또는 어플리케이션 스토어(예컨대, 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예컨대, 스마트폰들) 간에 직접, 온라인으로 배포(예컨대, 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
이상, 바람직한 실시예를 통하여 본 발명에 관하여 상세히 설명하였으나, 본 발명은 이에 한정되는 것은 아니며 특허청구범위 내에서 다양하게 실시될 수 있다.

Claims (15)

  1. 전자장치에 있어서,
    오디오 출력부;
    오디오 수신부; 및
    아날로그정보를 포함하는 제1테스트신호 및 디지털정보를 포함하는 제2테스트신호에 기초하여 상기 오디오 출력부를 통해 제1오디오 및 제2오디오가 각각 출력되도록 제어하고,
    상기 제1오디오 및 상기 제2오디오에 각각 대응하는 제1피드백신호 및 제2피드백신호를 상기 오디오 수신부를 통해 수신하고,
    상기 수신된 제1피드백신호 및 제2피드백신호에 포함된 상기 아날로그정보 및 상기 디지털정보 각각에 대응되는 피드백정보를 식별하여 상기 오디오 출력부에 대한 출력 보정을 수행하는 프로세서
    를 포함하는 전자장치.
  2. 제1항에 있어서,
    상기 아날로그정보는 상기 제1테스트신호의 진폭, 주파수 또는 주기 중 적어도 하나에 관한 정보를 포함하는 전자장치.
  3. 제2항에 있어서,
    상기 디지털정보는 상기 아날로그정보에 대응하는 이진 데이터를 포함하는 전자장치.
  4. 제1항에 있어서,
    상기 프로세서는, 상기 오디오 출력부의 주파수 대역에 대응하는 상기 제1테스트신호 및 상기 제2테스트신호에 기초하여 상기 제1오디오 및 상기 제2오디오가 각각 출력되도록 제어하는 전자장치.
  5. 제1항에 있어서,
    상기 프로세서는, 복수의 상기 오디오 출력부의 주파수 대역에 각각 대응하는 복수의 상기 제1테스트신호 및 복수의 상기 제2테스트신호에 기초하여 상기 복수의 오디오 출력부를 통해 복수의 상기 제1오디오 및 복수의 상기 제2오디오가 각각 출력되도록 제어하는 전자장치.
  6. 제5항에 있어서,
    상기 프로세서는, 상기 복수의 제1오디오 및 상기 복수의 제2오디오가 상기 복수의 오디오 출력부를 통해 동시에 출력되도록 제어하는 전자장치.
  7. 제1항에 있어서,
    상기 프로세서는, 주변 환경에 관한 정보에 기초하여 상기 아날로그정보 및 상기 디지털정보를 설정하는 전자장치.
  8. 제1항에 있어서,
    상기 프로세서는, 상기 수신된 제1피드백신호에 상기 아날로그정보에 대응하는 피드백정보가 정상적으로 포함되어 있지 않으면, 상기 수신된 제2피드백신호에 상기 디지털정보에 대응하는 피드백정보가 정상적으로 포함되어 있는지 여부를 식별하는 전자장치.
  9. 제2항에 있어서,
    상기 프로세서는, 상기 수신된 제1피드백신호의 진폭이 제1문턱값 이하이거나, 제2문턱값 이상인 경우, 상기 아날로그정보에 대응하는 피드백정보가 정상적으로 포함되어 있지 않은 것으로 식별되는 전자장치.
  10. 오디오 출력부를 포함하는 전자장치의 제어방법에 있어서,
    아날로그정보를 포함하는 제1테스트신호 및 디지털정보를 포함하는 제2테스트신호에 기초하여 상기 오디오 출력부를 통해 제1오디오 및 제2오디오를 각각 출력하는 단계;
    상기 제1오디오 및 상기 제2오디오에 각각 대응하는 제1피드백신호 및 제2피드백신호를 수신하는 단계; 및
    상기 수신된 제1피드백신호 및 제2피드백신호에 포함된 상기 아날로그정보 및 상기 디지털정보 각각에 대응되는 피드백정보를 식별하여 상기 오디오 출력부에 대한 출력 보정을 수행하는 단계를 포함하는 전자장치의 제어방법.
  11. 제10항에 있어서,
    상기 아날로그정보는 상기 제1테스트신호의 진폭, 주파수 또는 주기 중 적어도 하나에 관한 정보를 포함하는 전자장치의 제어방법.
  12. 제10항에 있어서,
    상기 디지털정보는 상기 아날로그정보에 대응하는 이진 데이터를 포함하는 전자장치의 제어방법.
  13. 제10항에 있어서,
    상기 제1오디오 및 상기 제2오디오를 각각 출력하는 단계는, 상기 오디오 출력부의 주파수 대역에 대응하는 상기 제1테스트신호 및 상기 제2테스트신호에 기초하여 상기 제1오디오 및 상기 제2오디오를 각각 출력하는 단계를 포함하는 전자장치의 제어방법.
  14. 제10항에 있어서,
    상기 제1오디오 및 상기 제2오디오를 각각 출력하는 단계는, 복수의 상기 오디오 출력부의 주파수 대역에 각각 대응하는 복수의 상기 제1테스트신호 및 복수의 상기 제2테스트신호에 기초하여 상기 복수의 오디오 출력부를 통해 복수의 상기 제1오디오 및 복수의 상기 제2오디오를 각각 출력하는 단계를 포함하는 전자장치의 제어방법.
  15. 컴퓨터가 읽을 수 있는 코드로서, 오디오 출력부를 포함하는 전자장치의 제어방법을 수행하는 코드를 포함하는 컴퓨터 프로그램이 저장된 기록매체에 있어서, 상기 전자장치의 제어방법은,
    아날로그정보를 포함하는 제1테스트신호 및 디지털정보를 포함하는 제2테스트신호에 기초하여 상기 오디오 출력부를 통해 제1오디오 및 제2오디오를 각각 출력하는 단계;
    상기 제1오디오 및 상기 제2오디오에 각각 대응하는 제1피드백신호 및 제2피드백신호를 수신하는 단계; 및
    상기 수신된 제1피드백신호 및 제2피드백신호에 포함된 상기 아날로그정보 및 상기 디지털정보 각각에 대응되는 피드백정보를 식별하여 상기 오디오 출력부에 대한 출력 보정을 수행하는 단계를 포함하는 것을 특징으로 하는 컴퓨터가 읽을 수 있는 프로그램이 기록된 기록매체.
PCT/KR2021/006283 2020-07-23 2021-05-20 전자장치 및 그 제어방법 WO2022019458A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200091935A KR20220012746A (ko) 2020-07-23 2020-07-23 전자장치 및 그 제어방법
KR10-2020-0091935 2020-07-23

Publications (1)

Publication Number Publication Date
WO2022019458A1 true WO2022019458A1 (ko) 2022-01-27

Family

ID=79728821

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/006283 WO2022019458A1 (ko) 2020-07-23 2021-05-20 전자장치 및 그 제어방법

Country Status (2)

Country Link
KR (1) KR20220012746A (ko)
WO (1) WO2022019458A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150172815A1 (en) * 2013-12-16 2015-06-18 Qualcomm Incorporated Systems and methods for feedback detection
KR20150086978A (ko) * 2014-01-21 2015-07-29 엘지전자 주식회사 이동단말기 및 그 제어방법
KR20160031768A (ko) * 2014-09-15 2016-03-23 엘지전자 주식회사 멀티미디어 장치 및 그의 오디오 신호 처리방법
KR20200043128A (ko) * 2018-10-17 2020-04-27 삼성전자주식회사 전자장치 및 그 제어방법
KR20200074599A (ko) * 2018-12-17 2020-06-25 삼성전자주식회사 전자장치 및 그 제어방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150172815A1 (en) * 2013-12-16 2015-06-18 Qualcomm Incorporated Systems and methods for feedback detection
KR20150086978A (ko) * 2014-01-21 2015-07-29 엘지전자 주식회사 이동단말기 및 그 제어방법
KR20160031768A (ko) * 2014-09-15 2016-03-23 엘지전자 주식회사 멀티미디어 장치 및 그의 오디오 신호 처리방법
KR20200043128A (ko) * 2018-10-17 2020-04-27 삼성전자주식회사 전자장치 및 그 제어방법
KR20200074599A (ko) * 2018-12-17 2020-06-25 삼성전자주식회사 전자장치 및 그 제어방법

Also Published As

Publication number Publication date
KR20220012746A (ko) 2022-02-04

Similar Documents

Publication Publication Date Title
EP3847543A1 (en) Method for controlling plurality of voice recognizing devices and electronic device supporting the same
WO2013122310A1 (en) Method and apparatus for smart voice recognition
WO2020050495A1 (ko) 안테나 튜닝을 수행하는 전자 장치 및 그 방법
WO2020171395A1 (en) Method for controlling bitrate in realtime and electronic device thereof
WO2018038381A1 (ko) 외부 기기를 제어하는 휴대 기기 및 이의 오디오 신호 처리 방법
WO2020080638A1 (ko) 전자장치 및 그 제어방법
WO2013187688A1 (en) Method for processing audio signal and audio signal processing apparatus adopting the same
WO2022019458A1 (ko) 전자장치 및 그 제어방법
WO2020262835A1 (ko) 전자 장치 및 이를 이용한 오디오 신호를 처리하기 위한 음향 장치를 결정하는 방법
WO2021157862A1 (en) Electronic device and control method thereof
WO2019107973A1 (ko) 오디오 신호의 음량에 따라 설정된 해상도에 기반하여, 오디오 신호를 처리하는 방법 및 그 전자 장치
WO2022255730A1 (ko) 전자장치 및 그 제어방법
WO2021167230A1 (ko) 전자장치 및 그 제어방법
WO2021172893A1 (ko) 에코 캔슬링을 위한 방법 및 그 장치
US20220189478A1 (en) Electronic apparatus and method of controlling the same
WO2021112391A1 (ko) 전자장치 및 그 제어방법
WO2021256760A1 (ko) 이동 가능한 전자장치 및 그 제어방법
WO2021091063A1 (ko) 전자장치 및 그 제어방법
WO2019078597A1 (ko) 다수 개의 스피커 및 마이크를 이용하여 오디오 신호를 생성하는 방법 및 그 전자 장치
WO2022065613A1 (en) Electronic apparatus and method of controlling the same
WO2021071166A1 (en) Electronic apparatus and control method thereof
KR20220015306A (ko) 전자장치 및 그 제어방법
WO2022025420A1 (ko) 전자장치 및 그 제어방법
WO2021141332A1 (ko) 전자장치 및 그 제어방법
WO2024080590A1 (ko) 신호의 오류를 검출하기 위한 전자 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21846088

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21846088

Country of ref document: EP

Kind code of ref document: A1