WO2014178691A1 - 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템, 모바일 기기, 및 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체 - Google Patents

차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템, 모바일 기기, 및 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체 Download PDF

Info

Publication number
WO2014178691A1
WO2014178691A1 PCT/KR2014/003974 KR2014003974W WO2014178691A1 WO 2014178691 A1 WO2014178691 A1 WO 2014178691A1 KR 2014003974 W KR2014003974 W KR 2014003974W WO 2014178691 A1 WO2014178691 A1 WO 2014178691A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
sound
output
location information
information
Prior art date
Application number
PCT/KR2014/003974
Other languages
English (en)
French (fr)
Inventor
김태현
Original Assignee
주식회사 사운들리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020130049221A external-priority patent/KR101288305B1/ko
Priority claimed from KR1020130129951A external-priority patent/KR101519493B1/ko
Application filed by 주식회사 사운들리 filed Critical 주식회사 사운들리
Publication of WO2014178691A1 publication Critical patent/WO2014178691A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/024Guidance services
    • H04W4/043

Definitions

  • the present invention relates to a location information providing system utilizing an automatic announcement system in a vehicle, a mobile device, and a computer readable recording medium recording a program.
  • the present invention also relates to a broadcasting method using a sound wave in an inaudible band, a broadcasting system, and a mixer used therein.
  • a local area network such as Wi-Fi or Bluetooth may be used only when the corresponding module of the user's communication device is turned on. That is, when the user turns off the module in order to save power, or when the module is in a state in which the user is busy using the terminal and turns off the module, the related art of the following documents may provide inaccurate location information.
  • broadcasting systems such as public address broadcasting system, guide broadcasting system in public transportation, and broadcasting system for TV output are used to transmit information by sound.
  • location information is transmitted by sound through a broadcast system, but a separate interface must be provided to give location information to an additional device connected to the broadcast system.
  • the communication interface between the devices in the vehicle is different in each country, the additional device has a difficulty in supporting a variety of interfaces.
  • Patent Document 1 KR10-1197079 B
  • Patent Document 2 Location Estimation Method of Mobile Device Located in Public Transportation Using Wifi
  • Patent Document 3 KR10-1086432 B
  • Patent Document 4 Station information notification method using short-range wireless communication
  • Patent Document 5 KR10-2011-0135026 A
  • Patent Document 6 Subway destination arrival notification system and method, mobile communication terminal and server for the same
  • Patent Document 7 Korean Patent Publication No. 10-2006-0095346 (Destination Notification System and Method Using Speech Recognition in Mobile Communication Terminal)
  • Patent Document 8 Korean Patent Publication No. 10-2011-0087742 (Sign language interpretation system for the hearing impaired, apparatus and method thereof)
  • a position information providing system utilizing an automatic guidance broadcasting device in a vehicle, a mobile device, and a computer-readable recording medium recording a program are provided.
  • the location information providing system using an automatic announcement broadcasting device in a vehicle, which can provide accurate location information, A mobile device and a computer-readable recording medium having recorded thereon a program are provided.
  • the automatic announcement system in an existing vehicle, location information using the automatic announcement device in a vehicle, which can provide more accurate location information in an environment such as a subway
  • a computer-readable recording medium having recorded thereon a providing system, a mobile device, and a program is provided.
  • the location information providing system using an automatic guide broadcasting apparatus in a vehicle that can effectively provide location information to the general public as well as disabled people ,
  • a mobile device, and a computer-readable recording medium having recorded thereon a program are provided.
  • a location information providing system using a traffic information guide system a mobile device, which can provide not only location information but also tourism information by using an automatic guide broadcasting apparatus in an existing vehicle. And a computer readable recording medium having recorded thereon a program.
  • an acoustic signal including a sound pressure and a frequency band identifier can be generated by reflecting a degree of noise and / or a sound pressure level that can be recognized by a human at a place where a vehicle is driven.
  • a location information providing system utilizing a traffic information guidance system, a mobile device, and a computer readable recording medium having recorded thereon a program are provided.
  • acoustic data including sound pressure and frequency band identifiers may be generated by reflecting the degree of noise of a place where the vehicle is driven and / or the sound pressure level that can be recognized by a human being.
  • a sound data generating device is provided.
  • a guide broadcasting method using a sound wave of an inaudible band, a guide broadcasting system, and a mixer used therein may be provided.
  • a broadcast method using a sound wave in the inaudible band, a broadcast system, and a mixer used therein may be provided.
  • a position information providing system using an automatic guide broadcasting apparatus in a vehicle comprising: a sound reproducing apparatus converting sound data including guide information and ID into an electrical signal at a first place; And a speaker for outputting a signal output by the sound reproducing apparatus as a sound signal in an audible frequency band, wherein the ID corresponds to position information indicating the first place.
  • a location information providing system using a broadcasting device may be provided.
  • a system for providing location information using an automatic guide broadcasting apparatus in a vehicle comprising: a sound reproducing apparatus converting first sound data including guide information into an electrical signal at a first place; An ID signal generator configured to generate an ID signal from the first sound data; An adder for adding up the electrical signal converted by the sound reproducing apparatus and the ID signal generated by the ID signal generator; And a speaker for outputting the signal output by the adder as an audio signal in an audible frequency band.
  • the system may be provided with a location information providing system using an automatic guide broadcasting apparatus in a vehicle.
  • a computer-readable recording medium having recorded thereon a program for executing a location information guiding method on a computer, wherein the location information guiding method comprises an identifier (ID) from a sound signal received by a microphone at a first place. Extracting; Determining what information corresponds to the extracted identifier ID; The sound signal received at the first place includes guide information and the identifier (ID), and the sound pressure of the identifier (ID) included in the sound signal is a noise of the first place and a human.
  • a computer-readable recording medium having recorded thereon a program for executing the positional information guiding method, which is lower than a predetermined reference value in consideration of a sound pressure level that can be received, can be provided.
  • the mixing method may be provided, wherein the broadcasting method is output through the speaker.
  • the sound signal does not include sound wave data in the inaudible band (called sound wave data in the existing inaudible band), it may be to perform the step of generating the metadata.
  • determining whether to maintain or change the existing inaudible sound wave data may further include.
  • the generating of the mixing signal may include mixing sound wave data of the non-audible band converted in the converting into the sound wave signal and sound signal from which the sound wave data of the existing inaudible band is deleted.
  • the metadata is generated from an acoustic signal received by the input terminal, and
  • the sound signal received by the input terminal is provided in a step of generating the mixed signal through a bypass path
  • the bypass path may be a path that bypasses generating the metadata and converting the metadata into a sound wave signal of an inaudible band.
  • a sound recognition engine that recognizes sound from the sound signal and generates metadata, which is related to the sound output to the outside, before outputting the sound signal to the outside;
  • a sound wave generation engine for converting the meta data into a sound wave signal in an inaudible band
  • a combiner configured to generate a mixed signal obtained by mixing the sound wave signal of the inaudible band and the sound signal.
  • the acoustic recognition engine determines whether the sound signal includes sound wave data of an inaudible band, and includes the sound wave data of the inaudible band, called 'sound wave data of an existing inaudible band'. If not, the metadata may be generated.
  • the acoustic recognition engine may determine whether to maintain or change the existing inaudible sound wave data when the sound signal includes sound wave data of an existing inaudible band.
  • a filter for deleting the sound wave data of the existing inaudible band when it is determined that the sound wave data of the existing inaudible band is to be changed, a filter for deleting the sound wave data of the existing inaudible band.
  • the coupling unit may mix sound wave data of an inaudible band converted by the sound wave generation engine and an acoustic signal from which sound wave data of an existing inaudible band is deleted by the filter.
  • the sound wave generating engine outputs the meta data converted into the sound wave signals of the inaudible band after the mixing signal is output to the outside to the coupling unit at predetermined time intervals,
  • the combiner may output meta data received at the predetermined time interval to the speaker.
  • An input terminal capable of receiving an audio signal before outputting to the outside
  • An output stage capable of receiving a mixing signal generated by the coupling unit and outputting the mixed signal to the outside;
  • a bypass path providing a path through which the sound signal received through the input terminal can move to the coupling unit.
  • the coupling unit receives an acoustic signal through the bypass path, and when the mixing signal generated by the sonic wave generation engine is not input from the sonic wave generation engine from the input signal received in this way, it is received through the input terminal.
  • the sound signal may be output as it is.
  • the coupling unit When the coupling unit receives an audio signal (called 'first sound signal') at time T1 and receives a sound signal (called 'second sound signal') at time T2 after a predetermined time,
  • the metadata generated from the first sound signal is output to the output terminal at a predetermined time interval during the time before the first mixing signal is output and the sound wave signal of the inaudible band generated from the second sound signal is input. It may be.
  • a location estimation module for estimating a location at which the sound signal is received using i) at least one of a GPS, a mobile communication network, and a Wi-Fi, and ii) an inertial sensor and a sound recognized in the sound signal.
  • the metadata may include a location estimated by the location estimation module.
  • Compressing the mixed signal may be provided a broadcast method comprising a.
  • the sound signal does not include sound wave data in the inaudible band (called sound wave data in the existing inaudible band), it may be to perform the step of generating the metadata.
  • determining whether to maintain or change the existing inaudible sound wave data may further include.
  • the generating of the mixed signal may include mixing sound wave data of the inaudible band converted in the converting into the sound wave signal and sound signal from which the sound wave data of the existing inaudible band is deleted.
  • an automatic announcement device in an existing vehicle, even when a wireless communication network such as Wi-Fi or cellular network is not established or GPS is not available, accurate location information is provided. can do.
  • the location information by providing the location information by voice and / or image, the location information can be effectively provided to the general public as well as the disabled.
  • the present invention while providing the necessary information even to those who do not understand the language containing the sound information that is output where the broadcast is output (for example, foreigners and hearing impaired) while using the existing broadcasting system as it is can do.
  • the mobile device of the mobile device misses the broadcast by focusing on other things. You can check the contents of the broadcast.
  • the existing broadcast system by digitizing the information output by the broadcast, it can deliver the information to a variety of smart devices located in the space where the output is delivered, thereby Can provide customized service.
  • the location information is added using sound of a broadcasting system without implementing an interface for transmitting location information different for each type of vehicle. Because it can be delivered to the device, the compatibility of additional equipment can be significantly increased.
  • FIG. 1 is a view for explaining a location information providing system according to an embodiment of the present invention
  • FIGS. 2 and 3 are views for explaining a mobile device according to an embodiment of the present invention.
  • FIG. 4A is a graph illustrating an example of a human SPL.
  • FIGS. 4B and 4C are diagrams for explaining frequency and sound pressure strength of an identifier ID according to an embodiment of the present invention.
  • 4 is a graph illustrating noise levels in a vehicle, and
  • FIG. 4E is a diagram for describing acoustic data according to an embodiment of the present disclosure.
  • FIG. 5 is a view for explaining a method for providing location information according to an embodiment of the present invention.
  • FIG. 6 is a view for explaining an apparatus for generating acoustic data according to an embodiment of the present invention.
  • FIG. 7 is a view for explaining a computer system used in the location information providing system according to an embodiment of the present invention.
  • FIG. 8 is a view for explaining a location information guide method according to another embodiment of the present invention.
  • FIG. 9 is a view for explaining a location information guide method according to another embodiment of the present invention.
  • FIG. 10 is a view for explaining a location information providing system according to another embodiment of the present invention.
  • FIG. 11 is a view for explaining a location information providing system according to another embodiment of the present invention.
  • FIG. 12 is a view for explaining a location information providing system according to another embodiment of the present invention.
  • FIG. 13 is a view for explaining a location information providing system according to another embodiment of the present invention.
  • FIG. 14 is a view for explaining an announcement system using a mixer according to an embodiment of the present invention.
  • 16 is a view for explaining a broadcasting method according to an embodiment of the present invention.
  • FIG. 18 is a view for explaining a broadcasting system using a mixer according to an embodiment of the present invention.
  • 19 is a view for explaining a mixer according to an embodiment of the present invention.
  • 21 is a diagram for explaining an inaudible frequency band.
  • connection means not only a direct connection between the components, but also includes an indirect connection through another third component. do.
  • FIG. 1 is a diagram illustrating a system for providing location information using an automatic guide broadcasting apparatus in a vehicle according to an embodiment of the present invention.
  • a location information providing system (hereinafter, referred to as a location information providing system) using an automatic announcement broadcasting apparatus in a vehicle according to an embodiment of the present invention may be an automatic announcement broadcasting apparatus in a vehicle. It may include.
  • the automatic announcement device may include the sound reproducing apparatus 10, the position estimating unit 12, the amplifiers 19a, 19b, and 19c, and the speakers 13a, 13b, and 13c.
  • the sound reproducing apparatus 10 may reproduce sound data according to an embodiment of the present invention.
  • the term 'playing' refers to an operation in which the sound reproducing apparatus 10 converts sound data into an electrical signal that can be output from a speaker, or a player causes the modulator to perform sound for the purpose of describing the present invention. It is used to mean the operation of making data into a state that can be converted into an electrical signal.
  • the sound reproducing apparatus 10 reproduces the sound data according to an embodiment of the present invention when the subway 20 arrives at a predetermined place (hereinafter, referred to as a "playing place"). For example, the sound reproducing apparatus 10 reproduces the sound data according to the embodiment of the present invention each time the subway 20 arrives at the reproducing place.
  • the reproduction place may be a location between a subway station and / or a subway station.
  • the sound data to be reproduced at each reproduction place is predetermined, and the sound reproduction device 10 reproduces the sound data corresponding to the arrival place each time it arrives at the reproduction place.
  • the sound reproducing apparatus 10 may receive, for example, information about the position of the subway 20 from the position estimating unit 12.
  • the sound reproducing apparatus 10 selects and reproduces sound data corresponding to a position provided from the position estimating unit 12 from among sound data stored in the storage unit 17.
  • the location estimating unit 12 may be configured as, for example, a sensor that detects that the subway 20 arrives at a specific location.
  • the position estimating unit 12 may be configured as a GPS sensor.
  • the position estimator 12 is not provided.
  • the driver of the subway 20 may operate the sound reproducing apparatus 10 directly whenever the subway 20 arrives at a playing place. .
  • the acoustic data according to an embodiment of the present invention may be configured in the form of a file such as, for example, MP3.
  • the sound reproduction apparatus 10 reproduces the MP3 file corresponding to the reproduction place each time it arrives at the reproduction place.
  • MP3 is an example, it will be appreciated by those skilled in the art that the acoustic data according to an embodiment of the present invention is not limited to the MP3 form.
  • the acoustic data according to an embodiment of the present invention includes guide information and an identifier (ID).
  • the guide information is information provided by the automatic guide broadcast apparatus in the vehicle.
  • the guide information may be, for example, information such as "the next stop is Gangnam station” or "this stop is Yeoksam station”.
  • the guide information has sound pressure and frequency bands that the passengers can actually hear.
  • the ID may correspond to location information and / or additional information, where the additional information may be information such as a neighboring map or an advertisement.
  • the sound data may include a plurality of IDs.
  • location information may correspond to the first ID and additional information may correspond to the second ID.
  • the sound reproducing apparatus 10 converts the player 11 playing the sound data 13 and the sound data reproduced by the player 11 into electrical signals as shown in FIG. 1.
  • a modulator 15 for outputting to the amplifiers 19a, 19b, 19c, and a storage 17 for storing sound data F1, F2, F3, ... reproduced by the player 11; can do.
  • the modulator 15 may be configured to include a converter such as, for example, a DAC, and the storage unit 17 is included in the sound reproducing apparatus 10 to integrate a storage device (for example, a memory or an HDD). Or SDD) or a removable storage device such as a USB memory.
  • a converter such as, for example, a DAC
  • the storage unit 17 is included in the sound reproducing apparatus 10 to integrate a storage device (for example, a memory or an HDD). Or SDD) or a removable storage device such as a USB memory.
  • the player 11 when the subway 20 arrives at a predetermined reproduction place (hereinafter referred to as "first reproduction place"), plays the first reproduction of the sound data F1, F2, F3 stored in the storage unit 17.
  • the sound data corresponding to the place (for example, sound data F1) is reproduced.
  • the modulator 15 converts the acoustic data F1 into an electrical signal reproducible by the speakers 13a, 13b, and 13c, and outputs it to the amplifiers 19a, 19b, and 19c, and outputs the amplifiers 19a, 19b, 19c amplifies the received electrical signals and outputs the amplified signals to the speakers 13a, 13b, and 13c.
  • the speakers 13a, 13b, and 13c respectively convert the electrical signals received from the amplifiers 19a, 19b, and 19c into acoustic signals in the audible frequency band and output them to the outside.
  • the player 11 selects sound data corresponding to the second reproduction place (eg, from among the acoustic data F1, F2, F3 stored in the storage unit 17). For example, sound data F2) is reproduced.
  • the modulator 15 converts the reproduced sound data F2 into an electrical signal and outputs them to the amplifiers 19a, 19b, and 19c, respectively.
  • the amplifiers 19a, 19b, and 19c amplify the electrical signals input from the modulator 15 and output them to the speakers 13a, 13b, and 13c, and the speakers 13a, 13b, and 13c output the received signals.
  • the audio signal is converted into an audio signal in the audible frequency band and output to the outside.
  • the player 11 each time the subway 20 arrives at a predetermined playback place, the player 11 reproduces sound data corresponding to that playback place, and the reproduced sound data is modulated by the modulator 15 and the amplifiers 19a. And output to the speakers 13a, 13b, 13c via 19b, 19c.
  • the noise levels at each of the reproduction places at which the sound data is reproduced may be the same or different from each other. This is because the environment in which the subway 20 operates may be different. For example, the inside of subway line 9 is quiet, but the inside of subway line 2 is somewhat noisy. As another example, the noise level when the subway 20 runs in a straight section and a curved section may be different.
  • passengers boarding the subway 20 may view mobile devices 30a, 30b, 30c, 30d, 30e, 30f, 30g, 30h such as smartphones, PDAs, laptops, or tablet PCs. You can carry each one.
  • the mobile devices 30a, 30b, 30c, 30d, 30e, 30f, 30g, 30h shown in FIG. 1 are each equipped with an application according to one embodiment of the invention. It is assumed that the device, and the operation will be described below with reference to the mobile device (30a).
  • the mobile device 30a may receive a sound signal output from the speaker 13a, extract an ID included in the received sound signal, and display information corresponding to the extracted ID.
  • the information may be i) location information or ii) location information and additional information.
  • the mobile device 30a may display the alarm, vibration, and / or screen.
  • the mobile device 30a when the mobile device 30a displays the information corresponding to the ID, the mobile device 30a vibrates the mobile device 30a so that the user can easily recognize the location information or the additional information displayed on the mobile device 30a. To be able.
  • the ID included in the sound signal received by the mobile device 30a may correspond to location information.
  • the ID included in the sound signal received by the mobile device 30a may correspond to i) location information and ii) additional information such as a surrounding map.
  • FIGS. 2A, 2B, and 2C are diagrams for describing a mobile device according to an embodiment of the present invention.
  • the mobile device 30 may display a screen as shown in FIG. 2A to a user.
  • the positional information corresponds to the ID.
  • the mobile device 30 may display the screen as shown in FIG. 2B to the user.
  • the positional information and the additional information (peripheral map) M correspond to the ID.
  • the mobile device 30 may display the screen as shown in FIG. 2C to the user.
  • the location information and the additional information (peripheral map) M correspond to the ID, and various languages such as Korean (KR), English (EN), CN (Chinese), and Japanese (JP) are supported. This is the case.
  • the user may recognize the location information and the additional information expressed in the selected language by selecting the language in which the user is comfortable.
  • the additional information is taken as an example of the surrounding map M, but the additional information is not limited to the surrounding map.
  • sound data according to an embodiment of the present invention may include a plurality of IDs.
  • the sound data includes a first ID, a second ID, and a third ID.
  • the mobile device 13a may determine and display what information corresponds to each ID.
  • location information and additional information as illustrated in FIG. 2B correspond to the first ID
  • restaurant information corresponds to the second ID
  • nothing corresponds to the third ID.
  • the mobile device 30 may display location information and additional information corresponding to the first ID and restaurant information corresponding to the second ID. Since nothing corresponds to the third ID, it is ignored. Later, if any information corresponds to the third ID, then the mobile device 30 will also display the information corresponding to the third ID.
  • the mobile device 30 stores corresponding information for each ID, and this information may be modified through an update of the application.
  • the restaurant information stored in the second ID may be changed at any time, and may be used as an advertisement-based revenue model.
  • a plurality of IDs are included in the sound data in advance, and information (for example, location information, additional information, advertisement .. Etc.) may be displayed on the mobile device 30.
  • the sound reproducing apparatus 10 includes a computer processor, a memory, and a sound reproducing apparatus 10 that operate the player 11, the modulator 15, and the storage 17. It further includes a system program for operation.
  • the player 11 under the control of the computer processor, the player 11 is loaded into the memory to perform the operation of reproducing the sound data, and the detailed description thereof will be omitted since the operation is easily known to those skilled in the art.
  • FIG 3 is a view for explaining a mobile device according to an embodiment of the present invention.
  • the mobile device 30 may include a program 31, an operating system (OS), a microphone 35, and an ID mapping table 37 according to an embodiment of the present invention.
  • OS operating system
  • ID mapping table 37 an ID mapping table
  • the mobile device 30 may further include at least one processor and at least one memory, and the program and the operating system may be loaded into the memory and executed under the control of the processor.
  • the program 31 may be composed of computer readable code, and the first location on the mobile device 300. Extracting the identifier (ID) from the sound signal received by the microphone 35 and determining what information corresponds to the extracted identifier (ID).
  • the sound signal received at the first place includes guide information and the identifier ID
  • the sound pressure of the identifier ID included in the sound signal includes noise of the first place and sound pressure that can be received by a human. It may be lower than the predetermined reference value in consideration of the level.
  • the program 31 may be computer readable code ('ID extraction unit') that executes the mobile device 300 extracting an identifier (ID) from a sound signal received by the microphone 35 at one place. And a computer readable code ('position determining unit') for determining what information corresponds to the extracted identifier (ID).
  • the program 31 optionally further includes computer readable code ('microphone on / off') for executing the step of turning on or off the microphone 35 on the mobile device 300. It may also include.
  • the microphone on / off unit turns on the speaker.
  • the microphone on / off unit asks the OS (or speaker drive driver) to make the microphone ready to receive a sound signal.
  • the ID extracting unit may cause the mobile device 300 to extract an ID included in the sound signal received by the microphone 35.
  • the location determiner may execute the step of determining, by the mobile device 300, the ID mapping table 37 to determine what information corresponds to the extracted ID.
  • the program 31 will not need to include an ID extraction unit.
  • the position determining unit determines what information corresponds to the ID extracted by the filter (hardware).
  • the ID mapping table 37 may include an ID, a location corresponding to the ID, related information 1, and related information 2.
  • the related information 1 and the related information 2 are each an example of additional information.
  • the ID mapping table 37 has been described as having one ID, but one of ordinary skill in the art should understand that this is exemplary. As mentioned in the description of the embodiment of FIG. 2D, a plurality of IDs may be included in the sound data, in which case an ID mapping table is additionally provided.
  • ID mapping tables may be used as shown in Table 1 and Table 2 below.
  • an ID starting with L may correspond to location information
  • an ID starting with A may correspond to restaurant information.
  • the program 31 may also execute the step of generating and providing a user interface for the user to input a destination station, although not separately illustrated as a functional block.
  • the program 31 may also execute the step of generating and providing a user interface for the user to input a departure station and a destination station, although not separately illustrated as a functional block.
  • the program 31 may also execute the step of informing the mobile device 300 that the user will arrive at the destination station by alarm, vibration, or voice when arriving at the destination station, although not separately illustrated as a functional block.
  • the user interface described above may be provided as a screen or a voice.
  • FIG. 4A is a diagram illustrating a sound pressure level (SPL) (hereinafter, referred to as 'human SPL') that can be recognized by humans, and FIGS. 4B and 4C illustrate an ID according to an embodiment of the present invention.
  • SPL sound pressure level
  • FIGS. 4B and 4C illustrate an ID according to an embodiment of the present invention.
  • Figure 4d shows an example of the noise level generated inside the vehicle, such as a train.
  • FIG. 4D refers to the paper "Study on road traffic noise level and frequency characteristics by vehicle type" (J. of Advanced Engineering and Technology, Vol. 1, No. 2 (2008) pp.339-346).
  • the identifier ID included in the sound signal output through the speaker has a predetermined sound pressure and a predetermined frequency.
  • the sound pressure of the ID is determined in consideration of i) a sound pressure level (SPL) (hereinafter referred to as 'SPL') that can be recognized by a human being, or ii) the SPL and the speaker of FIG. 4A. It may be determined to be lower than the predetermined reference value in consideration of all the noise level of the place where is installed.
  • SPL sound pressure level
  • the sound pressure of the ID may be determined to be less than the human SPL.
  • the sound pressure of the ID may be defined to exist in the hatched area in FIG. 4B or alternatively may be set to exist in the hatched area in FIG. 4C. That is, the sound pressure of the ID can be determined as long as the SPL is not exceeded in some or all of the audible frequency domains.
  • the sound pressure of the ID may be determined to have a sound pressure larger than the SPL by a predetermined magnitude.
  • the predetermined size has a limit value and is determined in consideration of the noise level of the place where the speaker is installed.
  • FIG. 4D shows a noise level inside a subway, and it can be seen that noise having a sound pressure of about 90 dB exists.
  • the sound pressure of the ID is somewhat higher than the human SPL, it will be buried by noise, so even if the sound pressure of the ID is slightly higher than the human SPL, the human may not recognize it. What is to be determined is how much higher the sound pressure of the ID is than the human SPL, which may be determined by measuring the noise level at the location where the speech is installed or by using existing measured values as shown in FIG. 4D.
  • the consideration of the SPL and / or the noise level that the human can recognize is to allow the human being to output the ID to the speaker without feeling discomfort.
  • the sound pressure level (SPL) (hereinafter, referred to as 'SPL') which can be recognized by humans is determined in consideration of the present invention, or ii) the SPL and the speaker of FIG. 4A are installed.
  • the noise level of the place is taken into consideration.
  • SPL sound pressure level
  • the ID frequencies may be included within 250 to 1.6 KHz and have frequencies smaller or larger than these.
  • the ID frequency includes a frequency of 250 Hz to 1.6 KHz, it should be determined to have a sound pressure less than the sound pressure of other frequency bands.
  • sound data reproduced by the sound reproducing apparatus 10 may include guide information D1 and ID D2.
  • ID D2 has a frequency and sound pressure as described in FIGS. 4A to 4D.
  • the sound data to be reproduced by the sound reproducing apparatus 10 may further include at least one or more other ID, in this case each ID is determined in consideration of the human-recognizable SPL and / or noise level Frequency and sound pressure.
  • FIG. 5 is a diagram for describing a method of providing location information using an automatic guide broadcasting apparatus in a vehicle according to an embodiment of the present invention.
  • FIGS. 1 to 3 and 5 A method of providing location information according to an embodiment of the present invention will be described with reference to FIGS. 1 to 3 and 5.
  • the application 31 of the mobile device 30a is executed by the user of the mobile device 30a (S101).
  • the application 31 may execute the step of providing the mobile device 30a with the user interface for inputting the destination station to the user, and the user may input the destination station through the user interface. have.
  • the application 31 may execute the step of providing the mobile device 30a with a user interface for inputting both the starting point and the destination station.
  • the application 31 may execute the step of providing the mobile device 30a with a user interface that allows the user to input both the departure and destination stations by voice.
  • the application 31 may execute the step of providing the mobile device 30a with a user interface for displaying the entire route map, such as the subway station route map, and allowing the user to select a starting station and a destination station on the route map. have.
  • the application 31 extracts an ID from the sound signal received by the microphone 35 to the mobile device 30a. (S103) can be executed.
  • the application 31 may execute the step S105 of determining the position corresponding to the ID extracted in the step S103 by referring to the ID mapping table 37 in the mobile device 30a.
  • the application 31 may execute the step (S107) of displaying, on the display unit (not shown) of the mobile device 30a, information on the position determined in S105 on the mobile device 30a.
  • step (S107) of displaying, on the display unit (not shown) of the mobile device 30a, information on the position determined in S105 on the mobile device 30a.
  • additional information as well as information on the position determined in S105 can be displayed together.
  • the application 31 may execute the step of performing an operation (alarm or vibration) to inform the user that the mobile device 30a will arrive at the destination station when the vehicle comes near the destination station.
  • the application 31 may execute a step of additionally outputting the voice information to the mobile device 30a in addition to visually displaying information about the location.
  • FIG. 6 is a diagram for describing an apparatus for generating sound data used in an automatic guide broadcasting apparatus in a vehicle, according to an exemplary embodiment.
  • an apparatus for generating acoustic data used in an automatic guide broadcasting apparatus in a vehicle includes a first modulator 41, It may include a second modulator 43, and an adder 47.
  • the first modulator 41 may modulate the guide information so as to have a frequency and a sound pressure strength that a human can actually recognize.
  • the second modulator 43 may modulate the ID to have sound pressure and frequency as described with reference to FIGS. 4A to 4D.
  • the second modulator 43 modulates the ID to have a frequency and sound pressure determined in consideration of i) human SPL and / or ii) noise level.
  • i) human SPL and / or ii) noise level i.
  • the adder 47 may combine the data output from the first modulator 41 and the data output from the second modulator 41.
  • the sound data generated by the sound data generating apparatus described with reference to FIG. 6 may be stored in, for example, the storage unit 17 in the embodiment of FIG. 1.
  • FIG. 7 is a view for explaining a mobile device according to an embodiment of the present invention.
  • a mobile device 100 may include a program 101, a computer processor 103, a storage unit 105, and a memory 107.
  • the mobile device 100 may further include an input / output device such as a touch type display unit or an input keyboard that may receive a user command.
  • the program 101 may correspond to the program 31 described with reference to FIG. 3.
  • the program 101 may be stored in the storage unit 105 and executed according to a user's command.
  • the computer processor 103 When a user command is input through an input / output device (not shown), the computer processor 103 loads the program 101 into the memory 107 and executes it.
  • the program 101 loaded in the memory 107 performs the operation of the program 31 described with reference to FIG. 3.
  • the storage unit 105 may store an ID mapping table.
  • the ID mapping table may be, for example, the one described with reference to FIG. 3.
  • the ID mapping table stored in the storage unit 105 may be stored in plural numbers as shown in Tables 1 and 2.
  • the ID mapping table stored in the storage 105 may be updated.
  • the mobile device 100 may further include a communication unit (not shown) capable of communicating with an external server.
  • the program 101 checks whether the mobile device 100 needs to update the ID mapping table by connecting to the external server periodically or whenever it is executed, and if necessary, the external server. Receiving the update data of the ID mapping table from the; and updating the ID mapping table previously stored in the storage unit 105 with the update data of the received ID update table.
  • FIG. 8 is a diagram for describing a method of providing information using an automatic guide broadcasting apparatus in a vehicle according to another embodiment of the present invention.
  • the information herein may include additional information as well as location information.
  • the application 31 of the mobile device 30a is executed by the user of the mobile device 30a (S201).
  • the application 31 may execute the step of providing the mobile device 30a with a user interface for inputting the destination station to the user, and the user may input the destination station through the user interface. have.
  • the application 31 may execute the step of providing the mobile device 30a with a user interface for inputting both the starting point and the destination station.
  • the application 31 may execute the step of providing the mobile device 30a with a user interface that allows the user to input both the departure and destination stations by voice.
  • the application 31 may execute the step of providing the mobile device 30a with a user interface for displaying the entire route map, such as the subway station route map, and allowing the user to select a starting station and a destination station on the route map. have.
  • the microphone 35 receives a sound signal output from the speaker 13a to the mobile device 30a. (S203) can be executed.
  • the application 31 may execute the step S205 of extracting at least one or more IDs from the sound signal received by the microphone 35 to the mobile device 30a.
  • the application 31 may cause the mobile device 30a to perform step S207 of referring to at least one or more ID mapping tables 37 to determine what information corresponds to the ID extracted in step S103. .
  • the application 31 may cause the mobile device 30a to execute step S209 of displaying all information corresponding to the extracted ID on a display unit (not shown) included in the mobile device 30a.
  • step S209 the application 31 may execute the step of performing an operation (alarm or vibration) together with the mobile device 30a informing the user that the vehicle will arrive at the destination station soon when the vehicle comes near the destination station. have.
  • the application 31 may execute a step of additionally outputting the voice information to the mobile device 30a in addition to visually displaying the information about the location.
  • FIG. 9 is a diagram for describing an information guide method using an automatic guide broadcast apparatus in a vehicle, according to another exemplary embodiment.
  • the application 31 of the mobile device 30a is executed by the user of the mobile device 30a (S301).
  • the application 31 may execute the step of providing the mobile device 30a with the user interface for inputting the destination station to the user, and the user may input the destination station through the user interface. have.
  • the application 31 may execute the step of providing the mobile device 30a with a user interface for inputting both the starting point and the destination station.
  • the application 31 may execute the step of providing the mobile device 30a with a user interface that allows the user to input both the departure and destination stations by voice.
  • the application 31 may execute the step of providing the mobile device 30a with a user interface for displaying a route map like the subway station route map and allowing the user to select a starting station and a destination station on the route map. .
  • the mobile device 30a may execute step S303 of checking whether the microphone 35 receives an acoustic signal. Can be.
  • step S305 of extracting an ID from the sound signal received by the microphone 35 in the mobile device 30a. You can.
  • the application 31 may execute the step S307 of determining the position corresponding to the ID extracted in the step S305 by referring to the ID mapping table 37 in the mobile device 30a.
  • the application 31 may execute the step S309 of displaying the information on the position determined in S307 on the display unit (not shown) included in the mobile device 30a on the mobile device 30a.
  • additional information as well as information on the position determined in S307 can be displayed together.
  • the application 31 may execute the step of performing an operation (alarm or vibration) to inform the user that the mobile device 30a will arrive at the destination soon when the vehicle comes near the destination station.
  • the application 31 may execute a step of additionally outputting voice information to the mobile device 30a in addition to visually displaying information about the location.
  • the application 31 may execute the step S311 of checking whether the sound signal is received from the microphone 35 periodically or continuously.
  • the mobile device 30a does not change the position information currently displayed on the display unit (not shown) without changing it. You can run
  • the mobile device 30a When the application 31 receives the sound signal through the microphone 35 as a result of performing the operation S311, the mobile device 30a performs the operations S305 to S307 on the currently received sound signal, and then displays the display unit (not shown). In step S309, new information may be displayed.
  • step S303 the application 31 may execute the step S313 of predicting the position on the mobile device 30a. If no sound signal is received (S303), for example, it may be generated when the application 31 is first run.
  • step S313 The predicted position in step S313 is displayed on the display unit in step S309.
  • the operation of predicting the position may be performed in various ways.
  • the results of the GPS sensor can be used.
  • step S313 it is also possible to provide a predetermined ready screen without predicting the position. For example, 'Please wait a moment. You're preparing for location information. "
  • step S313 may not be performed. That is, if no sound signal is received as a result of performing step S303 (S303: N), in step S309, the starting area input by the user may be regarded as a current location and displayed.
  • FIG. 10 is a diagram for describing a system for providing location information using an automatic guide broadcasting apparatus in a vehicle, according to another embodiment of the present invention.
  • the vehicle is not illustrated for convenience of description.
  • a system for providing location information using an automatic guide broadcasting apparatus in a vehicle includes an automatic guide broadcasting apparatus, an ID signal generator 150, a splitter 114, and adders 118a. , 118b, 118c).
  • the automatic announcement device may include the sound reproducing apparatus 110, the position estimating unit 112, the amplifiers 119a, 119b, and 119c, and the speakers 113a, 113b and 113c.
  • the ID signal generator 150 may include an ID selector 151, a second modulator 153, and a second amplifier 155.
  • the system for providing location information according to the present invention can provide more accurate location information based on the guide information provided by the automatic guide broadcasting apparatus in a vehicle through a speaker.
  • the location information providing system is mounted on a vehicle such as a subway or a train or a bus to provide more accurate location information to a passenger in a vehicle.
  • the automatic announcement system is a device that is conventionally mounted in a vehicle such as a subway, train, or bus to guide a station. Such a device stores the guide information corresponding to each station as sound data, and reproduces the corresponding sound data each time the vehicle arrives at the predetermined position.
  • the sound reproducing apparatus 110 may include a storage unit 117 for storing sound data, a player 110 for reproducing sound data, and a first modulator 115 for converting sound data into an electrical signal. .
  • the position estimating unit 112 estimates the position of the vehicle and provides it to the sound reproducing apparatus 110.
  • the sound reproducing apparatus 110 selects the sound data based on the position and outputs the sound data as an electrical signal.
  • the electrical signal output from the sound reproducing apparatus 110 is branched by the splitter 114 toward the amplifiers 119a, 119b, and 119c and the ID signal generator 150 according to the present invention.
  • the ID selector 151 analyzes an electrical signal provided from the splitter 114 and selects an ID corresponding thereto.
  • the second modulator converts the ID into an electrical signal that can be output from the speaker and outputs the ID to the amplifier 155.
  • the amplifier 155 amplifies the input electrical signal and outputs the amplified electrical signals to the adders 118a, 118b, and 118c.
  • the adders 118a, 118b, and 118c sum the signals output from the amplifier 155 and the amplifiers 119a, 119b, and 119c, respectively, as illustrated in FIG. 10 and output them to the speaker.
  • each of the acoustic data stored in the storage unit 117 is configured to include a unique water marker, and the ID selector 151 may recognize the water marker and select an ID corresponding thereto.
  • an ID table corresponding to ID for each water marker is prepared in advance, and the ID selector 151 should be able to refer to the ID table.
  • the ID selector 151 restores the electrical signal output through the automatic announcement apparatus 110 to digital data and selects an ID corresponding to the restored digital data.
  • an ID table corresponding to IDs for each of the restored digital data should be prepared in advance, and the ID selector 151 should be able to refer to the ID table.
  • the second modulator 153 may convert the ID selected by the ID selector 151 into an electrical signal having a predetermined frequency and sound pressure.
  • the description of the predetermined frequency and sound pressure will be replaced with those described with reference to FIGS. 4A to 4D.
  • the second amplifier 155 amplifies and outputs the electrical signal modulated by the second modulator 153 to the adders.
  • FIG. 11 is a diagram for describing a system for providing location information using an automatic guide broadcasting apparatus in a vehicle, according to another exemplary embodiment.
  • a system for providing location information using an automatic guide broadcasting apparatus in a vehicle includes an automatic guide broadcasting apparatus, ID signal generators 250a, 250b, and 250c, a splitter 214, and Adders 218a, 218b, and 218c.
  • the automatic announcement device may include a sound reproducing apparatus 210, a position estimating unit 212, amplifiers 219a, 219b, and 219c, and speakers 213a, 213b, and 213c.
  • the automatic announcement broadcast apparatus may be the same as or similar to the function of the automatic announcement broadcast apparatus described with reference to FIG. 10.
  • the ID signal generators 250a, 250b, and 250c include an ID selector, a second modulator, and second amplifiers, respectively, and these components include the ID selector 151 described with reference to FIG. 10. , The same as or similar to the function of the second modulator 153 and the second amplifier 155.
  • the ID signal generators 250a, 250b, and 250c are provided for each of the adders 218a, 218b, and 218c.
  • the splitter 214 branches the signal output from the sound reproducing apparatus 210 to each of the ID signal generators 250a, 250b, 250c, and the ID signal generators 250a, 250b, 250c.
  • Respectively selects IDs converts the selected IDs into electrical signals having a predetermined frequency and sound pressure, and outputs them to the adders.
  • the description of the predetermined frequency and sound pressure will be replaced with those described with reference to FIGS. 4A to 4D.
  • the sound reproducing apparatus 210 performs the same or similar operation as that of the sound reproducing apparatus 110 in FIG. 10, and the position estimating unit 212 is the same as the operation of the position estimating unit 112 in FIG. 10. Do something similar.
  • the embodiment of FIG. 11 may have a plurality of ID signal generators 250a, 250b, and 250c, and thus it is possible to output different IDs for each speaker.
  • FIG. 12 is a diagram for describing a system for providing location information using an automatic guide broadcast apparatus in a vehicle according to another embodiment of the present invention.
  • a system for providing location information using an automatic guide broadcasting apparatus in a vehicle includes an automatic guide broadcasting apparatus, an ID signal generator 350, a splitter 314, and an adder 318. It includes.
  • the automatic announcement device may include a sound reproducing apparatus 310, a position estimating unit 312, amplifiers 319a, 319b, and 319c, and speakers 313a, 313b, and 313c.
  • the automatic announcement broadcast apparatus may be the same as or similar to the function of the automatic announcement broadcast apparatus described with reference to FIG. 10.
  • the ID signal generator 350 includes an ID selector 351 and a second modulator 353. These components include the ID selector 151 and the second modulator 153 described with reference to FIG. Same or similar to the function of.
  • the electrical signal output from the sound reproducing apparatus 310 is branched toward the ID signal generator 350 according to the exemplary embodiment of the present invention by the splitter 314.
  • the ID selector 351 analyzes an electrical signal provided from the splitter 314 and selects an ID corresponding thereto.
  • the second modulator 353 converts the ID into an electrical signal in a form output from the speaker and outputs the ID to the adder 318.
  • the operation of the ID selector 351 and the operation of the second modulator 353 are similar to those of the ID selector 115 and the second modulator 153 of FIG. See
  • the adder 318 may add the signal output from the splitter 314 and the signal output from the ID signal generator 350 to the amplifiers 319a, 319b, and 319c. do.
  • the amplifiers 319a, 319b, and 319c amplify the electrical signals output from the adder 318 and output them to the speakers 313a, 313b, and 313c.
  • FIG. 13 is a diagram for describing a system for providing location information using an automatic guide broadcasting apparatus in a vehicle according to another embodiment of the present invention.
  • a system for providing location information using an automatic guide broadcast apparatus in a vehicle includes an automatic guide broadcast apparatus, an ID signal generator 450, a splitter 414, and an adder 418. It includes.
  • the automatic announcement device may include a sound reproducing apparatus 410, a position estimating unit 412, amplifiers 419a, 419b, and 419c, and speakers 413a, 413b, and 413c.
  • the automatic announcement broadcast apparatus may be the same as or similar to the function of the automatic announcement broadcast apparatus described with reference to FIG. 10.
  • the ID signal generator 450 includes an ID selector 451 and a second modulator 453, and these components include the ID selector 151 and the second modulator 153 described with reference to FIG. Same or similar to the function of.
  • the electrical signal output from the sound reproducing apparatus 410 is branched toward the ID signal generator 450 according to the exemplary embodiment of the present invention by the splitter 414.
  • the ID selector 451 analyzes an electrical signal provided from the splitter 414 and selects an ID corresponding thereto.
  • the second modulator 453 converts the ID into an electrical signal that can be output from the speaker and outputs the ID to the adder 418.
  • the operation of the ID selector 451 and the operation of the second modulator 453 are similar to those of the ID selector 115 and the second modulator 153 of FIG. See
  • the adder 418 sums the signal output from the splitter 414 and the signal output from the ID signal generator 450 and outputs the amplifiers 419a, 419b, and 419c as illustrated in FIG. 13. do.
  • the amplifiers 419a, 419b, and 419c amplify the electrical signals output from the adder 418 and output them to the speakers 413a, 413a ', 413b, 413b', 413c, and 413c '.
  • a switch S is positioned between the amplifier 419a and the speakers 413a and 413a ', and the switch S transmits a signal output from the amplifier 419a to the speaker 413a and the speaker. Is switched to face any one of the speakers 413a '.
  • the other switches S also have the same function.
  • the amplifier may be located anywhere before or after the adder.
  • amplifiers 119a, 119b, and 119c are located before adders 118a, 118b, and 118c, respectively, which is illustrative, where the amplifiers are each adders. It is also possible to be located between the speaker and the speakers (113a, 113b, 113c).
  • the amplifiers 219a, 219b, and 219c are located before the adders 218a, 218b, and 218c, respectively, which are exemplary, and the amplifiers are each associated with the adders. It is also possible to be located between the speakers 213a, 213b, 213c.
  • the amplifiers 319a, 319b, and 319c are respectively located with an adder 318 next to each other. Instead of the amplifiers 319a, 319b, and 319c, one amplifier is provided. It is also possible that the configuration located before the adder 318 is possible.
  • the amplifiers 419a, 419b, and 419c are respectively located with an adder 418 next to each other, even in a configuration in which one amplifier is located before the adder 418. It would be possible.
  • FIG. 14 is a diagram illustrating a broadcasting system using a mixer according to an embodiment of the present invention.
  • a broadcasting system 1100 using a mixer may include a storage unit 1010 for storing a sound source (or sound data), and converting digital data into an analog signal.
  • An amplifier (AMP) 1040 that amplifies the signal output from the DAC 1020, the mixer 1030, the mixer 1030, and a speaker 1050 that outputs the signal output from the amplifier 1040 as an external sound. It may include.
  • the speaker 1050 is shown as one, but it will be understood by those skilled in the art that a plurality of speakers may be configured.
  • the mixer 1030 refers to outputting a mixed signal to the speaker 1050, the speaker 1050 after being amplified through the amplifier 1040 even if the amplifier 1040 is not explicitly mentioned. It should be understood that the output is through.
  • the sound source stored in the storage unit 1010 refers to any data that can be output as sound through a speaker, such as a voice recorded file or a song file.
  • the DAC 1020 converts a sound source into an electrical signal output from the speaker 1050.
  • a sound source (or acoustic data) converted into an electrical signal is referred to as an acoustic signal.
  • the mixer 1030 receives an analog sound signal output by the DAC 1020 and performs a predetermined mixing operation.
  • the mixer 1030 before the mixer 1030 outputs the sound signal output from the DAC 1020 to the speaker 1050, the mixer 1030 recognizes sound from the sound signal output from the DAC 1020 and generates metadata. And a mixing signal obtained by converting the generated metadata into a sound wave signal in an inaudible band and mixing the converted metadata with an acoustic signal in an inaudible band. Can be generated.
  • the metadata may be an ID such as '0031'.
  • ID '0031' is an example, and the server (not shown) maps and stores information such as "Next station is Seoul Station, right door, KTX history when exiting exit 1 of Seoul Station” and stores it. You may be doing
  • the metadata in the present invention need not be limited to the reverse.
  • the metadata in the case of an emergency broadcast such as "emergency output. Please evacuate slowly because of a fire," the metadata includes the position information provided from the position estimating unit 1035 and the position information. The information may be used to guide the evacuation route at the current location.
  • the acoustic recognition engine 1033 may generate metadata indicating the current position and the evacuation path when it is determined that an emergency signal such as 'emergency' or 'fire' is included in the acoustic signal. .
  • the term 'external' may be, for example, devices such as a speaker or a transmitter, but is not limited thereto.
  • the term 'outside' broadly means any device that receives a signal output from the mixer 1030.
  • the mixer 1030 after outputting the mixed signal to the speaker 1050, another acoustic signal is received from the DAC 1020 and converted into a sound wave signal of a new inaudible band Until is provided, the meta data converted into the sound wave signal of the inaudible band may continue to be output to the speaker 1050 at predetermined time intervals. This operation will be described in more detail with reference to FIG. 15.
  • FIG. 15 shows a mixer 1030 according to an embodiment of the present invention, time t 1 , t 2 ,..., T N , t N + 1 , t N + 2 ...
  • This is a spectrogram showing the mixed signals output in order on the frequency band.
  • the spacing between them may be constant or not equal to each other, as will be appropriate for a person skilled in the art.
  • the mixer 1030 mixes a sound signal S1 (hereinafter referred to as 'first sound signal') and metadata M1 (hereinafter referred to as 'first meta data') at time t 1 .
  • the first metadata is metadata generated by recognizing the first sound signal.
  • the mixer 1030 When the predetermined time t 2 is reached, the mixer 1030 outputs the first meta data M1 to the speaker 1050.
  • the mixer 1030 outputs the first meta data M1 to the speaker 1050 and may be performed until the time t n .
  • the mixer 1030 outputs a signal obtained by mixing the sound signal S2 (hereinafter referred to as 'second sound signal') and the meta data M2 (hereinafter referred to as 'second metadata') at time t n + 1 .
  • the second meta data is meta data generated from the second sound signal.
  • the mixer 1030 When the predetermined time t N + 1 , the mixer 1030 outputs the second meta data M2 to the speaker 1050. In this manner, each time a predetermined time is reached, the mixer 1030 outputs the second metadata M2 to the speaker 1050, and this operation outputs a new sound signal (hereinafter, 'third sound signal'). Until the metadata is received and converted into a new inaudible band sound wave signal.
  • the mixer 1030 when the mixer 1030 receives the first sound signal, the mixer 1030 generates first metadata from the first sound signal, and mixes the first metadata with the first sound signal. Output to the speaker 1050. Subsequently, until the second acoustic signal is received and meta data converted into a sound wave signal of a new inaudible band is provided, the first metadata converted into a sound wave signal of an inaudible frequency band is repeatedly repeated at a predetermined time interval. 1050).
  • the mixer 1030 When the mixer 1030 receives the second sound signal, the mixer 1030 generates second metadata from the second sound signal, mixes the second metadata with the second sound signal, and outputs the second metadata to the speaker 1050. Thereafter, until the third acoustic signal is received and meta data converted into the sound wave signal of the new inaudible band is provided, the second metadata converted into the sound wave signal of the inaudible frequency band is repeatedly repeated at predetermined time intervals. 1050).
  • the mixer 1030 may operate in the same manner with respect to the subsequently received acoustic signal.
  • the mixer 1030 operating as described above includes, for example, an input stage 1031, an output stage 1032, an acoustic recognition engine 1033, an acoustic wave generating engine 1034, a coupling unit 1036, and a bypass path. 1039 may be configured to include.
  • the input terminal 1031 may receive a sound signal output from the DAC 1020.
  • the output terminal 1032 may output the mixed signal mixed by the combiner 1036 to the amplifier 1040.
  • the acoustic signal received through the input terminal 1031 is provided to the coupling unit 1036 through the bypass path 1039.
  • the acoustic signal once received through the input terminal 1031 may be output to the amplifier 1040 even when no metadata is generated.
  • the sound recognition engine 1033 or the sound wave generation engine 1034 does not operate due to a problem, the sound of the broadcasting system may be output to the amplifier 1040 through the mixer.
  • the acoustic recognition engine 1033 recognizes sound by analyzing the sound signal received from the input terminal 1031 or the sound signal input to the coupling unit 1036 through the bypass path 1039.
  • the acoustic recognition engine 1033 for example, because the acoustic signal received at the input terminal 1031 is in the form of an analog signal, converts it into the form of digital data and then recognizes the sound contained in the digital data.
  • the acoustic recognition engine 1033 generates meta data from the recognized sounds. Meta data is for example
  • the sound wave generation engine 1034 may convert the meta data generated by the acoustic recognition engine 1033 into a sound wave signal of an inaudible band.
  • the inaudible band will be described in detail with reference to FIG. 21.
  • the inaudible band is indicated by hatched lines.
  • the non-audible band means a frequency band that is not recognized by the human hearing in the sound wave band, and this inaudible band varies depending on the intensity of sound pressure of the output sound.
  • the inaudible band should be determined. Also, the output range of the speaker 1050 is to be considered. An inaudible band must be defined within the output range of the speaker 1050.
  • the metadata should be converted into a frequency band that cannot be perceived by human hearing.
  • the combiner 1036 generates a mixing signal by mixing the meta data converted into the sound wave signal of the inaudible band by the sound wave generation engine 1034 and the sound signal received through the bypass path 1039.
  • a mixing signal output by the coupling unit 1036 may refer to that of FIG. 15.
  • the mixer 1030 may further include at least one of a GPS sensor, a Wi-Fi communication unit, a mobile communication unit 1037, a location estimator 1035, and a DAC 1038, for example, to be installed in a public transportation vehicle. Can be configured.
  • the location estimator 1035 may estimate the location using at least one of the GPS sensor, the Wi-Fi communication unit, and the mobile communication communication unit 1037.
  • the position may be, for example, a position at the time when the input terminal 1031 receives a sound signal.
  • the position estimator 1035 may estimate the position using the result sensed by the inertial sensor.
  • the position may be estimated using at least one of the GPS sensor, the Wi-Fi communication unit, and the mobile communication communication unit 1037 and the sensing result by the inertial sensor.
  • the position estimating unit 1035 can also estimate the position using the sound recognized by the acoustic recognition engine 1033. For example, if there is data "next station is Gangnam station" in the sound recognized by the acoustic recognition engine 1033, the position estimating unit 1035 estimates that the current position is a point before arriving at Gangnam station. Will be available.
  • the position estimated by the position estimating unit 1035 may be provided to the acoustic recognition engine 1033.
  • the acoustic recognition engine 1033 may include the position provided from the position estimator 1035 in the metadata.
  • the position estimating unit 1035 may further include at least one of the GPS sensor, the Wi-Fi communication unit, and the mobile communication communication unit 1037 and the inertial sensor even if the position information is not included in the sound recognized by the acoustic recognition engine 1033.
  • the sensing results can be used to estimate the location—eg, the location of the mixer 1030 or the device on which the mixer 1030 is mounted.
  • the DAC 1038 converts the meta data generated by the sound wave generation engine 1034 into an analog signal and then provides the combined data to the combiner 1036.
  • the coupling unit 1036 receives an acoustic signal (called a 'first sound signal') at a time T1, and then receives a sound signal ('second sound signal') at a time T2 after a predetermined time elapses. Let's assume that you are inputting.
  • the combiner 1036 mixes the first sound signal and the meta data generated from the first sound signal by the sound wave generation engine 1034 to generate a mixing signal (referred to as a 'first mixing signal') to output the output 1032. )
  • the combiner 1036 mixes the second sound signal and the metadata generated from the second sound signal by the sound wave generation engine 1034 to generate a mixed signal (referred to as a 'second mixing signal') to generate an output terminal.
  • a mixed signal referred to as a 'second mixing signal'
  • the combiner 1036 outputs the first mixing signal, receives the second sound signal, and outputs the metadata generated from the first sound signal during the time before receiving the metadata received from the second sound signal. 1032 may be output at predetermined time intervals.
  • the combiner 1036 may repeatedly output a sound wave signal in an inaudible band at predetermined time intervals.
  • the combiner 1036 may repeatedly output a sound wave signal in an inaudible band at predetermined time intervals.
  • the sound wave generation engine 1034 when the sound wave generation engine 1034 receives the meta data (first metadata) from the sound recognition engine 1033, the sound wave generation engine 1034 switches to a sound wave signal in the inaudible band, and then the Until the meta data (second meta data) is received, the DAC 1038 may be provided with the first meta data converted into the sound wave signals of the inaudible band at predetermined time intervals.
  • the sound wave generation engine 1034 when the sound wave generation engine 1034 receives the metadata (first metadata) from the acoustic recognition engine 1033, the sound wave generation engine 1034 converts the sound wave signal in the inaudible band, and the converted first metadata is converted into a DAC. It is input to the coupling unit 1036 through 1038. The combiner 1036 may then output the first metadata received from the DAC 1038 to the output terminal 1032 at predetermined time intervals until the second metadata is received.
  • 16 is a diagram illustrating a broadcasting method according to an embodiment of the present invention.
  • the broadcasting method includes an operation of mixing metadata with an acoustic signal before the acoustic signal is output through the outside.
  • Each of the steps to be described below may be performed by the mixer described with reference to FIGS. 14, 18, and 19, for example.
  • the input terminal 1031 receives the sound signal SS ('first sound signal') to be output to the outside (S1101), and the input terminal 1031 receives in step S1101. Recognizing the sound in the first sound signal (S1103), generating the meta data (MD) from the sound recognized in the step S1103 (S1105), the meta data (MD) generated in step S1105 of the inaudible band Converting to a sound wave signal (S1107), mixing the sound wave signal (CMD) of the non-audible band converted in step S1107 and the first sound signal received in step S1101 to generate a mixing signal (MS) (S1109) When the predetermined time has elapsed since the mixing signal MS is output to the outside in step S1111 and the mixing signal MS is output to the outside in step S1109, the inaudible band converted in step S1107 is performed. And outputting the sound wave signal CMD to the outside (S1113).
  • the broadcasting method may further include providing a sound signal received by the input terminal 1031 to the step (S1109) of generating a mixing signal through a bypass path. .
  • the mixing signal is mixed with the acoustic signal provided through the bypass path and the meta data converted into the acoustic signal in the inaudible band.
  • bypass path refers to a path that bypasses the step of generating the meta data and the step of converting the meta data into the sound wave signal of the inaudible band.
  • the broadcast method exemplarily described in FIG. 16 may be applied to the broadcast system described with reference to FIG. 14 or the broadcast system described with reference to FIG. 18.
  • the broadcast system described with reference to FIGS. 14 and 15 further includes a microphone (not shown) or a storage unit 1010 for storing a sound source.
  • DAC 20 may be configured to include a microphone (not shown).
  • the mixer 1030 receives the sound signal input through the microphone (not shown) to perform the operation. That is, the mixer 1030 receives a sound signal input through a microphone (not shown), and performs a predetermined mixing operation on the sound signal.
  • the predetermined mixing operation is as described with reference to FIGS. 14 and 15.
  • the broadcast system described with reference to FIGS. 14 and 15, and modifications thereof, and the broadcast method described with reference to FIG. 16 may be useful when applied to a noisy area. That is, it may be usefully applied to an environment in which the microphone is not easy to recognize the sound output from the speaker due to the high noise such as subway station or bus stop.
  • the broadcast method described with reference to FIGS. 14 to 16 may be useful when a foreigner who does not broadcast in his native language listens to the broadcast.
  • a broadcast such as a subway guide, TV broadcast, public service announcements through the PA.
  • the broadcast method described with reference to FIGS. 14 to 16 may be useful to those who miss the broadcast because they are concentrated elsewhere. In other words, if you are listening to music on the subway or talking with a friend, you may miss the broadcast, but you may see the broadcast you missed with a sound wave signal that is repeatedly output. You can tell people who are focusing on other tasks that important disaster broadcasts are being output from the TV. You can share information about emergencies with people who are shopping while listening to music.
  • 17 is a view for explaining an example of using a broadcasting system according to an embodiment of the present invention.
  • the broadcasting system 1300 may be linked with the mobile device 1200.
  • the mobile device 1200 may be, for example, a smart phone, PDA, notebook, tablet PC, etc., but those skilled in the art should understand that the present invention is not limited to these devices.
  • the broadcast system 1300 may be, for example, a broadcast system 100 described with reference to FIG. 14, a broadcast system described with reference to FIG. 18, or a broadcast system using a mixer described with reference to FIG. 19. Also, the broadcast system 1300 may be a broadcast system in which the broadcast method described with reference to FIG. 16 or the broadcast method described with reference to FIG. 20 is implemented.
  • the broadcast system 1300 is the broadcast system 1100 of FIG. 14, the operation of the mobile device 1200 will be described.
  • the mobile device 1200 may recognize the sound output through the broadcasting system 1300 (that is, the sound output through the speaker), and extract metadata if the recognized sound includes metadata.
  • the mobile device 1200 recognizes the extracted metadata and informs the user visually, auditoryly, and / or tactilely, or transmits the metadata to a server (not shown) and information related to the metadata from the server (not shown). You can also notify the user by receiving.
  • the mobile device 1200 may include a computer processor 1201 operating by computer instructions, a microphone 1203 capable of receiving sound waves, a user interface unit 1205, a memory 1207, And application 1209.
  • the application 1209 may be loaded into the memory 1207 under the control of the computer processor 1201 to perform an operation.
  • the microphone 1203 may receive sound waves output from the announcement broadcast system 1300.
  • the application 1209 may determine whether there is metadata in the sound wave received by the microphone 1203, and, if there is metadata, convert it into a form that can be recognized by the user.
  • the form that can be recognized by the user may be, for example, a form that can be recognized by sight, hearing, or touch.
  • the application 1209 determines whether there is metadata in the sound wave received by the microphone 1203, and if there is metadata, transmit the metadata to a server (not shown) and respond to the metadata from the server.
  • the received data can be converted into a form that can be recognized by the user.
  • the mobile device may include a function performed by the application 1209 in hardware form or as part of an OS.
  • the broadcasting system 1300 is the broadcasting system described with reference to FIG. 18, the operation of the mobile device 1200 will be described.
  • the microphone 1203 of the mobile device 1200 may receive sound waves output through a speaker (not shown) of the TV receiver 1511, and the application 1209 may transmit metadata to sound waves received by the microphone 1203. It can be determined whether there is, and if there is metadata, it can be converted into a form that can be recognized by the user.
  • the mobile device 1200 may directly receive the image data contained in the electromagnetic wave transmitted through the transmitter 1509, without passing through the TV receiver 1511, for this purpose, further comprises an antenna (not shown) can do.
  • the signal received by the antenna is an electromagnetic wave
  • the data corresponding to the sound among the image data included in the electromagnetic wave may include meta data modulated into an inaudible band according to an embodiment of the present invention.
  • the mobile device 1200 may further include a component (not shown) for demodulating electromagnetic waves.
  • the application 1209 may determine whether there is metadata in the broadcast signal received by the antenna, and convert the metadata into a form that the user can recognize if the metadata exists.
  • the application 209 determines whether there is metadata in the data corresponding to the sound among the video data carried in the broadcast signal received by the antenna, and if there is metadata, the application 209 stores the metadata in the server (not shown). It can be converted into a form that can be recognized by the user by receiving the data corresponding to the metadata from the server and the transmission.
  • FIG. 18 is a diagram illustrating a broadcast system using a mixer according to an embodiment of the present invention.
  • a broadcasting system using a mixer includes a storage unit 1501 for storing an uncompressed video signal and an audio signal, a mixer 1503, an encoder 1507, and a transmitter ( 1509).
  • the mixer 1503 may perform the same operation as the mixer 1030 described with reference to FIG. 14. That is, the mixed signal as described above may be generated from the uncompressed video signal and the sound signal, and output to the encoder 1507.
  • the mixer 1503 receives an image signal and an audio signal, converts the audio signal into a mixing signal as described above, and outputs the audio signal to the encoder 1507 together with the image signal.
  • the mixer 1503 may output a mixing signal as shown in FIG. 15 like the mixer 1030.
  • the encoder 1507 may output the mixed signal output from the mixer 1503 using a lossy compression coding technique.
  • the lossy compression coded data output from the encoder 1507 is transferred to the transmitting network through the transmitter 1509.
  • the transmitter 1509 broadcasts the lossy compression coded data by the encoder 1507 in the form of electromagnetic waves.
  • the broadcast electromagnetic wave is transmitted to the TV receiver 511 through the network for transmission.
  • the transmitting network may be configured to include, for example, an internet network and / or a base station.
  • the TV receiver 1511 receives electromagnetic waves through a transmission network, converts the received electromagnetic waves into a viewable form (video and audio) and outputs them.
  • 19 is a view for explaining a mixer according to another embodiment of the present invention.
  • the mixer 1030 illustrated in FIG. 19 may be used in place of the mixer 1030 in the broadcast system exemplarily illustrated in FIG. 14 or the mixer 1501 of the broadcast system exemplarily illustrated in FIG. 18.
  • the mixer 1030 may output the sound signal output from the DAC 1020 before outputting the sound signal output from the DAC 1020 to the speaker 1050. Recognizes sound from and generates metadata, which is associated with sound output to the speaker, converts the generated metadata as an acoustic signal in the non-audible band, and converts the metadata converted as an acoustic signal in the inaudible band A mixing signal mixed with the signal may be generated.
  • the mixer 1130 may also determine whether the non-audible band sound wave data is included in the acoustic signal received from the DAC 1020, and if included, the new ratio instead of the previously included non-audible band sound wave data. Whether to change to clear-band sound wave data (where the change can be any, all, partial, addition, or partial deletions) or to preserve existing non-audible band sound wave data (hereinafter, 'bypass') Determine whether or not.
  • the mixer 1130 outputs the sound signal received from the DAC 1020 as it is determined as a result of the determination. For example, when the existing inaudible band sound wave data means a URL or an ID representing a URL, the mixer 1130 may output the sound signal received from the DAC 1020 as it is.
  • the mixer 1130 may generate new non-audible band sound wave data and change the existing non-audible band sound wave data using the new non-audible band sound wave data.
  • the new non-audible band sound wave data may further include, for example, position estimation information by the position estimating unit 1035.
  • the mixer 1130 for implementing the above-described functions may have a configuration as shown in FIG. 19, for example, but a person skilled in the art should understand that the mixer 1130 according to the present invention is not limited to the configuration as shown in FIG. 19.
  • the mixer 1130 of FIG. 19 may further include a filter F, a second coupling part C, and a switch S when compared to the mixer 1030 of FIG. 14.
  • mixer 1130 will be described with reference to portions that differ from the mixer 1030.
  • the filter F receives an electrical signal output from the DAC 1020, and the filter F removes inaudible band sound wave data in the frequency band.
  • the non-audible band sound wave data output from the DAC 1038 is output to the combiner 1036 (called the 'first combiner') and the second combiner C.
  • the switch S under the control of a controller (not shown) or the acoustic recognition engine 1033, switches the output of the first coupling unit 1036 to the output terminal 1032 or switches the output of the second coupling unit C. Switch to output stage 1032.
  • the controller (not shown) or the acoustic recognition engine 1033 determines whether to change the existing non-audible band sound wave data when the acoustic signal output from the DAC 1038 already includes the non-audible band sound wave data. If it is determined and wants to change, the switch S may be controlled such that the output of the second coupling unit C is output to the output terminal 1032.
  • the switch S may be controlled so that the output of the first coupling unit 1036 is output to the output terminal 1032.
  • the acoustic recognition engine 1033 generates metadata from an acoustic signal output from the DAC 1038, and the acoustic wave generation engine 1034 converts the metadata into an acoustic wave signal of an inaudible band.
  • the DAC 1038 converts the sound wave signal of the non-audible band converted by the sound wave generation engine 1034 into an analog signal, and then outputs it to the first and second combiners.
  • the switch S is switched such that either the first coupling part or the second coupling part is output to the output terminal 1032.
  • acoustic recognition engine 1033 and the acoustic wave generating engine 1034 please refer to the embodiment described with reference to FIG.
  • the acoustic recognition engine 1033 does not generate meta data when the acoustic signal output from the DAC 1038 includes specific non-audible band sound wave data-predetermined to pass. Therefore, there is no non-audible band sound wave data generated in the sound wave generation engine 1034, the switch S is switched so that the output of the first coupling portion is output to the output stage 1032.
  • the acoustic recognition engine 1033 may refer to the sound wave data of the corresponding non-audible band and may add new metadata. Create Accordingly, the sound wave generation engine 1034 converts the new meta data into the non-audible band sound wave data and outputs it to the DAC 1038.
  • the output of the DAC 1038 is the first combining unit 1036 and the second combining unit C. Will be printed).
  • the switch S is switched so that the output of the second coupling portion C is output to the output stage 1032.
  • the non-audible band sound wave data included in the acoustic signal output from the DAC 1038 is removed and then output to the second combiner C.
  • the second combiner C the acoustic signal in which the existing non-audible band sound wave data is removed and the meta data converted into new non-audible band sound wave data are combined.
  • the mixer 1130 performs at least the three cases described above with respect to the uncompressed video + audio signal. can do. Please refer to the above description for details.
  • 20 is a diagram illustrating a broadcast method according to another embodiment of the present invention.
  • the broadcasting method described with reference to FIG. 20 differs in that it further includes steps S1204, S1206, S1208, and S1210 when compared to FIG. 16, and thus, the broadcasting method will be mainly described.
  • step S1204 it is determined whether the metadata of the sound wave of the inaudible band exists in the sound recognized in step S1203. If the determination result does not exist, the operations below S1205 are performed, and refer to FIG. 16.
  • step S1204 if there is metadata in the acoustic wave of the non-audible band, it is determined whether to pass or change the existing metadata as it is (S1206).
  • step S1215 is performed after step S1210 is performed.
  • step S1206 If it is determined in step S1206 to change the existing metadata, new metadata is generated (S1208) and converted into sound waves in the inaudible band (S1207). Thereafter, step S1209 is performed, but an operation of mixing the new metadata with the SS is performed instead of the existing metadata. Refer to that of FIG. 16 for the subsequent operation.
  • the broadcasting method, the broadcasting system, and the mixer used in the non-audible band sound waves described above with reference to FIGS. 14 to 21 include, for example, an automatic guide broadcasting apparatus in a vehicle described with reference to FIGS. 1 to 13. It can be used for the utilized location information providing system, the mobile device, and the computer-readable recording medium which recorded the program.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Navigation (AREA)

Abstract

차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템에 있어서, 제1 장소에서, 안내 정보와 ID를 포함한 음향 데이터를 전기적 신호로 변환하는 음향 재생 장치; 및 음향 재생 장치에 의해 출력되는 신호를 가청 주파수 대역의 음향 신호로서 출력하는 스피커;를 포함하며, ID는 제1 장소를 나타내는 위치 정보에 대응되어 있는 것을 특징으로 하는 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템이 개시된다.

Description

차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템, 모바일 기기, 및 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체
본 발명은, 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템, 모바일 기기, 및 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체에 관한 것이다.
본 발명은, 또한, 비가청 대역의 음파를 이용한 방송방법, 방송시스템, 및 이에 사용되는 믹서에 관한 것이다.
통신 기술이 발전함에 따라서 통신 기기의 이용자는 위치 정보 또는 위치 기반의 다양한 부가 서비스를 제공받고 있다.
예를 들면, 지하철 이용자가 지하철 차량에 탑승하여 원하는 목적지로 이동하는 경우에 목적지의 역을 지나치는 일이 빈번하였고 이러한 문제점을 해소하기 위하여 지하철 이용자가 지하철 차량에 탑승하여 원하는 목적지 역으로 이동하는 경우에 해당 이용자의 위치를 파악하여 목적지의 도착을 알려주는 서비스가 제안되어 발전하게 되었다. 예를 들면, 아래의 특허문헌들에는 위치 정보를 제공하는 기술을 개시되어 있다.
하지만, 아래의 특허문헌들을 포함하여 종래의 기술들은, 와이파이(Wifi)나 블루투스와 같은 근거리 통신망이나 이동통신망이 유효하게 구축되거나 GPS(위성항법장치)를 이용할 수 있는 환경에서만 사용 가능한 기술이거나, 또는 근거리 통신망이나 GPS(위성항법장치)가 구축되어는 있지만 지하철과 같은 차량에서는 부정확한 위치 정보를 제공할 수 있다.
또한, 와이파이나 블루투스와 같은 근거리 통신망의 경우는 사용자의 통신 기기의 해당 모듈의 전원을 켜고 있을 때만 사용이 가능하다. 즉, 사용자가 전원을 아끼기 위해서 해당 모듈을 끈 상태이거나, 해당 모듈이 사용자가 단말을 사용하는데 번잡하여 그 모듈을 끈 상태이면 아래의 문헌들의 종래 기술은 부정확한 위치 정보를 제공할 수 있다.
한편, 현재 전관 방송시스템, 대중교통 내에 안내 방송시스템, TV 출력을 위한 방송시스템 등의 다양한 방송시스템이 음향으로 정보를 전달하는데 사용되고 있다.
하지만, 종래 구축되어 사용되는 음향 전달을 위한 방송시스템은 (i) 그 정보의 전달하는 대상이 해당 음향을 잘 들을 수 있고, (ii) 해당 언어를 잘 이해할 수 있으며, (iii) 방송시스템의 출력에 주목하고 있는 사람으로 한정되어 있어서, 그 정보의 전달이 한정되고 있다. 예를 들어 외국인, 청각장애인, 방송시스템의 내용이 출력되는 스피커에서 거리가 먼곳에 위치한 사람 혹은 주변 소음이 큰 곳에 위치한 사람에게는 그 정보 전달이 어렵다.
또한, 수많은 종류의 스마트기기가 도입될 것으로 예상되는 상황에서, 방송시스템을 통해 출력된 정보의 내용이 스마트기기에게는 전달되기가 어려워서 해당 정보를 활용하여 사용자에게 높은 가치의 서비스를 제공해주기가 어렵다.
뿐만 아니라, 차량의 방송시스템의 경우, 방송시스템을 통하여 음향으로 위치정보를 전달하고 있지만, 방송시스템과 연결되는 부가 장치에게 위치정보를 주기 위해서는 별도의 인터페이스를 해야 한다. 보통 대형 차량의 경우 각 국가별로 그 차량 내 기기간의 통신 인터페이스가 다르기 때문에, 부가 장치는 다양한 인터페이스를 지원해야 하는 어려움이 있다.
[선행기술문헌]
[특허문헌]
(특허문헌 1) KR10-1197079 B
(특허문헌 2) Wifi를 이용한 공공 교통 수단 내에 위치한 휴대 기기의 위치 추정 방법
(특허문헌 3) KR10-1086432 B
(특허문헌 4) 근거리 무선 통신을 이용한 역 정보 알림 방법
(특허문헌 5) KR10-2011-0135026 A
(특허문헌 6) 지하철 목적지 도착 알림 서비스 시스템 및 방법, 이를 위한 이동통신단말 및 서버
(특허문헌 7) 한국 특허공개번호 10-2006-0095346호 (이동통신 단말기에서 음성 인식을 이용한 목적지 알림 시스템 및 방법)
(특허문헌 8) 한국 특허공개번호 10-2011-0087742호 (청각 장애인을 위한 수화 통역 시스템, 그 장치 및 방법)
본 발명의 하나 이상의 실시예에 따르면, 기존의 차량에서의 자동 안내 방송 장치를 활용함으로써, 와이파이나 셀룰라 네트워크와 같은 무선 통신 네트워크가 구축되지 않은 곳이나 GPS를 활용할 수 없는 환경에서도 정확한 위치정보를 제공할 수 있는, 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템, 모바일 기기, 및 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체가 제공된다.
본 발명의 하나 이상의 실시예에 따르면, 와이파이나 블루투스와 같은 근거리 통신 모듈의 전원이 꺼져 있는 경우라도, 정확한 위치정보를 제공할 수 있는, 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템, 모바일 기기, 및 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체가 제공된다.
본 발명의 하나 이상의 실시예에 따르면, 기존의 차량에서의 자동 안내 방송 장치를 활용함으로써, 지하철과 같은 환경에서 보다 정확한 위치정보를 제공할 수 있는, 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템, 모바일 기기, 및 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체가 제공된다.
본 발명의 하나 이상의 실시예에 따르면, 위치정보를 음성 및/또는 이미지로 제공함으로써 일반인은 물론 장애자들에게도 위치정보를 효과적으로 제공할 수 있는, 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템, 모바일 기기, 및 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체가 제공된다.
본 발명의 하나 이상의 실시예에 따르면, 기존의 차량에서의 자동 안내 방송 장치를 활용하여, 위치정보 뿐만 아니라 관광정보도 같이 제공할 수 있는, 교통 정보 안내 시스템을 활용한 위치 정보 제공 시스템, 모바일 기기, 및 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체가 제공된다.
본 발명의 하나 이상의 실시예에 따르면, 차량이 운행되는 장소의 소음의 정도 및/또는 인간이 인식할 수 있는 음압 레벨을 반영하여 음압과 주파수 대역이 정해진 식별자가 포함된 음향 신호를 생성할 수 있는 교통 정보 안내 시스템을 활용한 위치 정보 제공 시스템, 모바일 기기, 및 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체가 제공된다.
본 발명의 하나 이상의 실시예에 따르면, 차량이 운행되는 장소의 소음의 정도 및/또는 인간이 인식할 수 있는 음압 레벨을 반영하여 음압과 주파수 대역이 정해진 식별자가 포함된 음향 데이터를 생성할 수 있는, 음향 데이터 생성 장치가 제공된다.
본 발명의 일 실시예에 따르면, 비가청 대역의 음파를 이용한 안내 방송방법, 안내 방송시스템, 및 이에 사용되는 믹서가 제공될 수 있다.
본 발명의 다른 실시예에 따르면, 비가청 대역의 음파를 이용한 방송방법, 방송 시스템, 및 이에 사용되는 믹서가 제공될 수 있다.
본 발명의 일 실시예에 따르면, 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템에 있어서, 제1 장소에서, 안내 정보와 ID를 포함한 음향 데이터를 전기적 신호로 변환하는 음향 재생 장치; 및 상기 음향 재생 장치에 의해 출력되는 신호를 가청 주파수 대역의 음향 신호로서 출력하는 스피커;를 포함하며, 상기 ID는 상기 제1 장소를 나타내는 위치 정보에 대응되어 있는 것을 특징으로 하는 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템이 제공될 수 있다.
본 발명의 일 실시예에 따르면, 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템에 있어서, 제1 장소에서, 안내 정보가 포함된 제1 음향 데이터를 전기적 신호로 변환하는 음향 재생 장치; 상기 제1 음향 데이터로부터 ID 신호를 생성하는 ID 신호 생성부; 상기 음향 재생 장치에 의해 변환된 전기적 신호와 상기 ID 신호 생성부에 의해 생성된 ID 신호를 합하는 가산기; 및 상기 가산기에 의해 출력되는 신호를 가청 주파수 대역의 음향 신호로서 출력하는 스피커;를 포함하는 것을 특징으로 하는 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템이 제공될 수 있다.
본 발명의 일 실시예에 따르면, 컴퓨터에 위치 정보 안내 방법을 실행시키는 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체로서, 상기 위치 정보 안내 방법은, 제1 장소에서 마이크가 수신한 음향 신호로부터 식별자(ID)를 추출하는 단계; 및 추출한 식별자(ID)에 어떤 정보가 대응되어 있는지를 판단하는 단계; 를 포함하며, 상기 제1 장소에서 수신한 음향 신호에는 안내 정보와 상기 식별자(ID)가 포함되어 있고, 상기 음향 신호에 포함된 식별자(ID)의 음압은, 상기 제1 장소의 잡음과 인간이 수신할 수 있는 음압 레벨을 고려하여 정해진 기준 값보다 낮은 것인, 위치 정보 안내 방법을 실행시키는 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체가 제공될 수 있다.
본 발명의 일 실시예에 따르면, 소음 영역에 설치된 스피커들을 통해서 음향을 출력하는 방송방법에 있어서,
음향 신호를 상기 소음 영역에 설치된 스피커들 중 적어도 하나의 스피커를 통해서 출력하기 전에, 상기 음향 신호로부터 메타 데이터-상기 스피커를 통해서 출력되는 음향과 연관된 것임-를 생성하는 단계;
상기 메타 데이터를 비가청 대역의 음파 신호로 변환하는 단계;
상기 비가청 대역의 음파 신호로 변환된 메타 데이터와 상기 음향 신호를 믹싱하여 믹싱 신호를 생성하는 단계;를 포함하며,
상기 믹싱 신호가, 상기 스피커를 통해서 출력되는 것을 특징으로 하는 방송방법이 제공될 수 있다.
본 발명의 일 실시예에 따른 방송방법은,
상기 메타 데이터를 생성하는 단계 이전에, 상기 음향 신호에 비가청 대역의 음파 데이터가 포함되어 있는지 여부를 판단하는 단계;를 더 포함하며,
상기 음향 신호에 비가청 대역의 음파 데이터-'기존 비가청 대역의 음파 데이터'라고 함-가 포함되어 있지 않은 경우에, 상기 메타 데이터를 생성하는 단계를 수행하는 것일 수 있다.
본 발명의 일 실시예에 따른 방송방법은,
상기 음향 신호에 기존 비가청 대역의 음파 데이터가 포함되어 있는 경우, 기존 비가청 음파 데이터를 유지 또는 변경할지 여부를 판단하는 단계;를 더 포함할 수 있다.
본 발명의 일 실시예에 따른 방송방법은,
상기 기존 비가청 대역의 음파 데이터를 변경할 것으로 판단한 경우, 기존 비가청 대역의 음파 데이터를 삭제하는 단계;를 더 포함하며,
상기 믹싱 신호를 생성하는 단계는, 상기 음파 신호로 변환하는 단계에서 변환된 비가청 대역의 음파 데이터와, 상기 기존 비가청 대역의 음파 데이터가 삭제된 음향 신호를 믹싱하는 단계일 수 있다.
본 발명의 일 실시예에 따른 방송방법은,
상기 스피커로 출력하기 전의 음향 신호를 입력단이 수신하는 단계;를 더 포함하며,
상기 입력단에 의해 수신된 음향 신호로부터 상기 메타 데이터가 생성되며, 그리고
상기 입력단에 의해 입력 받은 음향 신호는, 바이패스 경로를 통해서, 상기 믹싱 신호를 생성하는 단계로 제공되며,
상기 바이패스 경로는, 상기 메타 데이터를 생성하는 단계와, 상기 메타 데이터를 비가청 대역의 음파 신호로 변환하는 단계를 우회하는 경로일 수 있다.
본 발명의 일 실시예에 따른 방송방법은,
상기 믹싱 신호가 상기 스피커를 통해서 출력된 후, 상기 비가청 대역의 음파 신호로 변환된 메타 데이터를, 소정의 시간 간격으로 상기 스피커를 통해서 지속적으로 출력하는 단계;를 더 포함할 수 있다.
본 발명의 일 실시예에 따르면, 외부로 음향을 출력하는 음향시스템에 사용되는 믹서로서,
음향 신호를 상기 외부로 출력하기 전에, 상기 음향 신호로부터 음향을 인식하여 메타 데이터-상기 외부로 출력되는 음향과 연관된 것임-를 생성하는 음향인식엔진;
상기 메타 데이터를 비가청 대역의 음파 신호로 변환하는 음파생성엔진;
상기 비가청 대역의 음파 신호와 상기 음향 신호를 믹싱한 믹싱신호를 생성하는 결합부;를 포함하는 믹서가 제공될 수 있다.
상기 음향인식엔진은, 상기 음향 신호에 비가청 대역의 음파 데이터가 포함되어 있는지 여부를 판단하며, 상기 음향 신호에 비가청 대역의 음파 데이터-'기존 비가청 대역의 음파 데이터'라고 함-가 포함되어 있지 않은 경우에, 상기 메타 데이터를 생성하는 것일 수 있다.
상기 음향인식엔진은, 상기 음향 신호에 기존 비가청 대역의 음파 데이터가 포함되어 있는 경우, 기존 비가청 음파 데이터를 유지 또는 변경할지 여부를 판단하는 것일 수 있다.
본 발명의 일 실시예에 따른 믹서는,
상기 기존 비가청 대역의 음파 데이터를 변경할 것으로 판단된 경우, 기존 비가청 대역의 음파 데이터를 삭제하는 필터;를 더 포함하며,
상기 결합부는, 상기 음파생성엔진이 변환한 비가청 대역의 음파 데이터와, 상기 필터에 의해 기존 비가청 대역의 음파 데이터가 삭제된 음향 신호를 믹싱하는 것일 수 있다.
상기 음파생성엔진은, 상기 믹싱 신호가 상기 외부로 출력된 후, 상기 비가청 대역의 음파 신호로 변환된 메타 데이터를, 소정의 시간 간격으로 상기 결합부로 출력하며,
상기 결합부는 상기 소정의 시간 간격으로 수신되는 메타 데이터를 상기 스피커로 출력하는 일 수 있다.
본 발명의 일 실시예에 따른 믹서는,
상기 외부로 출력하기 전의 음향 신호를 입력받을 수 있는 입력단;
상기 결합부에 의해 생성한 믹싱신호를 입력받아 상기 외부로 출력할 수 있는 출력단; 및
상기 입력단을 통해서 입력받은 음향 신호가 상기 결합부로 이동할 수 있는 경로를 제공하는 바이패스 경로;를 더 포함하는 일 수 있다.
상기 결합부는, 상기 바이패스 경로를 통해서 음향 신호를 입력받고, 이렇게 입력받은 입향신호로부터 상기 음파생성엔진에 의해 생성된 믹싱신호가 상기 음파생성엔진으로부터 입력되지 않는 경우에, 상기 입력단을 통해서 입력받은 음향 신호를 그대로 출력하는 것일 수 있다.
상기 결합부가, 시각 T1 에 음향신호('제1음향신호'라고 함)를 입력받고, 소정시간 경과 후 시각 T2에 음향신호('제2음향신호'라고 함)를 입력받는 경우,
상기 결합부는,
상기 제1음향신호와 상기 음파생성엔진에 의해 상기 제1음향신호로부터 생성된 메타 데이터를 믹싱하여 믹싱신호('제1믹싱신호'라고 함)를 생성하여 상기 출력단으로 출력하고, 그리고
상기 제2음향신호와 상기 음파생성엔진에 의해 상기 제2음향신호로부터 생성된 메타 데이터를 믹싱하여 믹싱신호('제2믹싱신호'라고 함)를 생성하여 상기 출력단으로 출력하며,
상기 결합부는
상기 제1믹싱신호를 출력하고 상기 제2음향신호로부터 생성된 비가청 대역의 음파신호를 입력받기 전의 시간 동안에는, 상기 제1음향신호로부터 생성된 메타데이터를 상기 출력단으로 소정의 시간간격으로 출력하는 것일 수 있다.
본 발명의 일 실시예에 따른 믹서는,
i) GPS, 이동통신망, 와이파이 중 적어도 하나와, ii) 관성 센서, 및 상기 음향 신호에서 인식된 음향을 이용하여, 상기 음향 신호를 수신한 위치를 추정하는 위치추정 모듈;을 더 포함하며,
상기 메타 데이터는 상기 위치추정 모듈이 추정한 위치를 포함하고 있는 것일 수 있다.
본 발명의 다른 실시예에 따르면, 음향을 출력하는 방송방법에 있어서,
음향 신호를 외부로 출력하기 전에, 상기 음향 신호로부터 메타 데이터-상기 외부로 출력되는 음향과 연관된 것임-를 생성하는 단계;
\*57상기 메타 데이터를 음파 신호로 변환하는 단계;
상기 비가청 대역의 음파 신호로 변환된 메타 데이터와 상기 음향 신호를 믹싱하여 믹싱 신호를 생성하는 단계; 및
상기 믹싱 신호를 압축하는 단계;를 포함하는 방송방법이 제공될 수 있다.
본 발명의 다른 실시예에 따른 방송방법은,
상기 메타 데이터를 생성하는 단계 이전에, 상기 음향 신호에 비가청 대역의 음파 데이터가 포함되어 있는지 여부를 판단하는 단계;를 더 포함하며,
상기 음향 신호에 비가청 대역의 음파 데이터-'기존 비가청 대역의 음파 데이터'라고 함-가 포함되어 있지 않은 경우에, 상기 메타 데이터를 생성하는 단계를 수행하는 것일 수 있다.
본 발명의 다른 실시예에 따른 방송방법은,
상기 음향 신호에 기존 비가청 대역의 음파 데이터가 포함되어 있는 경우, 기존 비가청 음파 데이터를 유지 또는 변경할지 여부를 판단하는 단계;를 더 포함하는 것일 수 있다.
본 발명의 다른 실시예에 따른 방송방법은,
상기 기존 비가청 대역의 음파 데이터를 변경할 것으로 판단한 경우, 기존 비가청 대역의 음파 데이터를 삭제하는 단계;를 더 포함하며,
상기 믹싱 신호를 생성하는 단계는, 상기 음파 신호로 변환하는 단계에서 변환된 비가청 대역의 음파 데이터와, 상기 기존 비가청 대역의 음파 데이터가 삭제된 음향 신호를 믹싱하는 단계일 수 잇다.
본 발명의 다른 실시예에 따른 방송방법은,
상기 믹싱 신호가 상기 외부를 통해서 출력된 후, 상기 비가청 대역의 음파 신호로 변환된 메타 데이터를, 소정의 시간 간격으로 상기 외부를 통해서 지속적으로 출력하는 단계;를 더 포함하는 것일 수 있다.
상술한 방법들 또는 믹서에 있어서,
음향과 연관된 것은,
i) 상기 스피커를 통해서 출력되는 음향의 적어도 일부를 텍스트로 변환한 것;
ii) 상기 스피커를 통해서 출력되는 음향의 적어도 일부와 연관된 정보를 텍스트로 변환한 것;
iii) 상기 스피커를 통해서 음향의 적어도 일부와 연관된 정보를 포함하는 인터넷 주소로 변환한 것; 및
iv) 상기 i) 내지 iii) 중 어느 하나를 나타내는 ID;
들 중에서 적어도 어느 하나일 수 있다.
본 발명의 하나 이상의 실시예에 따르면, 기존의 차량에서의 자동 안내 방송 장치를 활용함으로써, 와이파이나 셀룰라 네트워크와 같은 무선 통신 네트워크가 구축되지 않거나 또는 GPS를 이용할 수 없는 상황에서도, 정확한 위치정보를 제공할 수 있다.
본 발명의 하나 이상의 실시예에 따르면, 위치정보를 음성 및/또는 이미지로 제공함으로써 일반인은 물론 장애자들에게도 위치정보를 효과적으로 제공할 수 있다.
본 발명의 하나 이상의 실시예에 따르면, 기존의 차량에서의 자동 안내 방송 장치를 활용하여, 위치정보 뿐만 아니라 관광정보도 같이 제공할 수 있다.
본 발명의 하나 이상의 실시예에 따르면, 기존의 방송시스템을 그대로 활용하면서도, 방송이 출력되는 곳의 소음이 매우 심하거나, 최초의 출력 정도가 낮더라도, 해당 장소에 위치한 사람들에게 필요한 정보를 정확하게 제공할 수 있다.
본 발명의 하나 이상의 실시예에 따르면, 기존의 방송시스템을 그대로 활용하면서도, 방송이 출력되는 곳에 출력되는 음향 정보를 담은 언어를 이해할 수 없는 사람(예: 외국인 및 청각장애인)에게도 필요한 정보를 정확하게 제공할 수 있다.
본 발명의 하나 이상의 실시예에 따르면, 기존의 방송시스템을 그대로 활용하면서도, 방송이 출력되는 시점에 해당 음향 정보가 전달되는 공간에 있는 사람이 다른 일에 집중하여 방송을 놓치더라도, 자신의 모바일 기기를 통해서 지나간 방송 내용을 확인 할 수 있다.
본 발명의 하나 이상의 실시예에 따르면, 기존의 방송시스템을 그대로 활용하면서도, 방송으로 출력되는 정보를 디지털화하여, 출력이 전달되는 공간에 위치한 다양한 스마트기기들에게 정보를 전달해 줄 수 있으며, 이로 인해 다양한 사용자 맞춤형 서비스를 제공할 수 있다.
본 발명의 하나 이상의 실시예에 따르면, 대형 차량에 부가 설치되는 장치가 위치정보가 필요한 경우, 차량의 종류 별로 상이한 위치정보 전달용 인터페이스를 구현하지 않고, 위치정보를 방송시스템의 음향을 이용하여 부가 장치에게 전달할 수 있기 때문에 부가 설치되는 장비의 호환성을 획기적으로 높일 수 있다.
도 1은 본 발명의 일 실시예에 따른 위치 정보 제공 시스템을 설명하기 위한 도면이고,
도 2와 도 3은 본 발명의 일 실시예에 따른 모바일 기기를 설명하기 위한 도면이고,
도 4a는 인간의 SPL을 예시적으로 나타낸 그래프이고, 도 4b와 도 4c는 본 발명의 일 실시예에 따른 식별자(ID)가 가질 수 있는 주파수 및 음압 세기를 설명하기 위한 도면이고, 도 4d는 차량 내에서의 소음 레벨을 예시적으로 나타낸 그래프이고, 도 4e는 본 발명의 일 실시예에 따른 음향 데이터를 설명하기 위한 도면이고,
도 5는 본 발명의 일 실시예에 따른 위치 정보 제공 방법을 설명하기 위한 도면이고,
도 6은 본 발명의 일 실시예에 따른 음향 데이터를 생성하는 장치를 설명하기 위한 도면이고,
도 7은 본 발명의 일 실시예에 따른 위치 정보 제공시스템에 사용되는 컴퓨터 시스템을 설명하기 위한 도면이고,
도 8은 본 발명의 다른 실시예에 따른 위치 정보 안내 방법을 설명하기 위한 도면이고,
도 9는 본 발명의 다른 실시예에 따른 위치 정보 안내 방법을 설명하기 위한 도면이고,
도 10은 본 발명의 다른 실시예에 따른 위치 정보 제공 시스템을 설명하기 위한 도면이고,
도 11은 본 발명의 다른 실시예에 따른 위치 정보 제공 시스템을 설명하기 위한 도면이고,
도 12는 본 발명의 다른 실시예에 따른 위치 정보 제공 시스템을 설명하기 위한 도면이고,
도 13은 본 발명의 다른 실시예에 따른 위치 정보 제공 시스템을 설명하기 위한 도면이고,
도 14는 발명의 일 실시예에 따른 믹서를 이용한 안내 방송시스템을 설명하기 위한 도면이고,
도 15는 본 발명의 일 실시예에 따른 믹서에서 출력되는 신호를 설명하기 위한 도면이고,
도 16은 본 발명의 일 실시예에 따른 방송방법을 설명하기 위한 도면이고,
도 17은 본 발명의 일 실시예에 따른 안내 방송시스템을 사용한 예를 설명하기 위한 도면이고,
도 18은 본 발명의 일 실시예에 따른 믹서를 이용한 방송시스템을 설명하기 위한 도면이고,
도 19는 본 발명의 일 실시예에 따른 믹서를 설명하기 위한 도면이고,
도 20은 본 발명의 다른 실시예에 따른 방송방법을 설명하기 위한 도면이고, 그리고
도 21은 비가청 주파수 대역을 설명하기 위한 도면이다.
[부호의 설명]
10, 110, 210, 310, 410: 음향 재생 장치
150, 250a, 250b, 250c, 350, 450: ID 신호 생성부
11, 111: 플레이어
151, 351, 451: ID 선택부
153, 353, 453: 제2 변조부
13a ~ 13h; 스피커
15, 115: 변조부
17, 117: 저장부
19a, 19b, 19c, 119a, 119b, 119c, 219a, 219b, 219c, 319a, 319b, 319c, 419a,419b, 419c, 155: 앰프
20: 지하철
30A, 30b, 30c, 30d, 30e, 30f, 30g, 30h: 모바일 기기
1010: 저장부 1020: DAC
1030: 믹서 1040: 앰프
1050: 스피커 1100: 안내 방송시스템
1200: 모바일 기기
이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 또는 예시적인 실시 예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시 예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시 예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.
본 명세서에서, 어떤 구성요소가 다른 구성요소 상에 있다고 언급되는 경우에 그것은 다른 구성요소 상에 직접 형성될 수 있거나 또는 그들 사이에 제 3의 구성요소가 게재될 수도 있다는 것을 의미한다.
본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다' 및/또는 '포함하는'은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.
본 명세서에서 하나의 구성요소가 다른 구성요소와 '연결된다' 또는 '결합된다'는 표현은 상기 구성요소들 간의 직접적 연결을 의미할 뿐 아니라 다른 제3의 구성요소를 매개로 한 간접적 연결도 포함한다.
이하, 도면을 참조하여 본 발명을 상세히 설명하도록 한다. 아래의 특정 실시 예들을 기술하는데 있어서, 여러 가지의 특정적인 내용들은 발명을 더 구체적으로 설명하고 이해를 돕기 위해 작성되었다. 하지만 본 발명을 이해할 수 있을 정도로 이 분야의 지식을 갖고 있는 독자는 이러한 여러 가지의 특정적인 내용들이 없어도 사용될 수 있다는 것을 인지할 수 있다. 어떤 경우에는, 발명을 기술하는 데 있어서 흔히 알려졌으면서 발명과 크게 관련 없는 부분들은 본 발명을 설명하는 데 있어 혼돈이 오는 것을 막기 위해 기술하지 않음을 미리 언급해 둔다.
도 1은 본 발명의 일 실시예에 따른 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템을 설명하기 위한 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템(이하, '위치 정보 제공 시스템'이라고 함)은, 차량에서의 자동 안내 방송 장치를 포함할 수 있다.
자동 안내 방송 장치는, 음향 재생 장치(10), 위치 추정부(12), 앰프들(19a, 19b, 19c), 및 스피커들(13a, 13b, 13c)을 포함할 수 있다.
음향 재생 장치(10)는 본 발명의 일 실시예에 따른 음향 데이터를 재생할 수 있다. 본원 명세서에서, '재생'이라는 용어는, 본 발명의 설명의 목적을 위해서, 음향 재생 장치(10)가 음향 데이터를 스피커에서 출력할 수 있는 전기적 신호로 변환하는 동작, 또는 플레이어가 변조부로 하여금 음향 데이터를 전기적 신호로 변환할 수 있도록 상태로 만드는 동작을 의미하는 것으로 사용하기로 한다.
음향 재생 장치(10)는, 미리 정해진 장소(이하, "재생 장소"라고 함)에 지하철(20)이 도착하면 본 발명의 일 실시예에 따른 음향 데이터를 재생한다. 예를 들면, 음향 재생 장치(10)는, 지하철(20)이 재생 장소에 도착할 때마다 본 발명의 일 실시예에 따른 음향 데이터를 재생한다.
재생 장소는 복수개이며, 예를 들면 재생 장소는 전철역과 전철역 사이의 위치 및/또는 전철역일 수 있다.
각각의 재생 장소에서 재생할 음향 데이터는 미리 정해져 있으며, 음향 재생 장치(10)는 재생 장소에 도착할 때 마다, 그 도착 장소에 대응된 음향 데이터를 재생한다.
음향 재생 장치(10)는, 예를 들면, 지하철(20)의 위치에 대한 정보를 위치 추정부(12)로부터 제공받을 수 있다. 음향 재생 장치(10)는, 저장부(17)에 저장된 음향 데이터들 중에서, 위치 추정부(12)로부터 제공받는 위치에 대응된 음향 데이터를 선택하여 재생한다.
위치 추정부(12)는, 예를 들면, 지하철(20)이 특정 위치에 도착하는 것을 감지하는 센서로 구성될 수 있다. 한편, 본 음향 재생 장치(10)가 버스와 같은 차량에 장착되는 경우에는, 위치 추정부(12)는 GPS 센서로 구성될 수 있다.
위치 추정부(12)가 없도록 구현되는 것도 가능한데, 예를 들면, 지하철(20)이 재생 장소에 도착할 때 마다 지하철(20)의 운전자가 직접 음향 재생 장치(10)를 동작시키도록 구현될 수 있다.
본 발명의 일 실시예에 따른 음향 데이터는, 예를 들면, MP3와 같은 파일의 형태로 구성되어 있을 수 있다. 음향 재생 장치(10)는, 재생 장소에 도착할 때마다, 그 재생 장소에 대응된 MP3 파일을 재생한다. 여기서, MP3는 예시적인 것으로서, 본 발명의 일 실시예에 따른 음향 데이터는 MP3 형태에만 국한되지 않음을 당업자는 알 수 있을 것이다.
본 발명의 일 실시예에 따른 음향 데이터는, 안내 정보와 식별자(ID)를 포함한다.
안내 정보는 차량에서의 자동 안내 방송 장치에서 제공하는 정보이다. 안내 정보는, 예를 들면, "다음 정차역은 강남역입니다", 또는 "이번 정차역은 역삼역입니다"와 같은 정보일 수 있다. 안내 정보는, 승객이 실제로 귀로 들을 수 있을 정도의 음압과 주파수 대역을 가진다.
ID에는 위치 정보 및/또는 부가 정보가 대응되어 있을 수 있으며, 여기서, 부가 정보는 예를 들면 주변 지도나 광고와 같은 정보일 수 있다.
다른 예를 들면, 음향 데이터는 ID를 복수개 포함할 수 있다. 이러한 경우, 제1 ID에는 위치 정보가 대응되고, 제2 ID에는 부가 정보가 대응될 수 있다.
도 1을 계속 참조하면, 음향 재생 장치(10)는 도 1에 도시된 바와 같이 음향 데이터(13)를 재생하는 플레이어(11)와, 플레이어(11)가 재생하는 음향 데이터를 전기적 신호로 변환하여 앰프들(19a, 19b, 19c)로 출력하는 변조부(15), 및 플레이어(11)가 재생하는 음향 데이터들(F1, F2, F3, ...)을 저장하는 저장부(17)를 포함할 수 있다.
변조부(15)는, 예를 들면, DAC와 같은 컨버터를 포함하도록 구성될 수 있고, 저장부(17)는 음향 재생 장치(10)에 포함되어 일체화된 저장장치(예를 들면, 메모리나 HDD 또는 SDD)이거나 또는 USB 메모리와 같은 이동형 저장장치일 수도 있다.
플레이어(11)는, 지하철(20)이 소정의 재생 장소(이하, "제1 재생 장소")에 도착하면, 저장부(17)에 저장된 음향 데이터들(F1, F2, F3)중에서 제1 재생 장소에 대응된 음향 데이터(예를 들면, 음향 데이터 (F1))를 재생한다.
변조부(15)는, 음향 데이터(F1)를 스피커들(13a, 13b, 13c)에서 재생 가능한 전기적 신호로 변환하여 앰프들(19a, 19b, 19c)로 출력하며, 앰프들(19a, 19b, 19c)은 입력받은 전기적 신호를 각각 증폭하여 스피커들(13a, 13b, 13c)로 출력한다. 스피커들(13a, 13b, 13c)은 각각 앰프(19a, 19b, 19c)들로부터 전송받은 전기적 신호를 가청 주파수 대역의 음향 신호로 변환하여 외부로 출력하게 된다.
다음에, 지하철(20)이 제2 재생 장소에 도착하면, 플레이어(11)는 저장부(17)에 저장된 음향 데이터들(F1, F2, F3)중에서 제2 재생 장소에 대응된 음향 데이터(예를 들면, 음향 데이터 (F2))를 재생한다.
변조부(15)는, 재생되는 음향 데이터(F2)를 전기적 신호로 변환하여 앰프들(19a, 19b, 19c)에게 각각 출력한다. 앰프들(19a, 19b, 19c)은 변조부(15)로부터 입력받은 전기적 신호를 증폭하여 스피커들(13a, 13b, 13c)에게 출력하며, 스피커들(13a, 13b, 13c)은 입력받은 신호를 가청 주파수 대역의 음향 신호로 변환하여 외부로 출력하게 된다.
동일한 방식으로, 지하철(20)이 소정의 재생 장소에 도착할 때마다, 플레이어(11)는 그 재생 장소에 대응된 음향 데이터를 재생하며, 재생된 음향 데이터는 변조부(15) 및 앰프들(19a, 19b, 19c)을 경유하여 스피커들(13a, 13b, 13c)에게 출력된다.
음향 데이터가 재생되는 재생 장소들 각각에서의 소음 레벨은, 서로 동일하거나 또는 서로 다를 수 있다. 이는 지하철(20)이 운행되는 환경이 다를 수 있기 때문이다. 예를 들면, 지하철 9호선 내부는 조용하지만, 지하철 2호선 내부는 다소 시끄럽다. 또 다른 예를 들면, 지하철(20)이 직선 구간을 운행할 때와 곡선 구간을 운행할 때의 소음 레벨은 다를 수 있다.
본 발명의 일 실시예에 따른 음향 데이터에 대하여는 도 4a 참조하여 후술하기로 한다.
도 1을 계속 참조하면, 지하철(20)에 탑승한 승객들은 스마트폰, PDA, 노트북, 또는 테블릿 PC 와 같은 모바일 기기들(30a, 30b, 30c, 30d, 30e, 30f, 30g, 30h)을 각각 소지할 수 있다.
본원 발명의 설명의 목적을 위해서, 도 1에 도시한 모바일 기기들(30a, 30b, 30c, 30d, 30e, 30f, 30g, 30h)은, 각각 본원 발명의 일 실시예에 따른 어플리케이션이 장착된 모바일 기기라고 가정하기로 하고, 이하에서는 모바일 기기(30a)를 기준으로 그 동작을 설명하기로 한다.
모바일 기기(30a)는 스피커(13a)로부터 출력되는 음향 신호를 수신할 수 있으며, 수신한 음향 신호에 포함된 ID를 추출하고, 추출한 ID에 대응된 정보를 표시할 수 있다. 여기서, 정보는 i) 위치 정보 또는 ii) 위치 정보 및 부가 정보일 수 있다.
모바일 기기(30a)는, ID에 대응된 정보를 표시할 때, 알람, 진동, 및/또는 화면으로 표시할 수 있다.
일 예를 들면, 모바일 기기(30a)는, ID에 대응된 정보를 표시할 때, 모바일 기기(30a)를 진동시킴으로써, 사용자가 모바일 기기(30a)에서 표시되는 위치 정보나 부가 정보를 쉽게 인식할 수 있도록 한다.
일 예를 들면, 모바일 기기(30a)가 수신한 음향 신호에 포함된 ID는 위치 정보가 대응된 것일 수 있다. 다른 예를 들면, 모바일 기기(30a)가 수신한 음향 신호에 포함된 ID는 i) 위치 정보와 ii) 주변 지도와 같은 부가 정보가 대응된 것일 수 있다.
도 2a, 도 2b, 및 도 2c는 본 발명의 일 실시예에 따른 모바일 기기를 설명하기 위한 도면이다.
본 발명의 일 실시예에 따른 모바일 기기(30)는, 도 2a와 같은 화면을 사용자에게 표시할 수 있다. 이러한 경우는, ID에 위치 정보가 대응된 예이다.
본 발명의 다른 실시예에 따른 모바일 기기(30)는, 도 2b와 같은 화면을 사용자에게 표시할 수 있다. 이러한 경우는, ID에 위치 정보 및 부가정보(주변 지도)(M)이 대응된 경우이다.
본 발명의 또 다른 실시예에 따른 모바일 기기(30)는, 도 2c와 같은 화면을 사용자에게 표시할 수 있다. 이러한 경우는, ID에 위치 정보 및 부가정보(주변 지도)(M)이 대응된 경우로서, 한국어(KR), 영어(EN), CN(중국어), 및 일본어(JP)와 같은 다양한 언어를 지원하는 경우이다. 사용자는, 자신이 편한 언어를 선택함으로써, 선택한 언어로 표현된 위치 정보 및 부가 정보를 인식할 수 있을 것이다.
본 실시예에서, 부가 정보는 주변 지도(M)를 예로 들었으나, 부가 정보는 주변 지도에 한하지 않는다.
본 발명의 일 실시예에 따른 음향 데이터에는 복수개의 ID가 포함될 수도 있다고 상술한 바가 있다. 예를 들면, 음향 데이터에 제1 ID, 제2 ID, 및 제3 ID가 포함되어 있다고 하자.
모바일 기기(13a)는 3개의 ID가 포함된 음향 신호를 수신하면, 각각의 ID에 대응된 정보가 무엇인지를 판단하여, 표시할 수 있다.
예를 들면, 제1 ID에는 도 2b와 같은 위치 정보 및 부가 정보가 대응되어 있고, 제2 ID에는 맛집 정보가 대응되어 있고, 제3 ID에는 아무것도 대응되어 있지 않다고 가정한다. 이러한 경우, 모바일 기기(30)는, 제1 ID에 대응된 위치 정보 및 부가 정보와, 제2 ID에 대하여 대응된 맛집 정보를 표시할 수 있다. 제3 ID에는 아무것도 대응되어 있지 않으므로, 무시한다. 나중에, 제3 ID에 어떤 정보가 대응되면, 그때는 모바일 기기(30)가 제3 ID에 대응된 정보도 같이 표시할 것이다.
모바일 기기(30)는, ID 마다 대응되는 정보를 저장하고 있으며, 이러한 정보는 어플리케이션의 업데이트를 통해서 수정될 수 있을 것이다. 예를 들면, 제2 ID에 저장된 맛집 정보의 경우 수시로 변경이 가능할 것이며, 광고 기반의 수익 모델로도 활용할 수 있을 것이다.
음향 재생 장치(10)에서 재생되는 음향 데이터는 자주 변경할 필요가 없도록, 미리 복수개의 ID를 음향 데이터에 포함시켜 놓고, 복수개의 ID 중 필요한 ID에만 정보(예, 위치 정보, 부가 정보, 광고 .. 등)를 대응시켜 모바일 기기(30)에서 표시할 수 있을 것이다.
한편, 음향 재생 장치(10)는, 도 1에는 도시하지 않았지만, 플레이어(11), 변조부(15), 저장부(17)가 동작하도록 하는 컴퓨터 프로세서, 메모리, 및 음향 재생 장치(10)의 동작을 위한 시스템 프로그램을 더 포함한다. 이러한 경우, 컴퓨터 프로세서의 제어하에, 플레이어(11)는 메모리에 로딩되어 음향 데이터를 재생하는 동작을 수행하며 이러한 동작은 종래 당업자가 쉽게 알 수 있는 내용이므로 그 상세한 설명은 생략하기로 한다.
도 3은 본 발명의 일 실시예에 따른 모바일 기기를 설명하기 위한 도면이다.
도 3을 참조하면, 모바일 기기(30)는 본 발명의 일 실시예에 따른 프로그램(31), 오퍼레이팅 시스템(OS), 마이크(35), 및 ID 매핑 테이블(37)을 포함할 수 있다.
한편, 모바일 기기(30)는 도시하지는 않았지만, 적어도 하나의 프로세서와 적어도 하나의 메모리를 더 포함할 수 있으며, 프로그램과 오퍼레이팅 시스템은 프로세서의 제어하에 메모리에 로딩되어 실행될 수 있다.
본 발명의 일 실시예에 따르면, 프로그램(31)(본원 명세서에서는, 용어 '어플리케이션'으로도 종종 부르기로 함), 컴퓨터에서 판독 가능한 코드로 구성될 수 있으며, 모바일 기기(300)에 제1 장소에서 마이크(35)가 수신한 음향 신호로부터 식별자(ID)를 추출하는 단계 및 추출한 식별자(ID)에 어떤 정보가 대응되어 있는지를 판단하는 단계를 실행시킬 수 있다. 여기서, 제1 장소에서 수신한 음향 신호에는 안내 정보와 상기 식별자(ID)가 포함되어 있고, 음향 신호에 포함된 식별자(ID)의 음압은, 제1 장소의 잡음과 인간이 수신할 수 있는 음압 레벨을 고려하여 정해진 기준 값보다 낮은 것일 수 있다.
예를 들면, 프로그램(31)은, 모바일 기기(300)에 1 장소에서 마이크(35) 가 수신한 음향 신호로부터 식별자(ID)를 추출하는 단계를 실행시키는 컴퓨터 판독 가능한 코드(‘ID 추출부’)와, 추출한 식별자(ID)에 어떤 정보가 대응되어 있는지를 판단하는 컴퓨터 판독 가능한 코드(‘위치 판단부’)를 포함할 수 있다. 일 실시예에 따르면, 프로그램(31)은, 옵션으로서, 모바일 기기(300)에 마이크(35)를 온시키거나 오프시키는 단계를 실행시키는 컴퓨터 판독 가능한 코드(‘마이크 온/오프부’)를 더 포함할 수도 있다.
프로그램(31)이 사용자에 의해 실행되면, 마이크 온/오프부는 스피커를 온시킨다. 예를 들면, 마이크 온/오프부는 OS(또는 스피커 구동 드라이버)에게 요청하여 마이크가 음향 신호를 수신할 수 있는 상태로 만든다.
ID 추출부는, 모바일 기기(300)에, 마이크(35)가 수신한 음향 신호에 포함된 ID를 추출하는 단계를 실행시킬 수 있다.
위치 판단부는, 모바일 기기(300)에, 추출한 ID에 대응된 정보가 무엇인지를 ID 매핑 테이블(37)을 참조하여 판단하는 단계를 실행시킬 수 있다.
한편, 모바일 기기(30)가 음향 신호에 포함된 ID를 추출하는 필터(하드웨어)를 별도로 구비한 경우에는, 프로그램(31)은 ID 추출부를 포함할 필요가 없을 것이다. 이러한 경우, 위치 판단부는, 필터(하드웨어)가 추출한 ID에 대응된 정보가 무엇인지를 판단한다.
ID 매핑 테이블(37)은 ID, ID에 대응된 위치, 연관정보(1), 연관정보(2)를 포함할 수 있다. 여기서, 연관정보(1)과 연관정보(2)는 각각 부가 정보의 일예이다.
도 3의 실시예에서, ID 매핑 테이블(37)은 ID가 1개 있는 것으로 설명되었지만, 이는 예시적인 것임을 당업자는 이해해야 한다. 도 2d의 실시예를 설명할 때 언급한 바와 같이, 복수개의 ID가 음향 데이터에 포함될 수 있으며, 이러한 경우 ID 매핑 테이블이 추가적으로 구비된다.
예를 들면, 다음과 표 1과 표 2와 같이 2 종류의 ID 매핑 테이블이 사용될 수 있다.
표 1
ID 위치 정보 부가 정보
L**** 강남 강남역 주변 지도
L**** 종로 종로역 주변 지도
... ... ...
표 2
ID 맛집 정보 부가 정보
A**** 강남역 4번 출구 ...강남 역 1번 출구 ... 강남역 주변 지도
A**** 종로역 1번 출구 ...종로역 3번 출구 ... 종로역 주변 지도
... ... ...
위 표들처럼, ID 매핑 테이블에서는, L로 시작하는 ID는 위치 정보를 대응시키고, A로 시작하는 ID에는 맛집 정보를 대응시킬 수 있을 것이다.
프로그램(31)은, 또한, 기능블록으로서 별도로 도시하지는 않았지만, 모바일 기기(300)에, 사용자가 목적지 역을 입력할 수 있는 사용자 인터페이스를 생성하여 제공하는 단계를 실행시킬 수 있다.
프로그램(31)은, 또한, 기능블록으로서 별도로 도시하지는 않았지만, , 모바일 기기(300)에, 사용자가 출발지 역 및 목적지 역을 입력할 수 있는 사용자 인터페이스를 생성하여 제공하는 단계를 실행시킬 수 있다.
프로그램(31)은, 또한, 기능블록으로서 별도로 도시하지는 않았지만, 모바일 기기(300)에, 목적지 역에 도착한 경우 알람이나 진동 또는 음성으로 사용자에게 목적지 역에 도착할 것임을 알리는 단계를 실행키실 수 있다.
상술한 사용자 인터페이스는 화면 또는 음성으로 제공될 수 있다.
도 4a는 인간이 인식할 수 있는 음압 레벨(SPL: Sound Pressure Level)(이하 '인간의 SPL'라고 함)을 나타낸 도면이고, 도 4b와 도 4c는 본 발명의 일 실시예에 따른 ID가 가질 수 있는 주파수 및 음압의 세기를 예시적으로 설명하기 위한 것이고, 도 4d는 전철과 같은 차량 내부에서 발생되는 소음 레벨을 예시적으로 나타낸 것이다. 여기서, 도 4d는 논문 "차종별 도로교통소음레벨과 주파수 특성에 관한 연구"(J. of Advanced Engineering and Technology, Vol. 1, No. 2 (2008) pp.339-346)을 참조하기 바란다.
이들 도면을 참조하여 본 발명의 일 실시예에 따른 ID에 대하여 설명하기로 한다.
본 발명의 일 실시예에 따르면, 스피커를 통해서 출력되는 음향 신호에 포함된 식별자(ID)는, 소정의 음압과 소정의 주파수를 가진다.
예를 들면, ID의 음압은, i) 인간이 인식할 수 있는 음압 레벨(SPL: Sound Pressure Level)(이하, 'SPL'이라고 함)을 고려하여 정해지거나, 또는 ii) 도 4a의 SPL과 스피커가 설치되는 장소의 소음 레벨을 모두 고려하여 정해진 기준 값보다 낮도록 정해질 수 있다.
SPL을 고려하여 ID의 음압을 정하는 경우를 먼저 설명하면, ID의 음압은 인간의 SPL 보다 적은 음압으로 정해질 수 있다. 예를 들면, ID의 음압은 도 4b에서의 빗금친 영역에 존재하도록 정해지거나, 다르게는 도 4c에서의 빗금친 영역에 존재하도록 정해질 수 있다. 즉, 가청 주파수 영역 중 일부 또는 전부 영역에서 SPL을 넘지 않는 한도에서, ID의 음압이 정해질 수 있다.
SPL과 소음레벨을 모두 고려하여 ID의 음압을 정하는 경우를 설명하면, ID의 음압은 SPL 보다 소정 크기 만큼 더 큰 음압을 가지도록 정해질 수 있다. 여기서, 소정 크기는 한계치를 가지며, 스피커가 설치되는 장소의 소음 레벨을 고려하여 정해진다. 예를 들면, 도 4d는 어떤 지하철 내부에서의 소음 레벨을 나타낸 것으로서 약 90dB 정도의 음압을 가진 소음이 존재하는 것을 알 수 있다. 이러한 환경에서는, ID의 음압이 인간의 SPL 보다 다소 높더라도 소음에 의해 묻힐 것이므로, ID의 음압을 인간의 SPL 보다 다소 높게 하더라도 인간은 인식하지 못할 수 있다. 정해야 하는 것은, ID의 음압을 인간의 SPL 보다 얼마나 높게 하느냐 하는 것인데, 이는 스피키가 설치된 위치의 소음 레벨을 실측하거나 또는 도 4d에 도시된 바와 같은 기존의 실측 값들을 이용하여 정할 수 있을 것이다.
상술한 바와 같이, ID의 음압을 정할 때, 인간이 인식가능한 SPL 및/또는 소음 레벨을 고려하는 것은, 인간이 불쾌감을 느끼지 않으면서 ID를 스피커로 출력하도록 하기 위함이다.
ID의 주파수를 정할 때에도 i) 인간이 인식할 수 있는 음압 레벨(SPL: Sound Pressure Level)(이하, 'SPL'이라고 함)을 고려하여 정해지거나, 또는 ii) 도 4a의 SPL과 스피커가 설치되는 장소의 소음 레벨을 모두 고려하여 정해진다. 예를 들면, 인간이 인식할 수 있는 SPL을 참조하면, 주파수가 250Hz 에서 1.6 KHz인 구간에서의 인간의 인식 능력은 다른 구간보다 높다. 따라서, ID 주파수를 250Hz 에서 1.6 KHz 내에는 포함되지 않고 이들 보다 작거나 큰 주파수를 가지도록 할 수 있다.
한편, ID 주파수가 250Hz 에서 1.6 KHz의 주파수를 포함하는 경우에는, 다른 주파수 대역의 음압보다 더 적은 음압을 가지도록 정해져야 한다.
도 4e를 참조하면, 음향 재생 장치(10)에서 재생하는 음향 데이터는 안내 정보(D1)와 ID(D2)를 포함할 수 있다. 여기서, ID(D2)는 도 4a 내지 도 4d에서 설명한 바와 같은 주파수 및 음압을 가진다.
한편, 도시하지는 않았지만, 음향 재생 장치(10)에서 재생하는 음향 데이터는 적어도 하나 이상의 다른 ID를 더 포함할 수 있을 것이며, 이러한 경우 ID 각각은 인간이 인식가능한 SPL 및/또는 소음 레벨을 고려하여 정해진 주파수 및 음압을 가질 수 있다.
도 5는 본 발명의 일 실시예에 따른 차량에서의 자동 안내 방송 장치를 이용한 위치 정보 제공 방법을 설명하기 위한 도면이다.
도 1 내지 도 3 및, 도 5를 참조하여, 본 발명의 일 실시예에 따른 위치 정보 제공 방법을 설명한다.
모바일 기기(30a)의 어플리케이션(31)은, 모바일 기기(30a)의 사용자에 의해 실행된다(S101).
S101 단계에서 어플리케이션(31)은, 모바일 기기(30a)에, 사용자에게 목적지 역을 입력할 수 있는 사용자 인터페이스를 제공하는 단계를 실행시킬 수 있으며, 그러한 사용자 인터페이스를 통해서 사용자는 목적지 역을 입력할 수 있다. 옵션으로서, 어플리케이션(31)은, 모바일 기기(30a)에, 출발지 역과 목적지 역을 모두 입력할 수 있는 사용자 인터페이스를 제공하는 단계를 실행시킬 수 있다. 다른 옵션으로서, 어플리케이션(31)은, 모바일 기기(30a)에, 사용자가 음성으로 출발지 역과 목적지 역을 모두 입력할 수 있는 사용자 인터페이스를 제공하는 단계를 실행시킬 수 있다. 또 다른 옵션으로서, 어플리케이션(31)은, 모바일 기기(30a)에, 전철역 노선도와 같이 전체 노선도를 표시하고, 사용자가 노선도 상에서 출발지 역과 목적지 역을 선택하도록 하는 사용자 인터페이스를 제공하는 단계를 실행시킬 수 있다.
스피커(13a)로부터 출력되는 음향 신호를, 마이크(35)가 수신하면(S101), 어플리케이션(31)은, 모바일 기기(30a)에, 마이크(35)가 수신한 음향 신호로부터 ID를 추출하는 단계(S103)를 실행시킬 수 있다.
어플리케이션(31)은, 모바일 기기(30a)에, ID 매핑 테이블(37)을 참조하여, S103 단계에서 추출한 ID에 대응되는 위치를 판단하는 단계(S105)를 실행시킬 수 있다.
어플리케이션(31)은, 모바일 기기(30a)에, S105에서 판단한 위치에 대한 정보를 모바일 기기(30a)가 가진 디스플레이부(미도시)에 표시하는 단계(S107)를 실행시킬 수 있다. 옵션으로서, S107에서는, S105에서 판단한 위치에 대한 정보 뿐만 아니라 부가 정보도 같이 표시할 수 있다.
한편, S109 단계에서, 어플리케이션(31)은, 모바일 기기(30a)에, 차량이 목적지 역 근처에 오면 사용자에게 목적지 역에 도착할 것임을 알리는 동작(알람이나 진동)을 같이 수행하는 단계를 실행시킬 수 있다. 또한, S109 단계에서, 어플리케이션(31)은, 모바일 기기(30a)에, 위치에 대한 정보를 시각적으로 표시하는 것 외에 추가적으로 음성으로도 출력하는 단계를 실행시킬 수 있다.
도 6은 본 발명의 일 실시예에 따른 차량에서의 자동 안내 방송 장치에서 사용되는 음향 데이터를 생성하는 장치를 설명하기 위한 도면이다.
도 6을 참조하면, 본 발명의 일 실시예에 따른 차량에서의 자동 안내 방송 장치에서 사용되는 음향 데이터를 생성하는 장치(이하, "음향 데이터 생성 장치")는, 제1 변조부(41), 제2 변조부(43), 및 가산기(47)를 포함할 수 있다.
제1 변조부(41)는 안내 정보를 통상 인간이 실제로 인식할 수 있는 주파수 및 음압의 세기를 가지도록 변조할 수 있다.
제2 변조부(43)는 ID를 도 4a 내지 도 4d를 참조하여 설명한 바와 같은 음압 및 주파수를 가지도록 변조할 수 있다. 예를 들면, 제2 변조부(43)는, i) 인간의 SPL 및/또는 ii) 소음 레벨을 고려하여 정한 주파수 및 음압을 가지도록 ID를 변조한다. 여기서, ID의 주파수 및 음압에 대한 상세한 내용은 도 4a 내지 도 4d의 설명을 참조하기 바란다.
가산기(47)는 제1 변조부(41)에서 출력되는 데이터와 제2 변조부(41)에서 출력되는 데이터를 결합할 수 있다.
한편, 도 6을 참조하여 설명한 음향 데이터 생성 장치에 의해 생성된 음향 데이터는, 예를 들면 도 1의 실시예에서의 저장부(17)에 저장될 수 있다.
도 7은 본 발명의 일 실시예에 따른 모바일 기기를 설명하기 위한 도면이다.
도 7을 참조하면, 본 발명의 일 실시예에 따른 모바일 기기(100)는 프로그램(101), 컴퓨터 프로세서(103), 저장부(105), 및 메모리(107)를 포함할 수 있다. 도시하지는 않았지만 모바일 기기(100)는, 사용자 명령을 받을 수 있는 터치형 디스플레이부 또는 입력용 자판등과 같은 입출력 장치를 더 포함할 수 있다.
프로그램(101)은 도 3을 참조하여 설명한 프로그램(31)에 해당될 수 있다. 프로그램(101)은 저장부(105)에 저장되어 있다가, 사용자의 명령에 따라서 실행될 수 있다.
사용자 명령이 입출력 장치(미도시)를 통해서 입력되면, 컴퓨터 프로세서(103)는 프로그램(101)을 메모리(107)에 로딩시켜 실행시킨다.
메모리(107)에 로딩된 프로그램(101)은 도 3을 참조하여 설명한 프로그램(31)의 동작을 수행한다.
저장부(105)에는 ID 매핑 테이블이 저장되어 있을 수 있다. ID 매핑 테이블은 예들 들면 도 3에서 설명한 것일 수 있다.
다른 예를 들면, 저장부(105)에 저장된, ID 매핑 테이블은 표1과 표2에서 나타낸 바와 같이 복수개로 저장될 수 도 있다.
저장부(105)에 저장된 ID 매핑 테이블은, 업데이트될 수 있다. 예를 들면, 모바일 기기(100)는 외부의 서버와 통신할 수 있는 통신부(미도시)를 더 포함할 수 있다.
프로그램(101)은, 주기적으로 또는 실행될 때 마다, 모바일 기기(100)에, 상기 외부의 서버에 접속하여 ID 매핑 테이블을 갱신할 필요가 있는지 확인하는 단계와, 갱신할 필요가 있으면 상기 외부의 서버로부터 ID 매핑 테이블의 갱신 데이터를 수신하는 단계와, 수신한 ID 갱신 테이블의 갱신 데이터로 저장부(105)에 기저장된 ID 매핑 테이블을 갱신하는 단계를 실행시킬 수 있다.
도 8은 본 발명의 다른 실시예에 따른 차량에서의 자동 안내 방송 장치를 이용한 정보 제공 방법을 설명하기 위한 도면이다.
도 8 및 도 1 내지 3을 참조하여, 본 발명의 다른 실시예에 따른 정보 제공 방법을 설명한다. 여기서의 정보는, 위치 정보 뿐 만 아니라 부가적인 정보를 포함할 수 있다.
모바일 기기(30a)의 어플리케이션(31)은, 모바일 기기(30a)의 사용자에 의해 실행된다(S201).
S201 단계에서 어플리케이션(31)은, 모바일 기기(30a)에, 사용자에게 목적지 역을 입력할 수 있는 사용자 인터페이스를 제공하는 단계를 실행시킬 수 있으며, 그러한 사용자 인터페이스를 통해서 사용자는 목적지 역을 입력할 수 있다. 옵션으로서, 어플리케이션(31)은, 모바일 기기(30a)에, 출발지 역과 목적지 역을 모두 입력할 수 있는 사용자 인터페이스를 제공하는 단계를 실행시킬 수 있다. 어플리케이션(31)은 다른 옵션으로서, 모바일 기기(30a)에, 사용자가 음성으로 출발지 역과 목적지 역을 모두 입력할 수 있는 사용자 인터페이스를 제공하는 단계를 실행시킬 수 있다. 또 다른 옵션으로서, 어플리케이션(31)은, 모바일 기기(30a)에, 전철역 노선도와 같이 전체 노선도를 표시하고, 사용자가 노선도 상에서 출발지 역과 목적지 역을 선택하도록 하는 사용자 인터페이스를 제공하는 단계를 실행시킬 수 있다.
모바일 기기(30a)의 어플리케이션(31)은, 모바일 기기(30a)의 사용자에 의해 실행되면, 모바일 기기(30a)에, 스피커(13a)로부터 출력되는 음향 신호를, 마이크(35)가 수신하는 단계(S203)를 실행시킬 수 있다.
어플리케이션(31)은 모바일 기기(30a)에, 마이크(35)가 수신한 음향 신호로부터 적어도 하나 이상의 ID를 추출하는 단계(S205)를 실행시킬 수 있다.
어플리케이션(31)은, 모바일 기기(30a)에, 적어도 하나 이상의 ID 매핑 테이블(37)을 참조하여, S103 단계에서 추출한 ID에 대응되는 정보가 무엇인지를 판단하는 단계(S207)를 실행시킬 수 있다.
어플리케이션(31)은, 모바일 기기(30a)에, 추출한 ID에 대응되는 모든 정보를, 모바일 기기(30a)가 가진 디스플레이부(미도시)에 표시하는 단계(S209)를 실행시킬 수 있다.
한편, S209 단계에서, 어플리케이션(31)은, 모바일 기기(30a)에, 차량이 목적지 역 근처에 오면 사용자에게 목적지 역에 곧 도착할 것임을 알리는 동작(알람이나 진동)을 같이 수행하는 단계를 실행시킬 수 있다. 또한, S209 단계에서, 어플리케이션(31)은, 모바일 기기(30a)에, 위치에 대한 정보를 시각적으로 표시하는 것 외에 추가적으로 음성으로도 출력하는 단계를 실행시킬 수 있다.
도 9는 본 발명의 다른 실시예에 따른 차량에서의 자동 안내 방송 장치를 활용한 정보 안내 방법을 설명하기 위한 도면이다.
도 1, 도 3, 및 도 9를 참조하여, 본 발명의 다른 실시예에 따른 위치 정보 제공 방법을 설명한다.
모바일 기기(30a)의 어플리케이션(31)은, 모바일 기기(30a)의 사용자에 의해 실행된다(S301).
S301 단계에서 어플리케이션(31)은, 모바일 기기(30a)에, 사용자에게 목적지 역을 입력할 수 있는 사용자 인터페이스를 제공하는 단계를 실행시킬 수 있으며, 그러한 사용자 인터페이스를 통해서 사용자는 목적지 역을 입력할 수 있다. 옵션으로서, 어플리케이션(31)은, 모바일 기기(30a)에, 출발지 역과 목적지 역을 모두 입력할 수 있는 사용자 인터페이스를 제공하는 단계를 실행시킬 수 있다. 다른 옵션으로서, 어플리케이션(31)은, 모바일 기기(30a)에, 사용자가 음성으로 출발지 역과 목적지 역을 모두 입력할 수 있는 사용자 인터페이스를 제공하는 단계를 실행시킬 수 있다. 또 다른 옵션으로서, 어플리케이션(31)은, 모바일 기기(30a)에, 전철역 노선도와 같이 노선도를 표시하고, 사용자가 노선도 상에서 출발지 역과 목적지 역을 선택하도록 하는 사용자 인터페이스를 제공하는 단계를 실행시킬 수 있다.
모바일 기기(30a)의 어플리케이션(31)은, 모바일 기기(30a)의 사용자에 의해 실행되면, 모바일 기기(30a)에, 마이크(35)가 음향 신호를 수신하는지를 확인하는 단계(S303)를 실행시킬 수 있다.
어플리케이션(31)은 마이크(35)가 음향 신호를 수신하는 경우(S303: Y)에는, 모바일 기기(30a)에, 마이크(35)가 수신한 음향 신호로부터 ID를 추출하는 단계(S305)를 실행시킬 수 있다.
어플리케이션(31)은, 모바일 기기(30a)에, ID 매핑 테이블(37)을 참조하여, S305 단계에서 추출한 ID에 대응되는 위치를 판단하는 단계(S307)를 실행시킬 수 있다.
어플리케이션(31)은, 모바일 기기(30a)에, S307에서 판단한 위치에 대한 정보를 모바일 기기(30a)가 가진 디스플레이부(미도시)에 표시하는 단계(S309)를 실행시킬 수 있다. 옵션으로서, S309에서는, S307에서 판단한 위치에 대한 정보 뿐만 아니라 부가 정보도 같이 표시할 수 있다.
한편, S309 단계에서, 어플리케이션(31)은, 모바일 기기(30a)에, 차량이 목적지 역 근처에 오면 사용자에게 목적지에 곧 도착할 것임을 알리는 동작(알람이나 진동)을 같이 수행하는 단계를 실행시킬 수 있다. 또한, S309 단계에서, 어플리케이션(31)은, 모바일 기기(30a)에, 위치에 대한 정보를 시각적으로 표시하는 것 외에 추가적으로 음성으로도 출력하는 단계를 실행시킬 수 있다.
어플리케이션(31)은, 모바일 기기(30a)에, 주기적 또는 지속적으로 마이크(35)로부터 음향 신호가 수신되는지를 확인하는 단계(S311)를 실행시킬 수 있다.
어플리케이션(31)은, S311 단계의 수행결과 마이크(35)를 통해서 음향 신호가 수신되지 않으면, 모바일 기기(30a)에, 현재 디스플레이부(미도시)에 표시된 위치 정보는 변경하지 않고 그대로 유지하는 단계를 실행시킬 수 있다.
어플리케이션(31)은, S311 단계의 수행결과 마이크(35)를 통해서 음향 신호가 수신되면, 모바일 기기(30a)에, 지금 수신된 음향 신호에 대하여 S305 내지 S307 단계를 수행한 후, 디스플레이부(미도시)에 새로운 정보를 표시하는 단계(S309)를 실행시킬 수 있다.
한편, S303 단계의 수행결과, 어떠한 음향 신호도 수신되지 않으면(S303: N), 어플리케이션(31)은 모바일 기기(30a)에, 위치를 예측하는 단계(S313)를 실행시킬 수 있다. 어떠한 음향 신호도 수신되지 않는 경우(S303)는, 예를 들면, 어플리케이션(31)이 처음 구동될 때 발생될 수 있다.
S313 단계에서 예측된 위치는, S309 단계에서 디스플레이부에 표시된다.
여기서, 위치를 예측하는 동작은 다양한 방식으로 수행될 수 있다. 예를 들면, GPS 센서의 결과를 이용할 수 있다. 한편, S313 단계에서, 위치를 예측하지 않고 미리 정한 준비 화면을 제공하는 것도 가능하다. 예를 들면, '잠시만 대기하여 주세요. 위치 정보를 준비 중입니다"와 같은 문구를 표시할 수 있다.
사용자가 어플리케이션(31)이 제공하는 사용자 인터페이스를 통해서 출발지 역을 입력한 경우에는, S313 단계는 수행되지 않을 수 있다. 즉, S303 단계의 수행결과, 어떠한 음향 신호도 수신되지 않으면(S303: N), S309 단계에서는 사용자가 입력한 출발지 역을 현재 위치로서 간주하여 표시할 수 있다.
도 10은 본 발명의 다른 실시예에 따른 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템을 설명하기 위한 도면으로서, 설명의 편의를 위해서 차량을 도시하지는 않았다.
도 10을 참조하면, 다른 실시예에 따른 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템은, 자동 안내 방송 장치, ID 신호 생성부(150), 스플리터(114), 및 가산기들(118a, 118b, 118c)을 포함한다.
자동 안내 방송 장치는, 음향 재생 장치(110), 위치 추정부(112), 앰프들(119a, 119b, 119c), 및 스피커들(113a, 113b, 113c)을 포함할 수 있다.
ID 신호 생성부(150)는 ID 선택부(151), 제2 변조부(153), 및 제2 앰프(155)를 포함할 수 있다.
본 발명의 따른 위치 정보 제공 시스템은, 차량에서의 자동 안내 방송 장치가 스피커를 통해서 제공하는 안내 정보를 기반으로 보다 정확한 위치 정보를 제공할 수 있다.
본 실시예에 따른 위치 정보 제공 시스템은 지하철 또는 기차 또는 버스와 같은 차량에 장착되어, 차량에 탑승한 승객에게 보다 정확한 위치 정보를 제공한다.
자동 안내 방송 장치는, 종래 지하철, 기차, 또는 버스와 같은 차량에 장착되어 정차역을 안내하는 장치이다. 이러한 장치는, 정차역 마다 대응된 안내 정보를 음향 데이터로서 저장하고 있다가, 기 정한 위치에 차량이 도착할 때 마다 대응된 음향 데이터를 재생한다.
음향 재생 장치(110)는, 음향 데이터를 저장하는 저장부(117), 음향 데이터를 재생하는 플레이어(110), 및 음향 데이터를 전기적 신호로 변환하는 제1변조부(115)를 포함할 수 있다.
위치 추정부(112)는 차량의 위치를 추정하여 음향 재생 장치(110)로 제공하며, 음향 재생 장치(110)는 그러한 위치에 기초하여 음향 데이터를 선택한 후 전기적 신호로서 출력한다.
음향 재생 장치(110)로부터 출력되는 전기적 신호는 스플리터(114)에 의해 앰프들(119a, 119b, 119c)과 본 발명에 따른 ID 신호 생성부(150)쪽으로 분기된다.
ID 선택부(151)는, 스플리터(114)로부터 제공 받은 전기적 신호를 분석하여 이에 대응되는 ID를 선택한다. 제2 변조부는 ID를 스피커에서 출력가능한 형태의 전기적 신호로 변환하여 앰프(155)로 출력한다. 앰프(155)는, 입력받은 전기적 신호를 증폭하여 가산기들(118a, 118b, 118c)로 출력한다.
가산기들(118a, 118b, 118c)은, 도 10에 예시적으로 도시된 바와 같이, 각각 앰프(155)와 앰프(119a, 119b, 119c)로부터 각각 출력되는 신호를 합하여 스피커로 출력한다.
ID 선택부(151)에서 ID를 선택하는 예시적 방법들을 설명하기로 한다.
첫번째 방법으로, 저장부(117)에 저장된 음향 데이터들 각각에는 고유의 워터 마커가 포함되도록 구성하고, ID 선택부(151)에서는 그러한 워터 마커를 인식하여 그에 대응되는 ID를 선택할 수 있다. 이러한 방법을 구현하기 위해서는, 워터 마커 별로 ID가 대응된 ID 테이블이 미리 준비되어 있고, ID 선택부(151)가 그러한 ID 테이블을 참조할 수 있어야 한다.
두번째 방법으로, ID 선택부(151)는, 자동 안내 방송 장치(110)를 통해서 출력되는 전기적 신호를 디지털 데이터로 복원하고, 복원한 디지털 데이터에 대응된 ID를 선택하는 방법이다. 이러한 방법을 구현하기 위해서는, 복원한 디지털 데이터별로 ID가 대응된 ID 테이블가 미리 준비되어 있고, ID 선택부(151)가 그러한 ID 테이블을 참조할 수 있어야 한다.
제2 변조부(153)는, ID 선택부(151)에서 선택한 ID를, 소정의 주파수 및 음압을 가지도록 하는 전기적 신호로 변환할 수 있다. 여기서, 소정의 주파수 및 음압에 대한 설명은, 도 4a부터 도 4d까지를 참조하여 설명한 것으로 갈음하기로 한다.
제2 앰프(155)는 제2 변조부(153)에 의해 변조된 전기적 신호를 증폭하여 가산기들로 출력한다.
도 10의 실시예에서 언급하지 않은 구성요소들은, 도 1에서 유사한 도면 부호를 가진 구성요소들과 동일 또는 유사한 동작을 하므로, 여기서는 생략하기로 한다.
도 11은 본 발명의 다른 실시예에 따른 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템을 설명하기 위한 도면이다.
도 11을 참조하면, 다른 실시예에 따른 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템은, 자동 안내 방송 장치, ID 신호 생성부들(250a, 250b, 250c), 스플리터(214), 및 가산기들(218a, 218b, 218c)을 포함한다.
자동 안내 방송 장치는, 음향 재생 장치(210), 위치 추정부(212), 앰프들(219a, 219b, 219c), 및 스피커들(213a, 213b, 213c)을 포함할 수 있다.
여기서, 자동 안내 방송 장치는 도 10을 참조하여 설명한 자동 안내 방송 장치의 기능과 동일 또는 유사할 수 있다.
ID 신호 생성부들(250a, 250b, 250c)은 도시하지는 않았지만, 각각 ID 선택부, 제2 변조부, 및 제2 앰프들을 포함하며, 이들 구성요소들은 도 10을 참조하여 설명한 ID 선택부(151), 제2 변조부(153), 및 제2 앰프(155)의 기능과 동일 또는 유사하다.
도 10의 실시예와 비교하면, ID 신호 생성부들(250a, 250b, 250c)이 가산기들(218a, 218b, 218c)별로 구비되어 있다는 점에서 차이가 있다. 도 11의 실시예에서는, 스플리터(214)가 ID 신호 생성부들(250a, 250b, 250c) 각각에 대하여 음향 재생 장치(210)로부터 출력되는 신호를 분기하며, ID 신호 생성부들(250a, 250b, 250c)은 각각 ID를 선택하고 선택한 ID를 소정의 주파수 및 음압을 가지도록 하는 전기적 신호로 변환하여 가산기들에게 출력한다. 여기서, 소정의 주파수 및 음압에 대한 설명은, 도 4a부터 도 4d까지를 참조하여 설명한 것으로 갈음하기로 한다.
음향 재생 장치(210)는, 도 10에서의 음향 재생 장치(110)의 동작과 동일 또는 유사한 동작을 하고, 위치 추정부(212)는 도 10에서의 위치 추정부(112)의 동작과 동일 또는 유사한 동작을 한다.
도 10의 실시예와 비교하면, 도 11의 실시예의 경우 다수의 ID 신호 생성부들(250a, 250b, 250c)를 가질 수 있으므로, 각 스피커마다 다른 ID를 출력하는 것이 가능하다.
도 11의 실시예에서 언급하지 않은 구성요소들은, 도 10에서 유사한 도면 부호를 가진 구성요소들과 동일 또는 유사한 동작을 하므로, 여기서는 그 설명을 생략하기로 한다.
도 12는 본 발명의 다른 실시예에 따른 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템을 설명하기 위한 도면이다.
도 12를 참조하면, 다른 실시예에 따른 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템은, 자동 안내 방송 장치, ID 신호 생성부(350), 스플리터(314), 및 가산기(318)를 포함한다.
자동 안내 방송 장치는, 음향 재생 장치(310), 위치 추정부(312), 앰프들(319a, 319b, 319c), 및 스피커들(313a, 313b, 313c)을 포함할 수 있다.
여기서, 자동 안내 방송 장치는 도 10을 참조하여 설명한 자동 안내 방송 장치의 기능과 동일 또는 유사할 수 있다.
ID 신호 생성부(350)는 ID 선택부(351) 및 제2 변조부(353)를 포함하며, 이들 구성요소들은 도 10을 참조하여 설명한 ID 선택부(151) 및 제2 변조부(153)의 기능과 동일 또는 유사하다.
음향 재생 장치(310)로부터 출력되는 전기적 신호는 스플리터(314)에 의해 본 발명의 일 실시예에 따른 ID 신호 생성부(350)쪽으로 분기된다.
ID 선택부(351)는, 스플리터(314)로부터 제공 받은 전기적 신호를 분석하여 이에 대응되는 ID를 선택한다. 제2 변조부(353)는 ID를 스피커에서 출력가능한 형태의 전기적 신호로 변환하여 가산기(318)로 출력한다. 여기서, ID 선택부(351)의 동작과 제2 변조부(353)의 동작은, 도 10의 ID 선택부(115)와 제2 변조부(153)의 동작과 동일 유사하므로, 도 10의 설명을 참조하기 바란다.
가산기(318)는, 도 12에 예시적으로 도시된 바와 같이, 스플리터(314)로부터 출력되는 신호와 ID 신호 생성부(350)로부터 출력되는 신호를 합하여 앰프들(319a, 319b, 319c)로 출력한다.
앰프들(319a, 319b, 319c)은 가산기(318)로부터 출력되는 전기적 신호를 증폭하여 스피커들(313a, 313b, 313c)로 출력한다.
도 12의 실시예에서 언급하지 않은 구성요소들은, 도 10에서 유사한 도면 부호를 가진 구성요소들과 동일 또는 유사한 동작을 하므로, 여기서는 생략하기로 한다.
도 13은 본 발명의 다른 실시예에 따른 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템을 설명하기 위한 도면이다.
도 13을 참조하면, 다른 실시예에 따른 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템은, 자동 안내 방송 장치, ID 신호 생성부(450), 스플리터(414), 및 가산기(418)를 포함한다.
자동 안내 방송 장치는, 음향 재생 장치(410), 위치 추정부(412), 앰프들(419a, 419b, 419c), 및 스피커들(413a, 413b, 413c)을 포함할 수 있다.
여기서, 자동 안내 방송 장치는 도 10을 참조하여 설명한 자동 안내 방송 장치의 기능과 동일 또는 유사할 수 있다.
ID 신호 생성부(450)는 ID 선택부(451) 및 제2 변조부(453)를 포함하며, 이들 구성요소들은 도 10을 참조하여 설명한 ID 선택부(151) 및 제2 변조부(153)의 기능과 동일 또는 유사하다.
음향 재생 장치(410)로부터 출력되는 전기적 신호는 스플리터(414)에 의해 본 발명의 일 실시예에 따른 ID 신호 생성부(450)쪽으로 분기된다.
ID 선택부(451)는, 스플리터(414)로부터 제공 받은 전기적 신호를 분석하여 이에 대응되는 ID를 선택한다. 제2 변조부(453)는 ID를 스피커에서 출력가능한 형태의 전기적 신호로 변환하여 가산기(418)로 출력한다. 여기서, ID 선택부(451)의 동작과 제2 변조부(453)의 동작은, 도 10의 ID 선택부(115)와 제2 변조부(153)의 동작과 동일 유사하므로, 도 10의 설명을 참조하기 바란다.
가산기(418)는, 도 13에 예시적으로 도시된 바와 같이, 스플리터(414)로부터 출력되는 신호와 ID 신호 생성부(450)으로부터 출력되는 신호를 합하여 앰프들(419a, 419b, 419c)로 출력한다.
앰프들(419a, 419b, 419c)은 가산기(418)로부터 출력되는 전기적 신호를 증폭하여 스피커들(413a,413a', 413b, 413b', 413c, 413c')로 출력한다.
도 13을 참조하면, 앰프(419a)와 스피커들(413a,413a') 사이에는 스위치(S)가 위치되며, 이 스위치(S)는 앰프(419a)로부터 출력되는 신호를 스피커(413a)와 스피커(413a') 중 어느 하나의 스피커로 향하도록 전환된다. 다른 스위치(S)들 역시 같은 기능을 한다.
도 13의 실시예에서 언급하지 않은 구성요소들은, 도 10에서 유사한 도면 부호를 가진 구성요소들과 동일 또는 유사한 동작을 하므로, 여기서는 생략하기로 한다.
상술한 하나 이상의 실시예들에서, 앰프는 가산기 다음에 삽입된 것으로 설명되었으나, 앰프는 가산기 전후 어디라도 위치될 수 있다.
도 10에 예시적으로 도시된 실시예를 참조하면, 앰프들(119a, 119b, 119c)이 각각 가산기들(118a, 118b, 118c)의 이전에 위치되어 있으나 이는 예시적인 것으로서, 앰프들은 각각은 가산기들과 스피커들(113a, 113b, 113c)의 사이에 위치되는 것도 가능하다.
도 11에 예시적으로 도시된 실시예 역시, 앰프들(219a, 219b, 219c)이 각각 가산기들(218a, 218b, 218c)의 이전에 위치되어 있으나 이는 예시적인 것으로서, 앰프들은 각각은 가산기들과 스피커들(213a, 213b, 213c)의 사이에 위치되는 것도 가능하다.
한편, 도 12에 예시적으로 도시된 실시예에서는 앰프들(319a, 319b, 319c)이 각각 가산기(318)이 다음에 위치되어 있는데, 앰프들(319a, 319b, 319c) 대신에 1개의 앰프가 가산기(318) 이전에 위치되는 구성도 가능하다고 할 것이다.
또한, 도 13에 예시적으로 도시된 실시예에서도 앰프들(419a, 419b, 419c)이 각각 가산기(418)이 다음에 위치되어 있는데, 1개의 앰프가 가산기(418) 이전에 위치되는 구성으로도 가능하다고 할 것이다.
도 14는 발명의 일 실시예에 따른 믹서를 이용한 방송시스템을 설명하기 위한 도면이다.
도 14를 참조하면, 본 발명의 일 실시예에 따른 믹서를 이용한 방송시스템(1100)은, 음원(또는 '음향 데이터'라고도 함)을 저장하는 저장부(1010), 디지털 데이터를 아날로그 신호로 전환하는 DAC(1020), 믹서(1030), 믹서(1030)로부터 출력되는 신호를 증폭하는 앰프(AMP)(1040), 및 앰프(1040)로부터 출력되는 신호를 외부에 음향으로 출력하는 스피커(1050)를 포함할 수 있다.
본 실시예에서, 스피커(1050)는 한 개로 도시되어 있지만, 복수 개로도 구성될 수 있음을 당업자는 이해할 수 있을 것이다. 또한, 본원 명세서에서, 믹서(1030)가 믹싱 신호를 스피커(1050)로 출력한다고 언급하고 있는 경우, 앰프(1040)를 명시적으로 언급하지 않더라도 앰프(1040)를 통해서 증폭된 후 스피커(1050)를 통해서 출력되는 것으로 이해하여야 한다.
저장부(1010)에 저장된 음원은 음성을 녹음한 파일 또는 노래 파일과 같이 스피커를 통해서 음향으로 출력될 수 있는 임의의 데이터를 의미한다.
DAC(1020)는 음원을 스피커(1050)에서 출력가능한 전기적 신호로 변환한다. 본원 명세서에서는, 설명의 목적을 위해서, 전기적 신호로 변환된 음원 (또는 음향 데이터)를 음향 신호라고 부르기로 한다.
믹서(1030)는 DAC(1020)에 의해 출력된 아날로그 형태의 음향 신호를 입력받아서, 소정의 믹싱 동작을 수행한다.
본 발명의 일 실시예에 따르면, 믹서(1030)는, DAC(1020)로부터 출력된 음향 신호를 스피커(1050)로 출력하기 전에, DAC(1020)로부터 출력된 음향 신호로부터 음향을 인식하여 메타 데이터- 스피커로 출력되는 음향과 연관된 것임-를 생성하고, 여기서 생성된 메타 데이터를 비가청 대역의 음파 신호로서 변환하며, 비가청 대역의 음파 신호로서 변환된 메타 데이터를 음향 신호와 믹싱한 믹싱신호를 생성할 수 있다.
한편, 본 발명의 일 실시예에 따르면, 외부로 출력되는 음향과 연관된 것은
i) 외부로 출력되는 음향의 적어도 일부를 텍스트로 변환한 것;
ii) 외부로 출력되는 음향의 적어도 일부와 연관된 정보를 텍스트로 변환한 것;
iii) 외부로 출력되는 음향의 적어도 일부와 연관된 정보를 포함하는 인터넷 주소로 변환한 것;
iv) 상기 i) 내지 iii) 중 어느 하나를 나타내는 고유 ID;
중에서 적어도 어느 하나일 수 있다.
i) 의 예를 들면, 외부로 출력되는 음향이 "안녕하세요, 다음역은 신촌역입니다. 다음역에 내리실 분은 오른쪽 문을 이용하시기 바랍니다"하고 할 때, 메타 데이터는 "다음역은 신촌역, 오른쪽문 이용"를 의미하는 텍스트일 수 있다.
ii) 의 예를 들면, 외부로 출력되는 음향이 "안녕하세요, 다음역은 서울역입니다. 다음역에 내리실 분은 오른쪽 문을 이용하시기 바랍니다"하고 할 때, 메타 데이터는 "다음역은 서울역, 오른쪽문 이용, 서울역의 1번출구로 나가면 KTX 역사가 있음"를 의미하는 텍스트일 수 있다.
iii) 의 예를 들면, 외부로 출력되는 음향이 "안녕하세요, 다음역은 서울역입니다. 다음역에 내리실 분은 오른쪽 문을 이용하시기 바랍니다"하고 할 때, 예를 들면 메타 데이터는 "http://www.arex.or.kr/"를 의미하는 텍스트일 수 있다(여기서, 는 서울역을 소개하는 URL임).
iv) 의 예를 들면, "안녕하세요, 다음역은 서울역입니다. 다음역에 내리실 분은 오른쪽 문을 이용하시기 바랍니다"하고 할 때, 예를 들면 메타 데이터는 '0031'과 같은 ID일 수 있다. 여기서, ID '0031'은 예시적인 것으로서, 서버(미도시)가 '0031'에 "다음역은 서울역, 오른쪽문 이용, 서울역의 1번출구로 나가면 KTX 역사가 있음"와 같은 정보를 맵핑하여 저장하여 관리하고 있을 수 있다.
이상 설명한 메타 데이터의 예들에서는 역을 예로 들어 설명하였지만, 본원 발명에서의 메타 데이터는 역에 한정될 필요가 없을 것이다. 예를 들면, 외부로 출력되는 음향이 "비상 사태입니다. 화재가 났으니 천천히 대피하여 주세요"와 같은 긴급 방송의 경우, 메타 데이터는, 위치 추정부(1035)로부터 제공받은 위치 정보와, 그러한 위치 정보를 이용하여 현재 위치에서의 대피 경로를 안내하는 것일 수 있다.
즉, 음향인식엔진(1033)은, '비상' 또는 '화재'와 같은 긴급을 의미하는 음향이, 음향 신호에 포함되어 있다고 판단되면, 현재 위치와 대피 경로를 의미하는 메타 데이터를 생성할 수 있다.
한편, 본원 명세서에서, 용어 '외부'는 예를 들면 스피커 또는 전송부와 같은 장치들일 수 있으나, 이들에 한정되지 않는다. 용어 '외부'는 넓은 의미로는 믹서(1030)로부터 출력되는 신호를 받는 임의의 장치를 의미한다.
본 발명의 일 실시예에 따르면, 믹서(1030)는, 믹싱 신호를 스피커(1050)로 출력한 이후, DAC(1020)로부터 다른 음향 신호가 수신되어 새로운 비가청 대역의 음파 신호로 변환된 메타 데이터가 제공될 때까지, 비가청 대역의 음파 신호로 변환된 메타 데이터를, 소정의 시간 간격으로 스피커(1050)로 계속 출력할 수 있다. 이러한 동작에 대하여 도 15를 참조하여 보다 상세히 설명하기로 한다.
도 15는 본 발명의 일 실시예에 따른 믹서(1030)가, 시각 t1, t2, ... , tN, tN+1, tN+2 .. . 순서대로 출력하는 믹싱 신호를 주파수 대역상에서 나타낸 것(스펙트로그램)이다. 여기서, 시각 t1, t2, ... , tN, tN+1, tN+2 .. . 들 간의 간격은 일정하거나 또는 서로 같지 않을 수도 있으며, 이는 당업자가 적절하게 선택할 수 있을 것이다.
도 15를 참조하면, 믹서(1030)는 시각 t1에 음향 신호(S1)(이하, '제1 음향 신호')와 메타 데이터(M1)(이하, '제1 메타 데이터')를 믹싱한 신호를 출력한다. 여기서, 제1 메타 데이터는, 제1 음향 신호를 인식하여 이로부터 생성된 메타 데이터이다.
소정 시각 t2가 되면 믹서(1030)는, 제1 메타 데이터(M1)를 스피커(1050)로 출력한다.
이런 방식으로, 소정 시각이 될 때마다, 믹서(1030)는 제1 메타 데이터(M1)를 스피커(1050)로 출력하며, 시각 tn이 될 때까지 수행할 수 있다.
믹서(1030)는, 시각 tn+1에서 음향 신호(S2)(이하, '제2 음향 신호')와 메타 데이터(M2)(이하, '제2 메타 데이터')를 믹싱한 신호를 출력한다. 여기서, 제2 메타 데이터는, 제2 음향 신호로부터 생성된 메타 데이터이다.
소정 시각 tN+1가 되면 믹서(1030)는, 제2 메타 데이터(M2)를 스피커(1050)로 출력한다. 이런 방식으로, 소정 시각이 될 때마다, 믹서(1030)는 제2 메타 데이터(M2)를 스피커(1050)로 출력하며, 이러한 동작은, 새로운 음향 신호(이하, '제3 음향 신호')를 수신하여 새로운 비가청 대역의 음파 신호로 변환된 메타 데이터가 제공될 때까지 수행된다.
\*116도 15를 참조하여 설명한 것처럼, 믹서(1030)는, 제1 음향 신호를 수신하면, 제1 음향신호로부터 제1 메타 데이터를 생성하고, 제1 메타 데이터와 제1 음향 신호를 믹싱하여 스피커(1050)로 출력한다. 이후, 제 2 음향 신호를 수신하여 새로운 비가청 대역의 음파 신호로 변환된 메타 데이터가 제공되기 전까지는, 비가청 주파수 대역의 음파 신호로 변환된 제1 메타 데이터를 소정 시간 간격으로 반복해서 스피커(1050)로 출력한다.
그리고, 믹서(1030)는, 제2 음향 신호를 수신하면, 제2 음향신호로부터 제2 메타 데이터를 생성하고, 제2 메타 데이터와 제2 음향 신호를 믹싱하여 스피커(1050)로 출력한다. 이후, 제3 음향 신호를 수신하여 새로운 비가청 대역의 음파 신호로 변환된 메타 데이터가 제공되기 전까지는, 비가청 주파수 대역의 음파 신호로 변환된 제2 메타 데이터를 소정 시간 간격으로 반복해서 스피커(1050)로 출력한다. 이하, 믹서(1030)는, 후속하여 수신하는 음향 신호에 대하여 같은 방식으로 동작할 수 있다.
상술한 바와 같이 동작하는 믹서(1030)는, 예를 들면, 입력단(1031), 출력단(1032), 음향인식엔진(1033), 음파생성엔진(1034), 결합부(1036), 및 바이패스 경로(1039)를 포함하도록 구성될 수 있다.
입력단(1031)은, DAC(1020)로부터 출력되는 음향 신호를 수신할 수 있다.
출력단(1032)은 결합부(1036)에 의해 믹싱된 믹싱 신호를 앰프(1040)로 출력할 수 있다.
입력단(1031)을 통해서 수신된 음향신호는 바이패스 경로(1039)를 통해서 결합부(1036)로 제공된다. 이처럼, 바이패스 경로(1039)가 존재하기 때문에, 메타 데이터가 생성되지 않는 경우라도, 입력단(1031)을 통해서 일단 수신된 음향신호는 앰프(1040)로 출력될 수 있게 된다. 또한, 음향인식엔진(1033) 혹은 음파생성엔진(1034)에 문제가 생겨 동작하지 않더라도, 방송시스템의 음향이 믹서를 통과하여 앰프(1040)로 출력될 수 있게 된다.
음향인식엔진(1033)은, 입력단(1031)에서 수신된 음향 신호 또는 바이패스 경로(1039)를 통해서 결합부(1036)로 입력되는 음향 신호를 분석하여 음향을 인식한다.
음향인식엔진(1033)은, 예를 들면, 입력단(1031)에서 수신된 음향 신호는 아날로그 신호의 형태이므로, 디지털 데이터의 형태로 변환한 후, 그러한 디지털 데이터에 포함된 음향을 인식한다.
음향인식엔진(1033)은, 인식된 음향으로부터 메타 데이터를 생성한다. 메타 데이터는, 예를 들면
i) 인식한 음향의 적어도 일부를 텍스트로 변환한 것;
ii) 인식한 음향의 적어도 일부와 연관된 정보를 텍스트로 변환한 것;
iii) 외부로 출력되는 음향의 적어도 일부와 연관된 정보를 포함하는 인터넷 주소로 변환한 것;
iv) 상기 i) 내지 iii) 중 어느 하나를 나타내는 고유 ID;
중에서 적어도 어느 하나일 수 있다.
이들에 대한 보다 상세한 설명은 이전의 설명을 참조하기 바란다.
음파생성엔진(1034)은, 음향인식엔진(1033)에 의해 생성된 메타 데이터를 비가청 대역의 음파 신호로 변환할 수 있다. 비가청 대역에 대하여는 도 21을 참조하여 구체적으로 설명하기로 한다.
도 21을 참조하면, 비가청 대역이 빗금으로 표시되어 있다. 본원 명세서에서, 비가청 대역이라고 함은, 음파 대역 내에서 인간이 청각으로 인식할 수 없는 주파수 대역을 의미하며, 이러한 비가청 대역은 출력되는 음향의 음압의 세기에 따라서 달라진다.
도 21을 참조하면, 4000 Hz 근처에서는 다른 주파수보다 음압의 세기가 상대적으로 낮아도 인간이 청각으로 인식할 수 있음을 보여준다. 한편, 전반적으로 4000 Hz 근처를 기준으로 주파수가 낮아지거나 높아질수록 인간이 청각으로 인식하기 위해서는 음압의 세기가 높아져야 함을 알 수 있다.
따라서, 스피커(1050)로부터 출력되는 음압의 세기를 고려하여, 비가청 대역이 정해져야 한다. 또, 고려해야 할 것은, 스피커(1050)의 출력 범위이다. 스피커(1050)의 출력 범위 이내에서 비가청 대역이 정해져야 한다.
즉, 스피커(1050)의 출력범위와 음압의 세기를 모두 고려하여, 인간이 청각으로 인식할 수 없는 주파수 대역으로, 메타 데이터가 변환되어야 한다.
결합부(1036)는, 음파생성엔진(1034)에 의해 비가청 대역의 음파 신호로 변환된 메타 데이터와, 바이패스 경로(1039)를 통해서 입력받은 음향 신호를 믹싱하여 믹싱 신호를 생성한다. 여기서, 결합부(1036)가 출력하는 믹싱 신호의 예는, 도 15의 것을 참조할 수 있다.
믹서(1030)는, 예를 들면, 대중교통 차량에 설치되기 위해서, GPS 센서, 와이파이 통신부, 이동통신통신부(1037) 중 적어도 하나와, 위치 추정부(1035) 및 DAC(1038) 를 더 포함하도록 구성될 수 있다.
위치 추정부(1035)는, GPS 센서, 와이파이 통신부, 이동통신통신부(1037) 중 적어도 하나를 이용하여 위치를 추정할 수 있다. 여기서, 위치는, 예를 들면, 입력단(1031)이 음향 신호를 수신한 시점의 위치일 수 있다.
위치 추정부(1035)는, 또한 도시하지는 않았지만, 관성 센서에 의해 센싱된 결과를 이용하여 위치를 추정할 수 있다. 이 경우, GPS 센서, 와이파이 통신부, 이동통신통신부(1037) 중 적어도 하나와, 관성 센서에 의한 센싱 결과를 이용하여 위치를 추정할 수 있다.
위치 추정부(1035)는, 또한, 음향인식엔진(1033)에 의해 인식된 음향을 이용하여 위치 추정을 할 수 있다. 예를 들면, 음향인식엔진(1033)에 의해 인식된 음향 속에, "다음역은 강남역입니다"라는 데이터가 있으면, 위치 추정부(1035)는, 현재 위치를 강남역에 도착하기 전의 어느 일 지점이라고 추정하는 데 이용할 수 있을 것이다.
위치 추정부(1035)에 의해 추정된 위치는, 음향인식엔진(1033)으로 제공될 수 있다. 음향인식엔진(1033)은 위치 추정부(1035)로부터 제공받은 위치를 메타 데이터에 포함시킬 수 있다.
위치 추정부(1035)는, 또한, 음향인식엔진(1033)에 의해 인식된 음향에 위치에 대한 정보가 없더라도, GPS 센서, 와이파이 통신부, 이동통신통신부(1037) 중 적어도 하나와, 관성 센서에 의한 센싱 결과를 이용하여, 위치-예를 들면, 믹서(1030) 또는 믹서(1030)가 장착된 장치의 위치-를 추정할 수 있다.
DAC(1038)는 음파생성엔진(1034)에 의해 생성된 메타 데이터를 아날로그 신호로 변환한 후, 결합부(1036)로 제공한다.
본 발명의 일 실시예에 따른 결합부(1036)가, 시각 T1 에 음향신호('제1음향신호'라고 함)를 입력받고, 소정시간 경과 후 시각 T2에 음향신호('제2음향신호'라고 함)를 입력받는다고 가정하자.
결합부(1036)는, 제1음향신호와 음파생성엔진(1034)에 의해 제1음향신호로부터 생성된 메타 데이터를 믹싱하여 믹싱신호('제1믹싱신호'라고 함)를 생성하여 출력단(1032)으로 출력한다.
또한, 결합부(1036)는, 제2음향신호와 음파생성엔진(1034)에 의해 제2음향신호로부터 생성된 메타 데이터를 믹싱하여 믹싱신호('제2믹싱신호'라고 함)를 생성하여 출력단(1032)으로 출력한다.
여기서, 결합부(1036)는 제1믹싱신호를 출력하고 제2음향신호를 입력받아 제2음향신호로부터 생선된 메타데이터를 입력받기 전의 시간 동안에는, 제1음향신호로부터 생성된 메타데이터를 출력단(1032)으로 소정의 시간 간격으로 출력할 수 있다.
예를 들면, 결합부(1036)는, 도 15에서 설명한 바와 같이, 비가청 대역의 음파 신호를 소정 시간 간격으로 반복적으로 출력할 수 있다.
결합부(1036)가 비가청 대역의 음파 신호를 소정 시간 간격으로 반복적으로 출력할 수 있는 방법은 다양하게 구현이 가능하다.
일 예를 들면, 음파생성엔진(1034)이 음향인식엔진(1033)으로부터 메타 데이터(제1 메타 데이터)를 수신하면, 비가청 대역의 음파 신호로 전환한 후, 음향인식엔진(1033)으로부터 새로운 메타 데이터(제2 메타 데이터)를 수신할 때까지, 소정의 시간 간격으로 비가청 대역의 음파 신호로 변환된 제1 메타 데이터를 DAC(1038)에게 제공하도록 구성할 수 있다.
다른 예를 들면, 음파생성엔진(1034)이 음향인식엔진(1033)으로부터 메타 데이터(제1 메타 데이터)를 수신하면, 비가청 대역의 음파 신호로 전환하고, 이렇게 전환된 제1 메타데이터는 DAC(1038)를 통해서 결합부(1036)로 입력된다. 결합부(1036)는, 이후 제2 메타데이터를 수신할 때까지, DAC(1038)로부터 수신한 제1 메타 데이터를 소정의 시간 간격으로 출력단(1032)으로 출력할 수 있다.
도 16은 본 발명의 일 실시예에 따른 방송방법을 설명하기 위한 도면이다.
도 16을 참조하면, 본 발명의 일 실시예에 따른 방송방법은, 음향 신호가 외부를 통해서 출력되기 전에, 음향 신호에 메타 데이터를 믹싱하는 동작을 포함한다. 이하에서 설명될 각 단계들은, 예를 들면 도 14, 도 18, 및 도 19를 참조하여 설명한 믹서에 의해 수행될 수 있다.
본 발명의 일 실시예에 따른 방송방법은 외부로 출력할 음향 신호(SS)('제1 음향 신호')를 입력단(1031)이 수신하는 단계(S1101), S1101 단계에서 입력단(1031)이 수신한 제1 음향 신호에서 음향을 인식하는 단계(S1103), S1103 단계에서 인식한 음향으로부터 메타 데이터(MD)를 생성하는 단계(S1105), S1105 단계에서 생성한 메타 데이터(MD)를 비가청 대역의 음파 신호로 변환하는 단계(S1107), S1107 단계에서 변환된 비가청 대역의 음파 신호(CMD)와, S1101 단계에서 수신한 제1 음향 신호를 믹싱하여 믹싱 신호(MS)를 생성하는 단계(S1109), S1109 단계에서 생성한 믹싱 신호(MS)를 외부로 출력하는 단계(S1111), S1111 단계에서 믹싱 신호(MS)가 외부로 출력된 이후 소정의 시간이 경과 되면, S1107 단계에서 변환된 비가청 대역의 음파 신호(CMD)를 외부로 출력하는 단계(S1113)를 포함할 수 있다.
본 발명의 일 실시예에 따른 방송방법은, 또한, 입력단(1031)이 수신한 음향 신호를, 바이패스 경로를 통해서, 믹싱 신호를 생성하는 단계(S1109)로 제공하는 단계를 더 포함할 수 있다. 믹싱 신호를 생성하는 단계(S1109)는 바이패스 경로를 통해서 제공되는 음향 신호와, 비가청 대역의 음파 신호로 변환된 메타 데이터를 믹싱한다.
여기서, 바이패스 경로는, 메타 데이터를 생성하는 단계와, 메타 데이터를 비가청 대역의 음파 신호로 변환하는 단계를 우회하는 경로를 의미한다.
본 발명의 일 실시예에 따른 방송방법은, 외부로 출력할 다른 음향 신호('제2 음향 신호')를 수신하거나 제2 음향 신호로부터 생성된 메타 데이터가 비가청대역의 음파로 변환된 것을 수신하는 경우이면(S1115; YES) 전술한 S1101 단계 이하의 동작을 반복한다.
제2 음향 신호가 수신되거나 또는 제2 음향 신호로부터 생성된 메타 데이터-비가청대역의 음파로 변환된 것-가 생성될 때까지(S1115: N0), S1107 단계에서 변환된 비가청 대역의 음파 신호(CMD)를 출력하는 동작(S1113)을 반복한다.
이상과 같이 도 16에 예시적으로 설명된 방송방법은 도 14에서 설명한 방송시스템이나 도 18을 참조하여 설명할 방송시스템에 적용될 수 있다.
한편, 도 14와 도 15를 참조하여 설명한 방송시스템의 변형예로서, 도 14와 도 15를 참조하여 설명한 방송시스템이, 마이크(미도시)를 더 포함하거나, 또는 음원을 저장하는 저장부(1010)와 DAC(20) 대신에 마이크(미도시)를 포함하도록 구성되는 것이 가능하다. 이처럼, 마이크(미도시)를 포함하도록 구성된 경우에는, 마이크(미도시)를 통해서 입력된 음향 신호를, 믹서(1030)가 수신하여 제동작을 수행하게 된다. 즉, 믹서(1030)는 마이크(미도시)를 통해서 입력된 음향 신호를 수신하고, 이러한 음향 신호에 대하여 소정의 믹싱 동작을 수행한다. 여기서, 소정의 믹싱 동작은 도 14와 도 15를 참조하여 설명한 바와 같다.
이상과 같이 도 14와 도 15를 참조하여 설명한 방송시스템 및 그 변형예들과, 도 16을 참조하여 설명한 방송방법은, 소음이 심한 영역에 적용되는 경우에 유용할 수 있다. 즉, 지하철 역사나 버스 정류장 등과 같이 소음이 심하여 스피커로 출력되는 음향을 마이크가 인식하기 쉽지 않은 환경에도 유용하게 적용될 수 있다.
또한 도 14 내지 도 16을 참조하여 설명한 방송방법은, 자국어로 방송이 되지 않는 외국인이 방송을 들을 때 유용할 수 있다. 즉, 지하철 안내 방송이나, TV 방송, 전관방송을 통한 상품 서비스 안내 등의 방송을 전달 받을 수 있다.
또한 도 14 내지 도 16을 참조하여 설명한 방송방법은, 다른 곳에 집중하고 있어서 방송을 놓치는 사람들에게 유용할 수 있다. 즉, 지하철에서 음악을 듣고 있거나 친구와 얘기하고 있는 경우 방송을 놓칠 수 있으나, 반복 출력되는 음파신호로 놓친 방송을 확인할 수 있다. 다른 작업에 집중하고 있는 사람에게 중요한 재난 방송이 TV에서 출력되고 있는 사실을 알릴 수 있다. 음악을 들으며 쇼핑을 하고 있는 사람에게 응급상황에 관한 정보를 전달 할 수 있다.
도 17은 본 발명의 일 실시예에 따른 방송시스템을 사용한 예를 설명하기 위한 도면이다.
도 17을 참조하면, 본 발명의 일 실시예에 따른 방송시스템(1300)은 모바일 기기(1200)과 연동될 수 있다. 여기서, 모바일 기기(1200)는 예를 들면, 스마트폰, PDA, 노트북, 테블릿 PC 등과 같은 것이 될 수 있으나, 당업자는 본원 발명이 이러한 장치들에만 한정되는 것이 아님을 알아야 한다.
방송시스템(1300)은, 예를 들면 도 14를 참조하여 설명한 방송시스템(100), 도 18을 참조하여 설명하는 방송시스템, 또는 도 19를 참조하여 설명한 믹서를 사용한 방송시스템일 수 있다. 또한, 방송시스템(1300)은, 도 16을 참조하여 설명한 방송방법, 또는 도 20을 참조하여 설명한 방송방법이 구현된 방송시스템일 수 있다.
먼저, 방송시스템(1300)이 도 14의 방송시스템(1100)이라고 가정하고, 모바일 기기(1200)의 동작을 설명하기로 한다.
모바일 기기(1200)는, 방송시스템(1300)을 통해서 출력되는 음향(즉, 스피커를 통해서 출력되는 음향)을 인식할 수 있으며, 인식한 음향 속에 메타 데이터가 포함되어 있으면 추출한다.
모바일 기기(1200)는 추출한 메타 데이터를 인식하여 사용자에게 시각적, 청각적, 및/또는 촉각적으로 알려주거나, 서버(미도시)로 메타 데이터를 전송하고 서버(미도시)로부터 메타 데이터에 연관된 정보를 수신하여 사용자에게 알려줄 수도 있다.
본 발명의 일 실시예에 따른 모바일 기기(1200)는, 컴퓨터 명령어에 의해 동작하는 컴퓨터 프로세서(1201), 음파를 수신할 수 있는 마이크(1203), 사용자 인터페이스부(1205), 메모리(1207), 및 어플리케이션(1209)을 포함할 수 있다.
어플리케이션(1209)은 컴퓨터 프로세서(1201)의 제어하에 메모리(1207)에 로딩되어 제 동작을 수행할 수 있다.
마이크(1203)는 안내 방송시스템(1300)으로부터 출력되는 음파를 수신할 수 있다.
어플리케이션(1209)은, 마이크(1203)가 수신한 음파에 메타 데이터가 있는지 여부를 판단하고, 메타 데이터가 있으면, 사용자가 인식할 수 있는 형태로 변환할 수 있다. 사용자가 인식할 수 있는 형태는 예를 들면 시각, 청각, 또는 촉각으로 인식할 수 있는 형태일 수 있다.
다르게는, 어플리케이션(1209)은, 마이크(1203)가 수신한 음파에 메타 데이터가 있는지 여부를 판단하고, 메타 데이터가 있으면, 그 메타 데이터를 서버(미도시)로 전송하고 서버로부터 메타 데이터에 대응되는 데이터를 수신받아서, 사용자가 인식할 수 있는 형태로 변환할 수 있다.
다르게는, 어플리케이션(1209)이 수행하는 기능을 모바일 기기가 하드웨어 형태로 포함하거나, OS의 일부로서 포함할 수 있다.
이제, 방송시스템(1300)이 도 18을 참조하여 설명하는 방송시스템인 경우를 가정하여, 모바일 기기(1200)의 동작을 설명하기로 한다.
모바일 기기(1200)의 마이크(1203)는 TV 수신기(1511)의 스피커(미도시)를 통해서 출력되는 음파를 수신할 수 있으며, 어플리케이션(1209)은, 마이크(1203)가 수신한 음파에 메타 데이터가 있는지 여부를 판단하고, 메타 데이터가 있으면, 사용자가 인식할 수 있는 형태로 변환할 수 있다.
한편, 모바일 기기(1200)는 전송부(1509)를 통해서 전송되는 전자기파에 실려있는 영상 데이터를, TV 수신기(1511)를 통하지 않고 직접 수신할 수 있으며, 이를 위해서, 안테나(미도시)를 더 포함할 수 있다.
안테나(미도시)가 수신하는 신호는 전자기파로서, 이 전자기파에 실려있는 영상 데이터 중에서 음향에 해당하는 데이터에는 본 발명의 일 실시예에 따라 비가청 대역으로 변조된 메타 데이터가 포함되어 있을 수 있다.
모바일 기기(1200)는, 전자기파를 복조하는 구성요소(미도시)를 더 포함할 수 있다.
어플리케이션(1209)은, 안테나가 수신한 방송신호에 메타 데이터가 있는지 여부를 판단하고, 메타 데이터가 있으면, 사용자가 인식할 수 있는 형태로 변환할 수 있다.
다르게는, 어플리케이션(209)은, 안테나가 수신한 방송신호에 실려있는 영상 데이터 중에서 음향에 해당하는 데이터에 메타 데이터가 있는지 여부를 판단하고, 메타 데이터가 있으면, 그 메타 데이터를 서버(미도시)로 전송하고 서버로부터 메타 데이터에 대응되는 데이터를 수신받아서, 사용자가 인식할 수 있는 형태로 변환할 수 있다.
도 18은 본 발명의 일 실시예에 따른 믹서를 이용한 방송시스템을 설명하기 위한 도면이다.
도 18을 참조하면, 본 발명의 일 실시예에 따른 믹서를 이용한 방송시스템은 비압축 영상 신호와 음향 신호를 저장하는 저장부(1501), 믹서(1503), 인코더(1507), 및 전송부(1509)를 포함할 수 있다.
믹서(1503)는 도 14를 참조하여 설명한 믹서(1030)와 같은 동작을 수행할 수 있다. 즉, 상기 비압축 영상 신호와 음향 신호 중, 음향 신호로부터 전술한 바와 같은 믹싱 신호를 생성하여, 인코더(1507)로 출력할 수 있다.
믹서(1503)는 영상 신호와 음향 신호를 입력받아서, 음향 신호를 전술한 바와 같은 믹싱 신호로 변환하여 영상 신호와 함께 인코더(1507)에게 출력한다.
예를 들면, 본 믹서(1503)는, 믹서(1030)처럼, 도 15와 같은 믹싱 신호를 출력할 수 있다.
인코더(1507)는, 믹서(1503)에서 출력되는 믹싱 신호를 손실 압축 코딩 기법을 사용하여 출력할 수 있다. 인코더(1507)로부터 출력된 손실 압축 코딩된 데이터는 전송부(1509)를 통해서 송출용 네트워크로 전달된다. 여기서, 전송부(1509)는 인코더(1507)에 의해 손실 압축 코딩된 데이터를 전자기파의 형태로 브로드캐스팅한다.
브로드캐스팅된 전자기파는, 송출용 네트워크를 통해서 TV 수신기(511)로 전송되게 된다. 여기서, 송출용 네트워크는, 예를 들면 인터넷 망 및/또는 기지국 등을 포함하도록 구성될 수 있다.
TV 수신기(1511)는, 송출용 네트워크를 통해서 전자기파를 수신하며, 수신한 전자기파를 시청가능한 형태(영상과 음성)로 변환하여 출력하게 된다.
도 19는 본 발명의 다른 실시예에 따른 믹서를 설명하기 위한 도면이다.
도 19에 예시된 믹서(1030)는 도 14에서 예시적으로 설명된 방송 시스템에서의 믹서(1030) 또는 도 18에서 예시적으로 설명된 방송 시스템의 믹서(1501) 대신에 사용될 수 있다.
믹서(1030)가 도 14의 방송 시스템에 사용된다고 가정하면, 믹서(1030)는, DAC(1020)로부터 출력된 음향 신호를 스피커(1050)로 출력하기 전에, DAC(1020)로부터 출력된 음향 신호로부터 음향을 인식하여 메타 데이터- 스피커로 출력되는 음향과 연관된 것임-를 생성하고, 여기서 생성된 메타 데이터를 비가청 대역의 음파 신호로서 변환하며, 비가청 대역의 음파 신호로서 변환된 메타 데이터를 음향 신호와 믹싱한 믹싱신호를 생성할 수 있다.
믹서(1130)는, 또한, DAC(1020)로부터 수신한 음향 신호에 비가청대역 음파 데이터가 포함되어 있는지 여부를 판단하며, 만약 포함되어 있다면 기존에 포함되어 있던 비가청대역 음파 데이터 대신에 새로운 비가청대역 음파 데이터로 변경(여기서, 변경은, 전체 치환, 부분 치환, 부가, 또는 일부 삭제 중 어느 하나일 수 있음)할지 또는 기존 비가청 대역 음파 데이터를 그대로 유지(이하, '바이패스')할지 여부를 판단한다.
믹서(1130)는, 판단결과, 패스할 것으로 판단하면, DAC(1020)로부터 수신한 음향 신호를 그대로 출력한다. 예를 들면, 기존 비가청 대역 음파 데이터가 URL을 의미하거나 또는 URL을 의미하는 ID일 경우, 믹서(1130)는 DAC(1020)로부터 수신한 음향 신호를 그대로 출력할 수 있다.
한편, 믹서(1130)는, 기존 비가청대역 음파 데이터를 변경할 것으로 판단하면, 새로운 비가청대역 음파 데이터를 생성하고, 새로운 비가청대역 음파 데이터를 이용해서 기존 비가청대역 음파 데이터를 변경할 수 있다. 여기서, 새로운 비가청대역 음파 데이터는, 예를 들면 위치 추정부(1035)에 의한 위치 추정 정보를 더 포함한 것일 수 있다. 새로운 비가청 대역 음파 데이터로 기존 비가청대역 음파 데이터를 변경하는 방법은 다양하게 존재할 수 있으며, 본 발명이 속하는 기술분야의 자라면 용이하게 구현할 수 있을 것이다.
이상 설명한 기능을 구현하는 믹서(1130)는, 예를 들면 도 19와 같은 구성을 가질 수 있으나, 본원 발명에 따른 믹서(1130)가 도 19와 같은 구성에만 한정되는 것이 아님을 당업자는 알아야 한다.
도 19의 믹서(1130)는, 도 14의 믹서(1030)와 비교할 때, 필터(F), 제2결합부(C), 및 스위치(S)를 더 포함할 수 있다.
이하에서는, 믹서(1030)와 차이가 있는 부분을 위주로 믹서(1130)를 설명하기로 한다.
필터(F)는 DAC(1020)로부터 출력되는 전기적 신호를 수신하며, 필터(F)는 주파수 대역에서 비가청대역 음파 데이터를 제거한다.
DAC(1038)에서 출력되는 비가청대역 음파 데이터는 결합부(1036)('제1결합부'라고 함)와 제2결합부(C)로 출력된다.
스위치(S)는, 컨트롤러(미도시) 또는 음향인식엔진(1033)의 제어하에, 제1결합부(1036)의 출력을 출력단(1032)으로 스위칭하거나 또는 제2결합부(C)의 출력을 출력단(1032)으로 스위칭한다.
컨트롤러(미도시) 또는 음향인식엔진(1033)은, DAC(1038)에서 출력되는 음향 신호에 비가청대역 음파 데이터가 이미 포함되어 있는 경우, 기존에 포함된 비가청대역 음파 데이터를 변경할지 여부를 판단하며, 변경하고자 하는 경우에는, 제2결합부(C)의 출력이 출력단(1032)으로 출력되도록 스위치(S)를 제어할 수 있다.
한편, 기존에 포함된 비가청대역 음파 데이터를 그대로 출력하고자 하는 경우에는, 제1결합부(1036)의 출력이 출력단(1032)으로 출력되도록 스위치(S)를 제어할 수 있다.
이하에서는, 세 가지 경우를 가정하여 믹서(1130)의 동작을 보다 상세히 설명하기로 한다.
i) DAC(1038)에서 출력되는 음향 신호에 비가청대역 음파 데이터가 포함되어 있지 않은 경우
음향인식엔진(1033)은 DAC(1038)에서 출력되는 음향 신호로부터 메타 데이터를 생성하며, 음파생성엔진(1034)은 메타 데이터를 비가청대역의 음파신호로 변환한다.
DAC(1038)는 음파생성엔진(1034)에 의해 변환된 비가청대역의 음파신호를 아날로그 신호로 변환한 후, 제1 결합부와 제2 결합부로 출력한다.
스위치(S)는 제1결합부 또는 제2 결합부 중 어느 하나가 출력단(1032)으로 출력되도록 스위칭된다.
음향인식엔진(1033)과 음파생성엔진(1034)에 대한 보다 상세한 설명은 도 14를 참조하여 설명한 실시예의 것을 참조하기 바란다.
ii) DAC(1038)에서 출력되는 음향 신호에 비가청대역 음파 데이터가 포함되어 있고, 이를 그대로 패스하는 경우
음향인식엔진(1033)은 DAC(1038)에서 출력되는 음향 신호에 특정 비가청대역 음파 데이터-패스할 것이라고 미리 정한 비가청대역 음파 데이터-가 포함되어 있는 경우에는, 메타 데이터를 생성하지 않는다. 따라서, 음파생성엔진(1034)에서 생성되는 비가청대역 음파 데이터는 없으며, 스위치(S)는 제1결합부의 출력이 출력단(1032)으로 출력되도록 스위칭된다.
iii) DAC(1038)에서 출력되는 음향 신호에 비가청대역 음파 데이터가 포함되어 있고, 이를 변경하는 경우
음향인식엔진(1033)은 DAC(1038)에서 출력되는 음향 신호에 포함되어 있는 비가청 대역 음파 데이터가 변경이 필요하다고 판단하는 경우에는, 해당 비가청 대역의 음파 데이터를 참고하여, 새로운 메타 데이터를 생성한다. 따라서, 음파생성엔진(1034)에서 새로운 메타 데이터를 비가청대역 음파 데이터로 변환하여 DAC(1038)로 출력하며, DAC(1038)의 출력은 제1결합부(1036)와 제2결합부(C)로 출력된다. 한편, 스위치(S)는, 제2결합부(C)의 출력이 출력단(1032)으로 출력되도록 스위칭된다.
필터(F)에서는, DAC(1038)에서 출력되는 음향 신호에 포함된 비가청대역 음파 데이터를 제거한 후, 제2결합부(C)로 출력한다. 제2결합부(C)에서는, 기존 비가청대역 음파 데이터가 제거된 상태의 음향 신호와, 새로운 비가청대역 음파 데이터로 변환된 메타 데이터가 결합된다.
믹서(1130)에서 설명하지 않은 다른 구성요소들에 대한 보다 상세한 설명은 도 14를 참조하여 설명한 실시예의 것을 참조하기 바란다.
본 믹서(1130)가 도 18의 방송 시스템의 믹서(1503) 대신에 사용된다고 가정하면, 믹서(1130)는, 비압축 영상+음향 신호에 대하여 적어도, 상술한 바와 같은 3가지 경우의 동작을 수행할 수 있다. 이에 대한 상세한 설명은 위 설명을 참조하기 바란다.
도 20은 본 발명의 다른 실시예에 따른 방송방법을 설명하기 위한 도면이다.
도 20을 참조하면, 음향 신호가 외부로 출력되기 전에, 음향 신호에 메타 데이터를 믹싱하는 동작을 포함한다. 이하에서 설명될 각 단계들은, 예를 들면 도 14, 도 18, 및 도 19를 참조하여 설명한 믹서에 의해 수행될 수 있다.
도 20를 참조하여 예시적으로 설명한 방송방법은, 도 16과 비교할 때, S1204, S1206, S1208, S1210 단계들을 더 포함하고 있다는 점에서 차이가 있으므로, 이들을 위주로 설명하기로 한다.
S1204 단계에서는 S1203단계에서 인식된 음향에 비가청 대역의 음파로 된 메타 데이터가 존재하는지를 판단한다. 판단결과 존재하지 않으면, S1205 이하의 동작이 수행되며 이에 대하여는 도 16의 것을 참조하기 바란다.
S1204 단계의 판단결과, 비가청대역의 음파로 된 메타 데이터가 존재하는 경우에는, 기존의 메타 데이터를 그대로 유지하여 패스시킬지 아니면 변경시킬지를 판단한다(S1206).
S1206 단계에서 패스라고 판단이 되면, S1210 단계가 수행된 후 S1215 단계가 수행된다.
S1206 단계에서 기존의 메타 데이터를 변경시킬 것으로 판단이 되면, 새로운 메타 데이터를 생성(S1208)하여 비가청 대역의 음파로 변환 시킨다(S1207). 이후, S1209 단계를 수행하되, 기존의 메타 데이터 대신에 새로운 메타 테이터를 SS와 믹싱하는 동작을 수행한다. 이후 동작은 도 16의 것을 참조하기 바란다.
상기와 같이 본 발명은 비록 한정된 실시예들과 도면에 의해 설명되었으나, 본 발명은 상기의 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
본 발명의 범위는 설명된 실시예들에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
이상 도 14 내지 도 21을 참조하여 설명한 비가청 대역의 음파를 이용한 방송방법, 방송시스템, 및 이에 사용되는 믹서는, 예를 들면 도 1 내지 도 13을 참조하여 설명한 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템, 모바일 기기, 및 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체를 위해 사용될 수 있다.
상기와 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위 뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.

Claims (17)

  1. 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템에 있어서,
    제1 장소에서, 안내 정보와 ID를 포함한 음향 데이터를 전기적 신호로 변환하는 음향 재생 장치; 및
    상기 음향 재생 장치에 의해 출력되는 신호를 가청 주파수 대역의 음향 신호로서 출력하는 스피커;를 포함하며,
    상기 ID는 상기 제1 장소를 나타내는 위치 정보에 대응되어 있는 것을 특징으로 하는 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템.
  2. 제1항에 있어서,
    상기 음향 재생 장치에 의해 출력되는 전기적 신호를 증폭하여 출력하는 앰프;를 더 포함하며,
    상기 스피커는 상기 앰프에 의해 출력되는 신호를 입력받아 가청 주파수 대역의 음향 신호로서 출력하는 것을 특징으로 하는 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템.
  3. 제1항에 있어서,
    상기 ID 신호의 음압은, 상기 제1 장소(Place)의 소음 및/또는 인간이 인식할 수 있는 음압 레벨을 고려하여 정해진 기준 값보다 낮은 값을 가지는 것을 특징으로 하는 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템.
  4. 제1항에 있어서,
    상기 음향 데이터는 상기 ID를 복수개 포함하며, 상기 복수개의 ID 중 적어도 하나의 ID는 상기 위치 정보에 대응되어 있고, 상기 복수개의 ID 중 적어도 다른 하나의 ID는 부가 정보에 대응되어 있으며,
    상기 부가 정보는 지도 또는 광고를 포함하는 것을 특징으로 하는 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템.
  5. 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템에 있어서,
    제1 장소에서, 안내 정보가 포함된 제1 음향 데이터를 전기적 신호로 변환하는 음향 재생 장치;
    상기 제1 음향 데이터로부터 ID 신호를 생성하는 ID 신호 생성부;
    상기 음향 재생 장치에 의해 변환된 전기적 신호와 상기 ID 신호 생성부에 의해 생성된 ID 신호를 합하는 가산기; 및
    상기 가산기에 의해 출력되는 신호를 가청 주파수 대역의 음향 신호로서 출력하는 스피커;를 포함하는 것을 특징으로 하는 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템.
  6. 제5항에 있어서,
    상기 음향 재생 장치에 의해 출력되는 전기적 신호를 증폭하여 출력하는 앰프;를 더 포함하며,
    상기 ID 신호 생성부에 의해 생성된 ID 신호는 증폭된 신호이며,
    상기 가산기는 상기 앰프에 의해 출력되는 전기적 신호와 상기 ID 신호 생성부에 의해 생성된 신호를 합하여 출력하는 것을 특징으로 하는 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템.
  7. 제5항에 있어서,
    상기 가산기에 의해 출력되는 신호를 입력받아서 증폭하는 앰프;를 더 포함하며,
    상기 스피커는 상기 앰프에 의해 출력되는 신호를 입력 받아 음향 신호로서 출력하는 것을 특징으로 하는 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템.
  8. 제5항에 있어서,
    상기 ID 신호의 음압은, 상기 제1 장소(Place)의 소음 및/또는 인간이 인식할 수 있는 음압 레벨을 고려하여 정해진 기준 값보다 낮은 값을 가지는 것을 특징으로 하는 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템.
  9. 제6항에 있어서,
    상기 음향 재생 장치에 의해 출력되는 신호를, 상기 앰프와 상기 ID 신호 생성부로 분기하는 스플리터;를 더 포함하는 것을 특징으로 하는 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템.
  10. 제5항에 있어서,
    상기 ID 신호 생성부, 상기 가산기, 및 상기 스피커는 각각 복수개 구비되고,
    상기 복수개의 가산기 중 어느 하나인 제1 가산기는, 상기 복수개의 ID 신호 생성부 중 어느 하나인 제1 ID 신호 생성부로부터 생성된 ID 신호와 상기 음향 재생 장치에 의해 변환된 전기적 신호를 합하여 상기 복수개의 스피커 중 어느 하나인 제1 스피커로 출력하고,
    상기 복수개의 가산기 중 어느 하나인 제2 가산기는, 상기 복수개의 ID 신호 생성부 중 어느 하나인 제2 ID 신호 생성부로부터 생성된 ID 신호와 상기 음향 재생 장치에 의해 변환된 전기적 신호를 합하여 상기 복수개의 스피커 중 어느 하나인 제2 스피커로 출력하는 것을 특징으로 하는 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템.
  11. 제10항에 있어서,
    상기 음향 재생 장치에 의해 출력되는 전기적 신호를 증폭하여 출력하는 적어도 하나의 앰프;를 더 포함하며,
    상기 제1 가산기는 상기 적어도 하나의 앰프로부터 출력되는 전기적 신호와, 상기 제1 ID 신호 생성부로부터 생성된 ID 신호를 합하여 출력하고,
    상기 제2 가산기는 상기 적어도 하나의 앰프로부터 출력되는 전기적 신호 신호와, 상기 제2 ID 신호 생성부로부터 생성된 ID 신호를 합하여 출력하는 것을 특징으로 하는 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템.
  12. 제7항에 있어서,
    상기 음향 재생 장치에 의해 출력되는 전기적 신호를, 상기 가산기와 상기 ID 신호 생성부로 분기하는 스플리터;를 더 포함하는 것을 특징으로 하는 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템.
  13. 제5항에 있어서,
    상기 제1 음향 데이터에는 고유의 워터 마크가 포함되어 있으며, 상기 ID 신호 생성부는 상기 제1 음향 데이터에 포함된 상기 워터 마크에 대응되는 ID를 선택하고, 선택한 ID를 상기 스피커에서 출력가능한 형태의 전기적 신호로 변환하여 출력하는 것을 특징으로 하는 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템.
  14. 컴퓨터에 위치 정보 안내 방법을 실행시키는 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체로서,
    상기 위치 정보 안내 방법은,
    제1 장소에서 마이크가 수신한 음향 신호로부터 식별자(ID)를 추출하는 단계; 및
    추출한 식별자(ID)에 어떤 정보가 대응되어 있는지를 판단하는 단계; 를 포함하며,
    상기 제1 장소에서 수신한 음향 신호에는 안내 정보와 상기 식별자(ID)가 포함되어 있고,
    상기 음향 신호에 포함된 식별자(ID)의 음압은, 상기 제1 장소의 잡음과 인간이 수신할 수 있는 음압 레벨을 고려하여 정해진 기준 값보다 낮은 것인, 위치 정보 안내 방법을 실행시키는 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체.
  15. 제14항에 있어서,
    상기 제1 장소에서 스피커를 통해서 수신한 음향 신호에는 제2 식별자가 더 포함되어 있으며,
    상기 제2 식별자의 음압은, 상기 음향 신호가 출력되는 제1 장소(Place)의 잡음과 인간이 수신할 수 있는 음압 레벨을 고려하여 정해진 기준 값보다 낮은 값을 가진 것을 특징으로 하는 위치 정보 안내 방법을 실행시키는 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체.
  16. 제14항에 있어서,
    상기 프로그램은 상기 식별자(ID)에 대응된 정보를 표시하는 단계를 더 포함하며,
    상기 대응된 정보는 위치 정보인 것을 특징으로 하는 위치 정보 안내 방법을 실행시키는 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체.
  17. 제16항에 있어서,
    상기 위치 정보 안내 방법은,
    사용자로부터 목적지 역을 입력받을 수 있는 사용자 인터페이스를 제공하는 단계; 및
    상기 식별자(ID)에 대응된 위치 정보가, 상기 목적지 역에 해당하는 경우 사용자에게 알리는 단계;를 더 포함하는 것을 특징으로 하는 위치 정보 안내 방법을 실행시키는 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체.
PCT/KR2014/003974 2013-05-02 2014-05-02 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템, 모바일 기기, 및 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체 WO2014178691A1 (ko)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
KR1020130049221A KR101288305B1 (ko) 2013-05-02 2013-05-02 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템, 모바일 기기, 및 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체
KR10-2013-0049221 2013-05-02
KR10-2013-0066942 2013-06-12
KR1020130066949 2013-06-12
KR1020130066942 2013-06-12
KR10-2013-0066949 2013-06-12
KR1020130129951A KR101519493B1 (ko) 2013-10-30 2013-10-30 비가청 대역의 음파를 이용한 방송방법, 방송시스템, 및 이에 사용되는 믹서
KR10-2013-0129951 2013-10-30

Publications (1)

Publication Number Publication Date
WO2014178691A1 true WO2014178691A1 (ko) 2014-11-06

Family

ID=51843725

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/003974 WO2014178691A1 (ko) 2013-05-02 2014-05-02 차량에서의 자동 안내 방송 장치를 활용한 위치 정보 제공 시스템, 모바일 기기, 및 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체

Country Status (1)

Country Link
WO (1) WO2014178691A1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020058647A (ko) * 2000-12-30 2002-07-12 구자홍 이동 통신 단말기를 이용한 교통정보 안내방법
KR100726623B1 (ko) * 2005-11-18 2007-06-12 (주) 엘지텔레콤 목적지 도착 알람 서비스 제공 이동통신 시스템과 목적지도착 알람 서비스 제공방법
KR101086432B1 (ko) * 2007-03-19 2011-11-25 삼성전자주식회사 근거리 무선 통신을 이용한 역 정보 알림 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020058647A (ko) * 2000-12-30 2002-07-12 구자홍 이동 통신 단말기를 이용한 교통정보 안내방법
KR100726623B1 (ko) * 2005-11-18 2007-06-12 (주) 엘지텔레콤 목적지 도착 알람 서비스 제공 이동통신 시스템과 목적지도착 알람 서비스 제공방법
KR101086432B1 (ko) * 2007-03-19 2011-11-25 삼성전자주식회사 근거리 무선 통신을 이용한 역 정보 알림 방법

Similar Documents

Publication Publication Date Title
WO2021071115A1 (en) Electronic device for processing user utterance and method of operating same
WO2019182325A1 (ko) 전자 장치 및 전자 장치의 음성 인식 제어 방법
WO2021251525A1 (ko) 이동단말기 및 그 제어방법
WO2013168970A1 (en) Method and system for operating communication service
WO2019078576A1 (ko) 음성 신호를 제어하기 위한 전자 장치 및 방법
WO2016018004A1 (en) Method, apparatus, and system for providing translated content
WO2019132344A1 (en) Method for controlling earpiece and electronic device for supporting the same
WO2016104988A9 (ko) 이동 단말기, 오디오 출력장치, 및 이를 구비하는 오디오 출력 시스템
WO2020222444A1 (en) Server for determining target device based on speech input of user and controlling target device, and operation method of the server
WO2012011639A1 (en) Electronic device, electronic system, and method of providing information using the same
WO2017003096A1 (ko) 디바이스들 간의 연결 설립 방법
WO2013022218A2 (en) Electronic apparatus and method for providing user interface thereof
WO2016064250A2 (ko) 적응적으로 작업 수행의 주체를 변경하기 위한 장치 및 방법
WO2013022222A2 (en) Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same
WO2017091042A1 (en) Electronic device and method for controlling a transport device thereof
WO2021054616A1 (en) External audio electronic device, electronic device, and method of managing communication link
WO2019078608A1 (ko) 외부 장치를 이용하여 음성 기반 서비스를 제공하기 위한 전자 장치, 외부 장치 및 그의 동작 방법
WO2016182368A1 (ko) 콘텐트를 제공하는 방법 및 디바이스
WO2019112295A1 (ko) 외부 장치의 네트워크 셋업을 위한 전자 장치 및 그의 동작 방법
WO2020060206A1 (en) Methods for audio processing, apparatus, electronic device and computer readable storage medium
WO2021145644A1 (en) Mobile device and operating method thereof
WO2018048098A1 (en) Portable camera and controlling method therefor
WO2022055291A1 (ko) 전자 장치 및 전자 장치의 업데이트 방법
WO2017111545A1 (ko) 무선 통신 시스템에서 사운드 신호를 기반으로 데이터를 송신 및 수신하는 장치 및 방법
WO2022050785A1 (ko) 디스플레이 기기 및 그의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14791092

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 25.02.16)

122 Ep: pct application non-entry in european phase

Ref document number: 14791092

Country of ref document: EP

Kind code of ref document: A1