WO2022137276A1 - 閉鎖空間用音響システム - Google Patents

閉鎖空間用音響システム Download PDF

Info

Publication number
WO2022137276A1
WO2022137276A1 PCT/JP2020/047633 JP2020047633W WO2022137276A1 WO 2022137276 A1 WO2022137276 A1 WO 2022137276A1 JP 2020047633 W JP2020047633 W JP 2020047633W WO 2022137276 A1 WO2022137276 A1 WO 2022137276A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
time
acoustic
closed space
speaker
Prior art date
Application number
PCT/JP2020/047633
Other languages
English (en)
French (fr)
Inventor
奨 藤原
圭悟 垂石
真実 相川
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2020/047633 priority Critical patent/WO2022137276A1/ja
Priority to EP20966775.7A priority patent/EP4265553A4/en
Priority to JP2022570769A priority patent/JP7475495B2/ja
Priority to CN202080107826.1A priority patent/CN116568624A/zh
Publication of WO2022137276A1 publication Critical patent/WO2022137276A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B11/00Main component parts of lifts in, or associated with, buildings or other structures
    • B66B11/02Cages, i.e. cars
    • B66B11/0226Constructional features, e.g. walls assembly, decorative panels, comfort equipment, thermal or sound insulation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B3/00Applications of devices for indicating or signalling operating conditions of elevators
    • B66B3/002Indicators
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/02Synthesis of acoustic waves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/22Arrangements for obtaining desired frequency or directional characteristics for obtaining desired frequency characteristic only 
    • H04R1/26Spatial arrangements of separate transducers responsive to two or more frequency ranges
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/34Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by using a single transducer with sound reflecting, diffracting, directing or guiding means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/403Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers loud-speakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field

Definitions

  • This disclosure relates to an acoustic system for a closed space for radiating sound into a closed space such as in an elevator car.
  • the conventional elevator car is equipped with a speaker for voice guidance to the users in the car.
  • an intercom is installed in the car for the user to talk to an outside person in an emergency.
  • These speakers and intercoms are installed in, for example, a car operation panel.
  • a plurality of speakers are arranged linearly in the vertical direction at regular intervals.
  • the speakers that output acoustic signals are sequentially switched from the speaker installed at the top to the speaker installed at the bottom. go.
  • the user feels that the acoustic signal has moved from top to bottom.
  • the speakers that output acoustic signals are sequentially switched from the speaker installed at the bottom to the speaker installed at the top.
  • the user feels that the acoustic signal has moved from the bottom to the top.
  • the internal space of an elevator car is required to maintain a certain degree of airtightness and tranquility.
  • the waiting space such as a waiting room of a hospital or a pharmacy.
  • a special narrow closed space which is different from such a normal living space, the user cannot keep talking with strangers.
  • many users have "awkwardness” and "discomfort”, and stress caused by them is generated.
  • Patent Document 1 since the operation buttons in the elevator are used for the operation of playing or stopping the BGM, the user can freely control the playing and stopping of the BGM by operating the operation buttons. .. Therefore, in some cases, there is a possibility that the BGM may be reproduced without permission due to the mischief of some users. In that case, other passengers on board may feel further discomfort. Further, since the same BGM is always used, or the BGM is selected on the system side regardless of the likes and dislikes of the user, there arises a problem that the taste of the music genre does not match depending on the user. In that case, it is conceivable that the reproduction of BGM is perceived by the user as noise. As described above, in the reproduction of the BGM of Patent Document 1, the stress caused by the "awkwardness" and "discomfort" of the user cannot be reduced, and in some cases, the stress of the user may increase. be.
  • Patent Document 2 as described above, the purpose of sound reproduction is to allow the user to recognize the traveling direction of the elevator by moving the sound. Therefore, Patent Document 2 does not intend to reduce stress caused by "awkwardness" and "discomfort" of the user.
  • This disclosure is made to solve such a problem, and it is possible to reduce the stress of the user in the closed space by playing back a combination of a plurality of sound sources generated in the natural world.
  • the purpose is to obtain a spatial acoustic system.
  • the sound system for a closed space is a combination of a speaker system arranged in a closed space and equipped with one or more speaker units, a storage unit for storing a plurality of sound sources generated in the natural world, and two or more sound sources. It is provided with a sound field control unit for radiating an acoustic signal based on the combined sound source from the speaker system to the closed space.
  • a plurality of sound sources generated in the natural world are combined and reproduced, and radiated to the target closed space to reduce the stress of the user in the closed space.
  • FIG. 1 It is a perspective view which shows the structure of the elevator 1 which concerns on Embodiment 1.
  • FIG. It is a figure which shows the state of the internal space of the car 5 of the elevator 1 which concerns on Embodiment 1.
  • FIG. It is a front view which shows the structure of the acoustic system 13 which concerns on Embodiment 1.
  • FIG. It is a top view which shows the arrangement of the speaker cabinet 20 of the acoustic system 13 which concerns on Embodiment 1.
  • FIG. It is a side view which shows an example of the structure of the speaker cabinet 20 which concerns on Embodiment 1.
  • FIG. It is a front view which shows the structure of the speaker cabinet 20 of FIG.
  • It is a side view which shows the structure of the modification of the speaker cabinet 20 which concerns on Embodiment 1.
  • FIG. 11 is a diagram showing instantaneous frequency characteristics when the time waveform at the point position (B) in FIG. 11 is FFT processed.
  • FIG. 11 is a diagram showing instantaneous frequency characteristics when the time waveform at the point (A) position in FIG. 11 is FFT processed.
  • FIG. It is a figure which shows an example of the case where the signal processing is performed on the sound source included in the acoustic content 30 which concerns on Embodiment 1.
  • FIG. It is a figure explaining the principle of the bread processing which concerns on Embodiment 1.
  • FIG. It is a figure which shows an example of the case where the signal processing is performed on the sound source included in the acoustic content 30 which concerns on Embodiment 1.
  • FIG. It is a figure explaining the principle of the stereo expansion processing which concerns on Embodiment 1.
  • FIG. It is a top view which shows the positional relationship between the speaker unit and the user which concerns on Embodiment 1.
  • FIG. It is a figure which showed the waveform of the direct sound and the cross sound which concerns on Embodiment 1.
  • the closed space acoustic system according to the first embodiment is applied to a closed space that is required to maintain a certain degree of airtightness and tranquility.
  • the closed space include an internal space of an elevator car, an in-vehicle space of transportation such as a train, a bus, and a taxi, or a waiting space such as a waiting room of a hospital or a pharmacy.
  • the closed space to which the sound system for the closed space according to the first embodiment is applied is a special narrow closed space different from the normal living space.
  • the closed space according to the first embodiment is a space in which two or more humans can exist, has a structure in which the entrance and exit are closed, and exists inside for a certain period of time in principle. It is a space where people who are doing it cannot go outside. In the following, the space inside the elevator car will be described as an example of the closed space.
  • FIG. 1 is a perspective view showing the configuration of the elevator 1 according to the first embodiment.
  • the elevator 1 is installed in a building and ascends or descends in the hoistway 2.
  • a hoisting machine 3 is provided on the upper part of the hoistway 2.
  • a main rope 4 is hung on the sheave 3a provided on the hoisting machine 3.
  • a basket 5 and a counterweight 6 are connected to both ends of the main rope 4, respectively.
  • the basket 5 and the counterweight weight 6 are suspended by a main rope 4 from a sheave 3a in a hanging manner.
  • an elevator control panel 7 is installed on the upper part of the hoistway 2.
  • the elevator control panel 7 is connected to the hoisting machine 3 via a communication line and is connected to the car 5 via a control cable 8.
  • the control cable 8 transmits electric power and a control signal to the car 5.
  • the control cable 8 is also called a tail code.
  • the basket 5 is composed of four side plates 5a, a floor plate 5b, and a ceiling plate 5c.
  • the four side plates 5a are arranged on the right side, the left side, the front side, and the rear side of the car 5, respectively.
  • a car door 5d is installed on the front side plate 5a of the four side plates 5a. When the car 5 stops at the landing on each floor, the car door 5d engages with the landing door (not shown) installed at the landing to open and close.
  • a car control device 9 and a sound field control device 21 are installed on the upper surface of the ceiling plate 5c of the car 5.
  • the car control device 9 controls the operation of each device provided in the car 5.
  • Examples of the device provided in the car 5 include a car door 5d, a lighting device 5e (see FIG. 2), a car operation panel 5f (see FIG. 2), and the like.
  • the sound field control device 21 controls the overall operation of the closed space acoustic system 13 (see FIG. 3) described later so as to form a three-dimensional sound field 27 (see FIG. 3) in the entire internal space of the car 5. I do.
  • the sound system 13 for a closed space is simply referred to as a sound system 13.
  • a suspended ceiling 10 is fixed to the lower surface of the ceiling plate 5c of the car 5.
  • the suspended ceiling 10 is located in the internal space of the car 5.
  • the suspended ceiling 10 has a rectangular parallelepiped shape.
  • the suspended ceiling 10 has four side surfaces 10a and a lower surface 10b (see FIG. 2). Further, the suspended ceiling 10 may further have an upper surface arranged so as to face the lower surface 10b.
  • a lighting device 5e see FIG. 2
  • an emergency speaker 5g see FIG. 2
  • a speaker system 22 of the acoustic system 13 see FIG. 3
  • the sound field control device 21 is installed on the upper surface of the ceiling plate 5c of the car 5 as shown in FIG. 1, but the sound field control device 21 is also a suspended ceiling 10. It may be arranged in the internal space. There is a gap 11 (see FIGS. 2 and 3) having a constant distance D between the side surface 10a of the suspended ceiling 10 and the side plate 5a of the car 5.
  • the constant distance D is referred to as a first distance D.
  • the elevator 1 is a rope type elevator is shown, but the case is not limited to this case.
  • the elevator 1 may be another type of elevator, for example, a linear elevator.
  • FIG. 2 is a diagram showing a state of the internal space of the car 5 of the elevator 1 according to the first embodiment.
  • the internal space of the car 5 is surrounded by four side plates 5a, a floor plate 5b, and a lower surface 10b of the suspended ceiling 10.
  • the internal space of the car 5 has, for example, a rectangular parallelepiped shape.
  • the floor plate 5b is composed of a rectangular flat surface installed in the horizontal direction.
  • Each side plate 5a is composed of a rectangular plane installed in the vertical direction.
  • the vertical direction is, for example, a vertical direction.
  • the lower surface 10b of the suspended ceiling 10 is arranged so as to face the floor plate 5b.
  • the lower surface 10b of the suspended ceiling 10 is formed of a rectangular plane installed in the horizontal direction.
  • a lighting device 5e is provided on the suspended ceiling 10.
  • the main body of the lighting device 5e is installed in the internal space of the suspended ceiling 10.
  • the lighting device 5e is, for example, an LED lighting device.
  • the irradiation surface 5ea of the lighting device 5e faces the floor plate 5b.
  • the lighting device 5e illuminates the internal space of the car 5 with the light emitted from the irradiation surface 5ea.
  • the suspended ceiling 10 is provided with an emergency speaker 5g for transmitting an emergency communication from the management room of the building.
  • the emergency speaker 5g may be used not only for emergency communication but also for transmitting a voice message to the user such as "the door will close".
  • the front side plate 5a of the four side plates 5a is provided with the car door 5d.
  • a car operation panel 5f is provided on the front side plate 5a.
  • the car operation panel 5f is provided with a plurality of car call registration buttons provided corresponding to each floor and a door opening / closing button for controlling the opening / closing operation of the car door 5d.
  • the car operation panel 5f is provided with an intercom device 5h for the user to communicate with the outside in an emergency or the like.
  • the car control device 9 is connected to the elevator control panel 7 via, for example, a control cable 8 (see FIG. 1).
  • the car control device 9 has an input unit 9a, a control unit 9b, an output unit 9c, and a storage unit 9d.
  • the input unit 9a inputs a control signal from the elevator control panel 7 to the control unit 9b.
  • the control unit 9b controls the operation of each device provided in the car 5 based on the control signal.
  • the output unit 9c outputs a drive signal to each device under the control of the control unit 9b. Further, the output unit 9c transmits a signal such as a car call registration input from the user to the car operation panel 5f to the elevator control panel 7 under the control of the control unit 9b.
  • the storage unit 9d stores the calculation result of the control unit 9b, various data and programs used in the control of the control unit 9b, and the like.
  • the sound field control device 21 is one of the components of the acoustic system 13.
  • the sound field control device 21 and the speaker system 22 described later constitute an acoustic system 13.
  • the sound field control device 21 has a sound field control unit 21a, an output unit 21b, a storage unit 21c, and a timer unit 21d.
  • the sound field control unit 21a controls the operation of the acoustic system 13 so as to form a high-quality sound field in the internal space of the car 5.
  • the output unit 21b transmits the reproduction data of the drive signal and the acoustic signal to the speaker cabinet 20 under the control of the sound field control unit 21a.
  • the storage unit 21c stores, for example, a plurality of sound sources generated in the natural world.
  • the storage unit 21c may store in advance the acoustic content 30 (see FIG. 11), which is a combination of sounds from a plurality of sound sources generated in the natural world.
  • the storage unit 21c further stores the calculation result of the sound field control unit 21a, various data and programs used for controlling the sound field control unit 21a, and the like.
  • the sound field control unit 21a reproduces a combination of sound sources stored in the storage unit 21c, and radiates an acoustic signal based on the sound source from the speaker system 22 to the internal space of the car 5.
  • the sound field control unit 21a When the storage unit 21c stores the acoustic content 30, the sound field control unit 21a reproduces the acoustic content 30 stored in the storage unit 21c and transmits the acoustic signal based on the acoustic content 30 to the basket 5. Radiate from the speaker system 22 to the internal space. In either case, the sound field control unit 21a radiates an acoustic signal based on two or more combined sound sources from the speaker system 22 to the internal space of the car 5.
  • the timer unit 21d counts the current date and time and holds the current date and time data.
  • the timer unit 21d has the date and time data of the month and day in the annual calendar and the time data as the date and time data.
  • the sound field control unit 21a may acquire date and time data from the timer unit 21d and switch the acoustic content 30 according to the season and the living time zone based on the date and time data.
  • the acoustic content 30 is generated by, for example, an externally installed acoustic content generation device 40, and is stored in advance in the storage unit 21c of the sound field control device 21.
  • the acoustic content generation device 40 generates acoustic content 30 by combining a plurality of sound sources generated in the natural world.
  • the acoustic content generation device 40 has a signal processing unit 40b that performs signal processing on the acoustic content 30.
  • the signal processing unit 40b performs one or more signal processing as necessary when generating the acoustic content 30 by combining a plurality of sound sources generated in the natural world.
  • the timing of signal processing may be before or after combining the sound sources.
  • signal processing may be performed after combining a plurality of sound sources, or conversely, sound after signal processing may be combined after signal processing of sounds from a plurality of sound sources.
  • Examples of the signal processing include a plurality of processes such as setting the time length of the time division 33 described later, generating the prelude portion 34 and the like, adjusting the sound pressure level, and phase control processing. The signal processing will be described later.
  • the acoustic content generation device 40 has an output unit 40a, a storage unit 40c, and an input unit 40d. Sound data from a sound source generated in the natural world is input to the input unit 40d. The sound data may be created based on data actually recorded in the natural world, or may be artificially created pseudo data.
  • the output unit 40a outputs the generated acoustic content 30.
  • the storage unit 40c stores the calculation result of the signal processing unit 40b, various data and programs used for controlling the signal processing unit 40b, and the like.
  • the processing circuit is composed of dedicated hardware or a processor.
  • the dedicated hardware is, for example, an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).
  • the processor executes a program stored in memory.
  • the storage unit 9d is composed of a memory.
  • the memory is a non-volatile or volatile semiconductor memory such as RAM (RandomAccessMemory), ROM (ReadOnlyMemory), flash memory, EPROM (ErasableProgrammableROM), or a disk such as a magnetic disk, flexible disk, or optical disk. be.
  • the processing circuit is composed of dedicated hardware or a processor. Since the dedicated hardware and processor may be the same as above, the description thereof will be omitted.
  • the storage unit 21c is composed of a memory. Since the memory may be the same as above, the description thereof will be omitted.
  • the processing circuit is composed of dedicated hardware or a processor. Since the dedicated hardware and processor may be the same as above, the description thereof will be omitted.
  • the storage unit 40c is composed of a memory. Since the memory may be the same as above, the description thereof will be omitted.
  • FIG. 3 is a front view showing the configuration of the acoustic system 13 according to the first embodiment.
  • FIG. 4 is a top view showing the arrangement of the speaker cabinet 20 of the acoustic system 13 according to the first embodiment.
  • the height direction of the car 5 is the Y direction
  • the width direction of the car 5 is the X direction
  • the depth direction of the car 5 is the Z direction.
  • the Y direction is, for example, a vertical direction.
  • the X direction is the left-right direction of the car 5
  • the Z direction is the front-back direction of the car 5.
  • the acoustic system 13 is composed of a speaker system 22 arranged on the ceiling of a closed space and a sound field control device 21.
  • the speaker system 22 includes one or more speaker cabinets 20. Further, each speaker cabinet 20 is equipped with one or more speaker units 23.
  • the sound system 13 forms a sound field 27 and radiates sound to the user of the car 5.
  • acoustic content formed by combining sounds from a plurality of sound sources that naturally occur in nature, such as the babbling of a river and the chirping of birds, is used as the sound. Use.
  • a sound field environment of two or more channels is created in a closed space, and an acoustic content 30 (see FIG.
  • the acoustic content 30 can be radiated from a plurality of directions to the closed space, and a "comfort" can be given to the auditory sensibility of the user in the closed space. As a result, it is possible to reduce unpleasant factors such as stress when staying in a narrow space.
  • the sound content 30 allows any consumer in Japan to experience the seasons such as spring, summer, autumn and winter, and the time of day such as dawn, daytime, evening, and night from the sound. It is configured to be able to.
  • the configuration of the acoustic content 30 will be described later.
  • the user can obtain a sense of time zone and a sense of season from "sound" even if he / she uses a closed space in which he / she cannot see the external environment.
  • the acoustic content 30 does not have a noisy feeling, and has a content structure that eliminates unpleasant factors such as noise so as not to obtain an auditory discomfort.
  • the acoustic content 30 is composed of a composite combination of a sound source type, a time zone, and a frequency band, such as a wind or a river flow and a bird's voice, which naturally occur in the natural world.
  • the number of speaker cabinets 20 included in the speaker system 22 is two. However, the number of speaker cabinets 20 is not limited to this, and may be any number of 1 or more. As a result, it is possible to form a sound field 27 having one or more channels of reproduction in the closed space. As shown in FIG. 3, each speaker cabinet 20 is installed in the internal space of the suspended ceiling 10. Each speaker cabinet 20 is composed of a speaker unit 23 and a housing 25. In the first embodiment, the speaker system 22 includes the speaker cabinet 20, but the present invention is not limited to this case. That is, the speaker system 22 may include only one or more speaker units 23 without including the speaker cabinet 20.
  • the speaker unit 23 and the speaker cabinet 20 are described as being arranged on the suspended ceiling 10, but the present invention is not limited to this case. That is, the speaker unit 23 and the speaker cabinet 20 may be arranged at other positions such as the side plate 5a of the car 5.
  • FIG. 5 is a side view showing an example of the configuration of the speaker cabinet 20 according to the first embodiment.
  • FIG. 6 is a front view showing the configuration of the speaker cabinet 20 of FIG.
  • the speaker cabinet 20 is composed of a speaker unit 23 and a housing 25.
  • the speaker unit 23 is housed in the housing 25.
  • the speaker unit 23 is provided on the front surface 25a of the housing 25, and has a radiation surface 23a that radiates sound toward the outside.
  • the housing 25 has, for example, a rectangular parallelepiped shape.
  • the housing 25 is an airtight sealing device.
  • the radial surface 23a of the speaker unit 23 is fitted into an installation hole provided in the front surface 25a of the housing 25, and is exposed to the outside from the installation hole.
  • All the other parts of the speaker unit 23 are installed in the housing 25. Therefore, the sound from the radiation surface 23a of the speaker unit 23 is radiated only in the direction of arrow A in FIG. 5, and is not radiated to the outside through other parts of the housing 25 other than the radiation surface 23a.
  • FIG. 7 is a side view showing the configuration of a modified example of the speaker cabinet 20 according to the first embodiment.
  • FIG. 8 is a front view showing the configuration of the speaker cabinet 20 of FIG. 7.
  • the speaker cabinet 20 may accommodate two or more speaker units 23 in the housing 25.
  • one speaker unit 23-1 may be a full-range speaker and the other speaker unit 23-2 may be a tweeter.
  • a full-range speaker is one that reproduces from low to high frequencies with one speaker.
  • the speaker unit 23 when one speaker unit 23 is housed in the housing 25 of the speaker cabinet 20, the speaker unit 23 is a full-range speaker.
  • a tweeter is a low-frequency speaker used as an auxiliary to a full-range speaker.
  • tweeters are used to make up for it.
  • the two or more speaker units 23 arranged in the housing 25 those of different types may be used, or those of the same type may be used.
  • the speaker cabinet 20 is arranged in the internal space of the suspended ceiling 10.
  • the height of the suspended ceiling 10 in the Y direction (height direction of the car 5) is, for example, about 5 cm. Therefore, as shown in FIG. 3, the height H1 of the housing 25 of the speaker cabinet 20 in the Y direction (height direction of the car 5) is 5 cm or less. As described above, the height H1 of the housing 25 is limited by the height of the suspended ceiling 10 in the Y direction (the height direction of the car 5).
  • the radial surface 23a of the speaker unit 23 is arranged so as to face the side plate 5a of the car 5.
  • the radial surface 23a is arranged along the edge of the side surface 10a of the suspended ceiling 10. As shown in FIG. 4, the radial surface 23a is located in the same plane as the side surface 10a of the suspended ceiling 10. Therefore, the position of the radial surface 23a in the X direction (the width direction of the car 5) coincides with or substantially coincides with the position of the side surface 10a of the suspended ceiling 10 in the X direction.
  • An opening is provided on the side surface 10a of the suspended ceiling 10 in accordance with the position of the radial surface 23a.
  • the entire side surface 10a of the suspended ceiling 10 may be in an open state. Therefore, the sound radiated from the radiating surface 23a is not shielded by the side surface 10a of the suspended ceiling 10.
  • the speaker unit 23 uses the reflection of the side plate 5a of the car 5 to perform "indirect sound radiation" to radiate sound to the user.
  • the radial surface 23a of the speaker unit 23 is arranged so as to face the side plate 5a of the car 5 and close to the side plate 5a of the car 5 via the gap 11 having the first distance D.
  • the first distance D is, for example, about 5 cm. Therefore, the sound radiated from the radiation surface 23a of the speaker unit 23 is reflected by the side plate 5a of the car 5 immediately after the radiation before the sound pressure level drops.
  • the speaker cabinet 20 is arranged behind the central portion of the suspended ceiling 10 in the Z direction (the depth direction of the car 5).
  • the position of the speaker cabinet 20 in the Z direction is not limited to this, and may be installed in the central portion of the suspended ceiling 10 in the Z direction, or installed in front of the central portion of the suspended ceiling 10 in the Z direction. May be done.
  • the speaker cabinet 20 is arranged in the central portion of the suspended ceiling 10 in the Y direction (height direction of the car 5).
  • the position of the speaker cabinet 20 in the Y direction is not limited to this, and may be above the central portion of the suspended ceiling 10 in the Y direction or below the central portion.
  • the speaker unit 23 provided in one of the speaker cabinets 20 is referred to as a speaker unit 23R.
  • the speaker unit 23 provided in the speaker cabinet 20 is referred to as a speaker unit 23L.
  • the speaker unit 23R and the speaker unit 23L are arranged apart from each other.
  • the speaker cabinet 20 accommodating the speaker unit 23R and the speaker cabinet 20 accommodating the speaker unit 23L are arranged apart from each other by a certain distance centering on the central portion of the suspended ceiling 10 in the X direction. ..
  • the constant distance is referred to as a second distance D2.
  • the second distance D2 is determined from the dimensions of the car 5 in the X direction, the first distance D, and the dimensions of the housing 25 in the X direction.
  • the speaker unit 23R and the speaker unit 23L are arranged so that their back surfaces face each other. Therefore, as shown in FIG. 4, the radial surface 23a of the speaker unit 23R is arranged so as to face the side plate 5a on the right side of the car 5. On the other hand, the radial surface 23a of the speaker unit 23L is arranged so as to face the side plate 5a on the left side of the car 5. Each of the radial surfaces 23a of the speaker units 23R and 23L is arranged facing the gap 11. Each of the radial surfaces 23a of the speaker units 23R and 23L is arranged in the same plane as the left and right side surfaces 10a of the suspended ceiling 10.
  • the sound radiated from the speaker unit 23R mainly reaches the right ear of the user
  • the sound radiated from the speaker unit 23L mainly reaches the left ear of the user.
  • the sound radiated from the speaker unit 23R will be referred to as “right side sound”
  • the sound radiated from the speaker unit 23L will be referred to as “left side sound”.
  • FIG. 9 is a front view schematically showing a configuration of a modified example of the acoustic system 13 according to the first embodiment.
  • the two speaker units 23R-1 and 23L-1 are provided facing the floor plate 5b of the car 5. Therefore, the radial surfaces 23a of the speaker units 23R-1 and 23L-1 are arranged to face the floor plate 5b of the car 5 as shown in FIG.
  • the speaker cabinet 20 accommodating the speaker unit 23R-1 and the speaker cabinet 20 accommodating the speaker unit 23L-1 are separated from each other by a certain distance from the central portion of the suspended ceiling 10 in the X direction. Have been placed. The constant distance is called a third distance D3.
  • the third distance D3 may be the same as or different from the second distance D2 shown in FIG.
  • each of the radial surfaces 23a of the speaker units 23R-1 and 23L-1 is arranged in the same plane as the lower surface 10b of the suspended ceiling 10. Therefore, the position of each radial surface 23a in the Y direction (the height direction of the car 5) coincides with or substantially coincides with the position of the lower surface 10b of the suspended ceiling 10 in the Y direction. Further, the radial surface 23a portion of the speaker units 23R-1 and 23L-1 is fitted into a mounting hole provided in the lower surface 10b of the suspended ceiling 10. Each of the radial surfaces 23a of the speaker units 23R-1 and 23L-1 is exposed to the outside from the mounting hole. Therefore, the sound radiated from each of the radiating surfaces 23a of the speaker units 23R-1 and 23L-1 is not shielded by the lower surface 10b of the suspended ceiling 10.
  • the sound radiated from the speaker units 23R-1 and 23L-1 is radiated from the radiating surface 23a in the direction of arrow A.
  • the speaker units 23R-1 and 23L-1 perform "direct sound radiation” that directly radiates sound to the user from the suspended ceiling 10.
  • FIG. 10 is a plan view schematically showing the configuration of a further modification of the acoustic system 13 according to the first embodiment.
  • FIG. 10 shows a state in which the lower surface 10b of the suspended ceiling 10 is viewed from the floor plate 5b side.
  • four speaker units 23R-1, 23R-2, 23L-1, and 23L-2 are provided.
  • two speaker units 23R-2 and 23L-2 face the side plate 5a on the front side of the car 5. It is provided.
  • two other speaker units 23R-1 and 23L-1 are provided so as to face the floor plate 5b of the car 5. Therefore, the radial surfaces 23a of the speaker units 23R-1 and 23L-1 are arranged to face the floor plate 5b of the car 5 as shown in FIG.
  • two front speaker units 23R-2 and 23L-2 are provided facing the front side plate 5a of the car 5.
  • the speaker cabinet 20 accommodating the speaker unit 23R-2 and the speaker cabinet 20 accommodating the speaker unit 23L-2 are arranged apart from each other by a certain distance centering on the central portion of the suspended ceiling 10 in the X direction. ing.
  • the constant distance may be the same as, for example, the third distance D3 shown in FIG. 9, or may be different.
  • each of the radial surfaces 23a of the speaker units 23R-2 and 23L-2 is arranged so as to face the side plate 5a of the car 5. Further, each of the radial surfaces 23a is arranged along the side of the side surface 10a of the suspended ceiling 10. Therefore, the position of each radial surface 23a in the Z direction (the depth direction of the car 5) coincides with or substantially coincides with the position of the side surface 10a of the suspended ceiling 10 in the Z direction.
  • the sound radiated from the speaker units 23R-2 and 23L-2 is radiated from the radiating surface 23a in the direction of arrow A. After that, the sound is reflected by the side plate 5a of the car 5 to become a reflected sound. As shown in FIG. 10, the reflected sound travels in the direction of arrow B. In this way, the speaker units 23R-2 and 23L-2 use the reflection of the side plate 5a of the car 5 to perform "indirect sound radiation" that radiates sound from the suspended ceiling 10 to the user. There is.
  • the two speaker units 23R-1 and 23L-1 on the rear side are provided facing the floor plate 5b of the car 5 as described above with reference to FIG. Therefore, as described above, the two speaker units 23R-1 and 23L-1 on the rear side perform "direct sound radiation” that directly radiates sound to the user from the suspended ceiling 10. ing.
  • "indirect sound radiation” and "direct sound radiation” may be mixed and performed.
  • the speaker units 23R and 23L shown in FIG. 4 may be provided instead of the speaker units 23R-2 and 23L-2.
  • the speaker unit 23 may be installed at an arbitrary location on the lower surface 10b of the suspended ceiling 10 in the car 5.
  • the installation pattern includes, for example, the case of arranging on the right side and the left side as shown in FIG. 4, the case of installing on the front side and the rear side, and the case of installing on the corners of the lower surface 10b of the suspended ceiling 10. There are, and the combination in those cases is also free. However, the sound quality is better when the speaker units 23 are separated from each other to some extent. Therefore, in the first embodiment, the speaker cabinets 20 accommodating the speaker units 23 are arranged apart by a second distance D2 or a third distance D3.
  • the speaker cabinet 20 may be installed in the floor plate 5b of the car 5.
  • the user's body itself becomes a sound absorber and a reflector, it becomes difficult for the acoustic signal radiated from the user's feet to reach the user's ear position as the number of users increases.
  • the speaker cabinet 20 is basically installed at a position above the user's chest. Therefore, it is desirable to install the speaker cabinet 20 on the suspended ceiling 10 or the upper part of the side plate 5a of the car 5.
  • the sound field 27 generated by the acoustic system 13 is, for example, the range shown by the broken line in FIG. Specifically, the height H2 of the lower limit 27a of the sound field 27 is, for example, about 1.0 m to 1.7 m from the floor plate 5b of the car 5, and is preferably 1.6 m.
  • the upper limit height of the sound field 27 is, for example, 1.8 m from the floor plate 5b of the car 5. As described above, it is desirable that the sound field 27 is formed so that the height from the floor plate 5b is in the range of 1.6 m to 1.8 m. In this way, the sound field 27 is generated in the portion above the lower limit 27a in the car 5.
  • the sound field 27 is formed around the user's head as shown in FIG.
  • the height H2 of the lower limit 27a of the sound field 27 is set based on the average height of the user (excluding junior high school students and younger).
  • the height from the floor plate 5b is from 0 m to less than 1.6 m, as described above, when a plurality of users are in the car 5, the sound is shielded or blocked by the user's body. Since it is absorbed, a good sound field cannot be formed. Further, in the range where the height from the floor plate 5b exceeds 1.8 m, the sound field 27 is formed unevenly above the user's head, which makes it difficult for the user to hear.
  • the generation range of the sound field 27 is not limited to the case where it is generated in the range of 1.6 m to 1.8 m. That is, since the sound field 27 should be generated in the range above the user's chest based on the average height of the user (excluding junior high school students and younger), the height H2 of the lower limit 27a of the sound field 27 Is preferably in the range of, for example, 1.0 m to 1.7 m from the floor plate 5b of the car 5.
  • the acoustic content 30 is an acoustic signal radiated from the speaker system 22 under the control of the sound field control unit 21a.
  • FIG. 11 is a diagram showing an example of the configuration of the acoustic content 30 according to the first embodiment.
  • the upper part of FIG. 11 shows the acoustic content 30 radiated from the speaker unit 23L shown in FIG. 4, and the lower part of FIG. 11 shows the acoustic content 30 radiated from the speaker unit 23R shown in FIG.
  • the acoustic content 30 radiated from the speaker unit 23L and the acoustic content 30 radiated from the speaker unit 23R may be different as shown in FIG. 11, but may be the same.
  • the horizontal axis represents time and the vertical axis represents sound pressure level.
  • the acoustic content 30 includes a background sound 31 and an additional sound 32 added to the background sound 31.
  • the acoustic content 30 is divided into a plurality of time divisions 33.
  • the division of the time division 33 is shown by a broken line.
  • the total time length of the acoustic content 30 is 90 sec, and the total time length is divided into 12 time divisions 33.
  • the number of time divisions 33 is not limited to this, and is appropriately set.
  • time lengths of the time divisions 33 are not all the same, and are set to at least two types of time lengths.
  • time notations such as “2S”, “8S”, and “5S” indicate the time length in each time division 33.
  • “2S” means 2 seconds.
  • each time division 33 is given an appropriately set time length.
  • the types of time length at least six types of "2S", “5S”, “7S”, “8S”, “9S", and "15S" are included.
  • the background sound 31 is set to be continuously radiated over all of the plurality of time divisions 33. Further, the additional sound 32 is individually set for each time division 33 and is radiated for each time division 33. The sound pressure level of the additional sound 32 is higher than that of the background sound 31. Further, as shown in the example of FIG. 11, the additional sound 32 is not set for all the time divisions 33, and the time division 33 in which the additional sound 32 is not set is also provided. In the example of FIG. 11, the time division 33 (hereinafter referred to as “first time division”) of “with additional sound” to which the additional sound 32 is added and “without additional sound” to which the additional sound 32 is not added. Time divisions 33 (hereinafter referred to as “second time divisions”) are arranged alternately.
  • each time division 33 is set so that at least one of the adjacent time divisions 33 becomes the second time division of "no additional sound". Is placed. That is, at least one "without additional sound” second time division is arranged between the adjacent "with additional sound” first time divisions.
  • two or more may be continuously arranged.
  • the acoustic content 30 is set between the prelude portion 34 including one or more time divisions 33, the afterplay portion 36 including one or more time divisions, and the prelude portion 34 and the afterplay portion 36, and is one. It has an interlude portion 35 including a time division.
  • the prelude portion 34 includes five time divisions 33
  • the interlude portion 35 includes one time division 33
  • the back part 36 includes six time divisions 33. The number of these time segments is merely an example and is not limited thereto. Further, although it has been explained that the interlude portion 35 includes one time division 33, the interlude portion 35 may include two or more time divisions 33.
  • FIG. 11 shows the time change of the acoustic content 30 which is a basic sound source mixed down by combining a plurality of sound sources.
  • the total time length of the acoustic content 30 (that is, the acoustic signal) is 2 minutes or less. That is, the total time length of the acoustic content 30 is a maximum of 2 minutes (that is, 120 seconds).
  • the vertical movement time of the car 5 of the elevator 1 depends on the height of the building, but even in a high-rise building, the moving time of the car 5 is often about 2 minutes or less. The reason is as follows. The space inside the car 5 is a closed closed space. Under conditions that restrain the user for a long time in the closed closed space, the user cannot even move, and thus the stress state continues.
  • the actual running time of the car 5 of the elevator 1 is often limited to 90 seconds or less, and even in a skyscraper, it is limited to 90 seconds to 120 seconds or less. Therefore, in the first embodiment, the total time length of one acoustic content 30 is appropriately set to be within 2 minutes. Further, the acoustic content 30 configured within 2 minutes is repeatedly and continuously reproduced in the car 5 under the control of the sound field control unit 21a. In this way, the repeatedly reproduced acoustic content 30 is created so as to have a melody that changes at a fixed cycle.
  • the car 5 moves up and down and stops at the floor designated by the user according to the button operation of the user. Meanwhile, the acoustic content 30 is being repeatedly reproduced. Therefore, the user cannot always listen to the acoustic content 30 from the beginning of the acoustic content 30.
  • the elevator 1 may be used from the middle stage of the acoustic content 30 being reproduced.
  • users may often use elevator 1 to move to multiple floors, for example, from the 1st floor to the 10th floor, but to move to one floor, for example, from the 4th floor to the 5th floor. In some cases, the user may use the elevator 1.
  • the acoustic content 30 that does not cause stress and discomfort is emitted to the user who uses the elevator 1 to move one floor.
  • it does not play music that is a "meaningful sound”, but “occurs in the natural world” that has no special meaning.
  • Use "sound” "meaningless sound”. In the case of reproduction of "meaningless sound”, even if the user is forcibly interrupted to hear the sound during the reproduction of the sound, it is extremely unlikely that the user will be stressed.
  • the acoustic content 30 is composed of a combination of a plurality of sound sources generated in the natural world.
  • the sound source is, for example, the following (1) to (7), and the acoustic content 30 is composed of a combination thereof.
  • the sound sources (1) to (3) are sound sources constituting the background sound 31 of FIG. 11, and are sounds that make the user imagine the state of the environment in the natural world.
  • the sound sources (1) to (3) are sound sources (hereinafter referred to as first sound sources) in the natural environment.
  • the sounds of the sound sources (1) to (3) are sounds generated from the first sound source, that is, sounds based on the state of the environment in the natural world.
  • the sounds of the sound sources (4) to (7) are sounds constituting the additional sound 32 of FIG. 11, and are sounds that make the user imagine the behavior of a creature in the natural world.
  • the sound sources (4) to (7) are sound sources (hereinafter referred to as second sound sources) of organisms living in the natural world.
  • the sounds of the sound sources (4) to (7) are sounds generated from the second sound source, that is, sounds based on the behavior of living things in the natural world.
  • the acoustic content 30 shown in FIG. 11 is the acoustic content (a) evaluated to have the best comfort based on the evaluation results of FIGS. 22 and 23, which will be described later.
  • notations such as "(2)" and “(4)” indicate which sound of the above sound sources (1) to (7) is set for each time division 33.
  • notations such as "(4) (2)” indicate a combination of the background sound 31 and the additional sound 32.
  • the notations such as "(1) + (3)” and "(4) + (5)” indicate a combination of background sounds 31 or a combination of additional sounds 32. ..
  • the upper part of FIG. 11 shows the acoustic content 30 radiated from the speaker unit 23L shown in FIG.
  • the background sound 31 composed of the sound source (2) is continuously set for all the time divisions 33.
  • the additional sound 32 of the sound source (4) is added, and in the fourth time division 33, the additional sound 32 of the sound source (6) is added. ..
  • the additional sound of the sound source (4) and the additional sound 32 of the sound source (5) are added to the sixth time division 33 constituting the interlude portion 35.
  • the additional sound 32 of the sound source (4) is added to each of the 8th, 10th, and 12th time divisions 33.
  • the lower part of FIG. 11 shows the acoustic content radiated from the speaker unit 23R shown in FIG.
  • a background sound 31 composed of a sound source (1) and a sound source (3) is continuously set for all time divisions 33.
  • the additional sound 32 of the sound source (4) is added, and in the fourth time division 33, the additional sound 32 of the sound source (6) is added.
  • the additional sound of the sound source (4) and the additional sound 32 of the sound source (5) are added to the sixth time division 33 constituting the interlude portion 35.
  • the additional sound 32 of the sound source (4) is added to each of the 8th, 10th, and 12th time divisions 33.
  • the additional sound 32 of the extremely quiet sound source (5) is added to the background sound 31.
  • the additional sound 32 of the extremely quiet sound source (7) is added to the background sound 31.
  • the sound pressure level of these additional sounds 32 and the sound pressure level of the background sound 31 are almost the same.
  • at least one "without additional sound” is used between the first time divisions of the adjacent "with additional sound”. Two time divisions are arranged.
  • an exceptional second time division including an extremely quiet additional sound 32 may be arranged between the adjacent first time divisions.
  • time notations such as "2S", “8S”, and “5S” indicate the time length in each time division 33.
  • each time division 33 does not have the same time length, but has two or more types of time lengths appropriately set for each time division 33.
  • the type of time length of the time division 33 is not limited to that shown in FIG.
  • the time length of the time division 33 may have a preset fluctuation range with respect to the indicated time length. Specifically, when the time length of the time division 33 is 6 seconds or more, the fluctuation range is up to -5 seconds, and when the time length of the time division 33 is less than 6 seconds, the fluctuation width is up to +3 seconds. There may be.
  • the fluctuation range is an allowable range for maintaining comfort to the sound.
  • the time division 33 indicated by "8S” in FIG. 11 is in the range of 3 to 8 seconds.
  • the time length may be set as appropriate.
  • the time length may be appropriately set in the range of 1 to 6 seconds.
  • the time length may be appropriately set in the range of 2 to 5 seconds.
  • the time division 33 constituting the interlude portion 35 of the acoustic content 30 has the longest time division among the plurality of time divisions 33. In the example of FIG. 11, it is "15S".
  • the time length of the time division 33 having the maximum time length is defined as the first time length. In the example of FIG. 11, the first time length is "8S”.
  • the prelude portion 34 when limited to the time division 33 of "with additional sound" to which the additional sound 32 is added, the maximum time length is "5S".
  • the time length of the time division 33 having the maximum time length is set as the second time length.
  • the second time length is "9S”.
  • the maximum time length is "5S”.
  • the third time length is "15S”.
  • the third hour length is set to be longer than the first hour length and the second hour length.
  • the acoustic content 30 uses sounds in the natural world. Further, in the series of presented sounds of the acoustic content 30, the sound intensity is gradually changed with time, such as the prelude portion 34 ⁇ the interlude portion 35 ⁇ the postpartment portion 36, as in general music. .. Specifically, in the acoustic content 30, in the interlude portion 35, the sound pressure level of the additional sound 32 is maximized, and the time length of the additional sound 32 is also the longest.
  • the maximum value of the sound pressure level of the additional sound 32 in the time division 33 included in the prelude portion 34 is set as the first level.
  • the maximum value of the sound pressure level of the additional sound 32 in the time division 33 included in the after-play portion 36 is set as the second level.
  • the maximum value of the sound pressure level of the additional sound 32 in the time division 33 included in the interlude portion 35 is set as the third level.
  • the third level is set to be larger than the first level and the second level. In the example of FIG. 11, the third level is set to be about 1.5 to 4 times larger than the first level and the second level.
  • the user hears the additional sound 32 having a low sound pressure level in the prelude portion 34, and then hears the additional sound 32 having a high sound pressure level in the interlude portion 35. In this way, the user does not hear a sudden change in sound by receiving a change in the sound intensity of the additional sound 32 with time change. As a result, the user can hear the reproduced sound of the acoustic content 30 without discomfort.
  • the maximum value of the sound pressure level of the additional sound 32 in the time division 33 included in the interlude portion 35 is set to the third level, but the additional sound in the time division 33 included in the interlude portion 35 is set.
  • the average value of the sound pressure levels of 32 may be set as the third level.
  • the background sound 31 is always inserted as the base signal in all the time divisions 33, in addition to the additional sound 32.
  • the sound pressure level of the background sound 31 is set lower than the sound pressure level of the additional sound 32.
  • the sound pressure level of the background sound 31 is defined by a numerical difference from the additional sound 32. As a specific numerical value, the sound pressure level of the additional sound 32 is increased by 10 dB or more from the sound pressure level of the background sound 31. Further, even if the difference in sound pressure level is too large, it causes discomfort to the user, so the upper limit is set to about 20 dB.
  • the sound pressure level of the additional sound 32 is increased in the range of +10 dB to +20 dB (instantaneous) from the sound pressure level of the background sound 31.
  • the additional sound 32 is presented as a signal having a clear sound pressure level with respect to the background sound 31.
  • the total time length of the acoustic content 30 is described as 90 seconds to 120 seconds, but when the closed space is the elevator car 5, the movement of one floor or the movement of two floors is performed. It may be used. In these cases, as described above, the usage is very short, such as 10 to 20 seconds. In these cases, for example, the reproduction of the interlude portion 35 of the acoustic content 30 may be skipped, and control may be performed to reproduce only the prelude portion 34 and the post-prelude portion 36.
  • the sound field control unit 21a obtains information on the switch operation of the user's car operation panel 5f from the car control device 9.
  • the sound field control unit 21a detects the switch operation of the user based on the information, and determines whether or not the elevator 1 is used for a short time from the switch operation. That is, it is assumed that a switch operation for designating the "10th floor” is first performed on the car operation panel 5f in the car 5 stopped on the "1st floor”. Next, the car 5 stops at the floor below the "10th floor", for example, the "5th floor”, and then the switch operation is specified to specify the floor below the "10th floor”, for example, the "7th floor”. Was done. From the information of these switch operations, the sound field control unit 21a determines that the user who got on the "fifth floor” is using the elevator 1 for a short time.
  • the sound field control unit 21a controls to skip the interlude portion 35 and reproduce the acoustic content 30 when it is determined that the elevator 1 is used for a short time. As described above, in the first embodiment, it is possible to perform a control process such as not letting the user hear the sound radiation of the interlude portion 35, for example.
  • the signal processing for each sound source is based on the following. However, the signal processing does not necessarily have to be performed, and may be performed as needed.
  • phase processing such as reverb and pan is not performed on the background sounds 31 of the above sound sources (1) to (3).
  • signal processing may be performed. Specifically, at least one of the following two signal processes (i) and (ii) is used for the left and right signals of the background sound 31 so that a sense of spaciousness can be obtained audibly. You may do one.
  • a delay time of 300 ms or less is provided for one of the signal on the right side and the signal on the left side of the background sound 31 so as to be delayed more than the other.
  • a gain difference in the range of ⁇ 3 dB to 6 dB is provided for the sound pressure level of one of the signal on the right side and the signal on the left side of the background sound 31 so as to be different from the sound pressure level of the other.
  • the signal processing (i) will be described.
  • the upper side shows the signal on the left side
  • the lower side shows the signal on the right side.
  • the sound pressure level of the background sound 31 of the portion surrounded by the broken line ellipse 37 is slightly. You can see that it is getting bigger. Further, it can be seen that in the signal on the right side in the same time division 33, the sound pressure level of the background sound 31 in the portion surrounded by the broken line ellipse 38 is slightly increased.
  • the signal on the lower right side is slightly behind the signal on the upper left side.
  • a delay time is provided for the background sound 31 of the right signal so that the background sound 31 of the signal on the right side lags behind the background sound 31 of the signal on the left side.
  • the delay time is appropriately set in the range of 300 ms or less, which is larger than 0 ms. This makes it possible to produce a sense of spaciousness of the sound.
  • the timing of radiation of the signal on the left side is earlier than that of the signal on the right side, but the reverse is also possible.
  • FIG. 12 is a diagram showing instantaneous frequency characteristics when the time waveform at the point (B) position in FIG. 11 is subjected to FFT (fast Fourier transform) processing. That is, FIG. 12 shows the instantaneous frequency characteristics of the additional sound 32.
  • FIG. 13 is a diagram showing instantaneous frequency characteristics when the time waveform at the point (A) position in FIG. 11 is FFT processed. That is, FIG. 13 shows the instantaneous frequency characteristics of the background sound 31.
  • the horizontal axis indicates the frequency and the vertical axis indicates the sound pressure level.
  • the sound pressure level of the additional sound 32 shown in FIG. 12 is higher than the sound pressure level of the background sound 31 shown in FIG.
  • the sound pressure level of the additional sound 32 is provided with a gain difference of +10 dB or more so that the sound pressure level of the additional sound 32 is larger than that of the background sound 31.
  • FIGS. 12 and 13 Comparing FIGS. 12 and 13, in FIG. 12, a large change can be seen in the frequency characteristics between 2000 Hz and 10000 Hz. That is, in FIG. 12, the sound pressure level in the frequency band between 2000 Hz and 10000 Hz is remarkably higher than that of the other portions.
  • FIG. 13 there is no significant change in the frequency characteristics in any frequency band. That is, the change in the frequency characteristic seen in FIG. 12 shows the characteristic change when the additional sound 32 is projected from the background sound 31 by 10 dB or more as described above.
  • the user can surely recognize the sound in the frequency band where the sound pressure level has changed, and potentially have an attitude of trying to hear the sound in that frequency band. .. As a result, the user can concentrate on listening to the sound and cause a mood change.
  • the sound pressure level is changed in the frequency band between 2000 Hz and 10000 Hz, but the present invention is not limited to this case. That is, it is important to change the sound pressure level in the frequency band of 800 Hz or higher.
  • the frequency band that is easily audible to humans is the band from 800 Hz or higher to 15 kHz (the range of the dotted line frame in FIGS. 12 and 13).
  • the frequency of the additional sound 32 is set to 800 Hz or higher.
  • 14 and 16 are diagrams showing an example of a case where signal processing is performed on the additional sound 32 included in the acoustic content 30 according to the first embodiment.
  • the left and right signals are panned.
  • the horizontal axis represents time and the vertical axis represents angle.
  • FIG. 14 shows a case where the pan processing is performed to make the user feel that the sound source has moved from right to left.
  • FIG. 15 is a diagram illustrating the principle of bread processing according to the first embodiment.
  • stereo expansion processing is performed as signal processing.
  • FIG. 16 shows a case where phase control processing is performed so that “expansion” and “narrowness” can be repeatedly obtained within the total time length of the acoustic content 30.
  • FIG. 17 is a diagram illustrating the principle of stereo expansion processing according to the first embodiment. The signal processing shown in FIGS. 14 and 16 is performed on the sound source included in the acoustic content 30 as necessary.
  • signal processing such as pan processing and stereo expansion processing is performed as necessary.
  • the signal processing shall be performed based on the auditory sense, and at least one of the following two signal processing (iii) and (iv) shall be performed.
  • the pan processing of the left and right signals of the additional sound 32 freely changes the range from 90 degrees to ⁇ 90 degrees within the total time length (for example, 90 seconds) of the acoustic content 30.
  • the stereo expansion processing of the left and right signals of the additional sound 32 is performed within the total time length (for example, 90 seconds) of the acoustic content 30 in the range of 20% to 240% with respect to the left and right signals of the additional sound 32. Freely change the phase difference.
  • the signal processing (iii) will be explained.
  • the pan processing of FIG. 14 the pan of the left and right signals of the additional sound 32 is changed in the range of 90 degrees to ⁇ 90 degrees within the total time length (for example, 90 seconds) of the acoustic content 30. This gives the user the impression that the sound source has moved from right to left. Therefore, when the pan processing shown in FIG. 14 is performed on the feather sound when the bird of the above sound source (5) flies, the user has the impression that the bird flies and moves from right to left. Can be done.
  • pan means the left and right positions (localization) where the sound can be heard. That is, “pan” has the meaning of where to place the sound source on the left and right.
  • “Bread” is also called “bread pot”.
  • the center is displayed at 0 degrees, the left side is displayed as a negative numerical value, and the right side is displayed as a positive numerical value.
  • the position of the point 50 is 0 degrees and is the center. Further, the position of the point 52 is 90 degrees, and the position of the point 54 is ⁇ 90 degrees.
  • the pan of the left and right signals of the additional sound 32 is changed from +90 degrees to ⁇ 90 degrees in the total time length (for example, 90 seconds) of the acoustic content 30. I'm letting you. Not limited to this case, conversely, the pan of the left and right signals of the additional sound 32 may be converted from ⁇ 90 degrees to +90 degrees in the total time length (for example, 90 seconds) of the acoustic content 30. good.
  • the phase difference is changed in the range of 20% to 240% with respect to the left and right signals of the additional sound 32 within the total time length (for example, 90 seconds) of the acoustic content 30.
  • the case where the phase difference is 100% is standard, and when the phase difference is less than 100%, the user feels a “narrow feeling”.
  • the phase difference exceeds 100% the user is given the impression that the space has expanded, and the user feels an "expanded feeling”.
  • FIG. 16 shows an example in which processing is repeated within 90 seconds to obtain an “expanded feeling” and a “narrow feeling”.
  • the “expansion feeling” is gradually increased in the first 15 seconds
  • the “narrowness” is gradually increased in the latter 15 seconds.
  • FIG. 17 is a diagram showing the positional relationship between the user 60 and the speaker cabinet 20 in a plan view.
  • FIG. 17 shows a state in which the user 60 is located in front of the midpoint 61 between the speaker unit 23R and the speaker unit 23L.
  • the straight line 62 is a straight line connecting the position of the speaker unit 23R and the position of the user 60
  • the straight line 63 is a straight line connecting the position of the speaker unit 23L and the position of the user 60.
  • the straight line 64 is a straight line connecting the position of the virtual speaker unit 23Rv and the position of the user 60
  • the straight line 65 is a straight line connecting the position of the virtual speaker unit 23Lv and the position of the user 60.
  • the stereo expansion process is a process of expanding the positions of the speaker unit 23R and the speaker unit 23L perceived by the user 60 to the positions of the virtual speaker unit 23Rv and the virtual speaker unit 23Lv. That is, when the stereo expansion process is not applied to the acoustic signal, the range in which the acoustic signal of the user 60 can be localized is the angle ⁇ between the straight line 62 and the straight line 63. When the acoustic signal is subjected to stereo expansion processing, the range in which the acoustic signal of the user 60 can be localized is the angle ⁇ between the straight line 64 and the straight line 65.
  • “expansion” and “narrowing” are performed in the range of 20% to 240% with respect to the left and right signals of the additional sound 32 in the total time length (for example, 90 seconds) of the acoustic content 30.
  • the stereo expansion process that repeats is performed.
  • the range is from 20% to 240%, but the present invention is not limited to that case. That is, the range in which the stereo expansion processing is performed may be appropriately set, and may be, for example, in the range of 20% to 100%.
  • the user 60 perceives that the sound is radiated from the virtual speaker unit 23Rv and the virtual speaker unit 23Lv. do.
  • FIG. 18 is a top view showing the positional relationship between the speaker unit and the user according to the first embodiment.
  • the speaker unit 23 installed on the front right side of the user 70 is referred to as a speaker unit 23R.
  • the speaker unit 23 installed on the front left side of the user 70 is referred to as a speaker unit 23L.
  • the sounds radiated from the speaker unit 23R become the direct sound R (reference numeral 73) and the cross sound RL (reference numeral 74), and reach the right ear 70R and the left ear 70L of the user 70, respectively.
  • the direct sound R reference numeral 73
  • the cross sound RL reference numeral 74
  • the cross sound RL is an indirect sound that propagates from the speaker unit 23R at an arbitrary time and arrives at the left ear 70L of the user 70.
  • the sound radiated from the speaker unit 23L becomes a direct sound L (reference numeral 75) and a cross sound LR (reference numeral 76), and reaches the left ear 70L and the right ear 70R of the user 70, respectively.
  • FIG. 19 is a diagram showing waveforms of a direct sound and a cross sound according to the first embodiment.
  • the horizontal axis is time and the vertical axis is phase.
  • the direct sound R reference numeral 73
  • the direct sound L reference numeral 75
  • the cross sound RL reference numeral 74
  • the cross sound LR reference numeral 74
  • FIG. 20 is a diagram illustrating a time difference between two signals.
  • the horizontal axis is time and the vertical axis is phase.
  • the propagation time 82 of the waveform 80 is shorter than the propagation time 83 of the waveform 81.
  • the difference between the propagation time 82 and the propagation time 83 is the time difference ⁇ t.
  • the stereo expansion process will be briefly explained. Due to the cross component, the sound image of the radiated sound from the speaker unit 23 is heard gathered in the center of the cross component, that is, in the center of the passenger's left and right ears.
  • the cross sound is radiated first, and then the sound is radiated directly with a time lag.
  • FIG. 21 is a diagram showing an example of the waveform of the sound wave after the phase control process.
  • the horizontal axis is time and the vertical axis is phase.
  • the time difference ⁇ t between the cross sound RL (reference numeral 74) and the cross sound LR (reference numeral 76) is eliminated.
  • the time difference ⁇ t between the direct sound R (reference numeral 73) and the direct sound L (reference numeral 75) is eliminated.
  • the cross sound RL (reference numeral 74) and the cross sound LR (reference numeral 76) are radiated first, and then, after a certain delay time is provided, the direct sound R (reference numeral 73) and the direct sound L (reference numeral 75) are radiated. Is radiating.
  • the cross sound radiated first can give the user 70 a sense of movement of the sound
  • the direct sound radiated after that can give the user 70 a sense of localization of the sound.
  • the user 70 has the impression that the sound image is spreading.
  • the user 70 can hear the sound radiation having a sense of movement and a sense of localization obtained from the fact that the phases are aligned, without having a sense of discomfort that the sound field is hollowed out only above the user. It will be possible.
  • the pan processing can be realized by adjusting the time difference ⁇ t between the four signals shown in FIG. 19 or adjusting the propagation time of those four signals.
  • the time difference to be adjusted is the time difference ⁇ t between the direct sound R (reference numeral 73) and the direct sound L (reference numeral 75), and the time difference ⁇ t between the direct sound R (reference numeral 73) and the cross sound LR (reference numeral 76).
  • the obtained acoustic effect differs depending on which of these time differences ⁇ t is adjusted.
  • pan processing in FIG. 14 and the stereo expansion processing in FIG. 16 are not limited to the phase control processing, and any of other generally known existing methods may be used.
  • FIGS. 22 and 23 are schematic views showing the results of subjective and physiological evaluation of human beings by the SD (semantic differential scale method) method. 22 and 23 show an example of a subject experiment result when the user of the actual elevator 1 evaluates the subjective amount for the aptitude factor when the specification of the acoustic content 30 is changed. Note that FIG. 11 shows the acoustic content 30 when the comfort is evaluated to be the best based on the evaluation results of FIGS. 22 and 23.
  • the evaluation result by the SD method for evaluating the impression of the sound in a plurality of stages was used by using the plurality of adjective pairs shown in FIGS. 22 and 23.
  • the evaluation result of this factor analysis the acoustic content 30 according to the first embodiment has been highly evaluated.
  • FIGS. 22 and 23 show an example of an adjective pair used for evaluation of the SD method.
  • seven adjective pairs were used for the human subjective and physiological sound quality evaluation results of the SD method, and each was evaluated on a five-point scale.
  • the seven adjective pairs are specifically "safe-anxious”, “free-non-free”, “relaxed-tensioned”, “open-closed”, and “refreshing-annoying”. , "Wide-narrow”, “comfortable-unpleasant”.
  • comfort and a feeling of spaciousness are also evaluated.
  • FIGS. 22 and 23 show the results of an experiment conducted with 40 men and women of all ages.
  • the male-female ratio of the subjects is 1: 1, that is, the subjects include 20 males and 20 females.
  • 22 and 23 show the average of the results.
  • the adjective pair in FIGS. 22 and 23 the adjective on the left side is an adjective corresponding to "pleasant" or "good", and the adjective on the right side is an adjective corresponding to "unpleasant" or "bad".
  • the acoustic content radiated to the subject is as follows.
  • the additional sound of the acoustic contents (c) and (d) is the additional sound 32 of the above (4) (the bark of one or more birds) or the additional sound 32 of the above (5) (when the bird flies). The sound of the feathers).
  • the sound pressure level of the additional sound 32 is 3 dB lower than the sound pressure level of the additional sound 32 of the acoustic content (a).
  • the radiation interval of the additional sound 32 is shorter than the radiation interval of the additional sound 32 of the acoustic content (a).
  • FIG. 22 shows the subjective and physiological evaluation results of each subject for each acoustic content at that time by having the subject listen to the acoustic contents (a) to (d) in the car 5.
  • the result of the acoustic content (a) is the best
  • the acoustic content (b) is next
  • the result of the acoustic content (c) and (d) is general.
  • the worst in particular, in the acoustic content (a), many subjects had the impression of being "safe” and "open”.
  • the acoustic content (d) many subjects had the impression of "annoying" and "unpleasant”.
  • the acoustic content (c) many subjects had the impression that they were "tensioned” and "narrow.”
  • the acoustic content (a) which is the reference signal changes to the "unpleasant” element. That is, from the factor analysis results for each acoustic content shown in FIG. 22, it was confirmed that the acoustic content (a) clearly obtained better results than the other acoustic contents. Therefore, it was confirmed that the acoustic content 30 according to the first embodiment can give a sense of security, a sense of openness, and comfort to the subject.
  • transient signal changes such as bird barks or bird flying sounds contribute particularly to the "unpleasant" element.
  • the sound pressure level of the additional sound 32 of the bird's bark or the flying sound of the bird is small as in (c), even if the sound pressure level of the background sound 31 is the same, it is not possible to give comfort to the user. , Users tend to feel "unpleasant”.
  • the additional sound 32 of the bird's bark or the flying sound of the bird is frequently heard, the user has an impression that it is noisy and tends to feel "unpleasant".
  • the acoustic content radiated to the subject is as follows.
  • the acoustic content (a) is the same as the acoustic content (a) shown in FIG. 22.
  • the acoustic content (e) is pop music including vocal singing voice.
  • FIG. 23 shows the subjective and physiological evaluation results of each subject for each acoustic content at that time by having the subject listen to the acoustic contents (a), (e) and (f) in the car 5. ..
  • the result of the acoustic content (a) was the best, and the result of the acoustic content (e) and (f) was generally bad.
  • both the pop music of the acoustic content (e) and the symphony of the acoustic content (f) have "pleasant" evaluation results as compared with the acoustic content 30 composed of natural sounds.
  • the element changes from an element to an "unpleasant” element.
  • the symphony of the acoustic content (f) had many negative opinions that the subjects were "tensioned” and "narrow", and the result was that it was unsuitable for the basket 5. That is, from the factor analysis results for each acoustic content shown in FIG. 23, it was clearly confirmed that the acoustic content (a) obtained better results than the other acoustic contents. Therefore, it was confirmed that the acoustic content 30 composed of the "meaningless sound" according to the first embodiment can give a sense of security, a sense of openness, and comfort to the subject.
  • FIG. 24 is a diagram showing an example of a sound source of the additional sound 32 to be inserted into the acoustic content 30 for each season and each life time zone. As shown in FIG. 24, the type of the organism used for the additional sound 32 is changed for each season and each life time zone.
  • the background sound 31 is one of the above sound sources (1) to (3).
  • the season is “spring” and the life time zone is "early morning”
  • the background sound 31 of any of the above sound sources (1) to (3) sparrow, swallow, warbler, etc.
  • the acoustic content 30 to which at least one additional sound 32 of the velarifictorus vulgaris is added is created.
  • at least one of the water beetles, suzumushi, and matsumushi is added to the background sound 31 of any of the above sound sources (1) to (3).
  • the acoustic content 30 to which one additional sound 32 is added is created.
  • a plurality of different acoustic contents 30 are created in advance for each season and each living time zone and stored in the storage unit 21c.
  • the sound field control unit 21a acquires data of the current date and time from the timer unit 21d, and switches to the acoustic content 30 corresponding to the actual season and life time zone based on the data of the date and time.
  • a plurality of acoustic contents 30 may be prepared for each season and each living time zone, and the acoustic contents 30 may be switched according to the actual season and the living time zone. ..
  • a feeling of excitement can be obtained, and riding in the car 5 of the elevator 1 may be one of the pleasures. In this way, by switching the acoustic content 30, it is possible to further reduce the stress of the user.
  • a user in a closed space is used by playing a combination of a plurality of sound sources generated in the natural world and radiating them to a target closed space. It is possible to reduce the stress of.
  • the basic number of speaker cabinets 20 installed is two.
  • the acoustic content 30 is radiated from a plurality of directions to the target closed space, thereby forming a three-dimensional sound field environment. It is possible to obtain a more natural sound field feeling.
  • the number of speaker units 23 mounted on one speaker cabinet 20 may be two or more.
  • one speaker is a full-range speaker
  • the other speaker is a low-frequency speaker or a high-frequency speaker that is used as an auxiliary to the full-range speaker.
  • the speaker cabinet 20 alone can handle from low frequencies to high frequencies, and can radiate a wide frequency band finely.
  • the number of speaker cabinets 20 and speaker units 23 is not limited to these cases, and may be one. Even in that case, the storage unit 21c stores a plurality of sound sources generated in the natural world in advance, and the sound field control unit 21a reproduces the plurality of sound sources in combination to "heal" the user in the closed space. And it leads to “breathing", and it is possible to further reduce the stress of the user.
  • the radiation of the acoustic signal as described above causes a closed space, for example, from above the user's head or from the user's chest, such as in the car 5 of the elevator 1 where strangers often ride on each other. Create a sound field space in the upper position. As a result, the user can aurally feel that the narrow space is a wide space at the same time as getting into the car 5. As a result, it is possible to reduce the stress caused by "awkwardness" and "discomfort" when riding with a stranger in a narrow environment.
  • an acoustic signal based on the acoustic content 30 that combines sounds from a plurality of sound sources generated in the natural world is radiated from the speaker system 22.
  • the radiant sound of such natural sound utilization is heard by the user as a wide space even in a closed space, for example, in the car 5 of the elevator 1 where strangers often ride on each other. It is possible to make people feel like they are, and it is possible to reduce stress.
  • sounds in the natural world are "meaningless sounds", they are not affected by the genre of the user's preference, and it is unlikely that the user's preference will be divided.
  • the acoustic content 30 is a "meaningless sound"
  • the user does not particularly want to hear the acoustic content 30 from the beginning or listen to the acoustic content 30 to the end. Therefore, even if the user gets in or out of the car 5 during the reproduction of the acoustic content 30, the user is not given any special stress.
  • the storage unit 21c may store a plurality of sound sources generated in the natural world in advance instead of the acoustic content 30.
  • the sound field control unit 21a combines and reproduces two or more sound sources among those sound sources.
  • the sound field control unit 21a selects, for example, at least one of the backgrounds A to C of the sound sources (1) to (3) described above as the background sound 31. Further, the sound field control unit 21a selects at least one of the additional sounds A to D of the sound sources (4) to (7) described above as the additional sound 32.
  • the sound field control unit 21a combines and reproduces the selected background sound 31 and the selected additional sound 32 in synchronization with each other. As described above, by reproducing the background sound 31 and the additional sound 32 using the sound source generated in the natural world in combination, the stress reducing effect of the user in the closed space can be obtained.
  • the sound field control unit 21a when the sound field control unit 21a reproduces the sound sources stored in the storage unit 21c in combination, the sound field control unit 21a sets the time length for reproducing the background sound 31 and the additional sound 32 at the time of reproduction, for example. The time length of the above time division 33 described with reference to FIG. 11 is adjusted. Further, the sound field control unit 21a sets the reproduction time of one time to a maximum of 2 minutes, which is the same as that of the acoustic content 30, so that the reproduction is continuously repeated. Further, the sound field control unit 21a sets the prelude portion 34, the interlude portion 35, and the post-play portion 36 at the time of reproduction, and adjusts the sound pressure level and the time length thereof in the same manner as the acoustic content 30.
  • the sound field control unit 21a adjusts the sound pressure levels of the additional sound 32 so that the sound pressure level of the additional sound 32 is higher than that of the background sound 31 at the time of reproduction, as in the acoustic content 30. That is, the sound field control unit 21a adjusts the time length and the sound pressure level of the background sound 31 and the additional sound 32 at the time of reproduction so that the radiation is similar to the radiation of the acoustic content 30. In short, the difference is whether the acoustic content 30 is generated and reproduced in advance, or the acoustic content 30 is generated and reproduced. Therefore, the radiated acoustic signal is the same in each case.
  • the time length and sound pressure level are stored in advance in the storage unit 21c as a data table, and the sound field control unit 21a determines the time length of the background sound 31 and the additional sound 32 based on the data table. And the sound pressure level may be adjusted.
  • the acoustic content 30 or the sound source may be prepared for each season and the living time zone, and the acoustic content 30 or the sound source may be switched according to the actual season and the living time zone. good.
  • the user can feel the change of seasons and the change of the living time zone without giving the user a feeling of rut, and the user can "heal” and "take a break". Is likely to lead to. As a result, it leads to further reduction of stress of the user.
  • the closed space may be a waiting room of a hospital or a pharmacy.
  • the housing 25 of each speaker cabinet 20 is arranged on the upper surface of the ceiling plate of the waiting room. That is, the housing 25 of each speaker cabinet 20 is installed in the ceiling space above the ceiling plate.
  • the height at which the sound field 27 is generated is set to, for example, 1.2 m to 1.4 m in consideration of the user sitting on a chair.
  • the closed space may be the space inside a car or a train.
  • Automobiles include passenger cars and buses.
  • the closed space is an interior space of a passenger car such as a taxi
  • the housing 25 of each speaker cabinet 20 is arranged in the ceiling of the interior space or in the dashboard of the driver's seat.
  • the height at which the sound field 27 is generated is set to, for example, 1.2 m to 1.4 m in consideration of the user sitting in the seat of the passenger car.
  • the housing 25 of each speaker cabinet 20 is arranged in the ceiling of the space inside the car.
  • the height at which the sound field 27 is generated may be, for example, 1.6 m to 1.8 m according to the user standing in the car, but for example 1 according to the user sitting in the seat. It may be in the range of .2 m to 1.4 m.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Otolaryngology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Structural Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Civil Engineering (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Cage And Drive Apparatuses For Elevators (AREA)

Abstract

閉鎖空間用音響システムは、閉鎖空間に配置され、1以上のスピーカーユニットを搭載したスピーカーシステムと、自然界で発生する複数の音源を記憶する記憶部と、2以上の当該音源を組み合わせて再生し、組み合わせた音源に基づく音響信号を閉鎖空間に対してスピーカーシステムから放射させる音場制御部とを備えている。

Description

閉鎖空間用音響システム
 本開示は、エレベータのかご内などの閉鎖空間に音放射を行うための閉鎖空間用音響システムに関する。
 従来のエレベータのかごには、かご内の利用者に音声案内をするためのスピーカーが設けられている。また、非常時に利用者が外部の人と通話するためのインターホンがかご内に設置されている。これらのスピーカー及びインターホンは、例えばかご操作盤に設置されている。
 また、従来のエレベータの中には、音声案内だけでなく、BGM(Background Music)をかご内に流すものが提案されている(例えば、特許文献1参照)。当該エレベータでは、かご内に、1つのスピーカーと、BGMを再生するBGM再生装置とが設けられている。
 特許文献1に記載のエレベータでは、エレベータの走行中に、利用者が再生中のBGMを始めから聞きたいと思った場合に、戸開ボタンを一回押すことで、当該BGMを最初から再生することができる。また、利用者が、好みでないBGMを飛ばして次のBGMを聞きたいと思った場合には、エレベータの走行中に、戸閉ボタンを一回押すことで、次のBGMを最初から再生することができる。また、利用者が、再生中のBGMを聞きたくないと思った場合には、エレベータの走行中に、戸開ボタンを連続して二回以上押すことで、再生を停止させることができる。
 また、例えば特許文献2に記載のエレベータでは、複数のスピーカーが一定間隔で上下方向に直線状に配置されている。当該エレベータでは、例えば、かごが上方向に走行する場合には、最も上方に設置されたスピーカーから、最も下方に設置されたスピーカーへ向かって、音響信号を出力するスピーカーが順々に切り替えられていく。これにより、利用者は、音響信号が上から下へ移動したと感じる。逆に、かごが下方向に走行する場合には、最も下方に設置されたスピーカーから、最も上方に設置されたスピーカーへ向かって、音響信号を出力するスピーカーが順々に切り替えられていく。これにより、利用者は、音響信号が下から上へ移動したと感じる。このように、当該エレベータでは、音響信号を出力するスピーカーを順々に切り替えることで、利用者に対して、エレベータが上に走行中、または、下に走行中という感覚を与えることができる。これにより、利用者が視覚障害者の場合でも、エレベータの走行方向を認識することができる。
 一般に、エレベータのかごの内部空間は、ある程度の密閉性と静けさとを保つことが要求される。この他にも、電車、バス、タクシーなどの交通機関の車内空間、あるいは、病院または薬局の待合室などの待機空間も、同様である。そのような通常の居室空間とは異なる、特殊な狭い閉鎖空間においては、利用者は、面識のない人たちと一緒で、会話もままならない。その結果、利用者の多くは、「気まずさ」及び「不快感」を持ち、それらに起因するストレスが生じている。
特開2009-35340号公報 特許第5322607号公報
 特許文献1においては、エレベータ内の操作ボタンをBGMの再生または停止の操作に利用しているため、利用者は、操作ボタンを操作することでBGMの再生及び停止を自由に制御することができる。そのため、場合によっては、一部の利用者のいたずらでBGMの再生を勝手に行ってしまう可能性もある。その場合、同乗している他の利用者が、さらなる不快感を覚える可能性がある。また、常に同じBGMが使用されていたり、あるいは、利用者の好き嫌いに関係なくシステム側でBGMが選定されるため、利用者によっては音楽ジャンルの趣味が合わないなどの問題が発生する。その場合には、BGMの再生が騒音として利用者に捉えられる場合も考えられる。このように、特許文献1のBGMの再生では、利用者の「気まずさ」及び「不快感」に起因するストレスは低減できず、場合によっては、利用者のストレスが増加してしまう可能性もある。
 特許文献2では、上述したように、音の再生の目的が、利用者がエレベータの走行方向を音の移動で認識できることである。そのため、特許文献2では、利用者の「気まずさ」及び「不快感」に起因するストレスの低減は意図されていない。
 また、特許文献2に記載のエレベータにおいては、複数のスピーカーが上下方向に並んで配置されているため、かご内が満員の場合には、スピーカーからの放射音が、均一にすべての利用者の耳に到達することは無い。その理由について説明する。まず、利用者の近傍に設置されたスピーカーからの音は、当該利用者の身体に向かって放射される。このとき、当該利用者の身体そのものが「吸音素材」であるため、スピーカーから放射された音は、利用者の身体に吸音される。そのため、すべてのスピーカーからの放射音が均一に利用者の耳に到達することは無く、結果的に、利用者の身体の影響を受けないかご室内の上部のスピーカーからの音だけが利用者の耳に到達することになる。
 本開示は、かかる課題を解決するためになされたものであり、自然界で発生する複数の音源を組み合わせて再生することで、閉鎖空間内の利用者のストレスの低減を図ることが可能な、閉鎖空間用音響システムを得ることを目的とする。
 本開示に係る閉鎖空間用音響システムは、閉鎖空間に配置され、1以上のスピーカーユニットを搭載したスピーカーシステムと、自然界で発生する複数の音源を記憶する記憶部と、2以上の前記音源を組み合わせて再生し、組み合わせた前記音源に基づく音響信号を前記閉鎖空間に対して前記スピーカーシステムから放射させる音場制御部とを備えたものである。
 本開示に係る閉鎖空間用音響システムによれば、自然界で発生する複数の音源を組み合わせて再生し、対象となる閉鎖空間に対して放射することにより、閉鎖空間内の利用者のストレスの低減を図ることができる。
実施の形態1に係るエレベータ1の構成を示す斜視図である。 実施の形態1に係るエレベータ1のかご5の内部空間の様子を示す図である。 実施の形態1に係る音響システム13の構成を示す正面図である。 実施の形態1に係る音響システム13のスピーカーキャビネット20の配置を示す上面図である。 実施の形態1に係るスピーカーキャビネット20の構成の一例を示す側面図である。 図5のスピーカーキャビネット20の構成を示す正面図である。 実施の形態1に係るスピーカーキャビネット20の変形例の構成を示す側面図である。 図7のスピーカーキャビネット20の構成を示す正面図である。 実施の形態1に係る音響システム13の変形例の構成を模式的に示す正面図である。 実施の形態1に係る音響システム13のさらなる変形例の構成を模式的に示す平面図である。 実施の形態1に係る音響コンテンツ30の構成の一例を示す図である。 図11の(B)点位置の時間波形をFFT処理したときの瞬時周波数特性を示す図である。 図11の(A)点位置の時間波形をFFT処理したときの瞬時周波数特性を示す図である。 実施の形態1に係る音響コンテンツ30に含まれる音源に対して信号処理を行った場合の一例を示す図である。 実施の形態1に係るパン処理の原理について説明する図である。 実施の形態1に係る音響コンテンツ30に含まれる音源に対して信号処理を行った場合の一例を示す図である。 実施の形態1に係るステレオ拡張処理の原理について説明する図である。 実施の形態1に係るスピーカーユニットと利用者との位置関係を示す上面図である。 実施の形態1に係る直接音およびクロス音の波形を示した図である。 2つの信号間の時間差を説明する図である。 位相制御処理後の音波の波形の一例を示す図である。 SD法による人間の主観的及び生理的な評価結果を示す概略図である。 SD法による人間の主観的及び生理的な評価結果を示す概略図である。 季節ごと、及び、生活時間帯ごとに、音響コンテンツ30に挿入する付加音32の例を示した図である。
 以下、本開示に係る閉鎖空間用音響システムの実施の形態について図面を参照して説明する。本開示は、以下の実施の形態に限定されるものではなく、本開示の主旨を逸脱しない範囲で種々に変形することが可能である。また、本開示は、以下の実施の形態及びその変形例に示す構成のうち、組み合わせ可能な構成のあらゆる組み合わせを含むものである。また、各図において、同一の符号を付したものは、同一の又はこれに相当するものであり、これは明細書の全文において共通している。なお、各図面では、各構成部材の相対的な寸法関係または形状等が実際のものとは異なる場合がある。
 実施の形態1.
 実施の形態1に係る閉鎖空間用音響システムは、ある程度の密閉性及び静けさを保つことが要求される閉鎖空間に適用される。当該閉鎖空間の例としては、例えば、エレベータのかごの内部空間、電車、バス、タクシーなどの交通機関の車内空間、あるいは、病院または薬局の待合室などの待機空間などが挙げられる。すなわち、実施の形態1に係る閉鎖空間用音響システムが適用される閉鎖空間は、通常の居住空間とは異なる、特殊な狭い閉鎖空間である。更に、具体的に言えば、実施の形態1に係る閉鎖空間は、2人以上の人間が存在可能な空間であり、出入口が閉鎖される構成を有し、一定時間、原則として、内部に存在している人が外部に出られないような空間をいう。以下では、当該閉鎖空間として、エレベータのかご内の空間を例に挙げて説明する。
 図1は、実施の形態1に係るエレベータ1の構成を示す斜視図である。図1に示すように、エレベータ1は建物内に設置され、昇降路2内を上昇または下降する。昇降路2の上部には、巻上機3が設けられている。巻上機3に設けられた綱車3aには、主ロープ4が掛け渡されている。主ロープ4の両端には、それぞれ、かご5と釣り合いおもり6とが連結されている。かご5と釣り合いおもり6とは、主ロープ4により、綱車3aにつるべ式に吊り下げられている。また、昇降路2の上部には、エレベータ制御盤7が設置されている。エレベータ制御盤7は、通信線を介して巻上機3に接続されるとともに、制御ケーブル8を介してかご5に接続されている。制御ケーブル8は、かご5へ電力と制御信号とを伝送する。制御ケーブル8は、テールコードとも呼ばれる。
 かご5は、4枚の側板5aと、床板5bと、天井板5cとで構成されている。4枚の側板5aは、それぞれ、かご5の右側、左側、前側、後側に配置されている。また、4枚の側板5aのうちの前側の側板5aには、かご扉5dが設置されている。かご5が各階床の乗場に停車したとき、かご扉5dは、乗場に設置された乗場扉(図示せず)と係合して、開閉動作を行う。
 かご5の天井板5cの上面には、図1に示すように、かご制御装置9と音場制御装置21とが設置されている。かご制御装置9は、かご5に設けられた各装置の動作の制御を行う。かご5に設けられた装置としては、かご扉5d、照明装置5e(図2参照)、かご操作盤5f(図2参照)などが挙げられる。音場制御装置21は、かご5の内部空間全体に、立体的な音場27(図3参照)を形成するように、後述する閉鎖空間用音響システム13(図3参照)の動作全般の制御を行う。以下では、閉鎖空間用音響システム13を、単に、音響システム13と呼ぶ。
 かご5の天井板5cの下面には、図1に示すように、吊り天井10が固定されている。吊り天井10は、かご5の内部空間に位置している。吊り天井10は、直方体の形状を有している。吊り天井10は、4つの側面10aと下面10b(図2参照)とを有している。また、吊り天井10は、下面10bと対向して配置される上面を更に有していてもよい。吊り天井10の内部空間には、照明装置5e(図2参照)と、緊急用スピーカー5g(図2参照)と、音響システム13(図3参照)のスピーカーシステム22とが設置されている。なお、上記の説明においては、音場制御装置21が、図1に示すように、かご5の天井板5cの上面に設置されていると説明したが、音場制御装置21も吊り天井10の内部空間に配置されていてもよい。吊り天井10の側面10aとかご5の側板5aとの間には、一定距離Dの空隙11(図2及び図3参照)がある。以下では、一定距離Dを、第1距離Dと呼ぶ。
 なお、図1の例では、エレベータ1がロープ式エレベータの場合を示しているが、この場合に限定されない。エレベータ1は、例えば、リニア式エレベータなどの他のタイプのエレベータであってもよい。
 図2は、実施の形態1に係るエレベータ1のかご5の内部空間の様子を示す図である。図2に示すように、かご5の内部空間は、4つの側板5aと、床板5bと、吊り天井10の下面10bとによって囲われている。かご5の内部空間は、例えば、直方体状の形状である。床板5bは、水平な方向に設置された矩形の平面で構成されている。各側板5aは、垂直な方向に設置された矩形の平面で構成されている。ここで、垂直な方向とは、例えば鉛直方向である。吊り天井10の下面10bは、床板5bに対向して配置されている。吊り天井10の下面10bは、水平な方向に設置された矩形の平面で構成されている。吊り天井10には、照明装置5eが設けられている。照明装置5eの本体は、吊り天井10の内部空間に設置されている。照明装置5eは、例えば、LED照明装置である。照明装置5eの照射面5eaは、図2に示すように、床板5bに対向している。照明装置5eは、照射面5eaから照射された光によってかご5の内部空間を照らす。更に、吊り天井10には、建物の管理室からの緊急連絡を流すための緊急用スピーカー5gが設けられている。緊急用スピーカー5gは、緊急連絡だけでなく、「ドアが閉まります」などの利用者への音声メッセージを流すために用いられてもよい。
 4つの側板5aのうちの前側の側板5aには、上述したように、かご扉5dが設けられている。また、当該前側の側板5aには、図2に示すように、かご操作盤5fが設けられている。かご操作盤5fには、各階床に対応して設けられた複数のかご呼び登録釦と、かご扉5dの開閉動作を制御する扉開閉釦とが設けられている。更に、かご操作盤5fには、非常時等に利用者が外部との通信を行うためのインターホン装置5hが設けられている。
 図2に示すように、かご制御装置9は、例えば制御ケーブル8(図1参照)を介して、エレベータ制御盤7に接続されている。かご制御装置9は、図2に示すように、入力部9aと、制御部9bと、出力部9cと、記憶部9dとを有している。入力部9aは、エレベータ制御盤7からの制御信号を制御部9bに入力する。制御部9bは、当該制御信号に基づいて、かご5に設けられた各装置の動作の制御を行う。出力部9cは、制御部9bの制御により、各装置に対して駆動信号を出力する。また、出力部9cは、かご操作盤5fに対して利用者から入力されたかご呼び登録などの信号を、制御部9bの制御により、エレベータ制御盤7に送信する。記憶部9dは、制御部9bの演算結果、並びに、制御部9bの制御で用いられる各種データ及びプログラムなどを記憶している。
 音場制御装置21は、音響システム13の構成要素の1つである。音場制御装置21と後述するスピーカーシステム22とで、音響システム13を構成している。音場制御装置21は、図2に示すように、音場制御部21aと、出力部21bと、記憶部21cと、タイマ部21dとを有している。音場制御部21aは、かご5の内部空間に、高音質の音場を形成するように、音響システム13の動作を制御する。出力部21bは、音場制御部21aの制御により、スピーカーキャビネット20に対して駆動信号及び音響信号の再生データを送信する。記憶部21cは、例えば自然界で発生する複数の音源を記憶している。なお、記憶部21cは、自然界で発生する複数の音源からの音を組み合わせた音響コンテンツ30(図11参照)を予め記憶していてもよい。記憶部21cは、更に、音場制御部21aの演算結果、並びに、音場制御部21aの制御で用いられる各種データ及びプログラムなどを記憶している。音場制御部21aは、記憶部21cに記憶された音源を組み合わせて再生し、当該音源に基づく音響信号をかご5の内部空間に対してスピーカーシステム22から放射させる。また、記憶部21cが音響コンテンツ30を記憶している場合には、音場制御部21aは、記憶部21cに記憶された音響コンテンツ30を再生し、音響コンテンツ30に基づく音響信号をかご5の内部空間に対してスピーカーシステム22から放射させる。いずれの場合においても、音場制御部21aは、組み合わされた2以上の音源に基づく音響信号をかご5の内部空間に対してスピーカーシステム22から放射させる。タイマ部21dは、現在の日時をカウントして、現在の日時データを保持している。タイマ部21dは、日時データとして、年間カレンダにおける月日のデータと、時刻のデータとを有している。音場制御部21aは、タイマ部21dから日時データを取得し、当該日時データに基づいて、音響コンテンツ30を、季節及び生活時間帯で切り替えるようにしてもよい。
 記憶部21cが音響コンテンツ30を記憶している場合、音響コンテンツ30は、例えば外部に設置された音響コンテンツ生成装置40で生成されて、音場制御装置21の記憶部21cに予め記憶される。音響コンテンツ生成装置40は、自然界で発生する複数の音源を組み合わせて音響コンテンツ30を生成する。音響コンテンツ生成装置40は、音響コンテンツ30に対して信号処理を施す信号処理部40bを有している。信号処理部40bは、自然界で発生する複数の音源を組み合わせて音響コンテンツ30を生成する際に、必要に応じて、1以上の信号処理を行う。信号処理を行うタイミングは、音源を組み合わせる前でも後でもよい。すなわち、複数の音源を組み合わせた後に信号処理を行ってもよいし、逆に、複数の音源からの音を信号処理した後に、信号処理後の音を組み合わせてもよい。信号処理としては、後述する時間区分33の時間長の設定、前奏部分34等の生成、音圧レベルの調整、位相制御処理など、複数の処理が挙げられる。当該信号処理については、後述する。また、音響コンテンツ生成装置40は、出力部40a、記憶部40c、及び、入力部40dを有している。入力部40dには、自然界で発生する音源からの音データが入力される。当該音データは、自然界で実際に録音したデータを基に作成されたものでもよいが、人工的に作成された疑似データでもよい。出力部40aは、生成した音響コンテンツ30を出力する。記憶部40cは、信号処理部40bの演算結果、並びに、信号処理部40bの制御で用いられる各種データ及びプログラムなどを記憶している。
 ここで、かご制御装置9のハードウェア構成について説明する。かご制御装置9における入力部9a、制御部9b、及び、出力部9cの各機能は、処理回路により実現される。処理回路は、専用のハードウェア、または、プロセッサから構成される。専用のハードウェアは、例えば、ASIC(Application Specific Integrated Circuit)またはFPGA(Field Programmable Gate Array)などである。プロセッサは、メモリに記憶されるプログラムを実行する。記憶部9dはメモリから構成される。メモリは、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)などの不揮発性または揮発性の半導体メモリ、もしくは、磁気ディスク、フレキシブルディスク、光ディスクなどのディスクである。
 また、音場制御装置21のハードウェア構成について説明する。音場制御装置21における音場制御部21a、出力部21b、及び、タイマ部21dの各機能は、処理回路により実現される。処理回路は、専用のハードウェア、または、プロセッサから構成される。専用のハードウェア及びプロセッサは、上記と同じでよいため、説明を省略する。記憶部21cはメモリから構成される。メモリは、上記と同じでよいため、説明を省略する。
 また、音響コンテンツ生成装置40のハードウェア構成について説明する。音響コンテンツ生成装置40における出力部40a、信号処理部40b、及び、入力部40dの各機能は、処理回路により実現される。処理回路は、専用のハードウェア、または、プロセッサから構成される。専用のハードウェア及びプロセッサは、上記と同じでよいため、説明を省略する。記憶部40cはメモリから構成される。メモリは、上記と同じでよいため、説明を省略する。
 図3は、実施の形態1に係る音響システム13の構成を示す正面図である。図4は、実施の形態1に係る音響システム13のスピーカーキャビネット20の配置を示す上面図である。図3及び図4において、かご5の高さ方向をY方向とし、かご5の幅方向をX方向とし、かご5の奥行き方向をZ方向とする。Y方向は、例えば、鉛直方向である。また、図4に示すように、かご5内の左右前後をそれぞれ定義すると、X方向は、かご5の左右方向であり、Z方向は、かご5の前後方向である。
 図3に示すように、音響システム13は、閉鎖空間の天井に配置されたスピーカーシステム22と、音場制御装置21とから構成されている。スピーカーシステム22は、1つ以上のスピーカーキャビネット20を含んでいる。また、各スピーカーキャビネット20は、1つ以上のスピーカーユニット23を搭載している。音響システム13は、かご5の利用者に対して、音場27を形成して、音の放射を行う。実施の形態1では、当該音として、例えば、川のせせらぎ、鳥のさえずり、など、自然界で自然に発生する複数の音源からの音を用いて、それらの音を組み合わせて形成された音響コンテンツを用いる。実施の形態1では、閉鎖空間内に、2チャンネル再生以上の音場環境を作り出し、当該音場環境内で、自然界の音源からの音を基にした音響コンテンツ30(図11参照)を再生する。これにより、閉鎖空間に対して、複数方向から音響コンテンツ30が放射でき、閉鎖空間内の利用者の聴覚的感性に対して「快適感」を与えることができる。その結果、狭空間滞在時のストレスなどの不快要素を低減することができる。
 音響コンテンツ30は、例えば日本国内の生活者であれば、誰でも体感することができる春夏秋冬などの季節と、明け方、昼間、夕方、夜間などの生活時間帯とを、音から感じることができるように構成されている。音響コンテンツ30の構成については後述する。これにより、利用者は、たとえ外部環境を見ることができない閉鎖空間を利用しても、時間帯の感覚及び季節感を「音」から得ることができる。また、音響コンテンツ30は、喧騒感などが無く、騒音などの不快要因を排除したコンテンツ構成によって、聴覚的な不快感を得ないようにしている。具体的には、音響コンテンツ30は、自然界で自然に発生している、風または川の流れ、鳥の声などの、音源種類、時間帯、及び、周波数帯域の複合組合せにより構成されている。
 実施の形態1では、図3に示すように、スピーカーシステム22に含まれるスピーカーキャビネット20の個数は2個である。しかしながら、スピーカーキャビネット20の個数は、これに限定されず、1以上の任意の個数であってよい。これにより、閉鎖空間内に、1チャンネル再生以上の音場27を形成することができる。各スピーカーキャビネット20は、図3に示すように、吊り天井10の内部空間に設置されている。各スピーカーキャビネット20は、スピーカーユニット23と、筐体25とから構成されている。なお、実施の形態1では、スピーカーシステム22がスピーカーキャビネット20を含むとして説明したが、その場合に限定されない。すなわち、スピーカーシステム22は、スピーカーキャビネット20を含まずに、1以上のスピーカーユニット23のみを含んでいてもよい。また、実施の形態1では、スピーカーユニット23及びスピーカーキャビネット20が吊り天井10に配置されているとして説明したが、その場合に限定されない。すなわち、スピーカーユニット23及びスピーカーキャビネット20は、かご5の側板5aなどの他の位置に配置されていてもよい。
 図5は、実施の形態1に係るスピーカーキャビネット20の構成の一例を示す側面図である。図6は、図5のスピーカーキャビネット20の構成を示す正面図である。図5及び図6に示すように、スピーカーキャビネット20は、スピーカーユニット23と筐体25とから構成されている。スピーカーユニット23は、筐体25の中に収容されている。スピーカーユニット23は、筐体25の正面25aに設けられ、外部に向けて音を放射させる放射面23aを有している。筐体25は、例えば直方体の形状を有している。筐体25は、空中の密閉装置である。スピーカーユニット23の放射面23aは、筐体25の正面25aに設けられた設置孔に嵌合され、設置孔から外部に露出している。スピーカーユニット23の他の部分は、すべて、筐体25内に設置されている。従って、スピーカーユニット23の放射面23aからの音は、図5の矢印A方向のみに放射され、放射面23a以外の筐体25の他の部分を介して外部に放射されることはない。
 図7は、実施の形態1に係るスピーカーキャビネット20の変形例の構成を示す側面図である。図8は、図7のスピーカーキャビネット20の構成を示す正面図である。図7及び図8に示すように、スピーカーキャビネット20は、筐体25内に、2以上のスピーカーユニット23を収容していてもよい。この場合、例えば、一方のスピーカーユニット23-1をフルレンジスピーカーとし、他方のスピーカーユニット23-2をツイーターとしてもよい。フルレンジスピーカーとは、低域から高域までを1つのスピーカーで再現するものである。本開示の実施の形態において、スピーカーキャビネット20の筐体25内に1つのスピーカーユニット23が収容されている場合、当該スピーカーユニット23は、フルレンジスピーカーとする。また、ツイーターとは、フルレンジスピーカーの補助として用いられる低域専用のスピーカーである。低域から高域までを1つのスピーカーで再現するのは難しく、音質が不十分になってしまう場合が想定される。そのような場合に、それを補うために、ツイーターが使用される。筐体25内に配置される2以上のスピーカーユニット23は、このように、異なる種別のものを用いてもよく、あるいは、同一の種別のものを用いてもよい。但し、1つのスピーカーをフルレンジスピーカーにし、他のスピーカーを、フルレンジスピーカーの補助として用いられる低域専用または高域専用のスピーカーにすることが望ましい。その場合には、低域から高域までの広い周波数帯域に対応可能で、且つ、細かい周波数帯域ごとの音放射が可能になる。このように、1つのスピーカーキャビネット20が複数のスピーカーユニット23を有している場合には、スピーカーキャビネット20単体で、音質感の向上及び再生帯域の拡大を図ることができる。その結果、広い周波数帯域をカバーすることができる「高音質システム」を容易に得ることができる。
 [間接的な音放射]
 図3及び図4の説明に戻る。図3及び図4に示すように、スピーカーキャビネット20は、吊り天井10の内部空間に配置されている。吊り天井10のY方向(かご5の高さ方向)の高さは、例えば5cm程度である。従って、図3に示すように、スピーカーキャビネット20の筐体25のY方向(かご5の高さ方向)の高さH1は、5cm以下である。このように、筐体25の高さH1は、吊り天井10のY方向(かご5の高さ方向)の高さによって制限される。また、スピーカーユニット23の放射面23aは、図3及び図4に示すように、かご5の側板5aに対向するように配置されている。放射面23aは、吊り天井10の側面10aの縁に沿って配置されている。放射面23aは、図4に示すように、吊り天井10の側面10aと同じ平面内に位置している。従って、放射面23aのX方向(かご5の幅方向)の位置は、吊り天井10の側面10aのX方向の位置と一致またはほぼ一致している。吊り天井10の側面10aには、放射面23aの位置に合わせて、開口が設けられている。なお、吊り天井10の側面10a全体が、開口状態となっていてもよい。従って、放射面23aから放射された音は、吊り天井10の側面10aによって遮蔽されない。また、上述したように、吊り天井10の側面10aとかご5の側板5aとの間には、第1距離Dの空隙11がある。第1距離Dは、5cm程度である。なお、第1距離Dは、2cm~20cmの範囲で適宜設定され、望ましくは、3cm~10cmの範囲で、エレベータ1のかご5の仕様に合わせて適宜設定される。図3及び図4に示すように、スピーカーユニット23の放射面23aから放射される音は、矢印A方向に放射される。その後、当該音は、かご5の側板5aで反射されて、反射音となる。反射音は、図3及び図4に示すように、矢印B方向に進む。このように、実施の形態1では、スピーカーユニット23が、かご5の側板5aの反射を利用して、利用者に対して音放射を行う「間接的な音放射」を行っている。
 実施の形態1では、スピーカーユニット23の放射面23aを、第1距離Dを有した空隙11を介して、かご5の側板5aに対向させて、かご5の側板5aに近接して配置している。第1距離Dは、上述したように、例えば5cm程度である。そのため、スピーカーユニット23の放射面23aから放射された音は、音圧レベルが低下する前に、放射直後に、かご5の側板5aで反射される。
 また、図4に示すように、スピーカーキャビネット20は、吊り天井10のZ方向(かご5の奥行き方向)の中央部よりも後側に配置されている。なお、スピーカーキャビネット20のZ方向の位置は、これに限定されず、吊り天井10のZ方向の中央部に設置されてもよく、あるいは、吊り天井10のZ方向の中央部よりも前側に設置されてもよい。また、図3に示すように、スピーカーキャビネット20は、吊り天井10のY方向(かご5の高さ方向)の中央部分に配置されている。なお、スピーカーキャビネット20のY方向の位置は、これに限定されず、吊り天井10のY方向の中央部分よりも上側であっても、中央部分より下側であってもよい。
 図4に示す、2つのスピーカーキャビネット20のうち、一方のスピーカーキャビネット20に設けられたスピーカーユニット23を、スピーカーユニット23Rと呼ぶ。また、スピーカーキャビネット20に設けられたスピーカーユニット23を、スピーカーユニット23Lと呼ぶ。スピーカーユニット23Rとスピーカーユニット23Lとは、互いに離間して配置されている。なお、スピーカーユニット23Rを収容しているスピーカーキャビネット20とスピーカーユニット23Lを収容しているスピーカーキャビネット20とは、吊り天井10のX方向の中央部分を中心にして一定距離だけ離して配置されている。当該一定距離を、第2距離D2と呼ぶ。第2距離D2は、かご5のX方向の寸法と、第1距離Dと、筐体25のX方向の寸法とから、決定される。スピーカーユニット23Rとスピーカーユニット23Lとは、背面同士が対向するように配置されている。従って、図4に示すように、スピーカーユニット23Rの放射面23aは、かご5の右側の側板5aに対向して配置されている。一方、スピーカーユニット23Lの放射面23aは、かご5の左側の側板5aに対向して配置されている。スピーカーユニット23R及び23Lの放射面23aのそれぞれは、空隙11に面して配置されている。スピーカーユニット23R及び23Lの放射面23aのそれぞれは、吊り天井10の左右の側面10aと同じ平面内に配置されている。
 エレベータ1のかご5内では、利用者は、一般的に、かご扉5dの方向を向いて立っている。そのため、利用者の右耳には、主に、スピーカーユニット23Rから放射された音が到達し、利用者の左耳には、主に、スピーカーユニット23Lから放射された音が到達する。以下では、スピーカーユニット23Rから放射された音を「右側の音」と呼び、スピーカーユニット23Lから放射された音を「左側の音」と呼ぶこととする。
 [直接的な音放射]
 スピーカーキャビネット20の設置向きは、図3及び図4の場合に限定されない。図9は、実施の形態1に係る音響システム13の変形例の構成を模式的に示す正面図である。
 図9では、2つのスピーカーユニット23R-1および23L-1は、かご5の床板5bに対向して設けられている。従って、スピーカーユニット23R-1および23L-1の放射面23aは、図9に示すように、かご5の床板5bに対向して配置されている。なお、スピーカーユニット23R-1を収容しているスピーカーキャビネット20とスピーカーユニット23L-1を収容しているスピーカーキャビネット20とは、吊り天井10のX方向の中央部分を中心にして一定距離だけ離して配置されている。当該一定距離を、第3距離D3と呼ぶ。第3距離D3は、図4に示す第2距離D2と同じであっても、異なっていてもよい。
 図9に示すように、スピーカーユニット23R-1および23L-1の放射面23aのそれぞれは、吊り天井10の下面10bと同じ平面内に配置されている。従って、各放射面23aのY方向(かご5の高さ方向)の位置は、吊り天井10の下面10bのY方向の位置と一致またはほぼ一致している。また、スピーカーユニット23R-1および23L-1の放射面23a部分は、吊り天井10の下面10bに設けられた取付孔に嵌合されている。スピーカーユニット23R-1および23L-1の放射面23aのそれぞれは、当該取付孔から外部に露出している。従って、スピーカーユニット23R-1および23L-1の放射面23aのそれぞれから放射された音は、吊り天井10の下面10bで遮蔽されない。
 図9に示すように、スピーカーユニット23R-1および23L-1から放射される音は、矢印A方向に、放射面23aから放射される。このように、スピーカーユニット23R-1および23L-1は、吊り天井10から、利用者に対して、直接的に音放射を行う「直接的な音放射」を行っている。
 [間接的な音放射と直接的な音放射との組み合わせ]
 また、図10は、実施の形態1に係る音響システム13のさらなる変形例の構成を模式的に示す平面図である。図10は、床板5b側から吊り天井10の下面10bを見た状態を示している。図10では、4つのスピーカーユニット23R-1、23R-2、23L-1、23L-2が設けられている。図10では、4つのスピーカーユニット23R-1、23R-2、23L-1、23L-2のうち、2つのスピーカーユニット23R-2および23L-2が、かご5の前側の側板5aに対向して設けられている。また、他の2つのスピーカーユニット23R-1および23L-1が、かご5の床板5bに対向して設けられている。従って、スピーカーユニット23R-1および23L-1の放射面23aは、図9に示すように、かご5の床板5bに対向して配置されている。
 更に詳細に説明する。図10に示すように、前側の2つのスピーカーユニット23R-2および23L-2が、かご5の前側の側板5aに対向して設けられている。スピーカーユニット23R-2を収容しているスピーカーキャビネット20とスピーカーユニット23L-2を収容しているスピーカーキャビネット20とは、吊り天井10のX方向の中央部分を中心にして一定距離だけ離して配置されている。当該一定距離は、例えば、図9に示した第3距離D3と同じでよく、異なっていてもよい。
 従って、スピーカーユニット23R-2および23L-2の放射面23aのそれぞれは、かご5の側板5aに対向するように配置されている。また、放射面23aのそれぞれは、吊り天井10の側面10aの辺に沿って配置されている。従って、各放射面23aのZ方向(かご5の奥行き方向)の位置は、吊り天井10の側面10aのZ方向の位置と一致またはほぼ一致している。
 上述したように、吊り天井10の側板とかご5の側板5aとの間には、第1距離Dの空隙11がある。図10に示すように、スピーカーユニット23R-2および23L-2から放射される音は、矢印A方向に、放射面23aから放射される。その後、当該音は、かご5の側板5aで反射されて、反射音となる。反射音は、図10に示すように、矢印B方向に進む。このように、スピーカーユニット23R-2および23L-2は、かご5の側板5aの反射を利用して、吊り天井10から利用者に対して音放射を行う「間接的な音放射」を行っている。
 一方、後ろ側の2つのスピーカーユニット23R-1および23L-1は、図9を用いて上述したように、かご5の床板5bに対向して設けられている。従って、上述したように、後ろ側の2つのスピーカーユニット23R-1および23L-1は、吊り天井10から、利用者に対して、直接的に音放射を行う「直接的な音放射」を行っている。実施の形態1においては、図10の変形例のように、「間接的な音放射」と「直接的な音放射」とを混合して行うようにしてもよい。なお、この場合、図10において、スピーカーユニット23R-2および23L-2の代わりに、図4に示したスピーカーユニット23R及び23Lを設けるようにしてもよい。
 スピーカーユニット23は、かご5内の吊り天井10の下面10bの任意の場所に設置してよい。設置パターンとしては、例えば、図4に示すように右側と左側とに配置する場合、あるいは、前側と後側とに設置する場合、吊り天井10の下面10bの角と角とに設置する場合などがあり、それらの場合の組み合わせも自由である。ただし、スピーカーユニット23同士は、或る程度、離れている方が、音質がよくなる。そのため、実施の形態1では、スピーカーユニット23を収容しているスピーカーキャビネット20同士を、第2距離D2又は第3距離D3だけ離間して配置している。
 [スピーカーキャビネットの設置高さ]
 かご5の床板5b内にスピーカーキャビネット20を設置する場合もあり得る。しかしながら、利用者の身体そのものが吸音体および反射体となるため、利用者が多くなると、利用者の足元から放射された音響信号は、利用者の耳位置まで到達することが困難になる。その結果、かご5内に、高音質な音響再生に基づく音場27を作り出すことはできない。よって、実施の形態1では、高音質再生を実現するために、利用者の胸より上となる位置にスピーカーキャビネット20を設置することを基本とする。従って、スピーカーキャビネット20は、吊り天井10、又は、かご5の側板5aの上部などに設置することが望ましい。
 [音場]
 音響システム13が生成する音場27は、例えば、図3の破線で示される範囲である。具体的には、音場27の下限27aの高さH2は、かご5の床板5bから例えば1.0m~1.7m程度であり、望ましくは、1.6mである。また、音場27の上限の高さは、かご5の床板5bから例えば1.8mである。このように、音場27は、床板5bからの高さが、1.6mから1.8mまでの範囲に形成されることが望ましい。このように、音場27は、かご5内において、下限27aよりも上の部分に生成される。その結果、音場27は、図3に示すように、利用者の頭周辺に形成される。なお、音場27の下限27aの高さH2は、利用者(中学生以下を除く)の平均的な身長高に基づいて設定される。なお、床板5bからの高さが0mから1.6m未満までの範囲は、上述したように、かご5内に複数の利用者が乗っている場合には、利用者の身体によって音が遮蔽または吸収されるため、良好な音場を形成することはできない。また、床板5bからの高さが1.8mを超えた範囲では、音場27が利用者の頭上に偏って形成されるため、利用者にとって聴感的な聞き取りにくさが生じる。音場27の生成範囲は、1.6m~1.8mの範囲に生成される場合に限定されない。すなわち、利用者(中学生以下を除く)の平均的な身長高に基づいて、利用者の胸より上の範囲に音場27が生成されればよいため、音場27の下限27aの高さH2は、かご5の床板5bから例えば1.0m~1.7mの範囲であることが望ましい。
 [音響コンテンツの構成]
 次に、実施の形態1に係る音響コンテンツ30の構成について説明する。音響コンテンツ30は、音場制御部21aの制御により、スピーカーシステム22から放射される音響信号である。図11は、実施の形態1に係る音響コンテンツ30の構成の一例を示す図である。図11の上段は、図4に示したスピーカーユニット23Lから放射される音響コンテンツ30を示し、図11の下段は、図4に示したスピーカーユニット23Rから放射される音響コンテンツ30を示している。スピーカーユニット23Lから放射される音響コンテンツ30と、スピーカーユニット23Rから放射される音響コンテンツ30とは、図11に示すように異なっていてもよいが、同じであってもよい。図11において、横軸は時間を示し、縦軸は音圧レベルを示している。図11に示すように、音響コンテンツ30は、バックグラウンド音31と、バックグラウンド音31に付加される付加音32とを含んでいる。音響コンテンツ30は、複数の時間区分33に分割されている。図11では、時間区分33の区切りを破線で示している。図11の例では、音響コンテンツ30の全時間長は90secであり、当該全時間長が12個の時間区分33に分割されている。時間区分33の個数は、これに限定されず、適宜設定される。
 また、各時間区分33の時間長は、すべて同一ではなく、少なくとも2種類の時間長に設定されている。図11において、「2S」、「8S」、「5S」などの時間表記は、各時間区分33における時間長を示している。例えば、「2S」は2秒を意味する。このように、各時間区分33は、適宜設定された時間長がそれぞれ与えられている。図11の例では、時間長の種類としては、「2S」、「5S」、「7S」、「8S」、「9S」、「15S」の少なくとも6種類が含まれている。
 バックグラウンド音31は、複数の時間区分33の全てに亘って連続して放射されるように設定されている。また、付加音32は、各時間区分33に対して個別に設定されて、時間区分33ごとにそれぞれ放射される。付加音32は、バックグラウンド音31に比べて、音圧レベルが大きくなっている。また、図11の例に示されるように、付加音32は、全ての時間区分33に対して設定されておらず、付加音32が設定されていない時間区分33も設けられている。図11の例では、付加音32が付加された「付加音有り」の時間区分33(以下、「第1時間区分」と呼ぶ)と、付加音32が付加されていない「付加音無し」の時間区分33(以下、「第2時間区分」と呼ぶ)とが交互に配置されている。この理由としては、全ての時間区分33に対して付加音32を設けると、利用者に「うるさい」という印象を与える可能性が高いためである。実施の形態1では、利用者に「快い」という印象を与えるために、隣接した時間区分33の少なくともいずれか一方が、「付加音無し」の第2時間区分になるように、各時間区分33を配置している。すなわち、隣接する「付加音有り」の第1時間区分の間には、少なくとも1つの「付加音無し」の第2時間区分が配置されている。一方、「付加音無し」の第2時間区分については、連続して2つ以上配置されていてもよい。
 また、音響コンテンツ30は、1以上の時間区分33を含む前奏部分34と、1以上の時間区分を含む後奏部分36と、前奏部分34と後奏部分36との間に設定され、1つの時間区分を含む中間奏部分35とを有している。図11の例では、前奏部分34が5個の時間区分33を含み、中間奏部分35が1個の時間区分33を含み、後奏部分36が6個の時間区分33を含んでいる。これらの時間区分の個数は、単なる一例であり、これに限定されない。また、中間奏部分35が1個の時間区分33を含んでいると説明したが、中間奏部分35が、2個以上の時間区分33を含んでいてもよい。
 音響コンテンツ30の仕様について、図11を用いて、更に詳細に説明する。
 図11は、複数の音源を組合せてミックスダウンした基本音源となる音響コンテンツ30の時間変化を示している。
 [音響コンテンツの全時間長]
 実施の形態1において、音響コンテンツ30(すなわち、音響信号)の全時間長は2分以内とする。すなわち、音響コンテンツ30の全時間長は、最大で2分(すなわち、120秒)である。エレベータ1のかご5の上下移動時間はビルの高さに依存するが、高層ビルであっても、かご5の移動時間は凡そ2分以下である場合が多い。その理由は次の通りである。かご5内の空間は密閉された閉鎖空間である。密閉された閉鎖空間に、利用者を長時間、拘束するような条件下であっては、利用者は動くことさえままならない状態であるために、ストレス状態が続くことになる。更に、かご5内では、閉鎖空間において見知らぬ人同士が非常に近い位置関係にあるため、防犯的な知見からも好ましくない状態であると言える。そのため、エレベータ1のかご5の実走時間は90秒以内に制限されることが多く、超高層ビルであっても、90秒以内~120秒以内に制限されている。よって、実施の形態1では、1つの音響コンテンツ30の全時間長は、2分以内になるように適宜設定する。また、2分以内で構成された音響コンテンツ30を、音場制御部21aの制御により、かご5内で繰り返し連続して再生される。このように、繰り返し再生される音響コンテンツ30は、一定周期で変化する旋律を有するように創生されている。
 また、一般的に、かご5は上下移動しながら、利用者のボタン操作に応じて、利用者が指定した階床に停車する。その間に、音響コンテンツ30は、繰り返し再生されている。従って、利用者は、必ずしも、音響コンテンツ30の最初から音響コンテンツ30を聞けるわけではない。利用者によっては、再生中の音響コンテンツ30の途中の段階から、エレベータ1を利用することがあり得る。また、例えば、1階から10階までというように複数階の移動に利用者がエレベータ1を利用する場合が多いかもしれないが、例えば4階から5階までというように、1つの階の移動に利用者がエレベータ1を利用する場合もあり得る。
 利用者が1つの階のみの移動にエレベータ1を利用する場合は、「利用者がかご5に乗車」→「かご5が移動」→「かご5の停車」の一連の動作に要する時間が10秒以内といったケースが一般的となる。もし、このとき、一般的な音楽の再生をかご5内で行っていた場合、音楽の再生は10秒で終わらないため、音楽の再生の途中で、利用者は当該音楽を聞くことを強制中断させられることになる。利用者によっては、その音楽が好みのものであって、当該音楽をもっと聞いていたいと思っても、利用者が指定した階床でかご5を降車しなければならない。その場合には、却って利用者にストレスを与えてしまう事にもなってしまう。よって、実施の形態1では、例えば、1つの階の移動にエレベータ1を利用する利用者に対しても、ストレスおよび不快感を与えない音響コンテンツ30の放射を行う。具体的には、短い利用時間で有ってもストレスや不快感を与えないようにするために、「意味あり音」である音楽の再生では無く、特別な意味を持たない「自然界で発生している音」=「意味なし音」を利用する。「意味なし音」の再生であれば、音の再生の途中で、利用者が当該音を聞くことを強制中断させられることになった場合でも、利用者にストレスを与える可能性は極めて低い。
 [音響コンテンツを構成する音源]
 音響コンテンツ30は、自然界で発生する複数の音源の組み合わせで構成される。音源は、例えば以下の(1)~(7)とし、これらの組み合わせで音響コンテンツ30は構成されている。
 (1) バックグラウンドA(略称:BG-A):風で揺れる木々の音
 (2) バックグラウンドB(略称:BG-B):川または海での水が流れる音
 (3) バックグラウンドC(略称:BG-C):雑踏の音、人工物の移動音も含む
 (4) 付加音A(略称:F-A):1羽以上の鳥の鳴き声
 (5) 付加音B(略称:F-B):鳥が飛ぶときの羽音
 (6) 付加音C(略称:F-C):動物の鳴き声
 (7) 付加音D(略称:F-D):人の声
 上記の音源のうち、音源(1)~(3)は、図11のバックグラウンド音31を構成する音源であり、利用者に対して、自然界の環境の状態をイメージさせる音である。音源(1)~(3)は、自然界の環境を音源(以下、第1音源とする)である。音源(1)~(3)の音は、第1音源から発生する音であり、すなわち、自然界の環境の状態に基づく音である。一方、音源(4)~(7)の音は、図11の付加音32を構成する音であり、利用者に対して、自然界の生き物の挙動をイメージさせる音である。音源(4)~(7)は、自然界に生息する生物を音源(以下、第2音源とする)である。音源(4)~(7)の音は、第2音源から発生する音であり、すなわち、自然界の中の生物の挙動に基づく音である。
 図11に示す音響コンテンツ30は、後述する図22及び図23の評価結果によって快適性が最も良いと評価された音響コンテンツ(a)である。図11において、「(2)」、「(4)」などの表記は、各時間区分33に対して、上記音源(1)~(7)のうち、どの音が設定されているかを示している。すなわち、図11において、「(4)(2)」などの表記は、バックグラウンド音31と付加音32との組み合わせを示している。また、図11において、「(1)+(3)」、「(4)+(5)」などの表記は、バックグラウンド音31同士の組み合わせ、又は、付加音32同士の組み合わせを示している。
 図11の上段は、図4に示したスピーカーユニット23Lから放射される音響コンテンツ30を示している。当該音響コンテンツ30は、音源(2)から構成されたバックグラウンド音31が、全ての時間区分33に対して、連続して設定されている。また、図11の上段の2番目の時間区分33においては、音源(4)の付加音32が付加され、4番目の時間区分33においては、音源(6)の付加音32が付加されている。また、中間奏部分35を構成する6番目の時間区分33には、音源(4)の付加音と音源(5)の付加音32とが付加されている。さらに、8番目、10番目、及び、12番目の各時間区分33には、音源(4)の付加音32が付加されている。
 図11の下段は、図4に示したスピーカーユニット23Rから放射される音響コンテンツを示している。当該音響コンテンツ30は、音源(1)と音源(3)とから構成されたバックグラウンド音31が、全ての時間区分33に対して、連続して設定されている。また、図11の下段の2番目の時間区分33においては音源(4)の付加音32が付加され、4番目の時間区分33においては音源(6)の付加音32が付加されている。また、中間奏部分35を構成する6番目の時間区分33には、音源(4)の付加音と音源(5)の付加音32とが付加されている。さらに、8番目、10番目、及び、12番目の各時間区分33には、音源(4)の付加音32が付加されている。
 なお、図11の下段においては、3番目の時間区分33においては、バックグラウンド音31に対して、極めて小音の音源(5)の付加音32が付加されている。同様に、7番目の時間区分33においては、バックグラウンド音31に対して、極めて小音の音源(7)の付加音32が付加されている。図11に示されるように、これらの付加音32の音圧レベルと、バックグラウンド音31の音圧レベルとは、ほぼ同程度である。実施の形態1では、上述したように、図11の上段に示すように、原則として、隣接する「付加音有り」の第1時間区分の間には、少なくとも1つの「付加音無し」の第2時間区分が配置されている。しかしながら、図11の下段に示すように、例外的に、隣接する第1時間区分の間に、極めて小音の付加音32を含む例外的第2時間区分が配置されていてもよい。
 また、図11において、「2S」、「8S」、「5S」などの時間表記は、各時間区分33における時間長を示している。このように、各時間区分33は、すべて同一の時間長ではなく、時間区分33ごとに適宜設定された2種以上の時間長になっている。時間区分33の時間長の種類は、図11に示すものに限定されない。さらに、時間区分33の時間長は、表記された時間長に対して、予め設定された変動幅があってよい。具体的には、時間区分33の時間長が6秒以上の場合は、最大で-5秒の変動幅、時間区分33の時間長が6秒未満の場合は、最大で+3秒までの変動幅があってよい。当該変動幅が、音への快適性を保つ許容範囲である。すなわち、時間長が「8S」の場合は、3~8秒の範囲が許容範囲となるため、図11で「8S」と時間表記されている時間区分33は、3~8秒の範囲で、適宜、時間長を設定すればよい。同様に、図11で「6S」と時間表記されている時間区分33は、1~6秒の範囲で、適宜、時間長を設定すればよい。一方、図11で「2S」と時間表記されている時間区分33は、2~5秒の範囲で、適宜、時間長を設定すればよい。
 [中間奏部分の時間長]
 実施の形態1では、音響コンテンツ30の中間奏部分35を構成する時間区分33が、複数の時間区分33の中で、最も長い時間長を有している。図11の例では、「15S」となっている。ここで、前奏部分34に含まれる複数の時間区分33のうち、時間長が最大の時間区分33の時間長を第1時間長とする。図11の例では、第1の時間長は「8S」である。また、前奏部分34の中で、付加音32が付加されている「付加音有り」の時間区分33に限定した場合、最大の時間長は「5S」である。また、後奏部分36に含まれる時間区分33のうち、時間長が最大の時間区分33の時間長を第2時間長とする。図11の例では、第2時間長は「9S」である。また、後奏部分36の中で、付加音32が付加されている「付加音有り」の時間区分33に限定した場合、最大の時間長は「5S」である。このとき、中間奏部分35に含まれる時間区分33の時間長を第3時間長とすると、図11の例では、第3時間長は「15S」である。実施の形態1では、第3時間長が、第1時間長及び第2時間長より長くなるように設定されている。
 [中間奏部分の付加音の時間長]
 図11に示すように、中間奏部分35を構成する時間区分33においては、前奏部分34及び後奏部分36に含まれる時間区分33に比べて、付加音32の、のべ時間長が長くなっている。このように、音響コンテンツ30の全時間長の中間点の前後に、長目の時間長の付加音32を持つことが大切である。音発生の初段階で付加音32の長さが長い場合は、利用者が、初めて音響コンテンツ30の再生の有るエレベータ1を利用した場合に、驚きを覚えて、不快感を与えてしまう要因になってしまう。よって、エレベータ1の稼働後の途中で長目の付加音32の提示をすることで、エレベータ1の利用者の飽きを低減させる効果をもたらす。
 [中間奏部分の付加音の音圧レベル]
 付加音32を含む音響コンテンツ30をかご5内で再生することで、エレベータ1内の独特な「気まずさ」をもたらす不必要な静けさを保つ「緊張感」も低減することが可能となる。よって、実施の形態1に係る音響コンテンツ30は、自然界の音を利用している。また、音響コンテンツ30の一連の提示音は、一般の音楽と同様に、前奏部分34→中間奏部分35→後奏部分36というように、時間変化で徐々に音の強さを変化させている。具体的には、音響コンテンツ30の中で、中間奏部分35において、付加音32の音圧レベルを最も大きくし、且つ、付加音32の時間長も最も長くする。
 ここで、前奏部分34に含まれる時間区分33における付加音32の音圧レベルの最大値を第1レベルとする。後奏部分36に含まれる時間区分33における付加音32の音圧レベルの最大値を第2レベルとする。また、中間奏部分35に含まれる時間区分33における付加音32の音圧レベルの最大値を第3レベルとする。このとき、実施の形態1では、第3レベルが、第1レベル及び第2レベルより大きくなるように設定されている。図11の例では、第3レベルが、第1レベル及び第2レベルより、1.5倍~4倍程度大きくなるように設定されている。そのため、利用者は、前奏部分34で音圧レベルの小さい付加音32を聞いた後に、中間奏部分35で音圧レベルの大きい付加音32を聞くことになる。このように、利用者は、時間変化に伴う付加音32の音の強さの変化を受けることで、突発的な音の変化を聞くことがない。その結果、利用者が音響コンテンツ30の再生音を違和感なく聞くことができる。なお、上記の説明においては、中間奏部分35に含まれる時間区分33における付加音32の音圧レベルの最大値を第3レベルとしたが、中間奏部分35に含まれる時間区分33における付加音32の音圧レベルの平均値を第3レベルとしてもよい。
 [バックグラウンド音と付加音の音圧レベルの差]
 更に、実施の形態1の音響コンテンツ30においては、付加音32とは別に、常に全ての時間区分33におけるベース信号として、バックグラウンド音31を挿入している。バックグラウンド音31の音圧レベルは、付加音32の音圧レベルよりも低く設定される。バックグラウンド音31の音圧レベルは、付加音32との数値差によって定義する。具体的な数値としては、付加音32の音圧レベルを、バックグラウンド音31の音圧レベルより、10dB以上大きくする。また、音圧レベルの差が大きすぎても、利用者に不快感を与えるため、上限は、20dB程度とする。このように、実施の形態1では、付加音32の音圧レベルを、バックグラウンド音31の音圧レベルより、+10dBから+20dB(瞬時)の範囲で大きくする。これにより、付加音32が、バックグラウンド音31に対して、明確な音圧レベルを持つ信号として提示される。
 なお、上記の説明においては、音響コンテンツ30の全時間長は90秒から120秒までとして説明したが、閉鎖空間がエレベータのかご5の場合、1つの階の移動または2つの階の移動などに利用される可能性もあり得る。これらの場合は、上述したように、10秒~20秒といった非常に短時間の利用となる。これらの場合には、例えば、音響コンテンツ30のうちの中間奏部分35の再生をスキップして、前奏部分34と後奏部分36だけを再生する制御を行うようにしてもよい。当該制御を行う場合には、例えば、音場制御部21aが、かご制御装置9から、利用者のかご操作盤5fのスイッチ操作の情報を得る。音場制御部21aは、当該情報に基づいて、利用者のスイッチ操作を検知して、当該スイッチ操作からエレベータ1の短時間の利用か否かを判定する。すなわち、「1階」に停車したかご5内で、はじめに、かご操作盤5fに対して、「10階」を指定するスイッチ操作が行われたとする。次に、「10階」よりも下方の階である例えば「5階」でかご5が停車し、その後に、「10階」よりも下方の階である例えば「7階」を指定するスイッチ操作が行われたとする。音場制御部21aは、これらのスイッチ操作の情報から、「5階」で乗車した利用者がエレベータ1の短時間の利用であると判定する。音場制御部21aは、エレベータ1の短時間の利用であると判定した場合に、中間奏部分35を飛ばして、音響コンテンツ30を再生する制御を行う。このように、実施の形態1では、例えば、中間奏部分35の音放射を利用者に聞かせないなどの制御処理を行うことも可能である。
 次に、音響コンテンツ30に含まれるバックグラウンド音31及び付加音32に対して施される信号処理について説明する。各音源に対する信号処理については、以下を基準とする。但し、当該信号処理は必ずしも行う必要はなく、必要に応じて行えばよい。
 はじめに、上記の音源(1)~(3)のバックグラウンド音31に対して施される信号処理について説明する。上記の音源(1)~(3)のバックグラウンド音31に対しては、リバーブ、パン等の位相処理は行わない。但し、バックグラウンド音31が聴感的にステレオ感が少ない音源状態と判断した場合には、信号処理を行ってもよい。具体的には、音の広がり感を聴感的に得られるように、バックグラウンド音31の左右の信号に対して、以下の2つの信号処理(i)及び(ii)のうちの少なくともいずれか1つを行ってもよい。
 (i)バックグラウンド音31の右側の信号及び左側の信号の一方に対して、他方よりも遅延するように、300ms以下のディレイタイムを設ける。
 (ii)バックグラウンド音31の右側の信号及び左側の信号の一方の音圧レベルに対して、他方の音圧レベルと異なるように、±3dB~6dBの範囲でのゲイン差を設ける。
 信号処理(i)について説明する。図11の例では、上側が左側の信号を示し、下側が右側の信号を示している。図11の例で説明すると、「7S」と記載された5番目の時間区分33で見ると、左側の信号において、破線の楕円37で囲まれた部分のバックグラウンド音31の音圧レベルが若干大きくなっていることが分かる。また、同じ時間区分33における右側の信号において、破線の楕円38で囲まれた部分のバックグラウンド音31の音圧レベルが若干大きくなっていることが分かる。楕円37で囲まれた部分と楕円38で囲まれた部分とを比較すると、下側の右側の信号が、上側の左側の信号よりも、わずかに遅れていることが分かる。このように、右側の信号のバックグラウンド音31が、左側の信号のバックグラウンド音31より遅れるように、右側の信号のバックグラウンド音31に対して、ディレイタイムを設けている。ディレイタイムは、0msより大きく、300ms以下の範囲で適宜設定する。これにより、音の広がり感が演出できる。なお、図11では、右側の信号よりも左側の信号の放射のタイミングを早くしているが、逆でもよい。
 次に、信号処理(ii)について説明する。図11の例では、下段の右側の信号のバックグラウンド音31の音圧レベルが、全体的に、上段の左側の信号のバックグラウンド音31の音圧レベルよりも、若干大きいことがわかる。このように、右側の信号が左側の信号よりも音圧レベルより大きくなるように、右側の信号の音圧レベルに対してゲイン差を設けている。右側の信号の音圧レベルと左側の音圧レベルとの差の絶対値は、3dB以上、6dB以下の範囲である。これにより、音の広がり感が演出できる。なお、一般的に、人間の耳は、右側の耳が利き耳であることが多いため、図11では、左側よりも右側の音圧レベルを大きくしているが、逆でもよい。
 次に、バックグラウンド音31及び付加音32のそれぞれの音圧レベルに対して施される信号処理について、図12及び図13を用いて説明する。図12は、図11の(B)点位置の時間波形をFFT(fast Fourier transform)処理したときの瞬時周波数特性を示す図である。すなわち、図12は、付加音32の瞬時の周波数特性を示している。図13は、図11の(A)点位置の時間波形をFFT処理したときの瞬時周波数特性を示す図である。すなわち、図13は、バックグラウンド音31の瞬時の周波数特性を示している。図12及び図13において、横軸は周波数、縦軸は音圧レベルを示している。
 図12と図13とを比較すると、図13に示すバックグラウンド音31の音圧レベルよりも、図12に示す付加音32の音圧レベルが大きいことが分かる。このように、実施の形態1では、付加音32がバックグラウンド音31よりも音圧レベルが大きくなるように、付加音32の音圧レベルに+10dB以上のゲイン差がつけられている。
 さらに詳細に説明する。図12と図13とを比較すると、図12においては、2000Hz~10000Hzの間での周波数特性に大きな変化を見ることができる。すなわち、図12においては、2000Hz~10000Hzの間の周波数帯域における音圧レベルが、他の部分に比べて、際だって大きくなっている。一方、図13では、いずれの周波数帯域においても、周波数特性に大きな変化はない。つまり、図12に見られる周波数特性の変化が、上記説明のように、付加音32をバックグラウンド音31より10dB以上突出させた時の特性変化を示している。利用者は、この音圧レベルの変化を聞くことで、音圧レベルが変化した周波数帯域の音を確実に認識し、その周波数帯域の音を聞こうとする姿勢を潜在的に持つようになる。その結果、利用者は、音を聞くということに集中して、気分的な変化を起こすことができる。
 また、図12の例では、2000Hz~10000Hzの間の周波数帯域で音圧レベルを変化させているが、この場合に限定されない。すなわち、800Hz以上の周波数帯域で、音圧レベルを変化させることが重要である。その理由は、人間の聴感的な聞き取りやすい周波数帯域が800Hz以上から15kHzまでの帯域(図12及び図13の点線の枠の範囲)であるためである。この帯域の周波数を制御することで、利用者が音に注目をすることができ、音を聞こうとする生理的な反応も利用することになるので、音への関心が高くなることへの制御が行えることになる。従って、実施の形態1では、付加音32の周波数を800Hz以上に設定している。
 次に、上記の音源(4)~(7)の付加音32に対して施される信号処理について、図14~17を用いて説明する。図14及び図16は、実施の形態1に係る音響コンテンツ30に含まれる付加音32に対して信号処理を行った場合の一例を示す図である。図14は、左右信号のパン処理を行っている。図14において、横軸は時間を示し、縦軸は角度を示す。図14は、音源が右から左に移動したように利用者に感じさせるためのパン処理を行った場合を示している。図15は、実施の形態1に係るパン処理の原理について説明する図である。図16は、信号処理としてステレオ拡張処理を行っている。図16において、横軸は時間を示し、縦軸はステレオ拡張の割合を示す。図16は、音響コンテンツ30の全時間長の中で、「拡張」および「狭感」を繰り返し得られるような位相制御処理を行った場合を示している。図17は、実施の形態1に係るステレオ拡張処理の原理について説明する図である。図14及び図16に示す信号処理は、音響コンテンツ30に含まれる音源に対して、必要に応じて行われる。
 上記の音源(4)~(7)の付加音32に対しては、必要に応じて、パン処理及びステレオ拡張処理等の信号処理を行う。なお、信号処理を行う場合は、聴感的感覚に基づいて信号処理を行うものとし、以下の2つの信号処理(iii)及び(iv)のうちの少なくともいずれか1つを行うものとする。
 (iii)付加音32の左右信号のパン処理は、音響コンテンツ30の全時間長(例えば90秒)以内で、90度から-90度までの範囲を自由に変化させる。
 (iv)付加音32の左右信号のステレオ拡張処理は、音響コンテンツ30の全時間長(例えば90秒)以内で、付加音32の左右信号に対して、20%から240%までの範囲で位相差を自由変化させる。
 信号処理(iii)について説明する。図14のパン処理では、付加音32の左右信号のパンを、音響コンテンツ30の全時間長(例えば90秒)以内で、90度から-90度までの範囲で変化させている。これにより、利用者は、音源が右から左に移動したような印象を有する。そのため、上記の音源(5)の鳥が飛ぶときの羽音に対して、図14に示すパン処理を行うと、利用者は、鳥が飛び立って、右から左に移動したような印象を持つことができる。
 図15を用いて、図14に示すパン処理の原理について説明する。ここで、「パン」とは、音が聞こえる左右の位置(定位)を意味する。すなわち、「パン」は、音の発生源を左右のどこに配置するかという意味を持つ。「パン」は、「パンポット」ともいう。図14及び図15では、センターが0度で表示され、左寄りがマイナスの数値、右寄りがプラスの数値で表示されている。図15において、点50の位置が0度で、センターである。また、点52の位置が90度であり、点54の位置が-90度である。パンを、点50で示すセンターから、右に向かって動かす場合、すなわち、点50から例えば点51にパンを動かす場合、「パンを右に振る」という。逆に、パンを、点50で示すセンターから、左に向かって動かす場合、すなわち、点50から例えば点53にパンを動かす場合、「パンを左に振る」という。パンを動かすことを「パニング」ともいう。実施の形態1では、図14及び図15に示すように、付加音32の左右信号のパンを、音響コンテンツ30の全時間長(例えば90秒)において、+90度から-90度に向かって変化させている。なお、この場合に限らず、逆に、付加音32の左右信号のパンを、音響コンテンツ30の全時間長(例えば90秒)において、-90度から+90度に向かって変換させるようにしてもよい。
 信号処理(iv)について説明する。図16のステレオ拡張処理では、音響コンテンツ30の全時間長(例えば90秒)以内で、付加音32の左右信号に対して、20%から240%までの範囲で位相差を変化させている。図16において、位相差が100%の場合が標準であり、位相差が100%未満の場合は、利用者は「狭感」を覚える。一方、位相差が100%を超えると、利用者に対して、空間が拡がったような印象を与え、利用者は「拡張感」を覚える。図16は、90秒の中で繰り返し、「拡張感」及び「狭感」を得られるような処理を行った例である。図16では、30秒を周期として、前半の15秒で徐々に「拡張感」を増加させ、後半の15秒で徐々に「狭感」を増加させている。
 図17を用いて、図16に示すステレオ拡張処理の原理について説明する。ステレオ拡張処理は、音響信号に対して、空間的な拡がりまたは狭まりを感じさせるステレオエフェクトの音響効果を与える信号処理である。図17は、利用者60とスピーカーキャビネット20との位置関係を平面視で示した図である。図17は、利用者60が、スピーカーユニット23Rとスピーカーユニット23Lとの中点61の正面に位置している状態を示している。また、直線62は、スピーカーユニット23Rの位置と利用者60の位置とを結ぶ直線であり、直線63は、スピーカーユニット23Lの位置と利用者60の位置とを結ぶ直線である。同様に、直線64は、仮想スピーカーユニット23Rvの位置と利用者60の位置とを結ぶ直線であり、直線65は、仮想スピーカーユニット23Lvの位置と利用者60の位置とを結ぶ直線である。
 ステレオ拡張処理とは、利用者60が知覚するスピーカーユニット23Rとスピーカーユニット23Lの位置を、仮想スピーカーユニット23Rvと仮想スピーカーユニット23Lvの位置まで拡げる処理である。すなわち、音響信号に対してステレオ拡張処理を施していない場合には、利用者60の音響信号の定位可能な範囲が、直線62と直線63との間の角度αである。音響信号に対してステレオ拡張処理を施した場合には、利用者60の音響信号の定位可能な範囲が、直線64と直線65との間の角度βになる。角度βが角度αよりも大きい場合が「拡張」となり、利用者に空間的な拡がりを感じさせるステレオエフェクトの音響効果を与える。一方、角度βが角度αよりも小さい場合が「狭化」となり、利用者に空間的な狭まりを感じさせるステレオエフェクトの音響効果を与える。角度βは、β=p×αの式で表すことができ、係数pが、図16に示す縦軸の割合(%)となる。すなわち、p=20%の場合には、β=0.2×αとなり、角度βが角度αの0.2倍となる。p=240%の場合には、β=2.4×αとなり、角度βが角度αの2.4倍となる。図16のステレオ拡張処理では、音響コンテンツ30の全時間長(例えば90秒)において、付加音32の左右信号に対して、20%から240%までの範囲で「拡張」と「狭化」を繰り替えるステレオ拡張処理を行っている。なお、ここでは、20%から240%までの範囲としたが、その場合に限定されない。すなわち、どの範囲でステレオ拡張処理を行うかは適宜設定すればよく、例えば、20%~100%の範囲としてもよい。
 ステレオ拡張処理が施された音響信号がスピーカーユニット23Rとスピーカーユニット23Lから放射されると、利用者60は、それらの音が、仮想スピーカーユニット23Rvと仮想スピーカーユニット23Lvから放射されているように知覚する。
 図14のパン処理及び図16のステレオ拡張処理は、例えば、位相制御処理によって実現される。以下、位相制御処理について説明する。図18は、実施の形態1に係るスピーカーユニットと利用者との位置関係を示す上面図である。図18において、利用者70の手前右側に設置されたスピーカーユニット23をスピーカーユニット23Rと呼ぶ。同様に、利用者70の手前左側に設置されたスピーカーユニット23をスピーカーユニット23Lと呼ぶ。
 このとき、スピーカーユニット23Rから放射された音は、直接音R(符号73)とクロス音RL(符号74)となって、それぞれ、利用者70の右耳70Rおよび左耳70Lに到来する。すなわち、直接音R(符号73)は、スピーカーユニット23Rから任意時間で伝搬して利用者70の右耳70Rに到来する直接音である。また、クロス音RL(符号74)は、スピーカーユニット23Rから任意時間で伝搬して利用者70の左耳70Lに到来する間接音である。
 同様に、スピーカーユニット23Lから放射された音は、直接音L(符号75)とクロス音LR(符号76)となって、それぞれ、利用者70の左耳70Lおよび右耳70Rに到来する。
 図19は、実施の形態1に係る直接音およびクロス音の波形を示した図である。図19において、横軸は時間、縦軸は位相である。図19では、利用者70の右耳70Rおよび左耳70Lで受信された直接音R(符号73)、直接音L(符号75)、クロス音RL(符号74)、および、クロス音LR(符号76)の波形を示している。図19において、横軸は時間、縦軸は位相である。図19に示すように、これらの4つの音の到着時刻には、時間差があることが分かる。図20は、2つの信号間の時間差を説明する図である。図20において、横軸は時間、縦軸は位相である。図20において、波長80の信号と波長81の信号とがあって、波形80の信号に比べて、波形81の信号が遅延して、利用者70の左耳70Lまたは右耳70Rに到着しているとする。すなわち、この場合、波形80の伝播時間82の方が、波形81の伝播時間83より短い。伝播時間82と伝播時間83との差は、時間差Δtである。時間差Δtを長くする、短くする、あるいは、0にする、などの位相制御処理を行うことで、図14のパン処理、及び、図16のステレオ拡張処理を実現することができる。
 以下では、ステレオ拡張処理について簡単に説明する。クロス音の成分によって、スピーカーユニット23からの放射音の音像は、クロス成分の中央、すなわち、乗客の左右耳の中央に集まって聞こえる。ここで、放射音によって、かご5内の狭空間を広空間と聴覚的に錯覚させるためには、音像が広がっているように利用者70に聞こえさせる必要がある。このためには、直接音とクロス音とに時間差をつけて音放射することが必要である。そこで、最初にクロス音を放射し、次に、時間差をもって、直接音を放射させる。クロス音と直接音との音放射に伴う位相特性は絶対に逆相にならないように、位相特性は揃える必要がある。そのため、実施の形態1では、音響コンテンツ30に対して、位相制御処理を行っている。図21は、位相制御処理後の音波の波形の一例を示す図である。図21において、横軸は時間、縦軸は位相である。図21においては、クロス音RL(符号74)とクロス音LR(符号76)との時間差Δtを無くしている。また、直接音R(符号73)と直接音L(符号75)との時間差Δtを無くしている。さらに、クロス音RL(符号74)とクロス音LR(符号76)とを最初に放射し、その後、一定の遅延時間を設けて、直接音R(符号73)と直接音L(符号75)とを放射している。これにより、先に放射されたクロス音で利用者70に音の移動感を与え、その後に放射された直接音で利用者70に音の定位感を与えることができる。その結果、利用者70は、音像が広がっているような印象を持つ。さらに、利用者70は、自身の頭上だけ音場が中抜けしているような違和感を持つことなく、位相が揃っていることから得られる移動感と定位感とを有する音放射を聞くことが可能となる。パン処理については、同様に、図19に示す4つの信号の間の時間差Δtを調整するか、あるいは、それらの4つの信号の伝播時間を調整するかによって、実現可能になる。なお、調整する時間差は、直接音R(符号73)と直接音L(符号75)との間の時間差Δt、直接音R(符号73)とクロス音LR(符号76)との間の時間差Δt、直接音L(符号75)とクロス音RL(符号74)との時間差Δt、クロス音LR(符号76)とクロス音RL(符号74)との時間差Δtなどが挙げられる。これらのうちのどの時間差Δtを調整するかによって、得られる音響効果が異なる。
 このように、位相制御処理により信号間の時間差Δtを調整することで、図14のパン処理、及び、図16のステレオ拡張処理を実現することができる。なお、図14のパン処理、及び、図16のステレオ拡張処理の方法については、位相制御処理に限定されず、一般的に知られている既存の他の方法のいずれを用いてもよい。
 [音響コンテンツの評価について]
 図22及び図23は、SD(semantic differential scale method)法による人間の主観的及び生理的な評価結果を示す概略図である。図22及び図23は、実動するエレベータ1の利用者に音響コンテンツ30の仕様変更したときの適性因子に対する主観量を評価した場合の被験者実験結果例を示している。なお、図11は、図22及び図23の評価結果によって、快適性が最も良いと評価されたときの音響コンテンツ30を示している。
 音響コンテンツ30は、図22及び図23に示す複数の形容詞対を用いて、音に対する印象を複数段階で評価するSD法による評価結果を用いた。この因子分析した評価結果において、実施の形態1に係る音響コンテンツ30は、高評価を得ている。
 図22及び図23は、SD法の評価に用いる形容詞対の一例を示している。図22及び図23に示すように、SD法の人間の主観的及び生理的な音質評価結果には7つの形容詞対を用い、それぞれ5段階で評価した。7つの形容詞対は、具体的には、「安心な-不安な」、「自由な-不自由な」、「リラックスした-緊張した」、「開放的な-閉鎖的な」、「すがすがしい-うっとうしい」、「広い-狭い」、「快適な-不快な」である。図22及び図23では、快適性及び広さ感なども評価対象にしている。
 図22及び図23は、老若男女40名を被験者として実験を行った結果を示している。被験者の男女比率は1:1であり、すなわち、被験者には、男性20名、女性20名が含まれる。また、被験者の年代別の割合は、20代:30代:40代:50代=1:1:1:1であり、20代~50代の各年代で10名ずつとした。また、被験者同士に面識はない。図22及び図23は、その結果の平均を示している。図22及び図23における形容詞対において、左側の形容詞が「快」または「良好」に相当する形容詞であり、右側の形容詞が「不快」または「不良」に相当する形容詞である。
 図22において、被験者に対して放射した音響コンテンツは、以下の通りである。
 (a):基準信号、すなわち、実施の形態1に係る音響コンテンツ30
 (b):基準信号の音圧レベルを-3dBした、小音量コンテンツ
 (c):基準信号の付加音の音圧レベルを-3dBした、付加音-小音量コンテンツ
 (d):基準信号の付加音の間隔を短くした、付加音-短間隔コンテンツ
 ここで、音響コンテンツ(c)及び(d)の付加音は、上記の(4)の付加音32(1羽以上の鳥の鳴き声)または上記の(5)の付加音32(鳥が飛ぶときの羽音)である。音響コンテンツ(c)では、付加音32の音圧レベルを、音響コンテンツ(a)の付加音32の音圧レベルよりも3dB低くしている。また、音響コンテンツ(d)では、付加音32の放射の間隔を、音響コンテンツ(a)の付加音32の放射の間隔よりも短くしている。
 図22は、音響コンテンツ(a)~(d)をかご5内で被験者に聞いてもらい、そのときの各音響コンテンツに対する被験者それぞれの主観的及び生理的な評価結果を示している。その結果、図22に示すように、各形容詞対において、音響コンテンツ(a)の結果が最もよく、音響コンテンツ(b)がその次で、音響コンテンツ(c)および(d)の結果が全般的に最も悪かった。特に、音響コンテンツ(a)では、「安心な」及び「開放的な」という印象を持った被験者が多かった。一方、音響コンテンツ(d)では、「うっとうしい」及び「不快な」という印象を持った被験者が多かった。また、音響コンテンツ(c)では、「緊張した」及び「狭い」という印象を持った被験者が多かった。
 このように、図22に示すように、基準信号である音響コンテンツ(a)から、何らかの音の構成要素を変化させると、「快」要素から「不快」要素に変化することがわかる。すなわち、図22に示す各音響コンテンツに対する因子分析結果から、明らかに、音響コンテンツ(a)が、他の音響コンテンツよりも良い結果が得られるということが確認できた。従って、実施の形態1に係る音響コンテンツ30が、被験者に対して、安心感、開放感、快適性を与えることができるということが確認できた。
 更に、図22の因子分析結果から、鳥の鳴き声または鳥の飛翔音のような過渡的な信号の変化は、特に「不快」要素に対して寄与していることがわかる。(c)のように、鳥の鳴き声または鳥の飛翔音の付加音32の音圧レベルが小さいと、バックグラウンド音31の音圧レベルが同じでも、利用者に快適さを与えることができず、利用者が「不快」と感じやすい。また、(d)のように、鳥の鳴き声または鳥の飛翔音の付加音32が頻繁に聞こえると、利用者がうるさいという印象を持ち、「不快」と感じやすい。
 図23において、被験者に対して放射した音響コンテンツは、以下の通りである。
 (a):基準信号、すなわち、実施の形態1に係る音響コンテンツ30
 (e):音楽(ボーカルを含むポップス系音楽)
 (f):音楽(ボーカルを含まない交響曲)
 ここで、音響コンテンツ(a)は、図22に示す音響コンテンツ(a)と同じものである。また、音響コンテンツ(e)は、ボーカルの歌声を含むポップス系の音楽である。また、音響コンテンツ(f)は、ボーカルの歌声を含まない交響曲である。従って、音響コンテンツ(a)が「意味なし音」であり、音響コンテンツ(e)及び(f)は「音楽」=「意味あり音」である。
 図23は、音響コンテンツ(a)、(e)及び(f)をかご5内で被験者に聞いてもらい、そのときの各音響コンテンツに対する被験者それぞれの主観的及び生理的な評価結果を示している。その結果、図23に示すように、各形容詞対において、音響コンテンツ(a)の結果が最もよく、音響コンテンツ(e)および(f)の結果が全般的に悪かった。図23に示すように、音響コンテンツ(e)のポップス系音楽、及び、音響コンテンツ(f)の交響曲は、共に、自然音から構成された音響コンテンツ30と比較して、評価結果が「快」要素から「不快」要素に変化することがわかる。特に、音響コンテンツ(f)の交響曲は、被験者に「緊張した」及び「狭い」というマイナスの意見が多く、かご5には不向きの印象となる結果となった。すなわち、図23に示す各音響コンテンツに対する因子分析結果から、明らかに、音響コンテンツ(a)が、他の音響コンテンツよりも良い結果が得られるということが確認できた。従って、実施の形態1に係る「意味なし音」から構成された音響コンテンツ30が、被験者に対して、安心感、開放感、快適性を与えることができるということが確認できた。
 以上のように、図22及び図23の評価結果から、密閉した狭い閉鎖空間で、且つ、エレベータのような知らない人同士が利用する場合においては、誰しも聞いたことがある自然界で発生する音が、聴覚的に安心感を与えることが確認できた。また、音楽系のコンテンツに関しては、内容にもよるが、利用者の好き嫌いが影響し、また、いつも同じ曲を聞くことにもなって、自然音の場合とは異なる感覚を与えてしまうことになると言える。
 上記の説明においては、1つまたは2つの音響コンテンツ30を記憶部21cに記憶している場合について主に説明した。しかしながら、その場合に限定されない。記憶部21cは、季節ごと、及び、生活時間帯ごとに、複数の音響コンテンツ30を記憶していてもよい。図24は、季節ごと、及び、生活時間帯ごとに、音響コンテンツ30に挿入する付加音32の音源の例を示した図である。図24に示すように、付加音32に使用する生物の種類を、季節ごと、及び、生活時間帯ごとに、変更する。バックグラウンド音31は、上記の音源(1)~(3)のいずれかにする。
 従って、この場合には、少なくとも、(4つの季節)×(4つの生活時間帯)=16個の音響コンテンツ30を作成する。具体的には、例えば、季節が「春」で、生活時間帯が「早朝」の場合、上記の音源(1)~(3)のいずれかのバックグラウンド音31に、雀、ツバメ、ウグイス、ツヅレサセコオロギのうちの少なくとも1つの付加音32を付加させた音響コンテンツ30を作成する。また、例えば、季節が「秋」で、生活時間帯が「夜」の場合、上記の音源(1)~(3)のいずれかのバックグラウンド音31に、ミミズク、スズムシ、マツムシのうちの少なくとも1つの付加音32を付加させた音響コンテンツ30を作成する。このようにして、季節ごと及び生活時間帯ごとに、それぞれ異なる複数の音響コンテンツ30を予め作成して記憶部21cに記憶しておく。音場制御部21aは、タイマ部21dから、現在の日時のデータを取得し、当該日時のデータに基づいて、実際の季節及び生活時間帯に対応する音響コンテンツ30に切り替える。
 実施の形態1では、このように、季節ごと及び生活時間帯ごとに、音響コンテンツ30を複数個用意しておき、実際の季節及び生活時間帯に合わせて音響コンテンツ30を切り替えるようにしてもよい。その場合には、利用者にマンネリ感を与えることがなく、利用者に、季節の移ろい、及び、生活時間帯の変化などを、聴覚的に感じさせることができ、利用者の「癒やし」及び「息抜き」につながる可能性が高い。また、利用者によっては、音響コンテンツ30の切り替えを認識することで、ワクワク感が得られ、エレベータ1のかご5に乗ることが1つの楽しみになる可能性もある。このように、音響コンテンツ30の切り替えによって、利用者の更なるストレス低減を図ることができる。
 以上のように、実施の形態1に係る音響システム13によれば、自然界で発生する複数の音源を組み合わせて再生し、対象となる閉鎖空間に対して放射することにより、閉鎖空間内の利用者のストレスの低減を図ることができる。
 また、実施の形態1においては、スピーカーキャビネット20の基本的な設置数は2個としている。このように、2個以上のスピーカーキャビネット20を任意配置することで、対象となる閉鎖空間に対して、複数方向から音響コンテンツ30が放射されることにより、立体的な音場環境を形成し、より自然な音場感を得ることが可能となる。
 更に、図7及び図8に示すように、1つのスピーカーキャビネット20に搭載するスピーカーユニット23の個数を2個以上にしてもよい。その場合には、1つのスピーカーをフルレンジスピーカーにし、他のスピーカーをフルレンジスピーカーの補助として用いる低域専用または高域専用のスピーカーにする。これにより、スピーカーキャビネット20単体で、低域から高域までの対応が可能になり、広い周波数帯域を細かく放射することができる。その結果、音質感の向上及び再生帯域の拡大を図ることができ、広い周波数帯域をカバーすることができる「高音質システム」を容易に得ることができる。
 しかしながら、これらの場合に限定されず、スピーカーキャビネット20及びスピーカーユニット23の個数は1個でもよい。その場合においても、記憶部21cが自然界で発生する複数の音源を予め記憶し、音場制御部21aが複数の音源を組み合わせて再生することにより、閉鎖空間内の利用者の「癒やし」及び「息抜き」に繋がり、利用者の更なるストレス低減を図ることができる。
 実施の形態1では、以上のような音響信号の放射によって、閉ざされた空間、例えば知らない者同士が乗り合わせる機会の多いエレベータ1のかご5内などの利用者の頭上または利用者の胸より上の位置に、音場空間を創生する。これにより、利用者は、かご5に乗車すると同時に、狭い空間を広空間であると聴覚的に感じることができる。その結果、狭い環境下で、且つ、知らない者と乗車するときの「気まずさ」及び「不快感」に起因するストレスを低減させることが可能となる。
 また、実施の形態1では、自然界で発生する複数の音源からの音を組み合わせた音響コンテンツ30に基づく音響信号をスピーカーシステム22から放射させている。このような自然界の音利用の放射音は、閉ざされた空間、例えば知らない者同士が乗り合わせる機会の多いエレベータ1のかご5内などにおいても、利用者に狭い空間を広空間であると聴覚的に感じさせることができ、ストレスを低減することが可能となる。また、自然界の音は「意味なし音」であるため、利用者の好みのジャンルなどの影響を受けず、利用者の好みが分かれる可能性が低い。さらに、音響コンテンツ30が「意味なし音」の場合、利用者は、音響コンテンツ30の最初から聞きたい、または、音響コンテンツ30を最後まで聞きたいとは、特に思わない。そのため、音響コンテンツ30の再生途中で、利用者がかご5に乗車、または、かご5から降車しても、利用者に特別なストレスを与えることがない。
 また、実施の形態1においては、音響コンテンツ30に基づく音響信号を放射させる場合について主に説明した。しかしながら、その場合に限らず、記憶部21cが、音響コンテンツ30ではなく、自然界で発生する複数の音源を予め記憶していてもよい。その場合、音場制御部21aが、それらの音源のうち、2以上の音源を組み合わせて再生する。音場制御部21aは、バックグラウンド音31として、例えば上述した音源(1)~(3)のバックグラウンドA~Cの少なくとも1つを選択する。また、音場制御部21aは、付加音32として、上述した音源(4)~(7)の付加音A~Dの少なくとも1つを選択する。そして、音場制御部21aは、選択したバックグラウンド音31と、選択した付加音32とを組み合わせて同期させて再生する。このように、自然界で発生する音源を用いたバックグラウンド音31と付加音32とを組み合わせて再生することにより、閉鎖空間内の利用者のストレス軽減効果を得ることができる。
 また、音場制御部21aが、記憶部21cが記憶する音源を組み合わせて再生する場合、音場制御部21aは、再生時に、バックグラウンド音31と付加音32とを再生する時間長を、例えば図11を用いて説明した上記の時間区分33の時間長になるように調整する。さらに、音場制御部21aは、1回の再生時間を、音響コンテンツ30と同等に、最大で2分とし、連続して繰り返し再生を行うようにする。さらに、音場制御部21aは、再生時に前奏部分34、中間奏部分35、及び、後奏部分36を設定し、音響コンテンツ30と同様に、それらの音圧レベル及び時間長の調整を行う。また、音場制御部21aは、再生時に、付加音32の音圧レベルがバックグラウンド音31より大きくなるように、音響コンテンツ30と同様に、それらの音圧レベルの調整を行う。すなわち、音場制御部21aは、音響コンテンツ30の放射と同様の放射となるように、再生時に、バックグラウンド音31と付加音32との時間長及び音圧レベルの調整を行う。要するに、音響コンテンツ30を予め生成しておいて再生するか、あるいは、音響コンテンツ30を生成しながら再生するかの違いである。そのため、放射される音響信号は、いずれの場合も同じものとなる。なお、時間長及び音圧レベルは、予め、データテーブルとして記憶部21cに予め記憶しておき、音場制御部21aが当該データテーブルに基づいて、バックグラウンド音31と付加音32との時間長及び音圧レベルの調整を行うようにしてもよい。
 さらに、図24に示すように、季節ごと及び生活時間帯ごとに、音響コンテンツ30または音源を用意しておき、実際の季節及び生活時間帯に合わせて音響コンテンツ30または音源を切り替えるようにしてもよい。その場合には、利用者にマンネリ感を与えることがなく、利用者に、季節の移ろい、及び、生活時間帯の変化などを感じさせることができ、利用者の「癒やし」及び「息抜き」につながる可能性が高い。その結果、利用者の更なるストレス低減につながる。
 なお、上記の実施の形態1では、閉鎖空間として、エレベータ1のかご5の内部空間を例に挙げて説明したが、閉鎖空間は、病院または薬局の待合室であってもよい。閉鎖空間が病院または薬局の待合室である場合には、各スピーカーキャビネット20の筐体25は、待合室の天井板の上面に配置される。すなわち、各スピーカーキャビネット20の筐体25は、天井板よりも上側の天井空間内に設置される。さらに、音場27が生成される高さについては、利用者が椅子に座っていることを考慮して、例えば、1.2m~1.4mの範囲にする。
 また、閉鎖空間は、自動車または電車の車内空間であってもよい。自動車には、乗用車及びバスが含まれる。閉鎖空間が、タクシーなどの乗用車の車内空間である場合には、各スピーカーキャビネット20の筐体25は、車内空間の天井内または運転席のダッシュボードの中に配置される。この場合、音場27が生成される高さについては、利用者が乗用車の座席に座っていることを考慮して、例えば、1.2m~1.4mの範囲にする。一方、閉鎖空間が、電車またはバスの車内空間である場合には、各スピーカーキャビネット20の筐体25は、車内空間の天井内に配置される。この場合、音場27が生成される高さについては、車内で立っている利用者に合わせて例えば1.6m~1.8mとしてもよいが、座席に座っている利用者に合わせて例えば1.2m~1.4mの範囲にしてもよい。
 1 エレベータ、2 昇降路、3 巻上機、3a 綱車、4 主ロープ、5 かご、5a 側板、5b 床板、5c 天井板、5d かご扉、5e 照明装置、5ea 照射面、5f かご操作盤、5g 緊急用スピーカー、5h インターホン装置、7 エレベータ制御盤、8 制御ケーブル、9 かご制御装置、9a 入力部、9b 制御部、9c 出力部、9d 記憶部、10 吊り天井、10a 側面、10b 下面、11 空隙、13 音響システム(閉鎖空間用音響システム)、20 スピーカーキャビネット、21 音場制御装置、21a 音場制御部、21b 出力部、21c 記憶部、21d タイマ部、22 スピーカーシステム、23 スピーカーユニット、23-1 スピーカーユニット、23-2 スピーカーユニット、23L スピーカーユニット、23L-1 スピーカーユニット、23L-2 スピーカーユニット、23Lv 仮想スピーカーユニット、23R スピーカーユニット、23R-1 スピーカーユニット、23R-2 スピーカーユニット、23Rv 仮想スピーカーユニット、23a 放射面、25 筐体、25a 正面、27 音場、27a 下限、30 音響コンテンツ(音響信号)、31 バックグラウンド音、32 付加音、33 時間区分、34 前奏部分、35 中間奏部分、36 後奏部分、37 楕円、38 楕円、40 音響コンテンツ生成装置、40a 出力部、40b 信号処理部、40c 記憶部、40d 入力部、60 利用者、70 利用者、70L 左耳、70R 右耳、82 伝播時間、83 伝播時間、D 第1距離、D2 第2距離、D3 第3距離、H1 高さ、H2 高さ。

Claims (17)

  1.  閉鎖空間に配置され、1以上のスピーカーユニットを搭載したスピーカーシステムと、
     自然界で発生する複数の音源を記憶する記憶部と、
     2以上の前記音源を組み合わせて再生し、組み合わせた前記音源に基づく音響信号を前記閉鎖空間に対して前記スピーカーシステムから放射させる音場制御部と
     を備えた、閉鎖空間用音響システム。
  2.  前記音響信号は、
     第1音源を前記音源とするバックグラウンド音と、
     前記第1音源とは異なる第2音源を前記音源とし、前記バックグラウンド音に付加される付加音とを含み、
     前記音響信号は、前記バックグラウンド音に前記付加音を付加することで、前記バックグラウンド音と前記付加音とを組み合わせて構成されている、
     請求項1に記載の閉鎖空間用音響システム。
  3.  前記音響信号の全時間長は、2種類以上の異なる時間長に設定された複数の時間区分に分割され、
     前記バックグラウンド音は、前記時間区分の全てに亘って設定され、
     前記付加音は、前記時間区分ごとに個別に設定されており、
     前記音響信号の再生中に、前記バックグラウンド音は前記時間区分の全てに亘って連続して放射され、前記付加音は前記時間区分ごとにそれぞれ放射される、
     請求項2に記載の閉鎖空間用音響システム。
  4.  前記時間区分は、
     前記バックグラウンド音に前記付加音が付加された第1時間区分と、
     前記バックグラウンド音に前記付加音が付加されていない第2時間区分と
     を含み、
     隣接する前記第1時間区分の間には、少なくとも1つの前記第2時間区分が配置される、
     請求項3に記載の閉鎖空間用音響システム。
  5.  前記音響信号の前記全時間長は2分以下であり、
     前記音場制御部は、前記音響信号を前記スピーカーシステムから繰り返し連続して放射させる、
     請求項3又は4に記載の閉鎖空間用音響システム。
  6.  前記第1音源は、前記自然界の環境における音であり、
     前記バックグラウンド音は、前記自然界の環境の状態によって発生する音である、
     請求項2~5のいずれか1項に記載の閉鎖空間用音響システム。
  7.  前記バックグラウンド音は、
     風で揺れる木々の音、川または海での水が流れる音、雑踏の音、及び、人工物の移動音の少なくともいずれか1つを含む、
     請求項6に記載の閉鎖空間用音響システム。
  8.  前記第2音源は、前記自然界の中の生物による音であり、
     前記付加音は、前記自然界の生物の挙動によって発生する音である、
     請求項2~7のいずれか1項に記載の閉鎖空間用音響システム。
  9.  前記付加音は、
     1羽以上の鳥の鳴き声、1羽以上の鳥が飛ぶときの羽音、1匹以上の虫の鳴き声、1匹以上の動物の鳴き声、及び、人の声の少なくともいずれか1つを含む、
     請求項8に記載の閉鎖空間用音響システム。
  10.  前記付加音の音圧レベルは、前記バックグラウンド音の音圧レベルより大きい、
     請求項2~9のいずれか1項に記載の閉鎖空間用音響システム。
  11.  前記付加音の音圧レベルと前記バックグラウンド音の音圧レベルとの差は、10dB以上である、
     請求項10に記載の閉鎖空間用音響システム。
  12.  前記付加音の周波数帯域は、800Hz以上、15kHz以下に設定されている、
     請求項2~11のいずれか1項に記載の閉鎖空間用音響システム。
  13.  前記音響信号は、
     1以上の前記時間区分を含む前奏部分と、
     1以上の前記時間区分を含む後奏部分と、
     前記前奏部分と前記後奏部分との間に設定され、1つの前記時間区分を含む中間奏部分と
     を含む、
     請求項3~12のいずれか1項に記載の閉鎖空間用音響システム。
  14.  前記前奏部分に含まれる前記時間区分における前記付加音の音圧レベルの最大値を第1レベルとし、
     前記後奏部分に含まれる前記時間区分における前記付加音の音圧レベルの最大値を第2レベルとし、
     前記中間奏部分に含まれる前記時間区分における前記付加音の音圧レベルの最大値または平均値を第3レベルとしたとき、
     前記第3レベルは、前記第1レベル及び前記第2レベルより大きい、
     請求項13に記載の閉鎖空間用音響システム。
  15.  前記前奏部分に含まれる前記時間区分のうち、時間長が最大の時間区分の時間長を第1時間長とし、
     前記後奏部分に含まれる前記時間区分のうち、時間長が最大の時間区分の時間長を第2時間長とし、
     前記中間奏部分に含まれる前記時間区分の時間長を第3時間長としたとき、
     前記第3時間長は、前記第1時間長及び前記第2時間長より長い、
     請求項13又は14に記載の閉鎖空間用音響システム。
  16.  現在の日時をカウントするタイマ部を備え、
     前記記憶部は、季節ごと及び生活時間帯ごとに作成された複数の前記音源を記憶しており、
     前記音場制御部は、前記タイマ部から現在の日時データを取得して、前記日時データに基づいて、実際の季節及び実際の生活時間帯に対応する音源を前記記憶部から読み出して、前記音源に基づく前記音響信号を前記スピーカーシステムから放射させる、
     請求項1~15のいずれか1項に記載の閉鎖空間用音響システム。
  17.  前記閉鎖空間は、エレベータのかごの内部空間であり、
     各前記スピーカーユニットは、前記エレベータの前記かごの天井板に固定された吊り天井の内部に配置されている、
     請求項1~16のいずれか1項に記載の閉鎖空間用音響システム。
PCT/JP2020/047633 2020-12-21 2020-12-21 閉鎖空間用音響システム WO2022137276A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2020/047633 WO2022137276A1 (ja) 2020-12-21 2020-12-21 閉鎖空間用音響システム
EP20966775.7A EP4265553A4 (en) 2020-12-21 2020-12-21 ACOUSTIC SYSTEM FOR CONFINED SPACE
JP2022570769A JP7475495B2 (ja) 2020-12-21 2020-12-21 閉鎖空間用音響システム
CN202080107826.1A CN116568624A (zh) 2020-12-21 2020-12-21 封闭空间用音响***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/047633 WO2022137276A1 (ja) 2020-12-21 2020-12-21 閉鎖空間用音響システム

Publications (1)

Publication Number Publication Date
WO2022137276A1 true WO2022137276A1 (ja) 2022-06-30

Family

ID=82158613

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/047633 WO2022137276A1 (ja) 2020-12-21 2020-12-21 閉鎖空間用音響システム

Country Status (4)

Country Link
EP (1) EP4265553A4 (ja)
JP (1) JP7475495B2 (ja)
CN (1) CN116568624A (ja)
WO (1) WO2022137276A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117241194B (zh) * 2023-11-14 2024-01-19 成都智科通信技术股份有限公司 基于声学特性的仓库扬声器控制方法、***及介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6012567U (ja) * 1983-07-06 1985-01-28 三菱電機株式会社 エレベ−タ
JPH0322260A (ja) * 1989-06-20 1991-01-30 Omron Corp Bgm選択放送装置
JPH0338698A (ja) * 1989-07-05 1991-02-19 Shimizu Corp 自然音再生装置
JP2008042691A (ja) * 2006-08-08 2008-02-21 Global Success Kk ミキシング装置
JP2009035340A (ja) 2007-07-31 2009-02-19 Mitsubishi Electric Building Techno Service Co Ltd エレベータかご内のbgm再生装置
JP5322607B2 (ja) 2008-12-01 2013-10-23 三菱電機株式会社 エレベータの音響制御装置及びエレベータの音響システム及びエレベータ装置
JP2016023000A (ja) * 2014-07-16 2016-02-08 株式会社日立製作所 エレベーター装置
JP2019066667A (ja) * 2017-09-29 2019-04-25 株式会社アールライブ 環境音再生装置
WO2020136872A1 (ja) * 2018-12-28 2020-07-02 三菱電機株式会社 雰囲気清浄化装置、雰囲気清浄化方法及びエレベータ

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110371826A (zh) * 2018-04-13 2019-10-25 上海三菱电梯有限公司 轿厢内智能声光***

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6012567U (ja) * 1983-07-06 1985-01-28 三菱電機株式会社 エレベ−タ
JPH0322260A (ja) * 1989-06-20 1991-01-30 Omron Corp Bgm選択放送装置
JPH0338698A (ja) * 1989-07-05 1991-02-19 Shimizu Corp 自然音再生装置
JP2008042691A (ja) * 2006-08-08 2008-02-21 Global Success Kk ミキシング装置
JP2009035340A (ja) 2007-07-31 2009-02-19 Mitsubishi Electric Building Techno Service Co Ltd エレベータかご内のbgm再生装置
JP5322607B2 (ja) 2008-12-01 2013-10-23 三菱電機株式会社 エレベータの音響制御装置及びエレベータの音響システム及びエレベータ装置
JP2016023000A (ja) * 2014-07-16 2016-02-08 株式会社日立製作所 エレベーター装置
JP2019066667A (ja) * 2017-09-29 2019-04-25 株式会社アールライブ 環境音再生装置
WO2020136872A1 (ja) * 2018-12-28 2020-07-02 三菱電機株式会社 雰囲気清浄化装置、雰囲気清浄化方法及びエレベータ

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4265553A4

Also Published As

Publication number Publication date
CN116568624A (zh) 2023-08-08
EP4265553A4 (en) 2024-03-06
EP4265553A1 (en) 2023-10-25
JP7475495B2 (ja) 2024-04-26
JPWO2022137276A1 (ja) 2022-06-30

Similar Documents

Publication Publication Date Title
KR101589421B1 (ko) 진동 처리 장치 및 방법
US8167826B2 (en) Vibration generating apparatus and method introducing hypersonic effect to activate fundamental brain network and heighten aesthetic sensibility
Treasure Sound business
WO2022137276A1 (ja) 閉鎖空間用音響システム
Plourde Sonic air-conditioning: Muzak as affect management for office workers in Japan
WO2023042323A1 (ja) 閉鎖空間用音響システム
JP7462167B2 (ja) 環境制御システム
WO2021066086A1 (ja) 環境制御システム
JP7438406B2 (ja) エレベータ用音響システム
JP7258220B2 (ja) エレベータ用音響システム
JP7275374B2 (ja) エレベータ用音響システム
WO2024142730A1 (ja) 環境演出システム及び環境演出方法
JP7398703B2 (ja) 音響制御システム
Butler Sounding Affect in Pan Pan Theatre’s Adaptation of All That Fall
Brett Binaural Architecture: Sonic Compositions of Everyday Spaces
White Addressing auditory processing challenges and accessibility in live music settings
Maxfield et al. Planning functionally for good acoustics
JP2024093907A (ja) 再現システム及び再現方法
US20130270033A1 (en) Play Furniture
JPH07289740A (ja) 立体音響式娯楽装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20966775

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022570769

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202080107826.1

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2020966775

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020966775

Country of ref document: EP

Effective date: 20230721