WO2004084176A1 - 音響評価方法およびそのシステム - Google Patents

音響評価方法およびそのシステム Download PDF

Info

Publication number
WO2004084176A1
WO2004084176A1 PCT/JP2001/007031 JP0107031W WO2004084176A1 WO 2004084176 A1 WO2004084176 A1 WO 2004084176A1 JP 0107031 W JP0107031 W JP 0107031W WO 2004084176 A1 WO2004084176 A1 WO 2004084176A1
Authority
WO
WIPO (PCT)
Prior art keywords
factor
acf
sound
calculating
evaluation
Prior art date
Application number
PCT/JP2001/007031
Other languages
English (en)
French (fr)
Inventor
Yoichi Ando
Hiroyuki Sakai
Original Assignee
Yoichi Ando
Hiroyuki Sakai
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2000246418A external-priority patent/JP3350713B2/ja
Priority claimed from JP2001242267A external-priority patent/JP3584287B2/ja
Application filed by Yoichi Ando, Hiroyuki Sakai filed Critical Yoichi Ando
Priority to US10/110,307 priority Critical patent/US6675114B2/en
Publication of WO2004084176A1 publication Critical patent/WO2004084176A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H3/00Measuring characteristics of vibrations by using a detector in a fluid
    • G01H3/04Frequency
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H3/00Measuring characteristics of vibrations by using a detector in a fluid
    • G01H3/10Amplitude; Power

Definitions

  • the present invention relates to a sound evaluation method and a sound evaluation system.
  • the present invention relates to a method and a system for evaluating sound based on an autocorrelation function ACF and a cross-correlation function IACF.
  • the present invention relates to a method and an apparatus for measuring and psychological evaluation of local environmental noise such as aircraft noise and automobile noise.
  • the present invention relates to a method and apparatus for noise measurement and psychological evaluation using a binaural method.
  • SPL sound pressure level
  • an object of the present invention is to provide a noise source based on a human auditory cerebral function system, using a physical factor derived from an autocorrelation function that changes every moment in the time domain and a cross-correlation function between both ears. It is to provide a method, apparatus and medium for specifying the type.
  • Another object of the present invention is based on the human auditory cerebral function system, and more accurately by using a physical factor derived from an autocorrelation function that changes every moment in a time domain and a cross-correlation function between both ears.
  • Another object of the present invention is to provide a method, an apparatus, and a medium for performing psychological evaluation such as timbre, scale, loudness, pitch, timbre, psychological time sensation, subjective expansiveness, and apparent sound source width of a noise field.
  • an acoustic evaluation method comprises:
  • a predetermined data storing at least one of timbre data in which a timbre is associated with an ACF factor, rhythm data in which a rhythm is associated with an ACF factor, and psychological evaluation data in which a psychological evaluation value of an acoustic is associated with an ACF factor.
  • the predetermined database for example, each data of various musical instruments evaluated as good sound (for example, timbre, temperament, sound quality, subjective expansive scale value, ASW scale) Values, psychological evaluation values, etc.), and a database that stores data relating the ACF factor and IACF factor extracted from the sound).
  • the sound evaluation can be objectively performed.
  • this method is used to create musical instruments, adjust timbre and tone, and tune musical scales, it will be possible to objectively and more accurately create musical instruments with psychological evaluation values that are evaluated as good timbres, and tune musical instruments.
  • the acoustic evaluation method according to the present invention includes:
  • the AC F factor-one calculation step includes:
  • the ACF factor is one, the energy ⁇ (0) whose delay time is represented by 0, the effective duration delay time e , and the AC F normalized by the delay time up to the maximum peak of AC F.
  • the acoustic evaluation method includes: A pitch frequency calculation step for obtaining a pitch frequency based on the i of the ACF;
  • the scale of the sound signal of the target musical instrument can be accurately tuned by utilizing the fact that the reciprocal of the sound obtained from the sound signal correlates with the frequency of the pitch.
  • the predetermined scale database may use the predetermined database instead.
  • the acoustic evaluation method according to the present invention includes:
  • An I ACF factor one calculation step of calculating an I ACF factor from the calculated I ACF using the calculation means;
  • the acoustic evaluation method according to the present invention can also be realized in the form of a system.
  • the acoustic evaluation system according to the present invention
  • Voice collecting means for collecting an acoustic signal
  • ACF calculating means for calculating an autocorrelation function ACF from the collected sound signal using a calculating means
  • ACF factor-one calculating means for obtaining an ACF factor-one from the calculated ACF using the calculating means
  • At least one of timbre data that associates a timbre with an ACF factor, rhythm data that associates a tune with an ACF factor, and psychological evaluation data that associates some psychological evaluation value of sound with an ACF factor Evaluating means for evaluating sound using the arithmetic means based on the stored predetermined database and the obtained ACF factor;
  • the acoustic evaluation system includes:
  • the AC F factor-one calculating means is:
  • the AC F factor is one, the energy ⁇ (0) with a delay time of 0, the effective continuation delay time e , the delay time to the maximum peak of the AC F, i, the normalized
  • the acoustic evaluation system includes:
  • Pitch frequency calculating means for calculating a pitch frequency based on the AC i, and tuning means for comparing the obtained pitch frequency with data of a predetermined scale database to indicate a difference therebetween;
  • the acoustic evaluation system includes:
  • I AC F calculating means for calculating a cross-correlation function I AC F between each of the left and right channels by using a calculating means from the collected sound signal;
  • An IACF factor-one calculating means for calculating the IACF factor one from the calculated IACF using the calculating means; andthe obtained I ACF factor and / or the AC F factor one;
  • An evaluation means for performing a psychological evaluation of sound using the arithmetic means based on a database;
  • the method for identifying the type of noise source includes:
  • a sound signal recording step for collecting and recording the acoustic signal of the environmental noise using the voice sampling means, and an AC F for calculating the autocorrelation function (ACF) from the recorded acoustic signal by the arithmetic means using Fourier transform.
  • the ACF factor-one operation step is an ACF factor-one energy ( ⁇ (0)) having a delay time represented by 0 from the calculated ACF. ), An effective continuation delay time (r e :), a delay time until the first peak of the ACF (and a calculation step of calculating a normalized amplitude ( ⁇ ) of the first peak of the ACF),
  • the determination step for determining the type of the energy is the calculated ACF factor, which is the delay time represented by the energy ( ⁇ (0)) represented by 0, the effective duration delay time ( te ; The delay time until one peak ( ⁇ ), the amplitude of the maximum peak of the normalized ACF (the logarithm of ⁇ ⁇ and (in some cases, ' ⁇ and ⁇ ' ⁇ can be added)) are created in advance.
  • a step of obtaining a coefficient for each AC F factor, and a total distance calculation step of multiplying each obtained distance by a weight coefficient of a corresponding AC F factor obtained in advance to obtain a total distance. , Comparing the calculated total distance with the stored template distance, and selecting one of the closest templates. Provide a method.
  • an acoustic signal recording step of recording an acoustic signal of environmental noise in a binaural manner using a voice sampling means, and an arithmetic means from the acoustic signal recorded in the binaural manner is used.
  • An ACF 'I AC F factor calculation step for calculating the F factor and / or calculating each I ACF factor from the calculated I ACF, and for each of the calculated AC F and / or I AC F factors
  • This model consists of the autocorrelation between the acoustic signals in each of the two paths and the cross-correlation between these acoustic signals, and also takes into account the processing properties of the human hemisphere. That is, the autocorrelation function (ACF) and the cross-correlation function (IACF) are calculated using the acoustic signals entering both ears.
  • Energy ( ⁇ (0)) the delay time, which is a quadrature factor, represented by zero ( ⁇ (0)), the effective duration delay time (T e ), the delay time to the first peak of the ACF (T ⁇ ), and the normalized AC F
  • the amplitude of one peak ( ⁇ ) is derived from AC F.
  • the listening pressure level (LL), the maximum amplitude (IACC), the delay time to the maximum amplitude ( IACC :), and the width at the maximum amplitude (W I ACC ), which are the IACF factors, are calculated from the IACF. Derived.
  • FIG. 1 is an apparatus schematic diagram showing a specific configuration of the apparatus according to the present invention.
  • FIG. 2 is a flowchart of a method for specifying the type of noise source and performing psychological evaluation according to the present invention.
  • FIG. 3 is a diagram for explaining the procedure of the peak detection process, in which the vertical axis represents the noise level, the horizontal axis represents the time, and the lower part shows the integration interval.
  • Figure 4 is a graph with the logarithm of the absolute value of ACF on the vertical axis and the delay time on the horizontal axis.
  • Figure 5 is a graph with the ACF normalized on the vertical axis and the delay time on the horizontal axis.
  • Figure 6 shows a graph with the ICAFF normalized on the vertical axis and the delay time of the left and right signals on the horizontal axis. It is rough.
  • FIG. 7 is a block diagram illustrating a method of calculating a weight coefficient.
  • FIG. 8 is a block diagram illustrating a model of the auditory cerebral function system.
  • Figure 9 is a graph with the loudness scale on the vertical axis and the bandwidth on the horizontal axis.
  • Figure 10 is a 'graph with the scale value of the sense of spreading on the left vertical axis, the maximum amplitude I AC C on the right vertical axis, and the horizontal incident angle of the reflected sound on the horizontal axis.
  • Figure 11 (a) is a graph with ASW on the vertical axis and IACC on the horizontal axis.
  • 1 (b) is a graph with ASW on the vertical axis and W IACC on the horizontal axis.
  • Figure 12 is a graph in which the vertical axis shows the measured ASW scale value and the horizontal axis shows the calculated ASW scale value.
  • Figure 13 is a graph with the signal threshold on the vertical axis and the delay time on the horizontal axis.
  • FIG. 14 is a block diagram showing a basic configuration of an acoustic evaluation system according to the present invention.
  • FIG. 15 is a flowchart showing basic steps of the acoustic evaluation method according to the present invention.
  • Figure 16 shows the ACF waveform normalized by the sound source of the piano, with the vertical axis representing amplitude and the horizontal axis representing delay time.
  • Figure 17 is a graph with pitch (hertz) on the vertical axis and scales based on 12 equal temperament on the horizontal axis.
  • FIG. 1 is an apparatus schematic diagram showing a specific configuration of the apparatus according to the present invention.
  • a specific example of the apparatus according to the present invention includes a binaural sound sampling means 2 (microphone) for sampling an acoustic signal from a noise source mounted on a model 1 of a listener's head.
  • LPF 3 low-pass filter
  • AZD converter 4 computer 5 Consists of As the head, the head of the human body is most preferable, but this is inconvenient. Therefore, a dummy head imitating the head of the human body can be used. However, this dummy head is expensive, and the model 1 of the head other than the dummy head (firing styro
  • the computer 5 includes an acoustic signal storage unit 6 that stores the collected acoustic signals, an ACF calculation unit 7 that reads out the stored acoustic signals (two channels on the left and right), and calculates an ACF based on the acoustic signals.
  • IACF calculating means 8 for calculating IACF based on these acoustic signals
  • ACF factor-one calculating means 9 for calculating ACF factor one based on the calculated ACF
  • Left and right 2-channel condenser microphones (with microphone amplifier) attached to both ends of the listener's head model 1 are connected to a portable personal computer 5 through a low-pass filter.
  • Sound input / output terminal (A / D converter 4) Connect with The surrounding noise is taken in from this microphone mouth phone (acoustic signal sampling means 2).
  • a / D converter Sound input / output terminal
  • the surrounding noise is taken in from this microphone mouth phone (acoustic signal sampling means 2).
  • Under the management of a computer program perform measurements, calculate each physical factor, identify the type of noise source, and evaluate psychology.
  • a database will be built on data sources used for noise source type identification and psychological evaluation.
  • FIG. 2 is a flowchart of a method for specifying the type of noise source and performing psychological evaluation according to the present invention.
  • step S1 an acoustic signal from a noise source is sampled by a sound source sampling unit 2. This sampled sound signal is passed through LPF 3 to A " It is converted to a digital signal by the D Comparator 4.
  • step S2 the sound signal collected in step S1 is stored in the sound signal storage means.
  • step S3 the acoustic signal stored in step S2 is read.
  • ACF and IACF are calculated by the ACF calculating means 7 and the IACF calculating means 8 based on the acoustic signal read in step S3.
  • step S5 the ACF factor and the IACF factor are calculated by the ACF factor one calculating means 9 and the IACF calculating means 10 based on the ACF and the IACF calculated in the step S4.
  • step S6 based on the ACF factor and the IACF factor calculated in step S5, the noise source type specifying unit 11 and the psychological evaluation unit 12 specify the type of the noise source and perform psychological evaluation.
  • the data is read from database 13 that stores the template, and compared and examined.
  • the peak detection process extracts multiple measurement sessions from the collected acoustic signal.
  • energy ⁇ ⁇ (0) of Monoora Le is the energy at the inlet portion of each ear, continuously the [Phi (0) analyse.
  • FIG. 3 is a diagram for explaining the peak detection processing procedure, and is a graph in which the vertical axis represents the noise level, the horizontal axis represents time, and the lower part thereof indicates the integration interval.
  • the noise is continuous noise such as aircraft noise or train noise
  • the interval for calculating ⁇ (0) can be set to be quite long (for example, 1 second), but the noise is short or intermittent. In such cases, shorter intervals need to be used.
  • this interval must be determined according to the type of noise source.
  • the noise centered on the maximum value ⁇ (0) is recorded in a single session using the system.
  • the duration of one session, t s , for each target noise is selected to include a peak of ⁇ (0) after exceeding the L trig value.
  • the t s value is about 10 seconds. This is different for steady state noise with long duration and intermittent noise with short duration. Note that this system cannot be used in the presence of interfering noise.
  • a series of sessions Si (t), S 2 (t), S 3 (t), ... SN (t), N: session number of emissions, 0 ⁇ t ⁇ t s ) Is automatically stored on the system.
  • t step is preferably 0.1 second.
  • ACF and IACF can be obtained by performing FFT (fast Fourier transform) on a binaural signal and then performing inverse FFT.
  • FFT fast Fourier transform
  • the A-weighting filter and the frequency response of the microphone are considered after the FFT processing.
  • the ACF in the left and right ear regions is represented by ⁇ (te) and 3> rr (te), respectively.
  • ⁇ and ⁇ ⁇ ⁇ are averaged as follows:
  • ⁇ P ref (0) is ⁇ (0) at the reference sound pressure value of 20 °.
  • the binaural listening sound pressure level is the geometric mean of ⁇ (0) and ⁇ 0).
  • ⁇ (0) is a denominator for normalizing the IACF, it is considered to be classified into one of the IACF factors or the space factor of the right hemisphere.
  • the amplitude of the normalized AC F is Te cowpea the delay time when it comes to 0.1 (1 0% delay), to define the effective duration r e.
  • the normalized AC F, n, rr it) for the left and right ears is given by Figure 4 is a graph with the vertical axis representing the absolute value of the logarithm of the ACF and the horizontal axis representing the delay time. Since it is generally observed that the initial AC F decreases linearly as shown in Fig. 4, e can be easily obtained by converting the vertical axis to decibel (logarithmic).
  • the least mean square method is used for ACF peaks obtained over a certain short time ⁇ . This ⁇ is used to detect ACF peaks and must be carefully determined before calculation.
  • is used to detect ACF peaks and must be carefully determined before calculation.
  • Figure 5 is a graph with the ACF normalized on the vertical axis and the delay time on the horizontal axis. As shown in FIG. 5, is the delay time of the normalized ACF to the first peak, and ⁇ ⁇ is the amplitude at the first peak. The first peak is determined based on the main peak, ignoring local small peaks. Factor 1 ⁇ ⁇ and n (N ⁇ 2) are not taken into account. This is because the n and phi eta Te is from correlated to the i and [Phi i in general.
  • Figure 6 is a graph with the normalized ICAFF on the vertical axis and the delay time of the left and right signals on the horizontal axis.
  • the IACF between the acoustic signals of the left and right ears is represented by ⁇ lr ( ⁇ ) (-1 ⁇ T + l [ms]).
  • ⁇ lr ( ⁇ ) (-1 ⁇ T + l [ms]).
  • i is an integer
  • the maximum amplitude I AC C is a factor related to subjective diffusion. As shown in Fig. 6, the maximum amplitude of the normalized I AC ⁇ ⁇ ⁇ is obtained within the delay range. That is
  • the normalized I AC F is obtained by the following equation.
  • the listening sound pressure level LL is obtained by replacing SPL with LL in Eq. (2). In this way, each physical factor can be obtained from ACF and IACF. Next, a method for specifying the type of noise source based on the AC F factor will be described.
  • Type of noise source is four energy AC F factor delay time is represented by 0 - ([Phi (0)), the effective continuous delay time (tau beta), a first (maximum) delay time to peak of ACF (Te ,
  • the amplitude of the first (maximum) peak of the normalized AC F is specified using ⁇ . Since ⁇ (0) changes according to the distance between the noise source and the listener, if the distance is unknown, Special attention must be paid to the calculation conditions, even if the factor ⁇ (0) is not valid, the other three factors can be used to identify the type of noise source. If spatial information is changed, the remaining I AC F a factor one can also take into account the minimum is the largest variation portion of the acoustic signal Te e:. one of the reasons for using (X e) mi n is It is this part that is most involved in the subjective response.
  • each factor at (T e ) min for unknown target data (indicated by symbol a in the following equations (7) to (10)) and the template stored in the database (indicated by symbol b ), And calculate the difference, that is, the “distance”.
  • target means environmental noise as an object specified by the system.
  • the template value is a set of typical AC F factors for a particular environmental noise, comparing these multiple templates with unknown noise.
  • the distance D (X) (X: ⁇ (0), e , and t are calculated by the following equations.
  • the total distance D of the target noise source is expressed by the following equation.
  • the template with D closest to the calculated distance D is determined to be the noise source to be sought, whereby the unknown noise source is determined. For example, it is possible to specify whether the noise is a railway, a car, an aircraft, or a factory, and further specify the type and model of the noise.
  • FIG. 7 is a block diagram illustrating a method of calculating a weight coefficient.
  • Weighting coefficient WW of formula (1 1) ( ⁇ ; ⁇ (0), Te e, Te iota, iota) can be obtained by using the statistical values Si «and S 2 W.
  • Si (i) is the arithmetic mean of the standard deviation (SD) for all categories of AC F factor.
  • category 1 means a set of data for the same type of noise.
  • S 2 ( » is the standard deviation of the arithmetic mean of each category.
  • WW is obtained by (S2 / S1) 1 after normalizing with the maximum value of the factor ⁇ (S2 / S1)" 2 ⁇ max.
  • this square root is empirically obtained: a larger SD between noise sources and a smaller SD between certain noises can be distinguished from other types of noise by a factor of one. Therefore, the weight of such a factor is greater than that of the other factors. If available, the template can also be overridden on the system by averaging the latest value for each ACF factor in the system with the original value.
  • FIG. 8 is a block diagram illustrating a model of the auditory cerebral function system. Auditory Models of the cerebral function system include the autocorrelation (ACF) mechanism, the interaural interaction (IACF) mechanism, and the functional differentiation of the left and right cerebrum. It should be noted that the information contained in the power spectrum of the signal is also contained in the ACF of the acoustic signal. In order to show the spatial sensation of the noise field, we consider the spatial factor extracted from the IACF. Tone is defined as an overall sensation that includes the basic and spatial senses of sound
  • p '(t) p (t) * s (t), where s (t) is ear sensitivity.
  • s (t) uses the impulse response of the A characteristic.
  • the power spectrum can also be obtained from the AC F as in the following equation.
  • the ACF and the power spectrum contain the same information mathematically.
  • i is related to the noise pitch or the mixing fundamental phenomenon described later.
  • p ′ (t) is a pressure 20 0 for giving a sound pressure level L (t).
  • L ea 101og ⁇ "10 ⁇ (1 6)
  • the L e q are those corresponding to 1 01ogi) p (0).
  • the sampling frequency since they must be at least twice the maximum audible frequency range
  • the measurement can be performed with much higher accuracy than Leq measured by a normal sound level meter.
  • Figure 9 is a graph with the loudness scale on the vertical axis and the bandwidth on the horizontal axis.
  • This graph shows the loudness scale value within the critical band obtained by a pairwise comparison test (using a filter with a slope of 180 dB / octave) under the condition that ⁇ p (0) is constant. It is shown.
  • noise such as pure tone has the same repetitive component, e is large, and the loudness is large.
  • the relationship between loudness and bandwidth is not flattened even within the critical band.
  • This result was obtained in the frequency band with a center frequency of 1 kHz.
  • the noise pitch or missing fundamental is expressed by the following equation.
  • the mixing fundamental phenomenon is a phenomenon in which, when there are some overtone structures, a sound of a pitch that does not actually exist is heard.
  • the most complex perceptual timbre is given by The timbre includes loudness pitch.
  • Equation (18) can be rewritten as follows.
  • p'l, r (t) p (t) l, r * S (t), and p (t) l, r is the sound pressure at the entrance of the left and right external auditory canal.
  • the perception of spatial information including the perception of the direction of the horizontal plane of the noise source is represented by the following equation.
  • LL is the arithmetic mean of the energy of the sound signal arriving at both ears, expressed as:
  • IACC is an important factor for the horizontal perception of horizontal sound sources.
  • I ACC is large, and W I ACC is small due to high frequency components, a clear sense of direction is obtained.
  • I AC C is a small value (0.15).
  • FIG. 10 is a graph in which the left vertical axis represents the scale value of the sense of spreading, the right vertical axis represents the maximum amplitude I AC C, and the horizontal axis represents the horizontal incident angle of the reflected sound. As shown in Fig. 10, the results for the frequency band of 250 Hz to 4 kHz (Fig.
  • Acoc is 2 ⁇ (+ f 2 ), and and are the lower and upper limits of the ideal bandpass filter, respectively.
  • the ASW scale value was determined by a pairwise comparison test using 10 subjects. In order to control the value of W IACC, the center frequency of the 13 octave band bass noise was changed from 250 Hz to 2 kHz. I AC C was adjusted by controlling the ratio of the reflected sound level to the direct sound.
  • Figure 11 (a) is a graph with ASW on the vertical axis and IACC on the horizontal axis.
  • FIG. 11 is a graph in which the vertical axis shows the ASW scale value actually measured, and the horizontal axis shows the calculated ASW scale value.
  • the spatial and temporal factors of the short-time running extracted by the method are used to indicate the basic sensation of the time-varying noise field. .
  • the ⁇ ( ( '(2 7 ) where 2 T is the length of the signal to be analyzed. This length 2 T, the minimum value of the effective duration of the running ACF (the Te E) min in a range including at least You have to decide.
  • a noise of (r e ) min indicates that the signal fluctuates most rapidly, and this part has the most influence on the subjective response.
  • Equation (15) can be rewritten as the following equation for the loudness S L in each noise part. _
  • the timbre of the environmental noise field is expressed by the following equation, with all temporal and spatial factors.
  • Ear sensitivity is characterized by a physical system that includes the outer and middle ears. Before analyzing the acoustic signal, apply A-weighting for convenience.
  • the clarity of a single syllable as a function of the delay time of a single reflected sound can be predicted by analyzing four orthogonal factors extracted from the short ACF between the vowel and consonant.
  • timbre and relative similarity is an overall subjective response, similar to the subjective preference of the sound field in a concert hall. Similar to timbre, subjective preferences are expressed using the minimum value of e .
  • the short integration time is represented by the following equation.
  • the effects of noise on mental work can be interpreted as a disturbing phenomenon between work efficiency and cerebral specialization.
  • the temporal factor extracted from ACF is related to the left cerebral hemisphere, and the factor extracted from ACCF is mainly related to the right cerebral hemisphere.
  • FIG. 14 is a block diagram showing a basic configuration of an acoustic evaluation system according to the present invention.
  • This acoustic evaluation system has the same basic components as the system in Fig. 1. However, some of the components inside the computer are different. As shown in FIG.
  • the present sound evaluation system includes a sound sampling means 20 for sampling sound signals (two left and right channels), an ACF calculating means 21 for calculating an ACF based on these sound signals, I AC F calculating means 25 for calculating I AC F based on sound signal, AC F factor function for calculating AC F factor based on this calculated AC F Calculating means 22, IACF factor calculating means 26 for calculating the IACF factor based on the calculated ICAF, means for evaluating the sound based on the calculated ACF factor 24, and the calculated ACF factor It has means for evaluating sound based on the I and Z or IACF factor 27, and a database 23 for storing various data.
  • FIG. 15 is a flowchart showing basic steps of the acoustic evaluation method according to the present invention.
  • an acoustic signal from a sound source is collected by a microphone (not shown).
  • a microphone In addition to the microphone, it is also possible to collect a digital signal or an analog signal by, for example, a line input.
  • the collected audio signal is converted to a digital signal by an A / D converter (not shown) via an LPF 3 (not shown).
  • the ACF and the IACF are calculated by the computer, that is, the CPU, based on the collected acoustic signals.
  • the CPU calculates an AC F factor and an I ACF factor based on the calculated AC F and I AC F.
  • the timbre data that associates the timbre with the ACF factor, the rhythm data that associates the cadence with the ACF factor, and psychological evaluation data that associates the psychological evaluation value of the sound with the ACF factor are stored in advance. A predetermined overnight base will be established. Next, the association between each data and the AC F factor or the I AC F factor will be described. For example, a certain instrument emits various sounds, the system collects the sounds at that time, calculates the AC F factor and the I ACF factor, and simultaneously calculates the AC F factor and the I ACF factor for each sound at this time. Each data (tone, sound quality, or psychological evaluation value, etc.) can be calculated or determined based on the ACF factor or other known methods.
  • the ACF factor or I ACF factor of each sound is associated with each data relating to the sound and stored in the database.
  • the CPU generates a sound based on the calculated AC F-factor and I AC F-factor. Evaluate the sound.
  • data is read from a database that stores various data and compared and examined.
  • Figure 16 shows the normalized ACF waveform of the piano extracted from the piano sound source using this system and extracted from the collected sound signal.
  • the vertical axis represents the amplitude, and the horizontal axis represents the delay time.
  • This is a graph. That is, it is a graph showing the waveform of AC F extracted from the acoustic signal of the piano.
  • Fig. 16 (a) shows A l (55Hz) and (b) shows A 2
  • Figure 17 is a graph with pitch (hertz) on the vertical axis and scales based on 12 equal temperament on the horizontal axis.
  • the square point is the pitch of the scale of the 12-temperament scale determined by a predetermined formula.
  • the dots in the black circles are the pitches determined from r.
  • the pitch based on the 12-average and the pitch based on ⁇ agree well.
  • the deviation of the pitch calculated based on the scale A6 is probably due to a tuning error.
  • the ACF factor By using the ACF factor in this way, it becomes possible to tune a variety of musical instruments, including the piano.
  • scale data of various rhythms is stored in a predetermined database in advance.
  • the user can select a desired temperament according to the purpose.
  • the default is equal temperament.
  • the reference tone “ ⁇ 4” defaults to 440 Hz, and the reference tone can be changed in 1 Hz steps.
  • the reference sound can be generated with a pure tone.
  • the reference frequency and the scale type be variable. If equal temperament is selected, display the scale closest to the pronounced note (such as A or C #).
  • desired data ie, scale
  • desired data ie, scale
  • desired data may be selected in advance, and a numerical value indicating the difference between the desired data and the scale of the pronounced sound may be indicated.
  • the desired scale is A2 (ie, if you want to tune to A2)
  • the pitch frequency associated with scale A2 with reference to the database
  • a numerical value indicating the difference can be presented by comparing the pitch frequency with the pitch frequency extracted from the sound.
  • the difference can be expressed as a scale difference, not as a frequency difference.
  • a numerical value indicating the difference between the scale of the pronounced sound and the desired scale or the closest scale is displayed, and an indicator indicating whether the sound produced is longer, lower, or exactly the same as that scale is displayed. It is also possible to provide.
  • the AC F factor obtained from the sound emitted from the musical instrument using the present invention Yuichi and the IACF factor are compared with a database of good sound ACF factors and IACF factors that have been built in advance, and by showing the differences and differences, an instrument that can produce excellent sounds is produced. Can be supported.
  • the present invention it is possible to know the spatial impression of the sound field from the IACF factor.
  • the present invention can be used not only by musical instrument makers but also by developers and researchers, singers and musical instrument players for reference to tuning and playing methods.
  • tuning and sound evaluation in the present invention can be used for various musical instruments, for example, acoustic instruments (keyboards, string instruments, wind instruments, etc.), electronic musical instruments, and the like.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Description

音響評価方法およびそのシステム 明
技 術 分 野
本発明は、 音響評価方法、 および音響評価システムに関するものであり、 特に、 田
自己相関関数 A C Fや相互相関関数 I A C Fに基づき、 音響を評価する方法およ ぴシステムに関するものである。
また、 本発明は、 航空機騒音や自動車騒音などの地域環境騒音の計測 ·心理評 価の方法及び装置に関するものである。 特にバイノーラル方式による騒音の計 測 ·心理評価の方法及び装置に関するものである。
背 景 技 術
従来、 航空機騒音や自動車騒音などの地域環境騒音は、 モノオーラル方式によ る騒音計を用いて測定した音圧レベルやその周波数特性に関して議論されてきた。 しかし、 上述したモノオーラル方式により測定された物理的ファクタ一のみでは 人間の主観的応答を表わすには不十分かつ不適切であることがわかってきた。 ま た、 コンサートホール音響学では、 バイノーラル方式により、 ホールの物理的な データと心理的 (主観的) な関連性が明らかとなってきているが、 騒音の分野に おいてはモノオーラル方式でしかもスぺクトル情報に関するものが殆どである。 また、 従来、 音楽業界における調律や音色の評価方法では、 音響のスペクトル 分析をまず行ない、 その後、 ケプストラム分析をする手法が一般に行なわれてい た。
長年の間、 環境騒音は、 音圧レベル (SPL; S ound Pressure Level) の統計 値を用いて評価されてきた。 この S P Lは、 Lx または Leqで表わされ、 これの パワースペク トルは、 モノオーラル騒音計で測定する。 しかしながら、 この S P L及びパワースペクトルだけでは環境騒音の主観的な評価には適さない。
また、 従来の調律や音色の評価方法では、 人間の心理的反応を適格に表わすこ とは困難であった。
即ち、 本発明の目的は、 人間の聴覚一大脳機能システムにもとづき、 時間領域 において時々刻々変化する自己相関関数及び両耳間の相互相関関数から導出され る物理ファクタ一を用いて、 騒音源の種類を特定する方法、 装置及び媒体を提供 することである。
また本発明の他の目的は、 人間の聴覚一大脳機能システムにもとづき、 時間領 域において時々刻々変化する自己相関関数及び両耳間の相互相関関数から導出さ れる物理ファクターを用いて、 より的確に音色、 音階、 ラウドネス、 ピッチ、 音 色、 心理的時間感覚をはじめ、 主観的拡がり感、 騒音場の見かけの音源の幅など の心理評価を行う方法、 装置及び媒体を提供することである。
発明の開示
上述した目的を達成するために、 本発明による音響評価方法は、
音響信号を採取する音声採取ステップと、
この採取された音響信号から演算手段を用いて自己相関関数 A C Fを計算する A C F演算ステップと、
この算出された A C Fから前記演算手段を用いて A C Fファクターを求める A C Fファクタ一演算ステップと、
音色と A C Fファクターとを関連付けた音色データ、 音律と A C Fファクター とを関連付けた音律データ、 音響の心理評価値と A C Fファクタ一とを関連付け た心理評価データ、 のうちの少なくとも 1つが格納された所定のデータベースと、 この求めた A C Fファクタ一と、 に基づき前記演算手段を用いて、.音響を評価す る評価ステップと、 を含むことを特徴とする。
本構成によれば、 前記の所定のデータベース (例えば、 良い音であると評価さ れた様々な楽器の有する各データ (例えば、 音色、 音律、 音質、 主観的拡がり感 の尺度値、 ASWの尺度値、 心理的評価値など) と、 その音から抽出された AC Fファクターや I AC Fファクタ一とを関連付けたデータが格納されたデータべ —ス) を参照してこのデ一夕ベースから読み出されたデ一夕と、 対象とする音響 信号から抽出された AC Fファクタ一とを比較してその相違、 或いはその差の数 値や差異の程度を提示することによって、 音響評価を客観的にできるようになる。 本方法を楽器作成、 音色や音質の調整、 音階の調律などに利用すれば、 良い音色 であると評価された心理評価値を有する楽器の作製や、 楽器の調律などを、 より 客観的により的確にすることができるようになる。 即ち、 本発明によれば、 従来、 楽器職人などの勘に頼って作成されていた楽器を、 客観的なデータに基づき作製 することが可能になる。
また、 本発明による音響評価方法は、
前記 AC Fファクタ一演算ステップが、
前記計算された AC Fから、 ACFファクタ一である、 遅れ時間が 0で表わさ れるエネルギー Φ(0)、 有効継続遅延時間て e、 AC Fの最大ピークまでの遅延時 間て 正規化した AC Fの最大ピークの振幅 その遅れ時間 (て ύ 内にあ る各ピーク値の情報 (て' η, φ'η, η = 1, 2, 3,.·, Ν (Νは約 1 0よりも 小さい整数)) のうちの少なくとも 1つを計算する演算ステップを含 、 ことを特徴とする。
本構成によれば、 上述した様々な AC Fファクタ一に基づき、 より良い音色な どの心理評価値を有する楽器の作成や、 楽器の調律などを、 より客観的により的 確にすることができるようになる。
また、 本発明による音響評価方法は、 前記 A C Fのて i に基づき、 ピッチの周波数を求めるピッチ周波数演算ステツ プと、
この求めたピッチ周波数と、 所定の音階データベースのデータとを比較してそ の相違を示す調律ステップと、
を含むことを特徴とする。
本構成によれば、 音響信号から求められたてェの逆数がピッチとなる周波数に 相関することを利用することによって、 対象となる楽器の音響信号の音階を、 的 確に調律することができるようになる。 なお、 この所定の音階デ一夕べ一スは、 前記の所定のデータベースを代用することも可能である。
また、 本発明による音響評価方法は、
音響信号をバイノーラル方式で採取するステップと、
この採取された音響信号から演算手段を用いて左右の各チャンネル間の相互相 閧閧数 I A C Fを計算する I A C F演算ステップと、
前記演算手段を用いて、 この計算された I A C Fから I A C Fファクタ一を計 算する I A C Fファクタ一演算ステップと、
この求めた I A C Fファクタ一および/または前記 A C Fファクタ一と、 前記 所定のデータベースと、 に基づき前記演算手段を用いて、 音響の評価や、 音響の 心理評価を行なう評価ステツプと、
を含むことを特徴とする。
本構成によれば、 I A C Fに基づいて抽出された、 例えば広がり感などの立体 的な心理評価値と、 所定のデ一夕ベースとを比較して、 その相違など提示するこ とによって、 音響の評価や心理評価などを客観的かつ的確にできるようになる。 また、 本発明による音響評価方法はシステムの形態でも実現できる。
例えば、 本発明による音響評価システムは、
音響信号を採取する音声採取手段と、 この採取された音響信号から演算手段を用いて自己相関関数 AC Fを計算する AC F演算手段と、
この算出された AC Fから前記演算手段を用いて AC Fファクタ一を求める A CFファクタ一演算手段と、
音色と AC Fファクタ一とを関連付けた音色データ、 音律と AC Fファクター とを関連付けた音律データ、 音響の何らかの心理評価値と AC Fファクターと関 連付けた心理評価データ、 のうちの少なくとも 1つが格納された所定のデータべ —スと、 この求めた ACFファクタ一と、 に基づき前記演算手段を用いて、 音響 を評価する評価手段と、
を含むことを特徴とする。
また、 本発明による音響評価システムは、
前記 AC Fファクタ一演算手段が、
前記計算された AC Fから、 AC Fファクタ一である、 遅れ時間が 0で表わさ れるエネルギー Φ(0)、 有効継続遅延時間て e、 AC Fの最大ピークまでの遅延時 間て i、 正規化した ACFの最大ピークの振幅 て 内にある各ピーク値の情 報 (て, η, Φ'η' η = 1, 2, 3,.., Ν (Νは約 10よりも小さい整数)) のう ちの少なくとも 1つを計算する演算手段を含む、
ことを特徴とする。
また、 本発明による音響評価システムは、
前記 AC Fのて i に基づき、 ピッチの周波数を求めるピッチ周波数演算手段と、 こ.の求めたピッチ周波数と、 所定の音階データベースのデータとを比較してそ の相違を示す調律手段と、
を含むことを特徴とする。
また、 本発明による音響評価システムは、
バイノーラル方式で左右のチャンネルの音響信号を採取する手段と、 この採取された音響信号から演算手段を用いて左右の各チャンネル間の相互相 関関数 I AC Fを計算する I AC F演算手段と、
前記演算手段を用いて、 この計算された I ACFから I ACFファクタ一を計 算する I ACFファクタ一演算手段と、 · この求めた I AC Fファクターおよび または前記 AC Fファクタ一と、 前記 所定のデータベースと、 に基づき前記演算手段を用いて、 音響の心理評価を行な う評価手段と、
を含むことを特徴とする。
さらに、 本発明による騒音源の種類を特定する方法は、
音声採取手段を用いて環境騒音の音響信号を採取 ·記録する音響信号記録ステ ップと、 この記録された音響信号からフーリエ変換を用いて演算手段により自己 相関関数 (ACF) を算出する AC F演算ステップと、 この算出された ACFか ら演算手段により各 AC Fファクタ一を求める AC Fファクタ一演算ステップと、 この求めた各 AC Fファクターを用いて演算手段により騒音源の種類を判定する 判定ステップと、 を含むことを特徴とする。
また、 好適には、 上述した騒音源の種類を特定する方法において、 前記 ACF ファクタ一演算ステップが、 前記計算された A C Fから A C Fファクタ一である 遅れ時間が 0で表わされるエネルギー (Φ(0))、 有効継続遅延時間 (re:)、 AC Fの第 1ピークまでの遅延時間 ( て 、 正規化した AC Fの第 1ピークの振幅 ( ι) を計算する演算ステップを含み、 前記騒音源の種類を判定する判定ステ ップが、 これらの計算された A C Fファクタ一である遅れ時間が 0で表わされる エネルギー (Φ(0))、 有効継続遅延時間 ( て e;)、 AC Fの第 1ピークまでの遅延 時間 ( て ι)、 正規化した AC Fの最大ピークの振幅 (φύ からその対数と (場 合によっては て ' η、 φ'ηを加えることもできる)、 予め作成してある騒音源の各 AC Fファクター毎の対応するテンプレートの対数との差の絶対値である距離を それぞれ求めるステップと、 予め AC Fファクターの各々の算術平均の標準偏差 である S 2を、 AC Fファクターの全カテゴリーに対する標準偏差の算術平均で ある S で除算し、 この除算したものの平方根である重み係数を各 AC Fファク ター毎に求めるステップと、 求めたそれぞれの距離に、 予め求めておいた対応す る各 AC Fファクターの重み係数を乗算し、 合計の距離を求める合計距離演算ス テツプと、 この求めた合計距離と、 格納されているテンプレートの距離とを比較 し、 最も近いテンプレートの 1つを選択する比較 ·選択ステップと、 を含むこと を、 特徴とする騒音源の種類を特定する方法を提供する。
本発明の他の目的を達成するためには、 音声採取手段を用いて環境騒音の音響 信号をバイノーラル方式で記録する音響信号記録ステップと、 このバイノーラル 方式で記録された音響信号から演算手段を用いて自己相関関数 (ACF) 及び左 右の各チャンネル間の相互相関関数 ( I ACF) を計算する AC F及び I AC F 演算ステップと、 この計算された AC Fから前記演算手段を用いて各 AC Fファ クタ一を計算し、 及び またはこの計算された I ACFから各 I ACFファクタ —を計算する ACF ' I AC Fファクター演算ステップと、 この計算された AC F及ぴ または I AC Fファクターの各々に基づき演算手段を用いて心理評価を 行う心理評価ステップと、 を含むことを特徴とする騒音源について心理評価を行 う方法を提供する。
本発明の実施手段を主として方法の形態で説明してきたが、 本発明はこれらの 方法に対応する装置、 システム、 プログラム、 記憶媒体の形態でも実現できるこ とを留意されたい。
ラウドネス、 ピッチ、 音色などの基本的な知覚デ一夕と同様に、 嗜好や拡散性 などの多くの主観的なデータの記述は、 人間の聴覚一大脳システムの音場に対す る応答モデルに基づいている。 この応答モデルは予測されてきたが、 それは経験 的に得られた結果と一致することが知られている。 例えば最近、 周波数帯域幅を 制限したノイズのラウドネスは、 S P Lによって影響をうけるのと同様に、 自己 相関関数 (AC F) における有効継続時間 ( て e) によって影響を受けることが 知られている。 また、 複合音の基本周波数が約 1200H zよりも低い場合、 ピッ チ及びその強さは、 それぞれ AC Fの第 1 ピークまでの遅延時間 ( て ι)、 正規化 した AC Fの第 1 ピークの振幅 (Φ ύ によって影響を受ける。 特に、 ある時間 内におおいて求められた TT eの最小値 ( て e) minで得られる AC Fファクタ一は、 騒音源及び騒音場の主観的評価の差異を良く表わすものである。
このモデルは、 2つのそれぞれの経路における音響信号同士の自己相関と、 こ れらの音響信号の間における相互相関とから構成され、 人間の大脳半球の処理特 性も考慮するものである。 即ち、 両耳に入ってくる音響信号を用いて、 自己相関 関数 (AC F) 及び相互相関関数 ( I AC F) を計算する。 直交ファクターであ る遅れ時間が 0で表わされるエネルギー (Φ(0))、 有効継続遅延時間 ( て e)、 A C Fの第 1 ピークまでの遅延時間 ( て ι)、 正規化した AC Fの第 1ピークの振幅 (Φι) は AC Fから導出される。 また、 I A C Fファクタ一である聴取音圧レ ベル (L L)、 最大振幅 ( I A C C)、 最大振幅までの遅延時間 ( て I A C C:)、 最 大振幅における幅 (WI ACC) は、 I AC Fから導出される。
図面の簡単な説明
図 1は、 本発明による装置の具体的な構成を示す装置概略図である。
図 2は、 本発明による騒音源の種類の特定、 心理評価を行う方法のフローチヤ ートである。
図 3は、 ピーク検知処理手順を説明する図であって、 縦軸にノイズレベル、 横 軸に時間をとつたグラフであって、 その下段に積分間隔を示す図である。
図 4は、 縦軸に AC Fの絶対値の対数、 横軸に遅延時間をとつたグラフである。 図 5は、 縦軸に正規化した AC F、 横軸に遅延時間をとつたグラフである。
図 6は、 縦軸に正規化した I AC F、 横軸に左右の信号の遅延時間をとつたグ ラフである。
図 7は、 重み係数の計算方法を説明するブロック図である。
図 8は、 聴覚一大脳機能システムのモデルを説明するブロック図である。
図 9は、 縦軸にラウドネス尺度値、 横軸にバンド幅をとつたグラフである。 図 10は、 左縦軸に拡がり感の尺度値、 右縦軸に最大振幅 I AC C、 横軸に反 射音の水平入射角度をとつた'グラフである。
図 1 1 (a) は、 縦軸に ASW、 横軸に I ACCをとつたグラフであり、 図 1
1 (b) は縦軸に ASW、 横軸に WIACCをとつたグラフである。
図 12は、 縦軸に実際に測定した A SWの尺度値、 横軸に計算された ASWの 尺度値をとつたグラフである。
図 13は、 縦軸に信号の閾値、 横軸に遅延時間をとつたグラフである。
図 14は、 本発明による音響評価システムの基本的な構成を示すブロック図で ある。
図 1 5は、 本発明による音響評価方法の基本的なステップを示すフローチヤ一 トである。
図 16は、 ピアノの音源による正規化した AC Fの波形であり、 縦軸に振幅、 横軸に遅延時間をとつたグラフである。
図 1 7は、 縦軸にピッチ (ヘルツ)、 横軸に 1 2平均律による音階をとつたグ ラフである。
発明を実施するための最良の形態
以下、 添付する図面を参照しつつ'本発明を詳細に説明する。
図 1は、 本発明による装置の具体的な構成を示す装置概略図である。 図 1に示 すように本発明による装置の具体例は、 聴者の頭部の模型 1に装着された騒音源 からの音響信号を採取するバイノーラル方式の音声採取手段 2 (マイクロフォ ン) を、 L P F 3 (ローパスフィルタ)、 AZDコンバータ 4、 コンピュータ 5 から構成される。 この頭部としては、 人体の頭部が最も望ましいがそれでは不便 であるため、 人体の頭部を模したダミーヘッ ドを用いることもできる。 しかし、 このダミーヘッ ドは高価であり、 ダミーヘッド以外の頭部の模型 1 (発砲スチロ
—ルなどの材料を用いた球体 (直径を 20cm) としたもの) でも本発明で測定 する ACF、 I ACFでは、 有意差がないため、 発砲スチロール製の頭部の模型 を用いた。 このコンピュータ 5は、 採取された音響信号を格納する音響信号記憶 手段 6と、 この格納された音響信号 (左右 2チャンネル) を読み出し、 これらの 音響信号に基づき AC Fを計算する AC F演算手段 7、 とこれらの音響信号に基 づきに I ACFを計算する I ACF演算手段 8、 この計算された A C Fに基づき AC Fファクタ一を計算する AC Fファクタ一演算手段 9、 この計算された I A CFに基づき I AC Fファクタ一を計算する I AC Fファクタ一演算手段 1 0、 この計算された AC Fファクタ一に基づき騒音源の種類を特定する騒音源の種類 を特定する手段 1 1、 この計算された ACFファクタ一及びノまたは I ACFフ アクターに基づき心理評価を行う手段 1 2、 騒音源の種類の特定及び心理評価に 用いるデータに関するデータべ一ス 13を具える。 .
聴者の頭部の模型 1の両端に取り付けた左右 2チャンネルのコンデンサマイク 口フォン (マイクアンプ付き) を、 ローパスフィルタを介して可搬型パーソナル コンピュータ 5のサウンド入出力端子 (A/D変換部 4) と接続する。 このマイク 口フォン (音響信号採取手段 2) から周りの騒音の取り込みを行う。 コンピュー 夕上のプログラムの管理下、 計測、 各物理ファクタの算出、 騒音源の種類の特定、 心理評価、 などを行う。 また、 騒音源の種類の特定及び心理評価に用いるデ一夕 に関するデータベースを構築する。
図 2は、 本発明による騒音源の種類の特定、 心理評価を行う方法のフローチヤ ートである。 図 2に示すように、 ステップ S 1では、 騒音源からの音響信号を音 源採取手段 2により採取する。 この採取された音響信号は L P F 3を介して A " Dコンパ一夕 4によりデジタル信号に変換する。 ステップ S 2では、 ステップ S 1 で採取された音響信号を音響信号記憶手段に格納する。 ステップ S 3では、 ス テツプ S 2で格納された音響信号を読み出す。 ステップ S 4では、 ステップ S 3 で読み出された音響信号に基づき AC F及び I AC Fを AC F演算手段 7及び I AC F演算手段 8により計算する。 ステップ S 5では、 ステップ S 4で計算され た ACF及び I AC Fに基づき AC Fファクタ一演算手段 9及び I AC F演算手 段 1 0により AC Fファクター及び I AC Fファクターを計算する。 ステップ S 6では、 ステップ S 5で計算された AC Fファクタ一及び I ACFファクタ一に 基づき、 騒音源種類特定手段 1 1、 心理評価手段 12により騒音源の種類の特定、 心理評価を行う。 その特定、 評価の際には、 テンプレートを格納するデータべ一 ス 1 3からデータを読み出し比較,検討を行う。
まず初めに、 ピーク検知プロセスにより、 採取した音響信号から複数の測定セ ッシヨンを抽出する。 連続的な騒音から自動的に環境騒音や目的の騒音を抽出す るために、 左右それぞれの耳の入り口部位におけるエネルギーであるモノオーラ ルのエネルギー Φη(0)、 Φ (0)を連続的に分析する。 図 3は、 ピーク検知処理手 順を説明する図であって、 縦軸にノイズレベル、 横軸に時間をとつたグラフであ つて、 その下段に積分間隔を示す図である。 騒音が航空機騒音や列車騒音などの 連続騒音の場合、 Φ(0)の計算のための間隔を、 かなり長く (例えば 1秒など) 設定することができるが、 騒音が短時間や断続的である場合は、 より短い間隔を 用いる必要がある。 しかしながら、 後述する式 (1) で連続計算する場合、 積分 間隔よりも長い間隔を選ぶ必要がある。 従って、 この間隔は、 騒音源の種類に応 じて決定する必要がある。
これによつて、 長い時間の間隔で普通の騒音計を用いて Φ(0)を決定するより、 より正確に Φ(0)を決定することができる。 ピークを検出するためには、 前もつ てトリガ一レベル Ltrigを適切に設定しておく必要がある。 適当な Ltrig値は、 目 標とする騒音の種類、 目標とする騒音と観察者との距離、 大気の条件などに応じ て変化するものである。 従って、 この値を予備測定によって決定する必要がある。 目的騒音と観察者との距離が近くて、 かつ、 観察者の近くに干渉する騒音源がな い場合、 L trig値を決定することは容易である。
最大値 Φ (0)を中心とする騒音を、 システムを用いて単一のセッションで記録 する。 各々の目的とする騒音に対する 1つのセッションの継続時間すなわち ts は、 L trig値を超えた後に Φ (0)のピークを含むように選択する。 航空機騒音や列 車騒音などの普通の環境騒音の場合は、 ts値は約 1 0秒である。 これは、 継続時 間が長い定常状態の騒音と短い継続時間の断続的な騒音とでは異なる。 このシス テムは、 干渉する騒音がある場合には使えないことに留意されたい。 図 3に示す ように、 一連のセッショ ン (Si(t),S2(t),S3(t),...SN(t)、 N:セッショ ンの数、 0<t<ts) をシステム上に自動的に格納する。
図 3に示すように、 継続時間 tsでの各セッション S N(t)に対するランニング ACF及びランニング IACFを分析する。 ここでは、 「ランニング」 のプロセスを 説明するために単一のセッションのみを考えることとする。 計算の前に、 適切な 積分間隔 2T及び連続ステップ tstepの値を決定する。 前述したように、 推奨され る積分間隔は約 3 0 X (て e)min[ms]であり、 この(て e)minは一連の値て eの最小値 であり、 予備測定で容易に発見し得るものである。 これは、 違う種類の環境騒音 のデータを用いて見つけるものである。 大抵の場合、 隣接する積分間隔をお互い に重ね合わせる。
ACF と IACF を、 2T の範囲での 1 セッ シ ョ ン ごとの各ステ ッ プ ( n=l,2,...,M ) に っ き 計 算 す る 。 各 ス テ ッ プ は 、
{ (0,2T) , (tsteP)tStep+2T), (2tstep,2tstep+2T) , ... , ((Μ" l)tstep, (Μ" l)tstep+2T) } のよう に tstepずつシフトする。 物理ファクタ一は、 ACF及び IACF の各ステップから 導出する。 2Tは予測されるて eの値よりも十分長くする必要がある。 また、 これ は、 各ステップに対する知覚の 「聴覚の時間窓」 に大きく関連する。 環境騒音に 対する 2T としては、 概ね 0. 1〜0. 5秒が適している。 2 Tがこの範囲より も小さい場合、 (て e)minがある値に収束する。 一般的に、 tstepは 0. 1秒が好適 である。 変動が細かい場合は、 より短い tstep を選択する。 よく知られているよ うに、 バイノーラル信号を F FT (高速フーリエ変換) と、 その後逆 F FTの処 理を行うことにより、 ACF 及ぴ IACF を得ることができる。 A特性フィルタ一 及び、 マイクロフォンの周波数特性は、 F FT処理の後で考慮する。
左右の耳の部位における ACF を、 それぞれ、 Φιι (て)、 3>rr (て)で表わす。 特 定の数字の場合は、 Φιι(«、 ΦΓΓωで表わす (l<i<Tf、 f:サンプリング周波数 (Hz;)、 i:整数)。 左右の Φ(ο)を計算するためには、 Φιιωと ΦΓΓωを下記のように平均する。
Figure imgf000015_0001
SPLの正確な値は、 次式で得られる。
SPL = 101og10 „(0)Φ„(0) - 101og10 ΦΓβ/ (0)
« 101og10 Φ„ (0) - 101og10 ΦΓβ/ (0) (2)
»101ogl^rr(0)-101og10 re/(0)
<Pref(0)は、 基準音圧値 2 0 Ρにおける Φ(0)である。
バイノーラルの聴取音圧レベルは、 Φ ιι(0)及び Φ 0)の相乗平均である。
Figure imgf000015_0002
この Φ(0)は、 IACF を正規化する際の分母となるものであるため、 IACF ファ クタ一の一方のもの、 或いは右半球の空間ファクターに分類されるものと考える。 正規化した AC Fの振幅が 0. 1 (1 0 %の遅延) になる時の遅延時間によつ て、 有効継続時間 re を定義する。 正規化した左右の耳における AC F、 n,rr it) は、 次式で得られる。 図 4は、 縦軸に AC Fの対数の絶対値、 横軸に遅延時間をとつたグラフである。 図 4に示すように初期の AC Fが線形に減少するのが一般的に観察できるため、 縦軸をデシベル (対数) に変換するとて e を容易に得ることができる。 線形回帰 の場合は、 ある一定の短い時間 Δ てにおいて得られる AC Fのピークに対して最 小平均自乗法 (LMS)を使用する。 この Δては、 ACF のピークを検知するために 使用され、 計算前に慎重に決定しておく必要がある。 て e を計算する際、 原点が 回帰線上にない場合、 AC Fの原点 (ACF=0、 て = 0 ) を、 考慮に入れなくて も良い場合も多い。 極端な例では、 目的とする騒音が純音とホワイ トノイズとを 含む場合、 原点において急激な減衰が観察される。 その後の減衰は、 純音成分の ため一定に保たれる。 この場合、 AC F関数の解は求まらない。
図 5は、 縦軸に正規化した AC F、 横軸に遅延時間をとつたグラフである。 図 5に示すように、 て は正規化した AC Fの第 1のピークまでの遅延時間、 Φ丄はその第 1 ピークでの振幅である。 第 1 ピークは、 局所的な小さなピークは 無視して、 主要なピークに基づき決定する。 ファクタ一 ΤΓ η と n(N≥2)とは考 慮に入れない。 なぜなら、 て n と φηは、 一般的にて i と Φ iとに相関関係がある からである。
図 6は、 縦軸に正規化した I AC F、 横軸に左右の信号の遅延時間をとつたグ ラフである。 左右の耳の音響信号の間の I A C Fは、 φ lr( τ ) (-1<てく +l[ms]) で表わされる。 デジタル形式では、 ΦιΓω (-f/103≤i≤f/103, i は整数であり、 こ れが負の場合は左のチャンネルに遅れがある I A C Fであることを示す)。 両耳 の間の最大遅延としては一 1から + lms を考慮すれば十分である。 最大振幅 I AC Cは主観的拡散に関連するファクターである。 図 6に示すように、 正規化さ れた I AC Ρ ΦΐΓωの最大振幅は遅延範囲内で得られる。 即ち
Figure imgf000017_0001
正規化された I AC Fは次式で得られる。
て IACCの値は、 最大振幅の遅延時間において容易に求まる。 例えば、 て IACCが 正の場合、 音源は聴者の右側に位置する、 或いは音源が右側にあるかのように知 覚する。 図 6に示すように、 最大振幅における幅 ACCを、 最大値から 0. 1 ( I AC C) 下の部分のピーク幅で得ることができる。 この係数 0. 1は I AC C= 1. 0における JND として概算的に用いられるものである。 聴取音圧レべ ル LLは、 式 (2) で SPL を LL と置き換えることによって得られる。 このよ うにして、 各物理ファクタ一を、 AC F及び I AC Fから求めることができる。 次に、 AC Fファクタ一に基づき騒音源の種類の特定する方法について説明す る。
騒音源の種類は、 4つの AC Fファクター遅れ時間が 0で表わされるエネルギ ― (Φ(0))、 有効継続遅延時間 (τβ)、 ACFの第 1 (最大) ピークまでの遅延 時間 ( て 、 正規化した AC Fの第 1 (最大) ピークの振幅 (φύ を用いて特 定する。 Φ(0)は騒音源と聴者との距離に応じて変化するため、 距離が不明の場 合は、 計算の条件には特別に注意を払う必要がある。 たとえファクタ一 Φ(0)が 有効でない場合であっても、 その他の 3つのファクターを用いて騒音源の種類を 特定することができる。 空間情報が変化する場合、 残りの I AC Fファクタ一を 考慮に入れることもできる。 音響信号の最も大きく変動する部分である最小て e: ( X e)minを用いる理由の 1つは、 この部分が主観的な応答に最も深く関与する ものであるということである。
未知の対象データ (下記の式 (7)~(10)では記号 a で示す) 用の(Te)min におけ る各ファクタ一の値とデータベースに格納されたテンプレート用 (記号 b で示 す) の値との差、 即ち 「距離」 を計算する。 ここで 「対象」 とは、 システムによ つて特定されるォブジェクトとしての環境騒音のことを意味する。 テンプレート 値は、 ある特定の環境騒音に対する典型的な AC Fファクターのセットであり、 これらの複数のテンプレートを未知の騒音と比較する。
距離 D (X) (X : Φ(0)、 て e、 て を次式により計算する。
D (Φ (0))= I log( (0))a— log(<!> (0))b I (7)
Figure imgf000018_0001
D i Uogiir a— logiTr bl (9)
Figure imgf000018_0002
目的とする騒音源の合計距離 Dは、 次式で表わされる。
D = φ(0) >(Φ(0》 + WT'D(re) + W^D^) + ΦιΌ(φ1) (1 1) WW (χ;Φ(0)、 ( て e)min、 r Φι) は、 重み係数である。 この算出された距離 Dに最も近い D を有するテンプレートを、 求める騒音源であると判断する。 こ れにより、 未知の騒音源が、 何であるのか、 例えば鉄道、 自動車、 航空機、 工場 騒音であるのか、 更にその車種、 機種などを特定することが可能となる。
図 7は重み係数の計算方法を説明するブロック図である。 式 ( 1 1) の重み係 数 WW (χ;Φ(0)、 て e、 て ι、 ι) は、 統計値 Si«と S2Wとを用いて得ることが できる。 図 7に示すように、 Si(i)は、 AC Fファクタ一の全カテゴリ一に対する 標準偏差 (SD) の算術平均である。 ここでカテゴリ一とは、 同じ種類の騒音に 対するデータのセッ トを意味する。 S2 (»は、 各カテゴリの算術平均の標準偏差で ある。 WWは、 ファクター { (S2/S1) "2}max の中の最大値で正規化した後、 (S2/S1) 1 で得られる。 この平方根の処理は経験的に得られたものである。 騒 音源の間におけるより大きな SD と、 ある騒音の間におけるより小さな SD との ファクタ一とは他の種類の騒音とは区別できるため、 このようなファクタ一の重 みはその他のファクターのものよりも大きくなる。 テンプレ一トを改善する学習 機能がある場合、 システム上においてテンプレートは、 システム内で ACFの各 ファクターについての最新の値と、 元の値との平均によって上書きすることもで きる。
図 8は、 聴覚一大脳機能システムのモデルを説明するプロック図である。 聴覚 一大脳機能システムのモデルは、 自己相関 (ACF) メカニズム、 両耳間相互相 関 (I ACF) メカニズム、 左右大脳の機能分化を含んでいる。 信号のパワース ぺクトルに含まれる情報は、 音響信号の AC Fにも含まれていることは注目すベ きことである。 また騒音場の空間的感覚を示すため、 I ACFより抽出される空 間的ファクタ一を考慮する。 音色は音の基本的感覚と空間的感覚を含む総合的な 感覚として定義される
聴覚一大脳機能モデル (図 8) を使って、 自由空間内に存在する聴者の正面に ある.与えられた音響信号 p(t)の基本的な感覚を考える。 ここで長時間 AC Fを 次式で得ることができる。
Φρ (t) = limr→∞ +T)dt (12)
Figure imgf000019_0001
p'(t)=p(t)*s(t)で、 s(t)は耳の感度である。 便宜上 s(t)は A特性のインパルス 応答が用いられる。 パワースぺクトルも次式のように AC Fから得ることができ る。
Figure imgf000019_0002
Figure imgf000019_0003
このように、 ACFとパワースぺクトルは数学的には同じ情報を含んでいる。
AC Fの解析において 3つの重要な事項として、 遅れ時間が 0で表わされるェ ネルギー Φ p (0)と、 正規化した A C Fのエンベロープから抽出される有効継続時 間て e と、 ピークやディップやその遅れ時間とを含む微細構造とがある。 図 4に 示すように、 この有効継続時間て eは、 10パ一セント遅れ時間として定義でき、 騒音響信号それ自身に含まれる繰り返し成分、 または残響成分として表わされる。 前述したように正規化した AC Fは ΦΡ (て) =ΦΡ (て) ΖΦρ(0)で得ることができる。 ラウドネス SLは次式で表わされる。
SL=fL(<D(0),て ^(ί ,て e) ( 1 5) 即ち、 AC Fファクタ一である、 遅れ時間が 0で表わされるエネルギー (Φ (0))、 有効継続遅延時間 ( て e)、 AC Fの第 1 (最大) ピークまでの遅延時間 ( て 、 正規化した AC Fの第 1 (最大) ピークの振幅 (Φ からラウドネス を求めることができる。
ここでて i は騒音のピッチまたは後述するミツシングファンダメンタル現象に 関係するものである。 また、 p'(t)が音圧レベル L(t)を与えるための圧力 2 0
Pa を基準として測定されるなら、 等価騒音レベル Leqは次式で求めることがで きる。
Lea =101og丄「10 ώ (1 6) この Leqは 1 01ogi)p(0)に相当するものである。 また、 サンプリング周波数は、 最大可聴周波数域の 2倍以上としなければならないので、 通常の騒音計で測定さ れた Leqよりも極めて精度良く測定できる。
図 9は、 縦軸にラウドネス尺度値、 横軸にバンド幅をとつたグラフである。 こ のグラフは、 Φ p(0)を一定とした条件下での一対比較テス ト ( 1 0 8 0 dB/octave のスロープを持つフィルタを使用) で得られた臨界帯域内のラウドネ ス尺度値を示したものである。 明らかに純音のような騒音が同じ繰り返し成分を 持つとき、 て eは大きな値となり、 ラウドネスが大きくなる。 このように、 ラウ ドネス対バンド幅の関係は、 臨界帯域内でも平坦にならないことがわかる。 なお、 この結果は中心周波数 1 kHzの周波数帯域で得られたものである。
騒音のピッチまたはミッシングファンダメン夕ルは次式で表わされる。
S
Figure imgf000021_0001
て φ ( 1 7 )
ここで、 ミツシングファンダメンタル現象とは、 いくつかの倍音構造が存在す るとき、 実際にはない高さの音が聞こえるという現象である。
最も複雑な知覚である音色は、 次式で表わされる。 音色には、 ラウドネスゃピ ツチも含まれるものである。
(0),て e,(て i, Φ 1), ( τ Ί, φ Ί) ...,(て Φ Ή)] ( 1 8 ) て η,φη (η=1,2,...) の中でて Ϊ,Φ i が最も顕著な直交ファクタ一であるため式 ( 1 8) は以下のように書き直すことができる。
ST=fT[<! (0), て e, て ι,Φι] ( 1 9) 信号の時間的長さの知覚に関する感覚は、 次式で表わされる。
Figure imgf000021_0002
て e, て 1,Φΐ] (2 0 ) 長時間 I AC Fは次式で求めることができる。
Φ (τ) = limr→∞ (t)pr '(t + T)dt (2 1 )
Figure imgf000021_0003
ここで p'l,r(t)=p(t)l,r*S(t)、 は p(t)l,r は左右外耳道入り口の音圧である。
騒音源の水平面の方向の知覚を含む空間情報の知覚は次式で表わされる。
S =f(LL,IACC,て IACC'WIACC) (2 2)
ここで聴取音圧レベル L Lは
Figure imgf000021_0004
ある。 記号 ま、 左右の耳の入り 口に到来する信号のて = 0のときの AC Fである Φιι(0)、 Φ 0)の組を表わす。 数学的には L Lは、 両耳に到来する音響信号のエネルギーの算術平均で次式のよ うに表わされる。
LL = 101og10 ^Φ,^Φ^Ο) [dB] (2 3)
式 (2 2 ) で示す 4つの I AC Fファクター (直交ファクター) の中で、 一 1 ~ + 1 ms の範囲内のて IACCは、 水平方向の音源の水平方向の知覚に関する重要な ファクターである。 正規化した I AC Fが 1つの鋭いピークを持ち、 I ACCが 大きく、 高周波数成分によって WI ACCが小さい値であるとき、 明確な方向感が 得られる。 逆に主観的拡がり感ゃあいまいな方向感は I AC Cが小さい値 (く 0. 1 5) の時に起こる。
正中面に位置する騒音源の知覚については、 耳の入り口に到来する音響信号の 長時間 AC Fから抽出される時間的ファクタ一を式 (22) に加えるべきであろ ラ。
図 8に示すように、 注目すべきは I AC Cに相当する下丘付近に存在する神経 活動の存在である。 また、 室内音場においては、 L Lと I AC Cとは右大脳半球 に支配的に関連があり、 時間的ファクタ一である ΔΙ^や Tsubは左大脳半球と関 わっていることを発見した。
主観的拡がり感の尺度値を得るため、 2つの対称な反射音の水平入射角度を変 更し、 ホワイ トノイズを用いて一対比較テストを行った。 被験者は、 LL て IACC WIACCが一定の条件下で、 提示された 2つの音場のうち、 どちらの音場が より広がって聞こえるかを判断した。 図 1 0は、 左縦軸に拡がり感の尺度値、 右 縦軸に最大振幅 I AC C、 横軸に反射音の水平入射角度をとつたグラフである。 図 1 0 に示すよ う に、 2 5 0 Hz~4kHz (図 1 0 (a):250Hz (b):500Hz (c):lkHz (d):2kHz (e) :4kHz) の周波数帯域の結果において、 尺度値と最大振 幅 I AC Cとは強い負の相関関係を示した。 従って、 上述した実験結果により、 主観的尺度値を、 I AC Cの 3Z2乗で次式のように求めることができる。
S diffuse =— a (IACC) β (24) 実験により求めた係数 αは 2. 9、 乗数 )3は 3/2である。
騒音場の見かけの音源の幅 (ASW) を求める方法について説明する。 低域の 周波数成分が大きい騒音場では、 長時間 I AC Fは遅れ時間てがー 1 ~+ 1 ms の範囲内に明確なピークを持たず、 WlACCは大きくなる。 この WlACCは次式で求 めることができる。 一"―) [s] (25)
Figure imgf000023_0001
IACC八 J ここで、 Acocは 2 π ( +f2)、 と とは、 それぞれ理想的なバンドパスフィ ルターの下限値と上限値である。 便宜上、 δは 0. 1 ( I AC C) と定義する。 注目すべきことは、 大きな A SWは低周波数帯域が多く、 I AC Cが小さいと きに知覚されるということである。 すなわち、 L Lが一定でて IACC= 0の条件下 では、 A SWは I AC Cと WIACCの I A C Fファクターに基づき求めることがで きる。 A SWの尺度値を 1 0名の被験者を用いて一対比較テストで求めた。 W IACCの値を制御するため、 1 3オクターブバンドバスノイズの中心周波数を 2 5 0 Hz~ 2 kHz で変化させた。 I AC Cは直接音に対する反射音のレベルの比 を制御して調整した。 聴取音圧レベル LLは、 A SWに影響するので、 全ての音 場の耳の入り口でのト一タル音圧レベルはピーク値が 7 5 d B Aで一定とした。 被験者は提示された 2つの音場のうちどちらかが広がって聞こえるかを判断した。 尺度値 SASWの分散分析の結果、 I AC C WIACCの両方の I AC Fファクター 共に有意であり (p<0.01)、 以下のように SASWに対して独立に寄与している。 従って、 SASWを次式で求めることができる。
SASW= a(I AC C)3/2 + b (WIACC) 1/2 (2 6 ) ここで係数 a =— l . 64 h = 2. 44であり、 これらの係数は、 図 1 1
(a) (b) に示す 1 0名の被験者の尺度値の回帰曲線から得られたものである。 図 1 1 ( a ) は縦軸に ASW、 横軸に I A C Cをとつたグラフであり、 図 1 1
(b) は縦軸に ASW、 横軸に WIACCをとつたグラフである。 また、 図 1 1は、 縦軸に実際に測定した A S Wの尺度値、 横軸に計算された A S Wの尺度値をとつ たグラフである。 図 1 2に示すように、 この式から求めた SASWの尺度値と、 S ASWの測定値はよく対応することを確かめた (r=0.97、 p<0.0l 時間的に変動する環境騒音を評価するため、 短時間ランニング A C F及び短時 間ランニング I A C Fを用いる。 前述と同様の方法で抽出された短時間ランニン グの空間的 ·時間的ファクタ一は、 時変動する騒音場の基本的感覚を示すのに用 いられている。 短時間 AC Fは次式で求めることができる。
ΦΡ ( = ( ' ( 2 7 ) ここで 2 Τは解析される信号の長さである。 この長さ 2 Τは、 ランニング A C Fの有効継続時間の最小値 ( て E) minを少なくとも含む範囲で決定すべきである。
( re) min を示す騒音は信号が最も急速に変動することを表わしており、 この部 分が最も主観的応答に影響を及ぼしている。
各騒音の部分におけるラウドネス SL に関して、 式 ( 1 5 ) は次式のように書 き換えることができる。 _
SL= f L (L L ,て ι,Φ ι,て e) ( 2 8 ) ここで各ファクタ一は各騒音の部分について得られ、 式 ( 1 5 ) の Φ(0)は L L に置き換えられる。 A C Fから抽出された時間的ファクタ一が、 室内の反射音群 (Δΐι,Δί2,...) と後続残響時間 Tsub に影響を及ぼしているはずだということ に注目すべきである。
環境騒音場のピッチの記述で、 騒音場において有意な時間的ファクタ一は τ! と とであり、 従って式 (1 7 ) はそのまま保たれる。
環境騒音場の音色は時間的 ·空間的ファクタ一全てで、 次式のように表わされ る。
S T= f τ ( て e'て ι'Φ 1,て 'い Φ'η ; k L L, I A C C,て IACC'WIACC) (29) ここで、 人間の大脳半球が時間的ファクターが左大脳半球に関連し、 空間的ファ クタ一が右大脳半球に関連しているという専門化を考えると、 式 (2 9 ) は以下 のように置き換えることができる。
S T= f τ (τ e,r ι, ieft+ f (LL、 I ACC,て IACCW CC) right 弱い反射音の閾値を Atiの関数として図 1 3に示す。 式 (29) に含まれる、 聴者に対する反射音の空間的方向 ( 1 〇〇と て^^) と反射音の遅れ時間 Atl はこの閾値を示している。
耳の感度は外耳と中耳とを含む物理システムにより特徴づけられる。 音響信号 を解析する前に、 便宜上、 A特性をかけておく。
単一反射音の遅れ時間を関数とした単音節の明瞭度は、 母音と子音との間の部 分の短時間 AC Fから抽出された 4つの直交ファクタ一を解析することにより予 測できる。 最近の調査では、 音色や比類似度の判断は、 コンサートホール内の音 場の主観的プリファレンスと同じく、 総合的な主観的応答であることを明確に示 している。 音色と同様に、 主観的プリファレンスは、 て eの最小値を用いて表わ される。 短時間積分時間は次式で表わされる。
(2 T) =30 ( T e) min (30)
精神作業に関する騒音の影響は、 作業能率と大脳の専門化との間の妨害現象とし て解釈することができる。 AC Fから抽出された時間的ファクタ一は、 左大脳半 球に関連しており、 I AC Fから抽出されるファクタ一は右大脳半球に主に関わ つている。
図 14は、 本発明による音響評価システムの基本的な構成を示すブロック図で ある。 この音響評価システムは、 図 1のシステムと基本的な構成要素は同じもの である。 しかし、 コンピュータの内部の構成要素の一部が異なる。 図 14に示す ように、 本音響評価システムは、 音響信号 (左右 2チャンネル) を採取する音声 採取手段 20と、 これらの音響信号に基づき AC Fを計算する AC F演算手段 2 1と、 これらの音響信号に基づきに I AC Fを計算する I AC F演算手段 25、 この計算された AC Fに基づき AC Fファクターを計算する AC Fファクター演 算手段 22、 この計算された I AC Fに基づき I AC Fファクターを計算する I ACFファクター演算手段 26、 この計算された AC Fファクターに基づき音響 を評価する手段 24、 この計算された AC Fファクタ一及び Zまたは I AC Fフ アクターに基づき音響を評価する手段 27、 各種デ一夕を格納するデータベース 23を具える。
図 1 5は、 本発明による音響評価方法の基本的なステップを示すフローチヤ一 トである。 図に示すように、 ステップ P 1では、 音源からの音響信号をマイクロ フォン (図示せず) で採取する。 なお、 このマイクロフォン以外に、 例えばライ ン入力などでデジタル信号やアナログ信号を採取することも可能である。 この採 取された音響信号は L P F 3 (図示せず) を介して A/Dコンバータ (図示せ ず) によりデジタル信号に変換する。 ステップ P 2では、 採取された音響信号に 基づき AC F及び I AC Fをコンピュータ即ち CPUにより計算する。 ステップ P 3では、 計算された AC F及び I AC Fに基づき CPUにより AC Fファクタ —及び I ACFファクターを計算する。 予め、 音色と ACFファクターとを関連 付けた音色デ一夕、 音律と AC Fファクタ一とを関連付けた音律デ一夕、 音響の 心理評価値と ACFファクターとを関連付けた心理評価データ、 が格納された所 定のデ一夕ベースを構築しておく。 次に、 各デ一夕と AC Fファクタ一や I AC Fファクターとの関連付けについて説明する。 例えば、 ある楽器で様々な音を発 音し、 本システムを用いてそのときの音を採取して AC Fファクタ一や I ACF ファクターを算出し、 同時にこのときの各音に関して AC Fファクターや I AC Fファクタ一に基づき計算したり、 或いは、 既知の他の方法によって各データ (音色、 音質、 或いは心理評価値など) を計算したり決定したりすることができ る。 このようにして、 各音の ACFファクタ一や I ACFファクターと、 その音 に関する各データとを関連付けてデータベースに格納する。 ステップ P 4では、 計算された AC Fファクタ一及び I AC Fファクタ一に基づき、 CPUにより音 響の評価を行う。 その評価の際には、 各種のデータを格納するデータべ一スから データを読み出し比較 ·検討を行う。
図 1 6は、 本システムを用いてピアノ音源から音響信号を採取し、 採取した音 響信号から抽出したピアノの正規化した AC Fの波形であり、 縦軸に振幅、 横軸 に遅延時間をとつたグラフである。 即ち、 ピアノの音響信号から抽出した AC F の波形を示すグラフである。 図 1 6 ( a ) は、 A l (55Hz)、 ( b ) は A 2
(220Hz), ( c ) は A 6 (1760Hz) で発音した音響信号から得られた正規化 ACF の波形である。 図では、 最大ピーク値を Φい そのときの遅延時間を てい またその遅れ時間内のピーク値を Φ'η、 そのときの遅れ時間を て' ηと定義できる。 ここで、 て iはピッチ、 Φ はピッチの強さに対応する物理的ファクターである。 図に示すように、 て iの逆数は、 ピッチとなる周波数に対応する。 例えば、 図
(a) の場合、 ピアノ音源からは周波数 55 H zの音が発せられ、 このとき本シ ステムを用いて音響信号から求めた ACF ファクタ一のうちの 1つである は 約 1 8 ms であり、 これの逆数 = 1 て i = 55となりピアノ音源のピッチ 5 5 Hz とよく相関すること、 即ち対応することがわかる。 図 (b)、 (c) でも同様 に、 音源のピッチと r iとが対応することがわかる。 この相関関係をより明らか にするために、 以下の図 1 7にその関係を示す。
図 1 7は、 縦軸にピッチ (ヘルツ)、 横軸に 1 2平均律による音階をとつたグ ラフである。 四角の点は、 所定の計算式から求められた 1 2平均律の音階のピッ チである。 黒丸の点は、 r から求めたピッチである。 図に示すように、 1 2平 均律によるピッチと τ によるピッチとが良く一致することがわかる。 音階 A6 のてェに基づき計算されたピッチが、 ずれているのは調律ミスによるものと思わ れる。 このように ACFファクター て を利用すれば、 ピアノをはじめ様々な楽 器の調律を行なうことができるようになる。 また、 AC Fから抽出される様々な ACF ファクタ一:遅れ時間が 0で表わされるエネルギー Φ(0)、 有効継続遅延時 間て e、 AC Fの最大ピークまでの遅延時間て i、 正規化した AC Fの最大ピーク の振幅 Φι、 て i内にある各ピーク値の情報 ( τ'η, Φ'η, η= 1, 2, 3,·., Ν (Νは約 1 0よりも小さい整数))、 I ACFから抽出される I ACFファクタ 一と、 実際の楽器の心理評価値との関係を表わすデータベースを構築する。 本シ ステムを用いて楽器音源の音響信号から求めたファクタ一と、 このデータベース に格納されたデ一夕とを比較することによって、 良い音 (優れた音色や良い心理 評価値を持つ音) を探るときの支援システムとして活用できる。
本システムを用いて調律を行なう場合は、 所定のデータベースに予め様々な音 律 (平均律や純正律など) の音階データを格納しておく。 使用者は、 目的に合わ せて所望の音律を選択できるようにするのが好適である。 デフォルトを平均律に するのが好適である。 基準音 「Α4」 は 440Hzをデフォルトとし、 1Hz ス テツプで基準音を変更可能にすることもできる。 基準音は純音で発音可能にする。 このように、 基準周波数、 音階の種類は可変とすることが好適である。 平均律を 選択した場合は、 発音した音に最も近い音階 (Aや C#など) を表示させるよう にする。 或いは、 データベース中の所望のデータ (即ち音階) を予め選択してお き、 この所望のデ一夕と発音した音の音階との相違を示す数値を示すこともでき る。 例えば、 所望の音階が A 2の場合は (即ち、 A 2に調律したい場合)、 デー 夕ベースを参照して音階 A 2に関連付けられたピッチ周波数を読み出し、 このピ ツチ周波数と、 発音された音から抽出されたてェによるピッチ周波数とを比較し てその差異を表わす数値を提示することもできる。 この場合、 差異は、 周波数の 差異としてではなく、 音階の差異として示すことも可能である。 さらに、 発音し た音の音階と、 所望の音階や最も近い音階との相違を示す数値を表示したり、 発 音した音が、 その音階より髙いか、 低いか、 ちょうど同じかを示すインジケータ を設けることも可能である。
このように、 本発明を利用して、 楽器から出された音から求めた AC Fファク 夕一や I A C Fファクターと、 予め構築しておいた良い音の A C Fファクターや I A C Fファクタ一のデータベースと比較して、 その相違や差異を示すことによ つて、 優れた音を発有できる楽器の作製を支援することが可能となる。 特に、 本 発明によれば、 I A C Fファクタ一から、 音場の空間的な印象を知ることが可能 となる。 また、 本発明は、 楽器製作者のみでなく、 開発者や研究者、 さらに歌手、 楽器演奏者も調律や演奏方法の参考などに利用することが可能である。 また、 本 発明で調律や音響の評価は、 様々な楽器に利用でき、 例えば、 アコ一スティック 楽器 (鍵盤系、 弦楽器系、 管楽器系など)、 電子楽器などである。
本発明の様々な実施態様を鑑みると、 本発明の原理は応用可能であり、 詳細に 説明した実施態様は例示のみを目的とするものであって本発明の範囲を制限する ものと解釈してはならないと理解すべきである。 また、 当業者は、 本明細書の記 載に基づき、 本発明の請求の範囲内において本発明を変形、 修正可能であること を理解されたい。 本明細書では、 評価値の 1つであるピッチの評価について詳述 したが、 例えば、 音質や音色など様々な評価値についても本発明に基づき評価で きることを理解されたい。

Claims

請 求 の 範 囲
1. 音響信号を採取する音声採取ステップと ;
この採取された音響信号から演算手段を用いて自己相関関数 AC Fを計算する AC F演算ステップと ;
この算出された AC Fから前記演算手段を用いて AC Fファクターを求める A C Fファクタ一演算ステップと ;
音色と AC Fファクタ一とを関連付けた音色デ一夕、 音律と AC Fファクター とを関連付けた音律データ、 音響の心理評価値と AC Fファクタ一とを関連付け た心理評価デ一夕、 のうちの少なくとも 1つが格納された所定のデータベースと、 この求めた ACFファクタ一と、 に基づき前記演算手段を用いて、 音響を評価す る評価ステツプと、
を含むことを特徴とする音響評価方法。
2. 請求項 1に記載の音響評価方法において、
前記 A C Fファクタ一演算ステップが、
前記計算された AC Fから、 AC Fファクターである、 遅れ時間が 0で表わさ れるエネルギー Φ(0)、 有効継続遅延時間 re、 AC Fの最大ピークまでの遅延時 間て i、 正規化した AC Fの最大ピークの振幅 各ピーク値の情報 (r'n, φ' η, η = 1 , 2, 3,.·, Ν (Νは約 1 0よりも小さい整数)) のうちの少なくと も 1つを計算する演算ステップを含む、
ことを特徴とする方法。
3. 請求項 2に記載の音響評価方法において、
前記 ACFファクターのて iに基づき、 ピッチの周波数を求めるピッチ周波数 演算ステップと ; この求めたピッチ周波数と、 所定の音階データベースのデータとを比較してそ の相違を示す調律ステップと、
を含むことを特徴とする方法。
4. 請求項 1に記載の音響評価方法において、
バイノーラル方式で左右のチヤンネルの音響信号を採取するステップと ; この採取された音響信号から演算手段を用いて左右の各チヤンネル間の相互相 閧関数 I AC Fを計算する I AC F演算ステップと :
前記演算手段を用いて、 この計算された I ACFから I ACFファクターを計 算する I AC Fファクター演算ステップと ;
この求めた I AC Fファクターおよび または前記 AC Fファクタ一と、 前記 所定のデータベースと、 に基づき前記演算手段を用いて、 音響の評価を行なう評 価ステップと、
を含むことを特徴とする方法。
5. 請求項 2に記載の音響評価方法において、
バイノーラル方式で左右のチャンネルの音響信号を採取するステップと ; この採取された音響信号から演算手段を用いて左右の各チャンネル間の相互相 関関数 I ACFを計算する I ACF演算ステップと ;
前記演算手段を用いて、 この計算された I ACFから I ACFファクターを計 算する I AC Fファクタ一演算ステップと ;
この求めた I AC Fファクターおよび または前記 AC Fファクターと、 前記 所定のデータベースと、 に基づき前記演算手段を用いて、 音響の評価を行なう評 価ステップと、
を含むことを特徴とする方法。
6. 音響信号を採取する音声採取手段と ;
この採取された音響信号から演算手段を用いて自己相関関数 AC Fを計算する AC F演算手段と ;
この算出された AC Fから前記演算手段を用いて AC Fファクタ一を求める A CFファクター演算手段と ;
音色と AC Fファクターとを関連付けた音色データ、 音律と ACFファクタ一 とを関連付けた音律データ、 音響の心理評価値と A C Fファクターと関連付けた 心理評価データ、 のうちの少なくとも 1つが格納された所定のデータベースと、 この求めた ACFファクターと、 に基づき前記演算手段を用いて、 音響を評価す る評価手段と、
を含むことを特徴とする音響評価システム。
7. 請求項 6に記載の音響評価システムにおいて、
前記 A C Fファクタ一演算手段が、
前記計算された AC Fから、 ACFファクタ一である、 遅れ時間が 0で表わさ れるエネルギー Φ(0)、 有効継続遅延時間て e、 AC Fの最大ピークまでの遅延時 間て 正規化した AC Fの最大ピークの振幅 各ピーク値の情報 (て' η, φ' η, η = 1, 2, 3,.., Ν (Νは約 1 0よりも小さい整数)) のうちの少なくと も 1つを計算する演算手段を含む、
ことを特徴とするシステム。
8. 請求項 7に記載の音響評価システムにおいて、
前記 ACFファクターのて iに基づき、 ピッチの周波数を求めるピッチ周波数 演算手段と ;
この求めたピッチ周波数と、 所定の音階データベースのデータとを比較してそ の相違を示す調律手段と、
を含むことを特徵とするシステム。
9. 請求項 6に記載の音響評価システムにおいて、
バイノーラル方式で左右のチャンネルの音響信号を採取する手段と ; この採取された音響信号から演算手段を用いて左右の各チャンネル間の相互相 関関数 I AC Fを計算する I AC F演算手段と ;
前記演算手段を用いて、 この計算された I ACFから I ACFファクターを計 算する I AC Fファクター演算手段と ;
この求めた I AC Fファクターおよぴ または前記 AC Fファクターと、 前記 所定のデータベースと、 に基づき前記演算手段を用いて、 音響の評価を行なう評 価手段と、
を含むことを特徴とするシステム。
1 0. 請求項 7に記載の音響評価システムにおいて、
バイノーラル方式で左右のチヤンネルの音響信号を採取する手段と ; この採取された音響信号から演算手段を用いて左右の各チャンネル間の相互相 閧関数 I AC Fを計算する I AC F演算手段と ;
前記演算手段を用いて、 この計算された I ACFから I ACFファクターを計 算する I AC Fファクター演算手段と ;
この求めた I AC Fファクターおよびノまたは前記 AC Fファクタ一と、 前記 所定のデータベースと、 に基づき前記演算手段を用いて、 音響の評価を行なう評 価手段と、
を含むことを特徴とするシステム。
PCT/JP2001/007031 2000-08-15 2001-08-15 音響評価方法およびそのシステム WO2004084176A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US10/110,307 US6675114B2 (en) 2000-08-15 2001-08-15 Method for evaluating sound and system for carrying out the same

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2000246418A JP3350713B2 (ja) 2000-08-15 2000-08-15 騒音源の種類を特定する方法、その装置および媒体
JP2000-246418 2000-08-15
JP2001-242267 2001-08-09
JP2001242267A JP3584287B2 (ja) 2001-08-09 2001-08-09 音響評価方法およびそのシステム

Publications (1)

Publication Number Publication Date
WO2004084176A1 true WO2004084176A1 (ja) 2004-09-30

Family

ID=30117319

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/007031 WO2004084176A1 (ja) 2000-08-15 2001-08-15 音響評価方法およびそのシステム

Country Status (2)

Country Link
US (1) US6675114B2 (ja)
WO (1) WO2004084176A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105992104A (zh) * 2015-03-23 2016-10-05 福特全球技术公司 用于由功能硬件组件产生的噪音的控制***
US9514738B2 (en) 2012-11-13 2016-12-06 Yoichi Ando Method and device for recognizing speech

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10150519B4 (de) * 2001-10-12 2014-01-09 Hewlett-Packard Development Co., L.P. Verfahren und Anordnung zur Sprachverarbeitung
JP4240878B2 (ja) * 2001-12-13 2009-03-18 四一 安藤 音声認識方法及び音声認識装置
US7680649B2 (en) * 2002-06-17 2010-03-16 International Business Machines Corporation System, method, program product, and networking use for recognizing words and their parts of speech in one or more natural languages
US7082204B2 (en) * 2002-07-15 2006-07-25 Sony Ericsson Mobile Communications Ab Electronic devices, methods of operating the same, and computer program products for detecting noise in a signal based on a combination of spatial correlation and time correlation
US7123948B2 (en) * 2002-07-16 2006-10-17 Nokia Corporation Microphone aided vibrator tuning
US7340068B2 (en) * 2003-02-19 2008-03-04 Oticon A/S Device and method for detecting wind noise
JP4601970B2 (ja) * 2004-01-28 2010-12-22 株式会社エヌ・ティ・ティ・ドコモ 有音無音判定装置および有音無音判定方法
JP4490090B2 (ja) * 2003-12-25 2010-06-23 株式会社エヌ・ティ・ティ・ドコモ 有音無音判定装置および有音無音判定方法
US9271074B2 (en) * 2005-09-02 2016-02-23 Lsvt Global, Inc. System and method for measuring sound
US20090002939A1 (en) * 2007-06-29 2009-01-01 Eric Baugh Systems and methods for fan speed optimization
FR2967490B1 (fr) * 2010-11-15 2012-12-21 Seb Sa Procede de mesure du bruit d'un seche-cheveux
US9271076B2 (en) * 2012-11-08 2016-02-23 Dsp Group Ltd. Enhanced stereophonic audio recordings in handheld devices
CN105283130A (zh) 2013-06-11 2016-01-27 皇家飞利浦有限公司 用于监测光和声音对人的影响的***、方法和设备
CN104075796A (zh) * 2013-12-17 2014-10-01 国家电网公司 一种高准确性个体噪声测量方法
US10068586B2 (en) 2014-08-14 2018-09-04 Rensselaer Polytechnic Institute Binaurally integrated cross-correlation auto-correlation mechanism
AT522652A1 (de) * 2019-05-23 2020-12-15 Plasser & Theurer Export Von Bahnbaumaschinen Gmbh Verfahren und Vorrichtung zum Steuern/Regeln eines rotatorischen Antriebs eines Arbeitsaggregates einer Gleisbaumaschine
CN110990752B (zh) * 2019-10-31 2023-03-28 重庆长安汽车股份有限公司 汽车行驶过程车内噪声水平等级评价方法
CN113591316B (zh) * 2021-08-06 2024-02-13 天津大学 一种分时段结合主客观指标的地铁施工噪声评价方法
CN114279557B (zh) * 2022-03-02 2022-05-17 山东卓朗检测股份有限公司 一种分布式声学检测设备及其检测方法
CN117993790B (zh) * 2024-04-07 2024-06-14 中国测试技术研究院声学研究所 基于神经网络的指挥室声环境质量权重计量优化分析方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58154898A (ja) * 1982-02-26 1983-09-14 株式会社河合楽器製作所 選択されたソロ楽音を補足する伴奏楽音ライブラリから伴奏組合せを自動的に選択する装置
JPH0573093A (ja) * 1991-09-17 1993-03-26 Nippon Telegr & Teleph Corp <Ntt> 信号特徴点の抽出方法
JPH0689095A (ja) * 1992-09-08 1994-03-29 Nippon Telegr & Teleph Corp <Ntt> 音響信号選択装置
JP2000181472A (ja) * 1998-12-10 2000-06-30 Japan Science & Technology Corp 信号分析装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5353372A (en) * 1992-01-27 1994-10-04 The Board Of Trustees Of The Leland Stanford Junior University Accurate pitch measurement and tracking system and method
US5285498A (en) * 1992-03-02 1994-02-08 At&T Bell Laboratories Method and apparatus for coding audio signals based on perceptual model
US5884261A (en) * 1994-07-07 1999-03-16 Apple Computer, Inc. Method and apparatus for tone-sensitive acoustic modeling
US5774846A (en) * 1994-12-19 1998-06-30 Matsushita Electric Industrial Co., Ltd. Speech coding apparatus, linear prediction coefficient analyzing apparatus and noise reducing apparatus
KR100269216B1 (ko) * 1998-04-16 2000-10-16 윤종용 스펙트로-템포럴 자기상관을 사용한 피치결정시스템 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58154898A (ja) * 1982-02-26 1983-09-14 株式会社河合楽器製作所 選択されたソロ楽音を補足する伴奏楽音ライブラリから伴奏組合せを自動的に選択する装置
JPH0573093A (ja) * 1991-09-17 1993-03-26 Nippon Telegr & Teleph Corp <Ntt> 信号特徴点の抽出方法
JPH0689095A (ja) * 1992-09-08 1994-03-29 Nippon Telegr & Teleph Corp <Ntt> 音響信号選択装置
JP2000181472A (ja) * 1998-12-10 2000-06-30 Japan Science & Technology Corp 信号分析装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9514738B2 (en) 2012-11-13 2016-12-06 Yoichi Ando Method and device for recognizing speech
CN105992104A (zh) * 2015-03-23 2016-10-05 福特全球技术公司 用于由功能硬件组件产生的噪音的控制***
CN105992104B (zh) * 2015-03-23 2020-02-14 福特全球技术公司 用于由功能硬件组件产生的噪音的控制***

Also Published As

Publication number Publication date
US6675114B2 (en) 2004-01-06
US20020183947A1 (en) 2002-12-05

Similar Documents

Publication Publication Date Title
WO2004084176A1 (ja) 音響評価方法およびそのシステム
Švec et al. Estimation of sound pressure levels of voiced speech from skin vibration of the neck
Cleveland et al. Aerodynamic and acoustical measures of speech, operatic, and Broadway vocal styles in a professional female singer
Rasch et al. The perception of musical tones
Šrámková et al. The softest sound levels of the human voice in normal subjects
WO2014124449A1 (en) Methods for testing hearing
Shrivastav et al. Pitch strength of normal and dysphonic voices
Ackermann et al. The acoustical effect of musicians' movements during musical performances
JP3350713B2 (ja) 騒音源の種類を特定する方法、その装置および媒体
US20040179696A1 (en) Sound field control system and sound field controlling method, as well as sound field space characteristic decision system and sound field space characteristic deciding method
JP2022145373A (ja) 音声診断システム
JP4909263B2 (ja) バイノーラル音信号の主観的特性の判定法
JP3584287B2 (ja) 音響評価方法およびそのシステム
JP4590545B2 (ja) 音響評価方法およびそのシステム
Traunmüller Perception of speaker sex, age, and vocal effort
Luizard et al. How singers adapt to room acoustical conditions
Klonari et al. Loudness assessment of musical tones equalized in A-weighted level
KR101517957B1 (ko) 음향 지각 능력 평가 방법 및 평가 장치
JP3546236B2 (ja) 騒音心理評価方法、その装置および媒体
Carral Determining the just noticeable difference in timbre through spectral morphing: A trombone example
KR102673570B1 (ko) 노래 점수를 산출하기 위한 방법, 및 장치
Brandner et al. Classification of phonation modes in classical singing using modulation power spectral features
Choi Auditory virtual environment with dynamic room characteristics for music performances
JP2005504347A (ja) 少なくとも1つの記述子に基づいて音響信号の音色を特徴付けるためのプロセス
Hamdan et al. The Frequency Spectrum and Time Frequency Analysis of Different Violins Classification as Tools for Selecting a Good-Sounding Violin.

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 10110307

Country of ref document: US

AK Designated states

Kind code of ref document: A1

Designated state(s): US