WO2007010637A1 - テンポ検出装置、コード名検出装置及びプログラム - Google Patents

テンポ検出装置、コード名検出装置及びプログラム Download PDF

Info

Publication number
WO2007010637A1
WO2007010637A1 PCT/JP2005/023710 JP2005023710W WO2007010637A1 WO 2007010637 A1 WO2007010637 A1 WO 2007010637A1 JP 2005023710 W JP2005023710 W JP 2005023710W WO 2007010637 A1 WO2007010637 A1 WO 2007010637A1
Authority
WO
WIPO (PCT)
Prior art keywords
beat
sound
level
scale
average
Prior art date
Application number
PCT/JP2005/023710
Other languages
English (en)
French (fr)
Inventor
Ren Sumita
Original Assignee
Kabushiki Kaisha Kawai Gakki Seisakusho
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kabushiki Kaisha Kawai Gakki Seisakusho filed Critical Kabushiki Kaisha Kawai Gakki Seisakusho
Publication of WO2007010637A1 publication Critical patent/WO2007010637A1/ja
Priority to US12/015,847 priority Critical patent/US7582824B2/en

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G3/00Recording music in notation form, e.g. recording the mechanical operation of a musical instrument
    • G10G3/04Recording music in notation form, e.g. recording the mechanical operation of a musical instrument using electrical means

Definitions

  • the present invention relates to a tempo detection device, a code name detection device, and a program.
  • a user sets a tempo to perform in advance, and automatic performance is performed according to this tempo. Therefore, when a performer performs along with this automatic accompaniment, it is necessary to perform at the tempo of this automatic accompaniment, which is particularly difficult for beginners. Therefore, an automatic accompaniment device that automatically detects the tempo from the performance sound of the performer and performs automatic accompaniment in accordance with this tempo has been desired.
  • a tempo detection device for example, there is a tempo detection device disclosed in Patent Document 1 below.
  • the tempo detection device of Patent Document 1 is based on performance information representing the pitch, volume, and sounding timing of each performance sound input from the outside.
  • the tempo is equipped with a tempo change means that detects the accents caused by the music elements of the music, predicts changes in the tempo of the performance information based on both of these accents, and tracks the internally generated tempo to the predicted tempo. It is a detection device. Therefore, note information must be detected in order to detect the tempo, and this can be easily obtained when played with a musical instrument that outputs note information such as MIDI. If you play with a general instrument that doesn't have a musical score, you need a music transcription technique that detects note information from the performance sound.
  • the input acoustic signal is digitally filtered in a time-sharing manner to extract the scale, and the scale sound is extracted based on the detected envelope value of the scale sound.
  • the generation period is detected, and the tempo is detected based on the generation period of this scale sound and the time signature of the input acoustic signal specified in advance. Since this tempo detection device does not detect note information, it can also be used as a preprocessing for a music transcription device that detects chord names and note information.
  • Non-Patent Document 1 As a similar tempo detection device, there is Non-Patent Document 1 described later.
  • chords are a very important element in popular music, and even when playing such genre music in a small band, the score on which the individual notes to be played are written Instead of using it, it is common to use a musical score with only a melody and chord progression, called a chord score or lead sheet. Therefore, it is necessary to record the chord progression of a song in order to perform a song such as a commercially available CD in a band, but this work can only be done by experts with special musical knowledge, It was impossible. Therefore, there has been a demand for an automatic music transcription device that detects a chord name from a music sound signal using a commercially available personal computer.
  • the work of removing the above harmonics includes the difference in the harmonic structure depending on the type of musical instrument, the difference in how the harmonics are generated depending on the keystroke strength, It is known that it is very difficult due to the problem of phase interference between sounds that have the same frequency as harmonic components. In other words, the process of detecting the note information does not necessarily function correctly with a sound source such as a general music CD mixed with many instruments and singing.
  • Patent Document 4 As a device for detecting a music acoustic signal force code, there is a configuration of Patent Document 4 described later.
  • the characteristics of the input audio signal are different.
  • Digital filtering is performed in a time-sharing manner to detect the level of each scale, and the levels that have the same scale relationship within the octave of the detected levels are integrated together. Chords are detected using numbers. Since this method does not detect individual note information included in the acoustic signal, the problem described in Patent Document 3 does not occur.
  • Patent Document 1 Patent No. 3231482
  • Patent Document 2 Japanese Patent No. 3127406
  • Non-patent document 1 "Real-time beat tracking system” written by Masataka Goto (Kyoritsu Publishing Computer Science magazine bit Vol.28 No.3 1996)
  • Patent Document 3 Patent No. 2876861
  • Patent Document 4 Patent No. 3156299
  • the part that detects the scale sound generation period from the envelope of the scale sound detects the maximum value of the envelope value, and exceeds a predetermined ratio with respect to the maximum value. It is the structure performed by detecting a part. However, if the predetermined ratio is uniquely determined in this way, the sound generation timing may not be detected depending on the volume, and this will have a major impact on the final tempo determination. I have a problem.
  • Non-Patent Document 1 also extracts a sound rising component from a frequency spectrum obtained by FFT of an acoustic signal. The ability to detect the rise has a major impact on the final tempo decision.
  • chord detection device of Patent Document 4 performs chord detection that does not include a tempo or measure detection function at every predetermined timing.
  • the tempo of the first song is set and played in accordance with the metronome that plays at that tempo, and when applied to a sound signal after performance such as a music CD, Chord names can be detected at regular time intervals, but tempo and measure are not detected, so a chord score or lead sheet is output in the form of a score in which the chord name of each measure is written. I can't do it.
  • the present invention has been devised in view of the above problems, and the average tempo of an entire song and an accurate beat (beat) are calculated from an acoustic signal of a performance that fluctuates the tempo performed by a human. It is intended to provide a tempo detection device that can detect the position, the time signature of the song, and the position of the first beat. [0022] Another configuration of the present invention is that, even if not an expert with special musical knowledge, a chord name is obtained from a music acoustic signal (audio signal) in which a plurality of instrument sounds such as a music CD are mixed. An object of the present invention is to provide a chord name detection device capable of detecting (chord name).
  • an object of the present invention is to provide a chord name detection device that can determine chords from the overall sound without detecting individual note information for an input acoustic signal. .
  • An object of the present invention is to provide a possible code name detection device.
  • the tempo detection device includes:
  • a scale sound level detection means for performing an FFT operation at a predetermined time interval from an input acoustic signal and obtaining a level of each scale sound at a predetermined time;
  • the increment value of each scale sound level for each predetermined time is summed for all the scale sounds to obtain the total of the level increment values indicating the degree of change in the overall sound for the predetermined time.
  • Beat detecting means for detecting the average beat interval and the position of each beat from the sum of the increments of the level indicating the degree of change in the overall sound for each time period;
  • the scale level for each predetermined time is obtained from the acoustic signal input to the input means by the scale sound level detection means, and the beat detection means is used for the predetermined time intervals.
  • the increment value of each scale sound level is summed up for all the scale sounds to obtain the sum of the level increment values indicating the degree of change in the overall sound for each predetermined time, and this predetermined value is also detected by the beat detection means.
  • the average beat interval (that is, tempo) and the position of each beat are detected from the sum of the level increments indicating the degree of change in the overall sound over time, and then this measure is detected by the measure detecting means described above.
  • the level of each scale sound for each predetermined time is obtained from the input acoustic signal, and the average beat interval (that is, the test) is calculated from the change in the level of each scale sound for each predetermined time. ) And the position of each beat, and then the time signature and bar line position (position of the first beat) are detected from the change in the level of each scale tone for each beat.
  • First scale sound level detection means that performs FFT calculation from input acoustic signals at predetermined time intervals using parameters suitable for beat detection, and obtains the level of each scale sound for each predetermined time
  • the increment value of each scale sound level for each predetermined time is summed for all the scale sounds to obtain the total of the level increment values indicating the degree of change in the overall sound for the predetermined time.
  • Beat detecting means for detecting the average beat interval and the position of each beat from the sum of the increments of the level indicating the degree of change in the overall sound for each time period;
  • Second scale level detection means for obtaining
  • Bass sound detection means for detecting a bass sound from the level of the lower scale sound in each measure out of the detected scale sound levels
  • Chord name determination means for determining the chord name of each measure from the detected bass sound and the level of each scale sound
  • chord name determining means sets the measures to several code detection ranges according to the bass sound detection result.
  • the chord name in each chord detection range is determined from the bass sound and the level of each tone in the chord detection range.
  • the FFT processing is first performed on the input acoustic signal input from the input means at a predetermined time interval with the parameters suitable for beat detection by the first scale sound level detection means.
  • the beat detection means detects the average beat interval and the position of each beat from the change in the level of each scale sound for each predetermined time.
  • the bar detection means detects the time signature and bar line position from the change in the level of each scale note for each beat.
  • the chord name detection apparatus according to the present invention is suitable for chord detection at a predetermined time interval different from the time of the previous beat detection with respect to the input sound signal by the second scale sound level detection means.
  • the bass sound detection means detects the base sound of each measure from the level of the lower scale sound among the levels of each scale sound
  • the chord name determination means detects the detected bass sound and each scale sound. The chord name of each measure is determined from the level of the current level.
  • the chord name determining means determines that the measure is divided into several chords according to the bass sound detection result.
  • the chord name in each chord detection range is divided into the base sound and each chord. It is determined from the level of each scale sound in the chord detection range.
  • the configuration of claim 9 defines the program itself executable by the computer in order to cause the computer to execute the configuration of claim 1. That is, as a configuration for solving the above-described problems, the above means is realized by using the configuration of a computer, and is a program that can be read and executed by the computer.
  • the computer may be a general-purpose computer configuration including the configuration of the central processing unit, or a configuration of the central processing unit that may include a dedicated machine directed to a specific process. There is no particular limitation as long as it involves.
  • a more specific configuration of claim 9 is:
  • a scale sound level detection means for performing an FFT operation at a predetermined time interval from an input acoustic signal and obtaining a level of each scale sound at a predetermined time;
  • the increment value of each scale sound level for each predetermined time is summed for all the scale sounds to obtain the total of the level increment values indicating the degree of change in the overall sound for the predetermined time.
  • Beat detecting means for detecting the average beat interval and the position of each beat from the sum of the increments of the level indicating the degree of change in the overall sound for each time period;
  • the configuration of claim 10 defines the program itself that can be executed by the computer in order to cause the computer to execute the configuration of claim 7. That is, a program for causing a computer to realize each of the above means is read by the computer.
  • the same function realization means as the function realization means defined in claim 7 is achieved.
  • a more specific configuration of claim 10 is:
  • First scale sound level detection means that performs FFT calculation from input acoustic signals at predetermined time intervals using parameters suitable for beat detection, and obtains the level of each scale sound for each predetermined time
  • the increment value of each scale sound level for each predetermined time is summed for all the scale sounds to obtain the total of the level increment values indicating the degree of change in the overall sound for the predetermined time.
  • Beat detecting means for detecting the average beat interval and the position of each beat from the sum of the increments of the level indicating the degree of change in the overall sound for each time period;
  • a bar detecting means for detecting a beat and a bar line position from a value indicating the degree of change of the entire sound for each beat
  • Second scale level detection means for obtaining
  • Bass sound detection means for detecting a bass sound from the level of the lower scale sound in each measure out of the detected scale sound levels
  • Chord name determination means for determining the chord name of each measure from the detected bass sound and the level of each scale sound
  • each device of the present invention can be easily used as a new application using existing hardware. Can be realized.
  • the average tune of the entire tune is obtained from the acoustic signal of the performance that the human tempo fluctuates. If it becomes possible to detect the tempo and the exact beat (beat) position, as well as the time signature and position of the first beat, it can produce excellent results.
  • chord name detection device According to the chord name detection device according to claim 7 and claim 8, and the program according to claim 10, a plurality of musical instrument sounds such as a music CD can be used without being an expert having special musical knowledge. It is possible to detect chord names (chord names) from the overall sound without detecting individual note information for music audio signals (audio signals) mixed with
  • FIG. 1 is an overall block diagram of a tempo detection device according to the present invention.
  • FIG. 2 is a block diagram of a configuration of a scale sound level detection unit 2.
  • FIG. 3 is a flowchart showing a processing flow of the beat detection unit 3.
  • FIG. 4 A graph showing the waveform of a part of a song, the level of each scale note, and the total level increment value of each scale note.
  • FIG. 5 is an explanatory diagram showing the concept of autocorrelation calculation.
  • FIG. 6 is an explanatory diagram for explaining a method for determining the first beat position.
  • FIG. 7 is an explanatory diagram showing a method for determining the positions of subsequent beats after the determination of the first beat position.
  • FIG. 8 is a graph showing the distribution state of the coefficient k that can be changed according to the value of s.
  • FIG. 9 is an explanatory diagram showing a method for determining the second and subsequent beat positions.
  • FIG. 10 is a screen display diagram showing an example of a confirmation screen for beat detection results.
  • FIG. 11 is a screen display diagram showing an example of a measure detection result confirmation screen.
  • FIG. 12 is an overall block diagram of a code detection device according to the present invention relating to Example 2.
  • FIG. 14 is a graph showing a display example of a bass detection result by the bass sound detector 6.
  • FIG. 15 is a screen display diagram showing an example of a code detection result confirmation screen.
  • FIG. 1 is an overall block diagram of a tempo detection device according to the present invention.
  • the configuration of the tempo detection device includes an input unit 1 for inputting an acoustic signal, and performs an FFT operation at a predetermined time interval from the input acoustic signal, and each scale for each predetermined time.
  • the scale level detector 2 for obtaining the sound level and the increment value of each scale sound level for each predetermined time are summed up for all the scale sounds, and the total sound for each predetermined time is calculated.
  • the sum of the level increments indicating the degree of change is obtained, and the average beat interval and the position of each beat are detected from the sum of the level increments indicating the degree of change in the overall sound for each predetermined time.
  • the beat detection unit 3 calculates the average value of each scale sound level for each beat, and adds the average level increments for each scale sound for each beat. Obtain a value that indicates the degree of change in the overall sound for each beat, and change the overall sound for each beat. It has a bar detector 4 for detecting the time signature and bar line position from the value indicating the degree.
  • the input unit 1 for inputting a music sound signal is a part for inputting a music sound signal to be subjected to tempo detection.
  • An analog signal input from a device such as a microphone may be converted to a digital signal by an A / D converter (not shown).
  • a / D converter not shown
  • digitized music data such as a music CD
  • it is directly imported as a file. (Ritting), you may specify this to open. If the digital signal input in this way is stereo, it is converted to monaural in order to simplify the subsequent processing.
  • This digital signal is input to the scale sound level detection unit 2.
  • This scale level detection The exit is composed of the parts shown in Fig. 2.
  • the waveform preprocessing unit 20 is configured to downsample the audio signal from the input unit 1 of the music audio signal to a sampling frequency suitable for future processing.
  • the down-sampling rate is determined by the musical instrument range used for beat detection. In other words, in order to reflect the performance sound of high-frequency rhythm instruments such as cymbals and hi-hats in beat detection, it is necessary to increase the sampling frequency after downsampling. When detecting beats mainly from instrument sounds such as snare drums and mid-range instrument sounds, the sampling frequency after downsampling need not be so high.
  • Downsampling is usually performed by passing data through a low-pass filter that cuts off components above the Nyquist frequency (1837.3 Hz in this example), which is half the sampling frequency after downsampling. This is done by skipping (in this example, discarding 11 out of 12 waveform samples).
  • the purpose of downsampling in this way is to reduce the FFT computation time by lowering the number of FFT points required to obtain the same frequency resolution in the subsequent FFT computation. .
  • the input unit 1 for the music acoustic signal is a device such as a microphone.
  • the waveform preprocessing section can be omitted by setting the sampling frequency of the AZD converter to the sampling frequency after downsampling. It is possible.
  • the output signal of the waveform preprocessing unit is subjected to FFT (fast Fourier transform) by the FFT calculation unit 21 at a predetermined time interval.
  • the FFT parameters are values suitable for beat detection. In other words, if the number of FFT points is increased to increase the frequency resolution, the size of the FFT window will increase, and one FFT will be performed from a longer time, resulting in reduced time resolution. (In other words, it is better to increase the time resolution at the expense of frequency resolution when detecting beats).
  • the number of FFT points is 512
  • the window shift is 32 samples
  • zero padding is set.
  • the time resolution is about 8.7 ms and the frequency resolution is about 7.2 Hz.
  • the FFT operation is performed at predetermined time intervals, the power is calculated from the square root of the sum of the square of each of the real part and the imaginary part, and the result is sent to the level detection unit 22. Sent.
  • the level detector 22 calculates the level of each tone from the power 'spectrum calculated by the FFT calculator 21. Since FFT only calculates the power of a frequency that is an integer multiple of the sampling frequency divided by the number of FFT points, in order to detect the level of each scale tone from this spectrum, Perform proper processing. In other words, for all the sounds (C1 to A6) for which the scale sound is calculated, the largest spectrum in the power spectrum corresponding to frequencies in the range of 50 cents above and below the fundamental frequency of each sound (100 cents is a semitone). Let the power of the spectrum with ⁇ ⁇ be the level of this scale sound.
  • the levels are stored in the buffer, and the waveform readout position is advanced by a predetermined time interval (32 samples in the previous example), and the FFT calculation unit 21 And level detector 22 is repeated until the end of the waveform.
  • the level of each scale sound for each predetermined time of the acoustic signal input to the music acoustic signal input unit 1 is stored in the buffer 23.
  • the beat detection unit 3 is executed in the processing flow as shown in FIG. 1
  • the beat detection unit 3 uses an average beat (based on a change in the level of each scale sound for each predetermined time (hereinafter, this one predetermined time is referred to as one frame) output from the scale sound level detection unit. (Beat) interval (ie tempo) and beat position are detected. For this purpose, the beat detection unit 3 first adds the level increments of each scale sound (the sum of the level increments of the previous frame with all the scale sounds. The level decreases from the previous frame. (In this case, add it as 0) (step S100).
  • the total level increment L (t) of each scale tone at frame time t can be calculated by the following equation (2). Where T is the total number of scale sounds.
  • This total L (t) value represents the degree of change in sound for each frame. This value suddenly increases at the beginning of the sound, and increases as more sounds begin to sound at the same time. Since music often starts to sound at the beat position, it is highly possible that the position where this value is large is the beat position.
  • FIG. 4 shows a diagram of the waveform of a part of a song, the level of each scale note, and the total level increment value of each scale note.
  • the top row is the waveform, and the center is the level of each scale note for each frame.
  • the lower level shows the sum of the level increments of each scale note for each frame, expressed in shading (lower tones, higher tones. In this figure, the range is C1 to A6). Since the scale levels in this figure are output from the scale level detector, the frequency resolution is about 7.2 Hz, and the level cannot be calculated for some scales below G # 2. In this case, the purpose is to detect beats, so it is not possible to measure the level of some of the lower scales.
  • the sum of the level increments of each scale note has a form having a peak periodically. This regular peak position is the beat position.
  • the beat detection unit 3 first obtains the periodic peak interval, that is, the average beat interval.
  • the average beat interval can be calculated from the autocorrelation of the sum of the level increments of each scale note (Fig. 3; step S102).
  • N is the total number of frames and ⁇ is the time delay.
  • FIG. 1 A conceptual diagram of autocorrelation calculation is shown in FIG. As shown in this figure, ⁇ ( ⁇ ) becomes a large value when the time delay ⁇ is an integral multiple of the peak period of L (t). Therefore, if the maximum value of ⁇ ( ⁇ ) is obtained for a certain range of ⁇ , the tempo of the song can be obtained.
  • the range of ⁇ for obtaining the autocorrelation may be changed according to the assumed tempo range of the song.
  • ⁇ with the maximum autocorrelation ⁇ ( ⁇ ) in this range may be used as the beat interval, but ⁇ when autocorrelation is the maximum for all songs is not necessarily the beat interval.
  • ⁇ force when becomes a maximum value The beat interval candidate is obtained (FIG. 3; step S104), and the user determines the beat interval from these candidates (FIG. 3; step S106).
  • Equation 5 A method for determining the first beat position will be described with reference to FIG.
  • the upper part of Fig. 6 is the total L (t) of the level increments of each scale note at frame time t, and the lower part M (t) is a function having a value at the determined beat interval ⁇ . Expressed as a formula, it is as shown in Equation 5 below.
  • the cross-correlation r (s) can be calculated by the following equation (6) from the characteristic of M (t).
  • Lame is the first beat position.
  • the subsequent beat positions are determined one by one (FIG. 3; step S108).
  • the method will be described with reference to FIG. Assume that the first beat is found at the triangle mark in Fig. 7.
  • the second beat position is a temporary beat position that is a position that is a maximum of the beat interval ⁇ away from the first beat position, and L (t) and M (t) are the most correlative positions in the vicinity. Decide. In other words, when the first beat position is b, r (s) in the following formula is the maximum
  • S in this equation is a deviation from the temporary beat position, and is an integer in the range of Equation 7 below.
  • F is a fluctuation parameter. A value of about 0.1 is appropriate. For songs with large fluctuations in tempo, a larger value can be used. n may be about 5.
  • k is a coefficient that changes in accordance with the value of s, and has a normal distribution as shown in FIG. 8, for example.
  • the second beat position b is calculated by the following equation (8).
  • ⁇ 1 to ⁇ 4 are equally increased or decreased.
  • ⁇ 3 ⁇ + 2-s (- ⁇ -F ⁇ s ⁇ -F)
  • the coefficients 1, 2, and 4 are merely examples, and may be changed depending on the magnitude of tempo change.
  • the magnitude of the five pulses is the same for all of the current values. Only the pulse at the position where the beat is calculated (temporary beat position in Fig. 9) is increased, or the value increases as the distance from the position where the beat is calculated is increased. It is also possible to emphasize the total level increment value of each scale note at the position where the beat is sought, [Fig. 9, 5)].
  • Figure 10 shows an example of a confirmation screen for beat detection results.
  • the position of the triangle mark in the figure is the detected beat position.
  • the current music sound signal is D / A converted and played from a speaker or the like.
  • the current playback position is indicated by a playback position pointer such as a vertical line as shown in the figure, so you can check the beat detection position error while listening to your performance.
  • a sound like a metronome is played at the timing of the beat position at the same time as the original waveform of the detection, it can be confirmed not only visually but also by sound, making false detection easier. I can judge.
  • a MIDI device can be considered.
  • the beat detection position is corrected by pressing the "correct beat position” button. Press this button Then, a cross cursor appears on the screen, so click the correct beat position where the first beat detection is wrong. Just before the clicked location (for example, half of ⁇
  • the degree of sound change for each beat is obtained next time.
  • the degree of sound change for each beat is calculated from the level of each scale sound for each frame output from the scale sound level detector.
  • the number of frames of the jth beat is b, and the frames of the beats before and after that are b
  • the change in sound for each beat of the jth beat is the frequency from frame b to b_l.
  • the bottom row in FIG. 11 shows the degree of change in sound for each beat.
  • the time signature and the position of the first beat are determined from the degree of change in sound for each beat.
  • the time signature is obtained from the autocorrelation of the degree of change in sound for each beat.
  • music is thought to change frequently at the first beat, so the time signature can be obtained from the autocorrelation of the degree of sound change for each beat.
  • the autocorrelation ⁇ ( ⁇ ) of the sound change rate ⁇ ⁇ ⁇ B (j) for each beat is delayed ⁇ in the range of 2 to 4.
  • the delay ⁇ that maximizes the autocorrelation ⁇ ( ⁇ ) is taken as the number of beats.
  • the first beat is the place where the degree of change B (j) of the sound for each beat is the largest.
  • ⁇ that maximizes ⁇ () is ⁇
  • the k-th beat is the first beat position
  • the beat position obtained by adding ⁇ to max max max is the first beat.
  • n is the maximum n under the condition of ⁇ * n + k ⁇ N
  • FIG. 12 is an overall block diagram of the code detection device of the present invention.
  • the configurations of beat detection and bar detection are basically the same as in the first embodiment, and in the same configuration, the tempo detection and chord detection configurations are different from those in the first embodiment. Therefore, the same description overlaps except for mathematical formulas and the like, and is shown below.
  • the configuration of the present code detection apparatus is based on an input unit 1 for inputting an acoustic signal and an FF using parameters suitable for beat detection at predetermined time intervals from the input acoustic signal.
  • the sound is summed to obtain the sum of level increments indicating the degree of overall sound change for each predetermined time, and from the sum of level increments indicating the degree of overall sound change for each predetermined time.
  • the beat detector 3 detects the average beat interval and the position of each beat, calculates the average value of the scale levels for each beat, and calculates the average level of each scale sound for each beat. All the scales are summed in increments of From the value indicating the degree of change in the overall sound for each beat, the bar detection unit 4 that detects the time signature and bar line position, and the input acoustic signal, Chord detection scale level that calculates the level of each tone at a given time by performing FFT calculation using parameters suitable for chord detection at a different time interval different from the time of beat detection.
  • Detection unit 5 Bass sound detection unit 6 that detects the bass sound from the level of the low-frequency tone within each measure, and the detected bass sound and each tone
  • a chord name determining unit 7 for determining the chord name of each measure from the level of
  • the input unit 1 for inputting a music acoustic signal is a part for inputting a music acoustic signal to be subjected to chord detection.
  • the basic configuration is the same as the input unit 1 of the first embodiment, Detailed description thereof is omitted.
  • the right channel waveform and the left channel waveform are subtracted. Even if you cancel the vocals,
  • This digital signal is input to the beat detection scale level detector 2 and the chord detection scale level detector 5.
  • These scale sound level detectors are composed of the parts shown in Fig. 2 and have the same structure, so the same parts can be reused by changing only the parameters.
  • the waveform pre-processing unit 20 used as the configuration has the same configuration as described above, and the acoustic signal from the input unit 1 of the music acoustic signal is reduced to a sampling frequency suitable for future processing. Sampling.
  • the sampling frequency after down-sampling that is, the down-sampling rate may be changed for beat detection and chord detection, or may be the same to save time for down-sampling.
  • the downsampling rate is determined by the range used for beat detection. In order to reflect the performance sound of high-frequency rhythm instruments such as cymbals and hi-hats in beat detection, it is necessary to increase the sampling frequency after down-sampling. However, instruments such as bass sounds and bass drums, snare drums, etc. When detecting beats mainly from sounds and instrument sounds in the middle range, the same downsampling rate as the following chord detection may be used.
  • the downsampling rate of the waveform pre-processing unit for chord detection varies depending on the chord detection range.
  • downsampling is performed by passing the data after passing through a low-pass filter that cuts off the Nyquist frequency (1837.3 Hz in this example) that is half the sampling frequency after downsampling. This is done by skipping (in this example, discarding 11 out of 12 waveform samples). This is explained in Example 1. For the same reason.
  • the FFT parameters are different for beat detection and chord detection. This is because if the number of FFT points is increased to increase the frequency resolution, the size of the FFT window will increase, and one FFT will be performed from a longer time, resulting in a decrease in time resolution. (In other words, it is better to increase the time resolution at the expense of frequency resolution when detecting beats). Do not use a waveform with the same length as the window size, set waveform data to only a part of the window, and set the rest to 0 so that the time resolution is poor even if the number of FFT points is increased. In some cases, a certain number of waveform samples is necessary in order to correctly detect the power on the bass side.
  • the number of FFT points is 512 at the time of beat detection
  • the window shift is 32 samples, no offi
  • the number of FFT points is 8192 at the time of code detection.
  • the time resolution is about 8.7 ms and the frequency resolution is about 7.2 Hz when beats are detected, and the time resolution is about 35 ms and the frequency resolution is about 0.4 Hz when detecting codes.
  • the FFT operation is performed at predetermined time intervals, the power is calculated from the square root of the sum of the square of each of the real part and the imaginary part, and the result is sent to the level detection unit 22. Sent.
  • the level detector 22 calculates the level of each tone from the power 'spectrum calculated by the FFT calculator 21.
  • FFT is the sampling frequency divided by the number of FFT points Therefore, in order to detect the level of each scale tone from this spectrum, the same processing as in the first embodiment is performed. That is, for all the sounds (C1 to A6) for which the scale sound is calculated, the frequency corresponding to a frequency in the range of 50 cents above and below the fundamental frequency of each sound (100 cents is a semitone).
  • the power of the spectrum with the maximum power is defined as the scale sound level.
  • the level of each scale sound of the sound signal input to the music sound signal input unit 1 for each predetermined time is stored in the two types of buffers 23 and 50 for beat detection and chord detection. Is done.
  • the configurations of the beat detection unit 3 and the bar detection unit 4 in FIG. 12 are the same as those of the beat detection unit 3 and the bar detection unit 4 of the first embodiment. Omitted.
  • the bass sound is detected from the scale level of each frame output by the chord detection scale level detector 5.
  • FIG. 13 shows the scale level of each frame output by the chord detection scale level detector 5 of the same part of the same song as FIG. 4 of the first embodiment. As shown in this figure, since the frequency resolution in the chord detection scale level detector 5 is about 0.4 Hz, the scale levels of all scales C1 to A6 are extracted.
  • the bass sound detection unit 6 detects the first half and the second half of each measure, respectively. If the first and second bass sounds are the same, this is confirmed as the bass sound of the measure, and the chord is also detected in the entire measure. If different bass sounds are detected in the first half and the second half, the chord is also detected separately in the first half and the second half. In some cases, the range to be divided may be further reduced by half (up to a quarter of the bar). [0141] The bass sound is obtained from the average strength of the scale sound level in the bass detection range during the bass detection period.
  • the average level L (f, f) of the scale of i s i i # can be calculated by the following equation (14).
  • This average level is calculated in the bass detection range, for example, in the range of C2 to B3, and the bass tone detector 6 determines the scale tone having the highest average level as the bass tone.
  • An appropriate threshold value is set to prevent the bass sound from being mistakenly detected in a song or silent part that does not include sound in the bass detection range, and the average level of the detected bass sound is below this threshold. Sound may not be detected.
  • the bass sound is important in later chord detection, it is more reliable to check whether the detected bass sound is maintained at or above a certain level during the bass detection period. Even if only the bass sound is detected.
  • the average level of each pitch name is not determined as the base tone in the bass detection range, but the average level of each pitch name is averaged for every 12 pitch names. Is determined as the bass note name, and the scale level in the bass detection range with that note name is the highest and the average tone level is the highest. Yo.
  • the result may be stored in the buffer 60, and the bass detection result may be displayed on the screen so that the user can correct it if wrong.
  • the bass range may change depending on the song, the user may be able to change the bass detection range.
  • FIG. 14 shows a display example of the bass detection result by the bass sound detection unit 6.
  • the chord detection process by the chord name determination unit 7 also determines the chord detection process by calculating the average level of each tone in the chord detection period.
  • the code detection period and the base detection period are the same. Calculate the average level of the chord detection range, for example, C3 to A6, in the chord detection period, detect several note names in order from the note with the largest value, and the sound of the bass note. Extract the code name candidates.
  • a sound with a high level is not necessarily a chord constituent sound
  • five sounds having a plurality of pitch names are detected, and two or more of them are extracted in all combinations.
  • the chord name candidates are extracted from this, the pitch name and power of the bass sound.
  • chord detection range may be changed by the user.
  • the chord constituent sound candidates are not extracted in order from the scale sound with the highest average level in the chord detection range, but the average level of each pitch name in this chord detection range is set for every 12 pitch names.
  • the chord constituent sound candidates may be extracted in the order of the highest note name level of each note name.
  • Chord name candidates are extracted by searching the chord name database 7 for the chord name database that stores the chord type (m, M7, etc.) and the pitch from the root tone of the chord constituent sound. To do. In other words, all two or more combinations are extracted from the five detected pitch names, and whether or not the pitch between these pitch names is related to the pitch of the chord constituent notes in this chord name database. If the same pitch relationship is found, the root name of one of the chord constituent sounds is calculated, the chord type is added to the pitch name of the root note, and the chord name is determined. At this time, the chord root sound and the fifth sound may be omitted for instruments that play chords, so they should be extracted as chord name candidates even if they are not included.
  • chord type m, M7, etc.
  • the note name of the bass note is added to the chord name of this chord name candidate. In other words, if the root note and bass note of the chord have the same pitch name, leave it as it is. If it is different, use a fractional chord.
  • chord name candidates if there are too many chord name candidates to be extracted, it may be limited by bass sound. In other words, if a bass sound is detected, the chord name candidates whose root name is not the same as the bass sound are deleted.
  • the code name determination unit 7 calculates the likelihood (likelihood).
  • the likelihood is calculated from the average level intensity of all chord constituent sounds in the chord detection range and the intensity of the chord root tone level in the base detection range. That is, L is the average value of the average level during the chord detection period for all constituent sounds of a certain extracted chord name candidate, and L is the average level of the chord root sound during the base detection period
  • Equation 15 the likelihood is calculated from the average of these two, as shown in Equation 15 below.
  • chord detection range or the bass detection range when a plurality of sounds having the same pitch name are included in the chord detection range or the bass detection range, the one with the stronger average level is used.
  • the chord detection range and bass detection range average the average level of each scale note for every 12 pitch names, and use the average value for each pitch name.
  • musical knowledge may be introduced into the likelihood calculation. For example, the level of each scale note is averaged over all frames, and the average is calculated for every 12 pitch names, and the strength of each pitch name is calculated, and the key of the song is detected from the distribution of the strength. Then, the key diatonic chord is multiplied by a certain constant to increase the likelihood, or the chord that includes the sound that deviates from the sound on the key diatonic scale depends on the number of sounds that are out of the tone. For example, the likelihood may be reduced. Furthermore, by storing a pattern of common chord progressions as a database and comparing it with the database, it is necessary to multiply certain chord progressions that are frequently used by chords to increase the likelihood. Motole.
  • the code having the highest likelihood is determined as the code name. However, the code name candidates may be displayed together with the likelihood to be selected by the user.
  • the code name is determined by the code name determination unit 7
  • the result is stored in the buffer 70, and the code name is output to the screen.
  • FIG. 15 shows a display example of the code detection result by the code name determination unit 7.
  • the detected chord name is simply displayed on the screen. It is desirable to play the bass sound. In general, it is because it is impossible to determine whether it is correct just by looking at the code name.
  • an individual music acoustic signal mixed with a plurality of musical instrument sounds such as a music CD can be applied to individual music acoustic signals such as a music CD, even if the expert is not a specialist in special musical knowledge.
  • the chord name can be detected from the overall sound without detecting the note information.
  • chord name for each measure can be detected.
  • processing that requires time resolution of beat detection with the simple configuration (same as the configuration of the tempo detection device) and processing that requires frequency resolution of code detection (the tempo detection device described above)
  • a configuration that can further detect code names can be performed simultaneously.
  • the tempo detection device, the code name detection device, and the program capable of realizing them according to the present invention are not limited to the above illustrated examples, and various modifications can be made without departing from the scope of the present invention. Of course, it can be added.
  • the tempo detection device, the code name detection device, and the program capable of realizing them according to the present invention are a video that synchronizes an event in a video track with a time of a beat in a music track when a music promotion video is created.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

明 細 書
テンポ検出装置、コード名検出装置及びプログラム
技術分野
[0001] 本発明は、テンポ検出装置、コード名検出装置及びプログラムに関する。
背景技術
[0002] 従来の自動伴奏装置では、あらかじめ演奏するテンポを使用者が設定し、このテン ポに従って自動演奏が行われる。従って、この自動伴奏に合わせて演奏者が演奏す る場合、この自動伴奏のテンポに合わせて演奏する必要があり、これは特に演奏初 心者にとっては非常に困難なことであった。そのため、演奏者の演奏音から自動的に テンポを検出し、このテンポに合わせて自動伴奏を行うような自動伴奏装置が望まれ ていた。
[0003] また、演奏音が収録された音楽 CD等の音源からコード名や音符情報を検出する 採譜装置において、その演奏音からテンポを検出する機能はその前段階の処理とし て必須である。
[0004] このようなテンポ検出装置として、例えば、下記特許文献 1のテンポ検出装置がある
[0005] この特許文献 1のテンポ検出装置は、外部から入力される演奏音の 1音毎の音程、 音量、及び発音のタイミングを表す演奏情報に基づいて、音量に起因するアクセント と、音量以外の音楽要素に起因するアクセントを検出し、これら双方のアクセントに基 づいて演奏情報のテンポの変化を予測し、予測されたテンポに内部で生成するテン ポを追従させるテンポ変更手段を備えたテンポ検出装置である。従って、テンポ検出 するためには、音符情報が検出されていなければならず、 MIDI等の音符情報を出 力する機能を持った楽器で演奏された場合は、これを簡単に取得できるが、これを持 たない一般の楽器で演奏された場合は、演奏音から音符情報を検出するという採譜 技術が必要になる。
[0006] MIDI等の音符情報を出力する機能を持たない一般楽器の演奏音、すなわち音響 信号を入力とするテンポ検出装置の例としては、下記特許文献 2に示される構成があ る。
[0007] 該特許文献 2に示される構成では、入力される音響信号を時分割でディジタルフィ ルタリング処理を行つて音階を抽出し、検出した音階音のエンベロープ値に基づレヽ てその音階音の発生周期を検出し、この音階音の発生周期とあらかじめ指定された 入力音響信号の拍子に基づいてテンポを検出している。このテンポ検出装置は、音 符情報を検出しないので、コード名や音符情報を検出する採譜装置の前処理として も使用できる。
[0008] 同様なテンポ検出装置として、後述する非特許文献 1がある。
[0009] 他方、ポピュラー系の音楽においてコードは非常に重要な要素であり、このようなジ ヤンルの音楽を小編成のバンドで演奏する場合にも、演奏する個々の音符が書かれ た楽譜は使用しないで、コード譜またはリードシートと呼ばれるメロディとコード進行の みが書かれた楽譜を使用することが通常である。よって市販の CD等の曲をバンドで 演奏するためには曲のコード進行を採譜する必要があるが、この作業は特別な音楽 的知識を有する専門家のみが可能であり、一般の人には不可能であった。そこで、 市販のパーソナルコンピュータなどを使用して音楽音響信号からコード名を検出する 自動採譜装置が求められていた。
[0010] このような音楽音響信号からコードを検出する装置として、下記特許文献 3の構成 力 Sある。同文献の構成では、パワー'スペクトルの計算結果から基本周波数候補を抽 出し、この基本周波数候補から倍音と思われるものを除去して音符情報を検出し、こ の音符情報力 和音を検出している。
[0011] しかし、該特許文献 3に示す構成では、上記倍音を除去する作業は、楽器の種類 による倍音構造の違い、打鍵強さによる倍音の出方の違い、時間による倍音のパヮ 一変化、同じ周波数を倍音成分として持つ音同士の位相干渉の問題などから非常 に困難であることが知られている。即ち、この音符情報を検出するという工程が、多く の楽器や歌唱などが混じった一般の音楽 CDなどの音源で必ずしも正しく機能すると は考えられない。
[0012] 同様に音楽音響信号力 コードを検出する装置として、後述する特許文献 4の構成 がある。該特許文献 4の構成では、入力される音響信号に対して、異なる特性のディ ジタルフィルタリング処理を時分割で行い、各音階音のレベルを検出し、検出したレ ベルのうちオクターブ内で同じ音階関係にあるレベル同士を積算して、その積算レべ ルのうち値が大きい所定数を使って和音検出をしている。この方法では音響信号に 含まれる個々の音符情報を検出しないので、特許文献 3にあげたような問題は発生 しない。
特許文献 1 :特許第 3231482号
特許文献 2:特許第 3127406号
非特許文献 1 :後藤真孝著「リアルタイムビートトラッキングシステム」(共立出版コンビ ユータサイエンス誌 bit Vol.28 No.3 1996年)
特許文献 3 :特許第 2876861号
特許文献 4 :特許第 3156299号
発明の開示
発明が解決しょうとする課題
[0013] ところ力 上記特許文献 2のテンポ装置では、音階音のエンベロープからその音階 音の発生周期を検出する部分が、エンベロープ値の最大値を検出し、その最大値に 対して所定割合以上の部分を検出することにより行う構成となっている。しかし、この ように所定割合を一意に定めてしまうと、音量の大小によって発音タイミングを検出で きたりできなかったりしてしまレ、、それが最終的なテンポの決定に大きな影響を与えて しまうとレ、う問題を抱えてレ、る。
[0014] 上記非特許文献 1に示されるビートトラッキングシステムも、音響信号を FFTして得 られた周波数スペクトルから音の立ち上がり成分を抽出するので、先の特許文献 2の テンポ検出装置と同様、この立ち上がりを検出できるかどうかが最終的なテンポの決 定に大きな影響を与えてしまう。
[0015] また、これら 2つのテンポ検出装置に共通して言えることは、この音の立ち上がりを 検出するのをどの音階音、あるいは、周波数で行うのかということである。たまたま検 出する音階音(周波数)で細かレ、リズムを刻んでレ、る曲があった場合、間違えて速レヽ テンポを検出してしまう問題があった。
[0016] 他方、音楽音響信号からコードを検出する上記特許文献 4に示す構成では、各音 階音のレベルをオクターブ内で同じ音階関係にあるもの同士、つまり 12の音名毎に 積算してしまっているので、同じ構成音からなる複数の和音、例えばラ、ド、ミ、ソから なる Am7とド、ミ、ソ、ラからなる C6という 2つのコードを判別することができない。
[0017] また、この特許文献 4の和音検出装置には、テンポや小節の検出機能はなぐ和音 検出は所定のタイミング毎に行うとなっている。つまり、あら力、じめ曲のテンポを設定し てそのテンポで発音するメトロノームに合わせて演奏するようなケースを想定しており 、音楽 CD等のような演奏後の音響信号に適用した場合、一定時間間隔毎のコード 名は検出できるが、テンポや小節を検出していないので、コード譜またはリードシート と呼ばれているような各小節のコード名が書かれた楽譜のような形式に出力すること はできない。
[0018] 仮に曲のテンポを与えたとしても、一般的に音楽 CDに収録されている演奏のテン ポは一定ではなく多少揺らぐため、正しく小節毎のコードを検出することはできない。
[0019] また、一定のテンポで発音されるメトロノームなどに合わせて正確なテンポで演奏す ることは初心者の演奏者にとっては非常に困難であり、一般的には演奏のテンポは 揺らいでしまうのが通常である。
[0020] さらに、特許文献 4の構成では、入力される音響信号に対して、異なる特性のディ ジタルフィルタリング処理を時分割で行う構成が採用されてレ、るが、この構成の採用 理由として、 FFT演算では低域で周波数分解が悪いことをあげている。しかし、入力 音響信号をダウンサンプリングして FFTを行うことで低域でもある程度の周波数分解 能を得ることは可能であるし、ディジタルフィルタリング処理では、フィルタ出力信号の レベルを求めるためにエンベロープ抽出部が必要になってしまうのに対し、 FFTでは 、 FFT後のパワーそのものが各周波数でのレベルを表しているためそのようなものは 必要なぐ FFTポイント数とシフト量のパラメータを適宜選ぶことで周波数分解能や時 間分解能を自由に設定できるメリットもある。
[0021] 本発明は、以上のような問題に鑑み創案されたもので、人間が演奏したテンポの揺 らぐ演奏の音響信号から、曲全体の平均的なテンポと正確なビート (拍)の位置、さら に曲の拍子と 1拍目の位置を検出することが可能なテンポ検出装置を提供せんとす るものである。 [0022] またもう 1つの本発明の構成は、特別な音楽的知識を有する専門家でなくても、音 楽 CD等の複数の楽器音の混ざった音楽音響信号 (オーディオ信号)から、コード名 (和音名)を検出することができるコード名検出装置を提供することを目的とする。
[0023] さらに詳しくは、入力された音響信号に対し、個々の音符情報を検出することなしに 、全体の響きから、コードを決定することができるコード名検出装置を提供することを 目的とする。
[0024] カロえて、構成音が同じ和音でも判別可能で、演奏のテンポが揺らいでしまった場合 や、逆にわざとテンポを揺らして演奏しているような音源に関しても、小節毎の和音が 検出可能なコード名検出装置を提供することを目的とする。
[0025] 以上のように、本発明構成では、簡単な構成のみでビート検出という時間分解能が 必要な処理 (上記テンポ検出装置の構成と同じ)と、和音検出という周波数分解能が 必要な処理 (上記テンポ検出装置の構成を基にさらに和音を検出できる構成)を同 時に行うことができるコード名検出装置を提供することを目的とする。
[0026] 併せて、これらの装置をコンピュータ上に実現できるテンポ検出用及びコード名検 出用のコンピュータ 'プログラムについても、提供する。
課題を解決するための手段
[0027] そのため本発明に係るテンポ検出装置は、
音響信号を入力する入力手段と、
入力された音響信号から、所定の時間間隔で、 FFT演算を行い、所定の時間毎の 各音階音のレベルを求める音階音レベル検出手段と、
この所定の時間毎の各音階音のレベルの増分値をすベての音階音について合計し て、所定の時間毎の全体の音の変化度合いを示すレベルの増分値の合計を求め、 この所定の時間毎の全体の音の変化度合レ、を示すレベルの増分値の合計から、平 均的なビート間隔と各ビートの位置を検出するビート検出手段と、
このビート毎の各音階音のレベルの平均値を計算し、このビート毎の各音階音の平 均レベルの増分値をすベての音階音にっレ、て合計して、ビート毎の全体の音の変化 度合いを示す値を求め、このビート毎の全体の音の変化度合いを示す値から、拍子 と小節線位置を検出する小節検出手段と を有することを基本的特徴としている。
[0028] 上記構成によれば、入力手段に入力された音響信号から所定の時間毎の各音階 音のレベルを音階音レベル検出手段によって求め、上記ビート検出手段によって、こ の所定の時間毎の各音階音のレベルの増分値をすベての音階音について合計して 所定の時間毎の全体の音の変化度合いを示すレベルの増分値の合計を求め、同じ くビート検出手段により、この所定の時間毎の全体の音の変化度合いを示すレベル の増分値の合計から、平均的なビート (拍)間隔(つまりテンポ)と各ビートの位置を検 出し、次に上記小節検出手段により、このビート毎の各音階音のレベルの平均値を 計算し、このビート毎の各音階音の平均レベルの増分値をすベての音階音にっレ、て 合計して、ビート毎の全体の音の変化度合いを示す上記値求め、このビート毎の全 体の音の変化度合いを示す値から、拍子と小節線位置(1拍目の位置)を検出するこ とになる。
[0029] すなわち、入力された音響信号から所定の時間毎の各音階音のレベルを求め、こ の所定の時間毎の各音階音のレベルの変化から平均的なビート (拍)間隔(つまりテ ンポ)と各ビートの位置を検出し、次にこのビート毎の各音階音のレベルの変化から 拍子と小節線位置(1拍目の位置)を検出することになる。
[0030] またコード名検出装置の構成は、
音響信号を入力する入力手段と、
入力された音響信号から、所定の時間間隔で、ビート検出に適したパラメータを使つ て FFT演算を行い、所定の時間毎の各音階音のレベルを求める第 1の音階音レべ ル検出手段と、
この所定の時間毎の各音階音のレベルの増分値をすベての音階音について合計し て、所定の時間毎の全体の音の変化度合いを示すレベルの増分値の合計を求め、 この所定の時間毎の全体の音の変化度合レ、を示すレベルの増分値の合計から、平 均的なビート間隔と各ビートの位置を検出するビート検出手段と、
このビート毎の各音階音のレベルの平均値を計算し、このビート毎の各音階音の平 均レベルの増分値をすベての音階音にっレ、て合計して、ビート毎の全体の音の変化 度合いを示す値を求め、このビート毎の全体の音の変化度合いを示す値から、拍子 と小節線位置を検出する小節検出手段と、
上記入力された音響信号から、先のビート検出の時とは異なる別の所定の時間間隔 で、コード検出に適したパラメータを使って FFT演算を行い、所定の時間毎の各音 階音のレベルを求める第 2の音階音レベル検出手段と、
検出した各音階音のレベルのうち、各小節内における低域側の音階音のレベルから ベース音を検出するベース音検出手段と、
検出したベース音と各音階音のレベルから各小節のコード名を決定するコード名決 定手段と
を有することを特徴としてレ、る。
[0031] また上記ベース音検出手段において、ベース音が小節内で複数検出される場合は 、そのベース音検出結果に応じて、上記コード名決定手段は、小節を幾つかのコー ド検出範囲に分断し、この各コード検出範囲におけるコード名を、ベース音と各コー ド検出範囲における各音階音のレベルから、決定するものとする。
[0032] 上記構成によれば、入力手段から入力された入力音響信号に対し、第 1の音階音 レベル検出手段により、所定の時間間隔で、まずビート検出に適したパラメータで FF T演算を行い、これにより所定の時間毎の各音階音のレベルを求め、ビート検出手段 により、この所定の時間毎の各音階音のレベルの変化から平均的なビート間隔と各ビ ートの位置を検出する。次に、小節検出手段により、このビート毎の各音階音のレべ ルの変化から拍子と小節線位置を検出する。さらに、本発明のコード名検出装置は、 第 2の音階音レベル検出手段により、入力音響信号に対し先のビート検出の時とは 異なる別の所定の時間間隔で、今度はコード検出に適したパラメータで FFT演算を 行レ、、これにより所定の時間毎の各音階音のレベルを求める。そしてベース音検出 手段により、この各音階音のレベルの内、低域側の音階音のレベルから各小節のベ 一ス音を検出し、コード名決定手段により、検出したベース音と各音階音のレベルか ら各小節のコード名を決定することになる。
[0033] また上記のように、ベース音検出手段でこのベース音が小節内で複数検出される 場合は、そのベース音検出結果に応じて、上記コード名決定手段は、小節を幾つか のコード検出範囲に分断し、この各コード検出範囲におけるコード名をベース音と各 コード検出範囲における各音階音のレベルから決定することになる。
[0034] さらに、請求項 9の構成は、請求項 1記載の構成を、コンピュータに実行させるため に、該コンピュータで実行可能なプログラム自身を規定している。すなわち、上述した 課題を解決するための構成として、上記各手段を、コンピュータの構成を利用するこ とで実現する、該コンピュータで読み込まれて実行可能なプログラムである。この場合 、コンピュータとは中央演算処理装置の構成を含んだ汎用的なコンピュータの構成 の他、特定の処理に向けられた専用機などを含むものであっても良ぐ中央演算処 理装置の構成を伴うものであれば特に限定はない。
[0035] 上記各手段を実現させるためのプログラムが該コンピュータに読み出されると、請 求項 1に規定された各機能実現手段と同様な機能実現手段が達成されることになる
[0036] 請求項 9のより具体的構成は、
コンピュータを、
音響信号を入力する入力手段と、
入力された音響信号から、所定の時間間隔で、 FFT演算を行い、所定の時間毎の 各音階音のレベルを求める音階音レベル検出手段と、
この所定の時間毎の各音階音のレベルの増分値をすベての音階音について合計し て、所定の時間毎の全体の音の変化度合いを示すレベルの増分値の合計を求め、 この所定の時間毎の全体の音の変化度合レ、を示すレベルの増分値の合計から、平 均的なビート間隔と各ビートの位置を検出するビート検出手段と、
このビート毎の各音階音のレベルの平均値を計算し、このビート毎の各音階音の平 均レベルの増分値をすベての音階音にっレ、て合計して、ビート毎の全体の音の変化 度合いを示す値を求め、このビート毎の全体の音の変化度合いを示す値から、拍子 と小節線位置を検出する小節検出手段と
して機能させることを特徴とするテンポ検出用プログラムである。
[0037] さらに、請求項 10の構成は、請求項 7記載の構成を、コンピュータに実行させるた めに、該コンピュータで実行可能なプログラム自身を規定している。すなわち、コンビ ユータに上記各手段を実現させるためのプログラムが該コンピュータに読み出される と、請求項 7に規定された各機能実現手段と同様な機能実現手段が達成されること になる。
[0038] 請求項 10のより具体的構成は、
コンピュータを、
音響信号を入力する入力手段と、
入力された音響信号から、所定の時間間隔で、ビート検出に適したパラメータを使つ て FFT演算を行い、所定の時間毎の各音階音のレベルを求める第 1の音階音レべ ル検出手段と、
この所定の時間毎の各音階音のレベルの増分値をすベての音階音について合計し て、所定の時間毎の全体の音の変化度合いを示すレベルの増分値の合計を求め、 この所定の時間毎の全体の音の変化度合レ、を示すレベルの増分値の合計から、平 均的なビート間隔と各ビートの位置を検出するビート検出手段と、
このビート毎の各音階音のレベルの平均値を計算し、このビート毎の各音階音の平 均レベルの増分値をすベての音階音にっレ、て合計して、ビート毎の全体の音の変化 度合いを示す値を求め、このビート毎の全体の音の変化度合いを示す値から、拍子 と小節線位置を検出する小節検出手段と、
上記入力された音響信号から、先のビート検出の時とは異なる別の所定の時間間隔 で、コード検出に適したパラメータを使って FFT演算を行い、所定の時間毎の各音 階音のレベルを求める第 2の音階音レベル検出手段と、
検出した各音階音のレベルのうち、各小節内における低域側の音階音のレベルから ベース音を検出するベース音検出手段と、
検出したベース音と各音階音のレベルから各小節のコード名を決定するコード名決 定手段と
して機能させることを特徴とするコード名検出用プログラムである。
[0039] 以上のようなプログラムの構成であれば、既存のハードウェア資源を用いてこのプロ グラムを使用することにより、既存のハードウェアで新たなアプリケーションとしての本 発明の夫々の装置が容易に実現できるようになる。
[0040] このプログラムという態様では、通信などを利用して、これを容易に使用、配布、販 売すること力 Sできるようになる。また、既存のハードウェア資源を用いてこのプログラム を使用することにより、既存のハードウェアで新たなアプリケーションとしての本発明 の装置が容易に実行できるようになる。
[0041] 尚、請求項 9、 10記載の各機能実現手段のうち一部の機能は、コンピュータに組み 込まれた機能(コンピュータにハードウェア的に組み込まれている機能でも良ぐ該コ ンピュータに組み込まれているオペレーティングシステムや他のアプリケーションプロ グラムなどによって実現される機能でも良い)によって実現され、前記プログラムには 、該コンピュータによって達成される機能を呼び出すあるいはリンクさせる命令が含ま れていても良い。
[0042] これは、請求項 1、 7に規定された各機能実現手段の一部が、例えばオペレーティ ングシステムなどによって達成される機能の一部で代行され、その機能を実現するた めのプログラムないしモジュールなどは直接存在するわけではなレ、が、それらの機能 を達成するオペレーティングシステムの機能の一部を、呼び出したりリンクさせるよう にしてあれば、実質的に同じ構成となるからである。
発明の効果
[0043] 本発明の請求項 1〜請求項 6記載のテンポ検出装置、及び請求項 9記載のプログ ラムによれば、人間が演奏したテンポの揺らぐ演奏の音響信号から、曲全体の平均 的なテンポと正確なビート (拍)の位置、さらに曲の拍子と 1拍目の位置を検出するこ とができるようになるとレ、う優れた効果を奏し得る。
[0044] また請求項 7及び請求項 8記載のコード名検出装置、請求項 10記載のプログラム によれば、特別な音楽的知識を有する専門家でなくても、音楽 CD等の複数の楽器 音の混ざった入力された音楽音響信号 (オーディオ信号)に対し、個々の音符情報 を検出することなしに全体の響きから、コード名(和音名)を検出することが可能となる
[0045] さらに、該構成によれば、構成音が同じ和音でも判別可能で、演奏のテンポが揺ら いでしまった場合や、逆にわざとテンポを揺らして演奏しているような音源に関しても 、小節毎の和音が検出可能となる。
[0046] 特に請求項 7及び請求項 8記載のコード名検出装置の後者の構成及び請求項 10 記載のプログラムでは、簡単な構成のみでビート検出という時間分解能が必要な処 理 (上記テンポ検出装置の構成と同じ)と、和音検出という周波数分解能が必要な処 理(上記テンポ検出装置の構成を基にさらに和音を検出できる構成)を同時に行うこ とができるようになる。
図面の簡単な説明
[0047] [図 1]本発明に係るテンポ検出装置の全体ブロック図である。
[図 2]音階音レベル検出部 2の構成のブロック図である。
[図 3]ビート検出部 3の処理の流れを示すフローチャートである。
[図 4]ある曲の一部分の波形と各音階音のレベル、各音階音のレベル増分値の合計 の図を示すグラフである。
[図 5]自己相関計算の概念を示す説明図である。
[図 6]先頭のビート位置の決定方法を説明する説明図である。
[図 7]最初のビート位置決定後のそれ以降のビートの位置を決定してレ、く方法を示す 説明図である。
[図 8]sの値に応じて変えられる係数 kの分布状態を示すグラフである。
[図 9]2番目以降のビート位置の決定方法を示す説明図である。
[図 10]ビート検出結果の確認画面の例を示す画面表示図である。
[図 11]小節検出結果の確認画面の例を示す画面表示図である。
[図 12]実施例 2に係る本発明のコード検出装置の全体ブロック図である。
[図 13]曲の同じ部分のコード検出用音階音レベル検出部 5が出力した各フレームの
[図 14]ベース音検出部 6によるベース検出結果の表示例を示すグラフである。
[図 15]コード検出結果の確認画面の例を示す画面表示図である。
符号の説明
[0048] 1 入力部
2 ビート検出用音階音レベル検出部
3 ビート検出部
4 小節検出部 コード検出用音階音レベル検出部
ベース音検出部
コード名決定部
波形前処理部
FFT演算部
レベル検出部
23、 30、 40、 50、 60、 70 バッファ
発明を実施するための最良の形態
[0049] 以下、本発明の実施例を、添付図面を参照して説明する。
実施例 1
[0050] 図 1は、本発明に係るテンポ検出装置の全体ブロック図である。同図によれば、本 テンポ検出装置の構成は、音響信号を入力する入力部 1と、入力された音響信号か ら、所定の時間間隔で、 FFT演算を行い、所定の時間毎の各音階音のレベルを求 める音階音レベル検出部 2と、この所定の時間毎の各音階音のレベルの増分値をす ベての音階音について合計して、所定の時間毎の全体の音の変化度合いを示すレ ベルの増分値の合計を求め、この所定の時間毎の全体の音の変化度合いを示すレ ベルの増分値の合計から、平均的なビート間隔と各ビートの位置を検出するビート検 出部 3と、このビート毎の各音階音のレベルの平均値を計算し、このビート毎の各音 階音の平均レベルの増分値をすベての音階音について合計して、ビート毎の全体の 音の変化度合いを示す値を求め、このビート毎の全体の音の変化度合いを示す値 から、拍子と小節線位置を検出する小節検出部 4とを有している。
[0051] 音楽音響信号を入力する上記入力部 1は、テンポ検出をする対象の音楽音響信号 を入力する部分である。マイク等の機器から入力されたアナログ信号を A/D変換器 (図示無し)によりディジタル信号に変換しても良いし、音楽 CDなどのディジタル化さ れた音楽データの場合は、そのままファイルとして取り込み(リツビング)、これを指定 して開くようにしても良い。このようにして入力したディジタル信号がステレオの場合、 後の処理を簡略化するためにモノラルに変換する。
[0052] このディジタル信号は、音階音レベル検出部 2に入力される。この音階音レベル検 出部は図 2の各部から構成される。
[0053] そのうち波形前処理部 20は、音楽音響信号の上記入力部 1からの音響信号を今 後の処理に適したサンプリング周波数にダウンサンプリングする構成である。
[0054] ダウンサンプリングレートは、ビート検出に使う楽器の音域によって決定する。すな わち、シンバル、ハイハット等の高音域のリズム楽器の演奏音をビート検出に反映さ せるには、ダウンサンプリング後のサンプリング周波数を高い周波数にする必要があ るが、ベース音とバスドラム、スネアドラム等の楽器音と中音域の楽器音から主にビー ト検出させる場合には、ダウンサンプリング後のサンプリング周波数はそれほど高くす る必要はない。
[0055] 例えば検出する最高音を A6 (C4が中央のド)とする場合、 A6の基本周波数は約 1 760Hz (A4 = 440Hzとした場合)となるので、ダウンサンプリング後のサンプリング周 波数は、ナイキスト周波数が 1760Hz以上となる、 3520Hz以上にすれば良レ、。これ から、ダウンサンプリングレートは、元のサンプリング周波数力 4. 1kHz (音楽 CD) の場合、 1/12程度にすれば良いことになる。この時、ダウンサンプリング後のサンプ リング周波数は、 3675Hzとなる。
[0056] ダウンサンプリングの処理は、通常、ダウンサンプリング後のサンプリング周波数の 半分の周波数であるナイキスト周波数 (今の例では 1837. 5Hz)以上の成分をカット するローパスフィルタを通した後に、データを読み飛ばす (今の例では波形サンプル の 12個に 11個を破棄する)ことによって行われる。
[0057] このようにダウンサンプリングの処理を行うのは、この後の FFT演算において、同じ 周波数分解能を得るために必要な FFTポイント数を下げることで、 FFTの演算時間 を減らすのが目的である。
[0058] なお、音楽 CDのように、音源が固定のサンプリング周波数で既にサンプリングされ ている場合は、このようなダウンサンプリングが必要になるが、音楽音響信号の入力 部 1が、マイク等の機器から入力されたアナログ信号を AZD変換器によりディジタル 信号に変換するような場合には、当然 AZD変換器のサンプリング周波数を、ダウン サンプリング後のサンプリング周波数に設定することで、この波形前処理部を省くこと が可能である。 [0059] このようにして波形前処理部 20によるダウンサンプリングが終了したら、所定の時間 間隔で、波形前処理部の出力信号を、 FFT演算部 21により FFT (高速フーリエ変換 )する。
[0060] FFTのパラメータ(FFTポイント数と FFT窓のシフト量)は、ビート検出に適した値と する。つまり、周波数分解能を上げるために FFTポイント数を大きくすると、 FFT窓の サイズが大きくなつてしまい、より長い時間から 1回の FFTを行うことになり、時間分解 能が低下する、という FFTの特性を考慮しなくてはならなレ、(つまりビート検出時は周 波数分解能を犠牲にして時間分解能をあげるのが良い)。窓のサイズと同じだけの長 さの波形を使わないで、窓の一部だけに波形データをセットし残りは 0で埋めることに よって、 FFTポイント数を大きくしても時間分解能が悪くならない方法もあるが、低音 側のパワーも正しく検出するためには、ある程度の波形サンプノレ数は必要である。
[0061] 以上のようなことを考慮し、本実施例では、 FFTポィント数512、窓のシフトは 32サ ンプルで、 0埋めなしという設定にした。このような設定で FFT演算を行うと、時間分 解能約 8. 7ms、周波数分解能約 7. 2Hzとなる。時間分解能約 8. 7msという値は、 四分音符 = 300のテンポの曲で、 32分音符の長さが、 25msであることを考えると、 十分な値であることがわかる。
[0062] このようにして、所定の時間間隔毎に FFT演算が行われ、その実数部と虚数部の それぞれを二乗したものの和の平方根からパワーが計算され、その結果がレベル検 出部 22に送られる。
[0063] レベル検出部 22では、 FFT演算部 21で計算されたパワー'スペクトルから、各音 階音のレベルを計算する。 FFTは、サンプリング周波数を FFTポイント数で割った値 の整数倍の周波数のパワーが計算されるだけであるので、このパヮ一'スペクトルか ら各音階音のレベルを検出するために、以下のような処理を行う。つまり、音階音を 計算するすべての音(C1から A6)について、その各音の基本周波数の上下 50セン トの範囲(100セントが半音)の周波数に相当するパワー ·スペクトルの内、最大のパ ヮーを持つスペクトルのパワーをこの音階音のレベルとする。
[0064] すべての音階音についてレベルが検出されたら、これをバッファに保存し、波形の 読み出し位置を所定の時間間隔 (先の例では 32サンプル)進めて、 FFT演算部 21 とレベル検出部 22を波形の終わりまで繰り返す。
[0065] 以上により、音楽音響信号の入力部 1に入力された音響信号の、所定時間毎の各 音階音のレベルが、バッファ 23に保存される。
[0066] 次に、図 1のビート検出部 3の構成について説明する。該ビート検出部 3は、図 3の ような処理の流れで実行される。
[0067] ビート検出部 3は、音階音レベル検出部が出力した所定時間(以下、この 1所定時 間を 1フレームと呼ぶ)毎の各音階音のレベルの変化を元に平均的なビート (拍)間 隔(つまりテンポ)とビートの位置を検出する。そのために、まずビート検出部 3は、各 音階音のレベル増分値の合計(前のフレームとのレベルの増分値をすベての音階音 で合計したもの。前のフレームからレベルが減少してレ、る場合は 0として加算する)を 計算する(ステップ S 100)。
[0068] つまり、フレーム時間 tにおける i番目の音階音のレベルを L (t)とするとき、 i番目の 音階音のレベル増分値 L (t)は、下式数 1に示すようになり、この L (t)を使って
aaai addi
、フレーム時間 tにおける各音階音のレベル増分値の合計 L (t)は、下式数 2で計算 できる。ここで、 Tは音階音の総数である。
[0069] [数 1]
L i(t) - L i_i(t) (L i_i(t) ≤ L i(t)のとき)
Laddi(t)一
(L i_i(t) > L i(t)のとき)
[0070] [数 2]
T-1
L(t) = ∑ Laddi(t)
1=0
[0071] この合計 L (t)値は、フレーム毎の全体での音の変化度合レ、を表してレ、る。この値 は、音の鳴り始めで急激に大きくなり、同時に鳴り始める音が多いほど大きな値となる 。音楽はビートの位置で音が鳴り始めることが多いので、この値が大きなところはビー トの位置である可能性が高いことになる。
[0072] 例として、図 4に、ある曲の一部分の波形と各音階音のレベル、各音階音のレベル 増分値の合計の図を示す。上段が波形、中央がフレーム毎の各音階音のレベルを 濃淡で表したもの(下が低い音、上が高い音。この図では、 C1から A6の範囲)、下段 がフレーム毎の各音階音のレベル増分値の合計を示している。この図の各音階音の レベルは、音階音レベル検出部から出力されたものであるので、周波数分解能が約 7. 2Hzであり、 G # 2以下の一部の音階音でレベルが計算できずに歯抜け状態にな つているが、この場合はビートを検出するのが目的であるので、低音の一部の音階音 のレベルが測定できなレ、のは、問題なレ、。
[0073] この図の下段に見られるように、各音階音のレベル増分値の合計は、定期的にピー クをもつ形となっている。この定期的なピークの位置が、ビートの位置である。
[0074] ビートの位置を求めるために、ビート検出部 3では、まずこの定期的なピークの間隔 、つまり平均的なビート間隔を求める。平均的なビート間隔はこの各音階音のレベル 増分値の合計の自己相関から計算できる(図 3 ;ステップ S 102)。
[0075] あるフレーム時間 tにおける各音階音のレベル増分値の合計を L (t)とすると、この 自己相関 φ ( τ )は、以下の式数 3で計算される。
[0076] [数 3]
Ν - τ-1
∑ L( t ) · L( t + T )
ここで、 Nは総フレーム数、 τは時間遅れである。
[0077] 自己相関計算の概念図を、図 5に示す。この図のように、時間遅れ τが L (t)のピー クの周期の整数倍の時に、 φ ( τ )は大きな値となる。よって、ある範囲の τについて φ ( τ )の最大値を求めれば、曲のテンポを求めることができる。
[0078] 自己相関を求める τの範囲は、想定する曲のテンポ範囲によって変えれば良い。
例えば、メトロノーム記号で四分音符 = 30から 300の範囲を計算するならば、 自己相 関を計算する範囲は、 0. 2秒から 2秒となる。時間(秒)からフレームへの変換式は、 以下の数 4式に示す通りとなる。
[0079] [数 4] 時間 (秒) ·サンプリング周波数
1フレームあたりのサンプル数 [0080] この範囲の自己相関 φ ( τ )が最大となる τをビート間隔としても良いが、必ずしも すべての曲で自己相関が最大となる時の τがビート間隔とはならないので、 自己相 関が極大値となる時の τ力 ビート間隔の候補を求め(図 3 ;ステップ S 104)、これら 複数の候補からユーザにビート間隔を決定させるのが良レ、(図 3;ステップ S106)。
[0081] このようにしてビート間隔が決定したら (決定したビート間隔を τ とする)、まず最 max
初に先頭のビート位置を決定する。
[0082] 先頭のビート位置の決定方法を、図 6を用いて説明する。図 6の上段はフレーム時 間 tにおける各音階音のレベル増分値の合計 L (t)で、下段 M (t)は決定したビート 間隔 τ の周期で値を持つ関数である。式で表すと、下式数 5に示すようになる。
max
[0083] [数 5]
1 (tがて maxの整数倍のとき)
Figure imgf000019_0001
0 (上記以外のとき) [0084] この関数 M (t)を、 0から τ _ 1の範囲でずらしながら、 L (t)と M (t)の相互相関 max
を計算する。
[0085] 相互相関 r (s)は、上記 M (t)の特性から、下式数 6で計算できる。
[0086] [数 6] n-1
i'(s) = ∑ L( τ mas · j + s) (0 ≥ s < τ niax)
i=o
[0087] この場合の nは、最初の無音部分の長さに応じて適当に決めれば良レ、(図 6の例で は、 n= 10)。
[0088] r (s)を sが 0から τ _ 1の範囲で求め、! "(s)が最大となる sを求めれば、この sのフ max
レームが最初のビート位置である。
[0089] 最初のビート位置が決まったら、それ以降のビートの位置を 1つずつ決定していく( 図 3 ;ステップ S 108)。
[0090] その方法を、図 7を用いて説明する。図 7の三角印の位置に先頭のビートが見つか つたとする。 2番目のビート位置は、この先頭のビート位置からビート間隔 τ だけ離 max れた位置を仮のビート位置とし、その近辺で L (t)と M (t)が最も相関が取れる位置か ら決定する。つまり、先頭のビート位置を bとするとき、以下の式の r (s)が最大となる
0
ような sの値を求める。この式の sは仮のビート位置からのずれで、以下の式数 7の範 囲の整数とする。 Fは揺らぎのパラメータで 0. 1程度の値が適当である力 テンポの 揺らぎの大きい曲では、もっと大きな値にしてもよレ、。 nは 5程度でよい。
[0091] kは、 sの値に応じて変える係数で、例えば図 8のような正規分布とする。
[0092] [数 7] n
l'、S) = ∑ ■ L(b0 + τ max ■ J + S) (- X mas■ F ≤ S ≤ て max · F)
i=i
[0093] r (s)が最大となるような sの値が求まれば、 2番目のビート位置 bは、下式数 8で計
1
算される。
[0094] [数 8] b i = b 0 +て… + s
[0095] 以降、同じようにして 3番目以降のビート位置も求めることができる。
[0096] テンポがほとんど変わらない曲ではこの方法でビート位置を曲の終わりまで求めるこ とができる力 実際の演奏は多少テンポが揺らいだり、部分的にだんだん遅くなつた りすること力 Sよくある。
[0097] そこで、これらのテンポの揺らぎにも対応できるように以下のような方法を考えた。
[0098] つまり、図 7の M (t)の関数を、図 9のように変化させるものである。
1)は、従来の方法で、図のように各パルスの間隔を τ 1、 τ 2、 τ 3、 τ 4としたとき、 τ 1 = τ 2 = τ 3 = τ 4= τ
max
である。
2)は、 τ 1から τ 4を均等に大きくしたり小さくしたりするものである。
τ 1 = τ 2 = τ 3 = τ 4= τ + s (— τ - F≤s≤ τ - F)これにより、急にテンポ max max max
が変わった場合に対応できる。
3)は、 rit. (リタルダンド、だんだん遅く)又は、 accel. (アツチヱレランド、だんだん速 く)に対応したもので、各パノレス間隔は、
τ 1 = て
max τ 2 = τ + l - s
max
τ 3 = τ + 2 - s (- τ - F≤s≤て - F)
max max max
τ 4= τ +4 - s
max
で計算される。
1、 2、 4の係数は、あくまで例であり、テンポ変化の大きさによって変えてもよい。
4)は、 3)のような rit.や accel.の場合の、 5個のパルスの位置のどこが現在ビートを 求めようとしている場所かを変えるものである。
[0099] これらをすベて組み合わせて、 L (t)と M (t)の相関を計算し、それらの最大からビ ート位置を決めれば、テンポが揺らぐ曲に対してもビート位置の決定が可能である。 なお、 2)と 3)の場合には、相関を計算するときの係数 kの値を、やはり sの値に応じて 変えるようにする。
[0100] さらに、 5個のパルスの大きさは現在すベて同じにしてある力 ビートを求める位置( 図 9の仮のビート位置)のパルスのみ大きくしたり、ビートを求める位置から離れるほど 値を小さくして、ビートを求める位置の各音階音のレベル増分値の合計を強調するよ うにしてもよレ、 [図 9の 5) ]。
[0101] 以上のようにして、各ビートの位置が決定したら、この結果をバッファ 30に保存する と共に、検出した結果を表示し、ユーザに確認してもらい、間違っている箇所を修正 してもらうようにしてもよレ、。
[0102] ビート検出結果の確認画面の例を、図 10に示す。同図の三角印の位置が検出した ビート位置である。
[0103] 「再生」のボタンを押すと、現在の音楽音響信号が、 D/A変換され、スピーカ等か ら再生される。現在の再生位置は、図のように縦線等の再生位置ポインタで表示され るので、演奏を聞きながら、ビート検出位置の誤りを確認できる。さらに、検出の元波 形の再生と同時に、ビート位置のタイミングで例えばメトロノームのような音を再生させ るようにすれば、 目で確認するだけでなく音でも確認でき、より容易に誤検出を判断 できる。このメトロノームの音を再生させる方法としては、例えば MIDI機器等が考えら れる。
[0104] ビート検出位置の修正は、「ビート位置の修正」ボタンを押して行う。このボタンを押 すと、画面に十字のカーソルが現れるので、最初のビート検出が間違っている箇所で 正しいビート位置をクリックする。クリックされた場所の少し前 (例えば τ の半分の
max
位置)から後のビート位置をすベてクリアし、クリックされた場所を、仮のビート位置とし て、以降のビート位置を再検出する。
[0105] 次に、拍子および小節の検出について説明する。
[0106] これまでの処理で、ビートの位置が確定しているので、今度は、ビート毎の音の変 化度合いを求める。ビート毎の音の変化度合いは、音階音レベル検出部が出力した 、フレーム毎の各音階音のレベルから計算する。
[0107] j番目のビートのフレーム数を bとし、その前後のビートのフレームを b る
j i- i、 b とす
j+ i 時、 j番目のビートのビート毎の音の変化度合いは、フレーム b から b _ lまでのフレ
J- l J
一ムの各音階音のレベルの平均とフレーム b力、ら b _ 1までのフレームの各音階音
i i + i
のレベルの平均を計算し、その増分値から各音階音のビート毎の音の変化度合レ、を 求め、それらをすベての音階音で合計して計算することができる。
[0108] つまり、フレーム時間 tにおける i番目の音階音のレベルを L (t)とするとき、 j番目の ビートの i番目の音階音のレベルの平均 L (j)は、下式数 9であるから、 j番目のビー
avgi
トの潘目の音階音のビート毎の音の変化度合い B (j)は、下式数 10に示すように
addi
なる。
[0109] [数 9]
Figure imgf000022_0001
[0110] [数 10]
Lavei( J ) ~ Lavgi— 1リノ (Lavgi— 1(Jノ ≤ Lavgi(J )のときノ
Baddi(j )
0 (La、 — l(j ) > Lav j )のとき)
[0111] よって、 j番目のビートのビート毎の音の変化度合レ、B (j)は、下式数 11に示すよう になる。ここで、 Tは音階音の総数である。
[0112] [数 11] T-l
B(j)= ∑ Baddi(j)
i=0
[0113] 図 11の最下段は、このビート毎の音の変化度合いである。このビート毎の音の変化 度合レ、から拍子と 1拍目の位置を求める。
[0114] 拍子は、ビート毎の音の変化度合いの自己相関から求める。一般的に音楽は 1拍 目で音が変わることが多いと考えられるので、このビート毎の音の変化度合いの自己 相関から拍子を求めることができる。例えば、下式数 12に示す自己相関 φ ( τ )を求 める式から、ビート毎の音の変化度合レヽ B (j)の自己相関 φ ( τ )を遅れ τ 、 2から 4 の範囲で求め、自己相関 φ ( τ )が最大となる遅れ τを拍子の数とする。
[0115] [数 12]
Ν-τ-1
∑ B(j) ·Β(] + τ)
φ ( τ ) = ―
Ν - τ
[0116] Νは、総ビート数、 τ =2〜4の範囲で φ (て)を計算し、 φ ( τ )が最大となる τを拍 子の数とする。
[0117] 次に 1拍目を求めるが、これは、ビート毎の音の変化度合い B(j)がもっとも大きい箇 所を 1拍目とする。つまり、 φ ( て )が最大となる τを τ 、下式数 13の X(k)が最大と max
なる kを k とするとき、 k 番目のビートが最初の 1拍目の位置となり、以降、 τ を max max max 足したビート位置が 1拍目となる。
[0118] [数 13]
Figure imgf000023_0001
∑ Β(τ max · n +k)
n=0
X(k) =
Umax + 1
n は、 τ *n + k<Nの条件で最大となる n
max max
[0119] 以上のようにして、拍子及び 1拍目の位置 (小節線の位置)が決定したら、この結果 をバッファ 40に保存すると共に、検出した結果を画面表示して、ユーザに変更させる ようにすることが望ましい。特に変拍子の曲は、この方法では対応できないので、変 拍子の箇所をユーザに指定してもらう必要がある。 [0120] 以上の実施例構成により、人間が演奏したテンポの揺らぐ演奏の音響信号から、曲 全体の平均的なテンポと正確なビート(拍)の位置、さらに曲の拍子と 1拍目の位置を 検出することが可能となる。
実施例 2
[0121] 図 12は、本発明のコード検出装置の全体ブロック図である。同図において、ビート 検出及び小節検出の構成は、実施例 1と基本的に同じであり、同一構成において、 テンポ検出用とコード検出用の構成について、上記実施例 1の場合と異なるものもあ るので、数式等を除き、同じ説明が重なるが、以下に示す。
[0122] 同図によれば、本コード検出装置の構成は、音響信号を入力する入力部 1と、入力 された音響信号から、所定の時間間隔で、ビート検出に適したパラメータを使って FF T演算を行い、所定の時間毎の各音階音のレベルを求めるビート検出用音階音レべ ル検出部 2と、この所定の時間毎の各音階音のレベルの増分値をすベての音階音に ついて合計して、所定の時間毎の全体の音の変化度合いを示すレベルの増分値の 合計を求め、この所定の時間毎の全体の音の変化度合いを示すレベルの増分値の 合計から、平均的なビート間隔と各ビートの位置を検出するビート検出部 3と、このビ ート毎の各音階音のレベルの平均値を計算し、このビート毎の各音階音の平均レべ ルの増分値をすベての音階音について合計して、ビート毎の全体の音の変化度合 レ、を示す値を求め、このビート毎の全体の音の変化度合いを示す値から、拍子と小 節線位置を検出する小節検出部 4と、上記入力された音響信号から、先のビート検 出の時とは異なる別の所定の時間間隔で、コード検出に適したパラメータを使つて F FT演算を行い、所定の時間毎の各音階音のレベルを求めるコード検出用音階音レ ベル検出部 5と、検出した各音階音のレベルのうち、各小節内における低域側の音 階音のレベルからベース音を検出するベース音検出部 6と、検出したベース音と各音 階音のレベルから各小節のコード名を決定するコード名決定部 7とを有している。
[0123] 音楽音響信号を入力する上記入力部 1は、コード検出をする対象の音楽音響信号 を入力する部分であるが、基本的構成は上記実施例 1の入力部 1と同じであるので、 その詳細な説明は省略する。ただし、通常センタに定位されるボーカルが後のコード 検出でじゃまになる場合は、右チャンネルの波形と左チャンネルの波形を引き算する ことでボーカルキャンセルするようにしても良レ、。
[0124] このディジタル信号は、ビート検出用音階音レベル検出部 2とコード検出用音階音 レベル検出部 5とに入力される。これらの音階音レベル検出部は、どちらも上記図 2 の各部から構成され、構成はまったく同じなので、同じものをパラメータだけを変えて 再利用できる。
[0125] そしてその構成として使用される波形前処理部 20は、上記と同様な構成であり、音 楽音響信号の上記入力部 1からの音響信号を今後の処理に適したサンプリング周波 数にダウンサンプリングする。ただし、ダウンサンプリング後のサンプリング周波数、つ まり、ダウンサンプリングレートは、ビート検出用とコード検出用で変えるようにしても良 いし、ダウンサンプリングする時間を節約するために同じにしても良い。
[0126] ビート検出用の場合は、ビート検出に使う音域によってダウンサンプリングレートを 決定する。シンバル、ハイハット等の高音域のリズム楽器の演奏音をビート検出に反 映させるには、ダウンサンプリング後のサンプリング周波数を高い周波数にする必要 があるが、ベース音とバスドラム、スネアドラム等の楽器音と中音域の楽器音から主に ビート検出させる場合には、以下のコード検出時と同じダウンサンプリングレートで構 わない。
[0127] コード検出用の波形前処理部のダウンサンプリングレートは、コード検出音域によつ て変える。コード検出音域とは、コード名決定部でコード検出するときに使う音域のこ とである。例えばコード検出音域を C3から A6 (C4が中央のド)とする場合、 A6の基 本周波数は約 1760Hz (A4=440Hzとした場合)となるので、ダウンサンプリング後 のサンプリング周波数はナイキスト周波数が 1760Hz以上となる、 3520Hz以上にす れば良い。これから、ダウンサンプリングレートは、元のサンプリング周波数が 44. Ik Hz (音楽 CD)の場合、 1/12程度にすれば良いことになる。この時、ダウンサンプリ ング後のサンプリング周波数は、 3675Hzとなる。
[0128] ダウンサンプリングの処理は、通常、ダウンサンプリング後のサンプリング周波数の 半分の周波数であるナイキスト周波数 (今の例では 1837. 5Hz)以上の成分をカット するローパスフィルタを通した後に、データを読み飛ばす (今の例では波形サンプル の 12個に 11個を破棄する)ことによって行われる。これについては、実施例 1に説明 したことと同じ理由による。
[0129] このようにして波形前処理部 20によるダウンサンプリングが終了したら、所定の時間 間隔で、波形前処理部の出力信号を FFT演算部 21により、 FFT (高速フーリエ変換 )する。
[0130] FFTのパラメータ(FFTポイント数と FFT窓のシフト量)は、ビート検出時とコード検 出時で異なる値とする。これは、周波数分解能を上げるために FFTポイント数を大き くすると、 FFT窓のサイズが大きくなつてしまレ、、より長い時間から 1回の FFTを行うこ とになり、時間分解能が低下する、という FFTの特性によるものである(つまりビート検 出時は周波数分解能を犠牲にして時間分解能をあげるのが良い)。窓のサイズと同 じだけの長さの波形を使わないで、窓の一部だけに波形データをセットし、残りは 0で 坦めることによって FFTポイント数を大きくしても時間分解能が悪くならない方法もあ る力 本実施例のケースでは、低音側のパワーも正しく検出するためにある程度の波 形サンプノレ数は必要である。
[0131] 以上のようなことを考慮し、本実施例では、ビート検出時は FFTポイント数 512、窓 のシフトは 32サンプルで、 Offiめなし、コード検出時は FFTポイント数 8192、窓のシ フトは 128サンプノレで、波形サンプルは一度の FFTで 1024サンプル使うようにした。 このような設定で FFT演算を行うと、ビート検出時は、時間分解能約 8. 7ms,周波数 分解能約 7. 2Hz、コード検出時は、時間分解能約 35ms、周波数分解能約 0. 4Hz となる。今レベルを求めようとしている音階音は、 C1から A6の範囲であるので、コー ド検出時の周波数分解能約 0. 4Hzは、最も周波数差の小さい C1と C # lの基本周 波数の差、約 1. 9Hzにも対応できる。また、四分音符 = 300のテンポの曲で 32分音 符の長さが 25msであることを考えると、ビート検出時の時間分解能約 8. 7msは、十 分な値であることがわかる。
[0132] このようにして、所定の時間間隔毎に FFT演算が行われ、その実数部と虚数部の それぞれを二乗したものの和の平方根からパワーが計算され、その結果がレベル検 出部 22に送られる。
[0133] レベル検出部 22では、 FFT演算部 21で計算されたパワー'スペクトルから、各音 階音のレベルを計算する。 FFTは、サンプリング周波数を FFTポイント数で割った値 の整数倍の周波数のパワーが計算されるだけであるので、このパヮ一'スペクトルか ら各音階音のレベルを検出するために、実施例 1と同様な処理を行う。すなわち、音 階音を計算するすべての音(C1から A6)について、その各音の基本周波数の上下 5 0セントの範囲(100セントが半音)の周波数に相当するパヮ一.スぺタトノレの内、最大 のパワーを持つスペクトルのパワーをこの音階音のレベルとする。
[0134] すべての音階音についてレベルが検出されたら、これをバッファに保存し、波形の 読み出し位置を所定の時間間隔 (先の例ではビート検出時は 32サンプル、コード検 出時は 128サンプル)進めて、 FFT演算部 21とレベル検出部 22を波形の終わりまで 繰り返す。
[0135] 以上により、音楽音響信号の入力部 1に入力された音響信号の、所定時間毎の各 音階音のレベルが、ビート検出用とコード検出用の 2種類のバッファ 23及び 50に保 存される。
[0136] 次に、図 12のビート検出部 3及び小節検出部 4の構成については、実施例 1のビー ト検出部 3及び小節検出部 4と同じ構成なので、その詳細な説明は、ここでは、省略 する。
[0137] 実施例 1と同様な構成と手順で、小節線の位置 (各小節のフレーム番号)が確定し たので、今度は各小節のベース音を検出する。
[0138] ベース音は、コード検出用音階音レベル検出部 5が出力した各フレームの音階音 のレベルから検出する。
[0139] 図 13に実施例 1の図 4と同じ曲の同じ部分のコード検出用音階音レベル検出部 5 が出力した各フレームの音階音のレベルを示す。この図のように、コード検出用音階 音レベル検出部 5での周波数分解能は、約 0. 4Hzであるので、 C1から A6のすベて の音階音のレベルが抽出されている。
[0140] ベース音は、小節の前半と後半で異なる可能性があるので、ベース音検出部 6によ り、各小節の前半と後半でそれぞれ検出する。前半と後半のベース音が同じ音のとき は、小節のベース音としてこれを確定し、コードも小節全体で検出する。前半と後半 で別の音のベース音が検出されたときは、コードも前半と後半に分けて検出する。場 合によっては、分割する範囲を更に半分にまで (小節の 4分の 1まで)狭めてもよい。 [0141] ベース音は、ベース検出期間におけるベース検出音域の音階音のレベルの平均 的な強さから求める。
[0142] フレーム時間 tにおける i番目の音階音のレベルを L (t)とすると、フレーム f 力ら f の
i s e i#目の音階音の平均的なレベル L (f , f )は、下式数 14で計算できる。
avgi s e
[0143] [数 14]
Figure imgf000028_0001
Lavsitfs, fe) = (fs =≡ fe)
-" f e - f 3 + 1
[0144] この平均的なレベルをベース検出音域、例えば C2から B3の範囲で計算し、平均 的なレベルが最も大きな音階音をベース音として、ベース音検出部 6は、決定する。 ベース検出音域に音が含まれない曲や無音部分で間違ってベース音を検出しない ために、適当な閾値を設定し、検出したベース音の平均的なレベル力 この閾値以 下の場合は、ベース音を検出しないようにしてもよい。また、後のコード検出でベース 音を重要視する場合には、検出したベース音がベース検出期間中継続してあるレべ ル以上を保っているかどうかをチェックするようにして、より確実なものだけをベース音 として検出するようにしてもよレ、。さらに、ベース検出音域中、平均的なレベルが最も 大きい音階音をベース音として決定するのではなぐこの各音名の平均的なレベルを 12の音名毎に平均し、この音名毎のレベルが最も大きな音名をベース音名として決 定し、その音名を持つベース検出音域の中の音階音で、平均的なレベルが最も大き レ、音階音をベース音として決定するようにしてもょレ、。
[0145] ベース音が決定したら、この結果をバッファ 60に保存すると共に、ベース検出結果 を画面表示して、間違っている場合にはユーザに修正させるようにしてもよい。また、 曲によってベース音域が変わることも考えられるので、ユーザがベース検出音域を変 更できるようにしてもよい。
[0146] 図 14に、ベース音検出部 6によるベース検出結果の表示例を示す。
[0147] 次にコード名決定部 7によるコード検出処理である力 該コード検出処理も、同じよ うにコード検出期間における各音階音の平均的なレベルを計算することによって決 定する。 [0148] 本実施例では、コード検出期間とベース検出期間は同一としている。コード検出音 域、例えば C3から A6の各音階音のコード検出期間における平均的なレベルを計算 し、これが大きな値を持つ音階音から順に数個の音名を検出し、これとベース音の音 名力 コード名候補を抽出する。
[0149] この際、必ずしもレベルが大きな音がコード構成音であるとは限らないので、複数の 音名の音を例えば 5つ検出し、その中の 2つ以上をすベての組み合わせで抜き出し て、これとベース音の音名と力、らコード名候補の抽出を行う。
[0150] コードに関しても、平均的なレベルが閾値以下のものは検出しないようにしてもよい 。また、コード検出音域もユーザが変更できるようにしてもよい。さらに、コード検出音 域中、平均的なレベルが最も大きい音階音から順にコード構成音候補を抽出するの ではなぐこのコード検出音域内の各音名の平均的なレベルを 12の音名毎に平均し 、この音名毎のレベルの最も大きな音名力 順にコード構成音候補を抽出してもよい
[0151] コード名候補の抽出は、コードのタイプ (m、 M7等)とコード構成音のルート音から の音程を保存したコード名データベースを、コード名決定部 7により検索することによ つて抽出する。つまり、検出した 5つの音名の中からすべての 2つ以上の組み合わせ を抜き出し、これらの音名間の音程が、このコード名データベースのコード構成音の 音程の関係にあるかどうかをしらみつぶしに調べ、同じ音程関係にあれば、コード構 成音のいずれかの音名力 ルート音を算出し、そのルート音の音名にコードタイプを 付けて、コード名を決定する。このとき、コードのルート音 (根音)や 5度の音は、コード を演奏する楽器では省略されることがあるので、これらを含まなくてもコード名候補と して抽出するようにする。ベース音を検出した場合には、このコード名候補のコード名 にベース音の音名を加える。すなわち、コードのルート音とベース音が同じ音名であ ればそのままでよレ、し、異なる音名の場合は分数コードとする。
[0152] 上記方法では、抽出されるコード名候補が多すぎるという場合には、ベース音によ る限定を行ってもよレ、。つまり、ベース音が検出された場合には、コード名候補の中 でそのルート音がベース音と同じ音名でないものは削除する。
[0153] コード名候補が複数抽出された場合には、これらの中でどれか 1つを決定するため に、コード名決定部 7により、尤度 (もっともらしさ)の計算をする。
[0154] 尤度は、コード検出音域におけるすべてのコード構成音のレベルの強さの平均とベ ース検出音域におけるコードのルート音のレベルの強さから計算する。すなわち、抽 出されたあるコード名候補のすべての構成音のコード検出期間における平均レベル の平均値を L 、コードのルート音のベース検出期間における平均レベルを L と
avgc avgr すると、下式数 15のように、この 2つの平均により尤度を計算する。
[0155] [数 15]
[0156] この際、コード検出音域やベース検出音域に同一音名の音が複数含まれる場合に は、それらのうち、平均レベルの強い方を使うようにする。あるいは、コード検出音域と ベース検出音域のそれぞれで、各音階音の平均レベルを 12の音名毎に平均し、そ の音名毎の平均値を使うようにしてもょレ、。
[0157] さらに、この尤度の計算に音楽的な知識を導入してもよい。例えば、各音階音のレ ベルを全フレームで平均し、それを 12の音名毎に平均して各音名の強さを計算し、 その強さの分布から曲の調を検出する。そして、調のダイアトニックコードには尤度が 大きくなるようにある定数を掛ける、あるいは、調のダイアトニックスケール上の音から 外れた音を構成音に含むコードはその外れた音の数に応じて尤度が小さくなるように する等が、考えられる。さらにコード進行のよくあるパターンをデータベースとして記 憶しておき、それと比較することで、コード候補の中からよく使われる進行になるような ものは尤度が大きくなるようにある定数を掛けるようにしてもょレ、。
[0158] 最も尤度が大きいものをコード名として決定するが、コード名の候補を尤度とともに 表示し、ユーザに選択させるようにしてもよい。
[0159] いずれにしても、コード名決定部 7により、コード名が決定したら、この結果をバッフ ァ 70に保存すると共に、コード名が、画面出力されることになる。
[0160] 図 15に、コード名決定部 7によるコード検出結果の表示例を示す。このように検出さ れたコード名を画面表示するだけでなぐ MIDI機器等を使って、検出されたコードと ベース音を再生するようにすることが望ましい。一般的には、コード名を見ただけで正 しレ、かどうかは判断できなレ、からである。
[0161] 以上説明した本実施例構成によれば、特別な音楽的知識を有する専門家でなくて も、音楽 CD等の複数の楽器音の混ざった入力された音楽音響信号に対し、個々の 音符情報を検出することなしに全体の響きから、コード名を検出することができるよう になる。
[0162] さらに、該構成によれば、構成音が同じ和音でも判別可能で、演奏のテンポが揺ら いでしまった場合や、逆にわざとテンポを揺らして演奏しているような音源に関しても
、小節毎のコード名が検出可能となる。
[0163] 特に本実施例構成では、簡単な構成のみでビート検出という時間分解能が必要な 処理 (上記テンポ検出装置の構成と同じ)と、コード検出という周波数分解能が必要 な処理 (上記テンポ検出装置の構成を基にさらにコード名を検出できる構成)を同時 に行うことができるようになる。
[0164] 尚、本発明のテンポ検出装置、コード名検出装置及びそれらを実現できるプロダラ ムは、上述の図示例にのみ限定されるものではなぐ本発明の要旨を逸脱しない範 囲内において種々変更を加え得ることは勿論である。
産業上の利用可能性
[0165] 本発明のテンポ検出装置、コード名検出装置及びそれらを実現できるプログラムは 、ミュージックプロモーションビデオの作成の際などに音楽トラック中のビートの時刻 に対して映像トラック中のイベントを同期させるビデオ編集処理や、ビートトラッキング によりビートの位置を見つけ音楽の音響信号の波形を切り貼りするオーディオ編集処 理、人間の演奏に同期して照明の色'明るさ '方向'特殊効果などといった要素を制 御したり、観客の手拍子や歓声などを自動制御するライブステージのイベント制御、 音楽に同期したコンピュータグラフィックスなど、種々の分野で利用可能である。

Claims

請求の範囲
[1] 音響信号を入力する入力手段と、
入力された音響信号から、所定の時間間隔で、 FFT演算を行い、所定の時間毎の 各音階音のレベルを求める音階音レベル検出手段と、
この所定の時間毎の各音階音のレベルの増分値をすベての音階音について合計 して、所定の時間毎の全体の音の変化度合いを示すレベルの増分値の合計を求め 、この所定の時間毎の全体の音の変化度合いを示すレベルの増分値の合計から、 平均的なビート間隔と各ビートの位置を検出するビート検出手段と、
このビート毎の各音階音のレベルの平均値を計算し、このビート毎の各音階音の平 均レベルの増分値をすベての音階音にっレ、て合計して、ビート毎の全体の音の変化 度合いを示す値を求め、このビート毎の全体の音の変化度合いを示す値から、拍子 と小節線位置を検出する小節検出手段と
を有することを特徴とするテンポ検出装置。
[2] 上記ビート検出手段による平均的なビート間隔と各ビートの位置を検出するにあた り、各音階音のレベル増分値合計の自己相関から平均的なビート間隔を求め、次に この各音階音のレベル増分値の合計と、上記平均的なビート間隔で周期を持つ関数 との相互相関を計算して、最初のビート位置を求め、さらに、 2番目以降のビート間隔 も、平均的な上記ビート間隔で周期を持つ関数との相互相関を計算して、求めること を特徴とする請求項 1記載のテンポ検出装置。
[3] 上記ビート検出手段による平均的なビート間隔と各ビートの位置を検出するにあた り、各音階音のレベル増分値合計の自己相関から平均的なビート間隔を求め、次に この各音階音のレベル増分値の合計と、上記平均的なビート間隔で周期を持つ関数 との相互相関を計算して、最初のビート位置を求め、さらに、 2番目以降のビート間隔 を、平均的な上記ビート間隔に +ひ又は一ひの間隔を加算した関数との相互相関を 計算して求めることを特徴とする請求項 1記載のテンポ検出装置。
[4] 上記ビート検出手段による平均的なビート間隔と各ビートの位置を検出するにあた り、各音階音のレベル増分値合計の自己相関から平均的なビート間隔を求め、次に この各音階音のレベル増分値の合計と、上記平均的なビート間隔で周期を持つ関数 との相互相関を計算して、最初のビート位置を求め、さらに、 2番目以降のビート間隔 を、平均的な上記ビート間隔から次第に広くなる又は次第に狭くなる間隔にした関数 との相互相関を計算して求めることを特徴とする請求項 1記載のテンポ検出装置。
[5] 上記ビート検出手段による平均的なビート間隔と各ビートの位置を検出するにあた り、各音階音のレベル増分値合計の自己相関から平均的なビート間隔を求め、次に この各音階音のレベル増分値の合計と、上記平均的なビート間隔で周期を持つ関数 との相互相関を計算して、最初のビート位置を求め、さらに、 2番目以降のビート間隔 を、平均的な上記ビート間隔から次第に広くなる又は次第に狭くなる間隔にした関数 との相互相関を、その途中のビート位置をずらして計算することにより求めることを特 徴とする請求項 1記載のテンポ検出装置。
[6] 上記小節検出手段により、拍子と小節線位置を求めるにあたり、このビート毎の各 音階音のレベルの平均値を計算し、このビート毎の各音階音の平均レベルの増分値 をすベての音階音について合計して、ビート毎の全体の音の変化度合いを示す値を 求め、このビート毎の全体の音の変化度合いを示す値の自己相関力 拍子を求め、 さらに、ビート毎の全体の音の変化度合いを示す値が最も大きな箇所を 1拍目として J、節線位置に設定することを特徴とする請求項:!〜 5いずれか 1つに記載のテンポ 検出装置。
[7] 音響信号を入力する入力手段と、
入力された音響信号から、所定の時間間隔で、ビート検出に適したパラメータを使 つて FFT演算を行い、所定の時間毎の各音階音のレベルを求める第 1の音階音レ ベル検出手段と、
この所定の時間毎の各音階音のレベルの増分値をすベての音階音について合計 して、所定の時間毎の全体の音の変化度合いを示すレベルの増分値の合計を求め 、この所定の時間毎の全体の音の変化度合いを示すレベルの増分値の合計から、 平均的なビート間隔と各ビートの位置を検出するビート検出手段と、
このビート毎の各音階音のレベルの平均値を計算し、このビート毎の各音階音の平 均レベルの増分値をすベての音階音にっレ、て合計して、ビート毎の全体の音の変化 度合いを示す値を求め、このビート毎の全体の音の変化度合いを示す値から、拍子 と小節線位置を検出する小節検出手段と、
上記入力された音響信号から、先のビート検出の時とは異なる別の所定の時間間 隔で、コード検出に適したパラメータを使って FFT演算を行い、所定の時間毎の各 音階音のレベルを求める第 2の音階音レベル検出手段と、
検出した各音階音のレベルのうち、各小節内における低域側の音階音のレベルか らベース音を検出するベース音検出手段と、
検出したベース音と各音階音のレベルから各小節のコード名を決定するコード名決 定手段と
を有することを特徴とするコード名検出装置。
[8] 上記ベース音検出手段において、ベース音が小節内で複数検出される場合は、そ のベース音検出結果に応じて、上記コード名決定手段は、小節を幾つかのコード検 出範囲に分断し、この各コード検出範囲におけるコード名を、ベース音と各コード検 出範囲における各音階音のレベルから、決定する請求項 7記載のコード名検出装置
[9] コンピュータを、
音響信号を入力する入力手段と、
入力された音響信号から、所定の時間間隔で、 FFT演算を行い、所定の時間毎の 各音階音のレベルを求める音階音レベル検出手段と、
この所定の時間毎の各音階音のレベルの増分値をすベての音階音について合計 して、所定の時間毎の全体の音の変化度合いを示すレベルの増分値の合計を求め 、この所定の時間毎の全体の音の変化度合いを示すレベルの増分値の合計から、 平均的なビート間隔と各ビートの位置を検出するビート検出手段と、
このビート毎の各音階音のレベルの平均値を計算し、このビート毎の各音階音の平 均レベルの増分値をすベての音階音にっレ、て合計して、ビート毎の全体の音の変化 度合いを示す値を求め、このビート毎の全体の音の変化度合いを示す値から、拍子 と小節線位置を検出する小節検出手段と
して機能させることを特徴とするテンポ検出用プログラム。
[10] コンピュータを、 音響信号を入力する入力手段と、
入力された音響信号から、所定の時間間隔で、ビート検出に適したパラメータを使 つて FFT演算を行い、所定の時間毎の各音階音のレベルを求める第 1の音階音レ ベル検出手段と、
この所定の時間毎の各音階音のレベルの増分値をすベての音階音について合計 して、所定の時間毎の全体の音の変化度合いを示すレベルの増分値の合計を求め 、この所定の時間毎の全体の音の変化度合いを示すレベルの増分値の合計から、 平均的なビート間隔と各ビートの位置を検出するビート検出手段と、
このビート毎の各音階音のレベルの平均値を計算し、このビート毎の各音階音の平 均レベルの増分値をすベての音階音にっレ、て合計して、ビート毎の全体の音の変化 度合いを示す値を求め、このビート毎の全体の音の変化度合いを示す値から、拍子 と小節線位置を検出する小節検出手段と、
上記入力された音響信号から、先のビート検出の時とは異なる別の所定の時間間 隔で、コード検出に適したパラメータを使って FFT演算を行い、所定の時間毎の各 音階音のレベルを求める第 2の音階音レベル検出手段と、
検出した各音階音のレベルのうち、各小節内における低域側の音階音のレベルか らベース音を検出するベース音検出手段と、
検出したベース音と各音階音のレベルから各小節のコード名を決定するコード名決 定手段と
して機能させることを特徴とするコード名検出用プログラム。
PCT/JP2005/023710 2005-07-19 2005-12-26 テンポ検出装置、コード名検出装置及びプログラム WO2007010637A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US12/015,847 US7582824B2 (en) 2005-07-19 2008-01-17 Tempo detection apparatus, chord-name detection apparatus, and programs therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005208062 2005-07-19
JP2005-208062 2005-07-19

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/015,847 Continuation US7582824B2 (en) 2005-07-19 2008-01-17 Tempo detection apparatus, chord-name detection apparatus, and programs therefor

Publications (1)

Publication Number Publication Date
WO2007010637A1 true WO2007010637A1 (ja) 2007-01-25

Family

ID=37668526

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/023710 WO2007010637A1 (ja) 2005-07-19 2005-12-26 テンポ検出装置、コード名検出装置及びプログラム

Country Status (2)

Country Link
US (1) US7582824B2 (ja)
WO (1) WO2007010637A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008209550A (ja) * 2007-02-26 2008-09-11 National Institute Of Advanced Industrial & Technology 和音判別装置、和音判別方法およびプログラム

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006171133A (ja) * 2004-12-14 2006-06-29 Sony Corp 楽曲データ再構成装置、楽曲データ再構成方法、音楽コンテンツ再生装置および音楽コンテンツ再生方法
JP4672474B2 (ja) * 2005-07-22 2011-04-20 株式会社河合楽器製作所 自動採譜装置及びプログラム
US8843377B2 (en) * 2006-07-12 2014-09-23 Master Key, Llc System and method for foreign language processing
US7538265B2 (en) * 2006-07-12 2009-05-26 Master Key, Llc Apparatus and method for visualizing music and other sounds
JP4672613B2 (ja) * 2006-08-09 2011-04-20 株式会社河合楽器製作所 テンポ検出装置及びテンポ検出用コンピュータプログラム
US20080162228A1 (en) * 2006-12-19 2008-07-03 Friedrich Mechbach Method and system for the integrating advertising in user generated contributions
US7667125B2 (en) * 2007-02-01 2010-02-23 Museami, Inc. Music transcription
WO2008101130A2 (en) 2007-02-14 2008-08-21 Museami, Inc. Music-based search engine
US7659471B2 (en) * 2007-03-28 2010-02-09 Nokia Corporation System and method for music data repetition functionality
US7932454B2 (en) * 2007-04-18 2011-04-26 Master Key, Llc System and method for musical instruction
WO2008130665A1 (en) 2007-04-19 2008-10-30 Master Key, Llc System and method for audio equalization
WO2008130697A1 (en) * 2007-04-19 2008-10-30 Master Key, Llc Method and apparatus for editing and mixing sound recordings
US7932455B2 (en) * 2007-04-20 2011-04-26 Master Key, Llc Method and apparatus for comparing musical works
WO2008130659A1 (en) * 2007-04-20 2008-10-30 Master Key, Llc Method and apparatus for identity verification
WO2008130657A1 (en) * 2007-04-20 2008-10-30 Master Key, Llc Method and apparatus for computer-generated music
US7935877B2 (en) * 2007-04-20 2011-05-03 Master Key, Llc System and method for music composition
US8018459B2 (en) * 2007-04-20 2011-09-13 Master Key, Llc Calibration of transmission system using tonal visualization components
US7960637B2 (en) 2007-04-20 2011-06-14 Master Key, Llc Archiving of environmental sounds using visualization components
US7569761B1 (en) * 2007-09-21 2009-08-04 Adobe Systems Inc. Video editing matched to musical beats
WO2009099592A2 (en) * 2008-02-01 2009-08-13 Master Key, Llc Apparatus and method for visualization of music using note extraction
US8494257B2 (en) * 2008-02-13 2013-07-23 Museami, Inc. Music score deconstruction
WO2009125489A1 (ja) * 2008-04-11 2009-10-15 パイオニア株式会社 テンポ検出装置及びテンポ検出プログラム
JP5150573B2 (ja) * 2008-07-16 2013-02-20 本田技研工業株式会社 ロボット
JP5597863B2 (ja) * 2008-10-08 2014-10-01 株式会社バンダイナムコゲームス プログラム、ゲームシステム
JP5463655B2 (ja) * 2008-11-21 2014-04-09 ソニー株式会社 情報処理装置、音声解析方法、及びプログラム
US8269094B2 (en) * 2009-07-20 2012-09-18 Apple Inc. System and method to generate and manipulate string-instrument chord grids in a digital audio workstation
JP5168297B2 (ja) * 2010-02-04 2013-03-21 カシオ計算機株式会社 自動伴奏装置および自動伴奏プログラム
JP5560861B2 (ja) * 2010-04-07 2014-07-30 ヤマハ株式会社 楽曲解析装置
US8884148B2 (en) * 2011-06-28 2014-11-11 Randy Gurule Systems and methods for transforming character strings and musical input
JP2013105085A (ja) * 2011-11-15 2013-05-30 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
JP5672280B2 (ja) * 2012-08-31 2015-02-18 カシオ計算機株式会社 演奏情報処理装置、演奏情報処理方法及びプログラム
US20150255088A1 (en) * 2012-09-24 2015-09-10 Hitlab Inc. Method and system for assessing karaoke users
US9159310B2 (en) 2012-10-19 2015-10-13 The Tc Group A/S Musical modification effects
US9064483B2 (en) * 2013-02-06 2015-06-23 Andrew J. Alt System and method for identifying and converting frequencies on electrical stringed instruments
US9773487B2 (en) 2015-01-21 2017-09-26 A Little Thunder, Llc Onboard capacitive touch control for an instrument transducer
US9711121B1 (en) 2015-12-28 2017-07-18 Berggram Development Oy Latency enhanced note recognition method in gaming
JP6693189B2 (ja) * 2016-03-11 2020-05-13 ヤマハ株式会社 音信号処理方法
JP6705422B2 (ja) * 2017-04-21 2020-06-03 ヤマハ株式会社 演奏支援装置、及びプログラム
CN107124624B (zh) * 2017-04-21 2022-09-23 腾讯科技(深圳)有限公司 视频数据生成的方法和装置
US9947304B1 (en) * 2017-05-09 2018-04-17 Francis Begue Spatial harmonic system and method
JP6847237B2 (ja) * 2017-08-29 2021-03-24 AlphaTheta株式会社 楽曲解析装置および楽曲解析プログラム
JP6889420B2 (ja) * 2017-09-07 2021-06-18 ヤマハ株式会社 コード情報抽出装置、コード情報抽出方法およびコード情報抽出プログラム
JP6891969B2 (ja) * 2017-10-25 2021-06-18 ヤマハ株式会社 テンポ設定装置及びその制御方法、プログラム
WO2021068000A1 (en) * 2019-10-02 2021-04-08 Breathebeatz Llc Breathing guidance based on real-time audio analysis

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04336599A (ja) * 1991-05-13 1992-11-24 Casio Comput Co Ltd テンポ検出装置
JPH0527751A (ja) * 1991-07-19 1993-02-05 Brother Ind Ltd 自動採譜装置等に用いられるテンポ抽出装置
JPH05173557A (ja) * 1991-12-25 1993-07-13 Brother Ind Ltd 自動採譜装置
JPH07295560A (ja) * 1994-04-27 1995-11-10 Victor Co Of Japan Ltd Midiデータ編集装置
JPH0926790A (ja) * 1995-07-11 1997-01-28 Yamaha Corp 演奏データ分析装置
JPH10134549A (ja) * 1996-10-30 1998-05-22 Nippon Columbia Co Ltd 楽曲検索装置
JP2002116754A (ja) * 2000-07-31 2002-04-19 Matsushita Electric Ind Co Ltd テンポ抽出装置、テンポ抽出方法、テンポ抽出プログラム及び記録媒体

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3156299B2 (ja) 1991-10-05 2001-04-16 カシオ計算機株式会社 和音データ生成装置、伴奏音データ生成装置、および楽音発生装置
JP3231482B2 (ja) 1993-06-07 2001-11-19 ローランド株式会社 テンポ検出装置
GB0023207D0 (en) * 2000-09-21 2000-11-01 Royal College Of Art Apparatus for acoustically improving an environment
JP4672474B2 (ja) * 2005-07-22 2011-04-20 株式会社河合楽器製作所 自動採譜装置及びプログラム
JP4672613B2 (ja) * 2006-08-09 2011-04-20 株式会社河合楽器製作所 テンポ検出装置及びテンポ検出用コンピュータプログラム
US7667125B2 (en) * 2007-02-01 2010-02-23 Museami, Inc. Music transcription
WO2008101130A2 (en) * 2007-02-14 2008-08-21 Museami, Inc. Music-based search engine
US7674970B2 (en) * 2007-05-17 2010-03-09 Brian Siu-Fung Ma Multifunctional digital music display device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04336599A (ja) * 1991-05-13 1992-11-24 Casio Comput Co Ltd テンポ検出装置
JPH0527751A (ja) * 1991-07-19 1993-02-05 Brother Ind Ltd 自動採譜装置等に用いられるテンポ抽出装置
JPH05173557A (ja) * 1991-12-25 1993-07-13 Brother Ind Ltd 自動採譜装置
JPH07295560A (ja) * 1994-04-27 1995-11-10 Victor Co Of Japan Ltd Midiデータ編集装置
JPH0926790A (ja) * 1995-07-11 1997-01-28 Yamaha Corp 演奏データ分析装置
JPH10134549A (ja) * 1996-10-30 1998-05-22 Nippon Columbia Co Ltd 楽曲検索装置
JP2002116754A (ja) * 2000-07-31 2002-04-19 Matsushita Electric Ind Co Ltd テンポ抽出装置、テンポ抽出方法、テンポ抽出プログラム及び記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GOTO M, MURAOKA Y.: "Onkyo Shingo ni Taisuru Real Time Beat Tracking-Dagakkion o Fukumanai Ongaku ni Taisuru Beat Tracking", INFORMATION PROCESSING SOCIETY OF JAPAN KEKYU HOKOKU, ONGAKU JOHO KAGAKU, 96-MUS-16-3, 1996, pages 14 - 20, XP003008041 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008209550A (ja) * 2007-02-26 2008-09-11 National Institute Of Advanced Industrial & Technology 和音判別装置、和音判別方法およびプログラム

Also Published As

Publication number Publication date
US20080115656A1 (en) 2008-05-22
US7582824B2 (en) 2009-09-01

Similar Documents

Publication Publication Date Title
JP4767691B2 (ja) テンポ検出装置、コード名検出装置及びプログラム
WO2007010637A1 (ja) テンポ検出装置、コード名検出装置及びプログラム
JP4823804B2 (ja) コード名検出装置及びコード名検出用プログラム
JP4672613B2 (ja) テンポ検出装置及びテンポ検出用コンピュータプログラム
JP4916947B2 (ja) リズム検出装置及びリズム検出用コンピュータ・プログラム
US20040044487A1 (en) Method for analyzing music using sounds instruments
US20080092722A1 (en) Signal Processing Apparatus and Method, Program, and Recording Medium
US20100126331A1 (en) Method of evaluating vocal performance of singer and karaoke apparatus using the same
JP5229998B2 (ja) コード名検出装置及びコード名検出用プログラム
JP4645241B2 (ja) 音声処理装置およびプログラム
WO2017082061A1 (ja) 調律推定装置、評価装置、およびデータ処理装置
CN112382257A (zh) 一种音频处理方法、装置、设备及介质
JP5196550B2 (ja) コード検出装置およびコード検出プログラム
JP5005445B2 (ja) コード名検出装置及びコード名検出用プログラム
JP4932614B2 (ja) コード名検出装置及びコード名検出用プログラム
JP5153517B2 (ja) コード名検出装置及びコード名検出用コンピュータ・プログラム
JP3599686B2 (ja) カラオケ歌唱時に声域の限界ピッチを検出するカラオケ装置
JP4698606B2 (ja) 楽曲処理装置
JP4180548B2 (ja) 声域告知機能付きカラオケ装置
JP2010032809A (ja) 自動演奏装置及び自動演奏用コンピュータ・プログラム
JP2003216147A (ja) 音響信号の符号化方法
JP4156252B2 (ja) 音響信号の符号化方法
JPH07199978A (ja) カラオケ装置
EP3579223A1 (en) Method, device and computer program product for scrolling a musical score
Van Oudtshoorn Investigating the feasibility of near real-time music transcription on mobile devices

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 12015847

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWP Wipo information: published in national office

Ref document number: 12015847

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 05819558

Country of ref document: EP

Kind code of ref document: A1