JP2012181393A - Method and device for generating auditory masking data - Google Patents

Method and device for generating auditory masking data Download PDF

Info

Publication number
JP2012181393A
JP2012181393A JP2011044761A JP2011044761A JP2012181393A JP 2012181393 A JP2012181393 A JP 2012181393A JP 2011044761 A JP2011044761 A JP 2011044761A JP 2011044761 A JP2011044761 A JP 2011044761A JP 2012181393 A JP2012181393 A JP 2012181393A
Authority
JP
Japan
Prior art keywords
code
data
sound
masker
masking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011044761A
Other languages
Japanese (ja)
Other versions
JP5857418B2 (en
Inventor
Toshio Modegi
敏雄 茂出木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2011044761A priority Critical patent/JP5857418B2/en
Publication of JP2012181393A publication Critical patent/JP2012181393A/en
Application granted granted Critical
Publication of JP5857418B2 publication Critical patent/JP5857418B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Soundproofing, Sound Blocking, And Sound Damping (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method and a device for generating auditory masking data which can objectively and quantitatively evaluate how effective the auditory masking with a separately prepared music signal (masker acoustic signal) is for a conversational voice/noise signal (maskee acoustic signal).SOLUTION: A maskee acoustic signal, a masker original acoustic signal, and a masker processed acoustic signal are encoded (S15, S16, and S18) to obtain a maskee code A, a masker original code B, and a masker processed code C, and then, the maskee code A and the masker original code B are used to generate a masking object signal component AB by an operation based on low-intensity selection (S11), and the maskee code A and the masker processed code C are used to generate a masking object signal component AC by an operation based on low-intensity selection (S12). The masking object signal component AB and the masking object signal component AC are used to generate an increment ABC of masking object signal components as auditory masking data by an operation based on a difference operation (S13).

Description

本発明は、聴覚マスキングの性質を利用して、会話音を秘匿化したり、騒音の不快感を和らげたりするマスカー音響信号を作成するため、与えられた音響信号に対して加工を加え、加工により聴覚マスキング度合いや信号劣化度合いを評価するマスカー音響信号の評価技術に関する。   The present invention makes use of the property of auditory masking to create a masker acoustic signal that conceals conversational sound or relieves the discomfort of noise. The present invention relates to a masker sound signal evaluation technique for evaluating the degree of auditory masking and the degree of signal degradation.

電車や自動車の音などで会話が聴きづらくなる等、ある音により他の音がかき消されてしまう聴覚マスキングという現象が存在する。この聴覚マスキングについては、E. Zwickerらが提唱した臨界帯域幅ごとにマスキー音(かき消される音)とマスカー音(かき消す音)の音圧比率が所定のレベル以上に達すると発生することが知られており、周波数が高くなるにつれ、臨界帯域幅も大きくなる性質がある(非特許文献1参照)。   There is a phenomenon called auditory masking in which a certain sound erases other sounds, such as making it difficult to hear a conversation by the sound of a train or car. This auditory masking is known to occur when the sound pressure ratio of the masque (sound to be blown out) and the masker (sound to be blown out) reaches a predetermined level or higher for each critical bandwidth proposed by E. Zwicker et al. As the frequency increases, the critical bandwidth increases (see Non-Patent Document 1).

この聴覚マスキングの性質を利用して、会話音を秘匿化したり、騒音の不快感を和らげたりする技術も提案されている(特許文献1参照)。特許文献1の公知の手法では、エアコンノイズ(ピンクノイズ)のようなマスキング効果が高い既存の音源をマスカー音響信号として用いる方法を提案しているが、かなり音量の高いエアコンノイズを室内に流すため、室内全体に不快感を与え、本来の会話を行っている当事者どうしで相手の声が聞きとりづらくなるといった問題が指摘されている。そのため、先手法では、エアコンノイズのレベルを低減させ、代わりに鑑賞用の音楽信号を重ねる手法も併せて提案している。しかし、ポップスなど比較的騒がしい音楽は別にして、一般的なクラシック系の音楽のような鑑賞用の音楽信号は白色雑音やピンク雑音成分が少なく、エアコンノイズに比べ音声帯域の周波数成分が弱いため、エアコンノイズと同等なマスキング効果は働かない。従って、室内に快適な音楽を流そうとすると、マスキング効果が弱くなるというジレンマに陥っていた。   A technique for concealing a conversational sound or relieving noise discomfort by using the property of auditory masking has been proposed (see Patent Document 1). In the known method of Patent Document 1, a method of using an existing sound source having a high masking effect such as air conditioner noise (pink noise) as a masker sound signal has been proposed. However, it has been pointed out that the entire room is uncomfortable and it is difficult to hear the voice of the other party between the parties who are talking. Therefore, the previous method has also proposed a method of reducing the level of air-conditioner noise and superimposing music signals for viewing instead. However, apart from relatively noisy music such as pops, music signals for viewing such as general classical music have less white noise and pink noise components, and the frequency components of the voice band are weaker than air conditioner noise. The masking effect equivalent to the air conditioner noise does not work. Therefore, if you tried to play comfortable music in the room, you had a dilemma that the masking effect would be weakened.

これに対して、本願発明者は、与えられた音楽信号及びマスキング対象とする騒音信号や平均的な日本人男女の音声信号に対して周波数解析を行い、前記騒音信号や前記音声信号に多く含まれ、逆に前記音楽信号に余り含まれていない周波数成分を強調させるようなフィルタ関数を算出し、前記音楽信号に対して前記フィルタ関数を用いてフィルタ加工を加え、改変させた音楽信号をマスカー音響信号として使用することにより、前記音楽信号に対してエアコンノイズと同等な会話音や騒音に対する聴覚マスキング効果をもたせるようにする手法を提案している(特許文献2および特許文献3参照)。   On the other hand, the inventor of the present application performs frequency analysis on a given music signal, a noise signal to be masked, and an average Japanese male and female voice signal, and includes a large amount in the noise signal and the voice signal. Conversely, a filter function that emphasizes frequency components that are not so much included in the music signal is calculated, and the music signal is filtered using the filter function, and the modified music signal is masked. A method has been proposed in which the music signal has an audio masking effect for speech and noise equivalent to air-conditioner noise by using it as an acoustic signal (see Patent Document 2 and Patent Document 3).

特開2010−031501号公報JP 2010-031501 A 特願2010−174716号Japanese Patent Application No. 2010-174716 特願2010−192133号Japanese Patent Application No. 2010-192133 特許第4132362号Japanese Patent No. 4132362 特開平10−253429号公報Japanese Patent Laid-Open No. 10-253429 特開2000−259137号公報JP 2000-259137 A 特開2000−330554号公報JP 2000-330554 A

E.Zwicker and E. Terhardt,"Analytical expressions for critical-band rate and critical bandwidth as a function of frequency",Journal of Acoustical Society of America, Vol.68, no.5, pp.1523-1525, November 1980.E.Zwicker and E. Terhardt, "Analytical expressions for critical-band rate and critical bandwidth as a function of frequency", Journal of Acoustical Society of America, Vol.68, no.5, pp.1523-1525, November 1980.

上記従来の技術では、与えられた音楽信号に対して会話音や騒音に対する聴覚マスキングが効果的に働くように音楽信号にフィルタ加工を加える手法を提案しているが、再生される音楽品質を優先するため、音楽によってはマスキング効果が十分増強できないケースが生じる。この際、フィルタ加工による音楽信号の品質劣化成分によって、ヒト聴覚系内で生理的に働いているマスキング効果については客観的に計測や評価する手段が存在しなかった。   In the above-mentioned conventional technology, a method for filtering the music signal so that auditory masking for speech sound and noise works effectively on the given music signal, but priority is given to the music quality to be played back. Therefore, depending on the music, there may be cases where the masking effect cannot be enhanced sufficiently. At this time, there has been no means for objectively measuring and evaluating the masking effect that works physiologically in the human auditory system due to the quality degradation component of the music signal due to filtering.

上記課題である会話音声・騒音信号(マスキー音響信号)が別途準備した音楽信号(マスカー音響信号)によって、聴覚マスキングがどの程度働くかを客観的に定量的に評価するための聴覚マスキングデータを作成するためには、非特許文献1に記載されている臨界周波数帯域を用いて、マスカー音響信号とマスキー音響信号との間で対応する臨界周波数帯域に含まれる信号成分を比較すれば良い。マスカー音響信号側の臨界周波数帯域に含まれる信号成分が、対応するマスキー音響信号側の同周波数帯域に含まれる信号成分に比べ、所定の割合(臨界周波数帯域ごとに異なるが平均して振幅で10倍程度(+20dB))以上に大きければ、当該周波数帯域に含まれるマスキー音響信号側の周波数成分は完全にマスキングされ聴取されないことが知られている。ただし、マスカー音響信号とマスキー音響信号との間で対応する臨界周波数帯域に含まれる信号成分を比較して聴覚マスキングデータを作成することは容易ではない。   Auditory masking data for objectively and quantitatively assessing how much auditory masking works with the music signal (masker sound signal) prepared separately for the conversation voice / noise signal (Muskey sound signal), which is the above problem In order to do so, signal components included in the corresponding critical frequency band may be compared between the masker acoustic signal and the masky acoustic signal using the critical frequency band described in Non-Patent Document 1. The signal component included in the critical frequency band on the masker acoustic signal side is a predetermined ratio (which differs for each critical frequency band but averages 10 in amplitude) compared to the signal component included in the same frequency band on the corresponding masky acoustic signal side. If it is larger than about twice (+20 dB)), it is known that the frequency component on the masky acoustic signal side included in the frequency band is completely masked and cannot be heard. However, it is not easy to create auditory masking data by comparing signal components included in the corresponding critical frequency band between the masker sound signal and the masky sound signal.

本発明は、臨界周波数帯域の幅が非特許文献1に記載されている通り、音楽音階と同様に周波数が高くなるほど広がる特性をもつことに着目し、マスカー音響信号及びマスキー音響信号を平均律音階を基本として記述されるMIDI等の形式に符号化することにより、マスカー音響信号とマスキー音響信号との間で対応する臨界周波数帯域に含まれる信号成分の比較処理を、マスカー音響信号とマスキー音響信号に対応する(MIDI等の)符号データどうしの比較演算で簡便に実現する手法を提案することを主眼にしている。 The present invention pays attention to the fact that, as described in Non-Patent Document 1, the width of the critical frequency band has the characteristic of spreading as the frequency increases, and the masker acoustic signal and the muskey acoustic signal are converted into the average temperament scale. Is encoded in a format such as MIDI, which is described as a basis, so that the comparison processing of the signal components included in the corresponding critical frequency band between the masker acoustic signal and the masky acoustic signal is performed. The main purpose is to propose a method that can be easily realized by comparison between code data (such as MIDI) corresponding to the above.

そこで、本発明は、会話音声・騒音信号(マスキー音響信号)が別途準備した音楽信号(マスカー音響信号)によって、聴覚マスキングがどの程度働くかを客観的に定量的に評価するための聴覚マスキングデータを作成することが可能な聴覚マスキングデータの作成方法および装置を提供することを課題とする。 Therefore, the present invention provides auditory masking data for objectively and quantitatively evaluating how much auditory masking works with a music signal (masker acoustic signal) prepared separately for a conversational voice / noise signal (Muskey acoustic signal). It is an object of the present invention to provide a method and apparatus for generating auditory masking data capable of generating

上記課題を解決するため、本発明第1の態様では、聴覚マスキングにおけるマスキー音響信号、マスカー原音音響信号、マスカー加工音響信号の各々を符号化して得られたマスキー符号A、マスカー原音符号B、マスカー加工符号Cに対して、前記マスキー符号Aと前記マスカー原音符号Bを用いて、低強度選択に基づく演算により、マスキング対象信号成分ABを作成するとともに、前記マスキー符号Aと前記マスカー加工符号Cを用いて、低強度選択に基づく演算により、マスキング対象信号成分ACを作成し、前記マスキング対象信号成分ABおよび前記マスキング対象信号成分ACを用いて、差分演算に基づく演算により、聴覚マスキングデータとしてマスキング対象成分の増分ABCを作成するようにしていることを特徴とする。   In order to solve the above-mentioned problem, in the first aspect of the present invention, the masky code A, masker original sound code B, masker obtained by encoding each of the masky sound signal, masker original sound signal, and masker processed sound signal in auditory masking are provided. A masking target signal component AB is created by processing based on low-intensity selection using the masky code A and the masker original sound code B with respect to the processed code C, and the masky code A and the masker processed code C are The masking target signal component AC is created by calculation based on low-intensity selection, and the masking target as auditory masking data is calculated by calculation based on difference calculation using the masking target signal component AB and the masking target signal component AC. An incremental ABC of the components is created.

本発明第1の態様によれば、マスキー音響信号に対応するマスキー符号A、マスカー原音音響信号に対応するマスカー原音符号B、マスカー加工音響信号に対応するマスカー加工符号Cに対して、マスキー符号Aとマスカー原音符号Bを用いて、低強度選択に基づく演算によりマスキング対象信号成分ABを作成するとともに、マスキー符号Aとマスカー加工符号Cを用いて、低強度選択に基づく演算によりマスキング対象信号成分ACを作成した後、マスキング対象信号成分ABおよびマスキング対象信号成分ACを用いて、差分演算に基づく演算によりマスキング対象成分の増分ABCを作成するようにしたので、マスカー原音音響信号に対するマスカー加工音響信号のマスキング対象成分の増分を効率的に作成できる。得られたマスキング対象成分の増分ABCを表示または音響出力することにより、マスキング対象成分の増分を視覚的、聴覚的に確認することが可能となる。   According to the first aspect of the present invention, the maskee code A corresponds to the masker code A corresponding to the masker acoustic signal, the masker original code B corresponding to the masker original acoustic signal, and the masker processed code C corresponding to the masker processed acoustic signal. And masker original sound code B are used to create a masking target signal component AB by calculation based on low intensity selection, and masking target signal component AC is calculated by calculation based on low intensity selection using masky code A and masker processing code C. Since the masking target signal component AB and the masking target signal component AC are used to generate the incremental ABC of the masking target component by the calculation based on the difference calculation, the masker processed acoustic signal relative to the masker original sound signal is generated. The increment of the masking target component can be created efficiently. By displaying or acoustically outputting the increment ABC of the obtained masking target component, it is possible to visually and audibly confirm the increment of the masking target component.

また、本発明第2の態様では、聴覚マスキングにおけるマスキー音響信号、マスカー原音音響信号、マスカー加工音響信号の各々を符号化して得られたマスキー符号A、マスカー原音符号B、マスカー加工符号Cに対して、前記マスキー符号Aを構成する全ての音の高さに一律に所定のオフセット値を加え、複数通りのオフセット値に対応して、複数通りの改変マスキー符号A1、改変マスキー符号A2,...,を作成し、前記マスキー符号Aおよび前記複数通りの改変マスキー符号A1,...の各々と前記マスカー原音符号Bまたはマスカー加工符号Cを用いて、低強度選択に基づく演算により、複数通りのマスキング対象信号成分AB,マスキング対象信号成分AB1,...またはマスキング対象信号成分AC,マスキング対象信号成分AC1,..を作成し、前記複数通りのマスキング対象信号成分AB,マスキング対象信号成分AB1,...またはマスキング対象信号成分AC,マスキング対象信号成分AC1,..どうしを各々の群内で2つずつ重複無く順次組み合わせ、加算演算に基づく演算により、合算マスキング対象信号成分ABまたは合算マスキング対象信号成分ACを作成し、前記マスキング対象信号成分ABおよび前記マスキング対象信号成分ACを用いて、差分演算に基づく演算により、聴覚マスキングデータとしてマスキング対象成分の増分ABCを作成するようにしていることを特徴とする。   Further, in the second aspect of the present invention, with respect to the masky code A, the masker original sound code B, and the masker processed code C obtained by encoding each of the masky sound signal, the masker original sound signal, and the masker processed sound signal in auditory masking. Then, a predetermined offset value is uniformly added to the pitches of all the sounds constituting the masky code A, and a plurality of modified masky codes A1, modified masky codes A2,. . . , And the masky code A and the plurality of modified masky codes A1,. . . , And the masker original sound code B or the masker processing code C, and a plurality of masking target signal components AB, masking target signal components AB1,. . . Or masking target signal component AC, masking target signal component AC1,. . , And the plurality of masking target signal components AB, masking target signal components AB1,. . . Or masking target signal component AC, masking target signal component AC1,. . By sequentially combining two elements in each group without duplication, a summed masking target signal component AB or a summed masking target signal component AC is created by an operation based on an addition operation, and the masking target signal component AB and the masking target signal are generated. An incremental ABC of the masking target component is generated as auditory masking data by calculation based on the difference calculation using the component AC.

本発明第2の態様によれば、マスキー音響信号に対応するマスキー符号A、およびマスキー符号Aを所定の音の高さだけシフトさせた改変符号データA1、A2、・・・のそれぞれと、マスカー原音音響信号またはマスカー加工音響信号に対応するマスカー原音符号Bまたはマスカー加工符号Cに対して、マスキー符号Aおよび複数通りの改変マスキー符号A1,...の各々とマスカー原音符号Bまたはマスカー加工符号Cを用いて、低強度選択に基づく演算により、複数通りのマスキング対象信号成分AB,マスキング対象信号成分AB1,...またはマスキング対象信号成分AC,マスキング対象信号成分AC1,..を作成し、複数通りのマスキング対象信号成分AB,マスキング対象信号成分AB1,...またはマスキング対象信号成分AC,マスキング対象信号成分AC1,..どうしを各々の群内で2つずつ重複無く順次組み合わせ、加算演算により、合算マスキング対象信号成分ABまたは合算マスキング対象信号成分ACを作成し、マスキング対象信号成分ABおよびマスキング対象信号成分ACを用いて、差分演算により、マスキング対象信号成分の増分ABCを作成するようにしたので、マスカー原音音響信号に対するマスカー加工音響信号のマスキング対象信号成分の増分を、+1または−1半音の範囲に拡張させて高精度、かつ効率的に作成できる。得られたマスキング対象信号成分の増分ABCを表示または音響出力することにより、マスキング対象信号成分の増分を視覚的、聴覚的に確認することが可能となる。   According to the second aspect of the present invention, the masker code A corresponding to the masky sound signal, the modified code data A1, A2,... Obtained by shifting the masky code A by a predetermined pitch, and the masker With respect to the masker original sound code B or the masker processed code C corresponding to the original sound acoustic signal or the masker processed acoustic signal, the maskee code A and a plurality of modified masky codes A1,. . . , And masker original sound code B or masker processed code C, and a plurality of masking target signal components AB, masking target signal components AB1,. . . Or masking target signal component AC, masking target signal component AC1,. . , And a plurality of masking target signal components AB, masking target signal components AB1,. . . Or masking target signal component AC, masking target signal component AC1,. . The two are sequentially combined without duplication in each group, and the sum masking target signal component AB or the sum masking target signal component AC is created by the addition operation, and the masking target signal component AB and the masking target signal component AC are used. Since the incremental ABC of the masking target signal component is created by the difference calculation, the masking target signal component increment of the masker processed acoustic signal with respect to the masker original sound signal is expanded to a range of +1 or −1 semitone. Accurate and efficient creation. By displaying or acoustically outputting the obtained increment ABC of the masking target signal component, it is possible to visually and audibly confirm the increment of the masking target signal component.

また、本発明第3の態様では、本発明第1または第2の態様において、前記差分演算により得られたマスキング対象信号成分の増分ABCを表示手段に画面表示し、および/または前記マスキング対象信号成分の増分ABCを音響再生手段により音響再生することを特徴とする。   Further, in the third aspect of the present invention, in the first or second aspect of the present invention, the increment ABC of the masking target signal component obtained by the difference calculation is displayed on a display means and / or the masking target signal is displayed. The incremental ABC of the component is acoustically reproduced by an acoustic reproduction means.

本発明第3の態様によれば、マスキング対象信号成分の増分ABCを表示手段に画面表示、および/またはマスキング対象信号成分の増分ABCを音響再生手段により音響再生するようにしたので、マスキング対象信号成分の増分ABCを視覚的かつ聴覚的に評価することが可能となる。   According to the third aspect of the present invention, since the increment ABC of the masking target signal component is displayed on the screen and / or the incremental ABC of the masking target signal component is acoustically reproduced by the acoustic reproducing means. The incremental ABC of the components can be evaluated visually and audibly.

また、本発明第4の態様では、本発明第1から第3のいずれかの態様において、前記マスキー符号A、マスカー原音符号B、マスカー加工符号Cは時系列に配置されたイベントデータで構成され、各イベントデータには、発音開始または発音終了の識別、時刻、音の高さ、チャンネル番号、音の強さの属性情報を備えた符号データであり、前記差分演算に基づく演算は、前記2つの符号データの各イベントデータに対して互いに異なるチャンネル番号を付与しながら、時刻が早い順にソートして、2つのチャンネル番号を有する1つの時系列な符号データに統合することにより2チャンネル符号データを作成し、発音開始のイベントデータとそれに対応する同一の音の高さをもつ発音終了の2つのイベントデータの対で構成される区間を発音区間としたとき、前記2チャンネル符号データの中で、一方のチャンネルの発音区間が、同一の音の高さをもつ他方のチャンネルの発音区間と時間的に全てまたは一部が重複する場合に、両発音区間が重複する区間を、両発音区間の音の強さの差分値を新たな音の強さとする新たな発音区間を重複区間として生成し、前記重複する両発音区間のうち、重複しない区間については、前記重複区間を除く区間に元の音の強さを有する発音区間を生成して更新し、更新された発音区間の各々の発音開始のイベントデータと発音終了のイベントデータを時系列にソートし、所定の形式で符号化することを特徴とする。   Further, in the fourth aspect of the present invention, in any one of the first to third aspects of the present invention, the masky code A, the masker original sound code B, and the masker processed code C are configured by event data arranged in time series. Each event data is code data including sound generation start or sound end identification, time, sound pitch, channel number, and sound intensity attribute information. While assigning different channel numbers to each event data of one code data, the two channels code data is converted by sorting in ascending order of time and integrated into one time-series code data having two channel numbers. Produce a section composed of a pair of two event data of the end of pronunciation and the event data of the start of pronunciation and the corresponding end of pronunciation In the two-channel code data, when the sounding section of one channel overlaps all or part of the sounding section of the other channel having the same pitch in time, A new sounding section is generated as a new sound intensity with a difference value of the sound intensity of both sounding sections as a new sound intensity, and no overlapping of the overlapping sounding sections is made. As for the section, a sounding section having the original sound intensity is generated and updated in the section excluding the overlapping section, and the sounding start event data and the sounding end event data of each updated sounding section are time-series. And is encoded in a predetermined format.

また、本発明第5の態様では、本発明第第1から第4のいずれかの態様において、前記マスキー符号A、マスカー原音符号B、マスカー加工符号Cは時系列に配置されたイベントデータで構成され、各イベントデータには、発音開始または発音終了の識別、時刻、音の高さ、チャンネル番号、音の強さの属性情報を備えた符号データであり、前記低強度選択に基づく演算は、前記2つの符号データの各イベントデータに対して互いに異なるチャンネル番号を付与しながら、時刻が早い順にソートして、2つのチャンネル番号を有する1つの時系列な符号データに統合することにより2チャンネル符号データを作成する符号データ統合段階と、発音開始のイベントデータとそれに対応する同一の音の高さをもつ発音終了の2つのイベントデータの対で構成される区間を発音区間としたとき、前記2チャンネル符号データの中で、一方のチャンネルの発音区間が、同一の音の高さをもつ他方のチャンネルの発音区間と時間的に全てまたは一部が重複する場合に、両発音区間が重複する区間を、両発音区間の音の強さのいずれか小さい方の値を新たな音の強さとする新たな発音区間を重複区間として生成し、前記重複する両発音区間のうち、重複しない区間については、発音区間の音の強さを全て0に設定して更新し、更新された発音区間の各々の発音開始のイベントデータと発音終了のイベントデータを時系列にソートし、所定の形式で符号化することを特徴とする。   Also, in the fifth aspect of the present invention, in any one of the first to fourth aspects of the present invention, the masky code A, the masker original sound code B, and the masker processed code C are configured by event data arranged in time series. Each event data is code data including sound generation start or sound end identification, time, sound pitch, channel number, sound intensity attribute information, and the calculation based on the low intensity selection is While assigning different channel numbers to the event data of the two code data, the two channel codes are sorted by sorting in ascending order of time and integrated into one time-series code data having two channel numbers. Code data integration stage for creating data, sounding start event data and corresponding sounding end event data with the same pitch When a section composed of a pair is defined as a sound generation section, the sound generation section of one channel in the two-channel code data is all or temporally different from the sound generation section of the other channel having the same pitch. If some parts overlap, a new sounding section with a new sound intensity with a smaller value of the sound intensity of both sounding sections is generated as an overlapping section. Of the two overlapping sounding intervals, the non-overlapping intervals are updated with the sound intensity of the sounding interval set to 0, and the sounding start event data and the sounding end of each of the updated sounding intervals are updated. The event data is sorted in time series and encoded in a predetermined format.

また、本発明第6の態様では、本発明第第1から第5のいずれかの態様において、前記マスキー符号A、マスカー原音符号B、マスカー加工符号Cは時系列に配置されたイベントデータで構成され、各イベントデータには、発音開始または発音終了の識別、時刻、音の高さ、チャンネル番号、音の強さの属性情報を備えた符号データであり、前記加算演算に基づく演算は、前記2つの符号データの各イベントデータに対して互いに異なるチャンネル番号を付与しながら、時刻が早い順にソートして、2つのチャンネル番号を有する1つの時系列な符号データに統合することにより2チャンネル符号データを作成し、発音開始のイベントデータとそれに対応する同一の音の高さをもつ発音終了の2つのイベントデータの対で構成される区間を発音区間としたとき、前記2チャンネル符号データの中で、一方のチャンネルの発音区間が、同一の音の高さをもつ他方のチャンネルの発音区間と時間的に全てまたは一部が重複する場合に、両発音区間が重複する区間を、両発音区間の音の強さの和を新たな音の強さとする新たな発音区間を重複区間として生成し、前記重複する両発音区間のうち、重複しない区間については、一方のチャンネルの発音区間の音の強さを有する発音区間を生成して更新し、更新された発音区間の各々の発音開始のイベントデータと発音終了のイベントデータを時系列にソートし、所定の形式で符号化する演算符号データ符号化段階を有することを特徴とする。   Further, in a sixth aspect of the present invention, in any one of the first to fifth aspects of the present invention, the masky code A, the masker original sound code B, and the masker processed code C are configured by event data arranged in time series. Each event data is code data including sound generation start or sound end identification, time, sound pitch, channel number, and sound intensity attribute information. 2 channel code data by assigning different channel numbers to the event data of the two code data, sorting them in order from the earliest time, and integrating them into one time-series code data having two channel numbers To create a section consisting of a pair of event data for the start of pronunciation and two corresponding event data for the end of pronunciation with the same pitch. When the interval is set, in the two-channel code data, when the sounding interval of one channel overlaps all or part of the sounding interval of the other channel having the same pitch in time, A section where the two sounding sections overlap is generated as a new sounding section with the sum of the sound strengths of the two sounding sections as the new sound intensity, and the non-overlapping section among the overlapping sounding sections For a channel, a sounding interval having the sound intensity of the sounding interval of one channel is generated and updated, and the event data of the sounding start and sounding end of each updated sounding interval are sorted in time series And an operational code data encoding step for encoding in a predetermined format.

本発明第4から第6の態様によれば、マスカー原音音響信号とマスカー加工音響信号またはマスカー音響信号とマスキー音響信号に対応する2つの符号データを1つの2チャンネル符号データに統合し、2つのチャンネルで発音時間が重複する同一ノートナンバーの発音区間を重複区間と非重複区間に分割し、重複区間、非重複区間のベロシティを、差分演算、低強度選択、加算演算を行うことにより更新し、各発音区間を特定するノートオンのイベントデータとノートオフのイベントデータを時系列にソートし、2つのマスカー音響信号どうしの差分(マスカー原音音響信号の加工に基づく信号劣化成分やマスキング対象信号成分の増分)、マスカー原音音響信号またはマスカー加工音響信号によるマスキー音響信号に対する聴覚マスキングデータ、オフセットを加えた複数のマスキー音響信号どうしの和(音高方向にオフセットを加えた複数のマスキー音響信号どうしの和)またはマスキング対象信号成分どうしの和(音高方向にオフセットを加えた複数のマスキー音響信号に対するマスカー原音信号またはマスカー加工音響信号によるマスキング対象信号成分どうしの和)に対応する演算符号データとして符号化するようにしたので、発音開始または発音終了の識別、時刻、音の高さ、チャンネル番号、音の強さの属性情報を備えた符号データ間の演算を効率的に行うことが可能となる。   According to the fourth to sixth aspects of the present invention, the two code data corresponding to the masker original sound signal and the masker processed sound signal or the masker sound signal and the masky sound signal are integrated into one two-channel code data. Divide the pronunciation interval of the same note number with overlapping pronunciation time in the channel into the overlapping interval and non-overlapping interval, and update the velocity of the overlapping interval and non-overlapping interval by performing difference calculation, low intensity selection, addition operation, The note-on event data and note-off event data that specify each sounding section are sorted in time series, and the difference between the two masker sound signals (the signal degradation component based on the masker original sound signal processing and the masking target signal component) Incremental), auditory muskin for masker sound signal by masker original sound signal or masker processed sound signal Sum of two or more masky sound signals with data and offset (sum of multiple masky sound signals with offset in the pitch direction) or sum of masking signal components (multiple with offset in the pitch direction) Since it is encoded as operation code data corresponding to the masker original sound signal or the masker processed sound signal of the masker sound signal of the other masky sound signal), the start or end of pronunciation, time, and pitch In addition, it is possible to efficiently perform the calculation between the code data having the channel number and sound intensity attribute information.

また、本発明第7の態様では、本発明第4から第6のいずれかの態様において、前記重複発音区間の演算処理をする際、前記重複区間の音の強さが0の場合、前記音の強さを0以外の1〜127の範囲で小さな値に変更することを特徴とする。   Further, in the seventh aspect of the present invention, in the case of any one of the fourth to sixth aspects of the present invention, when the sound processing of the overlapping section is 0 when the calculation process of the overlapping pronunciation section is performed, the sound The strength of is changed to a small value within a range of 1 to 127 other than 0.

また、本発明第8の態様では、本発明第4から第6のいずれかの態様において、前記重複発音区間の演算処理をする際、前記重複区間の音の強さが0の場合、前記重複区間を符号化対象から削除することを特徴とする。   Further, in the eighth aspect of the present invention, in any one of the fourth to sixth aspects of the present invention, if the sound intensity of the overlapping section is 0 when the overlapping pronunciation section is calculated, the overlapping section The section is deleted from the encoding target.

本発明第7、第8の態様によれば、音の強さとして最終的に0が与えられることがなくなり、各発音区間の終了を特定するノートオフのイベントデータを示すベロシティ0と区別することが可能となる。   According to the seventh and eighth aspects of the present invention, 0 is no longer finally given as the sound intensity, and is distinguished from velocity 0 indicating note-off event data for specifying the end of each sounding section. Is possible.

また、本発明第9の態様では、本発明第4から第8のいずれかの態様において、 前記演算符号データ符号化段階にて符号化された演算符号データに対して、発音開始のイベントデータとそれに対応する同一の音の高さをもつ発音終了の2つのイベントデータの対で構成される発音区間を抽出し、前記抽出された全ての発音区間の時間間隔(発音終了のイベントデータの時刻と発音開始のイベントデータの時刻との差)の総和値Duration、および前記抽出された全ての発音区間の音の強さと発音区間の時間間隔(発音終了のイベントデータの時刻と発音開始のイベントデータの時刻との差)との積の総和値Energyを算出し、総和値Energyを総和値Durationで除した値を前記演算符号データの評価値として出力するようにしていることを特徴とする。   According to a ninth aspect of the present invention, in any one of the fourth to eighth aspects of the present invention, with respect to the operation code data encoded in the operation code data encoding stage, A pronunciation interval composed of a pair of two event data of the end of pronunciation corresponding to the same pitch is extracted, and the time intervals of all the extracted pronunciation intervals (the time of the event data of the end of pronunciation) The sum of the durations of the extracted sound durations and the time intervals of the sounding intervals (the time of the sounding end event data and the sounding start event data) The sum total value Energy of the product with the time) is calculated, and a value obtained by dividing the sum value Energy by the total value Duration is output as an evaluation value of the operation code data. Characterized in that it is so.

本発明第9の態様によれば、発音区間の時間間隔の総和値と、抽出された全ての発音区間の音の強さと発音区間の時間間隔との積の総和値をエネルギー総和値として算出し、エネルギー総和値を時間間隔の総和値で除した値を演算符号データの評価値として出力するようにしたので、時間当たりのエネルギー(強さの時間平均値)を用いて前記音響信号を符号化して得られた2つの独立した符号データの関係を客観的に評価することが可能となる。具体的には、マスカー原音音響信号に対するマスカー加工音響信号の信号劣化成分や、マスカー原音音響信号に対するマスカー加工音響信号のマスキー音響信号に対するマスキング対象信号成分の増分を単一の数値パラメータで提示することにより、マスカー原音音響信号に対する加工度合いを効率的に決定することができる。   According to the ninth aspect of the present invention, the sum total value of the products of the sum of the time intervals of the sounding intervals and the sound intensity of all the extracted sounding intervals and the time intervals of the sounding intervals is calculated as the energy total value. Since the value obtained by dividing the total energy value by the total time interval value is output as the evaluation value of the operation code data, the acoustic signal is encoded using the energy per time (time average value of strength). It is possible to objectively evaluate the relationship between the two independent code data obtained in this way. Specifically, the signal deterioration component of the masker processed sound signal relative to the masker original sound signal and the increment of the masking target signal component relative to the masker sound signal of the masker processed sound signal relative to the masker original sound signal should be presented as a single numerical parameter. Thus, the degree of processing for the masker original sound signal can be determined efficiently.

また、本発明第10の態様では、本発明第4から第9のいずれかの態様において、前記差分符号データの符号化は、前記重複発音区間の差分処理により得られた発音区間として、発音開始と発音終了の時刻が同一のものがある場合に、当該発音区間を構成するイベントデータを削除する処理をさらに行うことを特徴とする。   Further, in the tenth aspect of the present invention, in any one of the fourth to ninth aspects of the present invention, the encoding of the difference code data is started as a pronunciation section obtained by the difference process of the overlapping pronunciation sections. And when the sound generation end time is the same, a process for deleting event data constituting the sound generation section is further performed.

本発明第10の態様によれば、重複発音区間の差分処理後に、発音開始と発音終了の時刻が同一のものがある場合に、値が0をもつ発音区間を構成するイベントデータを削除するようにしたので、画面表示や音響再生において機能的に意味をもたない冗長なイベントの発生を防ぐことが可能となる。   According to the tenth aspect of the present invention, if there is a time when the pronunciation start time and the pronunciation end time are the same after the difference between the overlapping sound generation sections, the event data constituting the sound generation section having a value of 0 is deleted. Therefore, it is possible to prevent the occurrence of redundant events that have no functional meaning in screen display and sound reproduction.

本発明によれば、会話音声・騒音信号(マスキー)が別途準備した音楽信号(マスカー)によって、聴覚マスキングがどの程度働くかを客観的に定量的に評価するための聴覚マスキングデータを作成することが可能となるという効果を有する。   According to the present invention, auditory masking data for objectively and quantitatively evaluating how much auditory masking works is created by a music signal (masker) prepared separately by a conversational voice / noise signal (masky). Has the effect of becoming possible.

演算符号データ作成装置の一実施形態を示す機能ブロック図である。It is a functional block diagram showing one embodiment of an operation code data creation device. 演算符号データの作成方法の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of the production method of operational code data. MIDIデータ統合処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of a MIDI data integration process. 重複ノートオン区間の差分処理の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the difference process of an overlapping note-on area. 重複ノートオン区間の低強度選択処理の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the low intensity | strength selection process of an overlapping note-on area. 重複ノートオン区間の加算処理の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the addition process of an overlapping note-on area. 重複ノートオン区間の演算処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the calculation process of an overlapping note-on area. 0デュレーションイベント削除処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of a 0 duration event deletion process. 0デュレーションイベント削除処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of a 0 duration event deletion process. 本発明に係る聴覚マスキングデータの作成装置の一実施形態を示す機能ブロック図である。It is a functional block diagram which shows one Embodiment of the production apparatus of the auditory masking data based on this invention. 本発明第1の実施形態に係る聴覚マスキングデータの作成方法の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of the production method of the auditory masking data based on the 1st Embodiment of this invention. マスキーMIDI符号Aを+1または−1半音の範囲に拡張させて合算マスキング対象信号成分AB、ACを作成する処理の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of the process which expands the masky MIDI code | cord | chord A to the range of +1 or -1 semitone, and produces the signal components AB and AC for total masking. MIDI打ち込みデータを表示出力した状態を示す図である。It is a figure which shows the state which displayed and output the MIDI implantation data. マスカー原音MIDI符号Bを表示出力した状態を示す図である。It is a figure which shows the state which displayed and output the masker original sound MIDI code | symbol B. FIG. マスカー加工MIDI符号Cを表示出力した状態を示す図である。It is a figure which shows the state which displayed and output the masker processing MIDI code | cord | chord. 差分MIDI符号BCを表示出力した状態を示す図である。It is a figure which shows the state which displayed and output difference MIDI code BC. マスキーMIDI符号Aを表示出力した状態を示す図である。It is a figure which shows the state which displayed and output the masky MIDI code | symbol A. 合算マスキング対象成分ABを表示出力した状態を示す図である。It is a figure which shows the state which displayed and output addition masking target component AB. 合算マスキング対象成分ACを表示出力した状態を示す図である。It is a figure which shows the state which displayed and output the addition masking target component AC. 差分MIDI符号ABCを表示出力した状態を示す図である。It is a figure which shows the state which displayed and output difference MIDI code | symbol ABC.

<基本となる符号データの演算処理>
以下、本発明の好適な実施形態について、図面を参照して詳細に説明する。まず、本発明で用いる符号データの演算処理について説明する。図1は、符号データの演算処理を実行する演算符号データ作成装置を示す機能ブロック図である。演算符号データ作成装置は、図1に示すように、データ入力部11、演算処理部12、表示部13、音響出力部14、データ出力部15、符号データ作成部16を有すると共に、図示しないハードディスク等の記憶装置、指示入力を行うキーボード、マウス等の入力機器等を有しており、入出力機器が接続された汎用のコンピュータに専用のプログラムを組み込むことにより実現される。
<Calculation processing of basic code data>
DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. First, code data calculation processing used in the present invention will be described. FIG. 1 is a functional block diagram showing an operation code data creation device that performs code data operation processing. As shown in FIG. 1, the arithmetic code data creation device includes a data input unit 11, an arithmetic processing unit 12, a display unit 13, an acoustic output unit 14, a data output unit 15, and a code data creation unit 16, and a hard disk (not shown). This is realized by incorporating a dedicated program into a general-purpose computer to which an input / output device is connected.

図1において、データ入力部11は、聴覚マスキング効果の評価の対象であるマスカー原音音響信号、マスカー加工音響信号またはマスキー音響信号などの複数のWAV形式等(WAVはMicrosoft社の音響信号形式)の音響信号を入力するためのものである。マスカー加工音響信号は、上述のように、特許文献2または特許文献3の手法により、与えられた音楽信号及びマスキング対象とする騒音信号や平均的な日本人男女の音声信号に対して周波数解析を行い、マスキー音響信号に多く含まれ、逆にマスカー原音音響信号に余り含まれていない周波数成分を強調させるようなフィルタ関数を算出し、マスカー原音音響信号に対してフィルタ関数を用いてフィルタ加工を加え、改変させて得られるものである。続いて、符号データ作成部16は、入力された音響信号を特許文献4など公知の手法によりMIDI(Musical Instruments Digital Interface)データ等の符号データに変換するためのものである。後続の演算処理部12と同様に、CPU、メモリを有し、記憶装置から専用のプログラムをメモリ上に読み込んで実行することにより本機能を実現する。演算処理部12は、CPU、メモリを有し、記憶装置から専用のプログラムをメモリ上に読み込んで実行し、符号データ作成部16で作成された複数の符号データどうしで指定された所定の演算を行い、演算符号データを作成する、本発明の演算符号データ作成装置の主要な機能を実現するものである。表示部13は、液晶ディスプレイ等の表示装置により実現され、演算処理部12により作成された演算符号データを表示する。音響出力部14は、MIDI音源、MIDIシーケンサ、アンプおよびスピーカにより実現され、演算処理部12により作成された演算符号データを音響信号に変換して音響出力する。データ出力部15は、MIDIデータ等の演算符号データをSMF(Standard MIDI File)形式などのデータ形式で出力するためのものである。   In FIG. 1, the data input unit 11 has a plurality of WAV formats such as a masker original sound signal, a masker processed sound signal, or a masky sound signal that are objects of evaluation of the auditory masking effect (WAV is a sound signal format of Microsoft Corporation). This is for inputting an acoustic signal. As described above, the masker processed acoustic signal is subjected to frequency analysis on the given music signal, the noise signal to be masked, and the average Japanese male and female voice signal by the method of Patent Document 2 or Patent Document 3. A filter function that emphasizes the frequency components that are mostly contained in the masky sound signal but not so much in the masker original sound signal, and performs filter processing on the masker original sound signal using the filter function. In addition, it is obtained by modification. Subsequently, the code data creation unit 16 is for converting the input acoustic signal into code data such as MIDI (Musical Instruments Digital Interface) data by a known method such as Patent Document 4. Similar to the subsequent arithmetic processing unit 12, this function is realized by having a CPU and a memory and reading a dedicated program from the storage device into the memory and executing it. The arithmetic processing unit 12 includes a CPU and a memory, reads a dedicated program from the storage device into the memory and executes the program, and performs a predetermined operation specified by the plurality of code data created by the code data creation unit 16. This implements the main function of the operation code data creation device of the present invention that performs operation code data. The display unit 13 is realized by a display device such as a liquid crystal display, and displays the calculation code data created by the calculation processing unit 12. The sound output unit 14 is realized by a MIDI sound source, a MIDI sequencer, an amplifier, and a speaker. The sound output unit 14 converts the operation code data created by the operation processing unit 12 into an sound signal and outputs the sound. The data output unit 15 is for outputting operation code data such as MIDI data in a data format such as an SMF (Standard MIDI File) format.

<処理概要>
図2は、図1に示した演算符号データ作成装置による演算符号データの作成方法の概要を示すフローチャートである。演算符号データの作成方法は、図2に示した各ステップ(各段階)の詳細な手順を記録したプログラムを、図1に示した演算符号データ作成装置が実行することにより行われる。
<Process overview>
FIG. 2 is a flowchart showing an outline of a method of creating operation code data by the operation code data generation apparatus shown in FIG. The operation code data generation method is performed by the operation code data generation apparatus shown in FIG. 1 executing a program that records the detailed procedure of each step (each stage) shown in FIG.

本発明で用いる符号データ作成部16で作成される符号データとしては、データ入力部11で入力された音響信号を構成する各音素成分を、その音素成分の強度、高さ、時間情報で表現した形式のものであれば、どのようなものであっても良い。時間情報に関しては、開始時刻と終了時刻で特定する形式であっても、開始時刻と発音時間で特定する形式であっても、何らかの手法により開始時刻、終了時刻、発音時間が特定できるものであれば良い。本実施形態では、符号データとして、発音開始時にノートオン、発音終了時にノートオフのイベントデータを設定し、音の強さとしてベロシティ、音の高さとしてノートナンバーを設定したMIDI規格を採用している。したがって、以下においても、MIDIデータを例にとって説明していく。   As the code data created by the code data creation unit 16 used in the present invention, each phoneme component constituting the acoustic signal input by the data input unit 11 is expressed by the intensity, height, and time information of the phoneme component. Any format can be used. Regarding time information, it is possible to specify the start time, end time, and pronunciation time by some method, whether it is specified by the start time and end time or the format specified by the start time and pronunciation time. It ’s fine. In this embodiment, as the code data, note-on event data is set at the start of sound generation, note-off event data is set at the end of sound generation, velocity is used as the sound intensity, and note number is set as the sound pitch. Yes. Therefore, the following description will be made taking MIDI data as an example.

演算符号データの作成方法としては、まず、コンピュータ本体である演算処理部12が、2つのMIDIデータをデータ入力部11から読み込む。ここでは、2つのMIDIデータM1、M2を読み込むものとする。2つのMIDIデータM1、M2を読み込んだら、演算処理部12は、読み込んだ2つのMIDIデータM1、M2を、1つの時系列な2チャンネルMIDIデータに統合する(S1)。   As a method of creating operation code data, first, the operation processing unit 12 which is a computer main body reads two MIDI data from the data input unit 11. Here, it is assumed that two MIDI data M1 and M2 are read. When the two MIDI data M1 and M2 are read, the arithmetic processing unit 12 integrates the two read MIDI data M1 and M2 into one time-series two-channel MIDI data (S1).

統合に際して、演算処理部12は、読み込んだ2つのMIDIデータM1、M2それぞれのMIDIイベント配列を、Event1[]、Event2[]とする。2つのMIDIイベント配列の総ノートイベント数は各々Ne1、Ne2とし、各イベント配列には属性として[time,channel,note−number,velocity]の4つの値をもつものとする。例えば、Event1[]のtime属性をEvent1[].timeと表記する。timeにはノートイベントの絶対値を与え、MIDI規格準拠のSMF形式(Standard MIDI File)で使用されるデルタタイムという相対時刻で指示される値を先頭時刻からの累積値に変換する。絶対時刻の単位は、デルタタイムと同様にユーザ指定の整数値である。channelはMIDI規格上0〜15の値をとり得るが、Event1[]は0、Event2[]は1とする。note−numberとvelocityは0〜127の値をとり、ノートオンの場合は、velocityとして1以上の値を与え、ノートオフの場合は、velocityとして0を与える。   At the time of integration, the arithmetic processing unit 12 sets Event1 [] and Event2 [] as the MIDI event arrays of the two read MIDI data M1 and M2. Assume that the total number of note events of the two MIDI event arrays is Ne1 and Ne2, and each event array has four values of [time, channel, note-number, velocity] as attributes. For example, the time attribute of Event1 [] is set to Event1 []. Indicated as time. An absolute value of a note event is given to time, and a value indicated by a relative time called a delta time used in the SMF format (Standard MIDI File) conforming to the MIDI standard is converted into a cumulative value from the start time. The unit of the absolute time is a user-specified integer value like the delta time. The channel can take a value of 0 to 15 according to the MIDI standard, but Event1 [] is 0 and Event2 [] is 1. “note-number” and “velocity” take a value of 0 to 127. When the note is on, a value of 1 or more is given as the velocity, and when the note is off, 0 is given as the velocity.

そして、統合先とする配列EventW[]を用意する。さらに、Event1[]、Event2[]、EventW[]へのポインタをp1、p2、pwとし、初期状態ではp1=p2=pw=0と設定する。EventW[]の総ノートイベント数をNwとすると、Nw=Ne1+Ne2となる。   Then, an array EventW [] as an integration destination is prepared. Further, the pointers to Event1 [], Event2 [], and EventW [] are p1, p2, and pw, and p1 = p2 = pw = 0 is set in the initial state. When the total number of note events of EventW [] is Nw, Nw = Ne1 + Ne2.

<MIDIデータ統合>
配列の準備ができたら、演算処理部12はMIDIデータ統合処理を開始する。 S1におけるMIDIデータ統合処理の詳細を図3のフローチャートを用いて説明する。まず、演算処理部12は、ポインタp2が総ノートイベント数Ne2より小さいかどうかを判断する(S101)。後述するように、p2は配列Event2[]内のノートイベントが処理される度に1加算されるため、p2がNe2より小さいことは未処理のノートイベントが配列Event2[]内に残っていることを意味する。すなわち、S101では、配列Event2[]内のノートイベントの処理を終えたかどうかを判断している。
<MIDI data integration>
When the array is ready, the arithmetic processing unit 12 starts the MIDI data integration process. Details of the MIDI data integration process in S1 will be described with reference to the flowchart of FIG. First, the arithmetic processing unit 12 determines whether or not the pointer p2 is smaller than the total number of note events Ne2 (S101). As will be described later, p2 is incremented by 1 every time a note event in the array Event2 [] is processed. Therefore, if p2 is smaller than Ne2, an unprocessed note event remains in the array Event2 []. Means. That is, in S101, it is determined whether or not the processing of the note event in the array Event2 [] has been completed.

ポインタp2が総ノートイベント数Ne2より小さい場合は、Event2[p2].timeがEvent1[p1].timeより小さいかどうかを判断する(S102)。これは、ポインタp2で特定されるEvent2[p2]内のノートイベントの絶対時刻がポインタp1で特定されるEvent1[p1]内のノートイベントの絶対時刻よりも早いかどうかを判断している。そして、Event2[p2].timeがEvent1[p1].timeより小さい場合は、Event2[p2]についての処理を行い(S103)、Event2[p2].timeがEvent1[p1].time以上の場合は、Event1[p1]についての処理を行う(S105)。なお、S101において、ポインタp2が総ノートイベント数Ne2以上である場合は、配列Event2[]内のノートイベントの処理を全て終えたことを意味するので、この場合にも、S105に進んで、Event1[p1]についての処理を行う。   If the pointer p2 is smaller than the total number of note events Ne2, Event2 [p2]. time is Event1 [p1]. It is determined whether it is smaller than time (S102). This determines whether the absolute time of the note event in Event2 [p2] specified by the pointer p2 is earlier than the absolute time of the note event in Event1 [p1] specified by the pointer p1. And Event2 [p2]. time is Event1 [p1]. If it is smaller than time, the process for Event2 [p2] is performed (S103), and Event2 [p2]. time is Event1 [p1]. If it is not less than time, the process for Event1 [p1] is performed (S105). In S101, if the pointer p2 is equal to or greater than the total number of note events Ne2, this means that all the processing of note events in the array Event2 [] has been completed. In this case as well, the process proceeds to S105, where Event1 The process for [p1] is performed.

S103のEvent2[p2]についての処理では、演算処理部12は、以下の〔数式1〕に従った処理を実行する。   In the process for Event2 [p2] in S103, the arithmetic processing unit 12 executes a process according to the following [Equation 1].

〔数式1〕
EventW[pw].time←Event2[p2].time
EventW[pw].channel←1
EventW[pw].note−number←Event2[p2].note−number
EventW[pw].velocity←Event2[p2].velocity
pw←pw+1
p2←p2+1
[Formula 1]
EventW [pw]. time ← Event2 [p2]. time
EventW [pw]. channel ← 1
EventW [pw]. note-number ← Event2 [p2]. note-number
EventW [pw]. velocity ← Event2 [p2]. velocity
pw ← pw + 1
p2 ← p2 + 1

上記〔数式1〕の6つの式のうち、第1式、第3式、第4式では、Event2[p2]のノートイベントのtime、note−number、velocityをEventW[pw]のノートイベントのtime、note−number、velocityとして与えている。また、第2式では、EventW[pw]のノートイベントのchannelを1に設定している。この4つの式により、MIDIデータM2に存在していたノートイベントが、統合MIDIデータのチャンネル1のノートイベントとして移行されたことになる。第5式、第6式は、ポインタの加算である。   Of the above six expressions of [Formula 1], in the first expression, the third expression, and the fourth expression, the time, note-number, and velocity of the event event of Event2 [p2] are set to the time of the note event of EventW [pw]. , Note-number, and velocity. In the second equation, the channel of the note event of EventW [pw] is set to 1. According to these four formulas, the note event existing in the MIDI data M2 is transferred as the channel 1 note event of the integrated MIDI data. Expressions 5 and 6 are pointer additions.

S105のEvent1[p1]についての処理では、演算処理部12は、以下の〔数式2〕に従った処理を実行する。   In the process for Event1 [p1] in S105, the arithmetic processing unit 12 executes a process according to the following [Equation 2].

〔数式2〕
EventW[pw].time←Event1[p1].time
EventW[pw].channel←0
EventW[pw].note−number←Event1[p1].note−number
EventW[pw].velocity←Event1[p1].velocity
pw←pw+1
p1←p1+1
[Formula 2]
EventW [pw]. time ← Event1 [p1]. time
EventW [pw]. channel ← 0
EventW [pw]. note-number ← Event1 [p1]. note-number
EventW [pw]. velocity ← Event1 [p1]. velocity
pw ← pw + 1
p1 ← p1 + 1

上記〔数式2〕は、上記〔数式1〕におけるEvent2[p2]の代わりにEvent1[p1]が用いられており、channelが0に設定されている。上記〔数式2〕では、第1式〜第4式により、MIDIデータM1に存在していたノートイベントが、統合MIDIデータのチャンネル0のノートイベントとして移行されたことになる。第5式、第6式は、ポインタの加算である。   In the above [Equation 2], Event1 [p1] is used instead of Event2 [p2] in [Equation 1], and channel is set to 0. In the above [Expression 2], the note event existing in the MIDI data M1 is transferred as the note event of channel 0 of the integrated MIDI data by the first to fourth expressions. Expressions 5 and 6 are pointer additions.

S105におけるEvent1[p1]についての処理後は、ポインタp1が総ノートイベント数Ne1より小さいかどうかを判断する(S106)。判断の結果、ポインタp1が総ノートイベント数Ne1より小さい場合は、S101に戻る。逆に、ポインタp1が総ノートイベント数Ne1以上の場合は、配列Event1[p1]内のノートイベントの処理を全て終えたことを意味するので、S103に進んで、Event2[p2]についての処理を行う。   After the processing for Event1 [p1] in S105, it is determined whether or not the pointer p1 is smaller than the total number of note events Ne1 (S106). As a result of the determination, if the pointer p1 is smaller than the total number of note events Ne1, the process returns to S101. Conversely, if the pointer p1 is greater than or equal to the total number of note events Ne1, this means that all the note event processing in the array Event1 [p1] has been completed, and thus the process proceeds to S103 and processing for Event2 [p2] is performed. Do.

S103におけるEvent2[p2]についての処理後は、ポインタp2が総ノートイベント数Ne2より小さいかどうかを判断する(S104)。判断の結果、ポインタp2が総ノートイベント数Ne2より小さい場合は、S103に戻って、Event2[p2]についての処理を行う。逆に、ポインタp2が総ノートイベント数Ne2以上の場合は、配列Event2[p2]内のノートイベントの処理を全て終えたことを意味するので、統合処理を終了する。   After the process for Event2 [p2] in S103, it is determined whether the pointer p2 is smaller than the total number of note events Ne2 (S104). As a result of the determination, if the pointer p2 is smaller than the total number of note events Ne2, the process returns to S103 and the process for Event2 [p2] is performed. On the other hand, if the pointer p2 is equal to or greater than the total number of note events Ne2, it means that all the note event processing in the array Event2 [p2] has been completed, so the integration processing is terminated.

<重複ノートオン区間の演算処理>
統合処理が終了したら、演算処理部12は、重複ノートオン区間演算処理を実行する(図2のS2)。ノートオン区間(発音区間)とは、ノートオンのイベントデータとそれに対応する同一ノートナンバーをもつノートオフの2つのイベントデータの対で構成される区間である。また、重複ノートオン区間とは、他方のチャンネルのノートオン区間と時間的に全てまたは一部が重複するノートオン区間である。上記S1の統合処理の結果、EventW[]は、2チャンネルのMIDIイベントで構成されることになり、これに対して、単一チャンネルのMIDIイベント配列EventS[]に変換する処理を行う。ただし、EventW[]は、同一時間に同一ノートナンバーのノートオン区間が重複してしまう可能性がある。重複ノートオン区間演算処理では、ノートオン区間が重複する部分について強度値(ベロシティ)の演算を行い、1つのチャンネルに統一することにより、単一チャンネルのMIDIイベント配列EventS[]に変換する。
<Calculation processing of overlapping note-on section>
When the integration process ends, the arithmetic processing unit 12 executes an overlapping note-on section arithmetic process (S2 in FIG. 2). The note-on section (sound generation section) is a section composed of a pair of note-on event data and two note-off event data having the same note number corresponding thereto. Further, the overlapping note-on section is a note-on section that overlaps in part or part with the note-on section of the other channel in time. As a result of the integration process of S1, EventW [] is composed of a 2-channel MIDI event, and a process of converting it into a single-channel MIDI event array EventS [] is performed. However, in the event W [], note-on intervals with the same note number may overlap at the same time. In the overlap note-on interval calculation process, the intensity value (velocity) is calculated for the portion where the note-on interval overlaps, and is converted into a single channel MIDI event array EventS [].

ここで、重複ノートオン区間演算処理の概要を図4〜図6を用いて説明する。本実施形態では、重複ノートオン区間演算処理として、差分処理、低強度選択処理、加算処理の3つを行っている。図4、図5、図6は、それぞれ差分処理、低強度選択処理、加算処理の様子を示している。まず、差分処理について、図4を用いて説明する。図4(a)は2つのMIDIデータ統合後の1つの2チャンネルMIDIデータを示し、図4(b)は重複ノートオン区間差分処理後の1チャンネルMIDIデータを示している。説明の便宜上、図4においては、1つのノートナンバーについてだけ示している。また、各矩形は、左端がノートオンイベントの時刻、右端がノートオフイベントの時刻であり、左右方向の幅がノートオン区間を示している。また、各矩形の上下方向がベロシティを示している。図4(a)の例では、全てのノートオン区間が他方のチャンネルのノートオン区間と時間的に全てまたは一部が重複しているため、全てが重複ノートオン区間である。また、ノートオン区間02のように、その一部が他方のチャンネルのノートオン区間12と重複している場合は、重複している区間を重複区間、重複していない区間を非重複区間と呼ぶことにする。   Here, an outline of the overlap note-on interval calculation process will be described with reference to FIGS. In the present embodiment, three processes of the difference note, the low intensity selection process, and the addition process are performed as the overlapping note-on interval calculation process. 4, 5, and 6 illustrate a difference process, a low intensity selection process, and an addition process, respectively. First, the difference process will be described with reference to FIG. FIG. 4A shows one 2-channel MIDI data after the integration of two MIDI data, and FIG. 4B shows one-channel MIDI data after overlapping note-on section difference processing. For convenience of explanation, FIG. 4 shows only one note number. In each rectangle, the left end is the note-on event time, the right end is the note-off event time, and the horizontal width indicates the note-on interval. Also, the vertical direction of each rectangle indicates the velocity. In the example of FIG. 4A, all the note-on intervals overlap all or part of the note-on interval of the other channel in time, so that all are overlap note-on intervals. Further, when a part of the channel overlaps with the note-on segment 12 of the other channel, such as the note-on segment 02, the overlapping segment is referred to as an overlapping segment, and the non-overlapping segment is referred to as a non-overlapping segment. I will decide.

図4(a)の例では、チャンネル0(図中、ch:0で示す。)のノートオン区間01とチャンネル1(図中、Ch:1で示す。)のノートオン区間11が重複しているため、差分演算処理が行われ、図4(b)に示すように、チャンネル0に新ノートオン区間が得られる。新ノートオン区間のベロシティは、ノートオン区間01のベロシティとノートオン区間11のベロシティの差分となる。ノートオン区間01とノートオン区間11は、ノートオンイベントの時刻、ノートオフイベントの時刻が同一であり、ノートオン区間が完全に重複しているため、差分演算処理後の新ノートオン区間のノートオンイベントの時刻、ノートオフイベントの時刻は、ノートオン区間01、ノートオン区間11と同一となる。   In the example of FIG. 4A, the note-on section 01 of channel 0 (indicated by ch: 0 in the figure) and the note-on section 11 of channel 1 (indicated by Ch: 1 in the figure) overlap. Therefore, the difference calculation process is performed, and a new note-on section is obtained for channel 0 as shown in FIG. The velocity of the new note-on section is the difference between the velocity of the note-on section 01 and the velocity of the note-on section 11. The note-on interval 01 and the note-on interval 11 have the same note-on event time and note-off event time, and the note-on interval completely overlaps. The time of the on event and the time of the note off event are the same as the note on section 01 and the note on section 11.

ノートオン区間02とノートオン区間12のように一部が重複している場合、重複している一部についてだけ、差分演算処理が行われる。ノートオン区間02とノートオン区間12のベロシティは同じであるので、ノートオン区間02とノートオン区間12が重複している区間については、ノートオン区間が存在しなくなる。また、ノートオン区間02には、チャンネル1のノートオン区間と重複していない部分があるので、重複していない部分については、チャンネル0に新ノートオン区間が得られる。新ノートオン区間のベロシティは、ノートオン区間02のベロシティがそのまま与えられる。また、新ノートオン区間のノートオン時刻は、ノートオン区間12のノートオフ時刻が与えられ、新ノートオン区間のノートオフ時刻は、ノートオン区間02のノートオフ時刻がそのまま与えられる。   When a part overlaps like the note-on section 02 and the note-on section 12, a difference calculation process is performed only about the part which overlaps. Since the note-on section 02 and the note-on section 12 have the same velocity, no note-on section exists in the section where the note-on section 02 and the note-on section 12 overlap. In addition, since there is a portion that does not overlap with the note-on interval of channel 1 in the note-on interval 02, a new note-on interval is obtained in channel 0 for the portion that does not overlap. The velocity of the new note-on section is the same as the velocity of the note-on section 02. Further, the note-on time of the note-on section 12 is given as the note-on time of the note-on section 12, and the note-off time of the note-on section 02 is given as it is.

次に、低強度選択処理について、図5を用いて説明する。図5(a)は2つのMIDIデータ統合後の1つの2チャンネルMIDIデータを示しており、図4(a)と全く同一である。図5(b)は重複ノートオン区間低強度選択処理後の1チャンネルMIDIデータを示している。説明の便宜上、図5においても、1つのノートナンバーについてだけ示している。また、各矩形は、左端がノートオンイベントの時刻、右端がノートオフイベントの時刻であり、左右方向の幅がノートオン区間を示している。また、各矩形の上下方向がベロシティを示している。   Next, the low intensity selection process will be described with reference to FIG. FIG. 5A shows one 2-channel MIDI data after the integration of two MIDI data, and is exactly the same as FIG. 4A. FIG. 5B shows 1-channel MIDI data after the overlap note-on section low-intensity selection process. For convenience of explanation, FIG. 5 also shows only one note number. In each rectangle, the left end is the note-on event time, the right end is the note-off event time, and the horizontal width indicates the note-on interval. Also, the vertical direction of each rectangle indicates the velocity.

図5(a)の例では、チャンネル0(図中、ch:0で示す。)のノートオン区間01とチャンネル1(図中、Ch:1で示す。)のノートオン区間11が重複しているため、低強度選択処理が行われ、図5(b)に示すように、チャンネル0に新ノートオン区間が得られる。新ノートオン区間のベロシティは、ノートオン区間01のベロシティとノートオン区間11のベロシティのうち低強度のものを選択する。図5(a)の例では、ノートオン区間01のベロシティの方がノートオン区間11のベロシティよりも小さい(低強度)ため、新ノートオン区間のベロシティとして、ノートオン区間01のベロシティが選択される。ノートオン区間01とノートオン区間11は、ノートオンイベントの時刻、ノートオフイベントの時刻が同一であり、ノートオン区間が完全に重複しているため、差分演算処理後の新ノートオン区間のノートオンイベントの時刻、ノートオフイベントの時刻は、ノートオン区間01、ノートオン区間11と同一となる。   In the example of FIG. 5A, the note-on section 01 of channel 0 (indicated by ch: 0 in the figure) and the note-on section 11 of channel 1 (indicated by Ch: 1 in the figure) overlap. Therefore, the low-intensity selection process is performed, and a new note-on section is obtained for channel 0 as shown in FIG. The velocity of the new note-on section is selected from the velocity of the note-on section 01 and the velocity of the note-on section 11 having a low intensity. In the example of FIG. 5A, the velocity of the note-on section 01 is selected as the velocity of the new note-on section because the velocity of the note-on section 01 is smaller than the velocity of the note-on section 11 (low intensity). The The note-on interval 01 and the note-on interval 11 have the same note-on event time and note-off event time, and the note-on interval completely overlaps. The time of the on event and the time of the note off event are the same as the note on section 01 and the note on section 11.

ノートオン区間02とノートオン区間12のように一部が重複している場合、重複している部分、重複していない部分それぞれについて、低強度選択処理が行われる。ノートオン区間02とノートオン区間12のベロシティは同一であるので、ノートオン区間02とノートオン区間12が重複している区間については、どちらのベロシティを選択しても同じであるため、新ノートオン区間のベロシティとして、ノートオン区間02、ノートオン区間12と同一のベロシティが与えられる。図においては、便宜上新ノートオン区間を02で示す。新ノートオン区間02のノートオン時刻は、ノートオン区間02のノートオン時刻がそのまま与えられ、新ノートオフ区間02のノートオフ時刻は、ノートオン区間12のノートオフ時刻が与えられる。また、ノートオン区間02には、チャンネル1のノートオン区間と重複していない部分があるが、強度選択処理において重複していない部分については、他方のノートオン区間のベロシティが0であるとみなして、当該区間のベロシティを一律に0に変更する。即ち重複していない区間は削除する。   When a part overlaps like the note-on section 02 and the note-on section 12, a low intensity | strength selection process is performed about each part which overlaps and the part which does not overlap. Since the velocity of the note-on interval 02 and the note-on interval 12 is the same, the velocity of the note-on interval 02 and the note-on interval 12 is the same regardless of which velocity is selected. As the velocity of the on section, the same velocity as that of the note on section 02 and the note on section 12 is given. In the figure, the new note-on section is indicated by 02 for convenience. The note-on time of the note-on section 02 is given as it is as the note-on time of the note-on section 02, and the note-off time of the note-on section 12 is given as the note-off time of the new note-off section 02. In addition, the note-on section 02 has a portion that does not overlap with the note-on section of channel 1, but the velocity of the other note-on section is regarded as 0 for the portion that does not overlap in the intensity selection process. Thus, the velocity of the section is uniformly changed to 0. That is, sections that do not overlap are deleted.

次に、加算処理について、図6を用いて説明する。図6(a)は2つのMIDIデータ統合後の1つの2チャンネルMIDIデータを示しており、図4(a)図5(a)と全く同一である。図6(b)は重複ノートオン区間加算処理後の1チャンネルMIDIデータを示している。説明の便宜上、図6においても、1つのノートナンバーについてだけ示している。また、各矩形は、左端がノートオンイベントの時刻、右端がノートオフイベントの時刻であり、左右方向の幅がノートオン区間を示している。また、各矩形の上下方向がベロシティを示している。   Next, the addition process will be described with reference to FIG. FIG. 6 (a) shows one 2-channel MIDI data after the integration of two MIDI data, and is exactly the same as FIG. 4 (a) and FIG. 5 (a). FIG. 6B shows the 1-channel MIDI data after the overlap note-on interval addition process. For convenience of explanation, FIG. 6 also shows only one note number. In each rectangle, the left end is the note-on event time, the right end is the note-off event time, and the horizontal width indicates the note-on interval. Also, the vertical direction of each rectangle indicates the velocity.

図6(a)の例では、チャンネル0(図中、ch:0で示す。)のノートオン区間01とチャンネル1(図中、Ch:1で示す。)のノートオン区間11が重複しているため、加算処理が行われ、図6(b)に示すように、チャンネル0に新ノートオン区間が得られる。新ノートオン区間のベロシティは、ノートオン区間01のベロシティとノートオン区間11のベロシティを加算したものとなる。ただし、加算後のベロシティの値が上限値127を越える場合は、127に設定する。ノートオン区間01とノートオン区間11は、ノートオンイベントの時刻、ノートオフイベントの時刻が同一であり、ノートオン区間が完全に重複しているため、差分演算処理後の新ノートオン区間のノートオンイベントの時刻、ノートオフイベントの時刻は、ノートオン区間01、ノートオン区間11と同一となる。   In the example of FIG. 6A, the note-on section 01 of channel 0 (indicated by ch: 0 in the figure) and the note-on section 11 of channel 1 (indicated by Ch: 1 in the figure) overlap. Therefore, an addition process is performed, and a new note-on section is obtained for channel 0 as shown in FIG. The velocity of the new note-on section is the sum of the velocity of the note-on section 01 and the velocity of the note-on section 11. However, if the velocity value after addition exceeds the upper limit value 127, it is set to 127. The note-on interval 01 and the note-on interval 11 have the same note-on event time and note-off event time, and the note-on interval completely overlaps. The time of the on event and the time of the note off event are the same as the note on section 01 and the note on section 11.

ノートオン区間02とノートオン区間12のように一部が重複している場合、重複している部分、重複していない部分それぞれについて、加算処理が行われる。重複している部分については、ノートオン区間02とノートオン区間12のベロシティを加算したものが、新ノートオン区間のベロシティとして与えられる。図においては、便宜上新ノートオン区間を02+12で示す。同様に、加算後のベロシティの値が上限値127を越える場合は、127に設定する。また、ノートオン区間02には、チャンネル1のノートオン区間と重複していない部分があるので、重複していない部分については、当該区間の他方のベロシティが0であるとみなして、新ノートオン区間02のベロシティとして、ノートオン区間02のベロシティがそのまま与えられる。新ノートオン区間02+12のノートオン時刻は、ノートオン区間02、12のノートオン時刻が与えられ、新ノートオン区間02+12のノートオフ時刻は、ノートオフ区間12のノートオフ時刻が与えられる。新ノートオン区間02のノートオン時刻は、ノートオン区間12のノートオフ時刻が与えられ、新ノートオン区間02のノートオフ時刻は、ノートオン区間02のノートオフ時刻がそのまま与えられる。   When a part overlaps like the note-on section 02 and the note-on section 12, an addition process is performed about the part which overlaps and the part which does not overlap. As for the overlapping portion, the sum of the velocities of the note-on section 02 and the note-on section 12 is given as the velocity of the new note-on section. In the figure, the new note-on section is indicated by 02 + 12 for convenience. Similarly, when the velocity value after addition exceeds the upper limit value 127, it is set to 127. In addition, since the note-on section 02 has a portion that does not overlap with the note-on section of channel 1, the non-overlap portion is regarded as having the other velocity of 0 and the new note-on section As the velocity of the section 02, the velocity of the note-on section 02 is given as it is. The note-on time of the new note-on section 02 + 12 is given the note-on time of the note-on sections 02 and 12, and the note-off time of the new note-on section 02 + 12 is given the note-off time of the note-off section 12. The note-on time of the note-on section 02 is given as the note-on time of the note-on section 02, and the note-off time of the note-on section 02 is given as it is.

S2の重複ノートオン区間演算処理に際して、演算処理部12は、EventW[]、EventS[]の各配列へのポインタをpw、psとし、初期状態ではpw=ps=0に設定する。また、EventS[]のChannel値は全て0に設定する。さらに、演算処理部12は、0〜127のノートナンバーに対応してノートオン時にMIDIイベント配列へのポインタを格納するノートオンテーブルをEventW[]のチャンネル0とチャンネル1に対応してtableW[0,]、tableW[1,]を定義し、EventS[]に対応してtableS[]を定義する。そして、tableW[0,]、tableW[1,]、tableS[]の全ての初期値を−1に設定する。また、生成されるMIDIイベント配列EventS[]の総ノートイベント数をNsとする。   In the overlap note-on interval calculation process of S2, the calculation processing unit 12 sets pw and ps as pointers to the respective arrays of EventW [] and EventS [], and sets pw = ps = 0 in the initial state. Also, all the Channel values of EventS [] are set to 0. Further, the arithmetic processing unit 12 stores a note-on table that stores a pointer to the MIDI event array at the time of note-on corresponding to the note numbers from 0 to 127, and tableW [0 corresponding to channel 0 and channel 1 of EventW []. ,], TableW [1,] and tableS [] corresponding to EventS []. Then, all initial values of tableW [0,], tableW [1,], and tableS [] are set to -1. Further, the total number of note events in the generated MIDI event array EventS [] is Ns.

配列の準備ができたら、演算処理部12は、重複ノートオン区間演算処理を開始する。この重複ノートオン区間演算処理の詳細を図7のフローチャートを用いて説明する。まず、図7のS201で演算処理部12は、ポインタpwで特定されるEventW[]を用いて、以下の〔数式3〕に従った処理を実行し、処理対象のノートナンバーnn、ベロシティvel、処理チャンネルchを設定する。   When the arrangement is ready, the arithmetic processing unit 12 starts the overlapping note-on interval arithmetic processing. Details of the overlap note-on interval calculation processing will be described with reference to the flowchart of FIG. First, in S201 of FIG. 7, the arithmetic processing unit 12 performs processing according to the following [Equation 3] using EventW [] specified by the pointer pw, and processes the note number nn, velocity vel, A processing channel ch is set.

〔数式3〕
nn←EventW[pw].note−number
vel←EventW[pw].velocity
ch←EventW[pw].channel
[Formula 3]
nn ← EventW [pw]. note-number
vel ← EventW [pw]. velocity
ch ← EventW [pw]. channel

続いて、他チャンネルの状態確認としてチャンネル0のノートナンバーnnがノートオンになっているか否か、即ちtableW[1−ch,nn]が0以上であるかどうかの確認を行う(S202)。すなわち、他方のチャンネル1−chに同一ノートナンバーのノートオンになっているイベントが存在するかどうかの判断を行う。tableW[1−ch,nn]が0以上である場合は、同一ノートナンバーnnのノートオンイベントが少なくとも他方のチャンネル側に存在していることになるので、強制的にノートオフイベントを発行してノートオン区間を中断させる処理を行う(S203)。   Subsequently, as a confirmation of the status of the other channel, it is confirmed whether or not the note number nn of channel 0 is turned on, that is, whether or not tableW [1-ch, nn] is 0 or more (S202). That is, it is determined whether or not there is an event with the same note number on the other channel 1-ch. If tableW [1-ch, nn] is 0 or more, a note-on event with the same note number nn exists at least on the other channel side, so a note-off event is forcibly issued. Processing for interrupting the note-on section is performed (S203).

具体的には、tableS[nn]が0以上であるかどうかを判断し、tableS[nn]が0以上である場合は、演算処理部12は、以下の〔数式4〕に従った処理を実行する。   Specifically, it is determined whether or not tableS [nn] is equal to or greater than 0. If tableS [nn] is equal to or greater than 0, the arithmetic processing unit 12 executes processing according to the following [Equation 4]. To do.

〔数式4〕
EventS[ps].time←EventW[pw].time
EventS[ps].channel←0
EventS[ps].note−number←nn
EventS[ps].velocity←0
tableS[nn]←−1
ps←ps+1
[Formula 4]
EventS [ps]. time ← EventW [pw]. time
EventS [ps]. channel ← 0
EventS [ps]. note-number ← nn
EventS [ps]. Velocity ← 0
tableS [nn] ← −1
ps ← ps + 1

上記〔数式4〕の6つの式のうち、第1式、第3式では、EventW[pw]のノートイベントのtime、note−numberをEventS[ps]のノートイベントのtime、note−numberとして与えている。第2式では、EventS[ps]のノートイベントのchannelを0に設定している。EventS[]内のノートイベントは1つのチャンネルに納められるため、全てチャンネル0に設定される。第4式では、EventS[ps]のノートイベントのvelocityを0に設定している。これは、ノートオフイベントであることを示すものである。この4つの式により、EventS[]内に強制的にノートオフが設定される。これにより、概念上は、他方のチャンネルの同一ナンバーのノートオン区間(非重複区間)が終了し、他方のチャンネルの同一ノートナンバーのノートオンまたはノートオフイベントと合わせて重複区間が開始されることになる。(この段階では、2つのチャンネルが当該ノートナンバーで時間的にどのように重複するかがわからない)。第5式は、ノートナンバーnnについてのノートオン区間が終了したことを示すための処理である。第6式は、ポインタの加算である。   Of the above six formulas of [Formula 4], in the first and third formulas, eventW [pw] note event time and note-number are given as EventS [ps] note event time and note-number. ing. In the second equation, the channel of the note event of EventS [ps] is set to 0. Since note events in EventS [] are stored in one channel, all are set to channel 0. In the fourth equation, the velocity of the note event of EventS [ps] is set to 0. This indicates a note-off event. By these four expressions, note-off is forcibly set in EventS []. This conceptually ends the note-on interval (non-overlapping interval) with the same number on the other channel and starts the overlap interval together with the note-on or note-off event with the same note number on the other channel. become. (At this stage, we don't know how the two channels overlap at that note number in time). The fifth equation is a process for indicating that the note-on interval for the note number nn has ended. The sixth equation is addition of pointers.

〔数式4〕に従った処理を実行したら、演算処理部12は、処理対象のチャンネルchのノートイベントがノートオンかノートオフかを確認する。即ち、velが0より大きいかどうかを確認する(S204)。なお、S203において、tableS[nn]が0より小さい場合は他方のチャンネルの同一ナンバーのノートオン区間(非重複区間)は既に終了しているので、〔数式4〕に従った処理を実行せずにS204に進む。S204において、velが0より大きいと判断された場合には、2つのチャンネルが当該ノートイベントを起点に時間的に重複する区間が開始されると判断され、演算処理部12は、以下の〔数式5a〕〔数式5b〕〔数式5c〕のいずれかに従った重複区間のベロシティ演算処理を実行する(S205)。具体的には、差分処理の場合は〔数式5a〕、低強度選択処理の場合は〔数式5b〕、加算処理の場合は〔数式5c〕に従った処理を実行する。   When the processing according to [Formula 4] is executed, the arithmetic processing unit 12 confirms whether the note event of the channel ch to be processed is note-on or note-off. That is, it is confirmed whether or not vel is greater than 0 (S204). In step S203, if tableS [nn] is smaller than 0, the note-on interval (non-overlapping interval) of the same number of the other channel has already been completed, so the processing according to [Equation 4] is not executed. The process proceeds to S204. In S204, when it is determined that vel is greater than 0, it is determined that an interval in which two channels overlap in time starting from the note event is started, and the arithmetic processing unit 12 performs the following [Formula 5a] The velocity calculation processing of the overlapping section according to any one of [Formula 5b] and [Formula 5c] is executed (S205). Specifically, the processing according to [Formula 5a] is executed in the case of difference processing, [Formula 5b] in the case of low intensity selection processing, and [Formula 5c] in the case of addition processing.

〔数式5a〕
vel←|vel−EventW[tableW[1−ch,nn]].velocity|
tableW[ch,nn]←pw
[Formula 5a]
vel ← | vel-EventW [tableW [1-ch, nn]]. velocity |
tableW [ch, nn] ← pw

上記〔数式5a〕の2つの式のうち、第1式では、他方のチャンネルの同一ノートナンバーのノートイベントとのベロシティの差分を演算し、その差分をvelとしている。この第1式により重複区間の差分演算処理が行われたことになる。なお、この結果である差分velが0の場合は、ノートオフを示す0と区別するため、vel←−1とする処理を行う。第2式は、処理したノートナンバーが処理チャンネルのノートオン区間に入り、EventW[]において何番目のノートイベントでオンになったかを特定する処理である。   Of the two equations in [Formula 5a], in the first equation, the velocity difference from the note event of the same note number of the other channel is calculated, and the difference is vel. The difference calculation process of the overlapping section is performed by the first expression. When the difference vel, which is the result, is 0, a process of vel ← −1 is performed in order to distinguish it from 0 indicating note-off. The second equation is a process for specifying the note event in which the processed note number enters the note-on section of the processing channel and is turned on in EventW [].

〔数式5b〕
vel>EventW[tableW[1−ch,nn]].velocityの場合
vel←EventW[tableW[1−ch,nn]].velocity
常にtableW[ch,nn]←pw
[Formula 5b]
vel> EventW [tableW [1-ch, nn]]. In the case of velocities: vel ← EventW [tableW [1-ch, nn]]. velocity
Always tableW [ch, nn] ← pw

上記〔数式5b〕の2つの式のうち、第1式では、他方のチャンネルの同一ノートナンバーのノートイベントとベロシティを比較し、他方のチャンネルのベロシティが小さい場合に限り、velに他方のチャンネルのベロシティを与えている。この第1式により他方のチャンネルと処理チャンネルのうち、低強度の方の値がベロシティとして選択されることになる。第2式は、上記〔数式5a〕の第2式と同一であり、他方のチャンネルと処理チャンネルのベロシティの大小に係らず、常に実行される。   Of the two formulas in [Formula 5b], in the first formula, the note event of the same note number of the other channel is compared with the velocity, and only when the velocity of the other channel is small, vel is the other channel. Gives velocity. According to the first equation, the value of the lower intensity of the other channel and the processing channel is selected as the velocity. The second equation is the same as the second equation in [Expression 5a], and is always executed regardless of the velocity of the other channel and the processing channel.

〔数式5c〕
vel←vel+EventW[tableW[1−ch,nn]].velocity
tableW[ch,nn]←pw
[Formula 5c]
vel ← vel + EventW [tableW [1-ch, nn]]. velocity
tableW [ch, nn] ← pw

上記〔数式5c〕の2つの式のうち、第1式では、他方のチャンネルの同一ノートナンバーのノートイベントとのベロシティを加算し、その結果をvelとしている。この第1式により重複区間の加算演算処理が行われたことになる。なお、この結果である和velが127より大きい場合は、vel←127とする処理を行う。第2式は、〔数式5a〕〔数式5b〕の第2式と同一であり、処理したノートナンバーが処理チャンネルのノートオン区間に入り、EventW[]において何番目のノートイベントでオンになったかを特定する処理である。   Of the two formulas in [Formula 5c], in the first formula, the velocity with the note event of the same note number of the other channel is added, and the result is vel. The addition calculation process of the overlapping section is performed by the first expression. Note that if the resulting sum vel is greater than 127, the process of vel ← 127 is performed. The second equation is the same as the second equation in [Equation 5a] and [Equation 5b], and the processed note number enters the note-on section of the processing channel, and at which note event it is turned on in EventW []. Is the process of identifying

S204において、vel=0であると判断された場合には、2つのチャンネルで時間的に重複していた区間の一方のチャンネルchのノートイベントが終了すると判断され、演算処理部12は、以下の〔数式6a〕〔数式6b〕のいずれかに従った重複区間の終了処理を実行する(S206)。具体的には、低強度選択処理の場合は〔数式6a〕、差分処理、加算処理の場合は〔数式6b〕に従った処理を実行する。   In S204, when it is determined that vel = 0, it is determined that the note event of one channel ch in the section that overlapped in time in the two channels is ended, and the arithmetic processing unit 12 [Equation 6a] [Equation 6b] In accordance with one of [Equation 6b], an overlapping section end process is executed (S206). Specifically, the process according to [Formula 6a] is executed in the case of the low intensity selection process, the process according to [Formula 6b] is executed in the case of the difference process and the addition process.

〔数式6a〕
vel←−1
[Formula 6a]
vel ← -1

処理チャンネルのノートイベントはノートオフになり、ここで重複区間が終了し、非重複区間が開始されるが、低強度選択処理の場合は非重複区間のベロシティは一律0に設定される。ただし、ノートオフを示すベロシティ0とベロシティ0をもつノートオン区間とを区別するため、velに−1を与える。   The note event of the processing channel becomes note-off, where the overlapping section ends and the non-overlapping section starts, but in the low-intensity selection process, the velocity of the non-overlapping section is uniformly set to zero. However, in order to distinguish between a velocity 0 indicating note-off and a note-on section having velocity 0, -1 is given to vel.

〔数式6b〕
vel←EventW[tableW[1−ch,nn]].velocity
tableW[ch,nn]←−1
[Formula 6b]
vel <-EventW [tableW [1-ch, nn]]. velocity
tableW [ch, nn] ← −1

処理チャンネルのノートイベントはノートオフになり、ここで重複区間が終了し、他方のチャンネルのみの非重複区間が開始される。上記〔数式6b〕の第1式では、開始される非重複区間のベロシティとして、既にノートオンになっている他方のチャンネルのノートイベントのベロシティをvelに与える。第2式は、処理チャンネルにおけるノートナンバーnnについてノートオン区間が終了したことを示すための処理である。   The note event of the processing channel becomes note-off, where the overlapping section ends and the non-overlapping section of only the other channel starts. In the first equation of [Formula 6b], the velocity of the note event of the other channel that has already been turned on is given to vel as the velocity of the non-overlapping interval to be started. The second equation is a process for indicating that the note-on section has ended for the note number nn in the processing channel.

一方、S202において、他方のチャンネルがノートオフ、即ちtableW[1−ch,nn]が0より小さい場合は、同一ノートナンバーで他方のチャンネル側はノートオフ状態ではなく処理チャンネル側がノートオンになってもノートオフになっても重複することはないため、非重複区間の開始処理に進む(S207)。S207では、S204と同様な確認を行い、vel>0(ノートオン状態)の場合、演算処理部12は、tableW[ch,nn]←pwとし、vel=0(ノートオフ状態)の場合、tableW[ch,nn]←−1とする処理を実行する。低強度選択処理の場合は、さらに、vel>0であれば、vel←−1とする処理を実行する。   On the other hand, if the other channel is note-off in S202, that is, if tableW [1-ch, nn] is less than 0, the other channel side is not in the note-off state with the same note number, and the processing channel side is note-on. Since no overlap occurs even when the note is turned off, the process proceeds to a start process of a non-overlapping section (S207). In S207, the same confirmation as in S204 is performed. When vel> 0 (note-on state), the arithmetic processing unit 12 sets tableW [ch, nn] ← pw, and when vel = 0 (note-off state), tableW. A process of [ch, nn] ← −1 is executed. In the case of the low intensity selection process, if vel> 0, the process of vel ← −1 is executed.

処理チャンネルに対して、S205、S206、S207のいずれの処理が終了した場合には、出力ノートイベントの書き込みの処理を実行する(S214)。S214では、まず、tableS[nn]=−1かつvel>0、またはtableS[nn] >0かつvel=0の場合、以下の〔数式7〕に従った処理を実行し、出力用の配列EventS[]にノートオンイベントまたはノートオフイベントを生成する。ここで、条件となるtableS[nn]=−1かつvel>0は、そのノートナンバーnnがノートオフ状態であって、現在処理中のノートイベントが、ノートオンイベントであることを示している。また、もう一方の条件であるtableS[nn] >0かつvel=0は、既にそのノートナンバーnnがノートオン状態であって、現在処理中のノートイベントが、ノートオフイベントであることを示している。   When any process of S205, S206, and S207 is completed for the processing channel, an output note event writing process is executed (S214). In S214, first, if tableS [nn] = − 1 and vel> 0, or tableS [nn]> 0 and vel = 0, the processing according to the following [Equation 7] is executed, and the output array EventS Generate note-on event or note-off event in []. Here, the condition tableS [nn] = − 1 and vel> 0 indicates that the note number nn is in the note-off state, and the note event currently being processed is a note-on event. The other condition, tableS [nn]> 0 and vel = 0, indicates that the note number nn is already in a note-on state and the note event currently being processed is a note-off event. Yes.

〔数式9〕
EventS[ps].time←EventW[pw].time
EventS[ps].channel←0
EventS[ps].note−number←nn
EventS[ps].velocity←vel
vel>0の場合tableS[nn]←ps、vel=0の場合tableS[nn]←−1
ps←ps+1
[Formula 9]
EventS [ps]. time ← EventW [pw]. time
EventS [ps]. channel ← 0
EventS [ps]. note-number ← nn
EventS [ps]. velocity ← vel
If vel> 0, tableS [nn] ← ps, if vel = 0, tableS [nn] ← −1.
ps ← ps + 1

上記〔数式9〕の6つの式のうち、第1式、第2式、第3式、第6式は、上記〔数式4〕と同一である。〔数式4〕との違いは、velの値によりノートオフまたはノートオンの双方の場合があるため、第4式において、EventS[ps]のノートイベントのベロシティに現在処理中のベロシティまたは〔数式5〕〜〔数式8〕で補正したベロシティを代入している点である。これは、ノートオンまたはノートオフのいずれの可能性もあり、かつベロシティ値が補正される場合があるためである。第5式では、velの値に応じてtableS[nn]に設定する値が異なっている。vel=0の場合は、〔数式4〕と同様、−1を設定するが、vel>0の場合は、psの値を設定する。   Of the six formulas in [Formula 9], the first formula, the second formula, the third formula, and the sixth formula are the same as [Formula 4]. The difference from [Formula 4] is that there is a case of both note-off or note-on depending on the value of vel. Therefore, in the fourth formula, the velocity of the note event of EventS [ps] ] To [Velocity] corrected by [Equation 8]. This is because there is a possibility of note-on or note-off, and the velocity value may be corrected. In the fifth equation, the value set in tableS [nn] differs depending on the value of vel. When vel = 0, -1 is set as in [Formula 4], but when vel> 0, the value of ps is set.

S214におけるノートオン処理が終わったら、入力側のEventW[]の格納されている全てのノートイベントの処理が終わったかどうかを判断する(S215)。具体的には、pw←pw+1とした後、pw<Nwの場合、全てのノートイベントの処理が終わっていないため、S201に戻って次のノートイベントについての処理を実行する。pw≧Nwの場合、全てのノートイベントの処理が終わったことになるため、Ns←psとして、重複ノートオン区間処理を終了する。   When the note-on process in S214 is completed, it is determined whether or not all the note events stored in the event W [] on the input side have been processed (S215). Specifically, after setting pw ← pw + 1, if pw <Nw, the processing for all the note events is not completed, so the process returns to S201 to execute the processing for the next note event. In the case of pw ≧ Nw, since all the note events have been processed, the overlap note-on section processing is ended as Ns ← ps.

<0デュレーションイベント削除処理>
重複ノートオン区間処理が終了したら、演算処理部12は、0デュレーションイベント削除処理を行う(図2のS3)。重複ノートオン区間についての処理が終了すると、図7で作成された単一チャンネルのMIDIイベント配列EventS[]には、同一ノートナンバーで時間的にノートオン区間が重複するようなノートイベントが存在しなくなる。しかし、EventS[]には、ノートオンとノートオフが同一時刻となる0デュレーションのノートイベントが含まれている可能性がある。そこで、次に、0デュレーションのノートイベントを削除する処理を行う。
<0 duration event deletion process>
When the overlapping note-on section processing ends, the arithmetic processing unit 12 performs 0 duration event deletion processing (S3 in FIG. 2). When the processing for the overlapped note-on section is completed, the single-channel MIDI event array EventS [] created in FIG. 7 has a note event in which the note-on section overlaps in time with the same note number. Disappear. However, EventS [] may include a 0-duration note event in which note-on and note-off are at the same time. Therefore, next, a process of deleting a note event of 0 duration is performed.

この0デュレーションイベント削除処理の詳細を図8、9のフローチャートを用いて説明する。0デュレーションイベント削除処理に際して、演算処理部12は、削除処理後の出力する演算MIDIイベント配列をEventD[]として用意し、総ノートイベント数をNd[]とし、EventS[]、EventD[]の各配列へのポインタをps、pdとし、初期状態ではps=pd=0に設定する。また、EventD[]のChannel値は全て0に設定する。さらに、演算処理部12は、0〜127のノートナンバーに対応してノートオン時にMIDIイベント配列へのポインタを格納するノートオンテーブルtableS[]を定義する。そして、tableS[]の全ての初期値を−1に設定する。さらに、定量評価に使用するノートイベントの総エネルギーをEnergy、総デュレーションをDurationとし、初期値はEnergy=Duration=0とする(S301)。   Details of the 0 duration event deletion processing will be described with reference to the flowcharts of FIGS. In the 0 duration event deletion process, the arithmetic processing unit 12 prepares an operation MIDI event array to be output after the deletion process as EventD [], sets the total number of note events as Nd [], and sets EventS [] and EventD []. The pointers to the array are ps and pd, and ps = pd = 0 is set in the initial state. Also, the Channel values of EventD [] are all set to 0. Further, the arithmetic processing unit 12 defines a note-on table tableS [] that stores a pointer to a MIDI event array when a note is turned on, corresponding to note numbers from 0 to 127. Then, all initial values of tableS [] are set to -1. Further, the total energy of the note event used for the quantitative evaluation is Energy, the total duration is Duration, and the initial value is Energy = Duration = 0 (S301).

配列の準備ができたら、演算処理部12は、ポインタpsで特定されるイベント配列EventS[ps]を参照して、以下の〔数式10〕に従った処理を実行し、処理対象のノートナンバーnn、ベロシティvelを設定する(S302)。   When the array is ready, the arithmetic processing unit 12 refers to the event array EventS [ps] specified by the pointer ps, executes processing according to the following [Equation 10], and processes the note number nn to be processed. Then, the velocity vel is set (S302).

〔数式10〕
nn←EventS[ps].note−number
vel←EventS[ps].velocity
[Formula 10]
nn ← EventS [ps]. note-number
vel <-EventS [ps]. velocity

そして、当該イベントがノートオフ、即ちvel=0であるか否かを確認する(S303)。ノートオン、即ちvel=0でないと確認された場合には、以下の〔数式11〕に従った処理を実行する(S305)。   Then, it is confirmed whether or not the event is note-off, that is, vel = 0 (S303). If it is confirmed that note-on, that is, vel = 0 is not satisfied, processing according to the following [Equation 11] is executed (S305).

〔数式11〕
tableS[nn]←ps
[Formula 11]
tableS [nn] ← ps

一方、S303において、ノートオフ、即ちvel=0であると確認された場合には、まず、EventS[tableS[nn]].timeとEventS[ps].timeが一致するか、EventS[tableS[nn]].velocityが0より小さいかを確認し(S304)、少なくともいずれか一つの条件を満たす場合に限り、以下の〔数式12〕に従った処理を実行する(S306)。   On the other hand, when it is confirmed in S303 that note-off, that is, vel = 0, first, EventS [tableS [nn]]. time and EventS [ps]. time matches, EventS [tableS [nn]]. Whether or not the velocity is smaller than 0 is confirmed (S304), and only when at least one of the conditions is satisfied, the process according to the following [Equation 12] is executed (S306).

〔数式12〕
EventS[tableS[nn] ].note−number←−1
EventS[ps].note−number←−1
tableS[nn]←−1
[Formula 12]
EventS [tableS [nn]]. note-number ← -1
EventS [ps]. note-number ← -1
tableS [nn] ← −1

EventS[tableS[nn]].timeとEventS[ps].timeが一致する場合は、デュレーションが0であることを意味するので、そのノートイベントを削除できるようにマーキングする。また、EventS[tableS[nn]].velocityが0より小さい場合は、負値ベロシティイベント(ベロシティが0になるノートオン区間)であることを意味するので、そのノートイベントを削除できるようにするか、ベロシティ0をもつノートイベントを作成できるようにマーキングする。本実施形態では、上記〔数式12〕の第1式、第2式に示すように、そのノートイベントにノートナンバーとしては無効な負の値(−1)を設定している。S304において、EventS[tableS[nn]].timeとEventS[ps].timeが一致せず、EventS[tableS[nn]].velocityが0以上である有効なノートイベントと判断された場合には、上記〔数式12〕に従った処理は実行しない。代わりに、総エネルギー値と総デュレーション値の更新処理を実行する(S307)。具体的には、以下の〔数式13〕に従った処理を実行する。   EventS [tableS [nn]]. time and EventS [ps]. If the time matches, it means that the duration is 0, so that the note event is marked so that it can be deleted. Also, EventS [tableS [nn]]. When velocity is smaller than 0, it means a negative velocity event (note-on interval where velocity becomes 0), so that the note event can be deleted or a note event having velocity 0 can be created. Mark as follows. In this embodiment, as shown in the first and second formulas of [Formula 12], a negative value (−1) that is invalid as a note number is set for the note event. In S304, EventS [tableS [nn]]. time and EventS [ps]. time does not match, EventS [tableS [nn]]. If it is determined that the note event is a valid note event having a velocity of 0 or more, the process according to [Formula 12] is not executed. Instead, update processing of the total energy value and the total duration value is executed (S307). Specifically, the process according to the following [Formula 13] is executed.

〔数式13〕
Energy←Energy+EventS[tableS[nn]].velocity・(EventS[ps].time−EventS[tableS[nn]].time)
Duration←Duration+EventS[ps].time−EventS[tableS[nn]].time
[Formula 13]
Energy ← Energy + EventS [tableS [nn]]. velocity (EventS [ps] .time-EventS [tableS [nn]]. time)
Duration ← Duration + EventS [ps]. time-EventS [tableS [nn]]. time

上記〔数式13〕の第1式では、ノートオン区間のベロシティにデュレーションを乗じてエネルギー値を算出し、それまでに算出されている総エネルギー値に加算することにより、総エネルギー値Energyを更新している。上記〔数式13〕の第2式では、ノートオン区間のデュレーションを、それまで算出された総デュレーションに加算することにより、総デュレーション値Durationを更新している。S305〜S307のいずれかの処理が終了したら、psの値をインクリメントする(S308)。そして、ps<Nsであるかどうかを判断する(S309)。ps<Nsである場合は、S302に戻る。一方、ps≧Nsである場合は、全てのノートイベントについて処理したことを意味するので、総エネルギー値と総デュレーション値を出力し、出力イベント配列の生成に進む。結局、S302〜S309のループにおいては、デュレーションが0のノートイベント、ベロシティが負値であるノートイベントを削除し、総エネルギー値と総デュレーション値を算出する処理を実行していることになる。   In the first equation of [Equation 13], the energy value is calculated by multiplying the velocity of the note-on interval by the duration, and adding it to the total energy value calculated so far, thereby updating the total energy value Energy. ing. In the second equation of [Equation 13], the duration of the note-on interval is added to the total duration calculated so far, thereby updating the total duration value Duration. When any one of S305 to S307 is completed, the value of ps is incremented (S308). Then, it is determined whether or not ps <Ns (S309). If ps <Ns, the process returns to S302. On the other hand, when ps ≧ Ns, it means that all the note events have been processed, so the total energy value and the total duration value are output, and the process proceeds to generation of an output event array. After all, in the loop of S302 to S309, the note event whose duration is 0 and the note event whose velocity is negative are deleted, and the process of calculating the total energy value and the total duration value is executed.

全てのノートイベントに対する処理を実行し、デュレーション0のノートイベント・ベロシティが負値のノートイベントの削除、総エネルギー値と総デュレーション値の算出が行われたら、出力イベント配列の生成を行う。まず、ps=pd=0に設定する(S310)。続いて、ポインタpsで特定されるイベント配列EventS[ps]を読み込み(S311)、読み込まれたノートイベントが有効であるか、即ちEventS[ps].note−number≧0であるかどうかを確認する(S312)。そして、EventS[ps].note−number≧0である場合は、無効化されていないノートイベントであることを意味するので、以下の〔数式14〕に従った処理を実行し、出力イベント配列EventD[pd]に値を出力する(S313)。   When all note events are processed, note events whose duration 0 note event velocity is negative are deleted, and total energy values and total duration values are calculated, an output event array is generated. First, ps = pd = 0 is set (S310). Subsequently, the event array EventS [ps] specified by the pointer ps is read (S311), and whether the read note event is valid, that is, EventS [ps]. It is confirmed whether or not note-number ≧ 0 (S312). EventS [ps]. If note-number ≧ 0, it means a note event that has not been invalidated, so the processing according to the following [Equation 14] is executed and a value is output to the output event array EventD [pd] (S313).

〔数式14〕
EventD[pd].time←EventS[ps].time
EventD[pd].channel←0
EventD[pd].note−number←EventS[ps].note−number
EventD[pd].velocity←EventS[ps].velocity
pd←pd+1
[Formula 14]
EventD [pd]. time <-EventS [ps]. time
EventD [pd]. channel ← 0
EventD [pd]. note-number ← EventS [ps]. note-number
EventD [pd]. velocity ← EventS [ps]. velocity
pd ← pd + 1

S312において無効化されているノートイベントであると確認された場合を含め、入力イベント配列のポインタをインクリメントし(S314)、ps<Nsであるかどうかを確認する(S315)。ps<Nsである場合は、S311に戻る。一方、ps≧Nsである場合は、全てのノートイベントについて処理したことを意味するので、Nd←pdとする。さらに、総エネルギー値Energyを総デュレーション値Durationで除算することにより、単位時間あたりのベロシティEnergy/Durationを出力して、処理を終了する。   Including the case where it is confirmed that the note event is invalidated in S312, the pointer of the input event array is incremented (S314), and it is confirmed whether ps <Ns (S315). If ps <Ns, the process returns to S311. On the other hand, when ps ≧ Ns, it means that all the note events have been processed, so Nd ← pd. Further, by dividing the total energy value Energy by the total duration value Duration, the velocity Energy / Duration per unit time is output, and the process is terminated.

上記で生成されるMIDIイベント配列EventD[]を求める演算MIDIデータとして採用し、それをMIDI符号として出力する。   The calculated MIDI event array EventD [] generated as described above is adopted as the operation MIDI data, and is output as a MIDI code.

演算MIDIデータは、様々な形式で出力することができる。表示用のデータに変換して、表示部13に画面出力することも可能であるし、音響信号に変換して音響出力部14に音響出力することも可能であるし、そのまま記憶媒体等のデータ出力部15にSMF形式等によりデータ出力することも可能である。表示部13に画面出力するに際しては、特許文献5から特許文献7などに記載の公知の手法を用いることができ、ノートオンおよびノートオフをノートオン区間に変換して左右幅を決定し、ベロシティに対応する上下方向の幅を決定して矩形を生成し、対応するノートナンバーの位置に配置することにより、表示用データを生成し、表示部13に出力する。表示部13と音響出力部14に同時に出力した場合には、2種の音響信号を視覚的かつ聴覚的に評価することができる。   Arithmetic MIDI data can be output in various formats. It can be converted into display data and output on the screen to the display unit 13, or it can be converted into an acoustic signal and output to the acoustic output unit 14 as it is, or data on a storage medium or the like as it is. It is also possible to output data to the output unit 15 in the SMF format or the like. When the screen is output to the display unit 13, a known method described in Patent Document 5 to Patent Document 7 can be used, and note-on and note-off are converted into note-on intervals to determine the left and right widths, and the velocity By generating a rectangle by determining the width in the vertical direction corresponding to, and arranging it at the position of the corresponding note number, display data is generated and output to the display unit 13. In the case of simultaneous output to the display unit 13 and the sound output unit 14, two types of sound signals can be visually and audibly evaluated.

<聴覚マスキングデータの作成(マスカー音響信号の評価)(1)>
上記演算符号データの作成(符号データの演算処理)方法を用いて、聴覚マスキングデータを作成することができる。以下、本発明に係る聴覚マスキングデータの作成方法および装置を、2つの実施形態に基づいて説明する。図10は、本発明に係る聴覚マスキングデータ作成装置の一実施形態を示す機能ブロック図である。本実施形態における聴覚マスキングデータ作成装置は、図10に示すように、データ入力部21、演算処理部22、表示部23、音響出力部24、データ出力部25、符号データ作成部26を有すると共に、図示しないハードディスク等の記憶装置、指示入力を行うキーボード、マウス等の入力機器等を有しており、入出力機器が接続された汎用のコンピュータに専用のプログラムを組み込むことにより実現される。
<Creation of auditory masking data (evaluation of masker sound signal) (1)>
Auditory masking data can be created using the above-described computation code data creation (code data computation process) method. Hereinafter, a method and apparatus for generating auditory masking data according to the present invention will be described based on two embodiments. FIG. 10 is a functional block diagram showing an embodiment of an auditory masking data creation apparatus according to the present invention. As shown in FIG. 10, the auditory masking data creation device according to the present embodiment includes a data input unit 21, an arithmetic processing unit 22, a display unit 23, an acoustic output unit 24, a data output unit 25, and a code data creation unit 26. It has a storage device such as a hard disk (not shown), a keyboard for inputting instructions, an input device such as a mouse, and the like, and is realized by incorporating a dedicated program into a general-purpose computer to which an input / output device is connected.

図10において、データ入力部21は、聴覚マスキング効果の評価の対象であるマスカー原音音響信号、マスカー加工音響信号またはマスキー音響信号などの複数のWAV形式等(WAVはMicrosoft社の音響信号形式)の音響信号を入力するためのものである。続いて、符号データ作成部26は、入力された音響信号を特許文献4など公知の手法によりMIDIデータ等の符号データに変換するためのものである。後続の演算処理部22と同様に、CPU、メモリを有し、記憶装置から専用のプログラムをメモリ上に読み込んで実行することにより本機能を実現する。演算処理部22は、CPU、メモリを有し、記憶装置から専用のプログラムをメモリ上に読み込んで実行し、本発明の聴覚マスキングデータ作成装置の主要な機能を実現するものであり、演算処理部12の機能も備え、必要に応じて上述した符号データの演算処理も実行する。表示部23は、液晶ディスプレイ等の表示装置により実現され、演算処理部22により作成された聴覚マスキングデータを表示する。聴覚マスキングデータとしては、様々なものを用いることができるが、本実施形態では、マスキング対象成分の増分を聴覚マスキングデータとして用いている。音響出力部24は、MIDI音源、MIDIシーケンサ、アンプおよびスピーカにより実現され、演算処理部22により作成された演算符号データを音響出力する。データ出力部25は、MIDIデータ等の符号データをSMF形式などのデータ形式で出力するためのものである。   In FIG. 10, the data input unit 21 has a plurality of WAV formats such as a masker original sound signal, a masker processed sound signal, or a muskey sound signal that are targets for evaluation of the auditory masking effect (WAV is a sound signal format of Microsoft Corporation). This is for inputting an acoustic signal. Subsequently, the code data creation unit 26 is for converting the input acoustic signal into code data such as MIDI data by a known method such as Patent Document 4. Similar to the subsequent arithmetic processing unit 22, this function is realized by having a CPU and a memory and reading a dedicated program from the storage device into the memory and executing it. The arithmetic processing unit 22 has a CPU and a memory, reads a dedicated program from the storage device into the memory and executes it, and realizes the main functions of the auditory masking data creation device of the present invention. 12 functions are also provided, and the code data calculation process described above is also executed as necessary. The display unit 23 is realized by a display device such as a liquid crystal display, and displays auditory masking data created by the arithmetic processing unit 22. Various types of auditory masking data can be used. In this embodiment, the increment of the masking target component is used as the auditory masking data. The acoustic output unit 24 is realized by a MIDI sound source, a MIDI sequencer, an amplifier, and a speaker, and acoustically outputs the operation code data created by the operation processing unit 22. The data output unit 25 is for outputting code data such as MIDI data in a data format such as SMF format.

図11は、第1の実施形態に係る聴覚マスキングデータ作成方法の処理概要を示すフローチャートである。また、図13〜図20は、処理過程におけるMIDI符号データを表示部23に出力した状態を示す図である。図13〜図20においては、横軸が時間軸、縦軸が音の高さ(ノートナンバー)となっている。また、図13〜図20においては、各矩形がノートオン区間を示し、各矩形の横幅がノートオン区間の長さ(Durationに対応)、上下の幅がベロシティを示している。したがって、各矩形の面積がEnergyに対応している。
事前準備として、必要な符号データを作成する処理を行う。まず、会話音・騒音等のかき消される側の音であるマスキー音響信号、BGM等のかき消す側の音であるマスカー音響信号を用意し各々図10に示すデータ入力部21に入力され、それぞれ特許文献4など公知の手法により図10に示す符号データ作成部26においてMIDI符号化し、マスキーMIDI符号A、マスカー原音MIDI符号Bを得る(S15、S16)。マスキーMIDI符号A、マスカー原音MIDI符号Bをそれぞれ表示出力した状態を図17、図14に示す。また、図14と同一の楽曲について、MIDI打ち込みデータを表示出力した状態を図13に示す。さらに、マスカー音響信号に対しては、特許文献2または特許文献3に記載のマスキング効果強調処理を実行し(S17)、マスカー加工音響信号を得た後、同様に特許文献4など公知の手法によりMIDI符号化し(S18)、マスカー加工MIDI符号Cを得る。マスカー加工MIDI符号Cを表示出力した状態を図15に示す。
FIG. 11 is a flowchart showing a processing outline of the auditory masking data creation method according to the first embodiment. 13 to 20 are diagrams showing a state in which MIDI code data in the process is output to the display unit 23. 13 to 20, the horizontal axis represents the time axis and the vertical axis represents the pitch of the sound (note number). 13 to 20, each rectangle indicates a note-on interval, the horizontal width of each rectangle indicates the length of the note-on interval (corresponding to Duration), and the vertical width indicates velocity. Therefore, the area of each rectangle corresponds to Energy.
As advance preparation, processing for creating necessary code data is performed. First, a masky sound signal that is a sound to be erased such as conversation sound / noise and a masker sound signal that is a sound to be erased such as BGM are prepared and input to the data input unit 21 shown in FIG. The coded data creation unit 26 shown in FIG. 10 performs MIDI coding by a known method such as 4 to obtain a masky MIDI code A and a masker original sound MIDI code B (S15, S16). FIGS. 17 and 14 show the state in which the masky MIDI code A and the masker original sound MIDI code B are respectively displayed and output. Further, FIG. 13 shows a state in which MIDI input data is displayed and output for the same music as FIG. Furthermore, the masking effect enhancement processing described in Patent Document 2 or Patent Document 3 is performed on the masker acoustic signal (S17), and after obtaining the masker processed acoustic signal, similarly, a known technique such as Patent Document 4 is used. MIDI encoding (S18) is performed to obtain a masker-processed MIDI code C. FIG. 15 shows a state in which the masker machining MIDI code C is displayed and output.

本実施形態に係る聴覚マスキングデータ作成方法は、図11に示した各ステップ(各段階)の詳細な手順を記録したプログラムを、図10に示した聴覚マスキングデータ作成装置が実行することにより行われる。事前準備により用意されたマスキーMIDI符号A、マスカー原音MIDI符号B、マスカー加工MIDI符号Cが符号データ出力部26から出力されると、演算処理部22は、マスキーMIDI符号A、マスカー原音MIDI符号Bに対して、低強度選択モードによるMIDIデータの低強度選択演算を実行する(S11)。具体的には、マスキーMIDI符号A、マスカー原音MIDI符号データBを入力符号データとして、図1〜図3、図5、図7〜図9を用いて説明した演算符号データの作成方法を実行する。この際、重複ノートオン区間についてのベロシティの設定は、低強度選択により行う。すなわち、〔数式5b〕〔数式6a〕等に従った処理を実行し、ベロシティを設定することになる。S11における演算符号データ作成処理の結果、マスキング対象信号成分ABが得られる。上記図1〜図3、図5、図7〜図9を用いた説明から明らかなように、得られるマスキング対象信号成分ABも1チャンネル形式のMIDI符号データとなる。   The auditory masking data creation method according to the present embodiment is performed by the auditory masking data creation apparatus shown in FIG. 10 executing a program that records the detailed procedure of each step (each stage) shown in FIG. . When the masky MIDI code A, masker original sound MIDI code B, and masker-processed MIDI code C prepared in advance are output from the code data output unit 26, the arithmetic processing unit 22 outputs the maskee MIDI code A and masker original sound MIDI code B. On the other hand, the MIDI data low-intensity selection calculation in the low-intensity selection mode is executed (S11). Specifically, the operation code data creation method described with reference to FIGS. 1 to 3, 5, and 7 to 9 is executed using the masky MIDI code A and the masker original sound MIDI code data B as input code data. . At this time, the velocity for the overlapping note-on section is set by selecting a low intensity. That is, processing according to [Formula 5b] [Formula 6a] and the like is executed to set the velocity. As a result of the operation code data creation processing in S11, a masking target signal component AB is obtained. As is apparent from the description using FIGS. 1 to 3, 5, and 7 to 9, the obtained masking target signal component AB is also MIDI code data in a one-channel format.

さらに、演算処理部22は、符号データ出力部26から出力されたマスキーMIDI符号A、マスカー加工MIDI符号Cに対して、低強度選択モードによる演算符号データ作成処理を実行する(S12)。すなわち、図1〜図3、図5、図7〜図9を用いて説明した演算符号データの作成方法を実行し、重複ノートオン区間についての低強度選択によりベロシティの設定を行う。S11における処理とS12における処理は、入力データが異なるだけであり、処理自体は全く同一である。S12における演算符号データ作成処理の結果、マスキング対象信号成分ACが得られる。マスキング対象信号成分ACも、マスキング対象信号成分ABと同様、1チャンネル形式のMIDI符号データとなる。   Further, the arithmetic processing unit 22 executes arithmetic code data creation processing in the low-intensity selection mode on the maskee MIDI code A and the masker processed MIDI code C output from the code data output unit 26 (S12). That is, the operation code data creation method described with reference to FIGS. 1 to 3, 5, and 7 to 9 is executed, and the velocity is set by low-intensity selection for overlapping note-on intervals. The process in S11 and the process in S12 differ only in the input data, and the process itself is exactly the same. As a result of the operation code data creation processing in S12, a masking target signal component AC is obtained. Similarly to the masking target signal component AB, the masking target signal component AC is also MIDI code data in a one-channel format.

マスキング対象信号成分AB、マスキング対象信号成分ACが得られたら、演算処理部22は、マスキング対象信号成分AB、マスキング対象信号成分ACに対して、差分演算モードによる演算符号データ作成処理を実行する(S13およびS14)。具体的には、マスキング対象信号成分ABとマスキング対象信号成分ACを第1の入力符号データとして、マスカー原音MIDI符号Bとマスカー加工MIDI符号Cを第2の入力符号データとして、各々、図1〜図4、図7〜図9を用いて説明した演算符号データの作成方法を実行する。この際、重複ノートオン区間についてのベロシティの設定は、差分演算により行う。すなわち、〔数式5a〕〔数式6b〕等に従った処理を実行し、ベロシティを設定することになる。S13における演算符号データ作成処理の結果、差分MIDI符号ABCが得られ、S14における演算符号データ作成処理の結果、差分MIDI符号BCが得られる。上記図1〜図4、図7〜図9を用いた説明から明らかなように、得られる差分MIDI符号ABCおよび差分MIDI符号BCも1チャンネル形式のMIDI符号データとなる。   When the masking target signal component AB and the masking target signal component AC are obtained, the arithmetic processing unit 22 executes the calculation code data creation processing in the difference calculation mode on the masking target signal component AB and the masking target signal component AC ( S13 and S14). Specifically, the masking target signal component AB and the masking target signal component AC are set as the first input code data, and the masker original sound MIDI code B and the masker processed MIDI code C are set as the second input code data, respectively. The method of creating operation code data described with reference to FIGS. 4 and 7 to 9 is executed. At this time, the velocity for the overlapping note-on interval is set by difference calculation. That is, the processing according to [Formula 5a] [Formula 6b] is executed to set the velocity. As a result of the calculation code data creation process in S13, a differential MIDI code ABC is obtained, and as a result of the calculation code data creation process in S14, a differential MIDI code BC is obtained. As is clear from the description with reference to FIGS. 1 to 4 and FIGS. 7 to 9, the obtained differential MIDI code ABC and differential MIDI code BC are also MIDI code data in one channel format.

差分MIDI符号ABCは、S17のマスキング効果強調処理により強調されるマスキング効果の度合いを示す音響マスキングデータの差分量を与え、差分MIDI符号BCは、S17のマスキング効果強調処理に伴い品質劣化する信号成分を与え、各々、演算MIDIデータであるため、上述のように、様々な形式で出力しマスキング効果や品質劣化の度合いを評価することができる。表示用のデータに変換して、表示部23に画面出力することも可能であるし、音響信号に変換して音響出力部24に音響出力することも可能であるし、そのまま記憶媒体等のデータ出力部25にSMF形式等によりデータ出力することも可能である。表示部23に画面出力するに際しては、特許文献5から特許文献7などに記載の公知の手法を用いることができ、ノートオンおよびノートオフをノートオン区間に変換して左右幅を決定し、ベロシティに対応する上下方向の幅を決定して矩形を生成し、対応するノートナンバーの位置に配置することにより、表示用データを生成し、表示部23に出力する。マスキーMIDI符号A、マスカー原音MIDI符号B、マスカー加工MIDI符号Cを基に作成した差分MIDI符号ABCおよび差分MIDI符号BCを出力することにより、聴覚マスキング効果とそれに伴う品質劣化成分を客観的に判断することが可能となり、S17のマスキング効果強調処理における強調度合いの調整を効率良く行うことが可能になる。表示部23と音響出力部24に同時に出力した場合には、視覚的かつ聴覚的に評価することができる。表示部23においては、図20に示すような差分MIDI符号ABCと図16に示すような差分MIDI符号BCが出力されることになる。   The difference MIDI code ABC gives the difference amount of the acoustic masking data indicating the degree of the masking effect enhanced by the masking effect enhancement process of S17, and the difference MIDI code BC is a signal component whose quality deteriorates with the masking effect enhancement process of S17. Since each is a calculation MIDI data, it can be output in various formats as described above, and the degree of masking effect and quality degradation can be evaluated. It can be converted into display data and output to the display unit 23, or it can be converted into an acoustic signal and output to the acoustic output unit 24. It is also possible to output data to the output unit 25 in the SMF format or the like. When the screen is output to the display unit 23, a known method described in Patent Document 5 to Patent Document 7 can be used. Note-on and note-off are converted into note-on intervals to determine the left and right widths, and the velocity is changed. The vertical width corresponding to is determined to generate a rectangle, and the display data is generated and output to the display unit 23 by arranging the rectangle at the position of the corresponding note number. By outputting the difference MIDI code ABC and the difference MIDI code BC created based on the masky MIDI code A, the masker original sound MIDI code B, and the masker-processed MIDI code C, the auditory masking effect and the accompanying quality deterioration component can be objectively determined. Thus, the enhancement degree can be adjusted efficiently in the masking effect enhancement process in S17. In the case of simultaneous output to the display unit 23 and the sound output unit 24, visual and auditory evaluation can be performed. On the display unit 23, the differential MIDI code ABC as shown in FIG. 20 and the differential MIDI code BC as shown in FIG. 16 are output.

<聴覚マスキングデータの作成(マスカー音響信号の評価)(2)>
次に、第2の実施形態について説明する。第1の実施形態では、S11、S12において、単一のマスキーMIDI符号Aを用いて演算を行い、マスキング対象信号成分AB、ACを作成したが、第2の実施形態では、マスキーMIDI符号Aを+1または−1半音の範囲に拡張させて演算を行い、合算マスキング対象信号成分AB、ACを作成する。図12は、マスキーMIDI符号Aを+1または−1半音の範囲に拡張させて合算マスキング対象信号成分AB、ACを作成する処理の概要を示すフローチャートである。第1の実施形態と同様、事前準備として、必要な符号データを作成する処理を行う。図12では図11記載のマスキーMIDI符号A、マスカー原音MIDI符号B、マスカー加工MIDI符号Cが既に準備されているものとする。
<Preparation of auditory masking data (evaluation of masker sound signal) (2)>
Next, a second embodiment will be described. In the first embodiment, in S11 and S12, calculation is performed using a single masky MIDI code A to create the masking target signal components AB and AC. However, in the second embodiment, the masky MIDI code A is Calculation is performed with the range expanded to +1 or -1 semitone, and the sum masking target signal components AB and AC are created. FIG. 12 is a flowchart showing an outline of processing for creating the masking target signal components AB and AC by expanding the masky MIDI code A to the range of +1 or −1 semitone. As in the first embodiment, a process for creating necessary code data is performed as advance preparation. In FIG. 12, it is assumed that the Musky MIDI code A, the masker original MIDI code B, and the masker processed MIDI code C shown in FIG. 11 have already been prepared.

本実施形態に係る聴覚マスキングデータの作成方法は、図12に示した各ステップ(各段階)の詳細な手順を記録したプログラムを、図10に示した聴覚マスキングデータ作成装置が実行することにより行われる。事前準備により用意されたマスキーMIDI符号A、マスカー原音MIDI符号B、マスカー加工MIDI符号Cが符号データ作成部26から出力されると、演算処理部22は、マスキーMIDI符号Aに対して、1半音(1ステップのMIDIノートナンバーに相当)だけ高い方向にシフトする処理を行う(S21)。具体的には、マスキーMIDI符号A内の全イベントデータEvent[]について、その属性であるnote−numberに“1”だけ加算する処理を実行する。S21におけるシフト処理の結果、改変マスキーMIDI符号A1が得られる。改変マスキーMIDI符号A1は、マスキーMIDI符号Aに比べて全体に半音だけ高くなったデータとなる。   The auditory masking data creation method according to the present embodiment is performed by the auditory masking data creation apparatus shown in FIG. 10 executing a program that records the detailed procedure of each step (each stage) shown in FIG. Is called. When the masky MIDI code A, masker original sound MIDI code B, and masker-processed MIDI code C prepared in advance are output from the code data creation unit 26, the arithmetic processing unit 22 outputs one semitone with respect to the masky MIDI code A. A process of shifting in a higher direction (corresponding to one step MIDI note number) is performed (S21). Specifically, for all event data Event [] in the masky MIDI code A, a process of adding “1” to the note-number which is the attribute is executed. As a result of the shift processing in S21, the modified masky MIDI code A1 is obtained. The modified masky MIDI code A1 is data that is higher than the masky MIDI code A by a semitone overall.

続いて、演算処理部22は、マスキーMIDI符号Aに対して、1半音だけ低い方向にシフトする処理を行う(S21)。具体的には、マスキーMIDI符号A内の全イベントデータEvent[]について、その属性であるnote−numberに“1”だけ減算する処理を実行する。S22におけるシフト処理の結果、改変マスキーMIDI符号A2が得られる。改変マスキーMIDI符号A2は、マスキーMIDI符号Aに比べて全体に半音だけ低くなったデータとなる。   Subsequently, the arithmetic processing unit 22 performs a process of shifting the masky MIDI code A by one semitone downward (S21). Specifically, for all event data Event [] in the masky MIDI code A, a process of subtracting “1” from “note-number” as the attribute is executed. As a result of the shift processing in S22, the modified masky MIDI code A2 is obtained. The modified masky MIDI code A2 is data that is lower than the masky MIDI code A by a semitone overall.

次に、演算処理部22は、マスキーMIDI符号A、改変マスキーMIDI符号A1、改変マスキーMIDI符号A2、マスカー原音MIDI符号B、マスカー加工MIDI符号Cに対して、低強度選択モードによる演算符号データ作成処理を実行する(S23〜S25)。具体的には、マスキーMIDI符号Aとマスカー原音MIDI符号Bまたはマスカー加工MIDI符号C、を入力符号データとして、図1〜図3、図5、図7〜図9を用いて説明した演算符号データの作成方法を実行し、マスキング対象信号成分ABまたはマスキング対象信号成分ACを作成する(S23)。同様に、改変マスキーMIDI符号A1とマスカー原音MIDI符号Bまたはマスカー加工MIDI符号Cを入力符号データとして、マスキング対象信号成分AB1またはマスキング対象信号成分AC1を作成し(S24)、改変マスキーMIDI符号A2とマスカー原音MIDI符号Bまたはマスカー加工MIDI符号Cを入力符号データとして、マスキング対象信号成分AB2またはマスキング対象信号成分AC2を作成する(S25)。この際、重複ノートオン区間についてのベロシティの設定は、低強度選択により行う。すなわち、S11、S12と同様、〔数式5b〕〔数式6a〕等に従った処理を実行し、ベロシティを設定することになる。S23〜S25における演算符号データ作成処理の結果、マスキング対象信号成分AB、マスキング対象信号成分AB1、マスキング対象信号成分AB2、またはマスキング対象信号成分AC、マスキング対象信号成分AC1、マスキング対象信号成分AC2が得られる。上記図1〜図3、図5、図7〜図9を用いた説明から明らかなように、これら6種のマスキング対象信号成分はいずれも1チャンネル形式のMIDI符号データとなる。   Next, the calculation processing unit 22 generates calculation code data in the low-intensity selection mode for the masky MIDI code A, the modified masky MIDI code A1, the modified masky MIDI code A2, the masker original sound MIDI code B, and the masker processed MIDI code C. Processing is executed (S23 to S25). Specifically, the operation code data described with reference to FIGS. 1 to 3, 5, and 7 to 9, using the masky MIDI code A and the masker original sound MIDI code B or the masker-processed MIDI code C as input code data. The masking target signal component AB or the masking target signal component AC is generated (S23). Similarly, the masking target signal component AB1 or the masking target signal component AC1 is created by using the modified masky MIDI code A1 and the masker original sound MIDI code B or the masker processed MIDI code C as input code data (S24), and the modified masky MIDI code A2 Masking target signal component AB2 or masking target signal component AC2 is created using masker original sound MIDI code B or masker processed MIDI code C as input code data (S25). At this time, the velocity for the overlapping note-on section is set by selecting a low intensity. That is, similarly to S11 and S12, the processing according to [Formula 5b] [Formula 6a] is executed to set the velocity. As a result of the operation code data generation processing in S23 to S25, a masking target signal component AB, a masking target signal component AB1, a masking target signal component AB2, or a masking target signal component AC, a masking target signal component AC1, and a masking target signal component AC2 are obtained. It is done. As is apparent from the description using FIGS. 1 to 3, 5, and 7 to 9, all of these six types of masking target signal components are MIDI code data in one channel format.

マスキング対象信号成分AB、AB1、AB2またはマスキング対象信号成分AC、AC1、AC2が得られたら、演算処理部22は、マスキング対象信号成分ABとマスキング対象信号成分AB1またはマスキング対象信号成分ACとマスキング対象信号成分AC1に対して、加算演算モードによる演算符号データ作成処理を実行する(S26)。具体的には、マスキング対象信号成分ABとマスキング対象信号成分AB1またはマスキング対象信号成分ACとマスキング対象信号成分AC1を入力符号データとして、図1〜図3、図6〜図9を用いて説明した演算符号データの作成方法を実行する。この際、重複ノートオン区間についてのベロシティの設定は、加算演算により行う。すなわち、〔数式5c〕〔数式6b〕等に従った処理を実行し、ベロシティを設定することになる。S26における演算符号データ作成処理の結果、合算マスキング対象成分ABまたは合算マスキング対象成分ACが得られる。上記図1〜図3、図6〜図9を用いた説明から明らかなように、得られる合算マスキング対象成分ABまたは合算マスキング対象成分ACも1チャンネル形式のMIDI符号データとなる。   When the masking target signal components AB, AB1, AB2 or the masking target signal components AC, AC1, AC2 are obtained, the arithmetic processing unit 22 performs the masking target signal component AB and the masking target signal component AB1 or the masking target signal component AC and the masking target. An operation code data creation process in the addition operation mode is executed on the signal component AC1 (S26). Specifically, the masking target signal component AB and the masking target signal component AB1 or the masking target signal component AC and the masking target signal component AC1 are described as input code data with reference to FIGS. 1 to 3 and FIGS. 6 to 9. A method for creating operation code data is executed. At this time, the velocity for the overlapping note-on interval is set by an addition operation. That is, the processing according to [Formula 5c] and [Formula 6b] is executed to set the velocity. As a result of the operation code data creation process in S26, the sum masking target component AB or the sum masking target component AC is obtained. As is apparent from the description using FIGS. 1 to 3 and FIGS. 6 to 9, the obtained sum masking target component AB or the sum masking target component AC is also MIDI code data in a one-channel format.

次に、演算処理部22は、合算マスキング対象成分ABとマスキング対象信号成分AB2または合算マスキング対象成分ACとマスキング対象信号成分AC2に対して、加算演算モードによる演算符号データ作成処理を実行する(S27)。すなわち、図1〜図3、図6〜図9を用いて説明した演算符号データの作成方法を実行し、重複ノートオン区間についての加算演算によりベロシティの設定を行う。S26における処理とS27における処理は、入力データが異なるだけであり、処理自体は全く同一である。S27における演算符号データ作成処理の結果、新たな合算マスキング対象成分ABまたは合算マスキング対象成分ACが得られる。新たに得られた合算マスキング対象成分ABまたは合算マスキング対象成分ACも、1チャンネル形式のMIDI符号データとなる。本実施形態では、上下に1半音ずつシフトすることにより2つの改変マスキーMIDI符号を生成したが、さらにシフトした改変マスキーMIDI符号を生成し、それらを基に合算マスキング対象成分ACを作成するようにしても良い。   Next, the arithmetic processing unit 22 performs an operation code data generation process in the addition operation mode on the sum masking target component AB and the masking target signal component AB2 or the sum masking target component AC and the masking target signal component AC2 (S27). ). That is, the method for creating the operation code data described with reference to FIGS. 1 to 3 and FIGS. 6 to 9 is executed, and the velocity is set by the addition operation for the overlapping note-on interval. The process in S26 and the process in S27 differ only in the input data, and the process itself is exactly the same. As a result of the operation code data creation processing in S27, a new sum masking target component AB or sum masking target component AC is obtained. The newly obtained sum masking target component AB or sum masking target component AC is also MIDI code data in one channel format. In the present embodiment, two modified masky MIDI codes are generated by shifting one semitone up and down. However, a shifted modified masky MIDI code is generated, and a summed masking target component AC is generated based on these. May be.

合算マスキング対象成分ABまたは合算マスキング対象成分ACは、図11のマスキング対象成分ABまたはマスキング対象成分ACに対応し、図11に示される手法に比べ、各マスキング対象成分の算出を+1または−1半音の範囲に拡張させて高精度に算出するようにしたものである。従って、図11のマスキング対象成分ABまたはマスキング対象成分ACを図12の合算マスキング対象成分ABまたは合算マスキング対象成分ACに置換すれば、図11のS13およびS14に基づいて差分MIDI符号ABCおよび差分MIDI符号BCを高精度に算出することができ、高精度に視覚的かつ聴覚的に評価することができる。合算マスキング対象成分AB、合算マスキング対象成分ACをそれぞれ表示出力した状態を図18、図19に示す。   The total masking target component AB or the total masking target component AC corresponds to the masking target component AB or the masking target component AC in FIG. 11, and the calculation of each masking target component is +1 or −1 semitone compared to the method shown in FIG. In this way, the calculation is performed with high accuracy by extending the range. Therefore, if the masking target component AB or the masking target component AC in FIG. 11 is replaced with the total masking target component AB or the total masking target component AC in FIG. 12, the differential MIDI code ABC and the differential MIDI are based on S13 and S14 in FIG. The code BC can be calculated with high accuracy, and can be visually and audibly evaluated with high accuracy. FIGS. 18 and 19 show a state where the sum masking target component AB and the sum masking target component AC are displayed and output, respectively.

本発明は、聴覚マスキングを用いて会話音の秘匿化を行ったり、騒音の快音化を行ったりする際に、マスカー音に対して何らかの信号処理や改変を加え、それにより、マスキー音に対する秘匿化や快音化の効果を評価する産業に利用することができる。秘匿化としては、医療機関(調剤薬局などの受付カウンター)、金融機関・保険会社の相談カウンター、法律事務所などの面談室、携帯電話店のカウンター、会食に使われる飲食店などにおいて交わされる会話音声が待合室や他の面談室や座席に居る人々に聴取されないようにするものがある。快音化としては、トイレの***音などがトイレ内外に漏れることを低減したり、オフィス室内に設置される各種騒音源(コンピュータサーバー、プリンター・複写機、断裁機、空調機、送風機)より事務室に漏れる騒音の不快感を和らげ、騒音レベルを心理的に低減化する手法に関するものがある。   The present invention adds some signal processing or modification to the masker sound when concealing the conversation sound using auditory masking or making the noise pleasant, thereby concealing the masky sound. It can be used in industries that evaluate the effects of noise reduction. Concealment includes conversations at medical institutions (reception counters for dispensing pharmacies, etc.), consultation counters for financial institutions and insurance companies, interview rooms for law firms, counters for mobile phone stores, restaurants used for dinner, etc. There are things that prevent the voice from being heard by people in waiting rooms, other interview rooms and seats. To make the sound more comfortable, it is possible to reduce the excretion sound of the toilet from entering and exiting the toilet, or from various noise sources (computer server, printer / copier, cutting machine, air conditioner, blower) installed in the office room. There is a technique relating to a method for reducing the noise level and psychologically reducing noise discomfort.

11、21 データ入力部
12、22 演算処理部
13、23 表示部
14、24 音響出力部
15、25 データ出力部
16、26 符号データ作成部
11, 21 Data input unit 12, 22 Arithmetic processing unit 13, 23 Display unit 14, 24 Sound output unit 15, 25 Data output unit 16, 26 Code data generation unit

Claims (24)

聴覚マスキングにおけるマスキー音響信号、マスカー原音音響信号、マスカー加工音響信号の各々を符号化して得られたマスキー符号A、マスカー原音符号B、マスカー加工符号Cに対して、
前記マスキー符号Aと前記マスカー原音符号Bを用いて、低強度選択に基づく演算により、マスキング対象信号成分ABを作成するとともに、前記マスキー符号Aと前記マスカー加工符号Cを用いて、低強度選択に基づく演算により、マスキング対象信号成分ACを作成する低強度選択演算段階と、
前記マスキング対象信号成分ABおよび前記マスキング対象信号成分ACを用いて、差分演算に基づく演算により、聴覚マスキングデータとしてマスキング対象成分の増分ABCを作成するようにしている差分演算段階と、
を有することを特徴とする聴覚マスキングデータの作成方法。
With respect to the masky code A, the masker original sound code B, and the masker processed code C obtained by encoding each of the masky acoustic signal, masker original sound acoustic signal, and masker processed acoustic signal in auditory masking,
Using the masky code A and the masker original sound code B, the signal component AB to be masked is created by calculation based on the low strength selection, and the masking code A and the masker processed code C are used to select the low strength. A low-intensity selection calculation stage for creating a masking target signal component AC by calculation based on
A difference calculation step in which an incremental ABC of the masking target component is generated as auditory masking data by calculation based on the difference calculation using the masking target signal component AB and the masking target signal component AC;
A method of creating auditory masking data, comprising:
聴覚マスキングにおけるマスキー音響信号、マスカー原音音響信号、マスカー加工音響信号の各々を符号化して得られたマスキー符号A、マスカー原音符号B、マスカー加工符号Cに対して、
前記マスキー符号Aを構成する全ての音の高さに一律に所定のオフセット値を加え、複数通りのオフセット値に対応して、複数通りの改変マスキー符号A1、改変マスキー符号A2,...,を作成する符号データ改変段階と、
前記マスキー符号Aおよび前記複数通りの改変マスキー符号A1,...の各々と前記マスカー原音符号Bまたはマスカー加工符号Cを用いて、低強度選択に基づく演算により、複数通りのマスキング対象信号成分AB,マスキング対象信号成分AB1,...またはマスキング対象信号成分AC,マスキング対象信号成分AC1,..を作成している低強度選択演算段階と、
前記複数通りのマスキング対象信号成分AB,マスキング対象信号成分AB1,...またはマスキング対象信号成分AC,マスキング対象信号成分AC1,..どうしを各々の群内で2つずつ重複無く順次組み合わせ、加算演算に基づく演算により、合算マスキング対象信号成分ABまたは合算マスキング対象信号成分ACを作成するようにしている加算演算段階と、
前記マスキング対象信号成分ABおよび前記マスキング対象信号成分ACを用いて、差分演算に基づく演算により、聴覚マスキングデータとしてマスキング対象成分の増分ABCを作成するようにしている差分演算段階と、
を有することを特徴とする聴覚マスキングデータの作成方法。
With respect to the masky code A, the masker original sound code B, and the masker processed code C obtained by encoding each of the masky acoustic signal, masker original sound acoustic signal, and masker processed acoustic signal in auditory masking,
A predetermined offset value is uniformly added to the pitches of all the sounds constituting the masky code A, and a plurality of modified masky codes A1, modified masky codes A2,. . . Code data modification stage for creating
The masky code A and the plurality of modified masky codes A1,. . . , And the masker original sound code B or the masker processing code C, and a plurality of masking target signal components AB, masking target signal components AB1,. . . Or masking target signal component AC, masking target signal component AC1,. . Low strength selection calculation stage creating
The plurality of masking target signal components AB, masking target signal components AB1,. . . Or masking target signal component AC, masking target signal component AC1,. . An addition operation stage in which two are combined sequentially in each group without duplication, and an addition masking target signal component AB or an addition masking target signal component AC is created by an operation based on the addition operation;
A difference calculation step in which an incremental ABC of the masking target component is generated as auditory masking data by calculation based on the difference calculation using the masking target signal component AB and the masking target signal component AC;
A method of creating auditory masking data, comprising:
請求項1または請求項2において、
前記差分演算段階により得られたマスキング対象成分の増分ABCを表示手段に画面表示する段階、および/または前記マスキング対象成分の増分ABCを音響再生手段により音響再生する段階をさらに有することを特徴とする聴覚マスキングデータの作成方法。
In claim 1 or claim 2,
The method further comprises the step of displaying the increment ABC of the masking target component obtained by the difference calculation step on a display means and / or the step of reproducing the sound of the increment ABC of the masking target component by the sound reproducing means. How to create auditory masking data.
請求項1から請求項3のいずれか一項において、
前記マスキー符号A、マスカー原音符号B、マスカー加工符号Cは時系列に配置されたイベントデータで構成され、各イベントデータには、発音開始または発音終了の識別、時刻、音の高さ、チャンネル番号、音の強さの属性情報を備えた符号データであり、
前記差分演算に基づく演算は、
前記2つの符号データの各イベントデータに対して互いに異なるチャンネル番号を付与しながら、時刻が早い順にソートして、2つのチャンネル番号を有する1つの時系列な符号データに統合し、2チャンネル符号データを作成する符号データ統合段階と、
発音開始のイベントデータとそれに対応する同一の音の高さをもつ発音終了の2つのイベントデータの対で構成される区間を発音区間としたとき、前記2チャンネル符号データの中で、一方のチャンネルの発音区間が、同一の音の高さをもつ他方のチャンネルの発音区間と時間的に全てまたは一部が重複する場合に、両発音区間が重複する区間を、両発音区間の音の強さの差分値を新たな音の強さとする新たな発音区間を重複区間として生成し、前記重複する両発音区間のうち、重複しない区間については、前記重複区間を除く区間に元の音の強さを有する発音区間を生成する発音区間更新段階と、
前記発音区間更新段階にて更新された発音区間の各々の発音開始のイベントデータと発音終了のイベントデータを時系列にソートし、所定の形式で符号化する演算符号データ符号化段階と、
を有することを特徴とする聴覚マスキングデータの作成方法。
In any one of Claims 1-3,
The masky code A, the masker original sound code B, and the masker processed code C are composed of event data arranged in time series, and each event data includes the start / end of pronunciation, time, pitch, and channel number. , Code data with sound intensity attribute information,
The operation based on the difference operation is
While assigning different channel numbers to each event data of the two code data, they are sorted in the order from the earliest time and integrated into one time-series code data having two channel numbers. Code data integration stage to create,
When a section composed of a pair of event data for starting pronunciation and two corresponding event data for end of pronunciation having the same pitch is set as a pronunciation section, one channel of the two-channel code data If all or part of the sound production interval overlaps with the sound production interval of the other channel with the same pitch, the sound intensity of both sound production intervals A new sounding section having a new sound intensity as a difference value is generated as an overlapping section, and among the overlapping sounding sections, the non-overlapping section is the original sound intensity in the section excluding the overlapping section. A pronunciation interval update stage for generating a pronunciation interval having
An operation code data encoding step of sorting the event data of the sounding start and the event data of the sounding end of each sounding interval updated in the sounding interval update step in time series, and encoding in a predetermined format,
A method of creating auditory masking data, comprising:
請求項1から請求項4のいずれか一項において、
前記マスキー符号A、マスカー原音符号B、マスカー加工符号Cは時系列に配置されたイベントデータで構成され、各イベントデータには、発音開始または発音終了の識別、時刻、音の高さ、チャンネル番号、音の強さの属性情報を備えた符号データであり、
前記低強度選択に基づく演算は、
前記2つの符号データの各イベントデータに対して互いに異なるチャンネル番号を付与しながら、時刻が早い順にソートして、2つのチャンネル番号を有する1つの時系列な符号データに統合し、2チャンネル符号データを作成する符号データ統合段階と、
発音開始のイベントデータとそれに対応する同一の音の高さをもつ発音終了の2つのイベントデータの対で構成される区間を発音区間としたとき、前記2チャンネル符号データの中で、一方のチャンネルの発音区間が、同一の音の高さをもつ他方のチャンネルの発音区間と時間的に全てまたは一部が重複する場合に、両発音区間が重複する区間を、両発音区間の音の強さのいずれか小さい方の値を新たな音の強さとする新たな発音区間を重複区間として生成し、前記重複する両発音区間のうち、重複しない区間については、発音区間の音の強さを全て0に設定する発音区間更新段階と、
前記発音区間更新段階にて更新された発音区間の各々の発音開始のイベントデータと発音終了のイベントデータを時系列にソートし、所定の形式で符号化する演算符号データ符号化段階と、
を有することを特徴とする聴覚マスキングデータの作成方法。
In any one of Claims 1-4,
The masky code A, the masker original sound code B, and the masker processed code C are composed of event data arranged in time series, and each event data includes the start / end of pronunciation, time, pitch, and channel number. , Code data with sound intensity attribute information,
The operation based on the low intensity selection is:
While assigning different channel numbers to each event data of the two code data, they are sorted in the order from the earliest time and integrated into one time-series code data having two channel numbers. Code data integration stage to create,
When a section composed of a pair of event data for starting pronunciation and two corresponding event data for end of pronunciation having the same pitch is set as a pronunciation section, one channel of the two-channel code data If all or part of the sound production interval overlaps with the sound production interval of the other channel with the same pitch, the sound intensity of both sound production intervals A new sounding interval is generated as a new sound intensity with the smaller one of the two values as an overlapping interval, and among the overlapping sounding intervals, for all non-overlapping intervals, the sound intensity of the sounding interval is all The pronunciation interval update stage set to 0;
An operation code data encoding step of sorting the event data of the sounding start and the event data of the sounding end of each sounding interval updated in the sounding interval update step in time series, and encoding in a predetermined format,
A method of creating auditory masking data, comprising:
請求項1から請求項5のいずれか一項において、
前記マスキー符号A、マスカー原音符号B、マスカー加工符号Cは時系列に配置されたイベントデータで構成され、各イベントデータには、発音開始または発音終了の識別、時刻、音の高さ、チャンネル番号、音の強さの属性情報を備えた符号データであり、
前記加算演算に基づく演算は、
前記2つの符号データの各イベントデータに対して互いに異なるチャンネル番号を付与しながら、時刻が早い順にソートして、2つのチャンネル番号を有する1つの時系列な符号データに統合し、2チャンネル符号データを作成する符号データ統合段階と、
発音開始のイベントデータとそれに対応する同一の音の高さをもつ発音終了の2つのイベントデータの対で構成される区間を発音区間としたとき、前記2チャンネル符号データの中で、一方のチャンネルの発音区間が、同一の音の高さをもつ他方のチャンネルの発音区間と時間的に全てまたは一部が重複する場合に、両発音区間が重複する区間を、両発音区間の音の強さの和を新たな音の強さとする新たな発音区間を重複区間として生成し、前記重複する両発音区間のうち、重複しない区間については、一方のチャンネルの発音区間の音の強さを有する発音区間を生成する発音区間更新段階と、
前記発音区間更新段階にて更新された発音区間の各々の発音開始のイベントデータと発音終了のイベントデータを時系列にソートし、所定の形式で符号化する演算符号データ符号化段階と、
を有することを特徴とする聴覚マスキングデータの作成方法。
In any one of Claims 1-5,
The masky code A, the masker original sound code B, and the masker processed code C are composed of event data arranged in time series, and each event data includes the start / end of pronunciation, time, pitch, and channel number. , Code data with sound intensity attribute information,
The operation based on the addition operation is
While assigning different channel numbers to each event data of the two code data, they are sorted in the order from the earliest time and integrated into one time-series code data having two channel numbers. Code data integration stage to create,
When a section composed of a pair of event data for starting pronunciation and two corresponding event data for end of pronunciation having the same pitch is set as a pronunciation section, one channel of the two-channel code data If all or part of the sound production interval overlaps with the sound production interval of the other channel with the same pitch, the sound intensity of both sound production intervals A new sounding interval with the sum of the new sound intensity is generated as an overlapping interval, and among the overlapping sounding intervals, for the non-overlapping interval, the sounding having the sound intensity of the sounding interval of one channel A pronunciation interval update stage for generating intervals;
An operation code data encoding step of sorting the event data of the sounding start and the event data of the sounding end of each sounding interval updated in the sounding interval update step in time series, and encoding in a predetermined format,
A method of creating auditory masking data, comprising:
請求項4から請求項6のいずれか一項において、
前記発音区間更新段階は、前記重複区間の音の強さが0の場合、前記音の強さを0以外の1〜127の範囲で小さな値に変更することを特徴とする聴覚マスキングデータの作成方法。
In any one of Claims 4-6,
The sounding section update step is to create auditory masking data, wherein, when the sound intensity of the overlapping section is 0, the sound intensity is changed to a small value within a range of 1 to 127 other than 0. Method.
請求項4から請求項6のいずれか一項において、
前記発音区間更新段階は、前記重複区間の音の強さが0の場合、前記重複区間を符号化対象から削除することを特徴とする聴覚マスキングデータの作成方法。
In any one of Claims 4-6,
The method of creating auditory masking data, wherein, in the sounding section updating step, when the sound intensity of the overlapping section is 0, the overlapping section is deleted from the encoding target.
請求項4から請求項8のいずれか一項において、
前記演算符号データ符号化段階にて符号化された演算符号データに対して、発音開始のイベントデータとそれに対応する同一の音の高さをもつ発音終了の2つのイベントデータの対で構成される発音区間を抽出し、前記抽出された全ての発音区間の時間間隔(発音終了のイベントデータの時刻と発音開始のイベントデータの時刻との差)の総和値Duration、および前記抽出された全ての発音区間の音の強さと発音区間の時間間隔(発音終了のイベントデータの時刻と発音開始のイベントデータの時刻との差)との積の総和値Energyを算出し、総和値Energyを総和値Durationで除した値を前記演算符号データの評価値として出力するようにしていることを特徴とする聴覚マスキングデータの作成方法。
In any one of Claims 4-8,
For the operation code data encoded in the operation code data encoding step, the operation code data is composed of a pair of event data at the start of sound generation and two corresponding event data at the end of sound generation having the same pitch. A pronunciation interval is extracted, and the total value Duration of the time intervals of all the extracted pronunciation intervals (the difference between the time of event data at the end of pronunciation and the time of event data at the start of pronunciation), and all the extracted pronunciations The sum total value Energy of the product of the sound intensity of the section and the time interval of the sound generation section (difference between the time of the event data at the end of sound generation and the time of the event data at the start of sound generation) is calculated, and the sum value Energy is calculated as the sum value Duration. A method for creating auditory masking data, wherein the divided value is output as an evaluation value of the operation code data.
請求項4から請求項9のいずれか一項において、
前記演算符号データ符号化段階は、前記重複発音区間差分処理段階により得られた発音区間として、発音開始と発音終了の時刻が同一のものがある場合に、当該発音区間を構成するイベントデータを削除する処理をさらに行うことを特徴とする聴覚マスキングデータの作成方法。
In any one of Claims 4-9,
The operation code data encoding stage deletes event data constituting the sounding section when there is a sounding section obtained by the overlapping sounding section difference processing step having the same sounding start time and sounding end time. A method for creating auditory masking data, further comprising:
請求項4から請求項10のいずれか一項において、
前記符号データは、MIDIデータであり、前記発音開始の識別はノートオン、前記発音終了の識別はノートオフ、前記時刻はデルタタイム、前記音の高さはノートナンバー、前記音の強さはベロシティ、前記発音区間はノートオン区間で表現されることを特徴とする聴覚マスキングデータの作成方法。
In any one of Claims 4-10,
The code data is MIDI data, the start of sound identification is note-on, the end of sound generation is note-off, the time is delta time, the pitch is a note number, and the sound intensity is velocity. The method of creating auditory masking data, wherein the sounding interval is expressed as a note-on interval.
聴覚マスキングにおけるマスキー音響信号、マスカー原音音響信号、マスカー加工音響信号の各々を符号化して得られたマスキー符号A、マスカー原音符号B、マスカー加工符号Cを入力する手段と、
前記マスキー符号Aと前記マスカー原音符号Bを用いて、低強度選択に基づく演算により、マスキング対象信号成分ABを作成するとともに、前記マスキー符号Aと前記マスカー加工符号Cを用いて、低強度選択に基づく演算により、マスキング対象信号成分ACを作成する低強度選択演算手段と、
前記マスキング対象信号成分ABおよび前記マスキング対象信号成分ACを用いて、差分演算に基づく演算により、聴覚マスキングデータとしてマスキング対象成分の増分ABCを作成するようにしている差分演算手段と、
を有することを特徴とする聴覚マスキングデータの作成装置。
Means for inputting a masky code A, a masker original sound code B, and a masker processed code C obtained by encoding each of a masky acoustic signal, a masker original sound signal, and a masker processed sound signal in auditory masking;
Using the masky code A and the masker original sound code B, the signal component AB to be masked is created by calculation based on the low strength selection, and the masking code A and the masker processed code C are used to select the low strength. Low-intensity selection calculation means for creating a masking target signal component AC by calculation based on
A difference calculation means for creating an incremental ABC of the masking target component as auditory masking data by a calculation based on the difference calculation using the masking target signal component AB and the masking target signal component AC;
A device for creating auditory masking data, comprising:
聴覚マスキングにおけるマスキー音響信号、マスカー原音音響信号、マスカー加工音響信号の各々を符号化して得られたマスキー符号A、マスカー原音符号B、マスカー加工符号Cを入力する手段と、
前記マスキー符号Aを構成する全ての音の高さに一律に所定のオフセット値を加え、複数通りのオフセット値に対応して、複数通りの改変マスキー符号A1、改変マスキー符号A2,...,を作成する符号データ改変手段と、
前記マスキー符号Aおよび前記複数通りの改変マスキー符号A1,...の各々と前記マスカー原音符号Bまたはマスカー加工符号Cを用いて、低強度選択に基づく演算により、複数通りのマスキング対象信号成分AB,マスキング対象信号成分AB1,...またはマスキング対象信号成分AC,マスキング対象信号成分AC1,..を作成している低強度選択演算手段と、
前記複数通りのマスキング対象信号成分AB,マスキング対象信号成分AB1,...またはマスキング対象信号成分AC,マスキング対象信号成分AC1,..どうしを各々の群内で2つずつ重複無く順次組み合わせ、加算演算に基づく演算により、合算マスキング対象信号成分ABまたは合算マスキング対象信号成分ACを作成するようにしている加算演算手段と、
前記マスキング対象信号成分ABおよび前記マスキング対象信号成分ACを用いて、差分演算に基づく演算により、聴覚マスキングデータとしてマスキング対象成分の増分ABCを作成するようにしている差分演算手段と、
を有することを特徴とする聴覚マスキングデータの作成装置。
Means for inputting a masky code A, a masker original sound code B, and a masker processed code C obtained by encoding each of a masky acoustic signal, a masker original sound signal, and a masker processed sound signal in auditory masking;
A predetermined offset value is uniformly added to the pitches of all the sounds constituting the masky code A, and a plurality of modified masky codes A1, modified masky codes A2,. . . Code data modification means for creating
The masky code A and the plurality of modified masky codes A1,. . . , And the masker original sound code B or the masker processing code C, and a plurality of masking target signal components AB, masking target signal components AB1,. . . Or masking target signal component AC, masking target signal component AC1,. . Low strength selection calculation means creating
The plurality of masking target signal components AB, masking target signal components AB1,. . . Or masking target signal component AC, masking target signal component AC1,. . An addition operation means configured to sequentially combine two elements in each group without duplication and create the sum masking target signal component AB or the sum masking target signal component AC by an operation based on the addition operation;
A difference calculation means for creating an incremental ABC of the masking target component as auditory masking data by a calculation based on the difference calculation using the masking target signal component AB and the masking target signal component AC;
A device for creating auditory masking data, comprising:
請求項12または請求項13において、
前記差分演算手段により得られたマスキング対象成分の増分ABCを画面表示する表示手段、および/または前記マスキング対象成分の増分ABCを音響再生する音響再生手段をさらに有することを特徴とする聴覚マスキングデータの作成装置。
In claim 12 or claim 13,
The auditory masking data further comprises display means for displaying on the screen the increment ABC of the masking target component obtained by the difference calculation means, and / or sound reproduction means for acoustically reproducing the increment ABC of the masking target component. Creation device.
請求項12から請求項14のいずれか一項において、
前記マスキー符号A、マスカー原音符号B、マスカー加工符号Cは時系列に配置されたイベントデータで構成され、各イベントデータには、発音開始または発音終了の識別、時刻、音の高さ、チャンネル番号、音の強さの属性情報を備えた符号データであり、
前記差分演算に基づく演算は、
前記2つの符号データの各イベントデータに対して互いに異なるチャンネル番号を付与しながら、時刻が早い順にソートして、2つのチャンネル番号を有する1つの時系列な符号データに統合し、2チャンネル符号データを作成する符号データ統合手段と、
発音開始のイベントデータとそれに対応する同一の音の高さをもつ発音終了の2つのイベントデータの対で構成される区間を発音区間としたとき、前記2チャンネル符号データの中で、一方のチャンネルの発音区間が、同一の音の高さをもつ他方のチャンネルの発音区間と時間的に全てまたは一部が重複する場合に、両発音区間が重複する区間を、両発音区間の音の強さの差分値を新たな音の強さとする新たな発音区間を重複区間として生成し、前記重複する両発音区間のうち、重複しない区間については、前記重複区間を除く区間に元の音の強さを有する発音区間を生成する発音区間更新手段と、
前記発音区間更新手段にて更新された発音区間の各々の発音開始のイベントデータと発音終了のイベントデータを時系列にソートし、所定の形式で符号化する演算符号データ符号化手段と、
により実行されることを特徴とする聴覚マスキングデータの作成装置。
In any one of Claims 12-14,
The masky code A, the masker original sound code B, and the masker processed code C are composed of event data arranged in time series, and each event data includes the start / end of pronunciation, time, pitch, and channel number. , Code data with sound intensity attribute information,
The operation based on the difference operation is
While assigning different channel numbers to each event data of the two code data, they are sorted in the order from the earliest time and integrated into one time-series code data having two channel numbers. Code data integration means for creating
When a section composed of a pair of event data for starting pronunciation and two corresponding event data for end of pronunciation having the same pitch is set as a pronunciation section, one channel of the two-channel code data If all or part of the sound production interval overlaps with the sound production interval of the other channel with the same pitch, the sound intensity of both sound production intervals A new sounding section having a new sound intensity as a difference value is generated as an overlapping section, and among the overlapping sounding sections, the non-overlapping section is the original sound intensity in the section excluding the overlapping section. A pronunciation interval updating means for generating a pronunciation interval having
Operation code data encoding means for sorting event data of pronunciation start and event data of pronunciation end of each of the sound generation sections updated by the sound generation section update means in time series, and encoding in a predetermined format;
A device for creating auditory masking data, characterized in that it is executed by:
請求項12から請求項15のいずれか一項において、
前記マスキー符号A、マスカー原音符号B、マスカー加工符号Cは時系列に配置されたイベントデータで構成され、各イベントデータには、発音開始または発音終了の識別、時刻、音の高さ、チャンネル番号、音の強さの属性情報を備えた符号データであり、
前記低強度選択に基づく演算は、
前記2つの符号データの各イベントデータに対して互いに異なるチャンネル番号を付与しながら、時刻が早い順にソートして、2つのチャンネル番号を有する1つの時系列な符号データに統合し、2チャンネル符号データを作成する符号データ統合手段と、
発音開始のイベントデータとそれに対応する同一の音の高さをもつ発音終了の2つのイベントデータの対で構成される区間を発音区間としたとき、前記2チャンネル符号データの中で、一方のチャンネルの発音区間が、同一の音の高さをもつ他方のチャンネルの発音区間と時間的に全てまたは一部が重複する場合に、両発音区間が重複する区間を、両発音区間の音の強さのいずれか小さい方の値を新たな音の強さとする新たな発音区間を重複区間として生成し、前記重複する両発音区間のうち、重複しない区間については、発音区間の音の強さを全て0に設定する発音区間更新手段と、
前記発音区間更新手段にて更新された発音区間の各々の発音開始のイベントデータと発音終了のイベントデータを時系列にソートし、所定の形式で符号化する演算符号データ符号化手段と、
により実行されることを特徴とする聴覚マスキングデータの作成装置。
In any one of Claims 12-15,
The masky code A, the masker original sound code B, and the masker processed code C are composed of event data arranged in time series, and each event data includes the start / end of pronunciation, time, pitch, and channel number. , Code data with sound intensity attribute information,
The operation based on the low intensity selection is:
While assigning different channel numbers to each event data of the two code data, they are sorted in the order from the earliest time and integrated into one time-series code data having two channel numbers. Code data integration means for creating
When a section composed of a pair of event data for starting pronunciation and two corresponding event data for end of pronunciation having the same pitch is set as a pronunciation section, one channel of the two-channel code data If all or part of the sound production interval overlaps with the sound production interval of the other channel with the same pitch, the sound intensity of both sound production intervals A new sounding interval is generated as a new sound intensity with the smaller one of the two values as an overlapping interval, and among the overlapping sounding intervals, for all non-overlapping intervals, the sound intensity of the sounding interval is all Pronunciation interval update means to be set to 0;
Operation code data encoding means for sorting event data of pronunciation start and event data of pronunciation end of each of the sound generation sections updated by the sound generation section update means in time series, and encoding in a predetermined format;
A device for creating auditory masking data, characterized in that it is executed by:
請求項12から請求項16のいずれか一項において、
前記マスキー符号A、マスカー原音符号B、マスカー加工符号Cは時系列に配置されたイベントデータで構成され、各イベントデータには、発音開始または発音終了の識別、時刻、音の高さ、チャンネル番号、音の強さの属性情報を備えた符号データであり、
前記加算演算に基づく演算は、
前記2つの符号データの各イベントデータに対して互いに異なるチャンネル番号を付与しながら、時刻が早い順にソートして、2つのチャンネル番号を有する1つの時系列な符号データに統合し、2チャンネル符号データを作成する符号データ統合手段と、
発音開始のイベントデータとそれに対応する同一の音の高さをもつ発音終了の2つのイベントデータの対で構成される区間を発音区間としたとき、前記2チャンネル符号データの中で、一方のチャンネルの発音区間が、同一の音の高さをもつ他方のチャンネルの発音区間と時間的に全てまたは一部が重複する場合に、両発音区間が重複する区間を、両発音区間の音の強さの和を新たな音の強さとする新たな発音区間を重複区間として生成し、前記重複する両発音区間のうち、重複しない区間については、一方のチャンネルの発音区間の音の強さを有する発音区間を生成する発音区間更新手段と、
前記発音区間更新手段にて更新された発音区間の各々の発音開始のイベントデータと発音終了のイベントデータを時系列にソートし、所定の形式で符号化する演算符号データ符号化手段と、
により実行されることを特徴とする聴覚マスキングデータの作成装置。
In any one of Claims 12-16,
The masky code A, the masker original sound code B, and the masker processed code C are composed of event data arranged in time series, and each event data includes the start / end of pronunciation, time, pitch, and channel number. , Code data with sound intensity attribute information,
The operation based on the addition operation is
While assigning different channel numbers to each event data of the two code data, they are sorted in the order from the earliest time and integrated into one time-series code data having two channel numbers. Code data integration means for creating
When a section composed of a pair of event data for starting pronunciation and two corresponding event data for end of pronunciation having the same pitch is set as a pronunciation section, one channel of the two-channel code data If all or part of the sound production interval overlaps with the sound production interval of the other channel with the same pitch, the sound intensity of both sound production intervals A new sounding interval with the sum of the new sound intensity is generated as an overlapping interval, and among the overlapping sounding intervals, for the non-overlapping interval, the sounding having the sound intensity of the sounding interval of one channel Pronunciation interval update means for generating intervals;
Operation code data encoding means for sorting event data of pronunciation start and event data of pronunciation end of each of the sound generation sections updated by the sound generation section update means in time series, and encoding in a predetermined format;
A device for creating auditory masking data, characterized in that it is executed by:
請求項15から請求項17のいずれか一項において、
前記発音区間更新手段は、前記重複区間の音の強さが0の場合、前記音の強さを0以外の1〜127の範囲で小さな値に変更することを特徴とする聴覚マスキングデータの作成装置。
In any one of Claims 15-17,
The sounding section updating means changes the sound intensity to a small value within a range of 1 to 127 other than 0 when the sound intensity of the overlapping section is 0. Creation of auditory masking data apparatus.
請求項15から請求項17のいずれか一項において、
前記発音区間更新手段は、前記重複区間の音の強さが0の場合、前記重複区間を符号化対象から削除することを特徴とする聴覚マスキングデータの作成装置。
In any one of Claims 15-17,
When the sound intensity of the overlapping section is 0, the sounding section updating means deletes the overlapping section from the encoding target, and the auditory masking data creating apparatus is characterized in that:
請求項15から請求項19のいずれか一項において、
前記演算符号データ符号化段階にて符号化された演算符号データに対して、発音開始のイベントデータとそれに対応する同一の音の高さをもつ発音終了の2つのイベントデータの対で構成される発音区間を抽出し、前記抽出された全ての発音区間の時間間隔(発音終了のイベントデータの時刻と発音開始のイベントデータの時刻との差)の総和値Duration、および前記抽出された全ての発音区間の音の強さと発音区間の時間間隔(発音終了のイベントデータの時刻と発音開始のイベントデータの時刻との差)との積の総和値Energyを算出し、総和値Energyを総和値Durationで除した値を前記演算符号データの評価値として出力するようにしていることを特徴とする聴覚マスキングデータの作成装置。
In any one of claims 15 to 19,
For the operation code data encoded in the operation code data encoding step, the operation code data is composed of a pair of event data at the start of sound generation and two corresponding event data at the end of sound generation having the same pitch. A pronunciation interval is extracted, and the total value Duration of the time intervals of all the extracted pronunciation intervals (the difference between the time of event data at the end of pronunciation and the time of event data at the start of pronunciation), and all the extracted pronunciations The sum total value Energy of the product of the sound intensity of the section and the time interval of the sound generation section (difference between the time of the event data at the end of sound generation and the time of the event data at the start of sound generation) is calculated, and the sum value Energy is calculated as the sum value Duration. An apparatus for creating auditory masking data, wherein the divided value is output as an evaluation value of the operation code data.
請求項15から請求項20のいずれか一項において、
前記演算符号データ符号化手段は、前記重複発音区間差分処理手段により得られた発音区間として、発音開始と発音終了の時刻が同一のものがある場合に、当該発音区間を構成するイベントデータを削除する処理をさらに行うことを特徴とするマスキングデータの作成装置。
In any one of claims 15 to 20,
The operation code data encoding means deletes event data constituting the sounding section when there is a sounding section obtained by the overlapping sounding section difference processing means having the same sounding start time and sounding end time. An apparatus for creating masking data, further performing a process for performing the above-described process.
請求項15から請求項21のいずれか一項において、
前記符号データは、MIDIデータであり、前記発音開始の識別はノートオン、前記発音終了の識別はノートオフ、前記時刻はデルタタイム、前記音の高さはノートナンバー、前記音の強さはベロシティ、前記発音区間はノートオン区間で表現されることを特徴とする聴覚マスキングデータの作成装置。
In any one of Claims 15 to 21,
The code data is MIDI data, the start of sound identification is note-on, the end of sound generation is note-off, the time is delta time, the pitch is a note number, and the sound intensity is velocity. An apparatus for generating auditory masking data, wherein the pronunciation interval is expressed as a note-on interval.
請求項1から請求項11のいずれかに記載の聴覚マスキングデータの作成方法をコンピュータに実行させるためのプログラム。   The program for making a computer perform the production method of the auditory masking data in any one of Claims 1-11. 請求項12から請求項22のいずれかに記載の聴覚マスキングデータの作成装置としてコンピュータを機能させるためのプログラム。   A program for causing a computer to function as the auditory masking data creation device according to any one of claims 12 to 22.
JP2011044761A 2011-03-02 2011-03-02 Method and apparatus for creating auditory masking data Expired - Fee Related JP5857418B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011044761A JP5857418B2 (en) 2011-03-02 2011-03-02 Method and apparatus for creating auditory masking data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011044761A JP5857418B2 (en) 2011-03-02 2011-03-02 Method and apparatus for creating auditory masking data

Publications (2)

Publication Number Publication Date
JP2012181393A true JP2012181393A (en) 2012-09-20
JP5857418B2 JP5857418B2 (en) 2016-02-10

Family

ID=47012633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011044761A Expired - Fee Related JP5857418B2 (en) 2011-03-02 2011-03-02 Method and apparatus for creating auditory masking data

Country Status (1)

Country Link
JP (1) JP5857418B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014066804A (en) * 2012-09-25 2014-04-17 Yamaha Corp Method, device, and program for sound masking
JP2019052493A (en) * 2017-09-15 2019-04-04 株式会社Lixil Toilet sound blocker
US10754271B2 (en) 2017-01-04 2020-08-25 Powdertech Co., Ltd. Magnetic core material for electrophotographic developer, carrier for electrophotographic developer, and developer
US10996576B2 (en) 2017-01-04 2021-05-04 Powdertech Co., Ltd. Magnetic core material for electrophotographic developer, carrier for electrophotographic developer, and developer

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07143590A (en) * 1993-11-16 1995-06-02 Matsushita Electric Ind Co Ltd Sound reproducing device
JPH10500263A (en) * 1994-03-31 1998-01-06 セリディアン コーポレイション Apparatus and method for including and decoding a code in an audio signal
JP2007187748A (en) * 2006-01-11 2007-07-26 Matsushita Electric Ind Co Ltd Sound selective processing device
JP2008209703A (en) * 2007-02-27 2008-09-11 Yamaha Corp Karaoke machine
JP2009180757A (en) * 2008-01-29 2009-08-13 Yamaha Corp Electronic musical device and performance data editing display program
WO2010016589A1 (en) * 2008-08-08 2010-02-11 ヤマハ株式会社 Modulation device and demodulation device
JP2011033949A (en) * 2009-08-04 2011-02-17 Yamaha Corp Conversation leak preventing device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07143590A (en) * 1993-11-16 1995-06-02 Matsushita Electric Ind Co Ltd Sound reproducing device
JPH10500263A (en) * 1994-03-31 1998-01-06 セリディアン コーポレイション Apparatus and method for including and decoding a code in an audio signal
JP2007187748A (en) * 2006-01-11 2007-07-26 Matsushita Electric Ind Co Ltd Sound selective processing device
JP2008209703A (en) * 2007-02-27 2008-09-11 Yamaha Corp Karaoke machine
JP2009180757A (en) * 2008-01-29 2009-08-13 Yamaha Corp Electronic musical device and performance data editing display program
WO2010016589A1 (en) * 2008-08-08 2010-02-11 ヤマハ株式会社 Modulation device and demodulation device
JP2011033949A (en) * 2009-08-04 2011-02-17 Yamaha Corp Conversation leak preventing device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014066804A (en) * 2012-09-25 2014-04-17 Yamaha Corp Method, device, and program for sound masking
US10754271B2 (en) 2017-01-04 2020-08-25 Powdertech Co., Ltd. Magnetic core material for electrophotographic developer, carrier for electrophotographic developer, and developer
US10996576B2 (en) 2017-01-04 2021-05-04 Powdertech Co., Ltd. Magnetic core material for electrophotographic developer, carrier for electrophotographic developer, and developer
JP2019052493A (en) * 2017-09-15 2019-04-04 株式会社Lixil Toilet sound blocker
JP7145596B2 (en) 2017-09-15 2022-10-03 株式会社Lixil onomatopoeia

Also Published As

Publication number Publication date
JP5857418B2 (en) 2016-02-10

Similar Documents

Publication Publication Date Title
Kahrs et al. Applications of digital signal processing to audio and acoustics
Benson Music: a mathematical offering
Kawahara Half rhymes in Japanese rap lyrics and knowledge of similarity
JP5857418B2 (en) Method and apparatus for creating auditory masking data
KR101534346B1 (en) Music piece reproducing apparatus, music piece reproducing method and recording medium
JP2010054991A (en) Recording device
CN112289300B (en) Audio processing method and device, electronic equipment and computer readable storage medium
US10463281B2 (en) Hearing test method and system, readable record medium and computer program product
JP2014130251A (en) Conversation protection system and conversation protection method
Shimokura et al. Listening level of music through headphones in train car noise environments
JP4298612B2 (en) Music data processing method, music data processing apparatus, music data processing system, and computer program
Ferguson et al. Using psychoacoustical models for information sonification
JP2017138506A (en) Environmental sound generation device and environmental sound generation system using the same, environmental sound generation program, sound environment forming method and recording medium
EP3876226B1 (en) Method and device for automated harmonization of digital audio signals
JP6232710B2 (en) Sound recording device
JP4486051B2 (en) Karaoke BGM performance system
JP5644268B2 (en) Confidential data generating device, concealed data generating method, concealing device, concealing method and program
JP4775236B2 (en) Speech synthesizer
Williams Towards a timbre morpher
Gonzalez Euphonium Timbre: A Spectral Analysis of Different Mouthpiece Materials
Feng et al. New considerations for vowel nasalization based on separate mouth-nose recording
Mayas Creating with timbre
JP5849508B2 (en) BGM masking effect evaluation method and BGM masking effect evaluation apparatus
CN116907624A (en) Method for measuring and extracting key parameters of sound field of concert hall
JP2023020577A (en) masking device

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20130823

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151130

R150 Certificate of patent or registration of utility model

Ref document number: 5857418

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees