JP6677265B2 - 音響処理装置、及び音響処理方法 - Google Patents

音響処理装置、及び音響処理方法 Download PDF

Info

Publication number
JP6677265B2
JP6677265B2 JP2018041305A JP2018041305A JP6677265B2 JP 6677265 B2 JP6677265 B2 JP 6677265B2 JP 2018041305 A JP2018041305 A JP 2018041305A JP 2018041305 A JP2018041305 A JP 2018041305A JP 6677265 B2 JP6677265 B2 JP 6677265B2
Authority
JP
Japan
Prior art keywords
sound
unit
performance
processing unit
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018041305A
Other languages
English (en)
Other versions
JP2019158931A (ja
Inventor
正和 加藤
正和 加藤
崇 坂本
崇 坂本
英昭 竹久
英昭 竹久
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2018041305A priority Critical patent/JP6677265B2/ja
Priority to CN201910132962.5A priority patent/CN110248272B/zh
Priority to US16/288,564 priority patent/US10789917B2/en
Publication of JP2019158931A publication Critical patent/JP2019158931A/ja
Application granted granted Critical
Publication of JP6677265B2 publication Critical patent/JP6677265B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H3/00Instruments in which the tones are generated by electromechanical means
    • G10H3/12Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument
    • G10H3/14Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument using mechanically actuated vibrators with pick-up means
    • G10H3/146Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument using mechanically actuated vibrators with pick-up means using a membrane, e.g. a drum; Pick-up means for vibrating surfaces, e.g. housing of an instrument
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10DSTRINGED MUSICAL INSTRUMENTS; WIND MUSICAL INSTRUMENTS; ACCORDIONS OR CONCERTINAS; PERCUSSION MUSICAL INSTRUMENTS; AEOLIAN HARPS; SINGING-FLAME MUSICAL INSTRUMENTS; MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR
    • G10D13/00Percussion musical instruments; Details or accessories therefor
    • G10D13/01General design of percussion musical instruments
    • G10D13/06Castanets, cymbals, triangles, tambourines without drumheads or other single-toned percussion musical instruments
    • G10D13/063Cymbals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10DSTRINGED MUSICAL INSTRUMENTS; WIND MUSICAL INSTRUMENTS; ACCORDIONS OR CONCERTINAS; PERCUSSION MUSICAL INSTRUMENTS; AEOLIAN HARPS; SINGING-FLAME MUSICAL INSTRUMENTS; MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR
    • G10D13/00Percussion musical instruments; Details or accessories therefor
    • G10D13/10Details of, or accessories for, percussion musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • G10H1/06Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H3/00Instruments in which the tones are generated by electromechanical means
    • G10H3/12Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument
    • G10H3/14Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument using mechanically actuated vibrators with pick-up means
    • G10H3/143Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument using mechanically actuated vibrators with pick-up means characterised by the use of a piezoelectric or magneto-strictive transducer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/051Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or detection of onsets of musical sounds or notes, i.e. note attack timings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/045Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
    • G10H2230/251Spint percussion, i.e. mimicking percussion instruments; Electrophonic musical instruments with percussion instrument features; Electrophonic aspects of acoustic percussion instruments, MIDI-like control therefor
    • G10H2230/321Spint cymbal, i.e. mimicking thin center-held gong-like instruments made of copper-based alloys, e.g. ride cymbal, china cymbal, sizzle cymbal, swish cymbal, zill, i.e. finger cymbals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/025Envelope processing of music signals in, e.g. time domain, transform domain or cepstrum domain
    • G10H2250/031Spectrum envelope processing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/435Gensound percussion, i.e. generating or synthesising the sound of a percussion instrument; Control of specific aspects of percussion sounds, e.g. harmonics, under the influence of hitting force, hitting position, settings or striking instruments such as mallet, drumstick, brush, hand

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、音響処理装置、及び音響処理方法に関する。
近年、打音を消音した消音アコースティックドラムや電子ドラムなどの打楽器が使用されている。また、このような打楽器において、例えば、共振回路を利用して打撃の与え方に応じて、打音を変化させる技術が知られている(例えば、特許文献1を参照)。
特許第3262625号公報
しかしながら、上述した従来技術では、例えば、不自然な打音になる可能性があり、通常のアコースティックドラムのような表現力を再現することは困難であった。
本発明は、上記問題を解決すべくなされたもので、その目的は、楽器による演奏音の表現力を向上させることができる音響処理装置、及び音響処理方法を提供することにある。
上記問題を解決するために、本発明の一態様は、演奏操作によって楽器から生じた演奏
音を収音する収音部と、前記演奏操作の有無を検出するセンサ部と、前記センサ部が検出
した前記演奏操作の有無に応じて得られる操作情報に基づいて、前記収音部が収音した前
記演奏音と、音源音とを合成する合成処理部と、を備え、前記演奏音は、打楽器の打音であり、前記合成処理部は、前記打楽器が叩かれた打撃直後の所定の期間を示すアタック部分と、前記アタック部分後の期間を示すボディー部分との境界で、前記演奏音と、前記音源音とで切り替えて合成する音響処理装置である。
また、本発明の一態様は、上記の音響処理装置において、前記演奏音は、打楽器の打音であり、前記操作情報には、前記打楽器が叩かれた打撃の時間情報が含まれ、前記合成処理部は、前記打撃の時間情報に基づいて、前記収音部が収音した打音と、前記音源音とを合成するようにしてもよい。
また、本発明の一態様は、上記の音響処理装置において、前記操作情報には、前記打音の信号レベルが含まれ、前記合成処理部は、前記収音した打音の信号レベルに応じて、前記音源音を調整するようにしてもよい。
また、本発明の一態様は、上記の音響処理装置において、前記操作情報には、音の周波数領域でのエンベロープにおいて特徴的な凸状の頂点を示す特徴的な周波数が含まれ、前記合成処理部は、前記収音した打音の前記特徴的な周波数と、前記音源音の前記特徴的な周波数とが一致するように合成するようにしてもよい。
また、本発明の一態様は、上記の音響処理装置において、前記合成処理部は、前記収音部が収音した打音による打撃直後の所定の期間を示すアタック部分と、前記アタック部分後の期間を示すボディー部分であって、前記音源音によるボディー部分とを合成するようにしてもよい。
また、本発明の一態様は、上記の音響処理装置において、前記合成処理部は、前記音源音による打撃直後の所定の期間を示すアタック部分と、前記アタック部分後の期間を示すボディー部分であって、前記収音部が収音した打音によるボディー部分とを合成するようにしてもよい。
また、本発明の一態様は、上記の音響処理装置において、前記合成処理部は、前記アタック部分と前記ボディー部分との境界における音の大きさが一致するように、前記収音した打音と、前記音源音とを合成するようにしてもよい。
また、本発明の一態様は、上記の音響処理装置において、前記合成処理部は、前記アタック部分と前記ボディー部分とを不連続な音にならないようにクロスフェードさせて、前記収音した打音と、前記音源音とを合成するようにしてもよい。
また、本発明の一態様は、上記の音響処理装置において、前記音源音は、目標とする演奏音を示す目標演奏音に対して前記楽器の演奏音に足りない成分を補うように生成されていてもよい。
また、本発明の一態様は、上記の音響処理装置において、前記楽器の演奏音に足りない成分には、周波数成分が含まれるようにしてもよい。
また、本発明の一態様は、収音部が、演奏操作によって楽器から生じた演奏音を収音す
る収音ステップと、センサ部が、前記演奏操作の有無を検出する検出ステップと、合成処
理部が、前記検出ステップによって検出された前記演奏操作の有無に応じて得られる操作
情報に基づいて、前記収音ステップによって収音された前記演奏音と、音源音とを合成す
る合成処理ステップと、を含み、前記演奏音は、打楽器の打音であり、前記合成処理ステップにおいて、前記合成処理部は、前記打楽器が叩かれた打撃直後の所定の期間を示すアタック部分と、前記アタック部分後の期間を示すボディー部分との境界で、前記演奏音と、前記音源音とで切り替えて合成する音響処理方法ある。
本発明によれば、楽器による演奏音の表現力を向上させることができる。
第1実施形態による音響処理装置の一例を示すブロック図である。 通常のドラムにおける打音信号の波形の一例を説明する図である。 第1実施形態による音響処理装置の動作の一例を示す図である。 第1実施形態による音響処理装置の動作の一例を示すフローチャートである。 第2実施形態による音響処理装置の動作の一例を示すフローチャートである。 特定の周波数を一致させる合成の一例を説明する第1の図である。 特定の周波数を一致させる合成の一例を説明する第2の図である。 第3実施形態によるドラムの一例を示す図である。 第3実施形態による音響処理装置の動作の一例を示すフローチャートである。
以下、本発明の一実施形態による音響処理装置について、図面を参照して説明する。
[第1の実施形態]
図1は、第1の実施形態による音響処理装置1の一例を示すブロック図である。
図1に示すように、音響処理装置1は、センサ部11と、収音部12と、操作部13と、記憶部14と、出力部15と、合成処理部30とを備える。音響処理装置1は、ドラムなどの打楽器の打音に、例えば、PCM(Pulse Code Modulation)音源の音(以下、PCM音源音)と合成する音響処理を行って出力する。なお、本実施形態では、打楽器の一例として、ドラムセットのシンバル2の打音を音響処理する場合の一例について説明する。
シンバル2は、例えば、消音機能を有するドラムセットのライドシンバルやクラッシュシンバルなどである。
センサ部11は、シンバル2に設置され、シンバル2が叩かれた打撃の有無及び打撃の時間情報(例えば、打撃のタイミング)を検出する。センサ部11は、圧電センサなどの振動センサを備え、例えば、検出した振動が所定の閾値を超えた場合に、検出信号S1として、所定の期間、パルス信号を合成処理部30に出力する。
収音部12は、例えば、マイクロフォンであり、シンバル2の打音(楽器の演奏音)を収音する。収音部12は、収音した打音の音信号を示す打音信号S2を合成処理部30に出力する。
操作部13は、例えば、音響処理装置1の各種操作を受け付けるスイッチや操作つまみなどである。
記憶部14は、音響処理装置1の各種処理に利用する情報を記憶する。記憶部14は、例えば、PCM音源の音データ(以下、PCM音源データという)や、音響処理の設定情報などを記憶する。
出力部15は、不図示の外部装置(例えば、ヘッドフォンなどの放音装置)にケーブル等を介して接続される出力端子であり、外部装置にケーブル等を介して、合成処理部30から出力された音信号(合成信号S4)を出力する。
合成処理部30は、センサ部11が検出した打撃のタイミング(時間情報)に基づいて、収音部12が収音した打音と、PCM音源音とを合成する。ここで、打撃のタイミングは、演奏操作(打撃)の有無に応じて得られる演奏操作に関する操作情報の一例である。PCM音源音は、例えば、目標とする打音を示す目標打音(例えば、通常のドラムセットのシンバルの打音)に対して、シンバル2の打音に足りない成分を補うように予め生成されているものとする。また、足りない成分とは、例えば、周波数成分、時間変化の成分(過渡変化の成分)などである。ここで、目標打音は、目標とする演奏音を示す目標演奏音の一例である。
シンバル2の打音の場合、合成処理部30は、収音部12が収音した打音によるアタック部分と、PCM音源音によるボディー部分とを合成する。ここで、図2を参照して、通常のアコースティックドラム(例えば、シンバル)の打音の波形について説明する。
図2は、通常のドラムにおける打音信号の波形の一例を説明する図である。
この図において、横軸は時間を示し、縦軸は、信号レベル(電圧)を示している。また、波形W1は、打音信号の波形を示している。
波形W1は、打撃直後の所定の期間を示すアタック部分TR1と、アタック部分後の期間を示すボディー部分TR2とを含む。アタック部分TR1は、ライドシンバルである場合に、打撃開始から数十ms(ミリ秒)〜数百msの期間であり、クラッシュシンバルである場合に、打撃開始から約1s〜2sの期間である。また、アタック部分TR1では、打撃により様々な周波数成分が混在する。
また、ここでは、図2に示す波形W1は、例えば、目標とする打音を示す目標打音の信号波形である。
ボディー部分TR2は、所定の減衰率(所定のエンベロープ)で減衰する期間である。
なお、シンバル2などの消音機能を有する打楽器や電子打楽器では、例えば、ボディー部分TR2の音信号の信号レベルが、通常のシンバルの打音に比べて小さい傾向にある。そのため、本実施形態では、合成処理部30は、アタック部分TR1に収音部12が収音した打音を使用し、ボディー部分TR2にPCM音源音を使用して、合成する。
図1の説明に戻り、合成処理部30は、例えば、CPU(Central Processing Unit)やDSP(digital signal processor)などを含む信号処理部である。また、合成処理部30は、音源信号生成部31と、合成部32とを備える。
音源信号生成部31は、例えば、PCM音源の音信号を生成し、PCM音源音信号S3として合成部32に出力する。合成処理部30は、センサ部11が検出した打撃のタイミングである検出信号S1をトリガーとして、記憶部14に予め記憶されている音データを読み出す。音源信号生成部31は、読み出した音データに基づいて、PCM音源音信号S3を生成する。音源信号生成部31は、例えば、ボディー部分TR2のPCM音源音信号S3を生成する。
合成部32は、収音部12が収音した打音信号S2と、音源信号生成部31が生成したPCM音源音信号S3とを合成して、合成信号S4を生成する。合成部32は、例えば、センサ部11が検出した打撃のタイミングの検出信号S1に同期させて、アタック部分TR1の打音信号S2と、ボディー部分TR2のPCM音源音信号S3とを合成する。ここで、合成部32は、打音信号S2と、PCM音源音信号S3とを単純に加算して合成してもよいし、アタック部分TR1とボディー部分TR2との境界で、打音信号S2と、PCM音源音信号S3とを切り替えて合成してもよい。
なお、合成部32は、アタック部分TR1とボディー部分TR2との境界を、打撃のタイミングの検出信号S1から所定の期間経過した位置として検出してもよいし、打音信号S2の周波数成分の変化に基づいて当該境界を判定してもよい。例えば、合成部32は、ロウパスフィルタを備えて、所定の周波数成分以下になってピッチが安定した値を、アタック部分TR1とボディー部分TR2との境界として判定してもよい。また、合成部32は、操作部13によって設定された打撃のタイミングからの経過期間によって、アタック部分TR1とボディー部分TR2との境界を判定してもよい。
また、合成部32は、生成した合成信号S4を出力部15に出力する。
次に、図面を参照して、本実施形態による音響処理装置1の動作について説明する。
図3は、本実施形態による音響処理装置1の動作の一例を示す図である。
図3に示す信号は、上から順に、センサ部11の検出信号S1、収音部12が収音した打音信号S2、音源信号生成部31が生成したPCM音源音信号S3、及び合成部32が合成した合成信号S4を示している。また、各信号の横軸は、時間を示し、縦軸は、検出信号S1が論理状態を示し、その他の各信号は、信号レベル(電圧)を示している。
図3に示すように、時刻T0において、利用者がシンバル2を叩くと、センサ部11が検出信号S1をH(High)状態にする。また、収音部12は、シンバル2の打音を収音して、波形W2に示すような打音信号S2を出力する。
また、音源信号生成部31は、検出信号S1がH状態になったことをトリガーにして、記憶部14が記憶するPCM音源データに基づいて、波形W3に示すようなボディー部分TR2を含むPCM音源音信号S3を生成する。
また、合成部32は、検出信号S1がH状態になったことをトリガーにして、アタック部分TR1の打音信号S2と、ボディー部分TR2のPCM音源音信号S3とを合成して、波形W4に示すような合成信号S4を生成する。なお、合成部32は、例えば、打撃直後の所定の期間(時刻T0から時刻T1までの期間)をアタック部分TR1とし、時刻T1以降の期間をボディー部分TR2として、波形W2と波形W3とを合成する。
合成部32は、生成した波形W4の合成信号S4を、出力部15に出力する。そして、出力部15は、ケーブル等を介して、外部装置(例えば、ヘッドフォンなどの放音装置)に波形W4の合成信号の音を放音させる。
また、図4は、本実施形態による音響処理装置1の動作の一例を示すフローチャートである。
音響処理装置1は、操作部13の操作によって動作が開始されると、図4に示すように、まず、収音を開始する(ステップS101)。すなわち、収音部12が周囲の音の収音を開始する。
次に、音響処理装置1の合成処理部30は、打撃のタイミングを検出したか否かを判定する(ステップS102)。なお、利用者がシンバルを叩いた場合に、センサ部11は、打撃のタイミングを検出した検出信号S1を出力し、合成処理部30は、当該検出信号S1に基づいて、打撃のタイミングを検出する。合成処理部30は、打撃のタイミングを検出した場合(ステップS102:YES)に、処理をステップS103に進める。また、合成処理部30は、打撃のタイミングを検出していない場合(ステップS102:NO)に、処理をステップS102に戻す。
ステップS103において、合成処理部30の音源信号生成部31がPCM音源音信号を生成する。音源信号生成部31は、記憶部14が記憶するPCM音源データに基づいて、PCM音源音信号S3を生成する(図3の波形W2参照)。
次に、合成処理部30の合成部32は、収音した打音信号S2と、PCM音源音信号S3とを合成して出力する(ステップS104)。すなわち、合成部32は、打音信号S2と、PCM音源音信号S3とを合成して、合成信号S4を生成し、生成した合成信号S4を出力部15から出力させる(図3の波形W4参照)。
次に、合成処理部30は、処理終了であるか否かを判定する(ステップS105)。合成処理部30は、操作部13の操作によって動作が停止されたか否かによって、処理終了であるか否かを判定する。合成処理部30は、処理終了である場合(ステップS105:YES)に、処理を終了させる。また、合成処理部30は、処理終了でなお場合(ステップS105:NO)に、処理をステップS102に戻し、次の打撃のタイミングを待つ。
以上説明したように、本実施形態による音響処理装置1は、収音部12と、センサ部11と、合成処理部30と、を備える。収音部12は、ドラムセットのシンバル2(打楽器)の打音を収音する。センサ部11は、シンバル2が叩かれた打撃の時間情報(例えば、タイミング)を検出する。合成処理部30は、センサ部11が検出した打撃の時間情報に基づいて、収音部12が収音した打音と、音源音(例えば、PCM音源音)とを合成する。
これにより、本実施形態による音響処理装置1は、収音した打音と、PCM音源音とを合成することで、通常のアコースティックドラムのようなシンバルの音に近づけることができる。すなわち、本実施形態による音響処理装置1は、不自然な打音になる可能性を低減しつつ、通常のアコースティックドラムのような表現力を再現することができる。よって、本実施形態による音響処理装置1は、打楽器による打音の表現力を向上させることができる。
また、本実施形態による音響処理装置1は、収音した打音と、PCM音源音とを合成(例えば、加算)するだけで実現できるため、複雑な処理を必要とせずに、表現力を向上させることができる。また、本実施形態による音響処理装置1は、複雑な処理を必要としないため、リアルタイム処理により実現することができる。
また、本実施形態では、合成処理部30は、収音部12が収音した打音による打撃直後の所定の期間を示すアタック部分TR1と、PCM音源音によるボディー部分TR2とを合成する。ボディー部分TR2は、アタック部分TR1後の期間を示す。
これにより、本実施形態による音響処理装置1は、例えば、消音機能を有するシンバル2のようにボディー部分TR2の信号レベルが弱い場合に、PCM音源音により、ボディー部分TR2を強化することができる。よって、本実施形態による音響処理装置1は、消音機能を有するシンバル2のような打楽器において、ボディー部分TR2を自然な音に近づけることができる。
また、本実施形態では、PCM音源音は、目標とする打音を示す目標打音(図2の波形W1参照)に対してシンバル2の打音に足りない成分を補うように生成されている。ここで、打楽器の打音に足りない成分には、周波数成分と時間変化の成分とのうちの少なくとも1つの成分が含まれる。
これにより、本実施形態による音響処理装置1は、PCM音源音は、目標打音に対してシンバル2の打音に足りない成分を補うように生成されているため、合成処理部30が、当該PCM音源音と打音とを合成することで、目標打音(通常のアコースティックドラムの音)に近づけることができる。
また、本実施形態による音響処理方法は、収音ステップと、検出ステップと、合成処理ステップと、を含む。収音ステップにおいて、収音部12が、シンバル2の打音を収音する。検出ステップにおいて、センサ部11が、シンバル2が叩かれた打撃の時間情報を検出する。合成処理ステップにおいて、合成処理部30が、検出ステップによって検出された打撃の時間情報に基づいて、収音ステップによって収音された打音と、音源音とを合成する。
これにより、本実施形態による音響処理方法は、上述した音響処理装置1と同様の効果を奏し、打楽器による打音の表現力を向上させることができる。
[第2の実施形態]
上述した第1の実施形態では、打音信号S2と、PCM音源音信号S3とを単純に加算又は切り替えて合成する例を説明したが、第2の実施形態では、打音信号S2とPCM音源音信号S3とのいずれかを加工して合成する変形例について説明する。
なお、本実施形態による音響処理装置1の構成は、合成処理部30の処理が異なる点を除いて、第1の実施形態と同様である。以下、合成処理部30の処理について説明する。
本実施形態における合成処理部30では、合成処理部30又は合成部32が、収音部12が収音した打音の信号レベルに応じて、音源音を調整する。例えば、打音信号S2の信号レベルの最大値、又は所定の位置の信号レベルに応じて、音源信号生成部31が、PCM音源音信号S3の信号レベル、減衰率、及びエンベロープの少なくともいずれか1つを調整して出力する。そして、合成部32が、打音信号S2と、調整されたPCM音源音信号S3とを合成して、合成信号S4を生成し、出力部15を介して、自然な打音を出力する。なお、ここでの打音の信号レベルは、操作情報の一例である。
図5は、本実施形態による音響処理装置1の動作の一例を示すフローチャートである。
図5において、ステップS201からステップS203までの処理は、上述した図4のステップS101からステップS103までの処理と同様であるため、ここではその説明を省略する。
ステップS204において、音源信号生成部31又は合成部32は、PCM音源音信号S3を調整する(ステップS204)。例えば、音源信号生成部31は、打音信号S2の信号レベルに応じて、PCM音源音信号S3の信号レベル、減衰率、及びエンベロープの少なくともいずれか1つを調整して出力する。なお、合成部32が、ステップS204の処理を実行してもよい。
続く、ステップS205,及びステップS206の処理は、上述した図4のステップS104,及びステップS105の処理と同様であるため、ここではその説明を省略する。
なお、上述した例では、収音部12が収音した打音の信号レベルに応じて、PCM音源音を調整したが、合成処理部30は、アタック部分TR1とボディー部分TR2との境界が不自然にならないように調整するようにしてもよい。
例えば、合成処理部30は、アタック部分TR1とボディー部分TR2との境界における音の大きさが一致するように、収音した打音と、PCM音源音とを合成するようにしてもよい。この場合、合成処理部30又は合成部32が、例えば、収音したアタック部分TR1の打音信号S2に合わせて、境界における音の大きさが一致するように、ボディー部分TR2のPCM音源音信号S3を調整する。ここでの音の大きさは、例えば、音圧レベル、ラウドネス、音響エネルギー(音響インテンシティ)、及びSN比(Signal -Noise Ratio)などであり、人間が感じる音の大きさである。
なお、アタック部分TR1とボディー部分TR2との境界は、上述したように、打撃のタイミングの検出信号S1から所定の期間経過した位置であってもよいし、ロウパスフィルタを用いて、所定の周波数成分以下になってピッチが安定した位置であってもよい。また、所定の期間経過した位置は、操作部13によって設定された打撃のタイミングからの経過期間によって定められてもよい。
また、合成処理部30は、アタック部分TR1とボディー部分TR2とを不連続な音にならないようにクロスフェードさせて、収音した打音と、PCM音源音とを合成するようにしてもよい。この場合、例えば、合成処理部30は、アタック部分TR1である収音した打音の音響エネルギーを自然減衰より速い速度で減衰させるとともに、ボディー部分TR2であるPCM音源の音響エネルギーを増加させ、合成信号S4が自然減衰に合うように調整する。このようにすることで、合成処理部30は、時間領域での信号波形が不連続にならないように収音した打音と、PCM音源音とを合成することができる。
また、例えば、合成処理部30は、収音した打音のピッチと、PCM音源音のピッチとが一致するように合成するようにしてもよい。この場合、合成処理部30又は合成部32が、例えば、収音したアタック部分TR1の打音信号S2に合わせて、境界におけるピッチ(音の高さ、支配的な音高の整数倍音、特徴的な音高などの特定の周波数)が一致するように、ボディー部分TR2のPCM音源音信号S3を調整する。ここで、図6及び図7を参照して、境界におけるピッチを一致させる処理の詳細について説明する。
図6及び図7は、特定の周波数を一致させる合成の一例を説明する図である。
図6において、各グラフの横軸は、周波数であり、縦軸は、音響レベルである。また、エンベロープ波形EW1は、収音した打音の周波数領域におけるエンベロープ波形を示している。また、エンベロープ波形EW2は、PCM音源音の周波数領域におけるエンベロープ波形を示している。
また、周波数F1は、収音した打音の最も低域の特徴的な周波数であり、周波数F2、周波数F3、周波数F4に従って、高域の特徴的な周波数を示している。なお、周波数F2、周波数F3、及び周波数F4は、周波数F1の整数倍音の周波数である。ここで、特徴的な周波数とは、音の周波数領域でのエンベロープにおいて特徴的な凸状の頂点を示す周波数であり、操作情報(打撃情報)の一例である。
合成処理部30は、エンベロープ波形EW2に示すように、収音した打音とPCM音源音とが、これら特徴的な周波数の少なくとも1つが一致するように、PCM音源音を調整する。なお、図6に示す例では、合成処理部30は、エンベロープ波形EW1の特徴的な周波数(F1、F3)と、エンベロープ波形EW2の2つの特徴的な周波数とが一致するようにPCM音源音を調整する。このように、合成処理部30は、収音した打音の特徴的な周波数と、PCM音源音の特徴的な周波数とが一致するように合成する。
また、図7において、図6に示す例と同様に、各グラフの横軸は、周波数であり、縦軸は、音響レベルである。また、エンベロープ波形EW3は、収音した打音の周波数領域におけるエンベロープ波形を示している。また、エンベロープ波形EW4及びエンベロープ波形EW5は、PCM音源音の周波数領域におけるエンベロープ波形を示している。また、この図において、収音した打音の特徴的な周波数は、周波数F1、周波数F2、及び周波数F3である。
合成処理部30は、エンベロープ波形EW4に示すように、収音した打音の特徴的な周波数F1と、PCM音源音の特徴的な周波数が一致するように、PCM音源音を調整してもよい。また、合成処理部30は、エンベロープ波形EW5に示すように、収音した打音の特徴的な周波数F2と、PCM音源音の特徴的な周波数が一致するように、PCM音源音を調整してもよい。
なお、合成処理部30は、打音の信号レベルに応じて、PCM音源音の周波数を調整する場合に、例えば、予め打音の信号レベルに対応して特徴的な周波数が一致するように設定された調整テーブルに基づいて、PCM音源音の周波数を調整する。
以上説明したように、本実施形態による音響処理装置1では、合成処理部30は、収音した打音の信号レベルに応じて、PCM音源音を調整する。
これにより、本実施形態による音響処理装置1では、より自然な打音を出力することができ、シンバル2(打楽器)による打音の表現力を向上させることができる。
[第3の実施形態]
上述した第1及び第2の実施形態では、打楽器の一例として、ドラムセットのシンバル2の打音の表現力を向上させる例を説明したが、第3の実施形態では、シンバル2の代わりに図8に示すようなスネアドラム2aに対応させる変形例について説明する。
図8は、実施形態によるドラムの一例を示す図である。図8において、スネアドラム2aは、消音機能を有するドラムであり、ドラムヘッド21と、リム22(フープ)とを備えている。ドラムヘッド21が叩かれた打音は、上述したシンバル2とは異なり、アタック部分TR1の音信号の信号レベルが、通常のアコースティックドラム(通常のスネアドラム)の打音に比べて小さい傾向にある。
そのため、本実施形態では、合成処理部30は、アタック部分TR1にPCM音源音を使用し、ボディー部分TR2に収音部12が収音した打音を使用して、合成する。
なお、本実施形態による音響処理装置1の構成は、合成処理部30の処理が異なる点を除いて、第1の実施形態と同様である。以下、合成処理部30の処理を中心に、本実施形態による音響処理装置1の動作について説明する。
本実施形態における合成処理部30は、PCM音源音によるアタック部分TR1と、収音部12が収音した打音によるボディー部分TR2とを合成する。
ここで、図9を参照して、本実施形態による音響処理装置1の動作について、説明する。
図9は、本実施形態による音響処理装置1の動作の一例を示す図である。
図9に示す信号は、上から順に、センサ部11の検出信号S1、収音部12が収音した打音信号S2、音源信号生成部31が生成したPCM音源音信号S3、及び合成部32が合成した合成信号S4を示している。また、各信号の横軸は、時間を示し、縦軸は、検出信号S1が論理状態を示し、その他の各信号は、信号レベル(電圧)を示している。
図9に示すように、時刻T0において、利用者がスネアドラム2aのドラムヘッド21を叩くと、センサ部11が検出信号S1をH状態にする。また、収音部12は、ドラムヘッド21の打音を収音して、波形W5に示すような打音信号S2を出力する。
また、音源信号生成部31は、検出信号S1がH状態になったことをトリガーにして、記憶部14が記憶するPCM音源データに基づいて、波形W6に示すようなアタック部分TR1のPCM音源音信号S3を生成する。
また、合成部32は、検出信号S1がH状態になったことをトリガーにして、アタック部分TR1のPCM音源音信号S3と、ボディー部分TR2の打音信号S2とを合成して、波形W7に示すような合成信号S4を生成する。なお、合成部32は、例えば、打撃直後の所定の期間(時刻T0から時刻T1までの期間)をアタック部分TR1とし、時刻T1以降の期間をボディー部分TR2として、波形W6と波形W5とを合成する。
合成部32は、生成した波形W7の合成信号S4を、出力部15に出力する。そして、出力部15は、ケーブル等を介して、外部装置(例えば、ヘッドフォンなどの放音装置)に波形W7の合成信号の音を放音させる。
以上説明したように、本実施形態による音響処理装置1では、合成処理部30は、PCM音源音によるアタック部分TR1と、収音部12が収音した打音によるボディー部分TR2とを合成する。
これにより、本実施形態による音響処理装置1では、例えば、消音機能を有するスネアドラム2aのようにアタック部分TR1の信号レベルが弱い場合に、PCM音源音により、アタック部分TR1を強化することができる。よって、本実施形態による音響処理装置1は、消音機能を有するスネアドラム2aのような打楽器において、ボディー部分TR2を自然な音に近づけることができる。したがって、本実施形態による音響処理装置1では、上述した第1、及び第2の実施形態と同様に、打楽器による打音の表現力を向上させることができる。
なお、本発明は、上記の各実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、上記の各実施形態において、合成処理部30は、PCM音源音信号S3を、例えば、信号レベル、減衰率、エンベロープ、ピッチ、振幅、及び位相などを調整して、打音信号S2と合成する例を説明したが、これらに限定されるものではない。例えば、合成処理部30は、PCM音源音信号S3の周波数成分を調整及び加工するようにしてもよい。すなわち、合成処理部30は、時間信号波形だけでなく、周波数成分波形を加工するようにしてもよい。
また、合成処理部30は、打音信号S2とPCM音源音信号S3とを合成する際に、例えば、リバーブ、ディレイ、ディストーション、コンプレッサなどの音響効果を加えるようにしてもよい。
これにより、音響処理装置1は、例えば、特定の周波数成分を欠落させた音、残響成分を付加した音、及びエフェクト効果音などを打音に加えることができ、打音にバリエーションを持たせることができる。よって、音響処理装置1は、楽器による演奏音の表現力をさらに向上させることができる。
また、上記の第3の実施形態において、スネアドラム2aのドラムヘッド21の打音について対応する例を説明したが、リム22を叩くリムショットに対応させるようにしてもよい。合成処理部30は、リムショットの場合、上述したシンバル2と同様に、ボディー部分TR2にPCM音源音信号S3を使用する。また、音響処理装置1は、センサ部11による検出又は打音信号S2の形状などにより、ドラムヘッド21の打音であるか、リム22の打音であるか、を判定して、それぞれに対応する合成信号S4を出力するようにしてもよい。
すなわち、合成処理部30は、打音の種類に応じて、収音した打音と、PCM音源音との組み合わせを変更して(異なる組合せにより)合成してもよい。具体的には、合成処理部30は、ドラムヘッド21の打音である場合に、アタック部分TR1のPCM音源音信号S3と、ボディー部分TR2の打音信号S2とを合成する。そして、合成処理部30は、リム22の打音(リムショット)である場合に、アタック部分TR1の打音信号S2と、ボディー部分TR2のPCM音源音信号S3とを合成する。すなわち、合成処理部30は、アタック部分TR1のPCM音源音と、ボディー部分TR2の打音との組み合わせで合成する場合と、アタック部分TR1の打音と、ボディー部分TR2のPCM音源音との組み合わせで合成する場合とを切り替えて用いてもよい。これにより、音響処理装置1は、打音の表現力をさらに向上させることができる。
また、上記の各実施形態において、音響処理装置1は、打楽器の一例として、消音機能を有するドラムセットに使用する例を説明したが、これに限定されるものではなく、例えば、電子ドラムや、和太鼓などの他の種類の太鼓、等、他の打楽器に適用させてもよい。
また、上記の各実施形態において、音源信号生成部31は、PCM音源による音信号を生成する例を説明したが、他の音源による音信号を生成するようにしてもよい。
また、上記の各実施形態において、合成処理部30は、収音部12が収音した打音の信号レベルから、打音の信号レベルを検出する例を説明したがこれに限定されるものではなく、例えば、センサ部11の振動センサに検出値に基づいて、打音の信号レベルを検出するようにしてもよい。
また、上記の各実施形態において、出力部15は、出力端子である例を説明したが、アンプを備えて、合成信号S4を増幅できるようにしてもよい。
また、上記の各実施形態において、合成処理部30は、リアルタイムに打楽器の打音を処理して、合成信号S4を出力する例を説明したが、これに限定されるものではない。合成処理部30は、記録された検出信号S1及び打音信号S2に基づいて、合成信号S4を生成するようにしてもよい。すなわち、合成処理部30は、記録された打撃のタイミングに基づいて、収音部が収音して記録された打音と、PCM音源音とを合成するようにしてもよい。
また、上記の各実施形態において、音響処理装置1は、楽器の一例として、ドラムなどの打楽器に適用する例を説明したが、これに限定されるものではなく、弦楽器や管楽器などの他の楽器に適用するようにしてもよい。この場合、収音部12は、打音の代わりに、演奏操作によって楽器から生じた演奏音を収音し、センサ部11は、打撃の有無の代わりに、楽器に対する演奏操作の有無を検出する。
また、上記の図1において、センサ部11と合成処理部30との間に、楽器音を判定する判定部を備えるようにしてもよい。この場合、判定部は、例えば、機械学習によって楽器の種類を判定してもよいし、周波数分析によって、検出信号S1の周波数を判定し、当該周波数の判定結果に応じたPCM音源音を選択するようにしてもよい。
なお、上述の音響処理装置1は内部に、コンピュータシステムを有している。そして、上述した音響処理装置1の各処理過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。
1…音響処理装置、2…シンバル、2a…スネアドラム、11…センサ部、12…収音部、13…操作部、14…記憶部、15…出力部、21…ドラムヘッド、22…リム、30…合成処理部、31…音源信号生成部、32…合成部

Claims (11)

  1. 演奏操作によって楽器から生じた演奏音を収音する収音部と、
    前記演奏操作の有無を検出するセンサ部と、
    前記センサ部が検出した前記演奏操作の有無に応じて得られる操作情報に基づいて、前記収音部が収音した前記演奏音と、音源音とを合成する合成処理部と、
    を備え
    前記演奏音は、打楽器の打音であり、
    前記合成処理部は、前記打楽器が叩かれた打撃直後の所定の期間を示すアタック部分と、前記アタック部分後の期間を示すボディー部分との境界で、前記演奏音と、前記音源音とで切り替えて合成する
    響処理装置。
  2. 記操作情報には、前記撃の時間情報が含まれ、
    前記合成処理部は、前記打撃の時間情報に基づいて、前記収音部が収音した打音と、前記音源音とを合成する
    請求項1に記載の音響処理装置。
  3. 前記操作情報には、前記打音の信号レベルが含まれ、
    前記合成処理部は、前記収音した打音の信号レベルに応じて、前記音源音を調整する
    請求項1又は請求項2に記載の音響処理装置。
  4. 前記操作情報には、音の周波数領域でのエンベロープにおいて特徴的な凸状の頂点を示す特徴的な周波数が含まれ、
    前記合成処理部は、前記収音した打音の前記特徴的な周波数と、前記音源音の前記特徴的な周波数とが一致するように合成する
    請求項から請求項3のいずれか一項に記載の音響処理装置。
  5. 前記合成処理部は、前記収音部が収音した打音による前記アタック部分と、記音源音による前記ボディー部分とを切り替えて合成する
    請求項から請求項4のいずれか一項に記載の音響処理装置。
  6. 前記合成処理部は、前記音源音による前記アタック部分と、前記アタック部分後の期間を示すボディー部分であって、前記収音部が収音した打音による前記ボディー部分とを切り替えて合成する
    請求項から請求項4のいずれか一項に記載の音響処理装置。
  7. 前記合成処理部は、前記アタック部分と前記ボディー部分との境界における音の大きさが一致するように、前記収音した打音と、前記音源音とを合成する
    請求項1から請求項6のいずれか一項に記載の音響処理装置。
  8. 前記合成処理部は、前記アタック部分と前記ボディー部分とを不連続な音にならないようにクロスフェードさせて、前記収音した打音と、前記音源音とを合成する
    請求項から請求項7のいずれか一項に記載の音響処理装置。
  9. 前記音源音は、目標とする演奏音を示す目標演奏音に対して前記楽器の演奏音に足りない成分を補うように生成されている
    請求項1から請求項8のいずれか一項に記載の音響処理装置。
  10. 前記楽器の演奏音に足りない成分には、周波数成分が含まれる
    請求項9に記載の音響処理装置。
  11. 収音部が、演奏操作によって楽器から生じた演奏音を収音する収音ステップと、
    センサ部が、前記演奏操作の有無を検出する検出ステップと、
    合成処理部が、前記検出ステップによって検出された前記演奏操作の有無に応じて得られる操作情報に基づいて、前記収音ステップによって収音された前記演奏音と、音源音とを合成する合成処理ステップと、
    を含み、
    前記演奏音は、打楽器の打音であり、
    前記合成処理ステップにおいて、前記合成処理部は、前記打楽器が叩かれた打撃直後の所定の期間を示すアタック部分と、前記アタック部分後の期間を示すボディー部分との境界で、前記演奏音と、前記音源音とで切り替えて合成する
    響処理方法。
JP2018041305A 2018-03-07 2018-03-07 音響処理装置、及び音響処理方法 Active JP6677265B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018041305A JP6677265B2 (ja) 2018-03-07 2018-03-07 音響処理装置、及び音響処理方法
CN201910132962.5A CN110248272B (zh) 2018-03-07 2019-02-22 音响处理装置及音响处理方法
US16/288,564 US10789917B2 (en) 2018-03-07 2019-02-28 Sound processing device and sound processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018041305A JP6677265B2 (ja) 2018-03-07 2018-03-07 音響処理装置、及び音響処理方法

Publications (2)

Publication Number Publication Date
JP2019158931A JP2019158931A (ja) 2019-09-19
JP6677265B2 true JP6677265B2 (ja) 2020-04-08

Family

ID=67843400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018041305A Active JP6677265B2 (ja) 2018-03-07 2018-03-07 音響処理装置、及び音響処理方法

Country Status (3)

Country Link
US (1) US10789917B2 (ja)
JP (1) JP6677265B2 (ja)
CN (1) CN110248272B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017097214A (ja) * 2015-11-26 2017-06-01 ソニー株式会社 信号処理装置、信号処理方法及びコンピュータプログラム。
JP6677265B2 (ja) * 2018-03-07 2020-04-08 ヤマハ株式会社 音響処理装置、及び音響処理方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2586165B2 (ja) * 1990-02-22 1997-02-26 ヤマハ株式会社 楽音発生装置
JP3262625B2 (ja) * 1992-06-26 2002-03-04 株式会社コルグ 電子楽器
US5633474A (en) * 1993-07-02 1997-05-27 Sound Ethix Corp. Sound effects control system for musical instruments
US6756535B1 (en) * 1996-07-04 2004-06-29 Roland Corporation Electronic percussion instrumental system and percussion detecting apparatus therein
US6271458B1 (en) * 1996-07-04 2001-08-07 Roland Kabushiki Kaisha Electronic percussion instrumental system and percussion detecting apparatus therein
US7162046B2 (en) * 1998-05-04 2007-01-09 Schwartz Stephen R Microphone-tailored equalizing system
EP1298641B1 (en) * 2001-09-27 2009-02-18 Yamaha Corporation Simple electronic musical instrument, player's console and signal processing system incorporated therein
JP4144564B2 (ja) * 2004-05-25 2008-09-03 ヤマハ株式会社 電子ドラム
US7381885B2 (en) * 2004-07-14 2008-06-03 Yamaha Corporation Electronic percussion instrument and percussion tone control program
US7935881B2 (en) * 2005-08-03 2011-05-03 Massachusetts Institute Of Technology User controls for synthetic drum sound generator that convolves recorded drum sounds with drum stick impact sensor output
US9093057B2 (en) * 2013-09-03 2015-07-28 Luis Mejia All in one guitar
JP2015068912A (ja) * 2013-09-27 2015-04-13 ローランド株式会社 音源制御情報生成装置およびプログラム
JP6384261B2 (ja) 2014-10-17 2018-09-05 ヤマハ株式会社 ドラムシステム
JP6758042B2 (ja) * 2015-12-02 2020-09-23 ローランド株式会社 打楽器およびカホン
JP6520807B2 (ja) * 2016-04-20 2019-05-29 ヤマハ株式会社 収音装置および音響処理装置
JP6601303B2 (ja) * 2016-04-20 2019-11-06 ヤマハ株式会社 収音装置および音響処理装置
JP6631505B2 (ja) * 2016-12-29 2020-01-15 ヤマハ株式会社 電子楽器および電子楽器システム
US10056061B1 (en) * 2017-05-02 2018-08-21 Harman International Industries, Incorporated Guitar feedback emulation
JP7141217B2 (ja) * 2018-01-17 2022-09-22 ローランド株式会社 収音装置
JP6677265B2 (ja) * 2018-03-07 2020-04-08 ヤマハ株式会社 音響処理装置、及び音響処理方法

Also Published As

Publication number Publication date
US20190279604A1 (en) 2019-09-12
CN110248272A (zh) 2019-09-17
CN110248272B (zh) 2021-04-20
JP2019158931A (ja) 2019-09-19
US10789917B2 (en) 2020-09-29

Similar Documents

Publication Publication Date Title
US7429699B2 (en) Electronic musical instrument and recording medium that stores processing program for the electronic musical instrument
JP4144564B2 (ja) 電子ドラム
JP6677265B2 (ja) 音響処理装置、及び音響処理方法
CN111986638A (zh) 电子管乐器、乐音生成装置、乐音生成方法、记录介质
JP5245024B2 (ja) 電子ドラム
JP6421459B2 (ja) 楽音発生装置、電子楽器、楽音発生方法およびプログラム
JP2006284796A (ja) 楽音信号送信端末および楽音信号受信端末
JPS6296996A (ja) 電子打楽器
JP4855202B2 (ja) 電子鍵盤楽器
JP2006133697A (ja) 電子打楽器
JP5151603B2 (ja) 電子楽器
JP5265941B2 (ja) 電子楽器
US20240029692A1 (en) Sound output system
JPH0755596Y2 (ja) 電子打楽器の入力装置
JP2739414B2 (ja) 電子打楽器
JPH0695672A (ja) 電子打楽器
JP4274068B2 (ja) 電子打楽器およびプログラム
JP3295984B2 (ja) 電子楽器
JP2958778B2 (ja) 楽音発生装置
JP2596218B2 (ja) 楽音制御装置および打撃情報記憶装置
JP4073597B2 (ja) 電子打楽器装置
JP2805672B2 (ja) 楽音発生装置
JP3324165B2 (ja) 弦シンセサイザ
JP2014238552A (ja) 電子弦楽器、楽音制御方法及びプログラム
JP2006133530A (ja) 電子打楽器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190924

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200225

R151 Written notification of patent or utility model registration

Ref document number: 6677265

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151