JPH0869283A - 音楽セッション装置およびシステム - Google Patents

音楽セッション装置およびシステム

Info

Publication number
JPH0869283A
JPH0869283A JP6203244A JP20324494A JPH0869283A JP H0869283 A JPH0869283 A JP H0869283A JP 6203244 A JP6203244 A JP 6203244A JP 20324494 A JP20324494 A JP 20324494A JP H0869283 A JPH0869283 A JP H0869283A
Authority
JP
Japan
Prior art keywords
music
parameter
performance
listening
solo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP6203244A
Other languages
English (en)
Inventor
Haruhiro Katayose
晴弘 片寄
Tsutomu Kanamori
務 金森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IMEEJI JOHO KAGAKU KENKYUSHO
Original Assignee
IMEEJI JOHO KAGAKU KENKYUSHO
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IMEEJI JOHO KAGAKU KENKYUSHO filed Critical IMEEJI JOHO KAGAKU KENKYUSHO
Priority to JP6203244A priority Critical patent/JPH0869283A/ja
Publication of JPH0869283A publication Critical patent/JPH0869283A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

(57)【要約】 【構成】 音楽聴取部12,音楽生成部14および個性
データベース16を含む。音楽聴取部12の音楽プリミ
ティブ認識エージェント群18によって音楽プリミティ
ブ認識し、認識した音楽プリミティブから、個性データ
ベース16に設定された個性に応じて、各手段がテンシ
ョンパラメータTTV,音楽興味パラメータMIVおよ
びパートナ主張パラメータPIVを抽出する。音楽生成
部14では、これらのパラメータに応じて、ソロ/伴奏
パターンを生成し、その生成を制御する。 【効果】 各パラメータの導入によって音楽的コミュニ
ケーションが可能となるとともに、個性データベースか
ら個性プロファイルが与えられので、音楽的に違和感の
ない個性豊かな音楽セッションが実現できる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は音楽セッション装置に
関し、特にたとえば、音楽セッションにおける演奏をリ
アルタイムで合成する、音楽セッション装置およびシス
テムに関する。
【0002】
【従来の技術】音楽は、従来、リアルタイム性をもった
時間芸術であったが、レコードや音楽テープなどの普及
によって、音楽は記録され得るものであるという認識が
定着した。コンピュータ音楽においても、元来はテープ
を用いたものが中心であったが、近年のエレクトロニク
スの進歩発展に伴って、ライブ性、すなわちリアルタイ
ムでの人間の介在という方向が再認識されるに至ってい
る。音楽分野における人間と機械とのインタラクション
(Interaction) に関するアプローチは、大きく、インタ
ラクティブコンポージングシステム,自動伴奏システ
ム,および音楽セッションシステムに分けることができ
る。
【0003】インタラクティブコンポージングシステム
とは、コンピュータ内にアルゴリズムをもたせ、人間と
機械との相互作用によって作曲できるようにしたシステ
ムである。自動伴奏システムとは、コンピュータが予め
楽譜データをもっていて、人間の演奏表現やミスの入っ
たソリスト演奏に対し、追随する伴奏を行うシステムで
ある。
【0004】他方、この発明が向けられる音楽セッショ
ンシステムとは、複数の人間が音楽を演奏し、即興性を
楽しむセッションという形態を模擬するシステムの構築
を目指すものである。音楽セッションシステムと自動伴
奏システムとの大きな相違は、楽譜データに対する依存
度であり、前者においては、リアルタイムでの音楽認
識、および演奏生成をどのように実現するかが課題であ
る。
【0005】たとえばNishizima M. and Kijima Y. "Le
arning on Sense of Rythm with aNeaural Network- Th
e NEAURO DRUMMER", Proc. ICMPC, (October 1989) ,
およびNishizima M. and Watanabe K. "Interactive Mu
sic Composer based on Naural Networks", Proc. ICMP
C, pp53-56(1992) に開示されているニューロミュージ
シャンは、ニューラルネットワークを用いて、ドラムス
の掛け合い、およびキーボード(鍵盤楽器)の掛け合い
を実現している。両者とも、前半に相当する演奏部,お
よびその応答に相当する後半部のセットを、それぞれ、
ニューラルネットワークの入力部,および出力部として
学習させ、そのモデルを用いて掛け合いを行う。複数の
演奏パターンにおける補間が一種の創造となることが主
張されている。しかしながら、学習セットに使われたメ
ロディに対して和声部の制約が暗黙的に使われているこ
とや、個性等を扱う際にはそれぞれのデータ例で一から
学習させなければならないという拡張性に関する問題、
すなわち内部がブラックボックス的に扱われていること
に帰する問題をもっている。
【0006】内部モデルを考慮したシステムとしては、
Rowe R.: "Machine listening andcomposing with Cyph
er", CMJ, Vol.16 No.1, pp43-63(Spring 1992)やPenny
cook B. et al.: "Toward a ComputerModel of a Jazz
Improviser", Proc. ICMC,pp228-231(1993) に開示され
ている、Cypherというシステムが知られている。
このシステムはリスナ部とプレイヤ部とからなり、リス
ナ部においてはマルチエージェントモデルを用いて音の
密度,音域,強弱等の他、コード,フレーズ等の認識が
行われる。ユーザはリスナ部で得られた認識結果に対し
て、シーケンスデータの演奏,作曲プログラムの呼出
し,および入力されたMIDI信号の直列的加工の3種
からなる応答の仕方を定義付けて、外部からの演奏に応
じた反応を行う。Cypherはインタラクティブコン
ポージングを目指したシステムであり、セッションにお
けるメッセージの伝達や制御に関してはあまり触れられ
ていない。
【0007】ジャズセッションにおける感性的な反応に
主眼おいたシステムとしては、和気他.「演奏者の感情
を考慮した協調型演奏システム−JASPER」,音楽
情報科学研究会夏のシンポジウム予稿集、pp43-46(198
9) がある。JASPERは、12小節ブルースを対象
とし、ピアノのソロに対し、ドラムス,およびベースの
伴奏をコンピュータが行うシステムである。ピアノ演奏
の音域,強弱,および音数から、演奏者の盛り上がりに
相当するテンションパラメータを選択し、さらにテンシ
ョンパラメータが低い状態が続いたときには、伴奏パタ
ーンに変化を与えるという形で応答性を実現している。
【0008】
【発明が解決しようとする課題】上述のJASPER
は、感性的な情報を考慮した興味深いシステムである
が、たとえば激しい演奏さえすれば音楽的に意味のない
場合でも同様の答えが出てしまう。これは、制御変数を
全てテンションパラメータという一次元的な信号にまで
落とし、その過程で音楽的な認識が行なわれていないか
らである。換言すれば、JASPERおいては、主観的
な認識は考慮されてはいるが、音楽的な認識が不十分で
あるという問題がある。
【0009】それゆえに、この発明の主たる目的は、新
規な音楽セッション装置を提供することである。この発
明の他の目的は、主観のみならず音楽的な認識も十分行
われ得る、音楽セッション装置を提供することである。
【0010】
【課題を解決するための手段】この発明は、音楽信号を
受けて聴取パラメータを出力する音楽聴取手段、聴取パ
ラメータを受けて音楽を生成する音楽生成手段、および
音楽聴取手段および音楽生成手段に個性プロファイルを
付与する個性プロファイル付与手段を備える、音楽セッ
ション装置である。
【0011】
【作用】音楽信号、たとえばMIDI信号が音楽聴取手
段に与えられる。音楽聴取手段は、たとえばマルチエー
ジェントの音楽プリミティブ認識手段を有し、それによ
ってコード,コード進行,次フレーズ等の音楽プリミテ
ィブを抽出する。この音楽プリミティブおよび個性プロ
ファイルに基づいて、たとえば聴取感性パラメータ抽出
手段が、聴取感性パラメータ、たとえばEC(Emotional
Character) やテンションパラメータ(Total Tension V
lue:TTV) を抽出する。それらの聴取感性パラメータ
が音楽生成手段に与えられ、音楽生成手段では、聴取感
性パラメータおよび個性プロファイルに応じてきまる演
奏パターンで音楽を生成する。
【0012】
【発明の効果】この発明によれば、聴取感性パラメータ
を導入することで、より音楽的なコミュニケーションが
可能となり、さらに、聴取感性パラメータおよび個性プ
ロファイルに応じて演奏パターンを生成するので、個性
豊かな、しかも音楽的に違和感のない音楽セッションを
実現することができる。
【0013】さらに、音楽セッション装置を複数設け、
それぞれに異なる個性プロファイルを与えておくことに
よって、多様性のある音楽セッションが実現できる。こ
の場合、各装置が異なる楽器ないしパートを担当するよ
うにすればよい。この発明の上述の目的およびその他の
目的と特徴は図面を参照して行う以下の実施例の詳細な
説明から一層明らかとなろう。
【0014】
【実施例】ここで、実施例の詳細な説明に先立って、こ
の発明の音楽セッション装置において考慮されたジャズ
セッションの特徴を説明する。ジャズ演奏では、各奏者
間に固定された支配関係は存在しない。演奏の進行とと
もに、主張する演奏,それを認める演奏,無視する演
奏,あるいはその結果新しく主張する演奏と、その役割
は自在に変化する。また、主張に対する反応の度合いも
一定ではなく、強い主張に対しより強い演奏で反応した
り、合奏の形態を離れ、奏者全員の合意の下に、特に強
く主張を希望する奏者を1人選び、彼のソロ演奏に移行
し、他の奏者は鑑賞者にまわることもある。実際のセッ
ションにおいては、参加する者の個性によって全体の制
御が行われており、この個性のモデル化が極めて重要で
ある。
【0015】当然のことながら、セッション装置におい
ては、相手がどのような音楽演奏をしようとしているの
かを理解しておく必要がある。たとえば、相手がソロを
取ろうとしているかどうか,転調しようとしているして
いるかどうか,あるいはテンションの高いソロを行って
いるかどうか、等を監視しておく必要がある。その他、
音楽的にトレースできているかどうかも重要な監視対象
となる。
【0016】また、ジャズにおいては、故意に多義性を
残した演奏で独特の緊張感を表現することがある。たと
えば、メロディラインの解釈において、IIm7 - V7 - Im
aj7の進行時に、V7の代理としてII♭7 が多用される。
演奏において、或る時点での状況からはV7とII♭7 のど
ちらを通るかわからないとき、コード奏者は、一瞬演奏
を止めるか、あるいはV7とII♭7 の共通音(3度,7
度)だけを弾いて、ベース奏者の出方を待つことが普通
に行われる。こうした状態では、テンションノート(9
度,13度)の指示をコード奏者が行わないため、メロ
ディラインに自由度が増し、メロディ奏者も当然この事
実を認識しながら演奏を進める。ここに奏者間の緊張の
共有が生まれ、こうしたことが即興演奏を主な目的とす
るジャズ演奏の特徴であり醍醐味の一つとなっている。
【0017】音楽セッション装置の最も簡単な構成法
は、人間の奏者を観察したその演奏様式に従って演奏の
スケジュールを決定し、セッションの全てのパートを制
御するという方法である。しかしながら、この方法で
は、或る種の確率モデルを導入することがなければ、コ
ンピュータの出力する演奏パターンは決定的になり、独
特の緊張感をもつジャズ演奏を実現することは不可能で
ある。
【0018】また、確率モデルを全面的に導入する場
合、コミュニケーションの観点からその制御は困難であ
る。ジャズセッションでは、奏者の個性,身体の状態,
曲についての簡単な事前の打合せ(シナリオ)と合図,
および観客も含めた周囲の状況等が演奏を左右する重要
な要素となる。そこで、以下の実施例においては、演奏
に参加する奏者を音楽聴取部,音楽生成部,および個性
プロファイルからなるエージェントとみたて、そのイン
タラクティブモデルを構築しようとするものである。
【0019】図1に示すこの実施例の音楽セッション装
置10は、音楽聴取部12,音楽生成部14,および個
性データベース16を含む。音楽聴取部12は、音楽プ
リミティブ認識エージェント群18を含む。音楽プリミ
ティブ認識エージェント群18は、マルチエージェント
モデル(多入力、一出力の簡単な処理を実現するエージ
ェントをネットワークで組み合わせることによって、複
雑な機能を実現する手法)を用いて、音楽プリミティブ
の認識を行う。音楽プリミティブ認識エージェント群1
8に含まれる後に詳細に説明する各エージェントは、デ
ータベースに蓄えられた音楽知識を有していて、その音
楽知識は、1960年代の和声理論を基本として用い
る。たとえば、酒井潮:「ジャズオルガンインプロビゼ
ーション1,2」,リットウミュージック(1970)や渡辺
貞夫:「ジャズスタディー」,エー・ティー・エス(197
0)など。この和声理論では一般的なジャズ和声より、1
人のプロミュージシャンとしての実践的経験則が優先さ
れている。これは、ジャズの本質的な性格から、その和
声が時代と共に変貌し、すべてを包括する理論として確
立したことがなく、経験則の集合が理論とされているか
らである。
【0020】一般に、人間が音楽を聞くときには、様々
なレベルでの認識を行っている。通常は、重積した音響
信号からそれに含まれる楽器種や音源などを理解した上
で、ハーモニやリズム、メロディ等の認識を行ってい
る。実施例の音楽セッションシステム10では、MID
I楽器の出力、すなわち、MIDI信号を受け、音楽プ
リミティブ認識エージェント群18は、まず、音響知覚
レベルとして音量,音数,音域等を抽出する。音数は、
たとえば、単位時間当たりのノートオンの個数で与えら
れる。また、音楽知覚レベルとしては、コード,メロデ
ィ,テンションノートおよびリズム等の基本的な音楽要
素(音楽プリミティブ:Musical Primitives)がある。
さらに、上位音楽知覚レベルとしては、コード進行や調
性,クロージャ等の音楽プリミティブがある。音楽プリ
ミティブ認識エージェント群18は、これらの解析をリ
アルタイムに行う。この音楽プリミティブ認識エージェ
ント群18で抽出した音楽プリミティブは、音楽生成部
14における演奏の物理的制約の基礎として使われるほ
か、後述の感性情報抽出の前段としても利用される。以
下には、代表的な音楽プリミティブの認識について説明
する。
【0021】コード認識エージェント20は、コードパ
ート奏者からのMIDI信号とベースエージェント22
からの根音情報を入力として、それをこの音楽プリミテ
ィブ認識エージェント群18に予め形成した知識データ
ベース(図示せず)に蓄えられたコードフォームと比較
することによって、コードの候補として可能性のあるも
のを全て選び出す。データベースには、クローズドフォ
ームおよびオープンフォームとしての構成音の完全なも
のから根音,3度,5度の省略された不完全なものま
で、演奏可能な全てのコードフォームが登録されてい
る。実際の演奏データは、コードの各ノートを同時に演
奏してもその同時性はなく、数ミリ秒以上前後してエー
ジェントに達する。また、分散コードとして演奏される
こともある。エージェント20は、逆行認識によって、
常にこれらを検証しながら候補を出力する。コード認識
エージェント20は、通常、ベースエージェント22と
協働する。根音の情報がなければ、コード認識エージェ
ント20は単独ではコードネームを決定できないからで
ある。たとえばE,G,Bが弾かれたとしても、Cmaj7,
Em, G6 などである可能性があり、根音の情報なしには
1つのコードとして決定することはできない。このよう
にして得られたコード情報は、コード進行エージェント
24に送られ、そこでコード進行が決定される。また、
コード認識エージェント20は、後述の聴取感性パラメ
ータ抽出手段32に含まれるメロディテンションエージ
ェントに対しても情報を与える。
【0022】ベースエージェント22の主な機能は、ベ
ース奏者からのMIDI信号を受け、可能性のある根音
の候補を出力することである。この出力は、上述のよう
に、コード認識エージェント20に送られ、それに基づ
いてコードネームの最終的な決定が行われる。このベー
スエージェント22の機能は、音楽ジャンルに応じて変
化する。たとえば、ロック,8ビート,およびスイング
の2ビートにおいては、入力に対しコードの構成音を中
心に検出し、スイングの4ビートでは、入力はスケール
ノートとの比較を行う。ベースエージェント22は、ビ
ートトラッキングエージェント28と協働して、ビート
トラッキングも行う。
【0023】コード進行エージェント24は、コード認
識エージェント20の出力するコードの候補と、ベース
エージェント22の根音情報とに基づいて、リハーモニ
ゼーション,およびテンションリゾルブを含むコード進
行を決定する。コード進行エージェント24は、隣合う
候補の全ての組み合わせを調べ、禁則ルールに従ってそ
の対象となるものを除外する。次に、残った組み合わせ
について、過去に遡りながらコード進行としての連続性
を調査し、一例として、最も長い連続を持つコード進行
を選択する。このコード進行エージェント24は局所的
な逆行認識によって処理するが、クリッシェや4度上行
進行など、その使用が様式的に確立しているコード進行
については、モデル駆動による仮説検定処理を併用する
ことによってパフォーマンスを高めている。コード進行
エージェント24は、コード進行を決定した後、トニッ
ク,サブドミナント,およびドミナント(以下、
「T」,「SD」,および「D」と呼ぶ。)の機能コー
ドとスケールを選択する。コード進行の決定のために
は、以下に述べる5種類の進行の可能性を検証する。た
だし、下記リストの上位ほど優先して選択される。
【0024】(1) 定石進行 (2) 4度上行進行 (3) 増4度上行進行 (4) クロマチック下行進行 (5) クロマチック上行進行 (1) 定石進行としては、循環コード進行とそれ以外の定
石進行の知識をもっている。循環コード進行は十数種類
からなり、4個程度の4度上行進行を中心に連結された
進行である。定石進行は、或る意味では、コード進行エ
ージェント24の個性情報であり、以下にそれを例示す
る。
【0025】(a) Dm7/G - G7 - Cmaj7 (b) Cm - Cm/B - Cm/B♭ - Cm/A - Cm/A♭- Cm/G (c) C - A7/C# - Dm (d) C - E7/B - Am - Am7/G D7/F 最近の演奏では、ベースラインも1つのメロディとして
考えられていて、ラインよりも旋律的に演奏されること
が多い。上の例はそのことを示している。(a) はIIm7 -
V7 進行を明確すぎるものと考え、その代理として使用
される。(b) は、クリッシェと呼ばれ、動きを抑えたコ
ードと対比して、クロマチック下行進行するベースライ
ンが独特の効果を生む。(c) および(d) は、多用される
4度上行進行からの回避策としてのクロマチック進行の
使用である。クロマチック進行は、コード進行の中でか
なり強い性格をもつため、最優先で解釈を行う。このよ
うにして機能コードを決定した後、コード進行エージェ
ント24は、ドミナントモーションの位置と、4小節単
位でコードを評価してトーナリティを決定する。
【0026】ビートトラッキングエージェント26は、
ベースエージェント22からの情報とドラムスの演奏情
報とに基づいて、テンポとビートとを解析し、さらにリ
ズムパターンの変化を認知する。ビートトラッキングに
ついての認識アルゴリズムには、比較的多くの研究例が
ある。たとえば、Desain P. and Honing H.: "The Quan
tization of Musical Time: A Connectionnist Apploar
ch", MIT press computer Music Jounal, 13(3), pp56-
56(1989)、Rosenthal D.: "Machine Rythm: Computer E
moution of Human Rythm Perception", Ph.D. Thesis,
Media Lab. MIT(1992)、Allen P. and Dannenberg R.:
"Tracking Musical Beat in Real Time", Proc. ICMC,
pp140-143(1990) などである。ただし、この実施例で
は、各音楽ジャンルにおける実際の演奏状況を考慮し、
特にベースパート奏者に注目し、ドラムス奏者からのM
IDI信号は補助的に利用するだけである。
【0027】このビートトラッキングエージェント26
は、各ジャンルがもつ個別の特徴的なリズムパターンお
よびそのバリエーシヨンをデーターベースとしてもって
いる。音楽ジャンルとしては、現在、スイング(2ビー
ト,4ビート),ロック,ボサノバ,16ビート,ラテ
ン,およびサンバに分類されている。たとえばボサノバ
では、バスドラムでビートを維持し、カウベル,シンバ
ル,リムショット等の楽器にシコペーションが多用され
る。また、スイングでは、一般的に、ビートはシンバル
で維持され、スネアドラムやバスドラムでバリエーショ
ンがつけられるが、その演奏においては、ビートに集中
することを意識的に避けて演奏されるので、実施例で
は、この点を考慮するようにしている。そして、ビート
トラッキングエージェント26は、各ジャンルのリズム
パターン上の特徴点と入力から検出した特徴点の位置と
に基づいてビートを認識する。ただし、実際の演奏で
は、ベースラインの方が正確なビート情報を保持してい
る場合が多く、ドラムスの信号からは主としてバリエー
ションを抽出する。
【0028】また、フレーズ等の認識は、下位レベルで
のエージェントの変化点や文化的に形成された区切れ感
を表すエージェントの出力、たとえばドミナントモーシ
ョン検出時の出力に基づいて計算される。また、演奏生
成に必要な次フレーズ予測は、次フレーズ予測エージェ
ント28によって達成される。以下にそのアルゴリズム
の一例を示す。なお、クロージャ認識エージェント30
は、音楽知覚レベルにおいて変化のあった変化値(たと
えばメロディ中の或る音と或る音との間で跳躍があれば
その跳躍度合いを変化値とする)の足し合わせでクロー
ジャを与えるものとする。
【0029】ステップS1:クロージャ認識エージェン
ト30−それはクロージャの始めにその強さの相対値を
出力する−から所定の閾値以上の大きな出力があったと
き、その時刻を記録し、次のクロージャ認識エージェン
ト30の大きな出力があったとき、その間のメロディシ
ーケンスをワーキングメモリに登録する。また、そのメ
ロディシーケンスの得点としては、それを挟むクロージ
ャ認識エージェント30の2つの出力の和から計算す
る。なお、ワーキングメモリに登録するメロディシーケ
ンスには重複があってもよい。
【0030】ステップS2:登録した複数のメロディシ
ーケンスと順次入力される音列のマッチングを行う。こ
のときに、マッチングの度合いおよび先に計算したメロ
ディシーケンスの得点に応じて、そのメロディシーケン
スの終了時刻におけるクロージャの期待度を計算する。
マッチングの度合いは、オンセットタイム(リズムの同
一性)とメロディ中における音程の変化度(および初期
音程)を使って計算する。
【0031】ステップS3:予想したクロージャの終了
時刻がクロージャ認識エージェント30からの大きな出
力と一致した場合は、メロディシーケンスの得点を高く
する。そのことによって、記憶が繰り返しによって増幅
されたことを示す。人間が音楽を聴取するときにはなに
がしかの情動が起こっており、それがセッション時の演
奏生成においても影響を与えていることはよく知られた
ことである。感性情報の定義に関しては様々な議論もあ
るが、この実施例では、システムのユーザインタフェー
スとしての妥当性という観点から、Emotional Characte
r(EC), Musical Interest Value(MIV), およびPartner'
s Insistence Value(PIV) の3つを考える。これらが演
奏を制御するパラメータとして使われる。
【0032】ECとは聴取感性パラメータ抽出手段32
すなわちメロディテンションエージェントから、たとえ
ば明るい,軽い,暗い,重い等のような形容詞名とその
強さを表す値からなるデータセットで与えられるもので
ある。その中でも緊張感に相当するテンション Total T
ension Value(TTV) についてはセッションをコントロー
ルする際の重要なパラメータであると位置づけ、それぞ
れの音楽プリミティブに相当したECを算出している。
これらに個性データベース16、すなわち個性プロファ
イルに記述されたネットワークパラメータを掛けて合算
することにより、テンションパラメータTTVが算出さ
れる。個性プロファイル16を利用することにより、ハ
ーモニ重視型やリズム重視型といった個性が実現され
る。パートナ主張パラメータPIVは、後述のパートナ
主張パラメータ抽出手段34から出力される相手の主張
度を表すファクタであり、ソロをとっているときにその
値が大きくなるような計算が行われる。音楽的興味パラ
メータMIVとは、後述の音楽的興味パラメータ抽出手
段36から出力され、音楽的な興味を示すファクタであ
り、もしこれが低すぎると演奏をやめるというような役
割を持っている。
【0033】個性データベース16は、音楽の聞き方,
演奏の生成の個性を記述したデータベースである。人に
よって音楽の聞き方は異なる。個性データベース16は
聴取においてどの音楽要素に反応しやすいか(たとえ
ば、リズム重視型とかメロディ重視型など)を記述した
ネットワークパラメータ群,ソロに入りやすいかあるい
は伴奏に徹するかを決定する自己主張パラメータ,聴取
感性パラメータを演奏感性パラメータに変換するための
パラメータ群,および伴奏パターン/ソロパターン生成
の傾向を記述したパターンなどをもつ。
【0034】出力16a:メロディ重視型,リズム重視
型などのパラメータを0から1のレベルで与えたものを
出力する。 出力16b:3つの音楽興味パラメータMIVに対する
重みを0−1のレベルを与える。 出力16c:自己主張パラメータを0から1のレベルで
与えたものを出力する。
【0035】出力16d:リーダーシップ度,あまのじ
ゃく度に相当するパラメータを0から1のレベルで与え
たものを出力する。 出力16e:演奏時におけるメロディ重視型,リズム重
視型などのパラメータを0から1のレベルで与えたもの
を出力する。 次に、音楽聴取部12に含まれる一般感性抽出データベ
ース38は、聴取感性パラメータ抽出手段32に判断の
基礎を与えるためのもので、音楽プリミティブ認識エー
ジェント群18から出力された音楽プリミティブがどの
ように感じられるかについて記述したデータベースであ
る。一般感性抽出データベース38では、主として、文
化圏において共通と思われるものを扱う。一例として、
メロディに対するデータベースを次の表1に示す。
【0036】
【表1】
【0037】表1は、長音階スケール上の音とスケール
から派生するダイアトニックコードとの間に生じる感情
を示している。縦列にダイアトニックコードを示し、横
列にメロディラインに使用する音高の度数表現、たとえ
ばCメジャコードにおけるIはドの音を示す。縦横の交
差する箇所のc,t,aおよびdがそのとき起きる感情
を表現している。その意味は次のとおりである。 (c)コードの構成音(*は根音),安定感 (t)テンションパノート,緊張感 (a)アボイドノート,禁則感 (d)ディスコード,禁則感 (c)は安定感を生じ、(t)は緊張感を持ち、9度は
3度、13度は7度に対して全音またはクロマチックな
位置にあり、この衝突が起きるとさらに強度なものとな
る。(a)は各スケールのもつ忌避すべき音であり、も
し使用されるとても極めて短時間である。(d)はコー
ドの種類を決定する構成音とぶつかるものであり、
(a)と同様の性格をもち、ミストーンとしての性格が
強い。
【0038】聴取感性パラメータ抽出手段32は、上述
のように、音楽プリミティブ認識エージェント群18の
コード認識エージェント20からの出力とメロディパー
ト奏者からのMIDI信号とに基づいてメロディライン
の解析を行うメロディテンションエージェントを含む。
メロディテンションエージェント(図示せず)は、次表
2のようなテンプレートを用いて上述の感情パラメータ
(Emotional Character: EC) を抽出する。これはコー
ドに対し、メロディラインのそれぞれの音から発生する
局所的なテンション値である。
【0039】
【表2】
【0040】横列の並びを根音として注目すると、メジ
ャ、マイナごとに類似性がある。表2は各ダイアトニッ
クコードの種類別はそのままにして根音が同一になるま
で移調し、さらにメジャ、マイナとその他のコードにグ
ループわけしたものである。たとえば、IIm7であれば、
表3での横列の並びを左に全て全音ずらせている。表3
からは、明らかに、グループ毎に類似性が読み取れる。
メジャでは、4度と増4度に、マイナでは、5度と増5
度に違いがみられるだけである。表2に示すテンプレー
トは、メロディテンションフィルタと呼ばれる。また、
メロディラインにおけるテンション値は、メロディテン
ションフィルタの中からコードに相当する行を選択し、
それをメロディに作用させることで解釈される。したが
って、トーナリティが確実にわかっていない段階でも、
テンション値の解釈が行われることがこの実施例の一つ
の特徴である。また、コード進行ECエージェント(図
示せず)がまた、この聴取感性パラメータ抽出手段26
に含まれ、その機能は、音楽プリミティブ認識エージェ
ント群18のコード進行エージェント24からのコード
進行から、その和声学的意味を基に、それらコード進行
が提示するECを検出することである。このEC値は、
数小節以内での局所的感情を示すものである。たとえ
ば、ドミナントモーションは終止感をもたらし、IIm7 -
II♭7 - Imaj7 のコード進行は暗鬱感をもたらす。マク
ロ認識により、機能コード,4度上行進行,ダイヤトニ
ックコード,ドミナントモーション,一時転調等などか
らECを検出する。ECの一例が以下に示される。
【0041】Et:トニックによる安定感 Et0:トーナリティの喪失感 Eds:トニックからサブドミナントへの進行時に感じ
る距離感 Ed:ドミナントによるトニックへの期待感 E4:4度上行による躍動感 Edi:ダイヤトニックコードによる安定感 Ev:ドミナントモーションによる終止感 Ei:偽終止による発展感 E25:II-V進行によるトニックへの期待感 Eb:クロマチック進行による暗鬱感 Ek:調性の変更による飛躍感 E37:構成音が3度、7度だけのセブンスコード Ecc:クロマチックまたは全音の衝突を含むコード このような各ECは、コード進行が確立した時点で、聴
取感性パラメータ抽出手段32のコード進行ECエージ
ェントから「0」または「1」のパラメータ値として出
力される。
【0042】先に述べたように、聴取感性パラメータ抽
出手段26は、入力された演奏の形容詞的な情報を抽出
する。形容詞的な情報とは名前(緊張感,暗鬱感など)
その原因となった音楽情報(メロディ,調性,コード
等)とその値のタプルで表されるものであり、一般感性
抽出データベース38をもとにほぼ文化的に共通と考え
られる感性情報の抽出を行う。この例としては短調が検
出されると暗さの名前をもったタプルの値が加えられ
る。一方、音楽の感じ方に関してはすべてが文化的に共
通といえるものではない。たとえば、メロディ重視の人
もいれば、リズム重視の人もいる。個性データベース1
6からは、どの音楽情報にウェイトをおいて個人が音楽
を聞くかというパラメータ群が入力される。このパラメ
ータ群と一般感性抽出データベース38とによって抽出
された値との積和演算によって、名前に相当した形容詞
情報の全体的な値が得られる。ここでは、セッションを
コントロールする要素として緊張感(テンション:TT
V)に注目している。以下、テンションに相当する情報
の処理を例にアルゴリズムを説明する。
【0043】ステップS1:音楽プリミティブ認識エー
ジェント群18から出力を受ける。 ステップS2:それぞれの音楽プリミティブ(たとえ
ば、メロディ)が入力されたときは一般感性抽出データ
ベース38中に登録したものを参照し、メロディに相当
したテンションパラメータを算出する。 ステップS3:ステップS2において、メロディ,リズ
ム,ハーモニー等の各音楽プリミティブに相当したテン
ション(TV:Tension Value)が計算される。これに対し、
個性データベース16から入力されたどのプリミティブ
を重視するかのパラメータTTVを掛けて、足し合わせ
ることで、或る時間における音楽全体に相当するテンシ
ョンパラメータを算出する。
【0044】ステップS4:この聴取感性パラメータ抽
出手段26からライン12によってテンションパラメー
タTTVを送る。ECのもう1つの例として、重厚感の
パラメータ抽出例を示す。この重厚感は文化的には共通
していると考えられ、次の進行から生まれる。 Cm - Cm/B - Cm/B♭ - Cm/A - Cm/A♭ - Cm/G この感情の抽出には、同一コードの連続と、ベースの半
音下降進行の同時抽出を必要条件とする。またCmがCmad
d9というコードで演奏されDとEbの衝突が起きれば、
これからの緊張感により重厚感はさらに強調される。
【0045】パートナ主張パラメータ抽出手段34は、
外部の演奏者の自己主張度を抽出する。後に述べる緊張
感と完全に独立して求められるものではないが、ソロ/
伴奏を弾いているかどうかに大きく依存して演奏者の自
己主張度が検出される。自己主張度の抽出アルゴリズム
の例を以下に示す。この手段34は、まず、図2に示す
ように、メロディらしさ,コードストロークらしさ,ア
ルペジオらしさを抽出する3つのエージェント(図示せ
ず)をもち、小節毎に統計処理によって得られた8分音
符での音数,変化音の数,1小節の平均音高,コードト
ーン/テンションノートの数などのそれぞれの度合いを
抽出する。この抽出された度合いの中で1番高いのがメ
ロディであればソロ,コードストローク/アルペジオが
高いと伴奏と認識する。そして、このパートナ主張パラ
メータ抽出手段34は、パートナ主張パラメータPIV
を出力する。
【0046】音楽的興味パラメータの抽出に関してはマ
クロ的に認識されるもの(マクロ認識),傾向から予想
を行い逸脱を動機とするもの(予期認識),および音楽
的な進行が理解できたときの喜びを抽出するもの(逆行
認識)の3つのタイプがある。これらについて以下に説
明する。鑑賞者は聞いている音楽に対し、自分の持つ音
楽経験との類似点を探りながら認識している。我々は、
既知の旋律を聞いたとき、以前に聞いたときに心に浮か
んだ雰囲気や感情を思い起こす。全ての音楽要素(断
片)が、或る感情を呼び起こすと考えることは間違って
いるかもしれないが、それぞれの民族が持ち、かつ文化
的文脈のある音楽に含まれる音楽要素には一定の形容詞
的な意味合いがある。ポピュラソングの作曲家は、この
ような事象を意図的に、すなわち、タグとして使ってい
ることがある。
【0047】上述のマクロ認識の仕方はダイナミックパ
ターンマッチングを用いることでコンピュータ上に実現
することができる。これまでに演奏者の個性を示す大局
的情報を解析し、これを作曲の生成部で使用した研究の
例がある。このシステムにおいて、感情パラメータE
C,パートナ主張パラメータPIV,および音楽的興味
パラメータMIVの一部の抽出はこのようにマクロ的に
実現されるものである。ECの抽出においては、前述の
メロディの解析法のほかドミナントモーションによる解
決感,あるいはクリッシェにおける陰鬱感など文化的な
理由からほぼ共通と思われるものを含んでいる。音楽的
興味パラメータMIVの認識はいわゆる好みのパターン
がきたときに発火するものである。
【0048】したがって、マクロ認識手段40は、個性
データベース16からの情報に従って、音楽プリミティ
ブに対する興味をテンプレートマッチングによって抽出
する。すなわち、マクロ認識手段40は、特定の音楽要
素ないしパターンに興味をもつかどうかを判断する。例
として、コード進行の推論時に半音,全音の衝突に対す
る嗜好の抽出を示す。この衝突は緊張感をもたらす。コ
ード情報はデータベース内では、検索効率を上げるため
次のような構造となっている。
【0049】例 Cmaj7 構成音 データ列 (1) C,E,G,B 0,4,3,4 (2) E,G,B,C 8,3,4,1 (3) G,B,C,E 5,4,1,4 (4) B,C,E,G 1,1,4,3 全てのコードデータは実際の音名を記録するのではな
く、検索効率を上げるため根音決定ルーチンを他に分
け、隣同士の音程差を半音の数をデータとして持ってい
る。こうしたコード情報により検索数を12分の1とし
高速化を生み、根音の省略されたものも含めあらゆる展
開形が検索可能となっている。例で示すようにデータ列
の最初の数字は根音の位置を示し、最も低い音との差で
ある。たとえばCmaj7で(1) は最初の構成音がCで音程
差はなく、0である。(2) ではEに始まり、根音Cまで
の半音数は8となる、2番目以降の数は音程差を示す数
列である。衝突の抽出は候補として選び出されてくるコ
ードのデータベース内のデータ列に半音,全音の音程差
を示す1または2の存在を調査することで抽出される。
【0050】音楽理論の基礎になるものの1つとして、
音楽的な遅延と逸脱を伴った暗意(Implication) と実現
(Realization) により情動が生まれ、音楽が認識される
というものがある。徐々に高まっていくタイプの情報を
扱うためには、遅延や逸脱といったことが分かる時点
に、音楽的意味および結果がどうなるべきかの予想がで
き、鑑賞者が楽曲の様式を知っているか、当該の曲のた
どりつく結果が分かっていることが必要となる。完全に
分かっている展開が情動を生むのかという議論もある
が、或る程度形式が予想できる音楽の鑑賞をうまく説明
するモデルである。
【0051】このモデルを実現するには音楽的な傾向を
把握して予想を行い、その逸脱に対して音楽的興味パラ
メータMIVを出力するという方法が考えられる。予想
を行う対象としてはさまざまなレベルのものが考えられ
るが、このシステムでは西洋音楽の基本とも考えられる
ドミナントが検出されたときにトニックを要請するとい
う部分のインプリメントを行っている。基本的に実現が
検出されるまで連続的にMIVの出力を行い、実現の時
点で大きなMIVの出力を行うが、実現が検出されない
時間が長い場合は忘却を行うという手続きが取られてい
る。また、音楽的な情動とは若干異なるかもしれない
が、入力データの(連続性の)変化点に対する認識も暗
意と実現に基づいたものと位置づけている。
【0052】したがって、予期認識手段42は、音楽に
おける期待感を扱う。たとえば、ドミナント7が検出さ
れたときに4度上のトニックを期待する。期待している
間(忘却時間未満)と期待が実現されたときに出力を行
う。この期待感は期待している間に高まるものである
が、逆にその間に実現がなければ、出力を行わないもの
とする。また、先に述べた、次フレーズ予測エージェン
ト28において、テーマとなる部分があらわれたときに
対しても出力を行うものとする。以下に、ドミナント7
が検出されたときに4度上のトニックを期待するという
場合についてのアルゴリズムを示す。
【0053】ステップS1:コード認識エージェント2
0によりドミナント7の出力を受ける。その時刻を記憶
する。 ステップS2:ドミナント7が入ったときからの経過時
間を検出する。 ステップS3:経過時間が設定した時間(忘却時間)を
超えていたら処理を終わる。
【0054】ステップS4:コード認識エージェントか
らトニックがくるかどうかを判別する。トニックがきた
場合、その経過時間と対象とする要素を変数とする評価
関数、たとえば、前者と後者の積算による値を音楽的興
味パラメータ抽出手段36へ出力する。トニックがこな
い場合はステップS2に戻る。 上記の方法は魅力的なものであるが、鑑賞者全員がすべ
ての音楽的暗示を認知し、また進行を理解するとは考え
られない。我々は様式の知識がなくても未知の音楽を楽
しむことが可能なように、暗意を伴うことなく実現を認
知することがある。特に即興演奏を主体とするジャズで
は、故意に調性が曖昧に感じるようなコード進行や、メ
ロディで演奏されることがある。この場合に鑑賞者は当
然何からの喜びを感じるものであるが、この喜びは徐々
に高まるというものではなく、わかった瞬間に解き放た
れるという性格をもっている。また、暗意と実現との間
に時間的に長い隔たりがある場合、上記の方法で情動の
変化を扱うことは困難である。
【0055】このような音楽的興味パラメータを抽出す
るために、逆行認識手段44は、音楽プリミティブの逆
行認識を行い、その際に音楽的興味パラメータを抽出す
るというモデルを用いている。逆行認識とは局所的に曖
昧性を残した音楽プリミティブを認識していく方法で、
基本的には以下のステップで認識を行う。 (1) 理解できないところは仮説とし、一時記憶にとどめ
る。
【0056】(2) 新しく理解し得た時点から過去に遡っ
て評価する。 (1) の段階では局所的な解釈は行われるが全体的なつな
がりに関しては理解されていない。(2) において全体的
なつながり(意味)が評価される。このとき、意味の評
価に成功したときに音楽的興味パラメータMIVを出力
するという形で感性情報が抽出される。現在、コード進
行の認識と音楽的興味パラメータMIVの抽出に関して
以上の処理が実現されている。
【0057】すなわち、逆行認識手段44は、音楽プリ
ミティブに対し複数の解釈の可能性があった際にそれを
積み上げていき、1つのパスが確定したときにヒットポ
イント出力を行う。なお、音楽聴取部12におけるマク
ロ認識手段40,予期認識手段42,および逆行認識手
段44は各エージェントにおいて実現されている。
【0058】そして、音楽的興味パラメータ抽出手段3
6は、マクロ認識手段40,予期認識手段42および逆
行認識手段44から音楽的興味を表すパラメータを受け
て、その演算(和)を行うことによって、音楽的な興味
に対するパラメータを計算し、それを出力する。音楽的
に理解できるものかどうかの尺度を出力するものとして
使われる。
【0059】論理的制約抽出手段46は、音楽プリミテ
ィブ認識エージェント群18の状態のうち、演奏生成時
における音楽的制約となるものを選択し、音楽生成部1
4に含まれる伴奏パターン作成手段48,およびソロ演
奏パターン作成手段50に送信する。なお、この論理的
制約抽出手段46は、演奏全体がうまく進行しているか
の監視機構としても働く。たとえば、スイングにおいて
ベースパートが、コード構成音を中心とする演奏からス
ケール音を多用する演奏に変化したとき、セッションが
テーマからアドリブへと移行したことを知る。
【0060】音楽生成部14に含まれるソロ/伴奏/停
止選択手段52は、パートナ主張パラメータ抽出手段3
4および音楽的興味パラメータ抽出手段36からの出力
PIVおよびMIVを受けて、ソロ/伴奏/停止の選択
を行う。たとえば、音楽的興味パラメータ抽出手段36
からの出力MIVが閾値より低い状態が続いたときに
は、音楽的に理解できないものとして、演奏を停止す
る。そうでない場合はパートナ主張パラメータ抽出手段
34からの相手主張度PIV,および個性データベース
16からの自己主張パラメータに応じて、ソロを行うか
伴奏を行うかの選択を行う。このソロ/伴奏/停止選択
手段52の各出力からは、伴奏パターン作成手段48,
ソロ演奏パターン作成手段50および演奏合成手段54
へ、ソロ/伴奏/停止のスイッチ信号を送る。なお、伴
奏パターン作成手段48やソロ演奏パターン作成手段5
0には個性データベース16からの出力も送られる。こ
のパラメータはソロ演奏パターン作成手段50における
掛け合いのパラメータとして利用される。
【0061】演奏感性パラメータ生成手段56は、聴取
感性パラメータ抽出手段32からの聴取における感性パ
ラメータECを受けて、伴奏パターン作成手段48およ
びソロ演奏パターン作成手段50での伴奏およびソロの
生成における表現を決定するためのパラメータを決定す
る。聴取感性パラメータ抽出手段32からの感性パラメ
ータはあくまでの過去の時点での感性パラメータを扱う
ものであるが、ここではその推移傾向を見てこれからの
演奏を決定する感性パラメータに変換する。個性データ
ベース16からは、出力16dによって、リーダシップ
度,あるいはあまのじゃく度に相当するパラメータが与
えられる。リーダシップ度とはたとえば聴取感性パラメ
ータのうちテンションパラメータが低いときに盛り上げ
ようとする働きの相当する演奏テンションパラメータを
大きくすることで、リーダシップ性が働きやすいように
使われるものである。あまのじゃく度は聴取感性パラメ
ータに対し、その否定的な論理で演奏感性パラメータに
変換する働きをもつ。なお、聴取感性パラメータから演
奏感性パラメータの変換に関して、各種制御パラメータ
は一意的なものではなく、変換確率の制御パラメータと
して利用される。
【0062】上述の伴奏パターン作成手段48は、演奏
感性パラメータ生成手段56からの出力を受けて伴奏パ
ターンの作成を行う。たとえば、演奏テンションパラメ
ータが大きいときには盛り上がりの大きい演奏が生成さ
れる。伴奏の生成法に関してはシーケンスデータの呼び
出し、あるいはリアルタイムでの伴奏生成の2種を選択
することができる。後者においてはたとえば演奏テンシ
ョンパラメータが大きいときにストローク数(伴奏にお
ける音数)を多くするというような機構が実現される。
また、一般感性表現データベース58からは表1のよう
なテーブルが逆利用される。
【0063】以下、この伴奏パターン作成手段48にお
けるアルゴリズムの一例を示す。 ステップS1:演奏パラメータ生成手段56から演奏感
性パラメータを受ける。 ステップS2:個性データベース16から得た演奏時指
向パラメータをそれぞれのプリミティブ(音数,ハーモ
ニ)に掛け合わせることにより、それぞれのプリミティ
ブに相当するテンション値を算出する。
【0064】ステップS3:論理的制約抽出手段46か
ら出力される論理的制約により限定されるものの要素の
中から感性的な情報でコントロールされるものを選び、
伴奏を決定する。決定法の例としては、それぞれのプリ
ミティブに相当するパラメータの正規分布を用意してお
き、或るパラメータが与えられたときのプリミティブの
出現率を正規分布の値として読み取る。それぞれのプリ
ミティブに対する出現率に応じ使用するプリミティブを
選出する。
【0065】伴奏パターン作成手段48においては、さ
らに、以下のようにして伴奏パターンを作成することも
できる。 (1) シーケンスデータの呼び出し 2個から数個までのコード進行に合わせた伴奏フレーズ
をデータベースにもつ。また、フレーズは演奏テンショ
ンパラメータと相関をもたせたものを複数個用意する。
個性データベース16内のデータと合わせてフレーズを
選択し伴奏を生成する。
【0066】(2) リアルタイムでの伴奏生成 乱数発生器(図示せず)からの出力に基づいて、休符と
音長,音高に変化をもつ音符を得る。この音列に、その
ときのコード進行からの和声楽的制約により音高の正規
化を加え、さらに、得られた音列の上部あるいは下部に
制約を基に音列を追加し伴奏フレーズを生成する。ま
た、曲中で既に生成したフレーズも同様な正規化の後、
再利用する方法なども併用する。
【0067】なお、上記(1) ,(2) のどちらの方法をと
るかは、演奏テンションパラメータなどにより変更を行
うようにすればよい。一般感性表現データベース58に
は、一般感性抽出データベース38と同様のデータベー
スが格納されている。論理的制約については、たとえば
ウォーキングベースを考えるものとする。コード進行が
規定される場合、次のコードを取り得る範囲が限定され
る。このとき、限定されたコードのルート音が4拍目に
なるようなベースのパターンを配置することは避けるべ
きであり、このような処理をルールベースにて実現する
ものである。
【0068】そのほか、各プリミティブのテンションパ
ラメータが図3に示す形で格納されている。ソロ演奏パ
ターン作成手段50は、演奏感性パラメータ生成手段5
6からの出力を受けてソロ演奏パターンの作成を行う。
たとえば、演奏テンションパラメータが大きいときには
盛り上がりの大きい演奏が生成される。ソロの生成法に
関しても、伴奏パターン生成と同じように、シーケンス
データの呼び出しとリアルタイムでの伴奏生成の2種を
選択することができる。後者においてはたとえば演奏テ
ンションパラメータが大きいときにストローク数(伴奏
における音数)を多くするというような機構が実現され
る。また、一般感性表現データベース58からは表1で
利用したようなテーブルが逆利用される。
【0069】このソロ演奏パターン作成手段50では、
以下のようにして、演奏パターンを生成する。 (1) シーケンスデータの呼び出し 2個から数個までのコード進行に合わせた伴奏フレーズ
をデータベースにもつ。また、フレーズは演奏テンショ
ンパラメータと相関をもたせたものを複数個用意する。
個性データベース16内のデータと合わせてフレーズを
選択し演奏を生成する。
【0070】(2) リアルタイムでのソロ演奏生成 乱数発生器(図示せず)からの出力に基づいて、休符と
音長,音高に変化をもつ音符を得る。この音列に、その
ときのコード進行からの和声楽的制約により音高の正規
化を加えソロ演奏を生成する。また、曲中で既に生成し
たフレーズも同様な正規化の後、再利用する方法も併用
する。
【0071】上記方法(1) ,(2) のどちらの方法をとる
かは、演奏テンションパラメータなどにより変更を行う
ようにすればよい。演奏合成手段54は、伴奏パターン
作成手段48およびソロ演奏パターン作成手段50から
の伴奏およびソロ演奏出力を合成して演奏を生成する。
CPUに限界がある場合には、ソロ/伴奏/停止選択手
段52による切り換えによって伴奏パターン作成手段4
8およびソロ演奏パターン作成手段50のいずれかが選
択的に実行される。複数のCPUの使用が可能な場合
は、両者は並列的に処理を実行し、それをソロ/伴奏/
停止選択手段52からの出力に応じて、演奏合成手段5
4においていずれかを選択する。
【0072】実験結果 上述の実施例の音楽セッシヨン装置10は、複数のパー
ソナルコンピュータによる分散処理によるものとして構
成したが、これは単一のコンピュータで処理するように
してもよいことは勿論である。ただし、実験では、各エ
ージェントを同一コンピュータ内に形成し、MIDI信
号はハモンドオルガンから与え、上部鍵盤,下部鍵盤,
およびベース鍵盤を、それぞれ、メロディ,コード,お
よびベースの各パートとした。また、現在のシステム
は、入力される曲については個別のデータベースを持た
ず、その調性も未知の状態から解釈を始めるようにし
た。
【0073】実験例1 図4はコード認識エージェントとコード進行エージェン
トの能力と有効性を確認するために、ベースエージェン
トからの情報は与えなかった。この図4において、E
C,TTV,PIV,およびMIVはコード進行に関連
するものだけを結果に示している。TTVは先に説明し
たように、EC値を処理して合算することによって求め
る。PIVは、ノンダイヤトニックなコード,コードの
構成音によるクロマチックな衝突,および同一ベース音
の連続で活性化し、MIVはドミナントモーションを予
期させるV7の出現によって活性化する。
【0074】図4の例は、8ビート、テンポは約100
である。この曲は、さびまでが7小節という奇数の繰り
返しと、かなり変わった曲であるが、それさえも気づか
せない美しいメロディを持つ。4度上行進行を基本にコ
ード付けされ、さびではクラシックの技法ともいえる対
位法を取り入れた曲である。図4はテーマの演奏の後、
即興演奏に入った数小節の解析結果である。横に時間
を、縦にコード認識エージェントが出力する候補のコー
ドと、破線および実線によりコード進行エージェントが
行ったコード進行の解釈の様子を示す。その下には、E
Cエージェントの解析結果を示す。EC値に付した破線
は、その始端と終端のコードにEC値が確定したことを
示している。さらに、感性情報の抽出においてマクロ認
識,予期認識,および逆行認識が作用したことによるT
TV,PIV,およびMIVが活性化されたものであ
る。5線譜に示す音譜は実際の演奏データではなく、コ
ードエージェントの働きにより正規化されたものであ
る。
【0075】まず、システムは調性を知らないため、Fm
aj7,およびDm9 の2つを選んでいる。次に4つの候補を
出しているが、Gm9 とEm7-5 は全く同じ構成音であり、
C9,G♭7-9-13は根音が省略されたものとして候補になっ
ている。次のA7から4度上行進行と解釈することで、直
前の候補のうちからEm7-5 を選んだ。続いて、4度上行
進行から、Dm9, Gm9, C7, およびFmaj7 を候補として選
びだす。ここで、調性をFメジャと決め、最初のFmaj7
を選んでいる。また、コード進行の決定に従って適切な
ECが出力されている。
【0076】ここまでの進行について解釈の結果をみる
と、基本的には、SD−D−Tの進行を2度繰り返して
いる。コードの8分の7までが4度上行進行で結ばれ、
無理のない自然な流れを示している。3つめのA7はFメ
ジャスケールに対してダイヤトニックコードではなく、
構成音の中にスケール上にない C#を含み、ここでDmaj
などへの新しい展開を期待させたが、結果としては、関
係調のDm7 へと進行し、ダイヤトニックによる落ちつい
た曲の雰囲気を出している。このように、コード認識エ
ージェントとコード進行エージェントは、4度上行進行
が多様された曲では、かなり正確な解釈が可能であっ
た。
【0077】実験例2 次に、ベースエージェントを含めた全てのエージェント
によって解釈を行わせた2曲の実験例を示す。図5は4
度上行進行を多様した曲であり、原曲はシャンソンであ
る。美しいメジャとシンプルな構成から、ジャズではよ
く演奏される曲である。実験は、テンポ約120のスイ
ング(2ビート)で演奏したテーマからの数小節の結果
を示している。実験例1と同様に、コード認識エージェ
ントが、調性をGマイナという可能性に基づいて、 E♭
maj7, およびCm9 を選んでいるが、ベースエージェント
の情報を基に、コード進行エージェントはCm9 を選択
し、以後、4度上行進行(増4度を含む)で、F9, B♭
maj7, E♭maj7, Am7-5, D7-9, Gm9と正確に解釈を行っ
ている。解釈された結果によれば、全てダイヤトニック
の4度上行進行のみとなり、Gマイナから離れることな
く、SD−D−Tを繰り返した暗い落ちついた曲想を示
している。
【0078】コード進行エージェントの解釈に注目すべ
き点がみられる。ベースエージェントの情報を利用した
ため選択はされなかったが、前半と後半にCとAを起点
としたクロマチック下行進行を発見しており、これは奏
者も全く意識しなかったものである。 E♭maj7の箇所で
ベース音を B♭にすることで以下の進行が生まれる。 Cm9 - B7-7-9-13 -B♭maj9 - E♭maj9/B♭- Am7-5 -A♭
7-9 - Gm9 こうした長いクロマチック下行進行は、落ちついた雰囲
気や荘厳な気分を醸し出す効果があり、特にボサノバで
は多用される進行である。このようなことから、実施例
のシステムは編曲の支援装置としても有用であることが
わかる。
【0079】実験例3 図6は、映画「カサブランカ」の挿入歌として作曲され
たものである。オリジナルでは、冒頭の部分でFm7 -B♭
7 を2度繰り返すが、ジャズとして演奏されるときに
は、冗長性から逃れるために、様々な進行が考え出され
てきた。実験では次のように演奏した。
【0080】 Fm7 -B♭7 -D♭6 -B♭7/D -E♭maj7 - Fm7 - Gm9 - C9 Fm7 の代理コードとして構成音が2音同じD6を用いるこ
とで、ベース音が D♭-D -E♭- F - G と力強いクロマ
チック下行進行になることを意図したものである。各エ
ージェントについては、個性情報としてクロマチック進
行について十分な知識を与えていたが D♭6 を選択する
ことはできなかった。この原因は、エージェントに与え
ている代理コードと特殊なコード進行についての知識に
ある。代理コードについては、G7と D♭7 との代理関係
のように、同一の機能を持つものに限定された。構成音
が3音以下まで同じコードを代理として認めると、候補
が異常に増大するためである。また、コード進行エージ
ェントに、 VII♭6 - V7/VII- Iといった知識を与えて
おくことで、この曲についての解釈は可能になるが、こ
うした特異なコード進行を持つスタンダードな曲は多数
あるので、もし全ての曲を対象にするとすれば、情報は
膨大になり、エージェントに過大な負荷を強いることに
なってしまう。
【0081】このように、実施例の音楽セッション装置
10によれば、表3に示すように多くの曲において演奏
者の意図したコード進行が抽出された。
【0082】
【表3】
【0083】そして、先に説明した音楽セッション装置
10を複数用い、図7に示すように、セッションシステ
ムを構成することができる。すなわち、各音楽セッショ
ン装置10の個性プロファイル(図1の個性データベー
ス16)として独特のものを準備すれば、それぞれの個
性に従った音楽セッションが実現できる。さらに、複数
の装置10を用いてシステムを構成することによって、
楽譜なしで、リアルタイムに音楽が生成されるので、B
GM(BackGround Music)として有効であろう。
【図面の簡単な説明】
【図1】この発明の一実施例を示す機能ブロック図であ
る。
【図2】図1実施例に含まれるパートナ主張パラメータ
抽出手段における各エージェントを示す図解図である。
【図3】図1実施例に含まれる一般感性表現データベー
スを示す図解図である。
【図4】実験例1での演奏状況と各パラメータを示す図
解図である。
【図5】実験例2での演奏状況と各パラメータを示す図
解図である。
【図6】実験例3での演奏状況と各パラメータを示す図
解図である。
【図7】実施例を用いた音楽セッションシステムの一例
を示す図解図である。
【符号の説明】
10 …音楽セッションシステム 12 …音楽聴取部 14 …音楽生成部 16 …個性データベース 18 …音楽プリミティブ認識エージェント群 32 …聴取感性パラメータ抽出手段 34 …パートナ主張パラメータ抽出手段 36 …音楽的興味パラメータ抽出手段 38 …一般感性抽出データベース 40 …マクロ認識手段 42 …予期認識手段 44 …逆行認識手段 46 …論理的制約抽出手段 48 …伴奏パターン作成手段 50 …ソロ演奏パターン作成手段 52 …ソロ/伴奏/停止選択手段 54 …演奏合成手段 56 …演奏感性パラメータ生成手段 58 …一般感性表現データベース

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】音楽信号を受けて聴取パラメータを出力す
    る音楽聴取手段、 前記聴取パラメータを受けて音楽を生成する音楽生成手
    段、および前記音楽聴取手段および前記音楽生成手段に
    個性プロファイルを付与する個性プロファイル付与手段
    を備える、音楽セッション装置。
  2. 【請求項2】前記音楽聴取手段は、前記音楽信号に基づ
    いて音楽プリミティブを抽出する音楽プリミティブ抽出
    手段、および前記音楽プリミティブおよび前記個性プロ
    ファイルに基づいて聴取感性パラメータを抽出する聴取
    感性パラメータ抽出手段を含み、 前記聴取感性パラメータが前記音楽生成手段に与えられ
    る、請求項1記載の音楽セッション装置。
  3. 【請求項3】前記音楽生成手段は、前記聴取感性パラメ
    ータおよび前記個性プロファイルに基づいて演奏感性パ
    ラメータを生成する演奏パラメータ生成手段、および前
    記演奏感性パラメータおよび前記個性プロファイルに従
    って演奏パターンを生成する生成手段を含む、請求項2
    記載の音楽セッション装置。
  4. 【請求項4】前記生成手段は伴奏パターン生成手段およ
    びソロ演奏パターン生成手段を含み、前記音楽生成手段
    は前記伴奏パターン生成手段およびソロ演奏パターン生
    成手段を制御するソロ/伴奏制御手段を含む、請求項3
    記載の音楽セッション装置。
  5. 【請求項5】前記音楽聴取手段はパートナの主張度を表
    すパートナ主張パラメータを抽出する主張パラメータ抽
    出手段を含み、前記ソロ/伴奏制御手段は前記パートナ
    主張パラメータに応じて前記伴奏パターン生成手段およ
    びソロ演奏パターン生成手段を制御する、請求項4記載
    の音楽セッション装置。
  6. 【請求項6】前記音楽聴取手段は前記音楽プリミティブ
    および前記個性プロファイルに基づいて音楽的興味パラ
    メータを抽出する音楽的興味パラメータ抽出手段を含
    み、前記ソロ/伴奏制御手段はさらに前記音楽的興味パ
    ラメータに応じて前記伴奏パターン生成手段およびソロ
    演奏パターン生成手段を制御する、請求項5記載の音楽
    セッション装置。
  7. 【請求項7】前記音楽聴取手段は前記音楽プリミティブ
    に基づいて論理的制約を出力する論理的制約出力手段を
    含み、前記伴奏パターン生成手段およびソロ演奏パター
    ン生成手段は前記論理的制約を考慮して伴奏パターンお
    よびソロ演奏パターンを生成する、請求項4ないし6の
    いずれかに記載の音楽セッション装置。
  8. 【請求項8】請求項1ないし7のいずれかに記載の音楽
    セッション装置を複数設け、それぞれに異なる個性プロ
    ファイルを付与するようにした、音楽セッションシステ
    ム。
JP6203244A 1994-08-29 1994-08-29 音楽セッション装置およびシステム Withdrawn JPH0869283A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6203244A JPH0869283A (ja) 1994-08-29 1994-08-29 音楽セッション装置およびシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6203244A JPH0869283A (ja) 1994-08-29 1994-08-29 音楽セッション装置およびシステム

Publications (1)

Publication Number Publication Date
JPH0869283A true JPH0869283A (ja) 1996-03-12

Family

ID=16470826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6203244A Withdrawn JPH0869283A (ja) 1994-08-29 1994-08-29 音楽セッション装置およびシステム

Country Status (1)

Country Link
JP (1) JPH0869283A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005339038A (ja) * 2004-05-25 2005-12-08 Ntt Docomo Inc タイミング決定装置及びタイミング決定方法
WO2011027646A1 (ja) * 2009-09-01 2011-03-10 アイシン精機株式会社 運転支援装置
JP2011128517A (ja) * 2009-12-21 2011-06-30 Yamaha Corp 演奏補助装置および演奏補助方法を実現するためのプログラム
JP2020190676A (ja) * 2019-05-23 2020-11-26 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005339038A (ja) * 2004-05-25 2005-12-08 Ntt Docomo Inc タイミング決定装置及びタイミング決定方法
WO2011027646A1 (ja) * 2009-09-01 2011-03-10 アイシン精機株式会社 運転支援装置
JP2011051468A (ja) * 2009-09-01 2011-03-17 Aisin Seiki Co Ltd 運転支援装置
US8665080B2 (en) 2009-09-01 2014-03-04 Aisin Seiki Kabushiki Kaisha Driving assistance apparatus
JP2011128517A (ja) * 2009-12-21 2011-06-30 Yamaha Corp 演奏補助装置および演奏補助方法を実現するためのプログラム
JP2020190676A (ja) * 2019-05-23 2020-11-26 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
WO2020235506A1 (ja) * 2019-05-23 2020-11-26 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、記憶媒体

Similar Documents

Publication Publication Date Title
Oore et al. This time with feeling: Learning expressive musical performance
Liu et al. Computational intelligence in music composition: A survey
Kirke et al. A survey of computer systems for expressive music performance
US20210335333A1 (en) Computing orders of modeled expectation across features of media
Krumhansl Rhythm and pitch in music cognition.
US5883326A (en) Music composition
CN102760426B (zh) 使用表示乐音生成模式的演奏数据搜索
Lerch et al. Music performance analysis: A survey
Lerch et al. An interdisciplinary review of music performance analysis
Friberg et al. Musical punctuation on the microlevel: Automatic identification and performance of small melodic units
Aljanaki et al. A data-driven approach to mid-level perceptual musical feature modeling
Scheirer Using musical knowledge to extract expressive performance information from audio recordings
Xia et al. Improvised duet interaction: learning improvisation techniques for automatic accompaniment.
Ramirez et al. Automatic performer identification in commercial monophonic jazz performances
Doush et al. Automatic music composition using genetic algorithm and artificial neural networks
Dannenberg Style in music
Numao et al. Constructive adaptive user interfaces-composing music based on human feelings
Jensen Evolutionary music composition: A quantitative approach
Ramirez et al. Performance-based interpreter identification in saxophone audio recordings
JPH0869283A (ja) 音楽セッション装置およびシステム
Trochidis et al. CAMeL: Carnatic percussion music generation using n-gram models
MA et al. Four-way classification of tabla strokes with models adapted from Automatic Drum Transcription
Mansoori et al. A systematic survey on music composition using artificial intelligence
Ryynänen Automatic transcription of pitch content in music and selected applications
Zhao et al. Multimodal multifaceted music emotion recognition based on self-attentive fusion of psychology-inspired symbolic and acoustic features

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20011106