JP3646680B2 - Songwriting apparatus and program - Google Patents

Songwriting apparatus and program Download PDF

Info

Publication number
JP3646680B2
JP3646680B2 JP2001243891A JP2001243891A JP3646680B2 JP 3646680 B2 JP3646680 B2 JP 3646680B2 JP 2001243891 A JP2001243891 A JP 2001243891A JP 2001243891 A JP2001243891 A JP 2001243891A JP 3646680 B2 JP3646680 B2 JP 3646680B2
Authority
JP
Japan
Prior art keywords
data
lyrics
melody
generation
notes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001243891A
Other languages
Japanese (ja)
Other versions
JP2002278549A (en
Inventor
栄一郎 青木
成彦 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2001243891A priority Critical patent/JP3646680B2/en
Publication of JP2002278549A publication Critical patent/JP2002278549A/en
Application granted granted Critical
Publication of JP3646680B2 publication Critical patent/JP3646680B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、互いに整合性がとれたメロディ及び歌詞を生成することができる作詞作曲装置及びプログラムに関する。
【0002】
【従来の技術】
従来より、メロディを生成する自動作曲装置或いは歌詞を生成する作詞装置は、それぞれ、単体として存在していた。例えば、自動作曲装置としては、特開平11−65561号公報、作詞装置としては特開平10−97529号公報などに開示がある。前者の特開平11−65561号公報の自動作曲装置は、予め用意された歌詞に合ったメロディを生成するようにしている。また、後者の特開平10−97529号公報の作詞装置は、予め用意されたメロディに合った歌詞を生成するようにしている。
【0003】
しかしながら、メロディと歌詞の両方を生成する装置は、未だ提案されていない。特に、整合性がとれたメロディと歌詞の生成が可能な装置は見られない。そこで、仮に、上述した2つの先行技術を組み合わせると、先に作曲をしてその後作詞をする装置、或いは、先に作詞をしてその後作曲をする装置が考られるが、これでは満足な結果は得られない。つまり、このような単純な組合せの装置では、後で生成される歌詞或いはメロディは、先に生成されたメロディ或いは歌詞により制約を受けることになるので、自由な歌詞或いはメロディを生成することができない。また、先に生成されるメロディ或いは歌詞は、後で生成される歌詞或いはメロディのことを考えずに生成されるので、両者がうまくマッチしない可能性がある。
【0004】
【発明が解決しようとする課題】
この発明は、このような従来技術の問題点に鑑み、メロディ及び歌詞の一方が他方に制約を受けず而も両者をうまくマッチさせ、互いに整合性がとれたメロディ及び歌詞を生成することができる作詞作曲システムを提供することを目的とする。
【0005】
【課題を解決するための手段】
この発明の第1の特徴に従うと、リズム特徴データを含む第1の曲生成用データに基づいて歌詞データを生成する詞生成手段と、歌詞データの生成に用いられた第1の曲生成用データ及びピッチ特徴データを含む第2の曲生成用データに基づいてメロディデータを生成するメロディ生成手段と、メロディ生成手段で生成されたメロディデータの音符数を、詞生成手段で生成された歌詞データの音節数に合うように増減させるメロディ修正手段とを具備し、第1の曲生成用データは、所定区間における音符数の範囲を表わす音符数多少データを含み、詞生成手段は、音符数多少データが表わす範囲内で詞の音節数を決定し、決定された音節数をもつ歌詞データを生成する作詞作曲装置(請求項1)、並びに、コンピュータを、リズム特徴データを含む第1の曲生成用データに基づいて歌詞データを生成する詞生成手段、歌詞データの生成に用いられた第1の曲生成用データ及びピッチ特徴データを含む第2の曲生成用データに基づいてメロディデータを生成するメロディ生成手段、並びに、メロディ生成手段により生成されたメロディデータの音符数を、詞生成手段により生成された歌詞データの音節数に合うように増減させるメロディ修正手段として機能させるための作詞作曲プログラムであって、第1の曲生成用データは、所定区間における音符数の範囲を表わす音符数多少データを含み、詞生成手段は、音符数多少データが表わす範囲内で詞の音節数を決定し、決定された音節数をもつ歌詞データを生成する作詞作曲プログラム(請求項4)が提供される。
【0006】
この発明の第2の特徴に従うと、リズム特徴データを含む第1の曲生成用データに基づいて歌詞データを生成する詞生成手段と、詞生成手段により生成された歌詞データの音節数、この歌詞データの生成に用いられた第1の曲生成用データ及びピッチ特徴データを含む第2の曲生成用データに基づいてメロディデータを生成するメロディ生成手段とを具備し、第1の曲生成用データは、所定区間における音符数の範囲を表わす音符数多少データを含み、詞生成手段は、音符数多少データが表わす範囲内で詞の音節数を決定し、決定された音節数をもつ歌詞データを生成する作詞作曲装置(請求項2)、並びに、コンピュータを、リズム特徴データを含む第1の曲生成用データに基づいて歌詞データを生成する詞生成手段、並びに、詞生成手段により生成された歌詞データの音節数、この歌詞データの生成に用いられた第1の曲生成用データ及びピッチ特徴データを含む第2の曲生成用データに基づいてメロディデータを生成するメロディ生成手段として機能させるための作詞作曲プログラムであって、第1の曲生成用データは、所定区間における音符数の範囲を表わす音符数多少データを含み、詞生成手段は、音符数多少データが表わす範囲内で詞の音節数を決定し、決定された音節数をもつ歌詞データを生成する作詞作曲プログラム(請求項5)が提供される。
【0007】
この発明の別の特徴に従うと、リズム特徴データを含む第1の曲生成用データに基づいて歌詞データを生成する詞生成手段と、歌詞データの生成に用いられた第1の曲生成用データ及びピッチ特徴データを含む第2の曲生成用データに基づいてメロディデータを生成するメロディ生成手段と、メロディ生成手段で生成されたメロディデータの音符数を、詞生成手段で生成された歌詞データの音節数に合うように増減させるメロディ修正手段とを具備し、詞生成手段は、第1の曲生成用データを用いて詞の音節数を決定し、メロディ生成手段は、第1の曲生成用データを用いて詞の音節数とは独立にメロディの音符数を決定する作詞作曲装置(請求項3)が提供される。
【0009】
〔発明の作用〕
この発明において作詞作曲に用いられる曲生成用データは、複数種類のデータからなり、リズム特徴データなどの一部の種類のデータは、メロディ生成と歌詞生成の双方に共通に利用され、「第1の曲生成用データ」と呼ばれる。また、メロディ生成のみに利用されるピッチ特徴データなどの曲生成用データは「第2の曲生成用データ」と呼ばれる。
【0010】
この発明の第1の特徴(請求項1,4)によると、まず、メロディ及び歌詞生成の元になる曲生成用データを詞及びメロディ生成手段(A4,A5)に供給して、詞生成手段(A4)により、曲生成用データのうちで共通に利用されるリズム特徴データなどの一部のデータ即ち第1の曲生成用データに基づいて、リズムの特徴に合う歌詞(単に「詞」ともいう)を生成すると共に、メロディ生成手段(A5)により、第1及び第2の曲生成用データに基づいて、リズム及びピッチの特徴に合うメロディを生成し、その後、メロディ修正手段(A6)により、歌詞の音節数に合うようにメロディの音符数を増減させる。また、第1の曲生成用データのリズム特徴データには、所定区間における音符数の範囲を表わす音符数多少データが含まれ、詞生成手段(A4)により、この音符数多少データが表わす範囲内で詞の音節数を決定する。なお、括弧書きは、理解の便のために、後で詳述する実施例において用いられる対応記号等であり、以下においても同様である。
【0011】
このように、曲生成用データに基づいて歌詞及びメロディを生成した(A4,A5)後、歌詞及びメロディの整合性つまりメロディ音符数と歌詞音節数の一致をとる(A6)ようにしているので、一方が他方に制約を受けずにメロディ及び歌詞を生成することができ、しかも、両者とも共通の第1の曲生成用データに基づいて生成されるため、うまくマッチしたメロディ及び歌詞が生成されることになる。また、メロディを修正して(A6)メロディ音符数と歌詞音節数の一致をとるので、曲生成用データに基づいて当初に生成される歌詞を生かした作詞作曲が可能になる。さらに、詞を生成する際(A4)には、第1の曲生成用データ(リズム特徴データ)に含まれる音符数多少データが表わす範囲内で詞の音節数を決定することができる。
【0012】
この発明の第2の特徴(請求項2,5)によると、メロディ及び歌詞生成の元になる曲生成用データを詞及びメロディ生成手段(B4,B5)に供給し、まず、詞生成手段(B4)により、曲生成用データのうちのリズム特徴データなどの第1の曲生成用データに基づいて歌詞を生成し、その後、メロディ生成手段(B5)により、供給された第1及び第2の曲生成用データ並びに生成された歌詞の音節数に基づいてメロディを生成する。また、第1の曲生成用データのリズム特徴データには、所定区間における音符数の範囲を表わす音符数多少データが含まれ、詞生成手段(B4)により、この音符数多少データが表わす範囲内で詞の音節数を決定する。
【0013】
このように、歌詞を生成した(B4)後、歌詞の音節数に合うようにメロディを生成する(B5)ようにし、しかも、両者とも共通の第1の曲生成用データに基づいて生成されるので、うまくマッチしたメロディ及び歌詞を簡単に生成することができる。なお、メロディ生成手段(B5)によるメロディの生成には音節数という制約はあるが、メロディ修正処理が不要となる利点がある。さらに、詞を生成する際(B4)には、第1の曲生成用データ(リズム特徴データ)に含まれる音符数多少データが表わす範囲内で詞の音節数を決定することができる。
【0014】
この発明の別の特徴(請求項3)に従うと、詞及びメロディ生成手段(A4,A5)により曲生成用データに基づいて歌詞及びメロディを生成した後、メロディ修正手段(A6)により歌詞及びメロディの整合性つまりメロディ音符数と歌詞音節数の一致をとるようにしているので、一方が他方に制約を受けずにメロディ及び歌詞を生成することができ、しかも、両者とも共通の第1の曲生成用データに基づいて生成されるため、うまくマッチしたメロディ及び歌詞が生成される。また、メロディを修正して(A6)メロディ音符数と歌詞音節数の一致をとるので、曲生成用データに基づいて当初に生成される歌詞を生かした作詞作曲が可能になる。さらに、詞を生成する際(A4)には、第1の曲生成用データを用いて詞の音節数を決定し、メロディを生成する際(A5)には、第1の曲生成用データを用いて詞の音節数とは独立にメロディの音符数を決定することができる。
【0015】
なお、実施形態によれば、歌詞データの候補となる語彙又は文章を曲構成のフレーズに対応させて記憶した語彙・文章データベースを設け、第1の曲生成用データに、曲構成におけるフレーズの構成を表わすフレーズ構成情報(フレーズ構成データ)を含ませ、詞生成手段(A4,B4)により、フレーズ構成情報に従って語彙・文章データベースから語彙又は文章を曲構成のフレーズ単位で決定して歌詞データを生成し、メロディ生成手段(A4,A5)により、フレーズの構成に合うメロディデータを生成するように構成することができる。また、第1の特徴に従って作詞作曲を行う場合は、コード構成音を含む音符削除の優先順位を予め設定しておき、メロディ修正手段(A6)により、この優先順位に従って音符を削除することによってメロディデータの音符数を減少させるように構成したり、メロディを構成する所定の音符を同一ピッチで複数に分割するか或いは休符部分に当該休符の直前音符ピッチ又は直後音符ピッチを追加することによりメロディデータの音符数を増加させる(図6)ように構成することができる。
【0016】
なお、別の実施形態によれば、まず、メロディ及び歌詞生成の元になる曲生成用データを詞及びメロディ生成手段(C4,C5)に供給して、詞生成手段(C4)により、曲生成用データに含まれるリズム特徴データなどの第1の曲生成用データに基づいて歌詞を生成すると共に、メロディ生成手段(C5)により、第1及び第2の曲生成用データに基づいてメロディを生成し、その後、詞修正手段(C6)により、メロディの音符数に合うように歌詞の音節数を増減させるように構成することができる。この実施形態の作詞作曲装置では、曲生成用データに基づいて歌詞及びメロディを生成した(C4,C5)後、歌詞及びメロディの整合性つまりメロディ音符数と歌詞音節数の一致をとる(C6)ようにしているので、一方が他方に制約を受けずにメロディと歌詞を生成することができ、しかも、両者とも共通の第1の曲生成用データに基づいて生成されるため、うまくマッチしたメロディ及び歌詞が生成される。また、歌詞を修正して(C6)メロディ音符数と歌詞音節数の一致をとるので、曲生成用データに基づいて当初に生成されるメロディを生かした作詞作曲が可能になる。また、この実施形態では、語彙・文章データベースに、所定音節数の語彙・文章の外に、これらの語彙・文章と意味又は音韻が変わらない範囲で音節数を増減させた変形例が、歌詞候補として記憶することができ、詞修正手段(C6)により、歌詞の修正に当り、詞生成手段(C4)で生成された歌詞の音節数を語彙・文章データベースの変形例を用いて増減させるようにしているので、歌詞のもつ雰囲気を変えないでメロディにマッチした歌詞に修正することができる。また、詞生成手段(C4)は、第1の曲生成用データ(リズム特徴データ)に含まれる音符数多少データに応じて決定された音節数の歌詞を生成することができる。
【0017】
さらに、作詞作曲の元になる曲生成用データには曲のジャンルデータが含まれ、詞生成手段(A4,B4,C4)は、このジャンルデータを用いてジャンルに適した歌詞を生成することができる。
【0018】
【発明の実施の形態】
以下、図面を参照しつつ、この発明の好適な実施例を詳述する。なお、以下の実施例は単なる一例であって、この発明の精神を逸脱しない範囲で種々の変更が可能である。
【0019】
〔ハードウエア構成〕
図1は、この発明の一実施例による作詞作曲処理システムのハードウエア構成のブロック図である。この例では、システムは、中央処理装置(CPU)1、読出専用メモリ(ROM)2、ランダムアクセスメモリ(RAM)3、外部記憶装置4、第1及び第2の検出回路5,6、表示回路7などの外に、音源回路8及び効果回路9などを備え、これらの装置1〜9は、バス10を介して互いに接続されている。
【0020】
システム全体を制御するCPU1は、所定のソフトウエア・プログラムに従いタイマ11によるクロックを利用して種々の制御を行い、特に、後述する作詞作曲処理などを中心的に遂行する。ROM2には、このシステムを制御するための所定の制御プログラムが記憶されており、これらの制御プログラムには、基本的な情報処理と共に、この発明による作詞作曲処理のための各種プログラムや各種テーブル、各種データ(曲生成用データベース、語彙・文章データベースなど)を含ませることができる。RAM3は、各種処理に際して必要なデータやパラメータを記憶し、また、処理中の各種データ等を一時記憶するためのワーク領域として用いられる。
【0021】
外部記憶装置4は、ハードディスクドライブ(HDD)の外に、コンパクトディスク・リード・オンリィ・メモリ(CD−ROM)、フロッピィディスク(FD)、光磁気(MO)ディスク、ディジタル多目的ディスク(DVD)、半導体メモリ等の可搬型記憶媒体を用いた装置から成り、各種制御プログラムや各種データを記憶することができる。従って、作詞作曲処理などに必要なプログラムや各種データ(曲生成用データベース、語彙・文章データベースなど)は、ROM2を利用するだけでなく、外部記憶装置4からRAM3内に読み込むことができ、必要に応じて、処理結果を外部記憶装置4に記録しておくこともできる。
【0022】
第1の検出回路5には、演奏操作を行うために鍵盤などの演奏操作子を備えた演奏操作子装置12が接続される。第2の検出回路6には、スイッチ等の各種設定用操作子を備えたパネル操作子装置13が接続され、これらの設定用操作子は、パネル操作子と呼ばれ、作詞作曲処理などの処理のために各種設定を行うのに用いられる。また、表示回路7は、作詞作曲処理に必要な各種情報を表示乃至指示するディスプレイ14や各種インジケータに接続される。
【0023】
音源回路8には、DSP等で構成される効果回路9が接続され、効果回路9にはスピーカを含むサウンドシステム15が接続される。これらの装置8,9,15により、楽音及び音声の発音機能を有する楽音発生手段が形成される。この楽音発生手段により、RAM3や外部記憶装置4などに記憶される各種演奏データや歌詞データを読み出して、対応する楽音や音声を発音再生することができる。
【0024】
バス10には、また、MIDIインターフェース(I/F)16を介して、電子楽器、音源、鍵盤などの他のMIDI情報処理装置17が接続されており、このシステムとの間で演奏データなどを授受することができる。バス10には、さらに、通信インターフェース(I/F)18が接続され、通信I/F18には、ローカルエリアネットワーク(LAN)やインターネット、電話回線等の通信ネットワーク19を介してサーバコンピュータ20等に交信可能に接続することができる。従って、サーバコンピュータ20等から制御プログラムや各種データを外部記憶装置4にストアすることもできる。
【0025】
なお、図1のシステムは、専用の演奏操作子やパネル操作子を備える電子楽器の形態のデータ処理装置で実施することができるが、パーソナルコンピュータ(PC)を用いたり、或いは、他の同等のデータ処理機能を有するデータ処理装置を用いて、作詞作曲処理システムを構成してもよい。
【0026】
〔曲生成用データ及び語彙・文章データ〕
この発明の一実施例による作詞作曲処理システムにおいては、〔1〕〜〔3〕の項で後述する第1〜第3実施形態の作詞作曲処理が実行され、曲生成用データ及び語彙・文章データを用いて所望の作詞作曲を行うことができる。図2は、この発明の一実施例による作詞作曲処理システムにおいて利用される曲生成用データの構成例を示し、図3は、同システムにおいて利用される語彙・文章データの構成例を示す。
【0027】
このシステムのROM2或いは外部記憶装置4内に構築される曲生成用データベースには、曲生成用データがテンプレート化されて記録されている。図2の左側に示されるように、各曲生成用データは、メロディ生成用データ及び伴奏生成用データを含み且つジャンルが付与されており、メロディ生成用データや伴奏生成用データはジャンルに合った内容になっている。例えば、「ラブバラード」のジャンルなら、音符数は少なく、伴奏スタイルもバラードのスタイルとなっている。また、「マイナー演歌」のジャンルなら、コード進行は短調のコード進行となっている。
【0028】
メロディ生成用データは、図2の中央(上部)に示されるように、曲構成データ、リズム特徴データ、ピッチ特徴データ、コード進行データなどから成る。まず、曲構成データは、図2の右側に示されるように、ブロック構成データ、楽節構成データ、フレーズ構成データなどから成り、これによって、ブロック、楽節及びフレーズの数が規定される。ブロック構成データは、例えば、「曲が“Aブロック”及び“Bブロック”の2ブロックから成る」というように、曲のブロック構成を表わし、楽節構成データは、例えば、「曲が“楽節a”−“楽節b”−“楽節a’”−“楽節c”の4楽節で構成される」というような曲の楽節構成を表わし、また、フレーズ構成データは、例えば、「各楽節が2フレーズで構成される」というようなフレーズ構成を表わす。
【0029】
リズム特徴データは、基本音長データや音符数多少データ、シンコペーションの有無を表わす情報等から成り、基本音長データや音符数多少データは、フレーズ構成データ等と共に、歌詞の音節数を指示するためのデータとして利用される。基本音長データは、ブロック、楽節又はフレーズにおいて、基本になる音符の音長を表わしたものであり、例えば、「8分音符」や「16分音符」などで規定され、これに依存して1ブロック、1楽節又は1フレーズ当りの最大音符数が規定される。音符数多少データは、各ブロック、各楽節又は各フレーズにおける音符の多さ(音符の頻度)を、最大音符数に対する音符数の多少で表わしたものであり、例えば、「多目」、「中位」、「少な目」などで音符数の範囲が規定される。
【0030】
また、ピッチ特徴データは音域やダイナミクス等から成り(図示せず)コード進行データはコード名の列(必要に応じて、時間データも含む)である。
【0031】
伴奏生成用データは、図2の中央(下部)に示されるように、コード進行データ及びスタイル指定データから成り、コード進行データは、メロディ生成用データと共通に使用される。スタイル指定データは、別途記憶されている多数の伴奏スタイルデータの内の何れかを指定するデータである。なお、伴奏生成用データには、これら以外のデータが含まれていてもよい。
【0032】
一方、このシステムのROM2或いは外部記憶装置4内に構築される語彙・文章データベースは、図3に例示されるように、歌詞となる語彙又は短い文章(右側)を最小M個〜最大N個の音節数(左側)で区分し、例えば、1フレーズに対応する音節数毎の語彙又は文章をデータベース化したものである。音節数の区分は、歌詞の生成に当って、メロディ生成用データ〔曲構成データやリズム特徴データ(最大音長データや音符数データ)〕に基づいて指示され、指示された区分に属する語彙・文章の中から、適当な語彙・文章が所定の方法で選択される。
【0033】
各音節数区分には、図3の右側に示されるように、当該音節数に対応する語彙・文章を表わす語彙・文章データが記憶され、各語彙又は文章毎に、どの曲ジャンルで使用可能かを示す「ジャンル」データや、音節数を多少増減する際の「変形例」データなどが記憶されている。
【0034】
「ジャンル」データは、歌詞のおおよその内容を曲ジャンルで指示するものであり、ジャンルにふさわしい歌詞を選択するのに用いられる。例えば、「全ジャンル」では、一般的な情景を表わす言葉が多く、「ラブソング」では、男女の情愛を表す言葉が多く出現する。
【0035】
また、変形例データは、助詞を挿入或いは削除したり、意味の近い他の言葉に置き換えたりした当該語彙・文章データの類例データであり、音節数を元の語彙又は文章から多少増減させている。なお、変形例データは、後述する第3実施形態において歌詞の音節数を増減するのに利用される。
【0036】
〔1〕第1実施形態の作詞作曲処理
図4は、この発明の一実施例による作詞作曲システムで実行される第1実施形態の作詞作曲処理の機能ブロック図を示す。ここで、図4を参照しつつ、各実施形態による作詞作曲機能の概略を極く簡単に説明しておく。この発明の一実施例による作詞作曲システムでは、メロディ及び歌詞を生成するのに共通の曲生成用データが用いられる。
【0037】
第1実施形態においては、メロディ及び歌詞生成の元になる曲生成用データは、曲生成用データベースA1から曲生成用データ選択部A3を介して詞生成部A4及びメロディ生成部(1)A5に供給され、この曲生成用データに基づいて歌詞及びメロディが生成される。メロディ生成部(1)A5で生成されたメロディの音符数は、メロディ修正部A6で、詞生成手段A4で生成された歌詞の音節数に一致するように修正され、メロディと歌詞との間で整合性がとられる。
【0038】
また、第2実施形態では、第1実施形態のメロディ生成部(1)A5及びメロディ修正部A6に代えて、生成されるメロディを歌詞の音節数に一致させる機能をもつメロディ生成部(2)が設けられる(図10)。さらに、第3実施形態においては、第1実施形態のメロディ修正部A6に代えて詞修正部が設けられ、歌詞の音節数がメロディの音符数に一致するように修正される(図12)。
【0039】
さて、図4を用いて第1実施形態についてより詳しく説明する。曲生成用データベースA1及び語彙・文章データベースA2には、上述したように、それぞれ、曲生成用データ及び語彙・文章データが記憶されている。曲生成用データ選択部A3は、ユーザの指示したジャンルなどに応じて、曲生成用データベースA1に記憶されている曲生成用データ(テンプレート)を選択し、当該曲ジャンルに対応するジャンルデータと共に、メロディ生成用データのうち、フレーズ数などを表わす曲構成データ、音符数の多少(音符数多少データ)や1フレーズの最大音符数(基本音長データで決まる)を規定するリズム特徴データ等を詞生成部A4に送り、また、曲構成データ、リズム特徴データ、ピッチ特徴データ、コード進行データ等をメロディ生成部(1)A5に送る。
【0040】
〔歌詞データの生成〕
まず、詞生成部A4では、曲生成用データのうちの曲構成及びリズム特徴データに基づき、語彙・文章データベースA2の語彙・文章データを参照して、各フレーズに割り当てる語彙・文章の候補をジャンルデータに応じて抽出する。抽出されたデータはディスプレイ14上に表示され、ユーザに提示する。そこで、ユーザがフレーズ毎に何れかの語彙・文章を選択すると、選択された語彙・文章を表わす歌詞データが生成される。なお、この場合に生成される歌詞データは、抽出された語彙・文章の候補からシステム側でランダムに選択するようにしてもよい。また、必要に応じて、ユーザが歌詞データの語彙・文章を編集できるようにしてもよい。
【0041】
図5は、2ブロック4楽節の曲構造をもち各ブロック別に音節(文字)数が指示される場合に歌詞データが生成される一例を示す。以下、この例により歌詞データの生成手順を説明する。曲生成用データ選択部A3では、図5の上部4段に、左側の「ブロック」〜「生成用データ」で指示されるように、「Aブロック」及び「Bブロック」の2ブロック、「第1楽節」〜「第4楽節」の4楽節、「第1フレーズ」〜「第8フレーズ」の8フレーズで曲構造を表わす曲構成データと、A,B各ブロック別に基本音長及び音符数の頻度が指定されたリズム特徴データをもつメロディ生成用データが、曲ジャンルを指定するジャンルデータと共に選択され、詞生成部A4に送られる。
【0042】
詞生成部A4では、送られてきた曲生成用データ(ジャンルデータ、曲構成データ及び特徴データ)に基づいて、まず、音節(文字)数に関する詞生成条件を演算する。つまり、曲構成データやリズム特徴データから得られるフレーズ数、1フレーズの音符の最大数(基本音長に依存)、音符の多さ(頻度)などに基づいて、図5の第5段に示されるように、各フレーズ当りの最大音節数及び音節(文字)数が詞生成条件として算出され、算出された詞生成条件は、歌詞候補に対する音節(文字)数指示データとして利用される。
【0043】
例えば、図5のAブロックのように、基本音長が「8分音符」に指定されている場合は、最大音節数が「最大16音節」とされる〔図5:5段目(「詞生成条件」)右側〕。また、音節(文字)数については、音符数多少データの「少な目」、「中位」及び「多目」に対応して、それぞれ、「少な目」=1〜7音節(文字)の範囲、「中位」=8〜12音節(文字)の範囲及び「多目」=13〜16音節(文字)の範囲が自動的に選択される。図5の例では、Aブロックにおける音符数多少データが「少な目」なので、第5段目(「詞生成条件」)の左側に示されるように、文字数「少な目」〔=1〜7音節〕の範囲が選択される。そして、音符数多少データの内容に応じて選択された範囲の中からランダムに決定された音節(文字)数が、当該ブロック(Aブロック)における各フレーズ(第1〜4フレーズ)の歌詞に対する音節(文字)数の詞生成条件となる。
【0044】
また、Bブロックのように、基本音長が「16分音符」に指定されている場合には、最大音節数が「最大32音節」とされる〔図5:5段目(「詞生成条件」)右側〕。また、音節(文字)数については、音符数多少データの「少な目」、「中位」及び「多目」に対応して、それぞれ、「少な目」=1〜14音節(文字)の範囲、「中位」=15〜24音節(文字)の範囲及び「多目」=25〜32音節(文字)の範囲が自動的に選択される。図5の例では、音符数多少データが「中位」なので、第5段目(「詞生成条件」)の右側に示されるように、文字数「中位」〔=15〜24音節(文字)〕の範囲が選択される。そして、音符数多少データの内容に応じて選択された範囲の中からランダムに決定された音節(文字)数が、当該ブロック(Bブロック)における各フレーズ(第5〜8フレーズ)の歌詞に対する音節(文字)数の詞生成条件となる。
【0045】
次に、このようにして算出された詞生成条件(音節数指示データ)に該当し、しかも、ジャンルデータにより指定された曲ジャンルを満足する語彙・文章が、語彙・文章データベースA2から検索され抽出される。そして、抽出された語彙や文章が複数ある場合には、前述したように、これらの語彙・文章からユーザにより選択されるか或いはシステム側でランダムに選択され、選択された語彙・文章が各フレーズの歌詞データとして順次生成される。図5の最下段(「詞生成例」)は、このように生成される歌詞の一例を示し、括弧書きは、生成された歌詞の各フレーズ毎の音節(文字)数である。
【0046】
〔メロディデータの生成及び修正〕
一方、メロディ生成部(1)A5においては、曲生成用データのうちのメロディ生成用データに基づいてメロディデータを生成する。例えば、メロディデータの音符数は、音符数多少データが表わす音符数の多少や、最大音長データから規定される1フレーズの最大音符数などに応じてランダムに決定される。ここで、音符数に関するデータは、元になるメロディ生成用データが詞生成部A4でも使用されているので、詞の音節数と類似したものとなるが、ランダム要素があるため完全には一致しない。従って、不一致のメロディ部分の修正がメロディ修正部A6の機能に委ねられる。
【0047】
一方、メロディ修正部A6では、詞生成部A4で作成された詞の音節数に応じて、メロディ生成部(1)A5で生成されたメロディデータの音符数を増減させる等の方法でメロディデータを修正する処理を行い、このメロディ修正処理は、「メロディの詞への合わせ込み」処理と呼ばれる。この「メロディの詞への合わせ込み」処理は、新たなメロディの生成処理ではなく、原則として、メロディ生成部(1)A3で既に生成されているメロディを基にして音符を増減するだけである。
【0048】
つまり、詞生成部A4で生成された歌詞データに対して以下のような合わせ込み規則(a),(b)を当てはめて、メロディデータの音符数及び歌詞データの音節数の多さに応じたメロディ音符数の合わせ込み(増減)をする:
(a)音符数>音節(文字)数の場合は、削減する音符(打点)の種類に優先度をつけて、例えば、
優先順位=「その他>コード構成音>強拍音>フレーズ最後>フレーズ先頭」
のような優先順位を設定し、この優先順位に従って音符(打点)を削除する。基本的には、削除した音符を休符にするが、必要に応じて、削除した音符の直前音符の音長を延長してもよい。また、削除候補として同順位の音符が多数ある場合には、これらの音符の中から、削除すべき音符をランダムに選択していく。
(b)音符数<音節(文字)数の場合には、
・音長を短く分割して同音を付加する。例えば、1つの4分音符を同一ピッチの2つの8分音符に分割する。
・休符部分については当該休符の直前音符又は直後音符ピッチでうめる。等々。
【0049】
図6は、この「メロディの詞への合わせ込み」処理によるメロディデータ修正の一例を示す。例えば、メロディの第1フレーズが図6Aのように生成されていたとすると、この音符数は、5つであり、このフレーズに対応する歌詞「はかげがゆれる」(図6Bの下)の音節数7より少ない。そこで、合わせ込み規則(b)を適用して2つ追加する必要がある。この例では、(1)で示すように、元の2分音符を2分割して4分音符を追加し、(2)で示すように、元の休符位置に当該休符直後の同音音符を追加し、図6Bのようなメロディに修正する。
【0050】
また、メロディーの第4フレーズが図6Cのように生成されていたとすると、この音符数は、21であり、このフレーズに対応する歌詞「あなたに…うでに」(図6Dの下)の音節数17より多く、音符を4つ削減する必要がある。そこで、合わせ込み規則(a)の優先順位に従って*印で示される4つの音符(何れも「その他」に該当する音符である)を削減する。そして、第3の*印音符については、(3)で示すように、この音符を削除したあとに直前の音符を延長し、結局、図6Dのようなメロディに修正する。
【0051】
同様にして、第2〜4及び第6〜8フレーズのメロディについてもメロディ修正を行うことができる(説明は省略)。
【0052】
なお、歌詞データ及びメロディデータの生成乃至修正に関して留意すべき事項を列記すれば、次のとおりである:
(1)図6の例では、フレーズを第1小節の初めから第2小節の最後までの区間としているが、ピックアップ(前のフレーズにくい込んだ部分)がある場合は、このピックアップの部分だけ、フレーズ区間が左方向にシフトする。
(2)音節については、これまでの説明では音節(数)=文字(数)としているが、撥音便(ん)や促音便(っ)を無視したり、「あって」などを1音節に扱うようにしてもよい。
(3)生成した詞をメロディに割り当てるときに不満がでる場合は、再度、詞を生成させたり或いは言葉を選択するなど、編集ができるようにしてもよい。
(4)メロディ生成用データとして音符数の多さ(音符数多少データ)を例として使ったが、音符の個数指定でもよい。この場合、生成するメロディの種類は減少するが、詞の音符数を特定することができるので、音符への割当てが簡単になる。
(5)メロディの詞への合せ込み処理(メロディ修正処理)では、削除対象として、コード音の優先順位を低くして設けても良い。
【0053】
〔伴奏データの生成及び演奏データの出力〕
さて、伴奏生成部A7は、曲生成用データベースA1から曲生成用データ選択部A3を介して、曲生成用データのうち、スタイル指定データやコード進行データなどの伴奏生成用データが与えられ、この伴奏生成用データに基づいて伴奏データを生成する。伴奏生成部A7は必要に応じて設けられ、例えば、ア・カペラで歌うときなどの場合には、この実施形態においても後述する他の実施形態においても、伴奏生成部分(A7,B7,C7)はなくてもよい。
【0054】
次に、合成部A8では、詞生成部A4で生成された歌詞データ、メロディ修正部A6で修正されたメロディデータ、並びに、伴奏生成部A7で生成された伴奏データを合成して1つのファイルにした歌詞付き演奏データを作成する。そして、出力部A9においてこの演奏データを出力する。
【0055】
出力部A9における演奏データ出力の例には、次のようなものがある:
(1)メロディデータ及び伴奏データから成る演奏データに基づく楽音を、楽音発生システム(8,9,15)を通じて再生したり、楽譜などの形でディスプレイ14に表示する。
(2)歌詞データに基づく歌詞を、ディスプレイ14に表示したり楽音発生システム(8,9,15)を通じて音声で歌わせたりする。
(3)「演奏データ+歌詞データ」の形式又は上記(2)の音声データの形式で、外部記憶装置4の記憶媒体に保存する。
(4)歌詞付き演奏データなどをメールに添付して他者に送信したり、サーバコンピュータ20へアップロードする。
(5)歌詞を表示しながら伴奏を再生し、ユーザにメロディを歌わせて、それを録音する。等々。
【0056】
〔詞生成処理、メロディ生成処理1及びメロディ修正処理フロー〕
図7〜図9は、この発明の一実施例による作詞作曲システムにおいて実行される作詞作曲処理のうち、詞生成部、メロディ生成部(1)及びメロディ修正部でそれぞれ実行される詞生成処理、メロディ生成処理1及びメロディ修正処理の一例を表わすフローチャートである。
【0057】
まず、図7の詞生成処理においては、第1ステップL1で、詞生成部A4は、曲生成用データベースA1から曲生成用データ選択部A3を介して、ジャンルデータ、曲構成データ及びリズム特徴データを取得する。次のステップL2では、取得された曲構成データ及びリズム特徴データに基づいて現フレーズの音節数を決定し、続くステップL3で、ジャンルデータが表わすジャンルと、ステップL2で決定された音節数に基づいて語彙・文章データベースを参照し、語彙・文章候補を抽出する。
【0058】
次に、ステップL4では、ステップL3で抽出された語彙・文章候補をディスプレイ14によりユーザに提示して語彙・文章の選択を促し、続いて、ステップL5において、ユーザからの選択を受けて語彙・文章を決定し、当該フレーズの歌詞データを生成する。
【0059】
次のステップL6では、現フレーズが最終フレーズであるか否かをチェックし、最終フレーズでなければ、ステップL2に戻り、次のフレーズについてステップL2〜L6の処理を繰り返す。そして、ステップL6において最終フレーズであると判定されると、この詞生成処理フローを終了する。
【0060】
また、図8のメロディ生成処理1においては、第1ステップM1で、メロディ生成部(1)A5は、曲生成用データベースA1から曲生成用データ選択部A3を介して、リズム特徴データ、ピッチ特徴データ、コード進行データ及び曲構成データを取得する。次のステップM2では、取得されたリズム特徴データに基づいて現フレーズの音符数を決定し、続くステップM3で、リズム特徴データ及び音符数に基づいてリズムパターンを決定し、さらに、ステップM4において、ピッチ特徴データ及びコード進行データに基づき、リズムパターンの各打点にピッチを付与し、当該フレーズのメロディデータを生成する。
【0061】
次のステップM5では、現フレーズが最終フレーズであるか否かを判定し、最終フレーズでなければ、ステップM2に戻り、次のフレーズについてステップM2〜M5の処理を繰り返す。そして、ステップM5において最終フレーズであると判定されると、このメロディ生成処理1を終了する。
【0062】
なお、ステップM2に戻り、新たなフレーズについてメロディ生成を繰り返す場合、楽節構成において前方の楽節と同一とされている楽節については、ステップM2〜M5の処理のように新たにメロディを生成することなく、前方の楽節のメロディをコピーするのがよい。また、楽節構成において同類とされている楽節については、同様に、前方の楽節の一部のメロディをコピーするのがよい。
【0063】
図9のメロディ修正処理においては、メロディ修正部A6は、メロディ生成部(1)A5で生成されたメロディデータ及び詞生成部A4で生成された歌詞データを取得すると、最初のステップN1で、現フレーズにおけるメロディデータの音符数が歌詞データの音節数より多いか否かを調べる。現フレーズのメロディ音符数が(歌)詞音節数より多いときは、ステップN2で、前述した合わせ込み規則(a)の優先順位に従って音符(打点)を削除した上ステップN3に進み、そうでないときは直ちにステップN3に進む。
【0064】
ステップN3では、現フレーズにおけるメロディデータの音符数が歌詞データの音節数より少ないか否かを判断する。現フレーズのメロディ音符数が(歌)詞音節数より少ないときは、ステップN4で、前述した合わせ込み規則(b)に従って音符の分割や休符を音符化した上ステップN5に進み、そうでないときは直ちにステップN5に進む。
【0065】
ステップN5では、現フレーズが最終フレーズであるか否かを判断し、最終フレーズでなければ、ステップN1に戻り、次のフレーズについてステップN1〜N5の処理を繰り返す。そして、ステップN5において最終フレーズであると判定されると、このメロディ修正処理を終了する。
【0066】
〔2〕第2実施形態の作詞作曲処理
図10は、この発明の一実施例による作詞作曲システムで実行される第2実施形態の作詞作曲処理の機能ブロック図を示す。第2実施形態の作詞作曲処理においては、歌詞データの音節数に合わせてメロディデータを生成するようになっている。つまり、第1実施形態のメロディ生成部(1)A5に代ってメロディ生成部(2)B5が備えられ、第1実施形態のメロディ修正部A6をなくしており、他のデータベース及び処理部B1〜B4,B7〜B9は、図示のように、それぞれ、第1実施形態のデータベース及び処理部A1〜A4,A7〜A9とほぼ同じ構成になっている。
【0067】
第2実施形態の作詞作曲処理におけるメロディ生成部(2)B5は、メロディデータの音符数を決定する際に、詞生成部B4で生成された歌詞データの音節数と同じ数にする。すなわち、メロディ生成部(2)B5では、次に説明するメロディ生成処理2を実行し、メロディ生成用データのうち、音符数の多少などに関するデータを利用しないで、歌詞データの音節数から音符数を決定するようにしている。従って、第1実施形態のようにメロディ修正部A6を設けることなく、簡単な構成により、(歌)詞の音節数とメロディの音符数を一致させることができる。
【0068】
〔メロディ生成処理2〕
図11は、この発明の一実施例による作詞作曲システムにおいて実行される作詞作曲処理のうち、メロディ生成部(2)で実行されるメロディ生成処理2の一例を表わすフローチャートである。この処理フローの第1ステップP1では、メロディ生成部(2)B5は、曲生成用データベースB1から曲生成用データ選択部B3を介して、リズム特徴データ、ピッチ特徴データ、コード進行データ及び曲構成データを取得すると共に、詞生成部B4で生成された歌詞データを取得する。
【0069】
次のステップP2では、歌詞データが表わす(歌)詞の音節数に応じて現フレーズの音符数を決定し、続くステップP3では、リズム特徴データと詞音符数に基づいてリズムパターンを決定し、さらに、ステップP4において、ピッチ特徴データ及びコード進行に基づき、リズムパターンの各打点にピッチを付与し、当該フレーズのメロディデータを生成する。
【0070】
次のステップP5では、現フレーズが最終フレーズであるか否かを調べ、最終フレーズでなければ、ステップP2に戻り、次のフレーズについてステップP2〜P5の処理を繰り返す。そして、ステップP5において最終フレーズであると判定されると、このメロディ生成処理2を終了する。
【0071】
なお、ステップP2に戻って新フレーズのメロディ生成を繰り返す場合は、メロディ生成処理2においても、楽節構成において前方の楽節と同一とされている楽節については、ステップM2〜M5の処理のように新たにメロディを生成することなく、前方の楽節のメロディをコピーするのがよい。また、楽節構成において同類とされている楽節については、同様に、前方の楽節の一部のメロディをコピーするのがよい。ただし、音符数を詞の音節数と合わせる必要があるため、打点数の増減をした方が好ましい。
【0072】
〔3〕第3実施形態の作詞作曲処理
図12は、この発明の一実施例による作詞作曲システムで実行される第3実施形態の作詞作曲処理の機能ブロック図を示す。第3実施形態の作詞作曲処理においては、歌詞データを生成した後、メロディの音符数に合わせて音節数を増減する点に特徴がある。つまり、第1実施形態のメロディ修正部(1)A6に代って詞修正部C6が備えられ、他のデータベース及び処理部C1〜C5,C7〜C9は、図示のように、それぞれ、第1実施形態のデータベース及び処理部A1〜A5,A7〜A9とほぼ同じ構成になっている。
【0073】
第3実施形態の作詞作曲処理における詞修正部C6は、後で説明する詞修正処理を実行し、詞生成部C4で生成された歌詞データの詞音節数を、メロディ生成部(1)C5で生成されたメロディデータの音符数に応じて増減させる。この音符数増減には、語彙・文章データベースC2中の各語彙・文章データに付属している変形例データ(図3最右欄)を用い、既に生成された語彙や文章の実質的な意味を変えずに、音節数を変化させることができる。例えば、歌詞データにおける7音節の詞「葉陰が揺れる(はかげがゆれる)」を、メロディデータの音符数6に合わせて、6音節に修正する場合は、「葉陰が揺れる」の変形例から「葉陰揺れる」(6音節)を選択すればよい。これにより、メロディを修正せずに、詞の音節数とメロディの音符数を一致させることができる。
【0074】
〔詞修正処理〕
図13は、この発明の一実施例による作詞作曲システムにおいて実行される作詞作曲処理のうち、詞修正部で実行される詞修正処理の一例を表わすフローチャートである。詞修正部C6は、メロディ生成部(1)A5で生成されたメロディデータ及び詞生成部A4で生成された歌詞データを取得すると、この処理フローの最初のステップQ1で、現フレーズにおける歌詞データの音節数がメロディデータの音符数より多い否かをチェックする。
【0075】
現フレーズの詞音節数がメロディ音符数より多いときは、ステップQ2で詞音節数の減少処理を行ってからステップQ3に進み、そうでないときは直接ステップQ3に進む。ステップQ2では、語彙・文章データベースを参照し、当該歌詞データに対応する変形例データに従って、メロディ音符数に合う音節数の変形例を新たな(歌)詞として選択し、詞音節数を所望数に減少させる。
【0076】
ステップQ3では、現フレーズにおける歌詞データの音節数がメロディデータの音符数より少ないか否かを調べ、現フレーズの詞音節数がメロディ音符数より少ないときは、ステップQ4で詞音節数の増加処理を行ってからステップQ5に進み、そうでないときは直接ステップQ5に進む。ステップQ5では、語彙・文章データベースを参照し、当該歌詞データに対応する変形例データに従って、メロディ音符数に合う音節数の変形例を新たな(歌)詞として選択し、詞音節数を所望数に増加させる。
【0077】
ステップQ5では、現フレーズが最終フレーズであるか否かを判断し、最終フレーズでなければ、ステップQ1に戻り、次のフレーズについてステップQ1〜Q5の処理を繰り返す。そして、ステップQ5において最終フレーズであると判定されると、この詞修正処理を終了する。
【0078】
〔種々の実施態様〕
以上、この発明による作詞作曲処理について具体的な実施例に従って説明してきたが、実施態様は例示したものに限らない。例えば、システムの機能については、
(1)作詞や作曲のアルゴリズム〔(歌)詞生成及び修正部やメロディ生成及び修正部での処理手法〕は、例示したものに限らない。
(2)各実施形態において、伴奏生成部分はなくてもよい。
(3)3つの実施形態のうちの少なくとも2つを同時に備え、何れの実施形態を採用して作詞作曲を行うのかを、ユーザが選択することができるようにしてもよい。
【0079】
また、語彙・文章データベースに記憶させる変形例については、実施例では、音節数が異なり、実質的に意味の変わらない語彙・文章を対応付けて記憶するようにしている。しかしながら、詞の意味をあまり重要と考えない場合は、意味が変わってしまう語彙・文章を対応付けてもよい。例えば、言葉の響き(音韻)を重視するような詞であれば、響き(音韻)が似ていれば意味はどうでもよいというときには、意味よりも響き(音韻)が似ている語彙・文章を優先的に変形例として対応付けてもよい。
【0080】
語彙・文章データベースにおける変形例の記憶の仕方として、実施例のように、各語彙・文章毎に変形例の実体を記憶するものに限らず、変形例の語彙文章を通常の語彙・文章と同じように記憶しておき、これらの語彙・文章へのポインタを変形例として記憶するようにしてもよい。
【0081】
メロディ修正処理において、メロディの音符数を増減させる際の増減ルール〔合わせ込み規則(a),(b)〕をユーザにより選択可能としてもよい。例えば、(a)音符数の増加の場合には、音符分割又は休符の音符化をユーザが選べるようにし、(b)音符数の減少の場合には、打点種類の優先度をユーザが選択できるようにする。
【0082】
詞の音節を増加させる場合、母音を伸ばして長母音(「ー」の表記が後続するもの)とし、伸ばした母音「ー」を1音節に数えることで音節を増加させてもよい。また、逆に、詞の音節を減少させるのに、伸ばしている母音「ー」を削除して音節を減少させてもよい。
【0083】
なお、システムの形態(データ処理装置)については、電子楽器の形態に限らず、PC+アプリケーションソフトウェアの形態でもよく、カラオケ装置や、ゲーム装置、携帯電話等の携帯型通信端末、自動演奏ピアノなどに適用してもよい。携帯型通信端末に適用した場合、端末のみで所定の機能が完結している場合に限らず、機能の一部をサーバ側に持たせ、端末とサーバとからなるシステム全体として所定のデータ処理機能を実現するようにしてもよい。
【0084】
電子楽器の形態を取った場合、その形態は鍵盤楽器に限らず、弦楽器タイプ、管楽器タイプ、打楽器タイプ等の形態でもよい。また、音源装置、自動演奏装置等を1つの電子楽器本体に内蔵したものに限らず、それぞれが別体の装置であり、MIDIや各種ネットワーク等の通信手段を用いて各装置を接続するものであってもよい。
【0085】
外部機器との通信に関しては、通信インターフェース及び通信ネットワークは、有線のものに限らず無線でもよいし、双方を備えていてもよい。また、MIDIについては、専用のMIDIインターフェースに限らず、RS−232C、USB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)等の汎用のインターフェースを用いてMIDIインターフェースを構成してもよい。この場合、MIDIメッセージ以外のデータをも同時に送受信するようにしてもよい。
【0086】
【発明の効果】
以上説明したように、この発明によれば、まず、メロディ及び歌詞生成の元になる曲生成用データを詞及びメロディ生成手段に供給し、この曲生成用データに基づいて歌詞及びメロディを生成した後、メロディ又は詞修正手段により両者の整合性(音符数と音節数の一致)をとるようにしているので、一方が他方に制約を受けずにメロディ及び歌詞を生成することができ、しかも、両者とも、共通の第1の曲生成用データに基づいて生成されるので、うまくマッチしたメロディ及び歌詞を生成することができる。さらに、詞を生成する際には、第1の曲生成用データに含まれる音符数多少データが表わす範囲内で詞の音節数を決定することができる(請求項1,4)。或いは、詞を生成する際には、第1の曲生成用データを用いて詞の音節数を決定し、メロディを生成する際には、第1の曲生成用データを用いて詞の音節数とは独立にメロディの音符数を決定することができる(請求項3)。
【0087】
また、この発明によれば、メロディ及び歌詞生成の元になる曲生成用データを詞及びメロディ生成手段に供給し、まず、詞生成手段で第1の曲生成用データに基づいて歌詞を生成した後、メロディ生成手段で、歌詞の音節数に合うようにメロディを生成するようにしているので、メロディ又は歌詞を修正する処理を省略することができ、しかも、両者とも、共通の第1の曲生成用データに基づいて生成されるので、うまくマッチしたメロディ及び歌詞を生成することができる。さらに、詞を生成する際には、第1の曲生成用データに含まれる音符数多少データが表わす範囲内で詞の音節数を決定することができる(請求項2,5)。
【0088】
つまり、この発明は、メロディと歌詞の両方を生成することを目的とした作詞作曲装置であり、曲生成用データをメロディ生成と歌詞生成の双方に利用することを前提としているので、メロディ生成、歌詞生成それぞれの曲生成用データをいちいち設定する必要はなく、また、メロディ、歌詞の両者とも、リズム特徴データなどの共通の第1の曲生成用データに基づいて生成されるため、うまくマッチしたメロディ及び歌詞が生成される。
【図面の簡単な説明】
【図1】図1は、この発明の一実施例による作詞作曲処理システムのハードウエア構成を示すブロック図である。
【図2】図2は、この発明の一実施例による作詞作曲処理システムにおいて利用される利用される曲生成用データの構成例を示す図である。
【図3】図3は、この発明の一実施例による作詞作曲処理システムにおいて利用される利用される語彙・文章データの構成例を示す図である。
【図4】図4は、この発明の一実施例による作詞作曲処理システムにおいて実行される第1実施形態の作詞作曲処理の機能ブロック図である。
【図5】図5は、この発明の一実施例による歌詞データの生成手順を説明するための(歌)詞生成の一例を示す図である。
【図6】図6は、この発明の一実施例によるメロディデータの修正処理(「メロディの詞への合わせ込み」処理)を説明するための具体的修正例を示す図である。
【図7】図7は、この発明の一実施例による(歌)詞生成処理を表わすフローチャートである。
【図8】図8は、この発明の一実施例によるメロディ生成処理1を表わすフローチャートである。
【図9】図9は、この発明の一実施例によるメロディ修正処理を表わすフローチャートである。
【図10】図10は、この発明の一実施例による作詞作曲処理システムにおいて実行される第2実施形態の作詞作曲処理の機能ブロック図である。
【図11】図11は、この発明の一実施例によるメロディ生成処理2を表わすフローチャートである。
【図12】図12は、この発明の一実施例による作詞作曲処理システムにおいて実行される第3実施形態の作詞作曲処理の機能ブロック図である。
【図13】図13は、この発明の一実施例による(歌)詞修正処理を表わすフローチャートである。
【符号の説明】
A1,B1,C1 曲生成用データベース、
A2,B2,C2 語彙・文章データベース、
A3,B3,C3 曲生成用データ選択部、
A4,B4,C4 (歌)詞生成部、
A5,C5 メロディ生成部(1)、
B5 メロディ生成部(2)、
A6 メロディ修正部、
C6 (歌)詞修正部、
A7,B7,C7 伴奏生成部、
A8,B8,C8 合成部、
A9,B9,C9 出力部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a songwriting apparatus and program capable of generating melody and lyrics that are consistent with each other.
[0002]
[Prior art]
Conventionally, an automatic composition device that generates a melody or a lyrics device that generates lyrics has existed as a single unit. For example, Japanese Patent Laid-Open No. 11-65561 discloses a self-composing device and Japanese Patent Laid-Open No. 10-97529 discloses a lyric device. The former automatic composition apparatus disclosed in Japanese Patent Application Laid-Open No. 11-65561 is designed to generate a melody suitable for lyrics prepared in advance. Further, the latter lyric apparatus disclosed in Japanese Patent Laid-Open No. 10-97529 generates lyrics that match a melody prepared in advance.
[0003]
However, an apparatus for generating both melody and lyrics has not been proposed yet. In particular, there are no devices that can generate consistent melody and lyrics. Therefore, if the two prior arts described above are combined, a device that composes first and then composes a song, or a device that composes first and then composes, is considered satisfactory. I can't get it. In other words, in such a simple combination device, the lyrics or melody generated later is restricted by the previously generated melody or lyrics, so that it is not possible to generate free lyrics or melody. . In addition, since the melody or lyrics generated earlier are generated without considering the lyrics or melody generated later, there is a possibility that they do not match well.
[0004]
[Problems to be solved by the invention]
In view of the problems of the prior art, the present invention can generate a melody and lyrics that are consistent with each other, with one of the melody and the lyrics not being restricted by the other, and the other being matched well. The purpose is to provide a songwriting system.
[0005]
[Means for Solving the Problems]
According to the first feature of the present invention, the lyrics generating means for generating lyric data based on the first tune generating data including the rhythm feature data, and the first tune generating data used for generating the lyric data And melody data generation means for generating melody data based on the second music generation data including pitch feature data, and the number of notes of the melody data generated by the melody generation means Melody correcting means for increasing / decreasing the number of syllables so as to match the number of syllables, the first music generation data includes a number of note numbers representing a range of the number of notes in a predetermined section, and the word generating means includes a number of note numbers data A lyric composition device that determines the number of syllables of a lyrics within a range represented by the lyric and generates lyric data having the determined number of syllables; Based on second song generation data including lyrics generation means for generating lyrics data based on the first song generation data including the first song generation data and pitch feature data used to generate the lyrics data The melody generating means for generating melody data and the melody correcting means for increasing / decreasing the number of notes of the melody data generated by the melody generating means so as to match the number of syllables of the lyric data generated by the lyrics generating means The first song generation data includes data on the number of notes representing the range of the number of notes in a predetermined section, and the word generation means includes a number of notes within the range represented by the data on the number of notes. A songwriting program for determining the number of syllables and generating lyric data having the determined number of syllables is provided.
[0006]
According to the second feature of the present invention, the lyrics generating means for generating lyrics data based on the first music generation data including the rhythm feature data, the number of syllables of the lyrics data generated by the lyrics generating means, and the lyrics Melody generation means for generating melody data based on the first song generation data and the second song generation data including pitch characteristic data used for generating the data, and the first song generation data Includes the data of the number of notes representing the range of the number of notes in the predetermined section, and the lyrics generating means determines the number of syllables of the lyrics within the range represented by the data of the number of notes and the lyrics data having the determined number of syllables. A songwriting device for generating (Claim 2) and a computer for generating lyrics data based on the first song generation data including rhythm feature data, The melody generating means for generating melody data based on the number of syllables of the generated lyric data, the first tune generating data used for generating the lyric data, and the second tune generating data including the pitch feature data The first song generation data includes data on the number of notes representing the range of the number of notes in a predetermined section, and the word generating means is within the range represented by the data on the number of notes A songwriting program for determining the number of syllables of the lyrics and generating lyric data having the determined number of syllables is provided.
[0007]
According to another feature of the present invention, the lyrics generating means for generating lyrics data based on the first song generation data including rhythm feature data, the first song generation data used for generating the lyrics data, and Melody generation means for generating melody data based on the second song generation data including pitch feature data, and the number of notes in the melody data generated by the melody generation means, the syllable of the lyrics data generated by the lyrics generation means Melody correcting means for increasing / decreasing to match the number, the lyrics generating means determines the number of syllables of the lyrics using the first music generating data, and the melody generating means uses the first music generating data. Is used to determine the number of notes of a melody independently of the number of syllables of the lyrics.
[0009]
[Effects of the Invention]
The song generation data used for song composition in the present invention is composed of a plurality of types of data, and some types of data such as rhythm feature data are commonly used for both melody generation and lyrics generation. It is called “Song Generation Data”. Also, music generation data such as pitch feature data used only for melody generation is referred to as “second music generation data”.
[0010]
According to the first feature of the present invention (Claims 1 and 4), first, the melody and lyric generation data for generating the melody and the lyrics are supplied to the lyrics and the melody generation means (A4, A5), and the lyrics generation means According to (A4), based on some data such as rhythm feature data commonly used in the song generation data, that is, the first song generation data, the lyrics that match the rhythm feature (simply “lyric”) And a melody that matches the characteristics of the rhythm and pitch based on the first and second music generation data by the melody generation means (A5), and then the melody correction means (A6). Increase or decrease the number of melody notes to match the number of syllables in the lyrics. Also, the rhythm feature data of the first music generation data includes some data indicating the number of notes in a predetermined section, and the lyrics generating means (A4) causes the number of notes to be within the range represented by the data. To determine the number of syllables in the lyrics. Note that the parenthesis is a corresponding symbol used in an embodiment described in detail later for convenience of understanding, and the same applies to the following.
[0011]
Thus, after the lyrics and the melody are generated based on the music generation data (A4, A5), the consistency of the lyrics and the melody, that is, the number of melody notes and the number of lyrics syllables are matched (A6). , One can generate melody and lyrics without any restrictions on the other, and since both are generated based on the common first song generation data, a well-matched melody and lyrics are generated. Will be. In addition, the melody is corrected (A6), and the number of melody notes and the number of lyrics syllables are matched, so that it is possible to compose a song using the lyrics that are initially generated based on the data for song generation. Furthermore, when generating the lyrics (A4), the number of syllables of the lyrics can be determined within a range represented by the number of notes included in the first music generation data (rhythm feature data).
[0012]
According to the second feature of the present invention (claims 2 and 5), the melody and lyric generation data for generating the melody and lyrics are supplied to the lyrics and melody generation means (B4, B5). B4) generates lyrics based on the first music generation data such as rhythm feature data in the music generation data, and then the first and second supplied by the melody generation means (B5). A melody is generated based on the song generation data and the number of syllables of the generated lyrics. Further, the rhythm feature data of the first music generation data includes some data indicating the number of notes in a predetermined section, and the lyrics generating means (B4) includes the number of notes within the range indicated by the data. To determine the number of syllables in the lyrics.
[0013]
Thus, after the lyrics are generated (B4), the melody is generated to match the number of syllables of the lyrics (B5), and both are generated based on the common first song generation data. Therefore, it is possible to easily generate melody and lyrics that match well. Note that the melody generation by the melody generation means (B5) has an advantage that the melody correction process is not required, although there is a restriction on the number of syllables. Further, when generating the lyrics (B4), the number of syllables of the lyrics can be determined within a range represented by the number of notes included in the first music generation data (rhythm feature data).
[0014]
According to another feature of the present invention (Claim 3), the lyrics and the melody are generated by the lyrics and melody generation means (A4, A5) based on the music generation data, and then the melody and the melody are generated by the melody correction means (A6). Therefore, the number of melody notes and the number of lyrics syllables are matched, so that one can generate melody and lyrics without being restricted by the other, and the first song that is common to both Since it is generated based on the generation data, a melody and lyrics that match well are generated. In addition, the melody is corrected (A6), and the number of melody notes and the number of lyrics syllables are matched, so that it is possible to compose a song using the lyrics that are initially generated based on the data for song generation. Further, when generating the lyrics (A4), the number of syllables of the lyrics is determined using the first song generation data, and when generating the melody (A5), the first song generation data is used. Using it, the number of melody notes can be determined independently of the number of syllables of the lyrics.
[0015]
According to the embodiment, there is provided a vocabulary / sentence database that stores vocabulary or sentences that are candidates for lyric data in association with phrases of song composition, and the composition of phrases in the song composition is provided in the first song generation data. Phrase composition information (phrase composition data) is included, and lyrics generation means (A4, B4) generates lyric data by determining the vocabulary or sentence from the vocabulary / sentence database according to the phrase composition information in phrase units of the song composition The melody generation means (A4, A5) can be configured to generate melody data that matches the phrase configuration. Also, when performing songwriting according to the first feature, a priority order for deleting notes including chord constituent sounds is set in advance, and the melody is deleted by deleting notes according to this priority order by the melody correcting means (A6). Configure to reduce the number of data notes, divide a given note that composes a melody into multiple parts at the same pitch, or add the note pitch immediately before or after the rest to the rest part The number of notes of the melody data can be increased (FIG. 6).
[0016]
In addition, according to another embodiment, first, music generation data for generating melody and lyrics is supplied to the lyrics and melody generation means (C4, C5), and the song generation means (C4) generates the music. Lyrics are generated based on the first music generation data such as rhythm feature data included in the data, and the melody is generated by the melody generation means (C5) based on the first and second music generation data. Then, the lyrics correcting means (C6) can be configured to increase or decrease the number of syllables of the lyrics so as to match the number of notes of the melody. In the songwriting apparatus of this embodiment, lyrics and melody are generated based on the song generation data (C4, C5), and then the consistency of the lyrics and melody, that is, the number of melody notes and the number of lyrics syllables are matched (C6). Therefore, one can generate melody and lyrics without being restricted by the other, and since both are generated based on the common first song generation data, a well-matched melody And lyrics are generated. In addition, the lyrics are corrected (C6) so that the number of melody notes matches the number of lyrics syllables, so that it is possible to compose a song by making use of the melody that is initially generated based on the song generation data. Further, in this embodiment, in addition to the vocabulary / sentence of a predetermined number of syllables in the vocabulary / sentence database, a modification example in which the number of syllables is increased or decreased within a range in which the meaning or phoneme does not change from these vocabulary / sentences is a lyrics candidate When the lyrics are corrected by the lyrics correcting means (C6), the number of syllables of the lyrics generated by the lyrics generating means (C4) is increased or decreased using a modification of the vocabulary / sentence database. Therefore, you can correct the lyrics to match the melody without changing the atmosphere of the lyrics. Further, the lyrics generating means (C4) can generate lyrics having the number of syllables determined according to the number of notes included in the first music generation data (rhythm feature data).
[0017]
Furthermore, the genre data of the song is included in the song generation data that is the basis of the songwriting, and the lyrics generation means (A4, B4, C4) may generate lyrics suitable for the genre using this genre data. it can.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. The following embodiments are merely examples, and various modifications can be made without departing from the spirit of the present invention.
[0019]
[Hardware configuration]
FIG. 1 is a block diagram of a hardware configuration of a song composition processing system according to an embodiment of the present invention. In this example, the system includes a central processing unit (CPU) 1, a read only memory (ROM) 2, a random access memory (RAM) 3, an external storage device 4, first and second detection circuits 5 and 6, a display circuit. 7 and the like, a sound source circuit 8 and an effect circuit 9 are provided, and these devices 1 to 9 are connected to each other via a bus 10.
[0020]
The CPU 1 that controls the entire system performs various controls using a clock generated by the timer 11 in accordance with a predetermined software program, and in particular, mainly performs a song composition process to be described later. The ROM 2 stores predetermined control programs for controlling the system, and these control programs include various programs and tables for songwriting processing according to the present invention, along with basic information processing, Various data (music generation database, vocabulary / text database, etc.) can be included. The RAM 3 stores data and parameters necessary for various processes, and is used as a work area for temporarily storing various data being processed.
[0021]
The external storage device 4 is not only a hard disk drive (HDD) but also a compact disk read only memory (CD-ROM), a floppy disk (FD), a magneto-optical (MO) disk, a digital multipurpose disk (DVD), and a semiconductor. It consists of a device using a portable storage medium such as a memory, and can store various control programs and various data. Therefore, programs and various data (music generation database, vocabulary / sentence database, etc.) necessary for the song composition process can be read from the external storage device 4 into the RAM 3 as well as using the ROM 2 and necessary. Accordingly, the processing result can be recorded in the external storage device 4.
[0022]
The first detection circuit 5 is connected to a performance operator device 12 having a performance operator such as a keyboard for performing a performance operation. A panel operator 13 having various setting operators such as switches is connected to the second detection circuit 6, and these setting operators are called panel operators and are used for processes such as song composition processing. Used to make various settings for The display circuit 7 is connected to a display 14 and various indicators for displaying or instructing various information necessary for the song composition process.
[0023]
An effect circuit 9 composed of a DSP or the like is connected to the sound source circuit 8, and a sound system 15 including a speaker is connected to the effect circuit 9. These devices 8, 9, and 15 form a musical sound generating means having a musical sound and voice sound generation function. By this musical tone generating means, various performance data and lyric data stored in the RAM 3, the external storage device 4 and the like can be read and the corresponding musical tone and voice can be reproduced.
[0024]
The bus 10 is also connected to another MIDI information processing device 17 such as an electronic musical instrument, a sound source, and a keyboard via a MIDI interface (I / F) 16. Can give and receive. Further, a communication interface (I / F) 18 is connected to the bus 10. The communication I / F 18 is connected to the server computer 20 or the like via a communication network 19 such as a local area network (LAN), the Internet, or a telephone line. It can be connected to communicate. Therefore, the control program and various data can be stored in the external storage device 4 from the server computer 20 or the like.
[0025]
The system shown in FIG. 1 can be implemented by a data processing apparatus in the form of an electronic musical instrument provided with a dedicated performance operator or panel operator. However, a personal computer (PC) may be used, or another equivalent You may comprise a songwriting processing system using the data processing apparatus which has a data processing function.
[0026]
[Data for song generation and vocabulary / sentence data]
In the song composition processing system according to one embodiment of the present invention, song composition processing according to the first to third embodiments described later in [1] to [3] is executed, and song generation data and vocabulary / text data are recorded. Can be used to compose a desired song. FIG. 2 shows an example of the composition of music generation data used in the songwriting processing system according to one embodiment of the present invention, and FIG. 3 shows an example of the structure of vocabulary / sentence data used in the system.
[0027]
In the music generation database constructed in the ROM 2 or the external storage device 4 of this system, music generation data is recorded as a template. As shown on the left side of FIG. 2, each piece of music generation data includes melody generation data and accompaniment generation data and is assigned a genre. The melody generation data and the accompaniment generation data match the genre. It is the contents. For example, in the “love ballad” genre, the number of notes is small, and the accompaniment style is also a ballad style. In the case of the “minor enka” genre, the chord progression is chord progression in minor.
[0028]
As shown in the center (upper part) of FIG. 2, the melody generation data is composed of music composition data, rhythm characteristic data, pitch characteristic data, chord progression data, and the like. First, as shown on the right side of FIG. 2, the song composition data is composed of block composition data, passage composition data, phrase composition data, and the like, whereby the number of blocks, passages and phrases is defined. The block configuration data represents the block configuration of a song, for example, “a song is composed of two blocks of“ A block ”and“ B block ””, and the passage configuration data is, for example, “a song is“ track a ””. -Expresses the melody structure of a song such as "Section b"-"Section a '"-"Section c", and the phrase composition data includes, for example, "each phrase consists of two phrases" It represents a phrase structure such as “composed”.
[0029]
Rhythm feature data consists of basic note length data, some note number data, information indicating the presence or absence of syncopation, etc., and the basic note length data and some note number data indicate the number of syllables in the lyrics together with phrase composition data etc. It is used as data. Basic note length data represents the note lengths of the basic notes in a block, passage or phrase, and is defined by, for example, “eighth notes” or “sixteenth notes”. The maximum number of notes per block, passage or phrase is defined. The number of notes somewhat data indicates the number of notes (frequency of notes) in each block, each passage or each phrase by the number of notes relative to the maximum number of notes. The range of the number of notes is defined by “rank”, “small eyes”, and the like.
[0030]
The pitch feature data is composed of a tone range, dynamics, etc. (not shown), and the chord progression data is a chord name string (including time data if necessary).
[0031]
As shown in the center (lower part) of FIG. 2, the accompaniment generation data includes chord progression data and style designation data, and the chord progression data is used in common with the melody generation data. The style designation data is data for designating any one of many accompaniment style data stored separately. The accompaniment generation data may include other data.
[0032]
On the other hand, the vocabulary / sentence database constructed in the ROM 2 or the external storage device 4 of this system has a vocabulary or short sentences (right side) as lyrics as a minimum of M to a maximum of N as illustrated in FIG. For example, the vocabulary or sentence for each number of syllables corresponding to one phrase is stored in a database. The classification of the number of syllables is instructed on the basis of melody generation data (music composition data and rhythm feature data (maximum note length data and note number data)) when generating lyrics, and the vocabulary / An appropriate vocabulary / sentence is selected from the sentences by a predetermined method.
[0033]
In each syllable number category, as shown on the right side of FIG. 3, vocabulary / sentence data representing the vocabulary / sentence corresponding to the syllable number is stored, and which genre can be used for each vocabulary or sentence. “Genre” data indicating “,” “variation example” data when the number of syllables is slightly increased or decreased, and the like are stored.
[0034]
The “genre” data indicates the approximate contents of the lyrics in the music genre, and is used to select lyrics appropriate for the genre. For example, in “all genres”, there are many words representing general scenes, and in “love songs”, many words representing love of men and women appear.
[0035]
The modification data is similar data of the vocabulary / sentence data in which particles are inserted or deleted, or replaced with other words having similar meanings, and the number of syllables is slightly increased or decreased from the original vocabulary or sentences. . The modification data is used to increase / decrease the number of syllables of lyrics in a third embodiment to be described later.
[0036]
[1] Lyric composition processing of the first embodiment
FIG. 4 shows a functional block diagram of the song composition process of the first embodiment executed in the song composition system according to one embodiment of the present invention. Here, the outline of the songwriting function according to each embodiment will be described very simply with reference to FIG. In the songwriting system according to one embodiment of the present invention, common song generation data is used to generate melody and lyrics.
[0037]
In the first embodiment, the music generation data that is the basis for generating the melody and lyrics is transferred from the music generation database A1 to the lyrics generation unit A4 and the melody generation unit (1) A5 via the music generation data selection unit A3. The lyrics and the melody are generated based on the music generation data. The number of notes of the melody generated by the melody generating unit (1) A5 is corrected by the melody correcting unit A6 so as to match the number of syllables of the lyrics generated by the lyric generating unit A4. Consistency is taken.
[0038]
In the second embodiment, instead of the melody generation unit (1) A5 and the melody correction unit A6 of the first embodiment, a melody generation unit (2) having a function of matching the generated melody with the number of syllables of the lyrics. Is provided (FIG. 10). Furthermore, in the third embodiment, a lyrics correcting unit is provided in place of the melody correcting unit A6 of the first embodiment, and the number of syllables of lyrics is corrected so as to match the number of melody notes (FIG. 12).
[0039]
Now, the first embodiment will be described in more detail with reference to FIG. As described above, the song generation database A1 and the vocabulary / sentence database A2 store song generation data and vocabulary / sentence data, respectively. The song generation data selection unit A3 selects the song generation data (template) stored in the song generation database A1 according to the genre designated by the user, and the genre data corresponding to the song genre, Among melody generation data, song composition data that indicates the number of phrases, etc., rhythm feature data that specifies the number of notes (some notes number data) and the maximum number of notes per phrase (determined by basic note length data), etc. The music composition data, rhythm characteristic data, pitch characteristic data, chord progression data, and the like are sent to the melody generation part (1) A5.
[0040]
[Generation of lyrics data]
First, the lyrics generation unit A4 refers to the vocabulary / sentence data in the vocabulary / sentence database A2 based on the song composition and rhythm feature data in the song generation data, and determines the vocabulary / sentence candidates to be assigned to each phrase by genre. Extract according to the data. The extracted data is displayed on the display 14 and presented to the user. Therefore, when the user selects any vocabulary / sentence for each phrase, lyric data representing the selected vocabulary / sentence is generated. Note that the lyrics data generated in this case may be randomly selected on the system side from the extracted vocabulary / sentence candidates. Further, if necessary, the user may be able to edit the vocabulary / sentence of the lyrics data.
[0041]
FIG. 5 shows an example in which lyric data is generated when a song structure of 2 blocks and 4 passages is provided and the number of syllables (characters) is designated for each block. Hereinafter, a procedure for generating lyrics data will be described using this example. In the music generation data selection unit A3, in the upper four stages of FIG. 5, as indicated by “block” to “generation data” on the left side, two blocks “A block” and “B block” The music composition data representing the music structure with 4 phrases from “1st passage” to “4th passage”, 8 phrases from “1st phrase” to “8th phrase”, and the basic note length and number of notes for each of A and B blocks The melody generation data having the rhythm feature data for which the frequency is specified is selected together with the genre data for specifying the song genre, and sent to the lyrics generation unit A4.
[0042]
The lyric generation unit A4 first calculates the lyric generation conditions related to the number of syllables (characters) based on the received music generation data (genre data, music composition data, and feature data). That is, based on the number of phrases obtained from music composition data and rhythm characteristic data, the maximum number of notes in a phrase (depending on the basic note length), the number of notes (frequency), etc., the fifth row of FIG. As described above, the maximum number of syllables and the number of syllables (characters) per phrase are calculated as the lyric generation conditions, and the calculated lyric generation conditions are used as syllable (character) number instruction data for the lyrics candidate.
[0043]
For example, when the basic note length is designated as “eighth notes” as shown in block A in FIG. 5, the maximum number of syllables is set to “maximum 16 syllables” [FIG. Generation conditions ") Right side]. As for the number of syllables (characters), the number of notes is somewhat corresponding to “small eyes”, “medium” and “many” data, respectively, “small eyes” = 1 to 7 syllables (characters), “ The range of “middle” = 8 to 12 syllables (characters) and “multiple” = 13 to 16 syllables (characters) are automatically selected. In the example of FIG. 5, since the data of the number of notes in the A block is somewhat “small”, the number of characters “small” (= 1-7 syllables) is displayed as shown on the left side of the fifth row (“verb generation condition”). A range is selected. The number of syllables (characters) randomly determined from the range selected according to the content of the data is somewhat the syllable for the lyrics of each phrase (first to fourth phrases) in the block (A block). (Character) Number generation condition.
[0044]
When the basic note length is specified as “16th notes” as in the B block, the maximum number of syllables is set to “maximum 32 syllables” [FIG. ") Right side]. As for the number of syllables (characters), the number of notes is somewhat “corresponding to” “minor”, “medium” and “many” of data, respectively, “minor” = 1 to 14 syllable (character), A range of “middle” = 15 to 24 syllables (characters) and a range of “multi-purpose” = 25 to 32 syllables (characters) are automatically selected. In the example of FIG. 5, since the number of notes is somewhat “medium”, the number of characters “middle” [= 15 to 24 syllables (characters) as shown on the right side of the fifth row (“verb generation condition”). ] Range is selected. The number of syllables (characters) randomly determined from the range selected in accordance with the data content is the syllable for the lyrics of each phrase (5th to 8th phrases) in the block (B block). (Character) Number generation condition.
[0045]
Next, a vocabulary / sentence that satisfies the song generation condition (syllable number instruction data) calculated in this way and satisfies the song genre specified by the genre data is retrieved from the vocabulary / sentence database A2 and extracted. Is done. When there are a plurality of extracted vocabulary and sentences, as described above, the vocabulary and sentences are selected from these vocabularies and sentences by the user or randomly selected by the system. Are sequentially generated as lyrics data. 5 shows an example of the lyrics generated in this manner, and the parentheses indicate the number of syllables (characters) for each phrase of the generated lyrics.
[0046]
[Generation and modification of melody data]
On the other hand, the melody generation unit (1) A5 generates melody data based on the melody generation data in the music generation data. For example, the number of notes in the melody data is randomly determined according to the number of notes, the number of notes represented by the data, the maximum number of notes in one phrase defined from the maximum length data, and the like. Here, the data relating to the number of notes is similar to the number of syllables of the lyrics because the original melody generation data is also used in the lyrics generation unit A4. . Therefore, the correction of the mismatched melody part is left to the function of the melody correction unit A6.
[0047]
On the other hand, in the melody correcting unit A6, the melody data is changed by a method such as increasing or decreasing the number of notes of the melody data generated by the melody generating unit (1) A5 according to the number of syllables of the lyrics created by the lyrics generating unit A4. A process for correcting the melody is performed, and this melody correction process is referred to as a “fitting melody to the lyrics” process. This “matching melody to lyrics” process is not a process for generating a new melody, but, in principle, only increases or decreases notes based on the melody already generated by the melody generation unit (1) A3. .
[0048]
That is, the following matching rules (a) and (b) are applied to the lyric data generated by the lyric generation unit A4, and according to the number of notes in the melody data and the number of syllables in the lyric data. Adjust (increase / decrease) the number of melody notes:
(A) If the number of notes> the number of syllables (characters), give priority to the types of notes (dots) to be reduced, for example,
Priority = "Others> Chord component> Strong beat> Phrase end> Phrase start"
A priority order such as is set, and notes (spots) are deleted according to this priority order. Basically, the deleted note is rested, but if necessary, the length of the note immediately before the deleted note may be extended. When there are many notes of the same rank as deletion candidates, a note to be deleted is selected at random from these notes.
(B) If the number of notes <the number of syllables (characters),
-Divide the sound length short and add the same sound. For example, one quarter note is divided into two eighth notes having the same pitch.
・ The rest part is filled with the note pitch immediately before or after the rest. And so on.
[0049]
FIG. 6 shows an example of melody data correction by this “matching melody to lyrics” process. For example, if the first phrase of the melody is generated as shown in FIG. 6A, the number of notes is five, and the number of syllables of the lyrics “Hakagage is shaken” (bottom of FIG. 6B) corresponding to this phrase. Less than 7. Therefore, it is necessary to add two by applying the matching rule (b). In this example, as shown in (1), the original half note is divided into two and a quarter note is added, and as shown in (2), the same note after the rest is placed at the original rest position. To correct the melody as shown in FIG. 6B.
[0050]
If the fourth phrase of the melody is generated as shown in FIG. 6C, the number of notes is 21, and the syllable of the lyrics “You ... Ude ni” (bottom of FIG. 6D) corresponding to this phrase. It is necessary to reduce the number of musical notes by four more than Expression 17. Therefore, according to the priority of the matching rule (a), the four notes indicated by * (all are notes corresponding to “others”) are reduced. As for the third * -marked note, as shown in (3), after deleting the note, the immediately preceding note is extended, and finally the melody shown in FIG. 6D is corrected.
[0051]
Similarly, the melody correction can be performed for the melody of the second to fourth and sixth to eighth phrases (the description is omitted).
[0052]
In addition, the matters to be noted regarding the generation or correction of the lyrics data and the melody data are listed as follows:
(1) In the example of FIG. 6, the phrase is the section from the beginning of the first measure to the end of the second measure, but if there is a pickup (the part where the previous phrase is difficult), only this pickup part, The phrase section shifts to the left.
(2) With regard to syllables, syllable (number) = letter (number) in the above explanation, but ignoring sound-repellent stool (n) and prompting stool (tsu), or treating "there" as one syllable. It may be.
(3) If you are dissatisfied when assigning the generated lyrics to a melody, you may be able to edit it by generating the lyrics again or selecting words.
(4) Although a large number of notes (a little data on the number of notes) is used as an example of melody generation data, the number of notes may be specified. In this case, the types of melody to be generated are reduced, but the number of notes of the lyrics can be specified, so that the assignment to the notes becomes easy.
(5) In the process of fitting the melody to the lyrics (melody correction process), the chord sound may be set with a lower priority as a deletion target.
[0053]
[Generation of accompaniment data and output of performance data]
Now, the accompaniment generation unit A7 is provided with accompaniment generation data such as style designation data and chord progression data from the song generation data A1 through the song generation data selection unit A3. Accompaniment data is generated based on the accompaniment generation data. The accompaniment generation unit A7 is provided as necessary. For example, when singing with a cappella, the accompaniment generation part (A7, B7, C7) in this embodiment and in other embodiments described later. Is not necessary.
[0054]
Next, the synthesizing unit A8 synthesizes the lyrics data generated by the lyrics generating unit A4, the melody data corrected by the melody correcting unit A6, and the accompaniment data generated by the accompaniment generating unit A7 into one file. Create performance data with lyrics. Then, the performance data is output at the output unit A9.
[0055]
Examples of performance data output in the output unit A9 include the following:
(1) A musical sound based on performance data composed of melody data and accompaniment data is reproduced through a musical sound generation system (8, 9, 15) or displayed on the display 14 in the form of a musical score.
(2) Lyrics based on the lyric data are displayed on the display 14 or sung by voice through the musical sound generation system (8, 9, 15).
(3) Save in the storage medium of the external storage device 4 in the format of “performance data + lyric data” or the audio data format of (2) above.
(4) The performance data with lyrics and the like is attached to an e-mail and transmitted to others or uploaded to the server computer 20.
(5) Play accompaniment while displaying lyrics, let the user sing a melody, and record it. And so on.
[0056]
[Lyrics generation processing, melody generation processing 1 and melody correction processing flow]
FIGS. 7 to 9 show, among the song composition processes executed in the song composition system according to one embodiment of the present invention, the word generation processes executed by the word generation unit, the melody generation unit (1), and the melody correction unit, It is a flowchart showing an example of a melody generation process 1 and a melody correction process.
[0057]
First, in the lyrics generation process of FIG. 7, in the first step L1, the lyrics generation unit A4 performs genre data, song composition data, and rhythm feature data from the song generation database A1 via the song generation data selection unit A3. To get. In the next step L2, the number of syllables of the current phrase is determined based on the acquired music composition data and rhythm characteristic data, and in the subsequent step L3, based on the genre represented by the genre data and the number of syllables determined in step L2. And refer to the vocabulary / sentence database to extract vocabulary / sentence candidates.
[0058]
Next, in step L4, the vocabulary / sentence candidate extracted in step L3 is presented to the user on the display 14 to prompt the user to select a vocabulary / sentence. Subsequently, in step L5, the vocabulary / sentence is received upon selection from the user. A sentence is determined and lyrics data of the phrase is generated.
[0059]
In the next step L6, it is checked whether or not the current phrase is the last phrase. If it is not the last phrase, the process returns to step L2, and the processes in steps L2 to L6 are repeated for the next phrase. And if it determines with it being the last phrase in step L6, this word production | generation process flow will be complete | finished.
[0060]
In the melody generation process 1 of FIG. 8, in the first step M1, the melody generation unit (1) A5 sends the rhythm feature data and pitch feature from the song generation database A1 via the song generation data selection unit A3. Acquire data, chord progression data, and song composition data. In the next step M2, the number of notes of the current phrase is determined based on the acquired rhythm feature data, and in the subsequent step M3, a rhythm pattern is determined based on the rhythm feature data and the number of notes. Further, in step M4, Based on the pitch feature data and chord progression data, a pitch is given to each striking point of the rhythm pattern to generate melody data of the phrase.
[0061]
In the next step M5, it is determined whether or not the current phrase is the final phrase. If it is not the final phrase, the process returns to step M2 and the processes in steps M2 to M5 are repeated for the next phrase. If it is determined in step M5 that the phrase is the final phrase, the melody generation process 1 is terminated.
[0062]
When returning to step M2 and repeating melody generation for a new phrase, for a passage that is the same as the preceding passage in the passage structure, a new melody is not generated as in steps M2 to M5. Copy the melody of the previous passage. Similarly, for the similar passages in the passage structure, it is preferable to copy some melodies of the preceding passage.
[0063]
In the melody correction process of FIG. 9, when the melody correction unit A6 acquires the melody data generated by the melody generation unit (1) A5 and the lyric data generated by the lyrics generation unit A4, in the first step N1, It is checked whether or not the number of notes in the melody data in the phrase is greater than the number of syllables in the lyrics data. If the number of melody notes in the current phrase is greater than the number of (singing) lyrics syllables, in step N2, the notes (dots) are deleted in accordance with the priority of the matching rule (a) described above, and the process proceeds to step N3. Immediately proceeds to step N3.
[0064]
In Step N3, it is determined whether or not the number of notes in the melody data in the current phrase is less than the number of syllables in the lyrics data. If the number of melody notes in the current phrase is less than the number of (singing) lyrics syllables, in step N4, note division and rest are converted into notes according to the matching rule (b) described above, and the process proceeds to step N5. Immediately proceeds to step N5.
[0065]
In step N5, it is determined whether or not the current phrase is the final phrase. If it is not the final phrase, the process returns to step N1 and the processes of steps N1 to N5 are repeated for the next phrase. If it is determined at step N5 that the phrase is the last phrase, the melody correction process is terminated.
[0066]
[2] Song composition processing of the second embodiment
FIG. 10 shows a functional block diagram of the song composition process of the second embodiment executed in the song composition system according to one embodiment of the present invention. In the song composition process of the second embodiment, melody data is generated in accordance with the number of syllables in the lyrics data. That is, the melody generation unit (2) B5 is provided in place of the melody generation unit (1) A5 of the first embodiment, the melody correction unit A6 of the first embodiment is eliminated, and another database and processing unit B1. ˜B4, B7˜B9 have almost the same configuration as the database and processing units A1˜A4, A7˜A9 of the first embodiment, respectively, as shown in the figure.
[0067]
When determining the number of notes in the melody data, the melody generation unit (2) B5 in the song composition process of the second embodiment sets the same number as the number of syllables in the lyric data generated by the lyrics generation unit B4. That is, in the melody generation unit (2) B5, the melody generation process 2 described below is executed, and the number of notes is calculated from the number of syllables in the lyrics data without using data relating to the number of notes in the melody generation data. To decide. Therefore, the number of syllables of (song) and the number of notes of the melody can be matched with a simple configuration without providing the melody correcting unit A6 as in the first embodiment.
[0068]
[Melody generation process 2]
FIG. 11 is a flowchart showing an example of the melody generation process 2 executed by the melody generation unit (2) among the song composition processes executed in the lyrics composition system according to the embodiment of the present invention. In the first step P1 of this processing flow, the melody generation unit (2) B5 sends rhythm feature data, pitch feature data, chord progression data, and song composition from the song generation database B1 via the song generation data selection unit B3. While acquiring data, the lyrics data produced | generated by the lyrics production | generation part B4 are acquired.
[0069]
In the next step P2, the number of notes of the current phrase is determined according to the number of syllables of the (song) lyrics represented by the lyrics data, and in the subsequent step P3, a rhythm pattern is determined based on the rhythm feature data and the number of lyrics notes. Further, in step P4, based on the pitch feature data and the chord progression, a pitch is given to each hit point of the rhythm pattern to generate melody data of the phrase.
[0070]
In the next step P5, it is checked whether or not the current phrase is the last phrase. If it is not the last phrase, the process returns to step P2, and the processes of steps P2 to P5 are repeated for the next phrase. If it is determined in step P5 that the phrase is the final phrase, the melody generation process 2 is terminated.
[0071]
When returning to step P2 and repeating the melody generation of the new phrase, the melody generation process 2 also adds a new phrase as in the process of steps M2 to M5 for the same phrase as the preceding phrase in the melody structure. It is better to copy the melody of the previous passage without generating a melody. Similarly, for the similar passages in the passage structure, it is preferable to copy some melodies of the preceding passage. However, since it is necessary to match the number of notes with the number of syllables of the lyrics, it is preferable to increase or decrease the number of hit points.
[0072]
[3] Lyric composition processing of the third embodiment
FIG. 12 shows a functional block diagram of the song composition process of the third embodiment executed in the song composition system according to one embodiment of the present invention. The song composition process according to the third embodiment is characterized in that after the lyric data is generated, the number of syllables is increased or decreased in accordance with the number of melody notes. That is, the melody correcting unit (1) of the first embodiment is provided with a lyrics correcting unit C6 instead of A6, and the other databases and the processing units C1 to C5 and C7 to C9 are respectively first as shown in the figure. The database and the processing units A1 to A5 and A7 to A9 of the embodiment have almost the same configuration.
[0073]
The lyrics correcting unit C6 in the song composition process of the third embodiment executes the lyrics correcting process described later, and the melody generating unit (1) C5 determines the number of lyric syllables of the lyrics data generated by the lyrics generating unit C4. Increase or decrease according to the number of notes in the generated melody data. In order to increase or decrease the number of notes, the modification data attached to each vocabulary / sentence data in the vocabulary / sentence database C2 (the rightmost column in FIG. 3) is used to determine the actual meaning of the already generated vocabulary and sentences. You can change the number of syllables without changing it. For example, in the case of correcting the 7-syllable lyrics “shade swaying (shaking sway)” in lyrics data to 6 syllables in accordance with the number of notes 6 in the melody data, You only need to select “Leaf Shake” (6 syllables). As a result, the number of syllables of the lyrics and the number of notes of the melody can be matched without correcting the melody.
[0074]
[Lyrics correction processing]
FIG. 13 is a flowchart showing an example of the lyrics correction process executed by the lyrics correction unit in the song composition process executed in the song writing system according to the embodiment of the present invention. When the lyrics correcting unit C6 acquires the melody data generated by the melody generating unit (1) A5 and the lyric data generated by the lyrics generating unit A4, in the first step Q1 of this processing flow, Check if the number of syllables is greater than the number of notes in the melody data.
[0075]
When the number of syllables in the current phrase is greater than the number of melody notes, the process proceeds to step Q3 after performing the process of reducing the number of syllables in step Q2, and directly proceeds to step Q3. In step Q2, referring to the vocabulary / sentence database, according to the modification data corresponding to the lyric data, a modification of the number of syllables matching the number of melody notes is selected as a new (singing) lyrics, and the desired number of lyric syllables is selected. Reduce to.
[0076]
In step Q3, it is checked whether or not the number of syllables in the current phrase is less than the number of notes in the melody data. If the number of syllables in the current phrase is less than the number of melody notes, the number of syllables is increased in step Q4. The process proceeds to step Q5, and if not, the process proceeds directly to step Q5. In step Q5, referring to the vocabulary / sentence database, according to the modification data corresponding to the lyrics data, a modification of the number of syllables that matches the number of melody notes is selected as a new (singing) lyrics, and the desired number of lyric syllables is selected. Increase to.
[0077]
In step Q5, it is determined whether or not the current phrase is the final phrase. If it is not the final phrase, the process returns to step Q1, and the processes of steps Q1 to Q5 are repeated for the next phrase. If it is determined in step Q5 that the phrase is the final phrase, the lyrics correction process is terminated.
[0078]
[Various Embodiments]
As mentioned above, although the song-writing composition process by this invention has been demonstrated according to the concrete Example, the embodiment is not restricted to what was illustrated. For example, for system functions:
(1) The algorithm of songwriting and composition [(song) generation and correction unit and processing method in melody generation and correction unit] is not limited to that illustrated.
(2) In each embodiment, there may not be an accompaniment production | generation part.
(3) At least two of the three embodiments may be provided at the same time, and the user may be able to select which embodiment is used to compose the song.
[0079]
In addition, with respect to the modification example stored in the vocabulary / sentence database, in the embodiment, vocabulary / sentence having different syllable numbers and substantially unchanged in meaning are stored in association with each other. However, if the meaning of the lyrics is not considered to be very important, vocabulary / sentences whose meaning changes may be associated. For example, for words that emphasize the reverberation (phoneme) of words, if the reverberation (phoneme) is similar and the meaning is irrelevant, the vocabulary / sentence that resembles the reverberation (phoneme) is more similar to the meaning. You may associate as a modification with priority.
[0080]
The storage method of the modified example in the vocabulary / sentence database is not limited to storing the actual substance of the modified example for each vocabulary / sentence as in the embodiment, and the modified vocabulary sentence is the same as the normal vocabulary / sentence. The pointers to these vocabularies and sentences may be stored as modified examples.
[0081]
In the melody correction process, an increase / decrease rule [matching rules (a), (b)] for increasing / decreasing the number of melody notes may be selectable by the user. For example, (a) when the number of notes is increased, the user can select the note division or rest, and (b) when the number of notes is decreased, the user selects the priority of the hit type. It can be so.
[0082]
In the case of increasing the syllable of the lyrics, the vowel may be extended to be a long vowel (followed by “−”), and the expanded vowel “−” may be counted as one syllable to increase the syllable. Conversely, in order to reduce the syllable of the lyrics, the vowel “-” that is stretched may be deleted to reduce the syllable.
[0083]
The form of the system (data processing device) is not limited to the form of an electronic musical instrument, but may be a form of PC + application software, such as a karaoke device, a game device, a portable communication terminal such as a mobile phone, an automatic performance piano, etc. You may apply. When applied to a portable communication terminal, not only the case where a predetermined function is completed with only the terminal, but also a predetermined data processing function as a whole system comprising the terminal and the server, with a part of the function being provided on the server side May be realized.
[0084]
When taking the form of an electronic musical instrument, the form is not limited to a keyboard instrument, and may be a stringed instrument type, a wind instrument type, a percussion instrument type, or the like. In addition, the sound source device, the automatic performance device, etc. are not limited to those built in one electronic musical instrument body, but each is a separate device, and each device is connected using communication means such as MIDI or various networks. There may be.
[0085]
Regarding communication with an external device, the communication interface and the communication network are not limited to wired ones, and may be wireless or both. In addition, MIDI is not limited to a dedicated MIDI interface, and a MIDI interface may be configured using a general-purpose interface such as RS-232C, USB (Universal Serial Bus), IEEE 1394 (I Triple 1394), or the like. . In this case, data other than MIDI messages may be transmitted and received simultaneously.
[0086]
【The invention's effect】
As described above, according to the present invention, first, song generation data for generating melody and lyrics is supplied to the lyrics and melody generation means, and lyrics and melody are generated based on the song generation data. Later, since the consistency between the two is achieved by the melody or lyrics correction means (matching the number of notes and syllables), one can generate the melody and lyrics without any restrictions on the other, Since both are generated based on the common first music generation data, a well-matched melody and lyrics can be generated. Further, when generating the lyrics, the number of syllables of the lyrics can be determined within the range represented by the number of notes included in the first music generation data (claims 1 and 4). Alternatively, when generating the lyrics, the number of syllables of the lyrics is determined using the first song generation data, and when generating the melody, the number of syllables of the lyrics is determined using the first song generation data. The number of notes of the melody can be determined independently of (3).
[0087]
Further, according to the present invention, the melody and lyric generation data for generating the melody and the lyrics are supplied to the lyrics and the melody generation means, and first the lyrics are generated by the lyrics generation means based on the first song generation data. After that, since the melody is generated by the melody generation means so as to match the number of syllables of the lyrics, the process of correcting the melody or the lyrics can be omitted, and both the first tunes are common. Since it is generated based on the generation data, it is possible to generate a melody and lyrics that match well. Furthermore, when generating the lyrics, the number of syllables of the lyrics can be determined within a range represented by the data, which is somewhat the number of notes included in the first music generation data (claims 2 and 5).
[0088]
In other words, the present invention is a songwriting device intended to generate both melody and lyrics, and is based on the premise that the song generation data is used for both melody generation and lyrics generation. It is not necessary to set the song generation data for each of the lyrics generations, and both the melody and the lyrics are generated based on the common first song generation data such as rhythm feature data, so they match well. Melody and lyrics are generated.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a hardware configuration of a songwriting processing system according to an embodiment of the present invention.
FIG. 2 is a diagram showing a configuration example of song generation data used in the song-writing composition processing system according to one embodiment of the present invention.
FIG. 3 is a diagram showing a configuration example of vocabulary / sentence data used in the song-writing composition processing system according to one embodiment of the present invention.
FIG. 4 is a functional block diagram of song composition processing of the first embodiment executed in the song composition processing system according to one embodiment of the present invention;
FIG. 5 is a diagram showing an example of (song) lyrics generation for explaining a lyric data generation procedure according to one embodiment of the present invention;
FIG. 6 is a diagram showing a specific modification example for explaining the melody data modification process (“Melody melody adjustment process”) according to one embodiment of the present invention;
FIG. 7 is a flowchart showing (song) lyrics generation processing according to one embodiment of the present invention.
FIG. 8 is a flowchart showing melody generation processing 1 according to one embodiment of the present invention.
FIG. 9 is a flowchart showing a melody correction process according to one embodiment of the present invention.
FIG. 10 is a functional block diagram of song composition processing of the second embodiment executed in the song composition processing system according to one embodiment of the present invention;
FIG. 11 is a flowchart showing melody generation processing 2 according to one embodiment of the present invention.
FIG. 12 is a functional block diagram of song composition processing of the third embodiment executed in the song composition processing system according to one embodiment of the present invention;
FIG. 13 is a flowchart showing (song) lyrics correction processing according to one embodiment of the present invention.
[Explanation of symbols]
A1, B1, C1 song generation database,
A2, B2, C2 Vocabulary / sentence database,
A3, B3, C3 song generation data selection unit,
A4, B4, C4 (song) lyrics generator,
A5, C5 melody generator (1),
B5 Melody generator (2),
A6 Melody correction part,
C6 (song) lyrics correction part,
A7, B7, C7 accompaniment generator,
A8, B8, C8 synthesis unit,
A9, B9, C9 output section.

Claims (5)

リズム特徴データを含む第1の曲生成用データに基づいて歌詞データを生成する詞生成手段と、
上記歌詞データの生成に用いられた第1の曲生成用データ及びピッチ特徴データを含む第2の曲生成用データに基づいてメロディデータを生成するメロディ生成手段と、
上記メロディ生成手段で生成されたメロディデータの音符数を、上記詞生成手段で生成された歌詞データの音節数に合うように増減させるメロディ修正手段と
を具備し、
第1の曲生成用データは、所定区間における音符数の範囲を表わす音符数多少データを含み、
上記詞生成手段は、上記音符数多少データが表わす範囲内で詞の音節数を決定し、決定された音節数をもつ歌詞データを生成する
ことを特徴とする作詞作曲装置。
Lyrics generation means for generating lyrics data based on the first song generation data including rhythm feature data;
Melody generating means for generating melody data based on the second song generation data including the first song generation data and the pitch feature data used to generate the lyrics data;
Melody correcting means for increasing or decreasing the number of notes of the melody data generated by the melody generating means so as to match the number of syllables of the lyric data generated by the lyrics generating means,
The first song generation data includes some number of notes data representing the range of the number of notes in a predetermined section,
The above-mentioned lyrics generating means determines the number of syllables of the lyrics within the range represented by the number of notes and the data, and generates lyrics data having the determined number of syllables.
リズム特徴データを含む第1の曲生成用データに基づいて歌詞データを生成する詞生成手段と、
上記詞生成手段により生成された歌詞データの音節数、この歌詞データの生成に用いられた第1の曲生成用データ及びピッチ特徴データを含む第2の曲生成用データに基づいてメロディデータを生成するメロディ生成手段と
を具備し、
第1の曲生成用データは、所定区間における音符数の範囲を表わす音符数多少データを含み、
上記詞生成手段は、上記音符数多少データが表わす範囲内で詞の音節数を決定し、決定された音節数をもつ歌詞データを生成する
ことを特徴とする作詞作曲装置。
Lyrics generation means for generating lyrics data based on the first song generation data including rhythm feature data;
Melody data is generated based on the number of syllables of the lyric data generated by the lyric generating means, the first tune generating data used for generating the lyric data, and the second tune generating data including pitch feature data. Melody generating means for
The first song generation data includes some number of notes data representing the range of the number of notes in a predetermined section,
The above-mentioned lyrics generating means determines the number of syllables of the lyrics within the range represented by the number of notes and the data, and generates lyrics data having the determined number of syllables.
リズム特徴データを含む第1の曲生成用データに基づいて歌詞データを生成する詞生成手段と、
上記歌詞データの生成に用いられた第1の曲生成用データ及びピッチ特徴データを含む第2の曲生成用データに基づいてメロディデータを生成するメロディ生成手段と、
上記メロディ生成手段で生成されたメロディデータの音符数を、上記詞生成手段で生成された歌詞データの音節数に合うように増減させるメロディ修正手段と
を具備し、
上記詞生成手段は、第1の曲生成用データを用いて詞の音節数を決定し、
上記メロディ生成手段は、第1の曲生成用データを用いて上記詞の音節数とは独立にメロディの音符数を決定する
ことを特徴とする作詞作曲装置。
Lyrics generation means for generating lyrics data based on the first song generation data including rhythm feature data;
Melody generating means for generating melody data based on the second song generation data including the first song generation data and the pitch feature data used to generate the lyrics data;
Melody correcting means for increasing or decreasing the number of notes of the melody data generated by the melody generating means so as to match the number of syllables of the lyric data generated by the lyrics generating means,
The lyrics generating means determines the number of syllables of the lyrics using the first music generation data,
The melody generating means determines the number of notes of a melody independently of the number of syllables of the lyrics using the first music generation data.
コンピュータを、
リズム特徴データを含む第1の曲生成用データに基づいて歌詞データを生成する詞生成手段、
上記歌詞データの生成に用いられた第1の曲生成用データ及びピッチ特徴データを含む第2の曲生成用データに基づいてメロディデータを生成するメロディ生成手段、並びに、
上記メロディ生成手段により生成されたメロディデータの音符数を、上記詞生成手段により生成された歌詞データの音節数に合うように増減させるメロディ修正手段
として機能させるための作詞作曲プログラムであって、
第1の曲生成用データは、所定区間における音符数の範囲を表わす音符数多少データを含み、
上記詞生成手段は、上記音符数多少データが表わす範囲内で詞の音節数を決定し、決定された音節数をもつ歌詞データを生成する
作詞作曲プログラム。
Computer
Lyrics generating means for generating lyrics data based on the first song generation data including rhythm feature data;
Melody generating means for generating melody data based on the first song generation data and the second song generation data including pitch feature data used for generating the lyrics data; and
A songwriting program for functioning as a melody correcting means for increasing or decreasing the number of notes of the melody data generated by the melody generating means so as to match the number of syllables of the lyric data generated by the lyrics generating means,
The first song generation data includes some number of notes data representing the range of the number of notes in a predetermined section,
The lyrics generating means determines the number of syllables of the lyrics within a range represented by the number of notes and the data, and generates lyrics data having the determined number of syllables.
コンピュータを、
リズム特徴データを含む第1の曲生成用データに基づいて歌詞データを生成する詞生成手段、並びに、
上記詞生成手段により生成された歌詞データの音節数、この歌詞データの生成に用いられた第1の曲生成用データ及びピッチ特徴データを含む第2の曲生成用データに基づいてメロディデータを生成するメロディ生成手段
として機能させるための作詞作曲プログラムであって、
第1の曲生成用データは、所定区間における音符数の範囲を表わす音符数多少データを含み、
上記詞生成手段は、上記音符数多少データが表わす範囲内で詞の音節数を決定し、決定された音節数をもつ歌詞データを生成する
作詞作曲プログラム。
Computer
Lyrics generation means for generating lyrics data based on the first song generation data including rhythm feature data, and
Melody data is generated based on the number of syllables of the lyric data generated by the lyrics generating means, the second tune generating data including the first tune generating data and the pitch feature data used to generate the lyric data A songwriting program for functioning as a melody generating means,
The first song generation data includes some number of notes data representing the range of the number of notes in a predetermined section,
The lyrics generating means determines the number of syllables of the lyrics within a range represented by the number of notes and the data, and generates lyrics data having the determined number of syllables.
JP2001243891A 2001-08-10 2001-08-10 Songwriting apparatus and program Expired - Fee Related JP3646680B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001243891A JP3646680B2 (en) 2001-08-10 2001-08-10 Songwriting apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001243891A JP3646680B2 (en) 2001-08-10 2001-08-10 Songwriting apparatus and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001073044A Division JP3239897B1 (en) 2001-03-14 2001-03-14 Songwriting device and program

Publications (2)

Publication Number Publication Date
JP2002278549A JP2002278549A (en) 2002-09-27
JP3646680B2 true JP3646680B2 (en) 2005-05-11

Family

ID=19073913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001243891A Expired - Fee Related JP3646680B2 (en) 2001-08-10 2001-08-10 Songwriting apparatus and program

Country Status (1)

Country Link
JP (1) JP3646680B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4415573B2 (en) * 2003-06-13 2010-02-17 ソニー株式会社 SINGING VOICE SYNTHESIS METHOD, SINGING VOICE SYNTHESIS DEVICE, PROGRAM, RECORDING MEDIUM, AND ROBOT DEVICE
JP5413245B2 (en) * 2010-03-02 2014-02-12 ブラザー工業株式会社 Lyric syllable number presentation device and program
JP5418557B2 (en) * 2011-08-23 2014-02-19 ブラザー工業株式会社 Lyric assignment device
JP5974436B2 (en) * 2011-08-26 2016-08-23 ヤマハ株式会社 Music generator
JP5899832B2 (en) * 2011-11-10 2016-04-06 ヤマハ株式会社 Music generation apparatus and music generation method
JP5895740B2 (en) * 2012-06-27 2016-03-30 ヤマハ株式会社 Apparatus and program for performing singing synthesis
JP2014013340A (en) * 2012-07-05 2014-01-23 Pioneer Electronic Corp Music composition support device, music composition support method, music composition support program, recording medium storing music composition support program and melody retrieval device
KR102368418B1 (en) * 2020-12-31 2022-03-02 (주)휴에버그린팜 Apparatus and Method for Creating Rap Lyrics included Punch Lines

Also Published As

Publication number Publication date
JP2002278549A (en) 2002-09-27

Similar Documents

Publication Publication Date Title
US6191349B1 (en) Musical instrument digital interface with speech capability
JP7424359B2 (en) Information processing device, singing voice output method, and program
JP5974436B2 (en) Music generator
CN107430849A (en) Sound control apparatus, audio control method and sound control program
JP7363954B2 (en) Singing synthesis system and singing synthesis method
JP2002032078A (en) Device and method for automatic music composition and recording medium
JP3239897B1 (en) Songwriting device and program
JP3646680B2 (en) Songwriting apparatus and program
JP3698057B2 (en) Automatic arrangement apparatus and method
JP2007219139A (en) Melody generation system
JP3716725B2 (en) Audio processing apparatus, audio processing method, and information recording medium
JP3309766B2 (en) Automatic melody generator and recording medium
JP2023013684A (en) Singing voice quality conversion program and singing voice quality conversion device
JP3812510B2 (en) Performance data processing method and tone signal synthesis method
JP3641955B2 (en) Music data generator and recording medium therefor
JP3656519B2 (en) Performance data creation apparatus and recording medium with facial expressions
JP3265995B2 (en) Singing voice synthesis apparatus and method
JP2002032079A (en) Device and method for automatic music composition and recording medium
JP3812509B2 (en) Performance data processing method and tone signal synthesis method
JP7158331B2 (en) karaoke device
WO2022080395A1 (en) Audio synthesizing method and program
JP2005182091A (en) Playing signal processor and program
JP3752940B2 (en) Automatic composition method, automatic composition device and recording medium
JP3837981B2 (en) Performance data creation method, automatic performance device and recording medium
JP2002149179A (en) Device and method for generating melody and recording medium recorded with melody generating program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040720

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041012

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050131

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080218

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090218

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090218

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100218

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110218

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees