JP6485185B2 - 歌唱音合成装置 - Google Patents

歌唱音合成装置 Download PDF

Info

Publication number
JP6485185B2
JP6485185B2 JP2015085604A JP2015085604A JP6485185B2 JP 6485185 B2 JP6485185 B2 JP 6485185B2 JP 2015085604 A JP2015085604 A JP 2015085604A JP 2015085604 A JP2015085604 A JP 2015085604A JP 6485185 B2 JP6485185 B2 JP 6485185B2
Authority
JP
Japan
Prior art keywords
character
sound
velocity
key
key press
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015085604A
Other languages
English (en)
Other versions
JP2016206323A (ja
Inventor
桂三 濱野
桂三 濱野
智子 奥村
智子 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2015085604A priority Critical patent/JP6485185B2/ja
Publication of JP2016206323A publication Critical patent/JP2016206323A/ja
Application granted granted Critical
Publication of JP6485185B2 publication Critical patent/JP6485185B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

この発明は、リアルタイム演奏で歌唱音を発音させる際に、簡易な操作で歌詞を所望の位置に進めることのできる歌唱音合成装置に関する。
従来、タッチパネルに表示された歌詞から任意の区間をユーザーが指定し、指定された歌詞を押鍵された鍵に応じたピッチで歌唱音声として出力させる歌唱音合成装置が知られている(特許文献1参照)。この歌唱音合成装置では、押鍵のたびに次の音節へと進める第1モードと、選択された音節のみを押鍵のたびに繰り返し読み出す第2モードとを有している。
このような従来の歌唱音合成装置では、ユーザーはタッチパネルの操作により所望の歌詞を選択することができ、鍵盤の押鍵操作により、選択された歌詞の各音節を所望のタイミングにおいて所望のピッチの歌唱音声として出力することができる。
特開2014−10190号公報
従来の歌唱音合成装置では、押鍵に応じて自動的に1文字ずつあるいは1音節ずつ進める場合、演奏ミス等があると、歌詞の位置が演奏内容とずれてしまうことがある。その際、タッチパネル等のユーザーインタフェースを操作して歌詞の位置をコントロールするのは、リアルタイム演奏を行っていることから困難になるという問題点があった。
そこで、本発明は、リアルタイム演奏で歌唱音を発音させる際に、簡易な操作で歌詞を所望の位置に進められるようにする歌唱音合成装置を提供することを目的としている。
上記目的を達成するために、本発明の歌唱音合成装置は、演奏操作子の操作開始および操作強度を検出する検出手段と、該検出手段が検出した前記演奏操作子の操作開始に応じて、文字情報を記憶装置から取得する取得手段と、発音制御手段とを備え、前記取得手段が取得する文字の位置が、前記検出手段が検出した前記演奏操作子の操作強度に応じて制御され、前記発音制御手段が、前記取得手段で取得された文字を音声として発音することを最も主要な特徴としている。
本発明の歌唱音合成装置では、演奏操作子の操作に応じて取得した文字を音声として発音する場合に、演奏操作子の操作強度に応じて取得する文字を制御することができることから、リアルタイム演奏の際に、演奏操作子の操作強度を操作することで歌詞を所望の位置に進めることができるようになる。
本発明の歌唱音合成装置のハードウェア構成を示す機能ブロック図である。 本発明にかかる歌唱音合成装置における歌詞データの構成、ベロシティ設定の態様を説明する図である。 本発明にかかる歌唱音合成装置の動作例を示す図である。 本発明にかかる歌唱音合成装置が実行する歌唱音合成処理のフローチャートである。
本発明の歌唱音合成装置のハードウェア構成を示す機能ブロック図を図1に示す。
図1に示す本発明の歌唱音合成装置1において、CPU(Central Processing Unit)10は、本発明の歌唱音合成装置1の全体の制御を行う中央処理装置であり、ROM(Read Only Memory)11は制御プログラムおよび各種のデータなどが格納されている不揮発性のメモリであり、RAM(Random Access Memory)3はCPU10のワーク領域および各種のバッファなどとして使用される揮発性のメモリである。フラッシュメモリ等の書換可能なメモリとされるとされるデータメモリ18には、歌詞のテキストデータを含む文字情報および歌唱音の音声素片データが格納されている音韻データベースなどが格納されている。表示部15は、動作状態および各種設定画面やユーザーに対するメッセージなどが表示される液晶表示器等からなる表示部である。演奏操作子16は鍵盤などからなる演奏操作子であり、キーオン、キーオフ、音高、ベロシティなどの演奏情報を発生する。また、設定操作子17は、歌唱音合成装置1を設定する操作つまみや操作ボタンなどの各種設定操作子である。
音源13は、複数の発音チャンネルを有し、CPU10の制御の基で、ユーザーの演奏操作子16を使用するリアルタイム演奏に応じて1つの発音チャンネルを割り当て、割り当てられた発音チャンネルにおいて、データメモリ18から演奏に対応する音声素片データを読み出して歌唱音データを生成する。サウンドシステム14は、音源13で生成された歌唱音データをデジタル/アナログ変換器によりアナログ信号に変換して、アナログ信号とされた歌唱音を増幅してスピーカ等へ出力している。さらに、バス19は歌唱音合成装置1における各部の間のデータ転送を行うためのバスである。
本発明にかかる歌唱音合成装置1における歌詞データの構成が図2(a)に、ベロシティ設定の態様が図2(b)に示されている。歌詞データは、歌詞の内容を表すテキストデータ30からなり、テキストデータ30を構成する文字の各々が文字情報31である。なお、文字情報31は一度の押鍵で読み出される1音節を単位としてテキストデータ30を定義したものである。図2(a)に示す場合は、「さくらさくらのやまも」がテキストデータ30とされ、そのc11〜c34が文字情報31とされている。最初の「さくら」の3文字のテキストデータ30が第1フレーズ32aであることを、c11,c12,c13の文字情報31が示し、続く「さくら」の3文字のテキストデータ30が第2フレーズ32bであることを、c21,c22,c23の文字情報が示し、続く「のやまも」の4文字のテキストデータ30が第3フレーズ32cであることを、c31,c32,c33,c34の文字情報が示している。すなわち、c11は1文字目の「さ」が第1フレーズ32aに属することの情報とされ、c12は2文字目の「く」が第1フレーズ32aに属することの情報とされ、c13は3文字目の「ら」が第1フレーズ32aに属することの情報とされている。c21〜c34も同様とされており、例えば、c21は4文字目の「さ」が第2フレーズ32bに属することの情報とされ、c31は7文字目の「の」が第3フレーズ32cに属することの情報とされている。
次に、本発明にかかる歌唱音合成装置1におけるベロシティ設定の一態様を図2(b)に示す。本発明にかかる歌唱音合成装置1では、押鍵した際のベロシティVに応じて発音する際に読み出す文字の位置を制御している。図2(b)は縦軸がベロシティVの強度とされ、この図に示すベロシティ設定では、ベロシティVがVa以下の強度の場合をベロシティV0と定義し、発音指示があった際に、ベロシティVがV0であった場合は通常の位置の文字を読み出して発音する。また、Va<Vbとした時に、ベロシティVがVaを超えてVb以下の場合をベロシティV1と定義し、押鍵した際に、ベロシティVがV1であった場合は通常の位置の次の文字を読み出して発音する。さらに、ベロシティVがVbを超えている場合をベロシティV2と定義し、押鍵した際に、ベロシティVがV2であった場合は次のフレーズの先頭文字を読み出して発音する。例えば、Vaはメゾフォルテ(mf)に相当する強度とされ、Vbはフォルテ(f)あるいはフォルティッシモ(ff)に相当する強度とされる。これにより、次に説明するように押鍵すべき鍵を押し損ねた際にも、読み出される歌詞の位置を次に押鍵した際のベロシティでコントロールすることができ、リアルタイム演奏の演奏内容と歌詞の位置を一致させることができるようになる。
本発明にかかる歌唱音合成装置1の動作例を図3(a)(b)(c)に示し、その際に実行される歌唱音合成処理のフローチャートを図4に示す。
図3(a)に示す動作例1を図4に示すフローチャートで説明する。図3(a)の縦軸は音高を示し、横軸は時間を示している。この場合、音名で音高を表し、時間軸の時刻t0〜t12で拍打ちのタイミングを示している。ユーザーがリアルタイム演奏するに先立ち、データメモリ18に格納されている歌詞データの内の図2(a)に示す歌詞データが選択されており、読み出す文字を示すカーソルが先頭のc11の文字「さ」の位置に置かれているとする。
ユーザーが演奏を開始して演奏操作子16の内のAの鍵を、時刻t0で押鍵k0すると、この押鍵k0をCPU10が検出し、最初の歌唱音合成処理がスタートする。ここで、歌唱音合成処理におけるステップS14の音声素片データ選択処理およびステップS15の発音処理はCPU10の制御の基で音源13において実行され、これ以外の処理はCPU10が実行する。スタートされた歌唱音合成処理のステップS10では、時刻t0で操作された演奏操作子16の押鍵k0に基づく発音指示をCPU10が受け付ける。この際に、CPU10は押鍵k0のタイミングt0、操作された演奏操作子16の音高情報Aおよびベロシティなどの演奏情報を取得する。この場合、演奏操作子16とされる鍵盤は、例えば、鍵盤の押し込み操作を3段階で検出する第1センサ、第2センサ、第3センサが設けられた3メイクの鍵盤とされている。そして、CPU10は、第1センサがオンしてから第2センサがオンするまでの時間に基づいて算出したベロシティVの強度を取得する。ステップS11では、押鍵k0された鍵のベロシティVがベロシティV0の強度とされているか否かが判定され、CPU10が算出したベロシティVの強度がVa以下の場合は、ベロシティVがベロシティV0の強度とされている(Yes)と判定してステップS13に進む。押鍵k0では、ユーザーは意図的にベロシティV0となる押鍵速度で押鍵したとする。これにより、CPU10はステップS11ではYesと判定してステップS13に進み、データメモリ18からカーソル位置の文字をCPU10が取得する。この場合は、図2(a)に示す歌詞データが選択されており、選択された歌詞データを表すテキストデータ30の先頭の文字c11にカーソルが置かれている。これにより、時刻t0で押鍵k0に基づく発音指示を受け付けた際には、CPU10は、カーソルが置かれたc11の文字「さ」をデータメモリ18から読み出す。
次いで、ステップS14で音声素片データ選択処理が行われる。この音声素片データ選択処理は、CPU10の制御の基で音源13で行われる処理であり、取得された文字を発音させる音声素片データをデータメモリ18に格納されている音韻データベースから選択する。音韻データベースには、「音素連鎖データ」と「定常部分データ」が記憶されている。音素連鎖データは、無音(#)から子音、子音から母音、母音から(次の文字の)子音または母音など、発音が変化する際の音素片のデータである。また、定常部分データは、母音の発音が継続する際の音素片のデータである。押鍵k0に基づく発音指示を受け付けて、取得された文字が、c11の「さ」の場合は、音源13において、音素連鎖データから「無音→子音s」に対応する音声素片データ「#−s」と「子音s→母音a」に対応する音声素片データ「s−a」が選択されると共に、定常部分データから「母音a」に対応する音声素片データ「a」が選択される。次いで、ステップS15にて、ステップS14で選択した音声素片データに基づく発音開始処理をCPU10の制御の基で音源13が行う。上記したように、音声素片データが選択された場合は、ステップS15の発音開始処理において、「#−s」→「s−a」→「a」の音声素片データの発音が順次音源13において行われて、c11の文字「さ」の発音が行われる。発音の際には、押鍵k0に基づく発音指示の受付の際に取得した音高Aで、予め定めた所定の音量で「さ」の歌唱音が発音される。ステップS15の発音開始処理で発音が開始されると、ステップS16に進み、CPU10は次のc12の文字「く」にカーソルを進める。次いで、ステップS17にて、CPU10は押鍵中の鍵のベロシティがVth以上変化したか否かを判定する。ここでは、ユーザーは押鍵k0のベロシティを変化させないよう演奏していることから、ステップS17でCPU10はNoと判定して、ステップS18に進み押鍵k0が離鍵されて発音停止指示がされたか否かをCPU10が判定する。ここで、押鍵k0は未だ離鍵されていない(No)とCPU10が判定すると、ステップS17に戻り、ステップS17とステップS18の処理か繰り返し行われる。そして、図3(a)に示すように時刻t1の直前で押鍵k0が離鍵されると、ステップS18でCPU10は発音停止指示を受けたと判定してc11の「さ」の文字の発音に対する消音処理を行い、「さ」の歌唱音は停止する。これにより、歌唱音合成処理は終了する。
次いで、演奏が進行してユーザーが時刻t1においてAの鍵を押鍵k1すると、この押鍵k1をCPU10が検出し、2度目の歌唱音合成処理がスタートされる。この押鍵k1では、ユーザーは意図的にベロシティV0となる押鍵速度で押鍵したとする。歌唱音合成処理は上記したと同様に行われ、CPU10はステップS11で、押鍵k1のベロシティVがベロシティV0であると検出し、ステップS13でカーソル位置のc12の文字である「く」をデータメモリ18から読み出す。次いで、音源13では「く」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「#−k」、「k−u」、「u」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc12の「く」の文字を発音開始する。この発音開始では、「#−k」→「k−u」→「u」の音声素片データの発音が順次音源13において、押鍵k1の音高Aで、予め定めた所定の音量で発音される。これにより、「く」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc13の文字「ら」の位置に進められる。押鍵k1は時刻t2に達する前に離鍵されて、押鍵k1の発音停止指示をCPU10がステップS18で検出し、c12の「く」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
次いで、演奏が進行して時刻t2においてBの鍵を押鍵k2すべきであるが、ユーザーが押鍵k2を押し損ねたとする。この場合は、押鍵k2がされなかったことから、CPU10は発音指示を受け付けず歌唱音合成処理は開始されない。従って、カーソル位置のc13の文字「ら」が読み出されないと共に、その発音開始処理も行われず、カーソルの位置は「ら」の文字位置に留まっている。
さらに演奏が進行して、時刻t4でユーザーがAの鍵を押鍵k3すると、この押鍵k3をCPU10が検出し、3度目の歌唱音合成処理がスタートされる。この押鍵k3では、ユーザーは意図的にベロシティV1となる押鍵速度で押鍵したとする。これにより、歌唱音合成処理のステップS11では、CPU10は、押鍵k3のベロシティVがベロシティV0以上であると検出し、ステップS12に分岐する。ステップS12では、CPU10が算出したベロシティVに応じた位置の文字を取得する。この場合、ベロシティVがベロシティV1であるとCPU10が検出すると、図2(b)に示すようにカーソルのある文字の次の文字を読み出す、すなわち、カーソル位置のc13の文字「ら」の次の文字であるc21の「さ」を読み出す。次いで、音源13では「さ」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「#−s」、「s−a」、「a」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc21の「さ」の文字を発音開始する。この発音開始では、「#−s」→「s−a」→「a」の音声素片データの発音が順次音源13において、押鍵k3の音高Aで、予め定めた所定の音量で発音される。これにより、「さ」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc22の文字「く」の位置に進められる。押鍵k3は時刻t5に達する前に離鍵されて、押鍵k3の発音停止指示をCPU10がステップS18で検出し、c21の「さ」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
このように、押鍵k2を押し損ねると、次の押鍵k3で発音開始される歌詞の位置が1文字ずれることになるが、押鍵k3をベロシティV0を超えるベロシティV1で押鍵することにより、是正することができる。すなわち、ベロシティV1で押鍵することにより、カーソル位置の次の文字を読み出して発音開始することができるようになる。これにより、演奏を間違えた(押鍵すべきノートを押鍵しなかった)場合に、次の押鍵をベロシティV0を超えるベロシティV1で演奏すれば、本来その押鍵で発音すべき文字をすぐに発音させられるようになる。
さらに演奏が進行してユーザーが、時刻t5においてAの鍵を押鍵k4すると、この押鍵k4をCPU10が検出し、4度目の歌唱音合成処理がスタートされる。この押鍵k4では、ユーザーは意図的にベロシティV0となる押鍵速度で押鍵したとする。歌唱音合成処理は上記したと同様に行われ、CPU10はステップS11で、押鍵k4のベロシティVがベロシティV0であると検出し、ステップS13でカーソル位置のc22の文字である「く」をデータメモリ18から読み出す。次いで、音源13では「く」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「#−k」、「k−u」、「u」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc22の「く」の文字を発音開始する。この発音開始では、「#−k」→「k−u」→「u」の音声素片データの発音が順次音源13において、押鍵k4の音高Aで、予め定めた所定の音量で発音される。これにより、「く」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc23の文字「ら」の位置に進められる。押鍵k4は時刻t6に達する前に離鍵されて、押鍵k4の発音停止指示をCPU10がステップS18で検出し、c22の「く」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
さらに演奏が進行してユーザーが、時刻t6においてBの鍵を押鍵k5すると、この押鍵k5をCPU10が検出し、5度目の歌唱音合成処理がスタートされる。この押鍵k5では、ユーザーは意図的にベロシティV0となる押鍵速度で押鍵したとする。歌唱音合成処理は上記したと同様に行われ、CPU10はステップS11で、押鍵k5のベロシティVがベロシティV0であると検出し、ステップS13でカーソル位置のc23の文字である「ら」をデータメモリ18から読み出す。次いで、音源13では「ら」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「#−r」、「r−a」、「a」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc23の「ら」の文字を発音開始する。この発音開始では、「#−r」→「r−a」→「a」の音声素片データの発音が順次音源13において、押鍵k5の音高Bで、予め定めた所定の音量で発音される。これにより、「ら」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc31の文字「の」の位置に進められる。押鍵k5は時刻t7を越えて時刻t8に達する前に離鍵されて、押鍵k5の発音停止指示をCPU10がステップS18で検出し、c23の「ら」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
本発明にかかる歌唱音合成装置1では、ベロシティV1で押鍵された時に上記した動作とは異なる動作で動作させることができる。このバリエーションの動作を、図3(a)の時刻t8以降で説明する。演奏が進行してユーザーが時刻t8でAの鍵を押鍵k6すると、この押鍵k6をCPU10が検出し、6度目の歌唱音合成処理がスタートされる。この押鍵k6では、ユーザーは意図的にベロシティV0となる押鍵速度で押鍵したとする。歌唱音合成処理は上記したと同様に行われ、CPU10はステップS11で、押鍵k6のベロシティVがベロシティV0であると検出し、ステップS13でカーソル位置のc31の文字である「の」をデータメモリ18から読み出す。次いで、音源13では「の」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「#−n」、「n−o」、「o」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc31の「の」の文字を発音開始する。この発音開始では、「#−n」→「n−o」→「o」の音声素片データの発音が順次音源13において、押鍵k6の音高Aで、予め定めた所定の音量で発音される。これにより、「の」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc32の文字「や」の位置に進められる。押鍵k6はほぼ時刻t9で離鍵されて、押鍵k6の発音停止指示をCPU10がステップS18で検出し、c31の「の」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
次いで、時刻t9においてBの鍵を押鍵k7すべきであるが、押鍵k7を押し損ねたとする。この場合は、押鍵k7がされなかったことから、CPU10は発音指示を受け付けず歌唱音合成処理は開始されない。従って、カーソル位置のc32の文字「や」が読み出されないと共に、その発音開始処理も行われず、カーソルの位置は「や」の文字位置に留まっている。
さらに演奏が進行して、時刻t10でユーザーがCの鍵を押鍵k8すると、この押鍵k8をCPU10が検出し、7度目の歌唱音合成処理がスタートされる。この押鍵k8では、ユーザーは意図的にベロシティV1となる押鍵速度で押鍵したとする。これにより、歌唱音合成処理のステップS11では、CPU10は、押鍵k8のベロシティVがベロシティV0以上であると検出し、ステップS12に分岐する。ステップS12では、CPU10が算出したベロシティVに応じた位置の文字を取得する。このバリエーションの動作では、押鍵k8のベロシティVがベロシティV1であると検出されると、カーソル位置の文字を短時間で発音させた後でその次の文字を発音させる。すなわち、CPU10がベロシティVがベロシティV1であると検出すると、カーソル位置のc32の文字「や」と次のc33の文字「ま」とをCPU10が読み出す。次いで、音源13では「や」を発音するための音素片データと「ま」を発音するための音素片データとをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「や」に続いて「ま」を発音することから「#−y」、「y−a」、「a」の音声素片データと、「a−m」、「m−a」、「a」の音声素片データとが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc32の「や」の文字を発音開始する。この発音開始では、「#−y」→「y−a」→「a」の音声素片データの発音が順次音源13において、押鍵k8の音高Cで、予め定めた所定の音量で発音される。これにより、「や」の歌唱音が発音されるが、この発音期間は短時間とされ、発音停止された「や」の歌唱音に続いて、音源13は選択された音声素片データに基づいてc33の「ま」の文字を発音開始する。この発音開始では、「a−m」→「m−a」→「a」の音声素片データの発音が順次音源13において、押鍵k8の音高Cで、予め定めた所定の音量で発音される。これにより、「や」の歌唱音に続いて「ま」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc34の文字「も」の位置に進められる。押鍵k8はほぼ時刻t11で離鍵されて、押鍵k8の発音停止指示をCPU10がステップS18で検出し、c33の「ま」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
このように、押鍵k7を押し損ねると、次の押鍵k8で発音開始される歌詞の位置が1文字ずれることになるが、押鍵k8をベロシティV0を超えるベロシティV1で押鍵することにより、バリエーションの動作では是正することができる。すなわち、バリエーションの動作では、ベロシティV1で押鍵することにより、カーソルの位置の文字を読み出し、次いで次の文字を読み出して、カーソルの位置の文字を短時間だけ発音するようにしている。これにより、バリエーションの動作では、演奏を間違えた(押鍵すべきノートを押鍵しなかった)場合にも、文字が抜けることがなく聴衆にとって歌詞の意味が理解しやすい演奏とすることができる。
さらに演奏が進行してユーザーが、時刻t11においてBの鍵を押鍵k9すると、この押鍵k9をCPU10が検出し、8度目の歌唱音合成処理がスタートされる。この押鍵k9では、ユーザーは意図的にベロシティV0となる押鍵速度で押鍵したとする。歌唱音合成処理は上記したと同様に行われ、CPU10はステップS11で、押鍵k9のベロシティVがベロシティV0であると検出し、ステップS13でカーソル位置のc34の文字である「も」をデータメモリ18から読み出す。次いで、音源13では「も」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「#−m」、「m−o」、「o」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc34の「も」の文字を発音開始する。この発音開始では、「#−m」→「m−o」→「o」の音声素片データの発音が順次音源13において、押鍵k9の音高Bで、予め定めた所定の音量で発音される。これにより、「も」の歌唱音が発音される。次いで、ステップS16で、カーソルは次の文字の位置に進められる。この場合、次の文字がない場合はこのステップはスキップされる。押鍵k9はほぼ時刻t12で離鍵されて、押鍵k9の発音停止指示をCPU10がステップS18で検出し、c34の「も」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
次に、図3(b)に本発明にかかる歌唱音合成装置1の動作例2を示す。ここでは、上記した図3(a)に示す動作例1と異なる動作について、図3(b)に示す動作例2を説明する。図3(b)においても縦軸は音名で表した音高とされ、横軸の時間軸は時刻t0〜t12で拍打ちのタイミングを示している。また、ユーザーがリアルタイム演奏するに先立ち、図2(a)に示す歌詞データを選択しており、読み出す文字を示すカーソルが先頭のc11の文字「さ」にあるものとする。
ユーザーが演奏を開始して演奏操作子16の内のAの鍵を、時刻t0で押鍵k0すると、この押鍵k0をCPU10が検出し、最初の歌唱音合成処理がスタートされる。この時に実行される処理は、上記した動作例1と同様の処理とされるので、その説明は省略する。また、演奏が進行してユーザーが時刻t1においてAの鍵を押鍵k1すると、この押鍵k1をCPU10が検出し、2度目の歌唱音合成処理がスタートされる。この時に実行される処理も、上記した動作例1と同様の処理とされるのて、その説明は省略する。
演奏がさらに進行してユーザーが時刻t2においてBの鍵を押鍵k2すると、この押鍵k2をCPU10が検出し、3度目の歌唱音合成処理がスタートされる。この押鍵k2では、ユーザーは意図的にベロシティV0となる押鍵速度で押鍵したとする。歌唱音合成処理において、CPU10はステップS11で、押鍵k2のベロシティVがベロシティV0であると検出し、ステップS13でカーソル位置のc13の文字である「ら」をデータメモリ18から読み出す。次いで、音源13では「ら」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「#−r」、「r−a」、「a」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc13の「ら」の文字を発音開始する。この発音開始では、「#−r」→「r−a」→「a」の音声素片データの発音が順次音源13において、押鍵k2の音高Bで、予め定めた所定の音量で発音される。これにより、「ら」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc21の文字「さ」の位置に進められる。押鍵k2は時刻t3を越えて時刻t4に達する前に離鍵されて、押鍵k2の発音停止指示をCPU10がステップS18で検出し、c13の「ら」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
演奏がさらに進行してユーザーが時刻t4においてAの鍵を押鍵k3すると、この押鍵k3をCPU10が検出し、4度目の歌唱音合成処理がスタートされる。この押鍵k3では、ユーザーは意図的にベロシティV0となる押鍵速度で押鍵したとする。歌唱音合成処理において、CPU10はステップS11で、押鍵k3のベロシティVがベロシティV0であると検出し、ステップS13でカーソル位置のc21の文字である「さ」をデータメモリ18から読み出す。次いで、音源13では「さ」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「#−s」、「s−a」、「a」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc21の「さ」の文字を発音開始する。この発音開始では、「#−s」→「s−a」→「a」の音声素片データの発音が順次音源13において、押鍵k3の音高Aで、予め定めた所定の音量で発音される。これにより、「さ」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc22の文字「く」の位置に進められる。押鍵k3は時刻t5に達する前に離鍵されて、押鍵k3の発音停止指示をCPU10がステップS18で検出し、c21の「さ」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
次いで、時刻t5においてAの鍵を押鍵k4すべきであるが、押鍵k4を押し損ねたとする。この場合は、押鍵k4がされなかったことから、CPU10は発音指示を受け付けず歌唱音合成処理は開始されない。従って、カーソル位置のc22の文字「く」が読み出されないと共に、その発音開始処理も行われず、カーソルの位置は「く」の文字位置に留まっている。
さらに、時刻t6においてBの鍵を押鍵k5すべきであるが、押鍵k5も押し損ねたとする。この場合は、押鍵k5がされなかったことから、CPU10は発音指示を受け付けず歌唱音合成処理は開始されない。従って、カーソル位置のc22の文字「く」が読み出されないと共に、その発音開始処理も行われず、カーソルの位置は「く」の文字位置に留まっている。
さらに演奏が進行して、時刻t8でユーザーがAの鍵を押鍵k6すると、この押鍵k6をCPU10が検出し、5度目の歌唱音合成処理がスタートされる。この押鍵k6では、ユーザーは意図的にベロシティV2となる押鍵速度で押鍵したとする。これにより、歌唱音合成処理のステップS11では、CPU10は、押鍵k6のベロシティVがベロシティV0以上であると検出し、ステップS12に分岐する。ステップS12では、CPU10が算出したベロシティVに応じた位置の文字を取得する。この場合、押鍵k6のベロシティVがベロシティV2であると検出されると、図2(b)に示すように次のフレーズの文字が読み出される。この場合、カーソルはc22にあり、c22が第2フレーズ32bに属することから、次の第3フレーズ32cの先頭のc31の文字「の」をCPU10が読み出す。次いで、音源13では「の」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「#−n」、「n−o」、「o」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc31の「の」の文字を発音開始する。この発音開始では、「#−n」→「n−o」→「o」の音声素片データの発音が順次音源13において、押鍵k6の音高Aで、予め定めた所定の音量で発音される。これにより、「の」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc32の文字「や」の位置に進められる。押鍵k6はほぼ時刻t9で離鍵されて、押鍵k6の発音停止指示をCPU10がステップS18で検出し、c31の「の」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
このように、時刻t5における押鍵k4と時刻t6における押鍵k5を続けて押し損ねたことにより、歌詞の位置が演奏内容と2文字分ずれることになるが、この歌詞のずれを次の押鍵k6をベロシティV2で押鍵することにより、カーソルのあるフレーズの次のフレーズを読み出すことによりずれを是正することができるようになる。すなわち、演奏を間違えた(押鍵すべきノートを押鍵しなかった)場合に、次の押鍵をベロシティV2で演奏することで、本来その押鍵で発音すべき文字をすぐに発音させられるようになる。図3(b)における時刻t9以降の動作の説明については、上記の説明から容易に理解できることから省略する。
次に、図3(c)に本発明にかかる歌唱音合成装置1の動作例3を示す。図3(c)は図3(a)と同様に縦軸が音名で表した音高とされ、横軸の時間軸において時刻t20〜t23で拍打ちのタイミングを示しているが、図示する区間は演奏の一部区間とされている。ユーザーがリアルタイム演奏するに先立ち、図2(a)に示す歌詞データを選択しており、読み出す文字を示すカーソルが先頭のc11の文字「さ」にあるものとする。
演奏中においてユーザーが演奏操作子16の内のAの鍵を、時刻t20で押鍵k10すると、この押鍵k10をCPU10が検出し、歌唱音合成処理がスタートされる。この押鍵k10では、ユーザーは意図的にベロシティV0となる押鍵速度で押鍵したとする。歌唱音合成処理において、CPU10はステップS11で、押鍵k10のベロシティVがベロシティV0であると検出し、ステップS13でカーソル位置のc11の文字である「さ」をデータメモリ18から読み出す。次いで、音源13では「さ」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「#−s」、「s−a」、「a」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc11の「さ」の文字を発音開始する。この発音開始では、「#−s」→「s−a」→「a」の音声素片データの発音が順次音源13において、押鍵k10の音高Aで、予め定めた所定の音量で発音される。これにより、「さ」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc12の文字「く」の位置に進められる。
押鍵k10の押鍵中であって時刻t21の近辺において押鍵中のAの鍵を押し込んだとする。ステップS17では、押鍵中の鍵のベロシティがVth以上変化したか否かをCPU10が判定するが、ここでは、ユーザーは押鍵k10のベロシティを意図的にVth以上変化させるようにAの鍵を押し込んだとする。これにより、ステップS17でCPU10はYesと判定して、ステップS13に戻り、カーソル位置のc12の文字である「く」をCPU10がデータメモリ18から読み出す。次いで、音源13では「く」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「さ」に続いて「く」を発音することから「a−k」、「k−u」、「u」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc12の「く」の文字を発音開始する。この発音開始では、「a−k」→「k−u」→「u」の音声素片データの発音が順次音源13において、押鍵k10の音高Aで、予め定めた所定の音量で発音される。発音開始する際には、「さ」の歌唱音は停止され、「さ」の歌唱音に続いて「く」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc13の文字「ら」の位置に進められる。押鍵k10はほぼ時刻t22で離鍵されて、押鍵k10の発音停止指示をCPU10がステップS18で検出し、c12の「く」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
さらに演奏が進行してユーザーが、時刻t22においてBの鍵を押鍵k12すると、この押鍵k5をCPU10が検出し、2度目の歌唱音合成処理がスタートされる。この押鍵k12では、ユーザーは意図的にベロシティV0となる押鍵速度で押鍵したとする。歌唱音合成処理は上記したように行われ、CPU10はステップS11で、押鍵k12のベロシティVがベロシティV0であると検出し、ステップS13でカーソル位置のc13の文字である「ら」をデータメモリ18から読み出す。次いで、音源13では「ら」を発音するための音素片データをステップS14でデータメモリ18の音韻データベースから選択する。この場合、「#−r」、「r−a」、「a」の音声素片データが選択される。そして、ステップS15にて、音源13は選択された音声素片データに基づいてc13の「ら」の文字を発音開始する。この発音開始では、「#−r」→「r−a」→「a」の音声素片データの発音が順次音源13において、押鍵k12の音高Bで、予め定めた所定の音量で発音される。これにより、「ら」の歌唱音が発音される。次いで、ステップS16で、カーソルは次のc21の文字「の」の位置に進められる。押鍵k12は時刻t23を越えて離鍵されて、押鍵k12の発音停止指示をCPU10がステップS18で検出し、c13の「ら」の歌唱音は消音される。ステップS18の処理が終了すると歌唱音合成処理は終了する。
このように、本発明にかかる歌唱音合成装置1では、押鍵中に、ベロシティを所定量(Vth)以上増加する演奏を行うとき、すなわち、アフタータッチによって、発音中の文字の次の文字を押鍵中の鍵の音高で発音させることができる。
以上説明した本発明の歌唱音合成装置においては、ベロシティと発音させる文字の進め方の対応については、いろいろなバリエーションが考えられる。例えば、N段階にベロシティ範囲を設定して、そのベロシティ範囲に応じて発音させる文字を、1文字進める、2文字進める、・・・N文字進める、と設定することにより、所望の文字数を押鍵ベロシティで制御できるようになる。また、以上の説明では、ベロシティが大きいときに発音させる文字を複数文字進めるようにしたが、これに替えて、ベロシティが小さいときに発音させる文字を複数文字進めるようにしてもよい。さらに、ベロシティ値に応じて、発音させる文字を戻すようにしてもよい。この場合、フレーズの先頭位置に戻したり、1文字戻すように制御してもよい。
ところで、ベロシティ範囲の設定を多段階に設定するほど、正確なベロシティでの演奏が求められることとなり、演奏操作が難しくなる。そこで、鍵盤の操作にペダル等の他の演奏操作子の操作を組み合わせることで、発音させる文字を進めたり戻したりしてもよい。たとえば、上記したように動作する本発明の歌唱音合成装置において、ペダルを踏みながらベロシティV1で演奏した場合には発音させる文字を1文字戻るようにし、ペダルを踏みながらベロシティV2で演奏した場合には発音させる文字をフレーズ先頭に戻るようにすることができる。これによれば、ベロシティ設定を3段階としても、5種類の発音させる文字の文字制御を行うことができるようになる。
さらにまた、本発明の歌唱音合成装置において、演奏操作子は鍵盤ではない演奏操作子であってもよい。例えば、打楽器(パッド)型の場合には打撃力に応じて、発音させる文字の制御を行い、弦楽器型の場合には弦をはじく強さに応じて、発音させる文字の制御を行い、管楽器型の場合には息の量に応じて、発音させる文字の制御を行うようにしてもよい。
さらにまた、本発明の歌唱音合成装置において、文字情報を記憶したデータメモリに替えて、ハードディスク、内蔵メモリ、外付けメモリ、ネットワーク経由のサーバなどに文字情報等を記憶するようにしてもよい。
なお、本発明の歌唱音発音装置では、押鍵ベロシティは文字制御のための情報としてのみ扱い、音量制御には使用されないものとしたが、特定のスイッチやツマミ、あるいは、特定の演奏操作子を操作しながら押鍵した時には、押鍵ベロシティにより音量制御するようにしてもよい。
1 歌唱音合成装置、10 CPU、11 ROM、12 RAM、13 音源、14 サウンドシステム、15 表示部、16 演奏操作子、17 設定操作子、18 データメモリ、19 バス、30 テキストデータ、31 文字情報、32a 第1フレーズ、32b 第2フレーズ、32c 第3フレーズ

Claims (3)

  1. 演奏操作子の操作開始および操作強度を検出する検出手段と、
    該検出手段が検出した前記演奏操作子の操作開始に応じて、文字情報を記憶装置から取得する取得手段と、
    発音制御手段とを備え、
    前記取得手段が取得する文字の位置が、前記検出手段が検出した前記演奏操作子の操作強度に応じて制御され、前記発音制御手段が、前記取得手段で取得された文字を音声として発音することを特徴とする歌唱音合成装置。
  2. 前記検出手段が検出した前記演奏操作子の操作開始時の操作強度に応じて、前記取得手段が取得する文字の位置を制御することを特徴とする請求項1に記載の歌唱音合成装置。
  3. 前記検出手段が検出した前記演奏操作子の操作中の操作強度の変化に応じて、前記取得手段が次に位置する文字を取得して、該取得手段で取得された文字を、前記発音制御手段が音声として発音することを特徴とする請求項1に記載の歌唱音合成装置。
JP2015085604A 2015-04-20 2015-04-20 歌唱音合成装置 Active JP6485185B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015085604A JP6485185B2 (ja) 2015-04-20 2015-04-20 歌唱音合成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015085604A JP6485185B2 (ja) 2015-04-20 2015-04-20 歌唱音合成装置

Publications (2)

Publication Number Publication Date
JP2016206323A JP2016206323A (ja) 2016-12-08
JP6485185B2 true JP6485185B2 (ja) 2019-03-20

Family

ID=57489608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015085604A Active JP6485185B2 (ja) 2015-04-20 2015-04-20 歌唱音合成装置

Country Status (1)

Country Link
JP (1) JP6485185B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6587008B1 (ja) 2018-04-16 2019-10-09 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP6587007B1 (ja) * 2018-04-16 2019-10-09 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP6610714B1 (ja) 2018-06-21 2019-11-27 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP6547878B1 (ja) 2018-06-21 2019-07-24 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP6610715B1 (ja) 2018-06-21 2019-11-27 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP7059972B2 (ja) 2019-03-14 2022-04-26 カシオ計算機株式会社 電子楽器、鍵盤楽器、方法、プログラム
JP6766935B2 (ja) * 2019-09-10 2020-10-14 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP6760457B2 (ja) * 2019-09-10 2020-09-23 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP7259817B2 (ja) * 2020-09-08 2023-04-18 カシオ計算機株式会社 電子楽器、方法及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4735544B2 (ja) * 2007-01-10 2011-07-27 ヤマハ株式会社 歌唱合成のための装置およびプログラム

Also Published As

Publication number Publication date
JP2016206323A (ja) 2016-12-08

Similar Documents

Publication Publication Date Title
JP6485185B2 (ja) 歌唱音合成装置
JP5821824B2 (ja) 音声合成装置
CN107430849B (zh) 声音控制装置、声音控制方法和存储声音控制程序的计算机可读记录介质
WO2016152717A1 (ja) 音制御装置、音制御方法、および音制御プログラム
US9711133B2 (en) Estimation of target character train
CN110310615B (zh) 唱歌练习装置、唱歌练习方法及存储介质
EP3010013A2 (en) Phoneme information synthesis device, voice synthesis device, and phoneme information synthesis method
JP4736483B2 (ja) 歌データ入力プログラム
JP2017194594A (ja) 発音制御装置、発音制御方法、及びプログラム
JP4929604B2 (ja) 歌データ入力プログラム
JP2014095856A (ja) 音声処理装置
US20220044662A1 (en) Audio Information Playback Method, Audio Information Playback Device, Audio Information Generation Method and Audio Information Generation Device
JP2019132979A (ja) カラオケ装置
JP6809608B2 (ja) 歌唱音生成装置及び方法、プログラム
WO2016152708A1 (ja) 音制御装置、音制御方法、および音制御プログラム
JP4180548B2 (ja) 声域告知機能付きカラオケ装置
JP6617441B2 (ja) 歌唱音声出力制御装置
JP7158331B2 (ja) カラオケ装置
JP2018151548A (ja) 発音装置及びループ区間設定方法
JP2018151547A (ja) 発音装置及び発音制御方法
JP6305275B2 (ja) 電子楽器における音声アシスト装置及びプログラム
JP4624879B2 (ja) 楽音情報発生プログラムおよび楽音情報発生装置
US9514724B2 (en) Sampling device, electronic instrument, method, and program
CN110720122A (zh) 音发生装置及方法
JP2007156209A (ja) 楽曲選択装置および楽曲選択用コンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190204

R151 Written notification of patent or utility model registration

Ref document number: 6485185

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151