JP2012103654A - 音声合成装置及びプログラム - Google Patents
音声合成装置及びプログラム Download PDFInfo
- Publication number
- JP2012103654A JP2012103654A JP2010266776A JP2010266776A JP2012103654A JP 2012103654 A JP2012103654 A JP 2012103654A JP 2010266776 A JP2010266776 A JP 2010266776A JP 2010266776 A JP2010266776 A JP 2010266776A JP 2012103654 A JP2012103654 A JP 2012103654A
- Authority
- JP
- Japan
- Prior art keywords
- character
- character string
- pitch
- pronunciation
- length
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
【解決手段】利用者は、タッチスクリーン31に触れてテキストボックス101に文字列を入力する。音声合成装置100は、入力された文字列を入力文字画像104としてタッチスクリーン31に表示させる。利用者がタッチスクリーン31をなぞると、ピッチカーブ103が表示されるとともに、入力された文字列がピッチカーブ103の形状に従ってスピーカ111から発音される。
【選択図】図6
Description
本発明は、文字列に対して音符列の割り当てを容易に行える技術を提供することを目的とする。
<実施形態>
<構成>
図1は、本発明の実施形態に係る音声合成装置100のハードウェア構成を表すブロック図である。この音声合成装置100は、制御部10、記憶部20、UI(User Interface)部30、及び音声出力部40を備えており、各部がバスを介して接続されている。音声合成装置100は、文字列と、音符列を含む発音に関する情報である音声情報とに基づいて音声データを合成し、この合成された音声データに基づく音声を出力する装置である。本実施形態においては、音声合成装置100はスマートフォンである。制御部10は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などを有する。CPUは、ROMや記憶部20に記憶されている制御プログラムを読み出して、RAMにロードして実行することにより、音声合成装置100の各部をバス経由で制御する。また、RAMは、CPUがデータの加工などを行う際のワークエリアとして機能する。
音響効果DB24に含まれる音響効果レコードは、識別ID、音響効果図形、音響効果といった複数の項目からなる。識別IDは各音響効果レコードを一意に識別する数字であり、例えば3桁の数字からなる。音響効果図形は、図形の形状を表すデータであり、音響効果レコード毎にその形状が異なっている。音響効果は、発音の際に文字にかけられる音響効果の種類である。例えば、図5に示されるように、識別IDが「001」であって、音響効果図形が或る一定範囲の間隔でピーク値をとる波型の図形である音響効果レコードには、「ビブラート」の音響効果が対応付けられている。音響効果DB24は、複数の図形の形状の各々に対応付けて、文字が発音される際に適用される音響効果とを対応付けて記憶した音響効果記憶手段である。
次に、図7及び図8を参照しながら音声合成装置100の動作について説明を行う。
図7は、音声合成装置100の外観及び表示内容を表す図であり、図8は、音声合成装置100の処理フロー図である。
図7に示すように、音声合成装置100は、筐体110、タッチスクリーン31、及びスピーカ111を有する。筐体110にはタッチスクリーン31及びスピーカ111が設けられている。タッチスクリーン31には、テキストボックス101、発音基準線102、ピッチカーブ103、入力文字画像104、再生ボタン画像105、戻るボタン画像106、及び割り当て文字画像109が表示される。図7に示されたピッチカーブ103が表示される領域において、X軸(第1軸)は時間を表しており、X軸において負方向から正方向に向かって時間が経過する。また、図7に示されたピッチカーブ103が表示される領域において、Y軸(第2軸)は音高を表しており、正方向に向かう程高い音となり、負方向に向かう程低い音となる。本実施形態においては、Y軸における最小の座標値と最大の座標値との間には、1オクターブの音高が割り当てられているものとする。
図9を用いてステップS5の詳細を説明する。利用者が、矩形が破線で表された「ん」という入力文字画像104を、矩形が実線で表された位置へ向かってドラッグした場合、以下のような処理が行われる。文字間隔制御手段14は、「ん」という入力文字画像104と「に」という入力文字画像104との間の距離βを文字間隔値として算出すると、算出した文字間隔値をRAMに記憶させるとともに表示制御手段13に入力する。表示制御手段13は、入力された文字間隔値に基づいて、「ん」という入力文字画像104の表示位置を変更する。つまり表示制御手段13は、「ん」という入力文字画像104について、その表示位置を、矩形が破線であらわされた位置から、矩形が実線で表された位置に変更する。この結果、図9においては、入力文字画像104の表示位置が変更された結果、「こ」と「ん」という入力文字画像104が結合されており、「に」、「ち」及び「は」という入力文字画像104とは、分離されている。
なお、音声合成装置100には、ピッチカーブ103が描かれた際の処理を設定するモードである「描画モード」が存在する。「描画モード」には、初期設定で設定されている「上書き描画モード」と、「連続描画モード」とがある。「上書き描画モード」は、タッチパネル31にピッチカーブ103が既に描かれ、表示された状態において、利用者が新たにピッチカーブ103を描くと、既に描かれていたピッチカーブ103が消去され、新たに描かれた際の軌跡に応じてピッチカーブ103が表示されるモードである。一方、「連続描画モード」は、タッチパネル31にピッチカーブ103が既に描かれ、表示された状態において、既に描かれたピッチカーブ103と重ならないタッチパネル31の領域に利用者が新たにピッチカーブ103を描くと、既に描かれていたピッチカーブ103は変更されないまま、新たに描かれた際の軌跡に応じてピッチカーブ103が追加で表示されるモードである。この描画モードは、利用者が、UI部30を通じて適宜変更することが可能である。描画モードは、「上書き描画モード」、及び「連続描画モード」に限らず、他の設定内容を選択可能としてもよい。
<変形例1>
実施形態においては、音声合成装置100の例としてタッチスクリーン31を備えたスマートフォンを挙げていたが、これに限ったものではない。音声合成装置100は、タッチスクリーン31を備えていなくてもよい。例えば、音声合成装置100は、UI部30としてマウス、キーパッド、またはペンタブレットを有していてもよい。また、音声合成装置100は、PDA(Personal Digital Assistant)、携帯ゲーム機、携帯音楽プレーヤ、あるいはPC(Personal Computer)であってもよい。音声合成装置100がPCである場合、ディスプレイ上に表示された内容に対して利用者がマウスを用いて描いた結果が、ピッチカーブ103として認識されたり、入力文字画像104に対する間隔制御として認識されたりする。
実施形態においては、音響効果の例として、ビブラートを挙げたが、これに限ったものではない。例えば、図9に表されるように、入力済みのピッチカーブ103に対して丸で囲むような軌跡を重ね合わせて描くと、対応する文字の発音がファルセットでなされるようにしてもよい。この他にも、ピッチカーブ103の描き方や重ね合わせて描く図形の形状に応じて、対応する文字に様々な音響効果を割り当てるようにしてもよい。
実施形態において、ピッチカーブ103は利用者により入力されるものとしていたが、これに限らず、特定の形状を持つ複数のピッチカーブ103をプリセットデータとして記憶部20が記憶していてもよい。例えば、標準語、関西弁、東北弁といった方言の抑揚に対応したピッチカーブ103がプリセットデータとして記憶部20に記憶されている場合、利用者がUI部30を通じて、このプリセットデータから特定のピッチカーブ103を指定できるようにしてもよい。要するに、利用者が、音高を表す第1軸および時間を表す第2軸を有する座標系における図形を指定できればよい。
実施形態においては、Y軸における最小の座標値と最大の座標値との間に、1オクターブの音高が割り当てられているものとしたが、この音高は、これに限ったものではない。例えば、利用者がUI部30を介して設定することにより、Y軸に割り当てられる音高の幅を狭く、あるいは広く、変更することが可能としてもよい。例えば、利用者が、Y軸における最小の座標値と最大の座標値との間に、2オクターブの音高を設定した場合を考える。また、このとき、発音基準線102の音高が「261Hz」であったとする。この場合、発音基準線102の音高を中心として、発音基準線102のY軸正方向には、「261Hz」より1オクターブ高い「523Hz」の音高を持つ仮想的な発音基準線が存在する。また、発音基準線102のY軸負方向には、「261Hz」より1オクターブ低い「130Hz」の音高を持つ仮想的な発音基準線が存在する。実施形態においては、軌跡分析手段15は、常に発音基準線102のY座標値と交差点のY座標値との差分長から、ある入力文字についての音高を算出していた。しかし、上述のように、タッチパネル31に表示される発音基準線102以外に、仮想的な発音基準線が存在する場合は、Y軸方向において交差点と最も近い発音基準線のY座標値を基準として、入力文字の音高を算出するようにしてもよい。
実施形態においては、入力文字画像104に対して利用者がドラッグの操作を行うことで、各入力文字画像104を結合及び分離させることを可能としたが、入力文字画像104に対する操作は、これに限ったものではない。例えば、利用者が、或る入力文字画像104の右辺あるいは左辺に触れて、これをドラッグすることにより、この入力文字画像104がX軸方向において表示される長さ(入力文字画像104の横幅)を変更可能としてもよい。この場合、音声レコード生成手段16は、変更された入力文字画像104の横幅に応じて、横幅が長いほど長い音長を、横幅が短いほど短い音長を、該当する文字に割り当てる。
実施形態においては、音声合成手段17は、或る文字に割り当てられた音高と、この文字の次に入力された文字に割り当てられた音高とを、ピッチベンドによって繋ぐ処理を施していたが、これに限ったものではない。例えば、音声合成手段は、ピッチベンドを施さずに、音声DB23に記憶された、各文字に割り当てられた音高のみに従って音声データを合成するようにしてもよい。
実施形態においては、入力文字列を構成する全ての文字に対して最短発音時間が割り当てられた場合の合計時間と比較して、算出された文字列音長が上記合計時間に満たない場合、軌跡分析手段15は、各文字における最短発音時間を、入力された順序に従って先頭から積算した。そして、軌跡分析手段15は、この積算の結果が、算出された文字列音長を越えた時点で、以降の文字を発音対象としないような制御を行っていた。これに限らず、軌跡分析手段15は、上述の合計時間に満たないような速度でピッチカーブ103が入力された場合、タッチスクリーン31に表示するピッチカーブ103における軌跡の長さを予め制限するようにしてもよい。
また、利用者が音高を直感的に分かるように、タッチパネル31を正面から見た場合の左側に鍵盤の画像を表示しても良い。
実施形態においては、利用者が、入力済みのピッチカーブ103に対してさらに別の図形を重ねて描くと、この別の図形に応じた音響効果が発音時に適用されるようになっていたが、これを以下のようにしてもよい。音声合成装置100は、入力済みのピッチカーブ103に対して利用者が別の図形を重ねて描く際の処理のモードを表す「追加入力モード」を記憶部20に記憶する。「追加入力モード」には、「音響効果モード」と「音符列変更モード」が存在する。「音響効果モード」は、実施形態において説明したとおりであって、上述した、重ねて描かれた別の図形に応じた音響効果が、該当する入力文字の発音に際して適用される。「音符列変更モード」では、利用者が、入力済みのピッチカーブ103における特定の箇所に触れてドラッグすると、表示制御手段13が、ピッチカーブ103の該当する箇所について、ドラッグの内容に応じて表示態様を変更する。例えば、利用者が、ピッチカーブ103の特定の箇所に触れて、Y軸正方向にドラッグすると、ピッチカーブ103における該当の箇所の座標値がY軸正方向に移動するとともに、ピッチカーブ103における該当の箇所の周辺についての表示態様が、この移動に伴ってY軸正方向に曲線を描くように表示される。また、利用者がピッチカーブ103の特定の箇所に触れて、Y軸負方向にドラッグすると、ピッチカーブ103における該当の箇所の座標値がY軸負方向に移動するとともに、ピッチカーブ103における該当の箇所の周辺についての表示態様が、この移動に伴ってY軸負方向に曲線を描くように表示される。利用者は、UI部30を通じて、「追加入力モード」を適宜変更することが可能である。そして、軌跡分析手段15は、該当する箇所の変更後の座標値に従って、この座標値に対応する入力文字に割り当てられる音高及び音長を算出し、音声レコード生成手段16は、算出された結果に基づいて該当する入力文字に音高及び音長を割り当てる。
実施形態においては、ピッチカーブ103と入力文字線107との交差する座標値に従って、各々の文字の音高及び音長が算出されていたが、発音に際しての音声情報はこれに限ったものではない。例えば、ピッチカーブ103の形状がX軸に対して平坦な箇所には、より多くの文字が発音対象となるように、また、ピッチカーブ103の形状がX軸に対して急峻な箇所には、より少ない文字が発音対象となるように、各々の文字の発音開始位置が算出されてもよい。具体的には、以下のとおりである。
図14は、タッチパネル31の一部を拡大したものである。図14における入力文字「こ」を例に挙げると、軌跡分析手段15は、交差点Aにおけるピッチカーブ103に対する接線L1aの傾きを算出すると、さらにこの傾きの絶対値を算出してRAMに記憶させる。ここで、矩形が破線で表された「こ」という入力文字画像104a、破線で表された入力文字線107a、及び交差点Aは、変形例9における処理によって表示位置が変更される前の状態を表している。軌跡分析手段15は、他の入力文字「ん」についても、上述した、傾きの絶対値を算出する。ここで、交差点における傾きの絶対値が大きいほど、その交差点において、ピッチカーブ103が急峻、つまりそのピッチカーブの形状がX軸に対して直交した状態に近いことを表している。一方、傾きの絶対値が小さいほど、その交差点において、ピッチカーブ103が平坦、つまりそのピッチカーブの形状がX軸に対して平行に近いことを表している。
実施形態では、軌跡分析手段15が、ピッチカーブ103の始端から終端に至るまでの入力に要した時間に応じて、文字列全体の発音時に割り当てる音長である文字列音長を算出していたが、文字列音長の算出方法はこれに限らない。軌跡分析手段15は、ピッチカーブ103の始端から終端に至るまでのそのピッチカーブ103上の距離や、ピッチカーブ103の始端のX座標値と終端のX座標値との差の大きさに基づいて文字列音長を算出してもよい。例えば、ピッチカーブ103の始端から終端に至るまでのそのピッチカーブ103上の距離が大きいほど文字列音長も大きくなったり、ピッチカーブ103の始端のX座標値と終端のX座標値との差が大きいほど文字列音長も大きくなるといった具合である。このように、文字列音長の算出方法には種々のものがあるが、文字列を構成する各文字の音長の算出に関しては、軌跡分析手段15は各文字に対応する図形(ピッチカーブ)の座標値に基づき音高及び音長を算出する。
実施形態においては、音声合成手段17が音声データを合成する際に、或る文字に割り当てられた音高と、この文字の次に入力された文字に割り当てられた音高とを、ピッチベンドによって繋ぐ処理を施していたが、これに限らず、割り当て手段18が、補正機能と称するものを実現することで、入力文字の各々に、上記補正機能によって定まる所定の音階に従った音高を割り当てるようにしてもよい。また、割り当て手段18は、入力文字の各々に、上記補正機能によって定まる所定の時間の長さに従った音長を割り当てるようにしてもよい。つまり、割り当て手段18が実現する補正機能には、音高に対する補正機能と、音長に対する補正機能とがある。
図15(a)及び図15(b)においては、タッチスクリーン31上に、メニューボタン画像112が表示されている。利用者がメニューボタン画像112に触れると、制御部10が、タッチスクリーン31に、利用者が実行可能な機能の選択肢(機能選択肢という)をリスト形式で表示する。利用者が、表示された機能選択肢から望みのものを選択すると、制御部10は、選択された機能を実行する。ここで、タッチスクリーン31に表示される機能選択肢には、制御部10によって実現される、「音高の補正」及び「音長の補正」が含まれており、利用者は、両者の機能について「ON/OFF」を設定することで、これらの機能を実現するか否かを選択することができる。
図16(a)及び図16(b)は、利用者が、機能選択肢における「音長の補正」を「ON」に設定した状態を表している。「音長の補正」が「ON」に設定されると、表示制御手段13によって、タッチスクリーン31のY軸正方向における上部に時間軸目盛り113が表示される。時間軸目盛り113は、X軸正方向に向かうにつれて経過する時間を表している。図16の例では、時間軸目盛り113における1つ分の目盛りが0.1秒を表しているが、この1つ分の目盛りには、0.1秒以外の所定長の時間が対応付けられていてもよいし、小節や拍が対応付けられていてもよい。なお、小節や拍が対応付けられる場合、利用者がタッチスクリーン31を介して、拍子について「4拍子」や「3/4拍子」といった設定を行えるようにしてもよい。この時間軸目盛り113は、割り当て手段18が入力文字列104を構成する各文字に音長を割り当てるときの指標となる。
実施形態においては、文字列を構成する各文字の、発音時間の比を含む複数の発音レコードからなる発音辞書DB21を記憶部20が備えており、割り当て手段18が、文字列音長と発音レコードとに基づいて各文字に割り当てる音長を決定していたが、これに限らず、発音辞書DB21に代えて、発音レコードが各文字についての発音時間の絶対値を含むような初期値発音辞書DBを、記憶部20が備えるようにしてもよい。
初期値発音辞書DBに含まれる各発音レコードは、識別ID、文字、初期値発音時間といった複数の項目からなる。識別IDは、各発音レコードを一意に識別するためのIDであり、例えば4桁の数字からなる。文字は、発音の対象となる文字として予め決められた1文字である。初期値発音時間は、各発音レコードにおける各文字について、予め割り当てられた発音時間の初期値である。初期値発音時間においては、実験的に求められた、該当する文字が自然な抑揚で発音された場合に掛かる時間の長さに基づいて、各文字における音長の初期値が予め決定されている。例えば図17において、文字「あ」、「い」、「う」及び「え」という文字について、初期値として「0.3秒」という長さの発音時間が予め割り当てられている。
図18(a)は、利用者がテキストボックス101に文字列を入力した直後であって、利用者によってピッチカーブ103が入力されていない状態を表している。図18(a)においては、「あたま」という文字列が入力されており、「あ」、「た」及び「ま」という各文字に対して、割り当て手段18によって、初期値発音辞書DBの発音レコードに基づいて、同一の長さの初期値発音時間が音長として割り当てられている。また、図18(a)においては、入力文字画像104のX軸方向における横幅と、発音基準線102のY軸方向における位置に基づいて、表示制御手段13によってデフォルトのピッチカーブ103が表示されている。
音声合成装置100のハードウェア構成は、図1で説明したものに限定されない。図5に示される機能を実装できるものであれば、音声合成装置100はどのようなハードウェア構成を有していてもよい。例えば、音声合成装置100は、図5に示される機能要素の各々に対応する専用のハードウェア(回路)を有していてもよい。
上述の実施形態で説明した音声合成アプリケーションに関するプログラムは、磁気記録媒体(磁気テープ、磁気ディスク(HDD、FD(Flexible Disk))など)、光記録媒体(光ディスク(CD(Compact Disk)、DVD(Digital Versatile Disk))など)、光磁気記録媒体、半導体メモリ(フラッシュROMなど)などのコンピュータ読取り可能な記録媒体に記憶した状態で提供されてもよい。また、このプログラムは、インターネットのようなネットワーク経由でダウンロードされてもよい。
Claims (5)
- 複数の文字によって構成された文字列を取得する文字列取得手段と、
取得された前記文字列を構成する各文字を表示手段に表示させる文字列表示手段と、
時間を表す第1軸および音高を表す第2軸を有する座標系における図形が利用者によって指定されると、当該図形を、前記文字列を構成する各文字に対応付けた状態で前記表示手段に表示させる図形表示手段と、
表示されている前記図形において、表示されている前記文字列を構成する各文字に対応する位置の座標値に基づき、当該各文字に音高及び音長を割り当てる割り当て手段と、
前記文字列を構成する各文字を前記割り当て手段によって割り当てられた音高及び音長で発音させる音声データを合成する音声合成手段と
を備えることを特徴とした音声合成装置。 - 単語を発音するときの発音時間に対する、当該単語を構成する各文字の発音時間の長さ又は当該単語を構成する各文字の発音時間の比を、複数の単語について記憶する発音長辞書記憶手段を備え、
前記割り当て手段は、前記文字列の全体を発音するときの音長であって利用者が指定した文字列音長と、当該文字列を構成する各文字について前記発音長辞書記憶手段に記憶されている前記発音時間の長さ又は前記発音時間の比とに基づいて、前記各文字に音長を割り当てる
ことを特徴とする請求項1に記載の音声合成装置。 - 前記文字列を構成する各文字に音高又は音長を割り当てるときの指標を前記表示手段に表示させる指標表示手段を備え、
前記割り当て手段は、前記指標表示手段によって表示されている指標に従って、前記図形において前記文字列を構成する各文字に対応する位置の座標値を補正し、当該補正後の座標値に基づき、前記各文字に音高及び音長を割り当てる
ことを特徴とする請求項1又は2に記載の音声合成装置。 - 複数の図形の形状の各々に対応付けて、文字が発音される際に適用される音響効果を記憶した音響効果記憶手段を備え、
前記図形表示手段は、前記表示手段に表示されている図形に対して重ね合わせられた図形が利用者によって指定されると、当該重ね合わせられた図形を前記表示手段に表示させ、
前記割り当て手段は、前記音響効果記憶手段に記憶されている複数の図形の形状のうち、前記重ね合わせられた図形との類似度が閾値を超える図形の形状を特定し、特定した図形の形状に対応付けられて記憶されている音響効果を、当該重ね合わせられた図形の座標値に対応する位置に表示されている前記文字に割り当てる
ことを特徴とする請求項1〜3のいずれか1に記載の音声合成装置。 - コンピュータに、
複数の文字によって構成された文字列を取得する文字列取得機能と、
取得された前記文字列を構成する各文字を表示手段に表示させる文字列表示機能と、
音高を表す第1軸および時間を表す第2軸を有する座標系における図形が利用者によって指定されると、当該図形を、前記文字列を構成する各文字に対応付けた状態で前記表示手段に表示させる図形表示機能と、
表示されている前記文字列を構成する各文字に対応する前記図形の座標値に基づき、当該各文字に音高及び音長を割り当てる割り当て機能と、
前記文字列を構成する各文字を前記割り当て機能によって割り当てられた音高及び音長で発音させる音声データを合成する音声合成機能と
を実現させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010266776A JP5879682B2 (ja) | 2010-10-12 | 2010-11-30 | 音声合成装置及びプログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010230058 | 2010-10-12 | ||
JP2010230058 | 2010-10-12 | ||
JP2010266776A JP5879682B2 (ja) | 2010-10-12 | 2010-11-30 | 音声合成装置及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015099936A Division JP2015163982A (ja) | 2010-10-12 | 2015-05-15 | 音声合成装置及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012103654A true JP2012103654A (ja) | 2012-05-31 |
JP5879682B2 JP5879682B2 (ja) | 2016-03-08 |
Family
ID=46394070
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010266776A Active JP5879682B2 (ja) | 2010-10-12 | 2010-11-30 | 音声合成装置及びプログラム |
JP2015099936A Pending JP2015163982A (ja) | 2010-10-12 | 2015-05-15 | 音声合成装置及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015099936A Pending JP2015163982A (ja) | 2010-10-12 | 2015-05-15 | 音声合成装置及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP5879682B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019239972A1 (ja) * | 2018-06-15 | 2019-12-19 | ヤマハ株式会社 | 情報処理方法、情報処理装置およびプログラム |
WO2019239971A1 (ja) * | 2018-06-15 | 2019-12-19 | ヤマハ株式会社 | 情報処理方法、情報処理装置およびプログラム |
JP2020042056A (ja) * | 2018-09-06 | 2020-03-19 | 株式会社テクノスピーチ | 音声合成装置、および音声合成方法 |
JP7186476B1 (ja) * | 2022-07-29 | 2022-12-09 | 株式会社テクノスピーチ | 音声合成装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06337690A (ja) * | 1993-05-31 | 1994-12-06 | Fujitsu Ltd | 歌声合成装置 |
JP2000221976A (ja) * | 1998-11-25 | 2000-08-11 | Yamaha Corp | 曲データ作成装置および曲データ作成プログラムを記録した記録媒体 |
JP2001265335A (ja) * | 2000-03-15 | 2001-09-28 | Casio Comput Co Ltd | 演奏情報入力装置および演奏情報入力方法 |
US20030009338A1 (en) * | 2000-09-05 | 2003-01-09 | Kochanski Gregory P. | Methods and apparatus for text to speech processing using language independent prosody markup |
JP2003323188A (ja) * | 2002-02-28 | 2003-11-14 | Yamaha Corp | 歌唱合成方法、歌唱合成装置及び歌唱合成用プログラム |
JP2004170618A (ja) * | 2002-11-19 | 2004-06-17 | Yamaha Corp | シーケンスデータのデータ交換フォーマット、音声再生装置及びサーバー装置 |
JP2010072223A (ja) * | 2008-09-17 | 2010-04-02 | Yamaha Corp | 演奏データ編集装置及びプログラム |
US7750224B1 (en) * | 2007-08-09 | 2010-07-06 | Neocraft Ltd. | Musical composition user interface representation |
US20100288108A1 (en) * | 2009-05-12 | 2010-11-18 | Samsung Electronics Co., Ltd. | Music composition method and system for portable device having touchscreen |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000293183A (ja) * | 1999-04-08 | 2000-10-20 | Yamaha Corp | カラオケ装置 |
JP2002041074A (ja) * | 2000-07-28 | 2002-02-08 | Yamaha Corp | ボーカルデータ生成装置および歌唱装置 |
JP2003263185A (ja) * | 2002-03-12 | 2003-09-19 | Alpha Unit:Kk | 音声出力ゲーム装置、ゲームプログラムを記録した記録媒体 |
JP2005345699A (ja) * | 2004-06-02 | 2005-12-15 | Toshiba Corp | 音声編集装置、音声編集方法および音声編集プログラム |
-
2010
- 2010-11-30 JP JP2010266776A patent/JP5879682B2/ja active Active
-
2015
- 2015-05-15 JP JP2015099936A patent/JP2015163982A/ja active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06337690A (ja) * | 1993-05-31 | 1994-12-06 | Fujitsu Ltd | 歌声合成装置 |
JP2000221976A (ja) * | 1998-11-25 | 2000-08-11 | Yamaha Corp | 曲データ作成装置および曲データ作成プログラムを記録した記録媒体 |
JP2001265335A (ja) * | 2000-03-15 | 2001-09-28 | Casio Comput Co Ltd | 演奏情報入力装置および演奏情報入力方法 |
US20030009338A1 (en) * | 2000-09-05 | 2003-01-09 | Kochanski Gregory P. | Methods and apparatus for text to speech processing using language independent prosody markup |
JP2003323188A (ja) * | 2002-02-28 | 2003-11-14 | Yamaha Corp | 歌唱合成方法、歌唱合成装置及び歌唱合成用プログラム |
JP2004170618A (ja) * | 2002-11-19 | 2004-06-17 | Yamaha Corp | シーケンスデータのデータ交換フォーマット、音声再生装置及びサーバー装置 |
US7750224B1 (en) * | 2007-08-09 | 2010-07-06 | Neocraft Ltd. | Musical composition user interface representation |
JP2010072223A (ja) * | 2008-09-17 | 2010-04-02 | Yamaha Corp | 演奏データ編集装置及びプログラム |
US20100288108A1 (en) * | 2009-05-12 | 2010-11-18 | Samsung Electronics Co., Ltd. | Music composition method and system for portable device having touchscreen |
Non-Patent Citations (2)
Title |
---|
JPN6014028092; VocaloWitter , 20140627, Yamaha Corporation * |
JPN6015009672; 山田諒太郎,外1名: '歌詞朗読音声からのオンライン歌声合成システム' 情報処理学会研究報告 Vol.2010-MUS-85, No.11, 20100520, pp.1-5, 社団法人情報処理学会 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019239972A1 (ja) * | 2018-06-15 | 2019-12-19 | ヤマハ株式会社 | 情報処理方法、情報処理装置およびプログラム |
WO2019239971A1 (ja) * | 2018-06-15 | 2019-12-19 | ヤマハ株式会社 | 情報処理方法、情報処理装置およびプログラム |
JPWO2019239972A1 (ja) * | 2018-06-15 | 2021-06-17 | ヤマハ株式会社 | 情報処理方法、情報処理装置およびプログラム |
JPWO2019239971A1 (ja) * | 2018-06-15 | 2021-07-08 | ヤマハ株式会社 | 情報処理方法、情報処理装置およびプログラム |
JP7124870B2 (ja) | 2018-06-15 | 2022-08-24 | ヤマハ株式会社 | 情報処理方法、情報処理装置およびプログラム |
JP7127682B2 (ja) | 2018-06-15 | 2022-08-30 | ヤマハ株式会社 | 情報処理方法、情報処理装置およびプログラム |
US11437016B2 (en) | 2018-06-15 | 2022-09-06 | Yamaha Corporation | Information processing method, information processing device, and program |
US12014723B2 (en) | 2018-06-15 | 2024-06-18 | Yamaha Corporation | Information processing method, information processing device, and program |
JP2020042056A (ja) * | 2018-09-06 | 2020-03-19 | 株式会社テクノスピーチ | 音声合成装置、および音声合成方法 |
JP7186476B1 (ja) * | 2022-07-29 | 2022-12-09 | 株式会社テクノスピーチ | 音声合成装置 |
Also Published As
Publication number | Publication date |
---|---|
JP5879682B2 (ja) | 2016-03-08 |
JP2015163982A (ja) | 2015-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8138408B2 (en) | Music composition method and system for portable device having touchscreen | |
US9928817B2 (en) | User interfaces for virtual instruments | |
US9355634B2 (en) | Voice synthesis device, voice synthesis method, and recording medium having a voice synthesis program stored thereon | |
JP2014056232A (ja) | 音楽情報表示制御装置 | |
WO2016060254A1 (ja) | 音楽演奏支援装置及び方法 | |
JP2015163982A (ja) | 音声合成装置及びプログラム | |
JP2012083563A (ja) | 音声合成装置およびプログラム | |
JP6136202B2 (ja) | 音楽データ編集装置および音楽データ編集方法 | |
JP5589741B2 (ja) | 楽曲編集装置およびプログラム | |
JP5935815B2 (ja) | 音声合成装置およびプログラム | |
JP5434679B2 (ja) | 歌詞音節数提示装置及びプログラム | |
JP6149917B2 (ja) | 音声合成装置および音声合成方法 | |
JP4613817B2 (ja) | 運指表示装置、及びプログラム | |
JP5429840B2 (ja) | 音声合成装置およびプログラム | |
US11694724B2 (en) | Gesture-enabled interfaces, systems, methods, and applications for generating digital music compositions | |
JP7350555B2 (ja) | 楽譜編集装置及び楽譜編集プログラム | |
US8912420B2 (en) | Enhancing music | |
KR101541694B1 (ko) | 작곡 방법, 시스템 및 이에 관한 컴퓨터 판독가능한 전자적 기록매체 | |
JP7107720B2 (ja) | 運指表示プログラム | |
KR101427666B1 (ko) | 악보 편집 서비스 제공 방법 및 장치 | |
JP5810691B2 (ja) | 楽譜情報生成装置および楽譜情報生成プログラム | |
JP2007178696A (ja) | 運指情報生成装置、及びプログラム | |
JP2013161040A (ja) | 譜面作成装置、譜面作成方法、プログラムおよび記録媒体 | |
JP6358554B2 (ja) | 楽音制御装置、楽音制御方法およびプログラム | |
TW201543466A (zh) | 作曲方法、作曲程式產品及作曲系統 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130920 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140708 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150317 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150515 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160118 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5879682 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |