JP7367641B2 - 電子楽器、方法及びプログラム - Google Patents

電子楽器、方法及びプログラム Download PDF

Info

Publication number
JP7367641B2
JP7367641B2 JP2020150336A JP2020150336A JP7367641B2 JP 7367641 B2 JP7367641 B2 JP 7367641B2 JP 2020150336 A JP2020150336 A JP 2020150336A JP 2020150336 A JP2020150336 A JP 2020150336A JP 7367641 B2 JP7367641 B2 JP 7367641B2
Authority
JP
Japan
Prior art keywords
syllable
key
performance
musical instrument
electronic musical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020150336A
Other languages
English (en)
Other versions
JP2022044937A (ja
Inventor
真 段城
文章 太田
厚士 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2020150336A priority Critical patent/JP7367641B2/ja
Priority to US17/409,591 priority patent/US20220076658A1/en
Priority to CN202111041397.5A priority patent/CN114155822A/zh
Publication of JP2022044937A publication Critical patent/JP2022044937A/ja
Priority to JP2023110400A priority patent/JP2023118866A/ja
Application granted granted Critical
Publication of JP7367641B2 publication Critical patent/JP7367641B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • G10L13/0335Pitch control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/18Selecting circuits
    • G10H1/24Selecting circuits for selecting plural preset register stops
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • G10H1/34Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • G10H1/34Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
    • G10H1/344Structural association with individual keys
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • G10H1/34Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
    • G10H1/344Structural association with individual keys
    • G10H1/348Switches actuated by parts of the body other than fingers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/086Detection of language
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/011Lyrics displays, e.g. for karaoke applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/221Keyboards, i.e. configuration of several keys or key-like input devices relative to one another
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/455Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本開示は、電子楽器、方法及びプログラムに関する。
近年、合成音声の利用シーンが拡大している。そうした中、自動演奏だけではなく、ユーザ(演奏者)の押鍵に応じて歌詞を進行させ、歌詞に対応した合成音声を出力できる電子楽器があれば、より柔軟な合成音声の表現が可能となり好ましい。
例えば、特許文献1においては、鍵盤楽器とは別のコントローラを用いて、当該鍵盤楽器の演奏に対応して発音させる歌詞を制御する技術が開示されている。
国際公開第2018/123456号
しかしながら、特許文献1のように専用のコントローラを導入するのは、ユーザ操作の観点からは敷居が高く、手軽に合成音声を用いた歌詞の発音を楽しむことが難しいという課題がある。
そこで本開示は、演奏にかかるフレーズ(例えば、歌詞)進行を適切に制御できる電子楽器、方法及びプログラムを提供することを目的の1つとする。
本開示の一態様に係る電子楽器は、フレーズに含まれる複数の音節が音節ごとに割り当てられる第1音域に含まれる複数の第1演奏操作子と、第2音域に含まれる複数の第2演奏操作子と、を含む複数の演奏操作子であって、互いに異なる音高データがそれぞれ対応付けられている複数の演奏操作子と、プロセッサと、を備え、前記プロセッサは、前記第1演奏操作子への操作に基づいて、音節位置を決定し、前記第2演奏操作子への操作に基づいて、決定された前記音節位置に対応する音節の音節開始フレームを調節係数に基づいて調整した発音を指示する。
本開示の一態様によれば、演奏にかかるフレーズ進行を適切に制御できる。
図1は、一実施形態にかかる電子楽器10の外観の一例を示す図である。 図2は、一実施形態にかかる電子楽器10の制御システム200のハードウェア構成の一例を示す図である。 図3は、一実施形態にかかる音声学習部301の構成例を示す図である。 図4は、一実施形態にかかる波形データ出力部211の一例を示す図である。 図5は、一実施形態にかかる波形データ出力部211の別の一例を示す図である。 図6は、一実施形態にかかる音節位置制御のための鍵盤の鍵域分割の一例を示す図である。 図7A-7Cは、制御鍵域に割り当てられる音節の一例を示す図である。 図8は、一実施形態に係る歌詞進行制御方法のフローチャートの一例を示す図である。 図9は、一実施形態に係る音節位置制御処理のフローチャートの一例を示す図である。 図10は、一実施形態に係る演奏制御処理のフローチャートの一例を示す図である。 図11は、一実施形態に係る音節進行判別処理のフローチャートの一例を示す図である。 図12は、一実施形態に係る音節変更処理のフローチャートの一例を示す図である。 図13A及び13Bは、制御鍵域の鍵の外観の一例を示す図である。 図14は、一実施形態にかかる歌詞進行制御方法を実施するタブレット端末の一例を示す図である。
以下、本開示の実施形態について添付図面を参照して詳細に説明する。以下の説明では、同一の部には同一の符号が付される。同一の部は名称、機能などが同じであるため、詳細な説明は繰り返さない。
(電子楽器)
図1は、一実施形態にかかる電子楽器10の外観の一例を示す図である。電子楽器10は、スイッチ(ボタン)パネル140b、鍵盤140k、ペダル140p、ディスプレイ150d、スピーカー150sなどを搭載してもよい。
電子楽器10は、鍵盤、スイッチなどの操作子を介してユーザからの入力を受け付け、演奏、歌詞進行などを制御するための装置である。電子楽器10は、MIDI(Musical Instrument Digital Interface)データなどの演奏情報に応じた音を発生する機能を有する装置であってもよい。当該装置は、電子楽器(電子ピアノ、シンセサイザーなど)であってもよいし、センサなどを搭載して上述の操作子の機能を有するように構成されたアナログの楽器であってもよい。
スイッチパネル140bは、音量の指定、音源、音色などの設定、ソング(伴奏)の選曲(伴奏)、ソング再生開始/停止、ソング再生の設定(テンポなど)などを操作するためのスイッチを含んでもよい。
鍵盤140kは、演奏操作子としての複数の鍵を有してもよい。ペダル140pは、当該ペダルを踏んでいる間、押さえた鍵盤の音を伸ばす機能を有するサステインペダルであってもよいし、音色、音量などを加工するエフェクターを操作するためのペダルであってもよい。
なお、本開示において、サステインペダル、ペダル、フットスイッチ、コントローラ(操作子)、スイッチ、ボタン、タッチパネルなどは、互いに読み替えられてもよい。本開示におけるペダルの踏み込みは、コントローラの操作で読み替えられてもよい。
鍵は、演奏操作子、音高操作子、音色操作子、直接操作子、第1の操作子などと呼ばれてもよい。ペダルは、非演奏操作子、非音高操作子、非音色操作子、間接操作子、第2の操作子などと呼ばれてもよい。
ディスプレイ150dは、歌詞、楽譜、各種設定情報などを表示してもよい。スピーカー150sは、演奏により生成された音を放音するために用いられてもよい。
なお、電子楽器10は、MIDIメッセージ(イベント)及びOpen Sound Control(OSC)メッセージの少なくとも一方を生成したり、変換したりすることができてもよい。
電子楽器10は、制御装置10、音節進行制御装置10などと呼ばれてもよい。
電子楽器10は、有線及び無線(例えば、Long Term Evolution(LTE)、5th generation mobile communication system New Radio(5G NR)、Wi-Fi(登録商標)など)の少なくとも一方を介して、ネットワーク(インターネットなど)と通信してもよい。
電子楽器10は、進行の制御対象となる歌詞に関する歌声データ(歌詞テキストデータ、歌詞情報などと呼ばれてもよい)を、予め保持してもよいし、ネットワークを介して送信及び/又は受信してもよい。歌声データは、楽譜記述言語(例えば、MusicXML)によって記載されたテキストであってもよいし、MIDIデータの保存形式(例えば、Standard MIDI File(SMF)フォーマット)で表記されてもよいし、通常のテキストファイルで与えられるテキストであってもよい。歌声データは、後述する歌声データ215であってもよい。本開示において、歌声、音声、音などは、互いに読み替えられてもよい。
なお、電子楽器10は、当該電子楽器10に具備されるマイクなどを介してユーザがリアルタイムに歌う内容を取得し、これに音声認識処理を適用して得られるテキストデータを歌声データとして取得してもよい。
図2は、一実施形態にかかる電子楽器10の制御システム200のハードウェア構成の一例を示す図である。
中央処理装置(Central Processing Unit:CPU)201、ROM(リードオンリーメモリ)202、RAM(ランダムアクセスメモリ)203、波形データ出力部211、図1のスイッチ(ボタン)パネル140b、鍵盤140k、ペダル140pが接続されるキースキャナ206、及び図1のディスプレイ150dの一例としてのLCD(Liquid Crystal Display)が接続されるLCDコントローラ208が、それぞれシステムバス209に接続されている。
CPU201には、演奏を制御するためのタイマ210(カウンタと呼ばれてもよい)が接続されてもよい。タイマ210は、例えば、電子楽器10における自動演奏の進行をカウントするために用いられてもよい。CPU201は、プロセッサと呼ばれてもよく、周辺回路とのインターフェース、制御回路、演算回路、レジスタなどを含んでもよい。
CPU201は、RAM203をワークメモリとして使用しながらROM202に記憶された制御プログラムを実行することにより、図1の電子楽器10の制御動作を実行する。また、ROM202は、上記制御プログラム及び各種固定データのほか、歌声データ、伴奏データ、これらを含む曲(ソング)データなどを記憶してもよい。
波形データ出力部211は、音源LSI(大規模集積回路)204、音声合成LSI205などを含んでもよい。音源LSI204と音声合成LSI205は、1つのLSIに統合されてもよい。波形データ出力部211の具体的なブロック図については、図3で後述する。なお、波形データ出力部211の処理の一部は、CPU201によって行われてもよいし、波形データ出力部211に含まれるCPUによって行われてもよい。
波形データ出力部211から出力される歌声波形データ217及びソング波形データ218は、それぞれD/Aコンバータ212及び213によってアナログ歌声音声出力信号及びアナログ楽音出力信号に変換される。アナログ楽音出力信号及びアナログ歌声音声出力信号は、ミキサ214で混合され、その混合信号がアンプ215で増幅された後に、スピーカー150s又は出力端子から出力されてもよい。なお、歌声波形データは歌声合成データと呼ばれてもよい。図示しないが、歌声波形データ217及びソング波形データ218をデジタルで合成した後に、D/Aコンバータでアナログに変換して混合信号が得られてもよい。
キースキャナ(スキャナ)206は、図1の鍵盤140kの押鍵/離鍵状態、スイッチパネル140bのスイッチ操作状態、ペダル140pのペダル操作状態などを定常的に走査し、CPU201に割り込みを掛けて状態変化を伝える。
LCDコントローラ208は、ディスプレイ150dの一例であるLCDの表示状態を制御するIC(集積回路)である。
なお、当該システム構成は一例であり、これに限られない。例えば、各回路が含まれる数は、これに限られない。電子楽器10は、一部の回路(機構)を含まない構成を有してもよいし、1つの回路の機能が複数の回路により実現される構成を有してもよい。複数の回路の機能が1つの回路により実現される構成を有してもよい。
また、電子楽器10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、CPU201は、これらのハードウェアの少なくとも1つで実装されてもよい。
<音響モデルの生成>
図3は、一実施形態にかかる音声学習部301の構成の一例を示す図である。音声学習部301は、図1の電子楽器10とは別に外部に存在するサーバコンピュータ300が実行する一機能として実装されてもよい。なお、音声学習部301は、CPU201、音声合成LSI205などが実行する一機能として電子楽器10に内蔵されてもよい。
本開示における音声合成を実現する音声学習部301及び波形データ出力部211は、それぞれ、例えば、深層学習に基づく統計的音声合成技術に基づいて実装されてもよい。
音声学習部301は、学習用テキスト解析部303と学習用音響特徴量抽出部304とモデル学習部305とを含んでもよい。
音声学習部301において、学習用歌声音声データ312としては、例えば適当なジャンルの複数の歌唱曲を、ある歌手が歌った音声を録音したものが使用される。また、学習用歌声データ311としては、各歌唱曲の歌詞テキストが用意される。
学習用テキスト解析部303は、歌詞テキストを含む学習用歌声データ311を入力してそのデータを解析する。この結果、学習用テキスト解析部303は、学習用歌声データ311に対応する音素、音高等を表現する離散数値系列である学習用言語特徴量系列313を推定して出力する。
学習用音響特徴量抽出部304は、上記学習用歌声データ311の入力に合わせてその学習用歌声データ311に対応する歌詞テキストを或る歌手が歌うことによりマイク等を介して集録された学習用歌声音声データ312を入力して分析する。この結果、学習用音響特徴量抽出部304は、学習用歌声音声データ312に対応する音声の特徴を表す学習用音響特徴量系列314を抽出して出力する。
本開示において、学習用音響特徴量系列314や、後述する音響特徴量系列317に対応する音響特徴量系列は、人間の声道をモデル化した音響特徴量データ(フォルマント情報、スペクトル情報などと呼ばれてもよい)と、人間の声帯をモデル化した声帯音源データ(音源情報と呼ばれてもよい)とを含む。スペクトル情報としては、例えば、メルケプストラム、線スペクトル対(Line Spectral Pairs:LSP)等を採用できる。音源情報としては、人間の音声のピッチ周波数を示す基本周波数(F0)及びパワー値を採用できる。
モデル学習部305は、学習用言語特徴量系列313から、学習用音響特徴量系列314が生成される確率を最大にするような音響モデルを、機械学習により推定する。即ち、テキストである言語特徴量系列と音声である音響特徴量系列との関係が、音響モデルという統計モデルによって表現される。モデル学習部305は、機械学習を行った結果算出される音響モデルを表現するモデルパラメータを、学習結果315として出力する。したがって、当該音響モデルは、学習済みモデルに該当する。
学習結果315(モデルパラメータ)によって表現される音響モデルとして、HMM(Hidden Markov Model:隠れマルコフモデル)を用いてもよい。
ある歌唱者があるメロディーにそった歌詞を発声する際、声帯の振動や声道特性の歌声の特徴パラメータがどのような時間変化をしながら発声されるか、ということが、HMM音響モデルによって学習されてもよい。より具体的には、HMM音響モデルは、学習用の歌声データから求めたスペクトル、基本周波数、およびそれらの時間構造を音素単位でモデル化したものであってもよい。
まず、HMM音響モデルが採用される図3の音声学習部301の処理について説明する。音声学習部301内のモデル学習部305は、学習用テキスト解析部303が出力する学習用言語特徴量系列313と、学習用音響特徴量抽出部304が出力する上記学習用音響特徴量系列314とを入力することにより、尤度が最大となるHMM音響モデルの学習を行ってもよい。
歌声音声のスペクトルパラメータは、連続HMMによってモデル化することができる。一方、対数基本周波数(F0)は有声区間では連続値をとり、無声区間では値を持たない可変次元の時間系列信号であるため、通常の連続HMMや離散HMMで直接モデル化することはできない。そこで、可変次元に対応した多空間上の確率分布に基づくHMMであるMSD-HMM(Multi-Space probability Distribution HMM)を用い、スペクトルパラメータとしてメルケプストラムを多次元ガウス分布、対数基本周波数(F0)の有声音を1次元空間、無声音を0次元空間のガウス分布として同時にモデル化する。
また、歌声を構成する音素の特徴は、音響的な特徴は同一の音素であっても、様々な要因の影響を受けて変動することが知られている。例えば、基本的な音韻単位である音素のスペクトルや対数基本周波数(F0)は、歌唱スタイルやテンポ、或いは、前後の歌詞や音高等によって異なる。このような音響特徴量に影響を与える要因のことをコンテキストと呼ぶ。
一実施形態の統計的音声合成処理では、音声の音響的な特徴を精度良くモデル化するために、コンテキストを考慮したHMM音響モデル(コンテキスト依存モデル)を採用してもよい。具体的には、学習用テキスト解析部303は、フレーム毎の音素、音高だけでなく、直前、直後の音素、現在位置、直前、直後のビブラート、アクセントなども考慮した学習用言語特徴量系列313を出力してもよい。更に、コンテキストの組合せの効率化のために、決定木に基づくコンテキストクラスタリングが用いられてよい。
例えば、モデル学習部305は、学習用テキスト解析部303が学習用歌声データ311から抽出した状態継続長に関する多数の音素のコンテキストに対応する学習用言語特徴量系列313から、状態継続長を決定するための状態継続長決定木を、学習結果315として生成してもよい。
また、モデル学習部305は、例えば、学習用音響特徴量抽出部304が学習用歌声音声データ312から抽出したメルケプストラムパラメータに関する多数の音素に対応する学習用音響特徴量系列314から、メルケプストラムパラメータを決定するためのメルケプストラムパラメータ決定木を、学習結果315として生成してもよい。
また、モデル学習部305は例えば、学習用音響特徴量抽出部304が学習用歌声音声データ312から抽出した対数基本周波数(F0)に関する多数の音素に対応する学習用音響特徴量系列314から、対数基本周波数(F0)を決定するための対数基本周波数決定木を、学習結果315として生成してもよい。なお、対数基本周波数(F0)の有声区間と無声区間はそれぞれ、可変次元に対応したMSD-HMMにより、1次元及び0次元のガウス分布としてモデル化され、対数基本周波数決定木が生成されてもよい。
なお、HMMに基づく音響モデルの代わりに又はこれとともに、ディープニューラルネットワーク(Deep Neural Network:DNN)に基づく音響モデルが採用されてもよい。この場合、モデル学習部305は、言語特徴量から音響特徴量へのDNN内の各ニューロンの非線形変換関数を表すモデルパラメータを、学習結果315として生成してもよい。DNNによれば、決定木では表現することが困難な複雑な非線形変換関数を用いて、言語特徴量系列と音響特徴量系列の関係を表現することが可能である。
また、本開示の音響モデルはこれらに限られるものではなく、例えばHMMとDNNを組み合わせた音響モデル等、統計的音声合成処理を用いた技術であればどのような音声合成方式が採用されてもよい。
学習結果315(モデルパラメータ)は、例えば、図3に示されるように、図1の電子楽器10の工場出荷時に、図2の電子楽器10の制御システムのROM202に記憶され、電子楽器10のパワーオン時に、図2のROM202から波形データ出力部211内の後述する歌声制御部307などに、ロードされてもよい。
学習結果315は、例えば、図3に示されるように、演奏者が電子楽器10のスイッチパネル140bを操作することにより、ネットワークインタフェース219を介して、インターネットなどの外部から波形データ出力部211内の歌声制御部307にダウンロードされてもよい。
<音響モデルに基づく音声合成>
図4は、一実施形態にかかる波形データ出力部211の一例を示す図である。
波形データ出力部211は、処理部(テキスト処理部、前処理部などと呼ばれてもよい)306、歌声制御部(音響モデル部と呼ばれてもよい)307、音源308、歌声合成部(発声モデル部と呼ばれてもよい)309などを含む。
波形データ出力部211は、図1の鍵盤140k(演奏操作子)の押鍵に基づいて図2のキースキャナ206を介してCPU201から指示される、歌詞及び音高の情報を含む歌声データ215と、歌詞制御データと、を入力することにより、当該歌詞及び音高に対応する歌声波形データ217を合成し出力する。言い換えると、波形データ出力部211は、歌詞テキストを含む歌声データ215に対応する歌声波形データ217を、歌声制御部307に設定された音響モデルという統計モデルを用いて予測することにより合成する、統計的音声合成処理を実行する。
また、波形データ出力部211は、ソングデータの再生時には、対応するソング再生位置に該当するソング波形データ218を出力する。ここで、ソングデータは、伴奏のデータ(例えば、1つ以上の音についての、音高、音色、発音タイミングなどのデータ)、伴奏及びメロディーのデータに該当してもよく、バックトラックデータなどと呼ばれてもよい。
処理部306は、例えば演奏者の演奏(操作)の結果として、図2のCPU201より指定される歌詞の音素、音高等に関する情報を含む歌声データ215を入力し、そのデータを解析する。歌声データ215は、例えば、第n番目の音符(第n音符、第nタイミングなどと呼ばれてもよい)のデータ(例えば、音高データ、音符長データ)、第n音符に対応する第n歌詞(又は音節)のデータ、第n音節のデータなどの少なくとも1つを含んでもよい。
例えば、処理部306は、鍵盤140k、ペダル140pの操作から取得されるノートオン/オフデータ、ペダルオン/オフデータなどに基づいて、後述する歌詞進行制御方法に基づいて歌詞進行の有無を判定し、出力すべき音節(歌詞)に対応する歌声データ215を取得してもよい。そして、処理部306は、押鍵によって指定された音高データ又は取得した歌声データ215の音高データと、取得した歌声データ215の文字データと、に対応する音素、品詞、単語等を表現する言語特徴量系列316を解析し、歌声制御部307に出力してもよい。
歌声データ215は、歌詞(の文字)と、音節のタイプ(開始音節、中間音節、終了音節など)と、対応する声高(正解の声高)と、各音節の歌詞(文字列)と、の少なくとも1つを含む情報であってもよい。歌声データ215は、第n(n=1、2、3、4、…)音節に対応する第n音節の歌声データの情報を含んでもよい。
歌声データ215は、当該歌詞に対応する伴奏(ソングデータ)を演奏するための情報(特定の音声ファイルフォーマットのデータ、MIDIデータなど)を含んでもよい。歌声データがSMFフォーマットで示される場合、歌声データ215は、歌声に関するデータが格納されるトラックチャンクと、伴奏に関するデータが格納されるトラックチャンクと、を含んでもよい。歌声データ215は、ROM202からRAM203に読み込まれてもよい。歌声データ215は、メモリ(例えば、ROM202、RAM203)に演奏前から記憶されている。
歌詞制御データは、図12について後述するように、音節に対応する歌声再生情報の設定に用いられてもよい。波形データ出力部211は、歌声再生情報に基づいて、発音のタイミングを制御できる。例えば、処理部306は、歌声再生情報が示す音節開始フレームに基づいて、歌声制御部307に出力する言語特徴量系列316を調整してもよい(例えば、音節開始フレームより前のフレームは出力しなくてもよい)。
歌声制御部307は、処理部306から入力される言語特徴量系列316と、学習結果315として設定された音響モデルと、に基づいて、それに対応する音響特徴量系列317を推定し、推定された音響特徴量系列317に対応するフォルマント情報318を、歌声合成部309に対して出力する。
例えば、HMM音響モデルが採用される場合、歌声制御部307は、言語特徴量系列316によって得られるコンテキスト毎に決定木を参照してHMMを連結し、連結した各HMMから出力確率が最大となる音響特徴量系列317(フォルマント情報318と声帯音源データ319)を予測する。
DNN音響モデルが採用される場合、歌声制御部307は、フレーム単位で入力される、言語特徴量系列316の音素列に対して、上記フレーム単位で音響特徴量系列317を出力してもよい。なお、本開示のフレームは、例えば5ms、10msなどであってもよい。
図4では、処理部306は、メモリ(ROM202でもよいし、RAM203でもよい)から、押鍵された音の音高に対応する楽器音データ(ピッチ情報)を取得し、音源308に出力する。
音源308は、処理部306から入力されるノートオン/オフデータに基づいて、発音すべき(ノートオンの)音に対応する楽器音データ(ピッチ情報)の音源信号(楽器音波形データと呼ばれてもよい)を生成し、歌声合成部309に出力する。音源308は、発音する音のエンベロープ制御等の制御処理を実行してもよい。
歌声合成部309は、歌声制御部307から順次入力されるフォルマント情報318の系列に基づいて声道をモデル化するデジタルフィルタを形成する。また、歌声合成部309は、音源308から入力される音源信号を励振源信号として、当該デジタルフィルタを適用して、デジタル信号の歌声波形データ217を生成し出力する。この場合、歌声合成部309は、合成フィルタ部と呼ばれてもよい。
なお、歌声合成部309には、ケプストラム音声合成方式、LSP音声合成方式をはじめとした様々な音声合成方式が採用可能であってもよい。
図4の例では、出力される歌声波形データ217は、楽器音を音源信号としているため、歌手の歌声に比べて忠実性は若干失われるが、当該楽器音の雰囲気と歌手の歌声の声質との両方が良く残った歌声となり、効果的な歌声波形データ217を出力させることができる。
なお、音源308は、楽器音波形データの処理とともに、他のチャネルの出力をソング波形データ218として出力するように動作してもよい。これにより、伴奏音は通常の楽器音で発音させたり、メロディーラインの楽器音を発音させると同時にそのメロディーの歌声を発声させたりするというような動作も可能である。
図5は、一実施形態にかかる波形データ出力部211の別の一例を示す図である。図4と重複する内容については、繰り返し説明しない。
図5の歌声制御部307は、上述したように、音響モデルに基づいて、音響特徴量系列317を推定する。そして、歌声制御部307は、推定された音響特徴量系列317に対応するフォルマント情報318と、推定された音響特徴量系列317に対応する声帯音源データ(ピッチ情報)319と、を、歌声合成部309に対して出力する。歌声制御部307は、音響特徴量系列317が生成される確率を最大にするような音響特徴量系列317の推定値を推定してもよい。
歌声合成部309は、例えば、歌声制御部307から入力される声帯音源データ319に含まれる基本周波数(F0)及びパワー値で周期的に繰り返されるパルス列(有声音音素の場合)又は声帯音源データ319に含まれるパワー値を有するホワイトノイズ(無声音音素の場合)又はそれらが混合された信号に、フォルマント情報318の系列に基づいて声道をモデル化するデジタルフィルタを適用した信号を生成させるためのデータ(例えば、第n音符に対応する第n歌詞の歌声波形データと呼ばれてもよい)を生成し、音源308に出力してもよい。
音源308は、処理部306から入力されるノートオン/オフデータに基づいて、発音すべき(ノートオンの)音に対応する上記第n歌詞の歌声波形データからデジタル信号の歌声波形データ217を生成し、出力する。
図5の例では、出力される歌声波形データ217は、声帯音源データ319に基づいて音源308が生成した音を音源信号としているため、歌声制御部307によって完全にモデル化された信号であり、歌手の歌声に非常に忠実で自然な歌声の歌声波形データ217を出力させることができる。
このように、本開示の音声合成は、既存のボコーダー(人間が喋った言葉をマイクによって入力し、楽器音に置き換えて合成する手法)とは異なり、ユーザ(演奏者)が現実に歌わなくても(言い換えると、電子楽器10にユーザがリアルタイムに発音する音声信号を入力しなくても)、鍵盤の操作によって合成音声を出力することができる。
以上説明したように、音声合成方式として統計的音声合成処理の技術を採用することにより、従来の素片合成方式に比較して格段に少ないメモリ容量を実現することが可能となる。例えば、素片合成方式の電子楽器では、音声素片データのために数百メガバイトに及ぶ記憶容量を有するメモリが必要であったが、本実施形態では、学習結果315のモデルパラメータを記憶させるために、わずか数メガバイトの記憶容量を有するメモリのみで済む。このため、より低価格の電子楽器を実現することが可能となり、高音質の歌声演奏システムをより広いユーザ層に利用してもらうことが可能となる。
さらに、従来の素片データ方式では、素片データの人手による調整が必要なため、歌声演奏のためのデータの作成に膨大な時間(年単位)と労力を必要としていたが、本実施形態によるHMM音響モデル又はDNN音響モデルのための学習結果315のモデルパラメータの作成では、データの調整がほとんど必要ないため、数分の一の作成時間と労力で済む。これによっても、より低価格の電子楽器を実現することが可能となる。
また、一般ユーザが、クラウドサービスとして利用可能なサーバコンピュータ300、音声合成LSI205などに内蔵された学習機能を使って、自分の声、家族の声、或いは有名人の声等を学習させ、それをモデル音声として電子楽器で歌声演奏させることも可能となる。この場合にも、従来よりも格段に自然で高音質な歌声演奏を、より低価格の電子楽器として実現することが可能となる。
(歌詞進行制御方法)
本開示の一実施形態に係る歌詞進行制御方法について、以下で説明する。なお、本開示の歌詞進行制御は、演奏制御、演奏などと互いに読み替えられてもよい。
以下の各フローチャートの動作主体(電子楽器10)は、CPU201、波形データ出力部211(又はその内部の音源LSI204、音声合成LSI205(処理部306、歌声制御部307、音源308、歌声合成部309など))のいずれか又はこれらの組み合わせで読み替えられてもよい。例えば、CPU201が、ROM202からRAM203にロードされた制御処理プログラムを実行して、各動作が実施されてもよい。
なお、以下に示すフローの開始にあたって、初期化処理が行われてもよい。当該初期化処理は、割り込み処理、歌詞の進行、自動伴奏などの基準時間となるTickTimeの導出、テンポ設定、ソングの選曲、ソングの読み込み、楽器音の選択、その他ボタン等に関連する処理などを含んでもよい。
CPU201は、適宜のタイミングで、キースキャナ206からの割込みに基づいて、スイッチパネル140b、鍵盤140k及びペダル140pなどの操作を検出し、対応する処理を実施できる。
なお、以下では歌詞の進行を制御する例を示すが進行制御の対象はこれに限られない。本開示に基づいて、例えば、歌詞の代わりに、任意の文字列、文章(例えば、ニュースの台本)などの進行が制御されてもよい。つまり、本開示の歌詞は、文字、文字列などと互いに読み替えられてもよい。
まず、本開示における、歌詞(リリック、フレーズなどと呼ばれてもよい)の音節位置の制御方法の概要について説明する。当該制御方法によれば、鍵盤を用いて素早くかつ直感的に歌詞制御が可能である。なお、本開示において、「音節」は、例えば、「go」、「for」、「it」などのように1単語(又は1文字)を示し、「歌詞」又は「フレーズ」は、例えば「Go for it」のように、複数の音節又は複数の単語(又は複数の文字)からなる言葉(又は文章)を示すものとして説明するが、これらの定義は異なってもよい。
また、本開示において、音節位置は、特定のインデックス(例えば、音節インデックスと呼ぶ)によって表されてもよい。音節インデックスは、歌詞に含まれる音節のうち、先頭から何音節目(又は何文字目)の音節(又は文字)に対応するかを示す変数であってもよい。本開示では、音節位置及び音節インデックスは、互いに読み替えられてもよい。
本開示において、1つの音節インデックスに対応する歌詞は、1音節を構成する1又は複数の文字に該当してもよい。音節は、母音のみ、子音のみ、子音+母音など、種々の音節を含んでもよい。
図6は、一実施形態にかかる音節位置制御のための鍵盤の鍵域分割の一例を示す図である。本例では、鍵盤140kが、第1鍵域(第1音域)及び第2鍵域(第2音域)に分割されている。なお、本例では鍵盤140kの鍵盤数が61である例を示しているが、本開示の実施形態は、他の鍵盤数であっても同様に適用可能である。
なお、本開示において、鍵域は、鍵盤の領域(又は範囲)、演奏操作子の領域(又は範囲)、音域、音の領域(又は範囲))などと互いに読み替えられてもよい。
第1鍵域は、音節位置制御鍵域、鍵盤コントロール鍵域、単に制御鍵域などと呼ばれてもよく、音節位置を指定するために用いられる。言い換えると、制御鍵域は、演奏する音高、音のベロシティ、長さなどの指定に用いられなくてもよい。
一例としては、制御鍵域は、コード発音用の鍵の鍵域(例えば、C1-F2)に該当してもよい。制御鍵域のうち、音節位置の制御に用いられる鍵は、白鍵のみから構成されてもよいし、黒鍵のみから構成されてもよいし、これらの両方から構成されてもよい。例えば、音節位置の制御に白鍵のみを用いる場合、制御鍵域内の黒鍵は、歌詞の制御(例えば、ある曲における次の/前の歌詞への遷移など)に用いられてもよい。
第2鍵域は、鍵盤演奏鍵域、単に演奏鍵域などと呼ばれてもよく、音高、音のベロシティ、長さなどを指定するために用いられる。電子楽器10は、制御鍵域の操作によって指定される音節位置(又は歌詞)に対応する音を、演奏鍵域の操作によって指定される音高(音程)、ベロシティなどを用いて発音する。
なお、図6では、制御鍵域が左手側のいくつかの鍵から構成され、演奏鍵域が、制御鍵域に該当しない鍵から構成される例を示したが、これに限られない。例えば、各鍵域は、隣接しない(とびとびの)鍵から構成されてもよいし、制御鍵域が右手側の鍵から構成され、演奏鍵域が左手側の鍵から構成されるなどしてもよい。
図7A-7Cは、制御鍵域に割り当てられる音節の一例を示す図である。図7Aは、制御鍵域で音節位置を制御する対象となる歌詞の一例を示す。「まばたきしては みんなを」という歌詞が示されている。音高及び音の長さは、例であって、実際に出力される音は演奏鍵域で制御され得る。
図7Bは、図7Aの歌詞の各音節を制御鍵域内の白鍵に割り当てた例を示す。本例では、制御鍵域内のC1-F2の計11個の白鍵のそれぞれに、上記歌詞の1音節ずつがマッピングされている。
電子楽器10は、制御鍵域内のある白鍵が押鍵されると、音節位置を当該白鍵に対応する位置に設定する(例えば、当該白鍵がG1であれば、「し」に設定する)。電子楽器10は、C1が押鍵されると、現状の音節位置に関わらず、歌詞を頭出しする(音節位置を「ま」にする)。
電子楽器10は、制御鍵域内の鍵が押されていない状態で、演奏鍵域内の任意の鍵が押鍵されると、音節位置を1つシフト(次に移動)する(例えば、押鍵前の位置が「ま」であれば、「ば」にシフトする)。なお、音節位置が歌詞の末尾に到達する場合、音節位置は、当該歌詞の先頭の位置(図7Bでは「ま」)に変更されてもよいし、当該歌詞の次の歌詞の先頭の位置に変更されてもよい。
電子楽器10は、制御鍵域内のある白鍵が押鍵されたまま、演奏鍵域内の任意の鍵が複数回押鍵されても、音節位置を当該白鍵に対応する位置のまま維持する(例えば、当該白鍵に対応する位置が「し」であれば、演奏鍵域の押鍵のたびに「し」を発音する)。
電子楽器10は、制御鍵域内のある白鍵が押鍵されるときに、演奏鍵域内の鍵が既に押鍵されている場合、当該白鍵に対応する音節を、演奏鍵域内の押鍵されている鍵に基づいて発音してもよい。例えば、演奏鍵域内の鍵が押鍵されている場合に、制御鍵域でC2→D1→E1の順で押鍵されると、電子楽器10は、当該演奏鍵域内の鍵に対応する音高で、「み ば た」と発音してもよい。この動作によれば、制御鍵域に対応する歌詞の音節を任意の順で(アナグラムを自由に作って)発音させることができる。
図7Cは、別の歌詞(英語の歌詞)の各音節を制御鍵域内の白鍵に割り当てた例を示す。本例では、制御鍵域内のC1-F2の計11個の白鍵のそれぞれに、歌詞「holy infant so tender and mild sleep in」の各音節がマッピングされている。このように、任意の言語の音節が割り当てられてもよい。
1つの鍵には、図7B、7Cに示すように、1文字/1音節が割り当てられてもよいし、複数文字/複数音節が割り当てられてもよい。
歌詞及び音節に関するデータは、上述した歌声データ215(歌詞データ、音節データなどと呼ばれてもよい)に該当してもよい。例えば、電子楽器10は、メモリ内に複数の歌詞データを記憶していて、特定のファンクションキー(例えば、ボタン、スイッチなど)の操作がされると1つの歌詞データを選択してもよい。
<歌詞進行制御>
図8は、一実施形態に係る歌詞進行制御方法のフローチャートの一例を示す図である。
まず、電子楽器10は、音節位置制御フラグを初期値として「無効」にセットする(ステップS101)。
電子楽器10は、音節の割り当てが必要か否かを判断する(ステップS102)。電子楽器10は、例えば、電子楽器10の特定のファンクションキー(例えば、ボタン、スイッチなど)(例えば、ボタン、スイッチなど)の操作がされる(そして、歌詞がロードされるなど)場合に、音節の割り当てが必要と判断してもよい。
音節の割り当てが必要な場合(ステップS102-Yes)、電子楽器10は、制御鍵域(の白鍵)に対して、音節の割り当て処理を行い(ステップS103)、音節位置制御フラグを「有効」にセットする(ステップS104)。割り当てられる音節は、上述したように複数の歌詞データから1つ選択されてもよい。音節位置制御フラグが「有効」であることは、鍵盤スプリットが有効であると呼ばれてもよい。
音節の割り当てが必要でない場合(ステップS102-No)、制御鍵域は設定されず、全ての鍵が音高指定のために用いられる(通常の演奏モード)。音節位置制御フラグが「無効」であることは、鍵盤スプリットが無効であると呼ばれてもよい。
ステップS104又はステップS102-Noの後、電子楽器10は、任意の鍵盤操作があるかを判断する(ステップS105)。鍵盤操作がある場合(ステップS105-Yes)、電子楽器10は押鍵された/されている鍵、離鍵された/されている鍵などの情報(押鍵/離鍵情報と呼ばれてもよい)を取得する(ステップS106)。
ステップS106の後、電子楽器10は、上述の音節位置制御フラグが有効か否かを確認する(ステップS107)。音節位置制御フラグが有効な場合(ステップS107-Yes)、音節位置制御処理を行う(ステップS108)。そうでない場合(ステップS107-No)、電子楽器10は、演奏制御処理を行う(ステップS109)。音節位置制御処理については図9で、演奏制御処理については図10で、後述する。
ステップS108又はステップS109の後、電子楽器10は、歌詞の再生が終了したか否かを判断する(ステップS110)。終了した場合(ステップS110-Yes)、電子楽器10は当該フローチャートの処理を終了し、待機状態に戻ってもよい。そうでない場合(ステップS110-No)、ステップS102又はステップS105に戻ってもよい。ここでの「歌詞の再生が終了したか」は、ワンフレーズの歌詞の再生についてであってもよいし、曲全体の歌詞の再生についてであってもよい。
<音節位置制御>
図9は、一実施形態に係る音節位置制御処理のフローチャートの一例を示す図である。
電子楽器10は、制御鍵域での押鍵/離鍵操作があるかを判断する(ステップS201)。制御鍵域での操作がある場合(ステップS201-Yes)、当該操作が押鍵操作か否かを判断する(ステップS202)。
押鍵操作がある場合(ステップS202-Yes)、電子楽器10は、当該押鍵操作によって押鍵される鍵(キー)の情報を、音節制御キーとして保存(又は記憶又は設定)する(ステップS203)。また、電子楽器10は、離鍵フラグをリセットする(又は設定しない)(ステップS204)。なお、離鍵フラグは、制御鍵域の任意の鍵が押鍵されている場合にはリセットされ、そうでない場合にはセットされることになる。
一方、離鍵操作がある場合(ステップS202-No)、電子楽器10は、当該離鍵操作によって離鍵されたキーの情報が、保存されている音節制御キーと同じか否かを判断する(ステップS205)。
離鍵されたキーの情報が、保存されている音節制御キーと同じ場合(ステップS205-Yes)、離鍵フラグをセットする(ステップS206)。なお、離鍵されたキーの情報が、保存されている音節制御キーと同じ場合であっても、制御鍵域においてまだ押鍵中の鍵がある場合には、電子楽器10は、当該押鍵中の鍵(キー)の情報を、音節制御キーとして保存してもよいし、この場合離鍵フラグはセットされなくてもよい。
一方、制御鍵域での操作がなかった場合(ステップS201-No)、電子楽器10は、演奏制御処理を行う(ステップS207)。ステップS207の演奏制御処理は、ステップS109の演奏制御処理と同じであってもよい。
ステップS204、ステップS206、ステップS205-No、又はステップS207の後、電子楽器10は、音節位置制御処理を終了してもよい。
なお、音節制御キーは、音節制御情報と呼ばれてもよく、押鍵/離鍵された鍵のキー番号(キーナンバー)の情報であってもよいし、押鍵/離鍵された鍵の音高(又はノート番号)の情報であってもよい。以下、本開示では、音節制御キーとしてキーナンバーが保持されることを例に説明するが、これに限られない。
なお、例えば、図7B及び7Cの例のC1-F2に対応する鍵は、それぞれ0-11のキーナンバーに対応してもよい。キーナンバーは、音高を表す文字列(例えば、C1、F2)であってもよい。
図9の音節位置制御処理によれば、制御鍵域における押鍵があると、そのキーが保持される。制御鍵域における離鍵があると、保持されたキーは維持したまま、離鍵フラグがセットされる。保持されたキーは、制御鍵域における別のキーが押鍵されると、当該別のキーに置き換わる。なお、制御鍵域の鍵が離鍵されていない状態で新たな鍵が押鍵された場合、保持されたキーは、当該新たな鍵のキーで上書きされてもよい。
<演奏制御>
図10は、一実施形態に係る演奏制御処理のフローチャートの一例を示す図である。
電子楽器10は、音節進行判別処理を実施する(ステップS301)。音節進行判別処理は、音節位置を進めるか否かに関する判別結果(返り値)を返す。当該判別結果がYes(又はTrue)である場合、現在の音節位置を取得し、当該音節位置を1つ遷移させる(又は、シフトする、進める)(言い換えると、歌詞を進行する)(ステップS302)。音節進行判別処理の一例については、図11で後述する。
一方、ステップS301の音節進行判別処理の判別結果がNo(又はFalse)である場合、音節位置は変更されない。
ステップS302の後、電子楽器10は、音節制御キーがセットされている(有効な値が保存されている)か否かを判断する(ステップS303)。音節制御キーがセットされている場合(ステップS303-Yes)、電子楽器10は、当該音節制御キーが音節位置指定有効キー(単に有効キーと呼ばれてもよい)であるか否かを判断する(ステップS304)。
ここで、有効キーは、制御鍵域内の全ての鍵のうち、音節が割り当てられた鍵のことを意味してもよい。例えば、現在の歌詞に含まれる音節数が、制御鍵域内の白鍵の数より少ない場合、制御鍵域内の一部の白鍵が有効キーに該当し、残りは有効キーに該当しない。また、この場合、黒鍵も有効キーに該当しない。
これからわかるように、歌詞が変われば、どの鍵が有効キーになるかも変わり得る。なお、1つの鍵が1音節に1対1対応する必要はなく、1つの鍵が複数音節に対応したり、複数の鍵が1つの音節に対応したりしてもよい。
音節制御キーが有効キーである場合(ステップS304-Yes)、電子楽器10は、当該音節制御キー(のキーナンバー)に対応する音節位置を取得する(ステップS305)。
ステップS305の後、電子楽器10は、離鍵フラグがセットされているかを判断する(ステップS306)。離鍵フラグがセットされている場合(ステップS306-Yes)、電子楽器10は、音節制御キーをクリアする(無効な値をセットしてもよい)(ステップS307)。
ステップS303-No、ステップS304-No、ステップS306-No、又はステップS307の後、電子楽器10は、音節変更処理を行う(ステップS308)。音節変更処理の一例については、図12で後述する。なお、後述のとおり、音節変更処理のなかで音節の演奏(再生)処理が行われてもよい。
なお、音節変更処理の前又は後において、電子楽器10は、現在の音節位置(ステップS302又はステップS305で取得された(又は取得されて1つ進められた)音節位置)を、現在の音節位置として記憶部に記憶してもよい。ステップS302の音節位置の取得は、記憶された現在の音節位置の取得であってもよい。また、ステップS302において音節位置を1つ進める代わりに、ステップS308の音節変更処理の前又は後において、音節位置を1つ進めてもよい。
ステップS301-No又はステップS308の後、電子楽器10は、演奏制御処理を終了してもよい。
<音節進行判別>
図11は、一実施形態に係る音節進行判別処理のフローチャートの一例を示す図である。この処理は、言い換えると、演奏鍵域で単音が押鍵されれば音節を進行し、また、演奏鍵域で和音が押鍵されれば、和音のうちどの高さ(「何番目の高さ」、「どのパート」などで読み替えられてもよい)の音が押鍵によって変化したかに基づいて、音節進行を判定する処理に該当する。
電子楽器10は、演奏鍵域の現在の押鍵数を取得する(ステップS401)。
次に、電子楽器10は、演奏鍵域の現在の押鍵数が2以上か(2音以上の押鍵があるか)を判断する(ステップS402)。現在の押鍵数が2以上である場合(ステップS402-Yes)、電子楽器10は、各押鍵に対応する押鍵時間とキーナンバーを取得する(ステップS403)。
ステップS403の後、電子楽器10は、演奏鍵域において、最新の押鍵時間と前回の押鍵時間との差が和音判別時間内か否かを判断する(ステップS404)。ステップS404は、例えば、新たに押鍵された音の押鍵時間と前回(又はi回前に(iは整数))押鍵された音の押鍵時間との差が、和音判別時間内であるかを判断するステップであると言い換えてもよい。当該過去の押鍵時間は、最新の押鍵時間においても押鍵が継続されている鍵に対応することが好ましい。
ここで、和音判別時間は、当該時間内に発音される複数の音を同時和音と判断し、当該時間外に発音される複数の音を独立した音(例えば、メロディーラインの音)又は分散和音と判断するための時間(期間)である。和音判別時間は、例えばミリ秒単位、マイクロ秒単位で表現されてもよい。
和音判別時間は、ユーザの入力から取得されてもよいし、曲のテンポを基準に導出されてもよい。和音判別時間は、所定の設定された時間、設定時間などと呼ばれてもよい。
最新の押鍵時間と前回の押鍵時間との差が和音判別時間内である場合(ステップS404-Yes)、電子楽器10は、押鍵されている音が同時和音である(和音が指定された)と判断する。そして、音節を維持する(歌詞を進行しない)と判断し、音節進行判別処理の返り値をNo(又はFalse)に設定する(ステップS405)。
ステップS404の判定によれば、和音の意図で複数の鍵を押した場合には、音節が鍵の数だけ進行してしまうことが好ましくないことに対応し、歌詞を1つだけ進行させることができる。
一方、和音判別時間内に過去の押鍵時間がない場合(ステップS404-No)、演奏鍵域の現在の押鍵数が所定数以上で、かつ最新の押鍵音(キー)が、演奏鍵域において押鍵されている全音(キー)のうちの特定の音(キー)に該当するかを判断する(ステップS406)。なお、電子楽器10は、ステップS404-Noの場合には、和音の指定が解除されたと判断してもよいし、和音が指定されないと判断してもよい。
なお、当該所定数は、例えば2、4、8、などであってもよい。また、特定の音(キー)は、押鍵されている全音(キー)のなかで一番低い音(キー)であってもよいし、i番目(iは整数)に高い又は低い音(キー)であってもよい。これらの所定数、特定の音などは、ユーザ操作などによって設定されてもよいし、予め規定されてもよい。
ステップS406-Yesの場合、電子楽器10は、音節を進める(歌詞を進行する)と判断し、音節進行判別処理の返り値をYes(又はTrue)に設定する(ステップS407)。
ステップS406-Noの場合、電子楽器10は、同時和音でないが、音節を維持する(歌詞を進行しない)と判断し、音節進行判別処理の返り値をNo(又はFalse)に設定する(ステップS405)。
また、ステップS402-Noの場合、電子楽器10は、同時和音でないため、音節を進める(歌詞を進行する)と判断し、音節進行判別処理の返り値をYes(又はTrue)に設定する(ステップS407)。
図11のような音節進行判定処理によれば、例えば、発音の時間差が小さい複数の音(いわゆる同時和音(ハーモニー))ではなく、発音の時間差が大きい複数の音(旋律(メロディー))であれば、音節を進行させるようにすることができる。
<音節変更>
図12は、一実施形態に係る音節変更処理のフローチャートの一例を示す図である。
電子楽器10は、演奏制御処理において既に取得された音節位置に対応する歌詞制御データを取得する(ステップS501)。
ここで、歌詞制御データは、歌詞に含まれる音節ごとの発音(歌声合成)に関するパラメータを含むデータであってもよい。ある音節の発音に関するパラメータを含むデータを音節制御データと呼ぶと、歌詞制御データは、1つ以上の音節制御データを含んで構成されてもよい。
例えば、音節制御データは、発音タイミング、音節開始フレーム、母音開始フレーム、母音終了フレーム、音節終了フレーム、歌詞(又は音節)(の文字情報)、などの情報を含んでもよい。なお、フレームは、上述した音素(音素列)の構成単位であってもよいし、その他の時間単位で読み替えられてもよい。以下、歌詞制御データ及び音節制御データを特に区別せず説明する。
発音タイミングは、各フレーム(例えば、音節開始フレーム、母音開始フレームなど)の基準となるタイミング(又はオフセット)を示してもよい。当該発音タイミングは、押鍵からの時間で与えられてもよい。発音タイミングや、各フレームの情報は、フレーム数(フレーム単位)で指定されてもよい。
音節に対応する音は、音節開始フレームから発音が始まり、音節終了フレームで発音が終わってもよい。音節のうち母音に対応する音は、母音開始フレームから発音が始まり、母音終了フレームで発音が終わってもよい。つまり、通常は、母音開始フレームは音節開始フレーム以上の値を有し、母音終了フレームは音節終了フレーム以下の値を有する。
音節開始フレームは、音節のフレームの先頭アドレス情報に該当してもよい。音節終了フレームは、音節のフレームの最終アドレス情報に該当してもよい。
次に、電子楽器10は、ステップS501で取得された歌詞制御データの音節開始フレームを調整する必要があるかを判断する(ステップS502)。例えば、フレーム位置調整フラグが立っている(セットされている)場合、電子楽器10は、音節開始フレームを調整する必要があると判断してもよい。電子楽器10は、ファンクションキーの操作に基づいてフレーム位置調整フラグの値を制御してもよいし、歌詞制御データのパラメータに基づいてフレーム位置調整フラグの値を決定してもよい。
音節開始フレームを調整する必要がある場合(ステップS502-Yes)、電子楽器10は、調節係数に基づいて音節開始フレームを調整する(ステップS503)。電子楽器10は、例えば、音節開始フレームに調節係数を用いた所定の演算(例えば、加算、減算、乗算、除算)を適用した値を、新たな(調整済みの)音節開始フレームとして算出してもよい。
調整係数は、音節のホワイトノイズ部分を低減(又は削除)するために適切なパラメータ(例えば、オフセット量、フレーム数など)であってもよい。調節係数は、音節ごとに異なる(又は独立した)値を有してもよい。調節係数は、歌詞制御データに含まれてもよいし、歌詞制御データに基づいて決定されてもよい。
なお、ステップS503の音節開始フレームの調整は、制御鍵域の押鍵中に発音される音にのみ適用されてもよいし、制御鍵域が押鍵されていないときに発音される音に適用されてもよい。
ステップS503の後、電子楽器10は、調整済みの音節開始フレームの値が、母音開始フレームの値より大きいか否かを判断する(ステップS504)。調整済みの音節開始フレームの値が、母音開始フレームの値より大きい場合(ステップS504-Yes)、電子楽器10は、調整済みの音節開始フレームの値を母音開始フレームの値に変更する(ステップS505)。
ステップS504及びS505によれば、例えば、ホワイトノイズはできるだけ低減しつつ、母音の最初から発音を開始できる。母音の途中から発音が開始すると、発音のアタック感が劣化してしまうが、母音の最初から発音を開始することによって、アタック感の劣化を抑制できる。
ステップS502-No、ステップS504-No又はステップS505の後、電子楽器10は、音節開始フレーム、母音開始フレーム、母音終了フレーム、音節終了フレームを少なくとも含む情報を、歌声再生情報として設定する(ステップS506)。ここでの音節開始フレームは、上述のように、歌詞制御データに含まれる音節開始フレームの値であってもよいし、調整係数を用いて調整された音節開始フレームの値であってもよいし、母音開始フレームの値であってもよい。
電子楽器10は、歌声再生処理を適用して現在の音節位置に対応する音を発音する(ステップS507)。電子楽器10は、当該歌声再生処理において、現在の音節位置に対応する音を、ステップS506の歌声再生情報と、演奏鍵域において押鍵される鍵(から得られる音高など)と、に基づいて発音してもよい。
歌声再生処理では、電子楽器10は、例えば、歌声制御部307より、現在の音節位置に対応する歌声データの音響特徴量データ(フォルマント情報)を取得し、音源308に、押鍵に応じた音高の楽器音の発音(楽器音波形データの生成)を指示し、歌声合成部309に、音源308から出力される楽器音波形データに対し、上記フォルマント情報の付与を指示してもよい。
例えば、処理部306が、指定された音高データ(押鍵された鍵に対応する音高データ)及び現在の音節位置に対応する歌声データと、現在の音節位置に対応する歌声再生情報を、歌声制御部307に入力する。歌声制御部307は、入力に基づいて音響特徴量系列317を推定し、対応するフォルマント情報318と声帯音源データ(ピッチ情報)319と、を、歌声合成部309に対して出力する。この音響特徴量系列317は、歌声再生情報に基づいて再生開始フレームが調整されてもよい。
歌声合成部309は、入力されたフォルマント情報318と声帯音源データ(ピッチ情報)319とに基づいて、歌声波形データを生成し、音源308に出力する。そして、音源308は、歌声合成部309から取得される歌声波形データに対して発音処理を行う。
なお、電子楽器10は、ステップS301の音節進行判別処理の判別結果がNo(又はFalse)である場合にも、現在の音節位置に対応する音を、既に得られている歌声再生情報と、演奏鍵域において押鍵される鍵と、に基づいて、歌声再生処理を適用して発音してもよい。
<変形例>
電子楽器10において、制御鍵域内の音節が割り当てられる鍵には、割り当てられた音節が視認(又は区別、把握、理解)できるように、文字、図形、模様、パターンの少なくとも1つが表示されてもよいし、鍵(例えば、鍵に内蔵される発光素子(発光ダイオード(Light Emitting Diode(LED)))など)の色、明度及び彩度の少なくとも1つが変化してもよい。
また、電子楽器10において、現在の音節位置に対応する鍵には、現在の音節位置であることが視認(又は区別、把握、理解)できるように(言い換えると、他の鍵と区別できるように)、他の鍵とは異なる文字、図形、模様、パターンの少なくとも1つが表示されてもよいし、他の鍵とは異なる鍵の色、明度及び彩度の少なくとも1つが表示されてもよい。
図13A及び13Bは、制御鍵域の鍵の外観の一例を示す図である。本例では、「まばたきしては みんなを」という歌詞が、制御鍵域内のC1-F2の計11個の白鍵のそれぞれに視認できるように表示されている。
また、図13AではC1の鍵の一部が発光している(図中の”〇”部分)。図13BではD1の鍵の一部が発光している(図中の”〇”部分)。図13A及び図13Bでは、それぞれ現在の音節位置が「ま」、「ば」であることが演奏者に容易に理解される。
なお、図13A及び13Bのように、音節が割り当てられている鍵が理解できるような表示がされている場合には、制御鍵域の鍵盤数は、固定でなくてもよく、現在の演奏対象の歌詞に応じて可変であってもよい。例えば、歌詞の音節数がx(xは整数)である場合には、制御鍵域は白鍵がx鍵含まれれば足りるためである。この場合、どの歌詞を選んでも演奏鍵域の鍵数が常に少ない(演奏できる音高に自由度が少ない)という事態を抑制できる。
上述の実施形態では、特定のファンクションキー(例えば、ボタン、スイッチなど)の操作に基づいて歌詞データが選択されると想定したが、これに限られない。例えば、電子楽器10は、制御鍵域内の音節が割り当てられていない鍵(例えば、黒鍵)の操作に基づいて、歌詞データを選択してもよい。例えば、制御鍵域内の最も左の黒鍵が、一曲における現在の歌詞より1つ前の歌詞の選択を示し、制御鍵域内の左から2番目の黒鍵が、一曲における現在の歌詞より1つ後の歌詞の選択を示してもよい。
電子楽器10は、ディスプレイ150dに歌詞を表示させる制御を行ってもよい。例えば、現在の歌詞の位置(音節インデックス)付近の歌詞が表示されてもよいし、発音中の音に対応する歌詞、発音した音に対応する歌詞などを、現在の歌詞の位置が識別できるように着色等して表示してもよい。
電子楽器10は、外部装置(例えば、スマートフォン、タブレット端末)に対して、歌声データ、現在の歌詞の位置に関する情報などの少なくとも1つを送信してもよい。当該外部装置は、受信した歌声データ、現在の歌詞の位置に関する情報などに基づいて、自身の有するディスプレイに歌詞を表示させる制御を行ってもよい。
上述の例では、電子楽器10がキーボードのような鍵盤楽器である例を示したが、これに限られない。電子楽器10は、ユーザの操作によって発音のタイミングを指定できる構成を有する機器であればよく、エレクトリックヴァイオリン、エレキギター、ドラム、ラッパなどであってもよい。
このため、本開示の「鍵」は、弦、バルブ、その他の音高指定用の演奏操作子、任意の演奏操作子などで読み替えられてもよい。本開示の「押鍵」は、打鍵、ピッキング、演奏、操作子の操作、ユーザ操作などで読み替えられてもよい。本開示の「離鍵」は、弦の停止、ミュート、演奏停止、操作子の停止(非操作)などで読み替えられてもよい。
また、本開示の操作子(例えば、演奏操作子、鍵)は、タッチパネル、バーチャルキーボードなどに表示される操作子(鍵の画像など)であってもよい。この場合、電子楽器10は、いわゆる楽器(キーボードなど)に限られず、携帯電話、スマートフォン、タブレット型端末、パソコン(Personal Computer(PC))、テレビなどで読み替えられてもよい。
図14は、一実施形態にかかる歌詞進行制御方法を実施するタブレット端末の一例を示す図である。タブレット端末10tは、少なくとも鍵盤140kをディスプレイに表示する。この鍵盤140kの一部(本例ではC1-F2の計11個の白鍵)が制御鍵域に該当し、「まばたきしては みんなを」という歌詞が、制御鍵域内のC1-F2の計11個の白鍵のそれぞれに視認できるように表示されている。
また、上述した歌声データ、現在の歌詞の位置に関する情報などを受信した当該外部装置も、図14に示すような、割り当てられた音節や現在の音節位置を示す鍵盤140kなどを表示してもよい。
以上説明したように、本開示の電子楽器10は、新しい演奏体験を提供することができ、ユーザ(演奏者)に演奏をより楽しんでもらうことができる。
例えば、本開示の電子楽器10は、歌詞の頭出しを容易に行うことができる。視覚的に音節の位置が分かるので、歌詞演奏中にダイレクトに、任意の音節に好適にジャンプすることができる。
また、本開示の電子楽器10は、歌詞演奏中に特定の音節位置で音節(母音)をキープしたい場合に、鍵盤だけでダイレクトに任意の母音を指定・維持できる。ペダルやボタンを使わなくても、メリスマ演奏が可能である。
また、本開示の電子楽器10は、鍵盤の操作に応じて音節位置をランダムに変えることができ、音節の組み合わせを変更しながら演奏することができる。このため、本来の歌詞だけではなく、アナグラムのように別の歌詞を作り出すことができる。例えば、ループ演奏やアルペジエータなどの自動演奏と組み合わせると、ユーザの予想を超えた歌詞フレーズを生み出す新しい演奏体験を提供することができる。
なお、電子楽器10は、互いに異なる音高データがそれぞれ対応付けられている複数の演奏操作子(例えば、鍵)と、プロセッサ(例えば、CPU)と、を備えてもよい。前記プロセッサは、前記複数の演奏操作子のうちの、第1音域(制御鍵域)に含まれる演奏操作子への操作(例えば、押鍵/離鍵)に基づいて、フレーズに含まれる音節位置を決定してもよい。また、前記プロセッサは、前記複数の演奏操作子のうちの、第2音域(演奏鍵域)に含まれる演奏操作子への操作に基づいて、決定された前記音節位置に対応する音節の発音を指示してもよい。このような構成によれば、例えば鍵盤だけを用いて、ユーザが発音させたい歌詞の箇所を容易に指定できる。
また、前記プロセッサは、前記第1音域に含まれる演奏操作子が操作される場合、操作される前記第1音域に含まれる演奏操作子に対応するキーナンバーに基づいて、前記音節位置を決定してもよい。このような構成によれば、第1音域の押鍵によって、直感的に任意の音節に変更できる。
また、前記プロセッサは、前記第1音域に含まれる演奏操作子が操作される場合であって、操作される前記第1音域に含まれる演奏操作子が、音節が割り当てられた有効キーである場合には、操作される前記第1音域に含まれる演奏操作子に対応するキーナンバーに基づいて、前記音節位置を決定してもよい。このような構成によれば、第1音域のうち音節が割り当てられた鍵の操作によって、直感的に任意の音節に変更できる。音節が割り当てられない鍵については、音節変更とは別の用途に利用できる。
また、前記プロセッサは、前記第1音域に含まれる演奏操作子が操作されていない場合、前記第2音域に含まれる演奏操作子の操作に基づいて、前記音節位置を1つ遷移させてもよい。このような構成によれば、基本的には第2音域の操作のみで音節を進め、必要な場合のみ第1音域を操作して音節のジャンプをする、というユーザフレンドリーな動作が可能である。
また、前記プロセッサは、前記音節位置に対応する音節の音節開始フレームを調節係数に基づいて調整した発音を指示してもよい。このような構成によれば、音節のホワイトノイズ部分を好適に低減(又は削除)できる。
また、前記プロセッサは、前記調節係数に基づいて調整した音節開始フレームの値が、前記音節の母音開始フレームの値より大きくなる場合、調整した音節開始フレームの値を、前記母音の開始フレームの値と同じにしてもよい。このような構成によれば、ホワイトノイズはできるだけ低減しつつ、アタック感の劣化を抑制できる。
また、前記プロセッサは、前記複数の演奏操作子のうちの、第1音域に含まれる演奏操作子への操作が継続されている場合には、前記複数の演奏操作子のうちの、第2音域に含まれる演奏操作子がどのように操作されても、発音させる音節が進行しないように制御し、前記第1音域に含まれるいずれの演奏操作子への操作がされていない場合には、前記第2音域に含まれる演奏操作子への操作ごとに、発音させる音節が進行するように制御してもよい。また、前記プロセッサは、前記第2音域に含まれる演奏操作子への操作に基づいて指定される音高で、前記音節位置に対応する音節の発音を指示してもよい。このような構成によれば、音節の維持が容易にできる。
また、前記プロセッサは、前記第1音域に含まれる演奏操作子への操作が継続されている場合には、前記第2音域に含まれる演奏操作子がどのように操作されても、操作が継続されている前記第1音域に含まれる演奏操作子に対応する音節の位置から進行しないように制御してもよい。このような構成によれば、基本的には第2音域の操作のみで音節を進め、必要な場合のみ第1音域を操作して音節のジャンプをする、というユーザフレンドリーな動作が可能である。
また、前記第1音域に含まれる各演奏操作子に、フレーズに含まれる各音節がそれぞれ割り当てられていてもよい。このような構成によれば、現在の音節位置をユーザが容易に把握できる。
また、前記プロセッサは、特定のファンクションキーがユーザ操作される場合には、前記第1音域に含まれる演奏操作子を前記音節の位置の決定のために利用し、そうでない場合には、前記第1音域に含まれる演奏操作子を、発音する音の音高指定(通常モード、通常の演奏動作)のために利用してもよい。このような構成によれば、鍵盤スプリットを用いた歌詞進行制御の可否を適切に制御できる。
また、前記プロセッサは、前記第1音域に含まれる演奏操作子に、割り当てられた音節をユーザが理解するための表示を適用してもよい。このような構成によれば、歌詞を構成する音節に対応する鍵をユーザが容易に把握できるため、次のユーザ操作を適切に促すことができる。
また、前記プロセッサは、前記第1音域に含まれる演奏操作子に割り当てられた音節をユーザが理解するための表示を、外部装置に表示させるための情報を、前記外部装置に送信する制御を行ってもよい。このような構成によれば、ユーザが外部装置を視認することで、歌詞を構成する音節に対応する鍵をユーザが容易に把握できるため、次のユーザ操作を適切に促すことができる。
なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的に結合した1つの装置により実現されてもよいし、物理的に分離した2つ以上の装置を有線又は無線によって接続し、これら複数の装置により実現されてもよい。
なお、本開示において説明した用語及び/又は本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。
本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。また、本開示においてパラメータなどに使用する名称は、いかなる点においても限定的なものではない。
本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
情報、信号などは、複数のネットワークノードを介して入出力されてもよい。入出力された情報、信号などは、特定の場所(例えば、メモリ)に保存されてもよいし、テーブルを用いて管理してもよい。入出力される情報、信号などは、上書き、更新又は追記をされ得る。出力された情報、信号などは、削除されてもよい。入力された情報、信号などは、他の装置へ送信されてもよい。
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素の参照は、2つの要素のみが採用され得ること又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
本開示において、「含む(include)」、「含んでいる(including)」及びこれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
本開示の「A/B」は、「A及びBの少なくとも一方」を意味してもよい。
本開示において、例えば、英語でのa, an及びtheのように、翻訳によって冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
以上、本開示に係る発明について詳細に説明したが、当業者にとっては、本開示に係る発明が本開示中に説明した実施形態に限定されないということは明らかである。本開示に係る発明は、特許請求の範囲の記載に基づいて定まる発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とし、本開示に係る発明に対して何ら制限的な意味をもたらさない。

Claims (6)

  1. フレーズに含まれる複数の音節が音節ごとに割り当てられる第1音域に含まれる複数の第1演奏操作子と、第2音域に含まれる複数の第2演奏操作子と、を含む複数の演奏操作子であって、互いに異なる音高データがそれぞれ対応付けられている複数の演奏操作子と、
    プロセッサと、を備え、前記プロセッサは、
    前記第1演奏操作子への操作に基づいて、音節位置を決定し、
    前記第2演奏操作子への操作に基づいて、決定された前記音節位置に対応する音節の音節開始フレームを調節係数に基づいて調整した発音を指示する、
    電子楽器。
  2. 前記プロセッサは、
    前記第1演奏操作子が操作される場合、操作される前記第1演奏操作子に対応するキーナンバーに基づいて、前記音節位置を決定する、
    請求項1に記載の電子楽器。
  3. 前記プロセッサは、
    前記第1演奏操作子が操作される場合であって、操作される前記第1演奏操作子が、音節が割り当てられた有効キーである場合には、操作される前記第1演奏操作子に対応するキーナンバーに基づいて、前記音節位置を決定する、
    請求項2に記載の電子楽器。
  4. 前記プロセッサは、
    前記第1演奏操作子が操作されていない場合、前記第2演奏操作子の操作に基づいて、
    前記音節位置を1つ遷移させる、
    請求項1から請求項3のいずれかに記載の電子楽器。
  5. 電子楽器のコンピュータに、
    フレーズに含まれる複数の音節が音節ごとに割り当てられる第1音域に含まれる複数の第1演奏操作子と、第2音域に含まれる複数の第2演奏操作子と、を含む複数の演奏操作子のうちの、前記第1演奏操作子への操作に基づいて、音節位置を決定させ、
    前記第2演奏操作子への操作に基づいて、決定された前記音節位置に対応する音節の音節開始フレームを調節係数に基づいて調整した発音を指示させる、
    方法。
  6. 電子楽器のコンピュータに、
    フレーズに含まれる複数の音節が音節ごとに割り当てられる第1音域に含まれる複数の第1演奏操作子と、第2音域に含まれる複数の第2演奏操作子と、を含む複数の演奏操作子のうちの、前記第1演奏操作子への操作に基づいて、音節位置を決定させ、
    前記第2演奏操作子への操作に基づいて、決定された前記音節位置に対応する音節の音節開始フレームを調節係数に基づいて調整した発音を指示させる、
    プログラム。
JP2020150336A 2020-09-08 2020-09-08 電子楽器、方法及びプログラム Active JP7367641B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020150336A JP7367641B2 (ja) 2020-09-08 2020-09-08 電子楽器、方法及びプログラム
US17/409,591 US20220076658A1 (en) 2020-09-08 2021-08-23 Electronic musical instrument, method, and storage medium
CN202111041397.5A CN114155822A (zh) 2020-09-08 2021-09-07 电子乐器、方法及程序
JP2023110400A JP2023118866A (ja) 2020-09-08 2023-07-05 電子楽器、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020150336A JP7367641B2 (ja) 2020-09-08 2020-09-08 電子楽器、方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023110400A Division JP2023118866A (ja) 2020-09-08 2023-07-05 電子楽器、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2022044937A JP2022044937A (ja) 2022-03-18
JP7367641B2 true JP7367641B2 (ja) 2023-10-24

Family

ID=80462577

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020150336A Active JP7367641B2 (ja) 2020-09-08 2020-09-08 電子楽器、方法及びプログラム
JP2023110400A Pending JP2023118866A (ja) 2020-09-08 2023-07-05 電子楽器、方法及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023110400A Pending JP2023118866A (ja) 2020-09-08 2023-07-05 電子楽器、方法及びプログラム

Country Status (3)

Country Link
US (1) US20220076658A1 (ja)
JP (2) JP7367641B2 (ja)
CN (1) CN114155822A (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6610714B1 (ja) * 2018-06-21 2019-11-27 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP6610715B1 (ja) 2018-06-21 2019-11-27 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP7059972B2 (ja) 2019-03-14 2022-04-26 カシオ計算機株式会社 電子楽器、鍵盤楽器、方法、プログラム
JP7088159B2 (ja) 2019-12-23 2022-06-21 カシオ計算機株式会社 電子楽器、方法及びプログラム
JP7180587B2 (ja) * 2019-12-23 2022-11-30 カシオ計算機株式会社 電子楽器、方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005266080A (ja) 2004-03-17 2005-09-29 Kawai Musical Instr Mfg Co Ltd 自動伴奏装置
JP2014010190A (ja) 2012-06-27 2014-01-20 Yamaha Corp 歌唱合成を行うための装置およびプログラム
JP2016080868A (ja) 2014-10-16 2016-05-16 ヤマハ株式会社 演奏支援装置
JP2017003625A (ja) 2015-06-04 2017-01-05 ヤマハ株式会社 歌唱音声出力制御装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005266080A (ja) 2004-03-17 2005-09-29 Kawai Musical Instr Mfg Co Ltd 自動伴奏装置
JP2014010190A (ja) 2012-06-27 2014-01-20 Yamaha Corp 歌唱合成を行うための装置およびプログラム
JP2016080868A (ja) 2014-10-16 2016-05-16 ヤマハ株式会社 演奏支援装置
JP2017003625A (ja) 2015-06-04 2017-01-05 ヤマハ株式会社 歌唱音声出力制御装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ぼや式リアルタイム歌唱入力のご紹介,[online],2013年11月14日,[2022年10月28日検索],インターネット <URL: https://www.nicovideo.jp/watch/nm22250606>

Also Published As

Publication number Publication date
JP2022044937A (ja) 2022-03-18
CN114155822A (zh) 2022-03-08
JP2023118866A (ja) 2023-08-25
US20220076658A1 (en) 2022-03-10

Similar Documents

Publication Publication Date Title
JP7456460B2 (ja) 電子楽器、方法及びプログラム
JP7367641B2 (ja) 電子楽器、方法及びプログラム
JP7259817B2 (ja) 電子楽器、方法及びプログラム
JP7036141B2 (ja) 電子楽器、方法及びプログラム
CN110390923B (zh) 电子乐器、电子乐器的控制方法以及存储介质
JP7180587B2 (ja) 電子楽器、方法及びプログラム
JP2019219570A (ja) 電子楽器、電子楽器の制御方法、及びプログラム
JP2019219569A (ja) 電子楽器、電子楽器の制御方法、及びプログラム
CN111696498A (zh) 键盘乐器以及键盘乐器的计算机执行的方法
JP2020024456A (ja) 電子楽器、電子楽器の制御方法、及びプログラム
US20220301530A1 (en) Information processing device, electronic musical instrument, and information processing method
US20220044662A1 (en) Audio Information Playback Method, Audio Information Playback Device, Audio Information Generation Method and Audio Information Generation Device
JP6809608B2 (ja) 歌唱音生成装置及び方法、プログラム
WO2023120121A1 (ja) 子音長変更装置、電子楽器、楽器システム、方法及びプログラム
JP2021149043A (ja) 電子楽器、方法及びプログラム
JP2019219661A (ja) 電子楽器、電子楽器の制御方法、及びプログラム
WO2023233856A1 (ja) 音制御装置およびその制御方法、プログラム、電子楽器
US20240021180A1 (en) Electronic musical instrument, electronic musical instrument control method, and program
JP2022145465A (ja) 情報処理装置、電子楽器、情報処理システム、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230705

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230925

R150 Certificate of patent or registration of utility model

Ref document number: 7367641

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150