JP5983670B2 - プログラム、情報処理装置、及びデータ生成方法 - Google Patents

プログラム、情報処理装置、及びデータ生成方法 Download PDF

Info

Publication number
JP5983670B2
JP5983670B2 JP2014069731A JP2014069731A JP5983670B2 JP 5983670 B2 JP5983670 B2 JP 5983670B2 JP 2014069731 A JP2014069731 A JP 2014069731A JP 2014069731 A JP2014069731 A JP 2014069731A JP 5983670 B2 JP5983670 B2 JP 5983670B2
Authority
JP
Japan
Prior art keywords
time
timing
data
pitch
start timing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014069731A
Other languages
English (en)
Other versions
JP2015191170A (ja
Inventor
誠司 黒川
誠司 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2014069731A priority Critical patent/JP5983670B2/ja
Publication of JP2015191170A publication Critical patent/JP2015191170A/ja
Application granted granted Critical
Publication of JP5983670B2 publication Critical patent/JP5983670B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

本発明は、データを生成するプログラム、情報処理装置、及びデータ生成方法に関する。
従来、楽曲の歌唱旋律を歌った歌唱の巧拙を評価する歌唱評価技術が知られている(特許文献1参照)。
この特許文献1に記載の技術では、楽曲ごとに用意された模範音声に、利用者が歌唱した音声を照合することで巧拙を評価し、その評価に応じたコメントを歌唱後に提示している。
特開2007−233013号公報
ところで、プロの歌手が歌唱した楽曲においては、多くの場合、その楽曲の歌手ごとに特有の特徴が表出する。カラオケ装置や情報処理装置などを用いて利用者が歌唱する場合において、歌手特有の歌い方の特徴を再現できた場合には、より上手く歌唱しているように聞こえる。
このため、カラオケ装置や情報処理装置などにおいて、歌手特有の歌い方の特徴について、その歌い方の特徴を利用者が実際に歌唱する前に提示することが求められている。
しかしながら、従来の技術では、利用者が歌唱した音声と模範音声とのズレを利用者が歌唱した後に提示するだけである。よって、カラオケ装置や情報処理装置などの利用者は、歌手特有の歌い方の特徴について、どのように歌唱するとよいのかを歌唱前に認識できないという課題があった。
つまり、カラオケ装置や情報処理装置などにおいて、歌手特有の歌い方の特徴について、利用者が実際に歌唱する前に何ら提示していないという課題があった。
そこで、本発明は、歌手特有の歌い方の特徴を提示するために必要なデータを生成可能な技術の提供を目的とする。
上記目的を達成するためになされた本発明は、コンピュータに実行させるプログラムに関する。この本発明のプログラムは、第1取得ステップと、第2取得ステップと、抽出ステップと、タイミング特定ステップと、第1生成ステップと、ため時間算出ステップと、第2生成ステップとをコンピュータに実行させる。
このうち、第1取得ステップでは、複数の音符によって構成された楽曲の楽譜を表す楽譜データであって、前記複数の音符のそれぞれに、少なくとも、音高及び演奏開始タイミングが規定された楽譜データを、第1記憶部から取得する。第2取得ステップでは、楽曲を歌唱したボーカル音を含む楽曲データを第2記憶部から取得する。
さらに、抽出ステップでは、第2取得ステップで取得した楽曲データからボーカル音を表すボーカルデータを抽出する。タイミング特定ステップでは、抽出ステップで抽出したボーカルデータに基づいて、ボーカルデータにおいて発声を開始したタイミングとみなせる発声タイミングそれぞれを特定する。第1生成ステップでは、タイミング特定ステップで特定した発声タイミングのそれぞれと、第1取得ステップで取得した楽譜データにおける音符の演奏開始タイミングとに基づいて、所定の条件を満たす演奏開始タイミングと発声タイミングとを対応付けたタイミングペアデータを生成する。
そして、ため時間算出ステップでは、ペア生成ステップで生成されたタイミングペアデータそれぞれに基づいて、タイミングペアデータにおける演奏開始タイミングと発声タイミングとの時間差である、ため時間を算出する。すると、ため時間算出ステップでは、第1生成ステップで生成されたタイミングペアデータそれぞれに基づいて、演奏開始タイミングと発声タイミングとの時間差である、ため時間を算出する。すると、第2生成ステップでは、ため時間算出ステップで算出した“ため時間”を、ため時間の算出に用いた演奏開始タイミングに対応する楽譜データの音符と対応付けることで、音符における歌手の歌い方の特徴を表す歌唱特徴データを生成する。
このようなプログラムにて生成される歌唱特徴データは、楽譜データの音符に「ため時間」を対応付けたものである。特に、本発明のプログラムでは、楽譜データにおける音符の演奏開始タイミングと、楽曲データに含まれるプロの歌手が歌唱したボーカル音から検出した発声タイミングとの差分を「ため時間」として算出している。このため、「ため時間」は、楽曲を歌唱する際に、プロの歌手が用いる歌唱技巧としての「ため」の特徴を表すものである。
しかも、歌唱特徴データにおいては、ため時間の算出に用いた演奏開始タイミングに対応する楽譜データの音符に、その“ため時間”を対応付けている。
このため、歌唱特徴データによれば、カラオケ装置や情報処理装置に接続された表示部に、音符における“ため時間”を提示できる。特に、歌唱特徴データによれば、カラオケ装置や情報処理装置の利用者が実際に歌唱する前に“ため時間”を提示することが可能となる。
そして、“ため時間”が表示装置に提示されるカラオケ装置や情報処理装置の利用者は、歌唱している楽曲において、プロの歌手が、歌唱技巧としての「ため」をどのように用いているのかを認識できる。この結果、カラオケ装置や情報処理装置の利用者は、利用者自身の歌い方を、プロの歌手の歌い方により近づけることができる。
本発明におけるタイミング特定ステップは、ボーカルデータにおける音圧が、予め規定された規定閾値以上となった発声開始タイミングそれぞれを、発声タイミングとして特定しても良い。
さらに、本発明における第1生成ステップは、楽譜データにおける音符の演奏開始タイミングと、その演奏開始タイミングからの時間長が最短となる発声開始タイミングとを組み合わせたタイミングペアデータを生成しても良い。ため時間算出ステップは、その生成されたタイミングペアデータにおける演奏開始タイミングと発声開始タイミングとの時間差である発音ため時間を、ため時間として算出しても良い。
このようなプログラムによれば、「ため時間」の一種として、「発音ため時間」を算出できる。この「発音ため時間」は、楽譜データにおける音符の演奏開始タイミングと、楽曲データにおいて歌手が実際に発声を開始した発声開始タイミングとの時間差であり、その歌手に特有の歌い方の特徴である。
このため、本発明のプログラムによれば、歌手に特有の歌い方の特徴として、「発音ため時間」を含む歌唱特徴データを生成することができる。
この結果、カラオケ装置や情報処理装置において、プロの歌手が発声を開始するタイミングが、音符における演奏開始タイミングからどの程度ずれているのかを提示することができる。
また、本発明におけるため時間算出ステップでは、発音ため時間の楽曲における代表値である発音ため代表値を算出し、発音ため時間と、発音ため代表値とに基づいて、発音ため代表値から規定時間長以上乖離した発音ため時間である特殊発音ため時間を、ため時間として算出しても良い。
このようなプログラムにて特定する「特殊発音ため時間」は、楽曲において歌唱技巧としての「ため」が顕著に表れる音符でのため時間であり、楽曲を歌唱した歌手の歌い方における顕著な特徴である。
このため、本発明のプログラムによれば、歌手の歌い方における顕著な特徴として、「特殊発音ため時間」を含む歌唱特徴データを生成できる。
この結果、楽曲において、プロの歌手が「ため」を顕著に用いる箇所を、カラオケ装置や情報処理装置を介して提示できる。そして、カラオケ装置や情報処理装置の利用者は、プロの歌手が「ため」を顕著に用いる箇所だけでも、利用者自身の歌い方をプロの歌手の歌い方に近づけることができる。
また、本発明におけるタイミング特定ステップでは、ボーカルデータにおける音高の推移を表すボーカル周波数推移が、楽譜データにおける音符の音高の範囲内となったタイミングである音高変化タイミングを、発声タイミングとして特定する。第1生成ステップでは、楽譜データにおける音符の演奏開始タイミングと、その演奏開始タイミングから、時間軸に沿って予め規定された規定時間範囲であり、かつ、演奏開始タイミングからの時間長が最短となる音高変化タイミングとを対応付けたタイミングペアデータを生成する。
さらに、この場合、ため時間算出ステップは、第1生成ステップで生成されたタイミングペアデータにおける演奏開始タイミングと音高変化タイミングとの時間差である音高ため時間を、ため時間として算出する。
このようなプログラムによれば、「ため時間」の一種として、「音高ため時間」を算出できる。この「音高ため時間」は、楽譜データにおける音符の音高に、歌手が歌唱した歌声における音高が一致したタイミングと、その音符の演奏開始タイミングとの時間差であり、歌手に特有の歌い方の特徴として表れる。
このため、本発明のプログラムによれば、歌手ごとに特有の歌い方の特徴である「音高ため時間」を含む歌唱特徴データを生成することができる。
この結果、カラオケ装置や情報処理装置において、プロの歌手が、歌唱した歌声における音高を、楽譜データにおける音符の音高に一致させるタイミングを、どの程度ずらしているのかを提示することができる。
さらに、本発明におけるため時間算出ステップでは、音高ため時間の楽曲における代表値である音高ため代表値を算出し、音高ため時間と、音高ため代表値とに基づいて、音高ため代表値から規定時間長以上乖離した音高ため時間である特殊音高ため時間を特定しても良い。
このようなプログラムにて特定される「特殊音高ため時間」は、楽譜データにおける音符の音高に、プロの歌手が歌唱した歌声における音高を一致させるタイミングのズレがより顕著に表れる音符での時間であり、楽曲を歌唱した歌手の歌い方における顕著な特徴である。
このため、本発明のプログラムによれば、歌手の歌い方における顕著な特徴である「特殊音高ため時間」を含む歌唱特徴データを生成できる。
この結果、楽曲において、楽譜データにおける音符の音高に、プロの歌手が歌唱した歌声における音高を一致させるタイミングのズレが顕著な箇所を、カラオケ装置や情報処理装置を介して提示できる。そして、カラオケ装置や情報処理装置の利用者は、楽曲において、楽譜データにおける音符の音高にプロの歌手が歌唱した歌声における音高を一致させるタイミングのズレが顕著な箇所だけでも、利用者自身の歌い方をプロの歌手の歌い方に近づけることができる。
さらに、本発明のプログラムにおいては、第3取得ステップと、第4取得ステップと、表示制御ステップとをコンピュータに実行させても良い。第3取得ステップでは、指定された楽曲の楽譜データを取得する。第4取得ステップでは、第3取得ステップで取得された楽譜データに対応し、データ生成ステップにて生成された歌唱特徴データを取得する。さらに、表示制御ステップでは、第3取得ステップで取得された楽譜データを構成する音符それぞれを、表示部に表示させると共に、第4取得ステップで取得した歌唱特徴データに含まれるため時間それぞれを、ため時間の算出に用いた演奏開始タイミングに対応する楽譜データの音符と対応付けて、表示部に表示させる。
このようなプログラムによれば、楽譜データに基づいて楽曲を構成する音符における“ため時間”を、カラオケ装置や情報処理装置に接続された表示部に提示できる。さらに、本発明のプログラムにおいて、楽譜データを構成する音符それぞれを、時間軸に沿って順次表示部に表示させるようにすれば、カラオケ装置や情報処理装置の利用者が実際に歌唱する前に、“ため時間”を表示部に表示できる。
この結果、“ため時間”が表示部に提示されるカラオケ装置や情報処理装置の利用者は、歌唱している楽曲において、プロの歌手が、歌唱技巧としての「ため」をどのように用いているのかを認識できる。
ところで、本発明は、情報処理装置としてなされていても良い。
本発明としての情報処理装置は、第1取得手段と、第2取得手段と、抽出手段と、タイミング特定手段と、第1生成手段と、ため時間算出手段と、第2生成手段とを備える。
第1取得手段は、楽譜データを第1記憶部から取得し、第2取得手段は、楽曲データを第2記憶部から取得する。抽出手段は、楽曲データからボーカルデータを抽出し、タイミング特定手段は、その抽出したボーカルデータに基づいて、発声タイミングそれぞれを特定する。第1生成手段は、その特定した発声タイミングのそれぞれと、楽譜データにおける音符の演奏開始タイミングとに基づいて、タイミングペアデータを生成し、ため時間算出手段は、その生成されたタイミングペアデータそれぞれに基づいて、ため時間を算出する。そして、第2生成手段は、その算出した“ため時間”を、ため時間の算出に用いた演奏開始タイミングに対応する楽譜データの音符と対応付けることで、歌唱特徴データを生成する。
このような情報処理装置によれば、本発明に係るプログラムと同様の効果を得ることができる。
また、本発明は、情報処理装置が実行するデータ生成方法としてなされていても良い。
本発明としてのデータ生成方法は、第1取得手順と、第2取得手順と、抽出手順と、タイミング特定手順と、第1生成手順と、ため時間算出手順と、第2生成手順とを備える。
第1取得手順では、情報処理装置が第1記憶部から楽譜データを取得し、第2取得手順では、情報処理装置が第2記憶部から楽曲データを取得する。抽出手順では、その取得した楽曲データから、情報処理装置がボーカルデータを抽出し、タイミング特定手順では、その抽出したボーカルデータに基づいて、情報処理装置が発声タイミングそれぞれを特定する。第1生成手順では、その特定した発声タイミングのそれぞれと、楽譜データにおける音符の演奏開始タイミングとに基づいて、情報処理装置がタイミングペアデータを生成しため時間算出手順では、その生成されたタイミングペアデータそれぞれに基づいて、情報処理装置がため時間を算出する。さらに、第2生成手順では、情報処理装置が、その算出した“ため時間”を、ため時間の算出に用いた演奏開始タイミングに対応する楽譜データの音符と対応付けることで、歌唱特徴データを生成する。
このようなデータ生成方法によれば、本発明に係るプログラムと同様の効果を得ることができる。
本発明が適用された情報処理装置を備えたシステムの概略構成を示すブロック図である。 情報処理装置が実行するデータ生成処理の処理手順を示すフローチャートである。 発音ため算出処理の処理手順を示すフローチャートである。 発音ため時間の算出手法の概要を例示する図である。 音高ため算出処理の処理手順を示すフローチャートである。 音高ため時間の算出手法の概要を例示する図である。 歌唱特徴データの概要を例示する図である。 カラオケ装置が実行する表示処理の処理手順を示すフローチャートである。 表示処理を実行することで表示部に表示される表示の態様を例示する図である。
以下に本発明の実施形態を図面と共に説明する。
<システム構成>
図1に示すカラオケ装置30は、ユーザが指定した楽曲を演奏すると共に、その楽曲において表出するプロの歌手の歌い方における特徴を、表示部64に表示させる装置である。
このような、プロの歌手の歌い方における特徴をカラオケ装置30が表示するために構築されるシステム1は、情報処理装置2と、情報処理サーバ10と、カラオケ装置30とを備えている。
情報処理装置2は、楽曲ごとに用意された楽曲データWD及びMIDI楽曲MDに基づいて、歌唱特徴データSFを算出する。ここで言う歌唱特徴データSFとは、楽曲を歌唱するプロの歌手の歌い方における特徴を表すデータである。
情報処理サーバ10には、少なくとも、情報処理装置2にて算出された歌唱特徴データSF及びMIDI楽曲MDが、対応する楽曲ごとに対応付けられて記憶部14に記憶されている。
<楽曲データ>
次に、楽曲データWDは、特定の楽曲ごとに予め用意されたものであり、楽曲に関する情報が記述された楽曲管理情報と、楽曲の演奏音を表す原盤波形データとを備えている。楽曲管理情報には、楽曲を識別する楽曲識別情報(以下、楽曲IDと称す)が含まれる。
本実施形態の原盤波形データは、複数の楽器の演奏音と、歌唱旋律をプロの歌手が歌唱したボーカル音とを含む音声データである。この音声データは、非圧縮音声ファイルフォーマットの音声ファイルによって構成されたデータであっても良いし、音声圧縮フォーマットの音声ファイルによって構成されたデータであっても良い。
なお、以下では、原盤波形データに含まれる楽器の演奏音を表す音声波形データを伴奏データと称し、原盤波形データに含まれるボーカル音を表す音声波形データをボーカルデータと称す。
本実施形態の伴奏データに含まれる楽器の演奏音としては、打楽器(例えば、ドラム,太鼓,シンバルなど)の演奏音,弦楽器(例えば、ギター,ベースなど)の演奏音,打弦楽器(例えば、ピアノ)の演奏音,及び管楽器(例えば、トランペットやクラリネットなど)の演奏音がある。
<MIDI楽曲>
MIDI楽曲MDは、楽曲ごとに予め用意されたものであり、演奏データと、歌詞データとを有している。
このうち、演奏データは、周知のMIDI(Musical Instrument Digital Interface)規格によって、一つの楽曲の楽譜を表したデータである。この演奏データは、楽曲IDと、当該楽曲にて用いられる楽器ごとの楽譜を表す楽譜トラックとを少なくとも有している。
そして、楽譜トラックには、MIDI音源から出力される個々の演奏音について、少なくとも、音高(いわゆるノートナンバー)と、MIDI音源が演奏音を出力する期間(以下、音符長と称す)とが規定されている。楽譜トラックにおける音符長は、当該演奏音の出力を開始するまでの当該楽曲の演奏開始からの時間を表す演奏開始タイミング(いわゆるノートオンタイミング)と、当該演奏音の出力を終了するまでの当該楽曲の演奏開始からの時間を表す演奏終了タイミング(いわゆるノートオフタイミング)とによって規定されている。
すなわち、楽譜トラックでは、ノートナンバーと、ノートオンタイミング及びノートオフタイミングによって表される音符長とによって、1つの音符NOが規定される。そして、楽譜トラックは、音符NOが演奏順に配置されることによって、1つの楽譜として機能する。なお、楽譜トラックは、例えば、鍵盤楽器、弦楽器、打楽器、及び管楽器などの楽器ごとに用意されている。このうち、本実施形態では、特定の楽器(例えば、ヴィブラフォン)が、楽曲における歌唱旋律を担当する楽器として規定されている。
一方、歌詞データは、楽曲の歌詞に関するデータであり、歌詞テロップデータと、歌詞出力データとを備えている。歌詞テロップデータは、楽曲の歌詞を構成する文字(以下、歌詞構成文字とする)を表す。歌詞出力データは、歌詞構成文字の出力タイミングである歌詞出力タイミングを、演奏データの演奏と対応付けるタイミング対応関係が規定されたデータである。
具体的に、本実施形態におけるタイミング対応関係では、演奏データの演奏を開始するタイミングに、歌詞テロップデータの出力を開始するタイミングが対応付けられている。さらに、タイミング対応関係では、楽曲の時間軸に沿った各歌詞構成文字の歌詞出力タイミングが、演奏データの演奏開始からの経過時間によって規定されている。これにより、楽譜トラックに規定された個々の演奏音の音符NOと、歌詞構成文字それぞれとが対応付けられる。
<情報処理装置>
情報処理装置2は、入力受付部3と、情報出力部4と、記憶部5と、制御部6とを備えた周知の情報処理装置(例えば、パーソナルコンピュータ)である。
入力受付部3は、外部からの情報や指令の入力を受け付ける入力機器である。ここでの入力機器とは、例えば、キーやスイッチ、可搬型の記憶媒体(例えば、CDやDVD、フラッシュメモリ)に記憶されたデータを読み取る読取ドライブ、通信網を介して情報を取得する通信ポートなどである。情報出力部4は、外部に情報を出力する出力装置である。ここでの出力装置とは、可搬型の記憶媒体にデータを書き込む書込ドライブや、通信網に情報を出力する通信ポートなどである。
記憶部5は、記憶内容を読み書き可能に構成された周知の記憶装置である。記憶部5には、少なくとも1つの楽曲データWDと、少なくとも1つのMIDI楽曲MDとが、共通する楽曲ごとに対応付けて記憶されている。
制御部6は、ROM7,RAM8,CPU9を備えた周知のマイクロコンピュータを中心に構成された周知の制御装置である。ROM7は、電源が切断されても記憶内容を保持する必要がある処理プログラムやデータを記憶する。RAM8は、処理プログラムやデータを一時的に記憶する。CPU9は、ROM7やRAM8に記憶された処理プログラムに従って各処理を実行する。
本実施形態のROM7には、記憶部5に記憶されている楽曲データWD及びMIDI楽曲MDに基づいて、歌唱特徴データSFを算出するデータ生成処理を、制御部6が実行するための処理プログラムが記憶されている。
<情報処理サーバ>
情報処理サーバ10は、通信部12と、記憶部14と、制御部16とを備えている。
このうち、通信部12は、通信網を介して、情報処理サーバ10が外部との間で通信を行う。すなわち、情報処理サーバ10は、通信網を介してカラオケ装置30と接続されている。なお、ここで言う通信網は、有線による通信網であっても良いし、無線による通信網であっても良い。
記憶部14は、記憶内容を読み書き可能に構成された周知の記憶装置である。この記憶部14には、少なくとも、複数のMIDI楽曲MDが記憶される。なお、図1に示す符号「m」は、情報処理サーバ10の記憶部14に記憶されているMIDI楽曲MDを識別する識別子であり、1以上の自然数である。さらに、記憶部14には、情報処理装置2がデータ生成処理を実行することで生成された歌唱特徴データSFが記憶される。
制御部16は、ROM18,RAM20,CPU22を備えた周知のマイクロコンピュータを中心に構成された周知の制御装置である。ROM18,RAM20,CPU22は、それぞれ、ROM7,RAM8,CPU9と同様に構成されている。
<カラオケ装置>
カラオケ装置30は、通信部32と、入力受付部34と、楽曲再生部36と、記憶部38と、音声制御部40と、映像制御部46と、制御部50とを備えている。
通信部32は、通信網を介して、カラオケ装置30が外部との間で通信を行う。入力受付部34は、外部からの操作に従って情報や指令の入力を受け付ける入力機器である。ここでの入力機器とは、例えば、キーやスイッチ、リモコンの受付部などである。
楽曲再生部36は、情報処理サーバ10からダウンロードしたMIDI楽曲MDに基づく楽曲の演奏を実行する。この楽曲再生部36は、例えば、MIDI音源である。音声制御部40は、音声の入出力を制御するデバイスであり、出力部42と、マイク入力部44とを備えている。
マイク入力部44には、マイク62が接続される。これにより、マイク入力部44は、ユーザの歌唱音を取得する。出力部42にはスピーカ60が接続されている。出力部42は、楽曲再生部36によって再生される楽曲の音源信号、マイク入力部44からの歌唱音の音源信号をスピーカ60に出力する。スピーカ60は、出力部42から出力される音源信号を音に換えて出力する。
映像制御部46は、制御部50から送られてくる映像データに基づく映像または画像の出力を行う。映像制御部46には、映像または画像を表示する表示部64が接続されている。
制御部50は、ROM52,RAM54,CPU56を少なくとも有した周知のコンピュータを中心に構成されている。ROM52,RAM54,CPU56は、それぞれ、ROM7,RAM8,CPU9と同様に構成されている。
そして、ROM52には、表示処理を制御部50が実行するための処理プログラムが記憶されている。表示処理は、ユーザによって指定された楽曲を演奏すると共に、その楽曲において表出するプロの歌手の歌い方における特徴、その楽曲の歌詞、及び歌唱旋律を表示部64に表示させる処理である。
<データ生成処理>
次に、情報処理装置2の制御部6が実行するデータ生成処理について説明する。
このデータ生成処理は、処理プログラムを起動するための起動指令が、情報処理装置2の入力受付部3を介して入力されたタイミングで起動される。
そして、データ生成処理では、図2に示すように、起動されると、まず、制御部6は、情報処理装置2の記憶部5に記憶されている全ての楽曲データWDの中から、一つの楽曲データWDを取得する(S110)。なお、本実施形態のS110においては、制御部6は、楽曲データWDを記憶部5から取得したが、制御部6は、入力受付部3を介して、可搬型の記憶媒体や通信網を介してサーバなどから楽曲データWDを取得しても良い。
データ生成処理では、制御部6は、続いて、S110にて取得した楽曲データWD(以下、「取得楽曲データ」と称す)に含まれる原盤波形データを取得する(S120)。さらに、制御部6は、S120にて取得した原盤波形データから、ボーカルデータと伴奏データとを分離して抽出する(S130)。このS130において制御部6が実行する、伴奏データとボーカルデータとの分離手法として、周知の手法(例えば、特開2008−134606に記載された“PreFEst”)を使って推定された音高および調波成分を利用する手法が考えられる。なお、PreFEstとは、原盤波形データにおいて最も優勢な音声波形をボーカルデータとみなしてボーカルの音高(即ち、基本周波数)および調波成分の大きさを推定する手法である。
データ生成処理では、続いて、制御部6は、ボーカルデータにおける音圧レベルの推移を表すボーカル音圧推移を特定する(S140)。さらに、制御部6は、ボーカルデータにおける基本周波数f0の推移を表すボーカル周波数推移を特定する(S150)。
具体的に、本実施形態のS140,S150では、制御部6は、まず、規定時間窓AW(j)をボーカルデータに設定する。この規定時間窓AW(j)は、予め規定された単位時間(例えば、10[ms])を有した分析窓である。本実施形態においては、規定時間窓AWは、時間軸に沿って互いに隣接かつ連続するように設定される。なお、符号jは、規定時間窓AWを識別する識別子である。
続いて、制御部6は、周知の手法により、ボーカルデータにおける各規定時間窓AW(j)での音圧レベルLpを算出する。なお、音圧レベルLpは、ボーカルデータの規定時間窓AW(j)における音圧の二乗平均平方根pを、基準となる音圧p0で除したものの常用対数に、所定の係数(通常、「20」)を乗じること(即ち、Lp=20×log10(p/p0))で求めることができる。
さらに、制御部6は、各規定時間窓AW(j)での音圧レベルLpを、ボーカルデータにおける時間軸に沿って配置することで、ボーカル音圧推移を特定する。
また、ボーカル周波数推移を特定するために、制御部6は、ボーカルデータにおける各規定時間窓AW(j)での基本周波数f0を導出する。この基本周波数f0の導出手法として、種種の周知の手法が考えられる。一例として、制御部6は、ボーカルデータに設定された規定時間窓AW(j)それぞれについて、周波数解析(例えば、DFT)を実施し、自己相関の結果、最も強い周波数成分を基本周波数f0とすることが考えられる。
そして、制御部6は、それらの規定時間窓AW(j)ごとに導出された基本周波数f0を、ボーカルデータにおける時間軸に沿って配置することで、ボーカル周波数推移を特定する。
データ生成処理では、制御部6は、続いて、S110で取得した楽曲データWDと同一の楽曲IDが対応付けられた一つのMIDI楽曲MDを取得する(S160)。さらに、制御部6は、取得楽曲データの各音符に対応する各音の再生時間に、S160で取得したMIDI楽曲MD(以下、「取得MIDI」と称す)を構成する各音符の演奏タイミングが一致するように、その取得MIDIを調整する(S170)。この取得MIDIを調整する手法として、周知の手法(例えば、特許第5310677号に記載の手法)を用いることが考えられる。特許第5310677号に記載された手法では、制御部6は、取得MIDIをレンダリングし、その取得MIDIのレンダリング結果と取得楽曲データの原盤波形データとの双方を規定時間単位でスペクトルデータに変換する。そして、双方のスペクトルデータ上の時間が同期するように、各演奏音の演奏開始タイミング及び演奏終了タイミングを修正する。なお、スペクトルデータ上の時間が同期するように調整する際には、DPマッチングを用いても良い。
さらに、データ生成処理では、制御部6は、S170にて時間調整が実施されたMIDI楽曲MDから、歌唱旋律を表すメロディトラックを取得する(S180)。このS180において取得するメロディトラックには、歌唱旋律を構成する各音符(以下、「メロディ音符」と称す)NO(i)が規定されている。そして、各メロディ音符NO(i)には、ノートナンバー(音高),演奏開始タイミングnnt(i),演奏終了タイミングnft(i),及び各種の時間制御情報(例えば、テンポ,分解能など)などの音符プロパティが規定されている。なお、符号iは、メロディ音符を識別する識別子であり、歌唱旋律の時間軸に沿って増加するように規定されている。
データ生成処理では、制御部6は、時系列音符データを生成する(S190)。この時系列音符データは、メロディ音符NO(i)を時間軸に沿って配置した音符推移に、各メロディ音符NO(i)に関する音符プロパティを対応付けたものである。
具体的に、本実施形態のS190では、まず、制御部6は、メロディ音符NO(i)を時間軸に沿って配置した音符推移を生成する。その音符推移に対して、制御部6は、規定時間窓AW(j)を設定する。この音符推移に設定される規定時間窓AW(j)は、ボーカルデータに設定される規定時間窓AW(j)と共通である。すなわち、音符推移及びボーカルデータに設定される規定時間窓AW(j)は、符号jが共通であれば、同一タイミングであることを意味する。
続いて、制御部6は、音符推移に設定した規定時間窓AWの個数と、ボーカルデータに設定した規定時間窓AWの個数とを比較する。制御部6は、比較の結果、個数が多いものを、音符推移及びボーカルデータの両データにおける規定時間窓AWの個数(即ち、「jmax」)として採用する。なお、制御部6は、規定時間窓AWとの個数が一致するように、個数が少ない方に「0値」を追加する補完を実行しても良い。
さらに、制御部6は、音符推移に設定された規定時間窓AW(j)の中で、各メロディ音符NO(i)の演奏開始タイミングnnt(i)及び演奏終了タイミングnft(i)に対応する規定時間窓AW(j)を特定する。そして、制御部6は、演奏開始タイミングnnt(i)に対応する規定時間窓AW(j)に対して、演奏開始タイミングnnt(i)に対応する旨を表す音符開始フラグを対応付ける。さらに、制御部6は、演奏終了タイミングnft(i)に対応する規定時間窓AW(j)に対して、演奏終了タイミングnft(i)に対応する旨を表す音符終了フラグを対応付ける。これと共に、制御部6は、音符開始フラグが対応付けられた規定時間窓AWから、音符終了フラグが対応付けられた規定時間窓AWまでの全ての規定時間窓AWに対して、対応するメロディ音符NO(i)の音高を対応付けることで、時系列音符データを生成する。
データ生成処理では、制御部6は、S140にて特定したボーカル音圧推移と、S150にて特定したボーカル周波数推移と、S190で生成した時系列音符データとを、規定時間窓AW(j)ごとに対応付ける(S200)。以下では、ボーカル音圧推移とボーカル周波数推移と時系列音符データとを対応付けたデータを、同期データとも称す。
データ生成処理では、制御部6は、S200にて生成された同期データに基づいて、「発音ため時間」を算出する発音ため算出処理を実行する(S210)。この「発音ため時間」は、プロの歌手の歌い方における特徴の1つである。本実施形態のS210にて算出される「発音ため時間」は、メロディ音符NO(i)の演奏開始タイミングnnt(i)と、そのメロディ音符NO(i)に対してプロの歌手が発音を開始するタイミングとの時間差である。
さらに、データ生成処理では、制御部6は、同期データに基づいて、「音高ため時間」を算出する音高ため算出処理を実行する(S220)。この「音高ため時間」は、プロの歌手の歌い方における特徴の1つである。本実施形態のS220にて算出される「音高ため時間」は、メロディ音符NO(i)の演奏開始タイミングnnt(i)と、プロの歌手が発声した音高が、そのメロディ音符NO(i)の音高に一致するタイミングとの時間差である。
さらに、データ生成処理では、制御部6は、歌唱特徴データSFを生成する(S230)。具体的に、本実施形態のS230では、制御部6は、S210にて算出された発音ため時間を、その発音ため時間の算出に用いた演奏開始タイミングnnt(i)に対応付ける。さらに、制御部6は、S220にて算出された音高ため時間を、その音高ため時間の算出に用いた演奏開始タイミングnnt(i)に対応付ける。
データ生成処理では、制御部6は、S230にて生成した歌唱特徴データSFを記憶部5に記憶する(S240)。
その後、制御部6は、本データ生成処理を終了する。
<発音ため算出処理>
データ生成処理のS210にて実行される発音ため算出処理では、図3に示すように、制御部6は、先のS140にて特定されたボーカル音圧推移を取得する(S310)。続いて、制御部6は、ボーカル音圧推移における規定時間窓AW(j)を、初期値(j=1)に設定する(S320)。
さらに、発音ため算出処理では、制御部6は、設定されている規定時間窓AW(j)でのボーカル音圧推移の音圧レベルLp(j)が閾値Thaよりも大きいか否かを判定する(S330)。この閾値Thaは、人が発声したものとみなせる音圧レベルとして予め規定されたものである。
そして、S330での判定の結果、設定されている規定時間窓AW(j)でのボーカル音圧推移の音圧レベルLp(j)が閾値Tha以下であれば(S330:NO)、制御部6は、発音ため算出処理を、詳しくは後述するS350へと移行させる。一方、規定時間窓AW(j)でのボーカル音圧推移の音圧レベルLp(j)が閾値Thaよりも大きければ(S330:YES)、制御部6は、現時点で設定されている規定時間窓AW(j)に発音開始フラグを設定する(S340)。この発音開始フラグは、ボーカルデータにおいて発音が開始されたタイミングを表す。なお、発音開始フラグが対応付けられた規定時間窓AWは、特許請求の範囲における発声タイミングの一例である。
続いて、制御部6は、設定されている規定時間窓AW(j)の識別子を1つインクリメントする(S350)。さらに、制御部6は、現時点で設定されている規定時間窓AW(j)の識別子が、規定時間窓AWの個数に「1」を加えた値(即ち、jmax+1)に一致しているか否かを判定する(S360)。このS360での判定の結果、設定されている規定時間窓AW(j)の識別子が、規定時間窓AWの個数に「1」を加えた値よりも小さければ(S360:NO)、制御部6は、発音ため算出処理をS330へと戻す。そして、制御部6は、S330からS360までのステップを繰り返す。
一方、S360での判定の結果、現時点で設定されている規定時間窓AW(j)の識別子が、規定時間窓AWの個数に「1」を加えた値に一致していれば(S360:YES)、制御部6は、発音ため算出処理を、S370へと移行する。そのS370では、制御部6は、音符開始フラグが対応付けられた規定時間窓AW(j)の中で、1つの規定時間窓AW(j)を取得する。本実施形態において、S370へと最初に移行した場合には、制御部6は、音符開始フラグが対応付けられた規定時間窓AW(j)の中で、時間軸に沿って最先の規定時間窓AW(j)を取得する。以下、S370にて取得した規定時間窓AW(j)を音符開始タイミングNSと称す。
続いて、制御部6は、発音開始フラグが設定された規定時間窓AW(j)の中で、規定条件を満たす規定時間窓AW(j)を特定する(S380)。ここで言う規定条件とは、音符開始タイミングNSからの時間長が規定された規定範囲内であり、かつ、音符開始タイミングNSからの時間長が最短であることである。なお、本実施形態における規定範囲は、音符開始タイミングNSを起点として、時間軸に沿って前後の両方に規定される。この場合、音符開始タイミングNSから時間軸に沿って後の時間長が、音符開始タイミングNSから時間軸に沿って前の時間長よりも長く規定されても良い。また、音符開始タイミングNSから時間軸に沿って後の時間長と、音符開始タイミングNSから時間軸に沿って前の時間長とが同一であっても良い。以下、S380にて特定した規定時間窓AW(j)を、発音開始タイミングPSと称す。
これと共に、制御部6は、その特定した発音開始タイミングPSと、音符開始タイミングNSとのタイミングペアデータを生成する(S380)。
発音ため算出処理では、制御部6は、S380にて生成したタイミングペアデータを構成する、音符開始タイミングNSと発音開始タイミングPSとの時間差を、発音ため時間として算出する(S390)。このS390では、音符開始タイミングNSとしての規定時間窓AWから、発音開始タイミングPSとしての規定時間窓AWまでの間の時間窓の個数に、時間窓の単位時間を乗じることで、発音ため時間を算出すれば良い。
なお、制御部6は、S380において、発音開始タイミングPSを特定できない場合には、発音開始タイミングPSを未定に設定しても良い。この場合、制御部6は、S390において、当該音符開始タイミングNSに対する発音ため時間として、予め規定された未定値(例えば、「−9.9999」[ms])を設定すれば良い。
続いて、制御部6は、音符開始フラグが対応付けられた全ての規定時間窓AW(j)について、S370〜S390が完了したか否かを判定する(S400)。このS400での判定の結果、音符開始フラグが対応付けられた全ての規定時間窓AW(j)について、S370〜S390が完了していなければ(S400:NO)、制御部6は、発音ため算出処理をS370へと戻す。そのS370では、制御部6は、音符開始フラグが対応付けられた規定時間窓AW(j)の中で、先に取得した規定時間窓AW(j)から時間軸に沿って1つ次の規定時間窓AW(j)を取得する。制御部6は、その後、S400までを実行する。
一方、S400での判定の結果、音符開始フラグが対応付けられた全ての規定時間窓AW(j)について、S370〜S390が完了していれば(S400:YES)、制御部6は、発音ため算出処理をS410へと移行させる。そのS410では、制御部6は、発音ため時間の楽曲における代表値(以下、「発音ため代表値」と称す)を算出する。
具体的に、S410では、制御部6は、S390にて算出された未定値を除く全ての発音ため時間を相加平均した結果を、発音ため代表値として算出する。なお、発音ため代表値の算出方法は、これに限るものではなく、例えば、未定値を除く全ての発音ため時間における中央値を、発音ため代表値としても良いし、未定値を除く全ての発音ため時間における最頻値を、発音ため代表値としても良い。
さらに、発音ため算出処理では、制御部6は、特殊発音ため時間を特定する(S420)。具体的に、S420では、制御部6は、S390にて算出された未定値を除く全ての発音ため時間の中で、発音ため代表値から規定時間長以上乖離した発音ため時間それぞれを、特殊発音ため時間として特定する。すなわち、特殊発音ため時間は、楽曲において歌唱技巧としての「ため」が顕著に表れる音符NOでの発音ため時間である。
そして、制御部6は、その特定した特殊発音ため時間における音符開始フラグが対応付けられた規定時間窓AW(j)に、特殊発音ため時間の開始タイミングである旨を表すフラグを設定する。
その後、制御部6は、発音ため算出処理を終了して、データ生成処理のS220へと処理を移行する。
つまり、発音ため算出処理では、制御部6は、図4に示すように、ボーカル音圧推移の音圧レベルLp(j)が閾値Thaよりも大きくなったタイミングそれぞれを特定する。その特定したタイミングの中から、制御部6は、規定条件を満たす発音開始タイミングPSを特定する。この規定条件とは、音符開始タイミング(即ち、演奏開始タイミングnnt)NSからの時間長が規定された規定範囲内であり、かつ、音符開始タイミングNSからの時間長が最短であることである。
制御部6は、さらに、その特定した発音開始タイミングPSと音符開始タイミングNSとのタイミングペアデータを特定する。そして、制御部6は、そのタイミングペアを構成する音符開始タイミングNSと発音開始タイミングPSと時間差を、「発音ため時間」として算出する。1つの楽曲における全ての音符開始タイミングNSについて、「発音ため時間」を算出すると、制御部6は、その算出した「発音ため時間」の中から、楽曲において歌唱技巧としての「ため」が顕著に表れる特殊発音ため時間を特定する。
<音高ため算出処理>
データ生成処理のS220にて実行される音高ため算出処理では、図5に示すように、制御部6は、先のS140にて特定されたボーカル周波数推移を取得する(S510)。続いて、制御部6は、ボーカル周波数推移をボーカル音高推移へと変換する(S520)。S520では、制御部6は、ボーカル周波数推移における各規定時間窓AW(j)の基本周波数f0を、音階音高(すなわち、ノートナンバーに対応する音高)MS(j)へと変更することで、ボーカル音高推移へと変換する。なお、音階音高MS(j)への変更は、基本周波数f0からの差が最も近い音階音高とすることで実現すれば良い。
音高ため算出処理では、制御部6は、続いて、ボーカル音高推移における規定時間窓AW(j)を初期値(j=1)に設定する(S530)。さらに、制御部6は、現時点で設定されている規定時間窓AW(j)が、設定条件を満たすか否かを判定する(S540)。
このS540における設定条件とは、次の2つのいずれも満たすことである。すなわち、設定条件の1つは、設定されている規定時間窓AW(j)での音圧レベルLp(j)が閾値Thaよりも大きいことである。設定条件の他の1つは、ボーカル音高推移において、規定時間窓AW(j)での音階音高MS(j)と、規定時間窓AW(j−1)での音階音高MS(j−1)との差分の絶対値が、予め規定された設定閾値Thb以上となることである。換言すると、S540では、制御部6は、規定時間窓AW(j)において、歌手が発声しており、かつ、その発声した歌声の音高が設定閾値Thb以上変化したか否かを判定する。
そして、S540での判定の結果、設定されている規定時間窓AW(j)が設定条件を満たしていなければ(S540:NO)、制御部6は、後述するS560へと音高ため算出処理を移行させる。一方、S540での判定の結果、設定されている規定時間窓AW(j)が設定条件を満たしていれば(S540:YES)、制御部6は、ボーカルデータにおいて音高が変化したことを表す音高変化フラグを、その設定されている規定時間窓AW(j)に設定する(S550)。
続いて、制御部6は、設定されている規定時間窓AW(j)の識別子を1つインクリメントする(S560)。さらに、制御部6は、現時点で設定されている規定時間窓AW(j)の識別子が、規定時間窓AWの個数に「1」を加えた値(即ち、jmax+1)に一致しているか否かを判定する(S570)。このS570での判定の結果、設定されている規定時間窓AW(j)の識別子が、規定時間窓AWの個数に「1」を加えた値よりも小さければ(S570:NO)、制御部6は、音高ため算出処理をS540へと戻す。そして、制御部6は、S540からS570までを繰り返す。
一方、S570での判定の結果、設定されている規定時間窓AW(j)の識別子が、規定時間窓AWの個数に「1」を加えた値に一致していれば(S570:YES)、制御部6は、音高ため算出処理をS580へと移行する。そのS580では、制御部6は、音符開始フラグが対応付けられた規定時間窓AW(j)の中で、1つの規定時間窓AW(j)を取得する。本実施形態において、S580へと最初に移行した場合には、制御部6は、音符開始フラグが対応付けられた規定時間窓AW(j)の中で、時間軸に沿って最先の規定時間窓AW(j)を取得する。以下、S580にて取得した規定時間窓AW(j)も音符開始タイミングNSと称す。
続いて、制御部6は、音高変化フラグが設定された規定時間窓AW(j)の中で、第2規定条件を満たす規定時間窓AW(j)を特定する(S590)。ここで言う第2規定条件とは、まず、音符開始タイミングNSに対応するメロディ音符NO(i)の音高に一致する音階音高MS(j)が対応付けられた規定時間窓AW(j)であることである。さらに、ここで言う第2規定条件とは、音符開始タイミングNSからの時間長が規定された規定範囲内であり、かつ、音符開始タイミングNSからの時間長が最短であることである。以下、S590にて特定した規定時間窓AW(j)を音高変化タイミングCTと称す。
これと共に、制御部6は、その特定した音高変化タイミングCTと、音符開始タイミングNSとのタイミングペアデータを生成する(S590)。
音高ため算出処理では、制御部6は、S590にて生成したタイミングペアデータを構成する、音符開始タイミングNSと音高変化タイミングCTとの時間差を音高ため時間として算出する(S600)。このS600における音高ため時間の算出は、音符開始タイミングNSとしての規定時間窓AWから、音高変化タイミングCTとしての規定時間窓AWまでの規定時間窓AWの個数に、規定時間窓AWの単位時間を乗じることで実現すれば良い。
なお、制御部6は、S590において、音高変化タイミングCTを特定できない場合には、音高変化タイミングCTを未定に設定しても良い。制御部6は、S600において、当該音符開始タイミングNSに対する音高ため時間として、予め規定された未定値(例えば、「−9.999」[ms])を設定すれば良い。
続いて、制御部6は、音符開始フラグが対応付けられた全ての規定時間窓AW(j)について、S580〜S600が完了したか否かを判定する(S610)。このS610での判定の結果、音符開始フラグが対応付けられた全ての規定時間窓AW(j)について、S580〜S600が完了していなければ(S610:NO)、制御部6は、音高ため算出処理をS580へと戻す。そのS580では、制御部6は、音符開始フラグが対応付けられた規定時間窓AW(j)の中で、先に取得した規定時間窓AW(j)から時間軸に沿って1つ次の規定時間窓AW(j)を取得する。制御部6は、その後、S610までを実行する。
一方、S610での判定の結果、音符開始フラグが対応付けられた全ての規定時間窓AW(j)について、S580〜S600が完了していれば(S610:YES)、制御部6は、音高ため算出処理をS620へと移行させる。そのS620では、制御部6は、音高ため時間の楽曲における代表値(以下、「音高ため代表値」と称す)を算出する。
具体的に、S620では、制御部6は、S600にて算出された未定値を除く全ての音高ため時間を相加平均した結果を、音高ため代表値として算出する。なお、音高ため代表値の算出方法は、これに限るものではなく、例えば、未定値を除く全ての音高ため時間における中央値を、音高ため代表値としても良いし、未定値を除く全ての音高ため時間における最頻値を、音高ため代表値としても良い。
さらに、音高ため算出処理では、制御部6は、特殊音高ため時間を特定する(S630)。具体的にS630では、制御部6は、S600にて算出された未定値を除く全ての音高ため時間の中で、音高ため代表値から規定時間長以上乖離した音高ため時間それぞれを、特殊音高ため時間として特定する。そして、制御部6は、その特定した特殊音高ため時間における音符開始フラグが対応付けられた規定時間窓AW(j)に、特殊音高ため時間の開始タイミングである旨を表すフラグを設定する。
その後、制御部6は、音高ため算出処理を終了して、データ生成処理のS230へと処理を移行する。
つまり、音高ため算出処理では、制御部6は、図6に示すように、ボーカル音高推移において、設定条件を満たすタイミングを音高変化タイミングCTとして特定する。制御部6は、さらに、その特定した音高変化タイミングCTと音符開始タイミングNSとのタイミングペアを特定する。そして、制御部6は、そのタイミングペアを構成する音符開始タイミングNSと音高変化タイミングCTとの時間差を、「音高ため時間」として算出する。1つの楽曲における全ての音符開始タイミングNSについて、「音高ため時間」を算出すると、制御部6は、その算出した「音高ため時間」の中から、音高が一致するまでのズレ時間が顕著に表れる特殊音高ため時間を特定する。
なお、音高ため算出処理の終了後に実行されるデータ生成処理のS230では、制御部6は、図7に示すように、発音ため時間を、その発音ため時間の算出に用いた演奏開始タイミングnnt(i)、ひいては、メロディ音符NO(i)に対応付ける。制御部6は、音高ため時間を、その音高ため時間の算出に用いた演奏開始タイミングnnt(i)、ひいては、メロディ音符NO(i)に対応付ける。
ただし、データ生成処理にて算出された発音ため時間、及び音高ため時間が未定値である場合には、制御部6は、発音ため時間、及び音高ため時間として、未定値をメロディ音符NO(i)に対応付けても良い。
情報処理装置2の制御部6がデータ生成処理を実行することで生成した歌唱特徴データSFは、可搬型の記憶媒体を用いて情報処理サーバ10の記憶部14に記憶されても良い。情報処理装置2と情報処理サーバ10とが通信網を介して接続されている場合には、情報処理装置2の記憶部5に記憶された歌唱特徴データSFは、通信網を介して転送されることで、情報処理サーバ10の記憶部14に記憶されても良い。ただし、いずれの場合も、歌唱特徴データSFは、対応する楽曲のMIDI楽曲MDと対応付けて、情報処理サーバ10の記憶部14に記憶される。
<表示処理>
カラオケ装置30の制御部50が実行する表示処理は、表示処理を実行するための処理プログラムを起動する指令が入力されると起動される。
そして、表示処理では、起動されると、図8に示すように、制御部50は、入力受付部34を介して指定された楽曲に対応するMIDI楽曲MDを、情報処理サーバ10の記憶部14から取得する(S910)。続いて、制御部50は、S910にて取得したMIDI楽曲MDに対応する歌詞データを取得する(S920)。さらに、制御部50は、S910にて取得したMIDI楽曲MDに対応する歌唱特徴データSFを取得する(S930)。
表示処理では、続いて、制御部50は、S910にて取得したMIDI楽曲MDを演奏する(S940)。具体的にS940では、制御部50は、楽曲再生部36にMIDI楽曲MDを出力する。そのMIDI楽曲MDを取得した楽曲再生部36は、楽曲の演奏を行う。そして、楽曲再生部36によって演奏された楽曲の音源信号が、出力部42を介してスピーカ60へと出力される。すると、スピーカ60は、音源信号を音に換えて出力する。
さらに、表示処理では、制御部50は、S910にて取得したMIDI楽曲MD、S920にて取得した歌詞データ、及びS930にて取得した歌唱特徴データSFに基づく表示を実行する(S950)。このS950では、具体的には、制御部50は、MIDI楽曲MDにおけるメロディトラック、歌詞データ、及び歌唱特徴データSFを映像制御部46に出力する。その映像制御部46は、歌詞データと、メロディトラックを構成するメロディ音符NO(i)を、時間軸に沿って順次表示部64に出力する。すると、表示部64は、歌詞データと、メロディトラックを構成するメロディ音符NO(i)とを、図9に示すように、時間軸に沿って順次表示する。さらに、映像制御部46は、歌唱特徴データSFに含まれる、発音ため時間、音高ため時間を、時間軸に沿って順次表示部64に出力する。すると、表示部64は、発音ため時間、音高ため時間を、対応するメロディ音符NO(i)の演奏開始タイミングnnt(i)と対応付けて、時間軸に沿って順次表示する。
なお、S950では、制御部50は、楽曲の演奏に合わせて、カラオケ装置30の利用者が歌唱した歌唱音声の音高の推移を、映像制御部46に出力しても良い。そして、映像制御部46は、カラオケ装置30の利用者が歌唱した歌唱音声の音高の推移(例えば、図9に示す実線の波形)を、メロディ音符NO(i)とのズレを、利用者が認識可能な態様で表示しても良い。さらに、S950では、制御部50は、プロの歌手が歌唱したボーカルデータの音高推移を、映像制御部46に出力しても良い。そして、映像制御部46は、プロの歌手が歌唱したボーカルデータの音高推移(即ち、ボーカル周波数推移、図9に示す破線の波形)を表示しても良い。
さらに、S950では、制御部50は、発音ため時間、音高ため時間を、予め規定された分類範囲ごとに分類した結果を、映像制御部46に出力しても良い。すなわち、制御部50は、例えば、発音ため時間であれば、第1時間(例えば、200[ms])までは発音ため時間が短いことを表す「発音ため小」に分類する。そして、制御部50は、発音ため時間が、第1時間から第2時間(例えば、400[ms])までであれば、「発音ため中」に分類し、第2時間以上であれば、「発音ため大」に分類する。そして、制御部50は、分類の結果を発音ため時間として映像制御部46に出力しても良い。この場合、映像制御部46は、分類の結果を表示部64に表示させる。
また、音高ため時間であれば、制御部50は、例えば、第1時間までは音高ため時間が短いことを表す「音高ため小」に分類する。そして、制御部50は、音高ため時間が、第1時間から第2時間までであれば、「音高ため中」に分類し、第2時間以上であれば、「音高ため大」に分類する。そして、制御部50は、分類の結果を音高ため時間として映像制御部46に出力しても良い。この場合、映像制御部46は、分類の結果を表示部64に表示させる。
さらには、制御部50は、発音ため時間及び音高ため時間については、特殊発音ため時間及び特殊音高ため時間だけを映像制御部46に出力しても良い。すなわち、S950においては、発音ため時間及び音高ため時間のうちの特殊発音ため時間及び特殊音高ため時間だけを、メロディ音符NOと対応付けて表示部64に提示しても良い。
続いて、表示処理では、制御部50は、楽曲の演奏を終了したか否かを判定する(S960)。この判定の結果、楽曲の演奏を終了していなければ(S960:NO)、制御部50は、表示処理をS940へと戻す。一方、S960での判定の結果、楽曲の演奏が終了していれば(S960:YES)、制御部50は、表示処理を終了する。
[実施形態の効果]
以上説明したように、本実施形態の歌唱特徴データSFは、「発音ため時間」、「音高ため時間」を、メロディ音符NO(i)に対応付けたものである。
このうち、「発音ため時間」、「音高ため時間」は、楽曲を歌唱する際に、プロの歌手が用いる歌唱技巧としての「ため」の特徴を表すものである。
発音ため時間は、メロディ音符NO(i)の演奏開始タイミングnnt(i)と、楽曲データWDにおいて歌手が実際に発声を開始した発声開始タイミングとの時間差である。また、音高ため時間は、メロディ音符NO(i)の音高に、歌手が歌唱した歌声における音高が一致したタイミングと、そのメロディ音符NO(i)の演奏開始タイミングnnt(i)との時間差である。
そして、カラオケ装置30では、時間軸に沿って順次表示するメロディ音符NOの演奏開始タイミングnntと対応付けて、「発音ため時間」及び「音高ため時間」を表示部64に表示している。
したがって、カラオケ装置30によれば、楽曲において、プロの歌手が「ため」を用いている箇所を、表示部64を介して提示できる。また、カラオケ装置30によれば、プロの歌手が、メロディ音符NO(i)の音高に、歌声における音高を一致させるタイミングを、メロディ音符NO(i)の演奏開始タイミングnnt(i)からどの程度ずらしているのかを提示することができる。
しかも、カラオケ装置30によれば、メロディ音符NO(i)における“発音ため時間”及び“音高ため時間”を時間軸に沿って表示部64に順次表示させる。このため、カラオケ装置30によれば、メロディ音符NO(i)における“発音ため時間”及び“音高ため時間”を、カラオケ装置30の利用者が実際に歌唱する前に提示できる。
そして、これらのため時間が表示部64に提示されるカラオケ装置30のユーザは、歌唱している楽曲において、プロの歌手が、歌唱技巧としての「ため」をどのように用いているのかを認識できる。この結果、カラオケ装置30のユーザは、ユーザ者自身の歌い方を、プロの歌手の歌い方により近づけることができる。
また、データ生成処理において特定する「特殊発音ため時間」は、楽曲において歌唱技巧としての「ため」が顕著に表れるメロディ音符NOでの「発音ため時間」である。また、「特殊音高ため時間」は、メロディ音符NO(i)の音高に、プロの歌手が歌唱した歌声における音高を一致させるタイミングのズレがより顕著に表れるメロディ音符NOでのズレ時間である。
そして、本実施形態の歌唱特徴データSFには、「特殊発音ため時間」、及び「特殊音高ため時間」を含んでいる。
このため、カラオケ装置30によれば、楽曲において、プロの歌手が「ため」を顕著に用いる箇所を、表示部64を介して表示できる。また、カラオケ装置30によれば、音符の音高に、プロの歌手が歌唱した歌声における音高を一致させるタイミングのズレが顕著な箇所を、表示部64を介して表示できる。
したがって、カラオケ装置30のユーザは、プロの歌手が「ため」を顕著に用いる箇所及びメロディ音符NO(i)の音高にプロの歌手が歌唱した歌声における音高を一致させるタイミングのズレが顕著な箇所だけでも、ユーザ自身の歌い方をプロの歌手の歌い方に近づけることができる。
[その他の実施形態]
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、様々な態様にて実施することが可能である。
例えば、上記実施形態におけるデータ生成処理は、情報処理装置2にて実行されていたが、本発明においてデータ生成処理を実行する装置は、情報処理装置2に限るものではない。すなわち、データ生成処理を実行する装置は、情報処理サーバ10であっても良いし、カラオケ装置30であっても良い。この場合、情報処理装置2は、システム1から省略されていても良い。
上記実施形態における表示処理は、カラオケ装置30にて実行されていたが、本発明において表示処理を実行する装置は、カラオケ装置30に限るものではなく、情報処理装置2であっても良い。この場合、情報処理装置2は、カラオケ装置30と同様に構成されている必要がある。
また、上記実施形態においては、データ生成処理と表示処理とは別個の処理として構成されていたが、本発明においては、データ生成処理と表示処理とは1つの処理として構成されていても良い。この場合、データ生成処理と表示処理とからなる1つの処理は、情報処理装置2にて実行されても良いし、カラオケ装置30にて実行されても良い。
また、上記実施形態のデータ生成処理では、発音ため算出処理と、音高ため算出処理との二つの処理を実行していたが、本発明においては、発音ため算出処理と、音高ため算出処理とのうちの少なくとも一方が実行されていれば良い。
なお、上記実施形態の構成の一部を、課題を解決できる限りにおいて省略した態様も本発明の実施形態である。また、上記実施形態と変形例とを適宜組み合わせて構成される態様も本発明の実施形態である。また、特許請求の範囲に記載した文言によって特定される発明の本質を逸脱しない限度において考え得るあらゆる態様も本発明の実施形態である。
1…システム 2…情報処理装置 3…入力受付部 4…情報出力部 5…記憶部 6,16,50…制御部 7,18,52…ROM 8,20,54…RAM 9,22,56…CPU 10…情報処理サーバ 12…通信部 14…記憶部 30…カラオケ装置 32…通信部 34…入力受付部 36…楽曲再生部 38…記憶部 40…音声制御部 42…出力部 44…マイク入力部 46…映像制御部 60…スピーカ62…マイク 64…表示部

Claims (8)

  1. 複数の音符によって構成された楽曲の楽譜を表す楽譜データであって、前記複数の音符のそれぞれに、音高及び演奏期間が対応付けられた楽譜データを、第1記憶部から取得する第1取得ステップと、
    前記楽曲を歌唱したボーカル音を含む楽曲データを、第2記憶部から取得する第2取得ステップと、
    前記楽曲データから前記ボーカル音を表すボーカルデータを抽出する抽出ステップと、
    前記ボーカルデータにおける音圧が、予め規定された規定閾値以上となった発声開始タイミングそれぞれを、前記ボーカルデータにおいて発声を開始したタイミングとみなせる発声タイミングとして特定するタイミング特定ステップと、
    前記タイミング特定ステップで特定した発声タイミングのそれぞれと、前記第1取得ステップで取得した楽譜データにおける音符の演奏開始タイミングとに基づいて、前記楽譜データにおける音符の演奏開始タイミングと、その演奏開始タイミングからの時間長が最短となる前記発声開始タイミングとを組み合わせたタイミングペアデータを生成する第1生成ステップと、
    前記第1生成ステップで生成されたタイミングペアデータにおける前記演奏開始タイミングと前記発声開始タイミングとの時間差である発音ため時間の前記楽曲における代表値である発音ため代表値を算出し、前記発音ため時間と、前記発音ため代表値とに基づいて、前記発音ため代表値から規定時間長以上乖離した前記発音ため時間である特殊発音ため時間を、ため時間として算出するため時間算出ステップと、
    前記ため時間算出ステップで算出した前記ため時間を、ため時間の算出に用いた演奏開始タイミングに対応する前記楽譜データの音符と対応付けることで、歌手の歌い方の特徴を表す歌唱特徴データを生成する第2生成ステップと
    をコンピュータに実行させることを特徴とするプログラム。
  2. 複数の音符によって構成された楽曲の楽譜を表す楽譜データであって、前記複数の音符のそれぞれに、音高及び演奏期間が対応付けられた楽譜データを、第1記憶部から取得する第1取得ステップと、
    前記楽曲を歌唱したボーカル音を含む楽曲データを、第2記憶部から取得する第2取得ステップと、
    前記楽曲データから前記ボーカル音を表すボーカルデータを抽出する抽出ステップと、
    前記ボーカルデータにおける音高の推移を表すボーカル周波数推移が、前記楽譜データにおける前記音符の音高の範囲内となったタイミングである音高変化タイミングを、前記ボーカルデータにおいて発声を開始したタイミングとみなせる発声タイミングとして特定するタイミング特定ステップと、
    前記タイミング特定ステップで特定した発声タイミングのそれぞれと、前記第1取得ステップで取得した楽譜データにおける音符の演奏開始タイミングとに基づいて、前記楽譜データにおける音符の演奏開始タイミングと、その演奏開始タイミングから、時間軸に沿って予め規定された規定時間範囲であり、かつ、前記演奏開始タイミングからの時間長が最短となる前記音高変化タイミングとを対応付けたタイミングペアデータを生成する第1生成ステップと、
    前記第1生成ステップで生成されたタイミングペアデータにおける前記演奏開始タイミングと前記音高変化タイミングとの時間差である音高ため時間の前記楽曲における代表値である音高ため代表値を算出し、前記音高ため時間と、前記音高ため代表値とに基づいて、前記音高ため代表値から規定時間長以上乖離した前記音高ため時間である特殊音高ため時間を、ため時間として算出するため時間算出ステップと、
    前記ため時間算出ステップで算出した前記ため時間を、ため時間の算出に用いた演奏開始タイミングに対応する前記楽譜データの音符と対応付けることで、歌手の歌い方の特徴を表す歌唱特徴データを生成する第2生成ステップと
    をコンピュータに実行させることを特徴とするプログラム。
  3. 前記タイミング特定ステップは、前記ボーカルデータにおける音圧が、予め規定された規定閾値以上となった発声開始タイミングそれぞれを、前記発声タイミングとして特定し、
    前記第1生成ステップは、前記楽譜データにおける音符の演奏開始タイミングと、その演奏開始タイミングからの時間長が最短となる前記発声開始タイミングとを組み合わせた前記タイミングペアデータを生成し、
    前記ため時間算出ステップは、前記第1生成ステップで生成されたタイミングペアデータにおける前記演奏開始タイミングと前記発声開始タイミングとの時間差である発音ため時間を、前記ため時間として算出することを特徴とする請求項2に記載のプログラム。
  4. 前記ため時間算出ステップは、
    前記発音ため時間の前記楽曲における代表値である発音ため代表値を算出し、
    前記発音ため時間と、前記発音ため代表値とに基づいて、前記発音ため代表値から規定時間長以上乖離した前記発音ため時間である特殊発音ため時間を、前記ため時間として算出することを特徴とする請求項3に記載のプログラム。
  5. 複数の音符によって構成された楽曲の楽譜を表す楽譜データであって、前記複数の音符のそれぞれに、音高及び演奏期間が対応付けられた楽譜データを、第1記憶部から取得する第1取得手段と、
    前記楽曲を歌唱したボーカル音を含む楽曲データを、第2記憶部から取得する第2取得手段と、
    前記楽曲データから前記ボーカル音を表すボーカルデータを抽出する抽出手段と、
    前記ボーカルデータにおける音圧が、予め規定された規定閾値以上となった発声開始タイミングそれぞれを、前記ボーカルデータにおいて発声を開始したタイミングとみなせる発声タイミングとして特定するタイミング特定手段と、
    前記タイミング特定手段で特定した発声タイミングのそれぞれと、前記第1取得手段で取得した楽譜データにおける音符の演奏開始タイミングとに基づいて、前記楽譜データにおける音符の演奏開始タイミングと、その演奏開始タイミングからの時間長が最短となる前記発声開始タイミングとを組み合わせたタイミングペアデータを生成する第1生成手段と、
    前記第1生成手段で生成されたタイミングペアデータにおける前記演奏開始タイミングと前記発声開始タイミングとの時間差である発音ため時間の前記楽曲における代表値である発音ため代表値を算出し、前記発音ため時間と、前記発音ため代表値とに基づいて、前記発音ため代表値から規定時間長以上乖離した前記発音ため時間である特殊発音ため時間を、ため時間として算出するため時間算出手段と、
    前記ため時間算出手段で算出した前記ため時間を、ため時間の算出に用いた演奏開始タイミングに対応する前記楽譜データの音符と対応付けることで、歌手の歌い方の特徴を表す歌唱特徴データを生成する第2生成手段と
    を備えることを特徴とする情報処理装置。
  6. 複数の音符によって構成された楽曲の楽譜を表す楽譜データであって、前記複数の音符のそれぞれに、音高及び演奏期間が対応付けられた楽譜データを、第1記憶部から取得する第1取得手段と、
    前記楽曲を歌唱したボーカル音を含む楽曲データを、第2記憶部から取得する第2取得手段と、
    前記楽曲データから前記ボーカル音を表すボーカルデータを抽出する抽出手段と、
    前記ボーカルデータにおける音高の推移を表すボーカル周波数推移が、前記楽譜データにおける前記音符の音高の範囲内となったタイミングである音高変化タイミングを、発声タイミングとして特定するタイミング特定手段と、
    前記タイミング特定手段で特定した発声タイミングのそれぞれと、前記第1取得手段で取得した楽譜データにおける音符の演奏開始タイミングとに基づいて、前記楽譜データにおける音符の演奏開始タイミングと、その演奏開始タイミングから、時間軸に沿って予め規定された規定時間範囲であり、かつ、前記演奏開始タイミングからの時間長が最短となる前記音高変化タイミングとを対応付けたタイミングペアデータを生成する第1生成手段と、
    前記第1生成手段で生成されたタイミングペアデータにおける前記演奏開始タイミングと前記音高変化タイミングとの時間差である音高ため時間の前記楽曲における代表値である音高ため代表値を算出し、前記音高ため時間と、前記音高ため代表値とに基づいて、前記音高ため代表値から規定時間長以上乖離した前記音高ため時間である特殊音高ため時間を、ため時間として算出するため時間算出手段と、
    前記ため時間算出手段で算出した前記ため時間を、ため時間の算出に用いた演奏開始タイミングに対応する前記楽譜データの音符と対応付けることで、歌手の歌い方の特徴を表す歌唱特徴データを生成する第2生成手段と
    を備えることを特徴とする情報処理装置。
  7. 複数の音符によって構成された楽曲の楽譜を表す楽譜データであって、前記複数の音符のそれぞれに、音高及び演奏期間が対応付けられた楽譜データを、情報処理装置が第1記憶部から取得する第1取得手順と、
    前記楽曲を歌唱したボーカル音を含む楽曲データを、前記情報処理装置が第2記憶部から取得する第2取得手順と、
    前記楽曲データから前記ボーカル音を表すボーカルデータを、前記情報処理装置が抽出する抽出手順と、
    前記ボーカルデータにおける音圧が、予め規定された規定閾値以上となった発声開始タイミングそれぞれを、前記ボーカルデータにおいて発声を開始したタイミングとみなせる発声タイミングとして前記情報処理装置が特定するタイミング特定手順と、
    前記タイミング特定手順で特定した発声タイミングのそれぞれと、前記第1取得手順で取得した楽譜データにおける音符の演奏開始タイミングとに基づいて、前記楽譜データにおける音符の演奏開始タイミングと、その演奏開始タイミングからの時間長が最短となる前記発声開始タイミングとを組み合わせたタイミングペアデータを、前記情報処理装置が生成する第1生成手順と、
    前記第1生成手順で生成されたタイミングペアデータにおける前記演奏開始タイミングと前記発声開始タイミングとの時間差である発音ため時間の前記楽曲における代表値である発音ため代表値を算出し、前記発音ため時間と、前記発音ため代表値とに基づいて、前記発音ため代表値から規定時間長以上乖離した前記発音ため時間である特殊発音ため時間を、ため時間として前記情報処理装置が算出するため時間算出手順と、
    前記ため時間算出手順で算出した前記ため時間を、ため時間の算出に用いた演奏開始タイミングに対応する前記楽譜データの音符と対応付けることで、歌手の歌い方の特徴を表す歌唱特徴データを、前記情報処理装置が生成する第2生成手順と
    を備えることを特徴とするデータ生成方法。
  8. 複数の音符によって構成された楽曲の楽譜を表す楽譜データであって、前記複数の音符のそれぞれに、音高及び演奏期間が対応付けられた楽譜データを、情報処理装置が第1記憶部から取得する第1取得手順と、
    前記楽曲を歌唱したボーカル音を含む楽曲データを、前記情報処理装置が第2記憶部から取得する第2取得手順と、
    前記楽曲データから前記ボーカル音を表すボーカルデータを、前記情報処理装置が抽出する抽出手順と、
    前記ボーカルデータにおける音高の推移を表すボーカル周波数推移が、前記楽譜データにおける前記音符の音高の範囲内となったタイミングである音高変化タイミングを、前記ボーカルデータにおいて発声を開始したタイミングとみなせる発声タイミングとして前記情報処理装置が特定するタイミング特定手順と、
    前記タイミング特定手順で特定した発声タイミングのそれぞれと、前記第1取得手順で取得した楽譜データにおける音符の演奏開始タイミングとに基づいて前記楽譜データにおける音符の演奏開始タイミングと、その演奏開始タイミングから、時間軸に沿って予め規定された規定時間範囲であり、かつ、前記演奏開始タイミングからの時間長が最短となる前記音高変化タイミングとを対応付けたタイミングペアデータを、前記情報処理装置が生成する第1生成手順と、
    前記第1生成手順で生成されたタイミングペアデータにおける前記演奏開始タイミングと前記音高変化タイミングとの時間差である音高ため時間の前記楽曲における代表値である音高ため代表値を算出し、前記音高ため時間と、前記音高ため代表値とに基づいて、前記音高ため代表値から規定時間長以上乖離した前記音高ため時間である特殊音高ため時間を、ため時間として前記情報処理装置が算出するため時間算出手順と、
    前記ため時間算出手順で算出した前記ため時間を、ため時間の算出に用いた演奏開始タイミングに対応する前記楽譜データの音符と対応付けることで、歌手の歌い方の特徴を表す歌唱特徴データを、前記情報処理装置が生成する第2生成手順と
    を備えることを特徴とするデータ生成方法。
JP2014069731A 2014-03-28 2014-03-28 プログラム、情報処理装置、及びデータ生成方法 Active JP5983670B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014069731A JP5983670B2 (ja) 2014-03-28 2014-03-28 プログラム、情報処理装置、及びデータ生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014069731A JP5983670B2 (ja) 2014-03-28 2014-03-28 プログラム、情報処理装置、及びデータ生成方法

Publications (2)

Publication Number Publication Date
JP2015191170A JP2015191170A (ja) 2015-11-02
JP5983670B2 true JP5983670B2 (ja) 2016-09-06

Family

ID=54425687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014069731A Active JP5983670B2 (ja) 2014-03-28 2014-03-28 プログラム、情報処理装置、及びデータ生成方法

Country Status (1)

Country Link
JP (1) JP5983670B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108053839B (zh) * 2017-12-11 2021-12-21 广东小天才科技有限公司 一种语言练习成果的展示方法及麦克风设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1039881A (ja) * 1996-07-19 1998-02-13 Yamaha Corp カラオケ採点装置
JP2008026622A (ja) * 2006-07-21 2008-02-07 Yamaha Corp 評価装置

Also Published As

Publication number Publication date
JP2015191170A (ja) 2015-11-02

Similar Documents

Publication Publication Date Title
JP6060867B2 (ja) 情報処理装置,データ生成方法,及びプログラム
JP5292702B2 (ja) 楽音信号生成装置及びカラオケ装置
JP6098422B2 (ja) 情報処理装置、及びプログラム
JP6075314B2 (ja) プログラム,情報処理装置,及び評価方法
JP6056799B2 (ja) プログラム、情報処理装置、及びデータ生成方法
JP5983670B2 (ja) プログラム、情報処理装置、及びデータ生成方法
JP5782972B2 (ja) 情報処理システム,プログラム
JP6075313B2 (ja) プログラム,情報処理装置,及び評価データ生成方法
JP6252420B2 (ja) 音声合成装置、及び音声合成システム
JP6260565B2 (ja) 音声合成装置、及びプログラム
JP6365483B2 (ja) カラオケ装置,カラオケシステム,及びプログラム
JP2013210501A (ja) 素片登録装置,音声合成装置,及びプログラム
JP5810947B2 (ja) 発声区間特定装置、音声パラメータ生成装置、及びプログラム
JP6406182B2 (ja) カラオケ装置、及びカラオケシステム
JP5418525B2 (ja) カラオケ装置
JP5413380B2 (ja) 楽曲データ修正装置
JP6252421B2 (ja) 採譜装置、及び採譜システム
JP6380305B2 (ja) データ生成装置、カラオケシステム、及びプログラム
JP6011506B2 (ja) 情報処理装置,データ生成方法,及びプログラム
JP6281447B2 (ja) 音声合成装置,及び音声合成システム
JP6252408B2 (ja) 表示制御装置,及び表示制御システム
JP5569307B2 (ja) プログラム、及び編集装置
JP5287782B2 (ja) 歌唱補助装置、及びプログラム
JP6260499B2 (ja) 音声合成システム、及び音声合成装置
JP6365561B2 (ja) カラオケシステム、カラオケ装置、及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160426

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160718

R150 Certificate of patent or registration of utility model

Ref document number: 5983670

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150