JP4110951B2 - Karaoke equipment - Google Patents

Karaoke equipment Download PDF

Info

Publication number
JP4110951B2
JP4110951B2 JP2002348265A JP2002348265A JP4110951B2 JP 4110951 B2 JP4110951 B2 JP 4110951B2 JP 2002348265 A JP2002348265 A JP 2002348265A JP 2002348265 A JP2002348265 A JP 2002348265A JP 4110951 B2 JP4110951 B2 JP 4110951B2
Authority
JP
Japan
Prior art keywords
data
karaoke
scoring
pitch
weight coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002348265A
Other languages
Japanese (ja)
Other versions
JP2004184506A (en
Inventor
宣公 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2002348265A priority Critical patent/JP4110951B2/en
Publication of JP2004184506A publication Critical patent/JP2004184506A/en
Application granted granted Critical
Publication of JP4110951B2 publication Critical patent/JP4110951B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、カラオケ装置における歌唱採点に関し、より適切な採点結果を得ることができるようにする技術に関する。
【0002】
【従来の技術】
従来、カラオケ装置の付帯機能として採点機能が良く知られている。この採点機能は、マイクロホンから入力された歌唱者の音声信号をサンプリングすることで歌唱者が発声した音高や声量あるいはテンポなどの歌唱状態を示す歌唱データを生成する。この歌唱データとカラオケデータ中の主旋律データなどの採点基準データとを比較し、その比較結果に基づいて所定の得点を付与して採点データを生成する。そして、曲の演奏が終了するとこの採点データ中の得点を集計して総合得点を算出する。総合得点はそのままの得点をスコアボードやディスプレイに表示したり、所定のメッセージや所定の表現内容を含む映像など総合得点を反映した映像をディスプレイに出力したりする(例えば、特許文献1、特許文献2参照)。
【0003】
従来の歌唱採点のやり方は、一意的に決められている採点基準に対する歌唱状態の一致度によって歌唱力の優劣を判定している。例えば音高の一致度合いを見る場合であれば、両者の音高の差分がなるべく零に近い方が歌唱力が優良であると判定している。ここで、音高の一致度合いを判断する場合、1音に対する採点対象はなるべく多くの区間であることが好ましい。つまり、1音に対する採点対象が例えば1点だけであると、その1点がたまたま採点基準と一致していると他が外れていても歌唱力が優良となり、逆にその1点がたまたま採点基準と外れているが他の部分は一致しているような場合であっても歌唱力が低いと判定されてしまう。したがって、そのような偶然性を排除するために、1音に対する採点対象を多くの区間に設定しておくことが好ましい。
【0004】
【特許文献1】
特開平11−305786号公報
【特許文献2】
特許第2890659号公報
【0005】
【発明が解決しようとする課題】
しかしながら、このような1音に対する採点対象を多くの区間に設定するため、例えば1音中の全区間を採点対象とした場合、次のような不都合が生じることとなる。つまり、ごく普通に歌唱していたとしても、例えば各フレーズの歌い出し部分、各フレーズの渡りの部分、各フレーズの歌い終わりの部分に関しては、採点基準に対して差分が大きくなり一致度が低くなることがあった。このようなフレーズの開始部分や終了部分等においては、たとえプロ歌手であっても音が外れやすく、またその外れる量も大きいため、その部分を他の部分と同じように採点してしまうと、採点結果全体に与える悪影響が大きい。つまり、そのような音の外れは、機械的に判定すると外れた量が大きいため採点結果を低くする方向へ大きく影響する。一般的に、歌唱力の判定結果に対する人の評価は、通常は人が聞いて「上手いのか下手なのか」を感覚的に判定することを基準にしている。そのため、人が上手いと判定できるような歌唱に対して、上述のようなフレーズの開始部分や終了部分等の短期間の音の外れが原因で採点評価を下げてしまうのは、歌唱力を適切に評価するという観点から問題がある。
【0006】
また、いわゆる「ため」、「しゃくりあげ」、「ビブラート」などの歌唱テクニックを使うと、各フレーズの歌い出し部分、各フレーズの渡りの部分、各フレーズの歌い終わりの部分に関して採点基準に対して差分がかなり大きくなってします。したがって、このような歌唱テクニックを使わないで普通に歌えば採点結果がよくなるような「上手い」歌唱者が、歌手の真似をしたり、自己流に上記歌唱テクニックを加えることでより表現豊かな歌唱をした場合であっても、上述の理由によって採点評価を下げてしまう結果となる。
【0007】
そこで本発明は、カラオケ装置における歌唱採点に関し、より適切な採点結果を得ることができるようにすることを目的とする。
【0008】
【課題を解決するための手段及び発明の効果】
(1)上述した問題点を解決するためになされた請求項1に係るカラオケ装置は、曲データ記憶手段がカラオケ曲を演奏するためのカラオケ演奏データ及びそのカラオケ曲の歌唱旋律の音高データを含む採点基準データを記憶しており、カラオケ演奏手段が、指定されたカラオケ曲のカラオケ演奏データを曲データ記憶手段から読み出してカラオケ演奏を行なう。また、音声信号入力手段を介してカラオケ歌唱の音声信号が入力されると、音高抽出手段が、その音声信号をサンプリングしてカラオケ歌唱の音高データを抽出する。そして採点手段は、カラオケ演奏手段によるカラオケ演奏と同期してその演奏曲に対応する採点基準データを曲データ記憶手段から読み出し、その読み出した採点基準データと音高抽出手段によって抽出した音高データとに基づいて採点するのであるが、さらに詳しくは次のような採点を行う。
【0009】
つまり、音高差算出手段が、採点基準データ中の算出対象となる同一音高の音高データが継続する期間中に音高抽出手段によって抽出された複数の音高データと、曲データ記憶手段から読み出した採点基準データ中における対応する音高データとの差を算出する。そして、重み係数乗算手段が、音高差算出手段によって算出された音高差に対して、同一音高の音高データが継続する期間における先頭近傍の所定部分又は後端近傍の所定部分の少なくともいずれか一方については他の部分よりも小さな値となる重み係数を乗算する。このように重み係数乗算手段によって重み係数の乗算された音高差を用いて採点を行うのである。
【0010】
このような採点を行うことで、歌唱採点に関し、より適切な採点結果を得ることができる。その理由について説明する。
上述のように、1音に対する採点対象を多くの区間に設定するため、例えば採点基準データ中の算出対象となる同一音高の音高データが継続する期間中の全てを採点対象とした場合、これら全期間において何ら考慮せずに同じような採点を行うと種々の問題が生じる。例えば、ごく普通に歌唱していたとしても、各フレーズの歌い出し部分、各フレーズの渡りの部分、各フレーズの歌い終わりの部分に関しては、採点基準に対して差分が大きくなる。上述したように、このようなフレーズの開始部分や終了部分等においては、たとえプロ歌手であっても音が外れやすく、またその外れる量も大きいため、採点結果全体に与える悪影響が大きい。また、いわゆる「ため」、「しゃくりあげ」、「ビブラート」などの歌唱テクニックを使うと、実際には「上手く」歌っていたとしても、やはり採点基準に対して差分が大きくなって採点結果全体に対して悪影響を与えてしまう。
【0011】
そこで、本発明では、このような部分については他の部分よりも小さな値となる重み係数を乗算し、その乗算した音高差を用いて採点することで、悪影響を排除し、より適切な採点結果を得ることができるのである。
(2)重み係数乗算手段が乗算する重み係数に関しては、種々の工夫が考えられる。
【0012】
例えば、請求項2に示すように、先頭近傍の所定部分又は後端近傍の所定部分の少なくともいずれか一方については、重み係数零を乗算することが考えられる。このようにすれば、この部分の音高差が必ず零となり、悪影響を完全に排除できる。
【0013】
また、請求項3に示すように、先頭近傍の所定部分又は後端近傍の所定部分の少なくともいずれか一方については、零以上且つ他の部分よりも小さな重み係数を乗算することも考えられる。この場合は、請求項4に示すように、先頭近傍の所定部分においては先頭からリニアに増加し、後端近傍においては後端に向けてリニアに減少するよう設定してもよい。
【0014】
なお、請求項2のように重み係数を零にした場合、上述のように、この部分の音高差が必ず零となって悪影響を完全に排除できるが、逆に言えば、その部分においても相対的に音が外れない「歌唱が上手い人」がいた場合、その歌唱の上手さは採点に反映されなくなる。したがって、その部分における歌唱の上手さを多少なりとも採点に反映させるのであれば、請求項3,4のような零でない係数を設定しておくことが好ましい。
【0015】
(3)また、重み係数の設定の仕方は固定でもよいが、状況に応じて使い分けることも考えられる。
例えば請求項に示すように、重み係数として、同一音高の音高データが継続する期間における先頭近傍の所定部分、後端近傍の所定部分及びそれ以外の部分の長さの割合が異なる複数パターンの重み係数を記憶しておく。そして、指定されたカラオケ曲に応じて、重み係数パターン記憶手段から対応する重み係数パターンを選択し、その選択された重み係数パターンの重み係数を乗算するのである。いわゆる「ため」、「しゃくりあげ」、「ビブラート」などの歌唱テクニックを使うと、各フレーズの歌い出し部分、各フレーズの渡りの部分、各フレーズの歌い終わりの部分に関して採点基準に対して差分がかなり大きくなってしまうことは上述した。具体的には、「ため」の場合は先頭近傍の所定部分において音高差が大きくなる傾向があり、「しゃくりあげ」、「ビブラート」では後端近傍の所定部分において音高差が大きくなる傾向がある。したがって、例えば、1)先頭近傍の所定部分が相対的に長いもの、2)後端近傍の所定部分が相対的に長いもの、あるいは、3)先頭近傍の所定部分と後端近傍の所定部分が同じ長さのもの(あるいはさらにそれらの長さにバリエーションを持たせてもよい)を重み係数パターンとして準備しておき、「ため」が頻繁に使用されそうな曲については1)のパターン、「しゃくりあげ」、「ビブラート」が頻繁に使用されそうな曲については2)のパターン、それ以外の曲については3)のパターン、というようにカラオケ装置にて自動的に選択するのである。なお、具体的にはカラオケ曲データに上記1)3)のパターンを識別する情報を付加しておき、それを参照して選択することなどが考えられる。あるいはジャンルによる大まかな選択であってもよい。例えば演歌については「ビブラート」(あるいはそれに類似した「こぶし」)が頻繁に使用される可能性が高いため、上記2)のパターンを選択する、といった対処である。
【0016】
一方、請求項に示すように、同じく複数パターンの重み係数を記憶しておき、その中からの選択をユーザの操作に委ねてもよい。つまり、ユーザからの操作を受け付け、その受け付けた操作に基づき、記憶されている重み係数パターンの中からいずれかを選択するのである。このようにすれば、たとえ原曲の歌手が「ため」、「しゃくりあげ」、「ビブラート」などの歌唱テクニックを用いていなくても、自分が歌う場合には、「ため」、「しゃくりあげ」、「ビブラート」といった歌唱テクニックを使ってしまうことも往々にしてある。したがって、そのようなユーザへの対処としては、ユーザが自分で選択できるようにしておくことは有効な対処となる。
【0017】
【0018】
【発明の実施の形態】
以下、本発明が適用された実施例について図面を用いて説明する。なお、本発明の実施の形態は、下記の実施例に何ら限定されることなく、本発明の技術的範囲に属する限り種々の形態を採りうることは言うまでもない。
【0019】
図1は、本実施例のカラオケ装置の構成を示すブロック図である。本実施例では、複数のカラオケ装置1a,1b,1c…がローカル・エリア・ネットワーク(LAN)30に接続されてカラオケシステムを構成している。基本的な構成はどのカラオケ装置1も同じであるが、カラオケ装置1aのみが通信ネットワーク3を介してホストコンピュータ2に接続できるようになっている。そして、カラオケ装置1aは、この通信ネットワーク3を介して接続したホストコンピュータ2からカラオケに関する音楽情報と画像情報とを取得することができる。そして、カラオケ装置1aが取得したカラオケに関する音楽情報と画像情報は、LAN30を介して他のカラオケ装置1b、1c…も取得できるようにされている。
【0020】
なお、ホストコンピュータ2は、通信ネットワーク3を介してカラオケ装置1aとアクセス可能であって、カラオケ装置1aに対して、最新の流行曲等の曲データを発信したり、どのような曲が何回演奏されたかといったログデータを含む関連情報をカラオケ装置1aから受信したりして管理することができるようになっている。なお、この場合の「どのような曲が何回演奏されたかといったログデータ」については、カラオケ装置1a単体でのログデータではなく、カラオケシステム全体のログデータを指す。つまり、他のカラオケ装置1b、1c…におけるログデータもカラオケ装置1aに集められ、カラオケシステム全体のログデータがカラオケ装置1aからホストコンピュータ2へ送信される。
【0021】
また、ホストコンピュータ2は、データベースを備えており、このデータベースに楽曲演奏に使用するコンテンツデータとしての音楽情報や背景画または歌詞等の画像情報等を記憶している。また、ホストコンピュータ2は、コンテンツデータ以外にバージョンアップされたシステムプログラム等をデータベースに記憶し、そのデータベースから随時読み出してカラオケ装置1に対して発信することができるようになっている。
【0022】
次に、カラオケ装置1aの構成について説明する。
このカラオケ装置1aには、図1に示されるように、ホストコンピュータ2に通信ネットワーク3を介して接続し各種の情報を送受信する通信装置19、曲の予約などを行う操作パネル10、カラオケ装置1a全体の制御を司る制御手段としてのCPU14、各種情報を一時的に記憶するRAM15、演奏の再生を行う音源再生装置18、音楽情報にかかる電気信号を増幅等するアンプ20、アンプ20からの電気信号を入力して伴奏曲及び利用者の歌声等を流すスピーカ22、利用者の歌声等をアンプ20に入力するための音声信号入力手段としてのマイクロフォン(以下、単にマイクと称す。)23、マイク23から入力される歌唱音声をサンプリングして解析することで歌唱音高を抽出し採点基準データと比較して得点化する採点部28、カラオケ用の音楽情報や画像情報その他各種データを記憶しているEEPROM12とハードディスク13、画像情報等を映像化するための映像再生装置24、画像情報である背景画及び歌詞等を表示する表示装置26、およびLAN30に接続するためのネットワークインターフェース17を備えている。この内、操作パネル10、EEPROM12、ハードディスク13、RAM15、ネットワークインターフェース17、音源再生装置18、映像再生装置24及び採点部28は、CPU14に接続されている。
【0023】
なお、他のカラオケ装置1b、1c…は通信装置19を備えないだけで、他の構成は備えているため、ここではカラオケ装置1aのみの説明をし、他のカラオケ装置1b,1c…の構成についての説明は省略する。
上述した通信装置19は、信号の変調および復調を行う変復調装置であり、CPU14の制御の下、通信ネットワーク3を通じてホストコンピュータ2にアクセス可能に構成されている。それによって、通信装置19は、通信ネットワーク3を介してホストコンピュータ2から送られてくる曲データ等を受信したり、上記関連情報をホストコンピュータ2に伝送することができる。
【0024】
また、操作パネル10は、利用者によって操作されるものであり、任意の曲の選択、演奏音のキーの調整、演奏と歌との音量バランスの調整、その他エコー、音量、トーンなど各種調整を行うため操作部と例えば選択された曲番号等を表示するための表示部(図示せず)を備えている。利用者は、その操作部を操作することによって、再生する曲をカラオケ装置1に予約登録することができる。
【0025】
また、記憶手段としてのEEPROM12にはシステムプログラムや各種の設定に必要な設定データ、そして後述する重み係数マップ(図4参照)などが記憶されている。
また、記憶部としてのハードディスク13には、音楽情報や画像情報などのコンテンツデータや演奏記録などのログデータなどが記憶されている。そして、操作パネル10の操作部を介して曲が選択されると、CPU14は、歌詞データ、映像データからなる画像情報、および演奏データからなる音楽情報をハードディスク13から呼び出して、映像再生装置24および音源再生装置18に同期させて出力するようになっている。なお、ハードディスク13には、識別情報としての曲番号に対応して演奏データや歌詞データ等が記憶されている。
【0026】
その後、CPU14から出力される演奏データは、音源再生装置18において、アナログの演奏音信号に変換された後、アンプ20へ送られて電気的に増幅される。このアンプ20は、マイク23を介して入力される利用者(歌唱者)の歌唱音信号と適度な割合でミキシングするもので、ミキシングされた歌唱音信号と演奏音信号は、アンプ20からスピーカ22に出力され、音声及び演奏音となってスピーカ22から外部へ出力される。
【0027】
一方、映像再生装置24は、CPU14の制御の下、ハードディスク13から読み出された画像情報に基づく画像の再生を行うものである。それにより、CPU14により出力される歌詞データ及び映像データは、映像再生装置24において歌詞テロップ及び背景映像として再生されると共に合成され、表示装置26の画面に背景映像とともに歌詞テロップが表示されるようになっている。
【0028】
このような構成のため、利用者は、表示装置26に表示される歌詞テロップを参照しながら、スピーカ22より流れるカラオケ演奏にあわせ、マイク23を使って歌唱できるようになっている。
また、本実施例のカラオケ装置1aはカラオケ演奏にあわせて歌っている人の歌唱状態を採点してその採点結果を出力する歌唱採点機能を備えている。利用者がカラオケ装置1aで歌唱採点機能を利用したい場合、パネルやリモコンなどの操作パネル10から演奏予約用の一連の楽曲番号に引き続いて所定の操作キーを押す。それにより、歌唱採点機能の作動命令を示す符号が付加された楽曲番号がCPU14に転送される。CPU14はこの楽曲を演奏処理するときは歌唱採点機能を作動させるものとして演奏予約処理する。もちろん、利用者による課金手続きなどによって歌唱採点機能が作動するようにしても良い。例えば、別途課金装置をカラオケ装置1aに接続し、採点して欲しい楽曲が演奏される直前や前奏の演奏中など適宜な時期に所定の料金を課金装置に投入することで歌唱採点機能が作動するよう構成してもよい。
【0029】
歌唱採点を実施するのが、音高抽出手段、音高差算出手段及び重み係数乗算手段としての採点部28である。採点部28は、採点用CPU28a、ROM28b、RAM28c、A/Dコンバータ28d等より構成され、A/Dコンバータ28dには、マイク23から歌唱音声が入力するよう構成されており、採点用CPU28aは、A/Dコンバータ28dから出力される歌唱音声データをサンプリングして解析することで歌唱音高やリズムなどを採点要素として抽出する。一方、ハードディスク13に格納されている演奏データをデータバス及びCPU14を介して受け取り、このデータ中のボーカルデータ(歌唱旋律データ)を採点基準データとして取得する。そして、この取得した採点基準データによる採点要素と上述の歌唱音声から抽出した採点要素とを比較し、歌唱音声データがどの程度ボーカルデータに近いかによって採点する。なお、このボーカルデータは、いわゆるガイドメロディ機能として相対的に小さな音量で伴奏楽音と共にスピーカ22から出力される機能を実現する場合にも用いられる。
【0030】
この採点結果のデータはRAM28cに格納していく。そして採点用CPU28aは、カラオケ楽曲における採点区間の終了点を検知すると、採点データの生成を停止し、採点区間中にRAM28cに蓄積された採点データを集計し、これをCPU14に転送して得点結果を表示装置26に表示させる。
【0031】
これが採点のための構成及び概略動作の説明であったが、本実施例のカラオケ装置1aにおいては、歌唱採点に際して、1音における先頭及び後端の所定長の範囲においてはそれら以外(つまり中央部分)よりも小さな値の重み係数をかけることにより、適切な採点を行うことができるようになっている。
【0032】
これは、次のような問題に鑑みたものである。つまり、1音に対する採点対象を多くの区間に設定するという観点からすれば、採点基準データ中の算出対象となる同一音高の音高データが継続する期間中の全てを採点対象とすることが好ましい。しかし、これら全期間において何ら考慮せずに同じような採点を行うと、例えばごく普通に歌唱していたとしても、各フレーズの歌い出し部分、各フレーズの渡りの部分、各フレーズの歌い終わりの部分に関しては、採点基準に対して差分が大きくなる。このようなフレーズの開始部分や終了部分等においては、たとえプロ歌手であっても音が外れやすく、またその外れる量も大きいため、その部分を他の部分と同じように採点してしまうと、採点結果全体に与える悪影響が大きい。また、いわゆる「ため」、「しゃくりあげ」、「ビブラート」などの歌唱テクニックを使うと、実際には「上手く」歌っていたとしても、やはり採点基準に対して差分が大きくなって採点結果全体に対して悪影響を与えてしまう。
【0033】
そこで、本実施例においては、このような部分(つまり1音における先頭及び後端の所定長の範囲)については、1よりも小さな値となる重み係数を乗算し、その乗算した音高差を用いて採点することで、悪影響を排除し、より適切な採点結果を得るようにした。
【0034】
この内容を図2〜図4を参照して説明する。図2は実施例における採点部28の採点用CPU28aで実施される採点処理の内、音高データの一致度合いを判定する(音高差を算出する)アルゴリズムを説明するフローチャートを示しており、図3は歌唱音声から抽出した音高データD1と採点基準データD2に基づく採点方法の概略説明図である。一音毎に音高データD1と採点基準データD2との音高差(絶対値)を計算し、得られた音高差に応じて所定の得点をつける。したがって、図2の処理は、各音のノートオンによって開始する。
【0035】
図2の処理が開始すると、まず、マイク23からA/Dコンバータ28dを介して入力される歌唱音声データを取り込む(S102)。そして、その取り込んだ歌唱音声データを所定タイミング(例えば一定周期)でサンプリングして解析することにより音高データD1を抽出する(S104)。本実施例では、例えば0.0375秒のサンプリング間隔を採用している。さらに、演奏データをデータバスを介してCPU14から受け取り、このデータ中のボーカルデータ中の音高データを採点基準データD2として取得する(S106)。
【0036】
次のステップS108では、歌唱音声データから抽出した音高データD1と、当該音高データD1が得られた歌唱タイミングに対応する採点基準データD2との差分Aを算出する。具体的には、音高データD1から採点基準データD2を減算した値の絶対値を差分Aとする。
【0037】
そして、予めCPU14によってEEPROM12から読み出されRAM28cに格納されている重み係数マップから、対応する重み係数を読み出し(S110)、その読み出した重み係数を差分Aに乗算する(S112)。ここで、重み係数マップについて図4(b)を参照して説明する。重み係数マップは、例えば4分音符、2分音符、8分音符……というように、演奏時に使用される音符の長さそれぞれに対応して設けられている。そして、MIDIデータにおいてはゲートタイムをクロック単位で示すため、図4(b)の横軸の時間はクロック単位である。本実施例の重み係数は次のように設定されている。図4(b)に示すように、クロックが0のとき重み係数は0である。そして、最初のt1クロック分の期間は、リニアに増加し、クロックがt1のとき重み係数も1となる。その後のt2クロック分の期間は重み係数は一定値1であり、その後のt3クロック分の期間はリニアに減少して0になる。ここで例えば、t1:t2:t3=1:4:1である。つまり、1音の内の先頭から6分の1の部分及び後端から先頭方向への6分の1の部分については、それらを除く他の部分、つまり中央部分よりも小さな値となっている。
【0038】
さらに、「対応する重み係数」について具体例を挙げて説明する。例えば、演奏速度が、1分間に4分音符を100個含めるような速度で規定される場合、4分音符1個に対する実(演奏)時間は60/100=0.6秒となる。そしてまた、MIDIデータにおいてはゲートタイムをクロック単位で示すことが一般的であるが、4分音符1個の演奏時間が48クロックで規定されているとすると、0.6/48=0.0125(秒)が1クロックに対応する実時間となる。これを用いて、実時間で規定されているサンプリング間隔をクロック単位に変換する。例えば上述のように0.0375秒というサンプリング間隔を採用していた場合、それは3クロックに相当する。ノートオン時(時刻0)を最初のサンプリングタイミングとすると、クロック単位で0,3,6,9,……,45に相当する時刻がサンプリングタイミングとなり、この場合は16個のサンプリングデータ(歌唱入力信号から抽出した音高データ)が得られる。例えば図4(a)はそのような16個のサンプリングデータが得られた状態を示している。したがって、このそれぞれのサンプリングデータを用いて得られた差分A(S108)に対して、図4(b)に示す重み係数マップから各クロック(つまり、0,3,6,9、……,45)に対応する重み係数を読み出して乗算し(S110,S112)、採点に用いるための音高差を得る。
【0039】
その後は、ノートオフか否か判断し(S114)、ノートオフでないならば(S114:NO)、音高差の和をとりRAM28cに記憶し(S116)、その後S102へ戻る。一方、ノートオフならば(S114:YES)、この1音に対する音高差の算出処理を終了する。このような処理が1音毎に実行される。
【0040】
なお、この場合の採点部28は、別途実行する採点処理において、1音毎に実行される図2の処理が終了した時点でRAM28cに記憶されている音高差に基づいて所定の得点を付ける。そして、1曲の演奏が終了したとき、RAM28cに蓄積された得点を採点結果として前記CPU14に転送し、表示装置26に表示させる。
【0041】
なお、上述したサンプリング間隔やMIDIデータにおける4分音符1個の演奏時間を示すクロック単位の数値はあくまで一例であり、図2のS108にて得られた差分Aに対応する重み係数を、図4(b)に示すような重み係数マップからどのように読み出すかを説明するためのものである。したがって、実際には、種々の具体的な数値での実施が可能である。
【0042】
このように、本実施例のカラオケ装置1a(他のカラオケ装置1b、1c…についても同様である。)によれば、次のような効果が得られる。
(1)カラオケ歌唱の採点に関し、より適切な採点結果を得ることができる。つまり、本実施例では、1音の全区間を採点対象としている。このように、採点対象を多くの区間に設定することは、適切な採点の面で有効である。なぜなら、1音に対する採点対象が例えば1点だけであると、その1点がたまたま採点基準と一致していると他が外れていても歌唱力が優良となり、逆にその1点がたまたま採点基準と外れているが他の部分は一致しているような場合であっても歌唱力が低いと判定されてしまうため、そのような偶然性を排除するために、1音に対する採点対象を多くの区間に設定しておくことが好ましいからである。
【0043】
しかし、全期間において何ら考慮せずに同じような採点を行うと種々の問題が生じる。例えば、ごく普通に歌唱していたとしても、各フレーズの歌い出し部分、各フレーズの渡りの部分、各フレーズの歌い終わりの部分に関しては、採点基準に対して差分が大きくなる。上述したように、このようなフレーズの開始部分や終了部分等においては、たとえプロ歌手であっても音が外れやすく、またその外れる量も大きいため、その部分を他の部分と同じように採点してしまうと、採点結果全体に与える悪影響が大きい。また、いわゆる「ため」、「しゃくりあげ」、「ビブラート」などの歌唱テクニックを使うと、実際には「上手く」歌っていたとしても、やはり採点基準に対して差分が大きくなって採点結果全体に対して悪影響を与えてしまう。
【0044】
それに対して本実施例の採点は、音高データD1と採点基準データD2との差分A(絶対値)に対して、1音の内の例えば先頭から6分の1の部分及び後端から先頭方向への6分の1の部分については、それらを除く他の部分、つまり中央部分よりも小さな値の重み係数を乗算し、その乗算後の音高差に基づいて採点を行うようにした。そのため、上述した悪影響を排除し、より適切な採点結果を得ることができるのである。
【0045】
(2)また、本実施例では、図4(b)に示すような重み係数マップを用いているため、次のような利点がある。この利点については、図4(d)に示す重み係数マップの別実施例との対比で説明する。
まず、図4(d)に示す重み係数マップの場合は、先頭近傍の所定部分(例えば先頭から6分の1の部分)及び後端近傍の所定部分(例えば後端から先頭方向への6分の1の部分)の重み係数を0としてある。そのため、この重み係数マップを用いれば、この部分において図2のS108における差分Aがいかに大きくても、S112にて重み係数0を乗算すれば、音高差は必ず0となり、悪影響を完全に排除できる。
【0046】
確かに、悪影響を排除する点では図4(d)のような重み係数マップは適切であるが、逆に言えば、その部分においても相対的に音の外れ度合いが少ない「歌唱が上手い人」がいた場合、その歌唱の上手さは採点に反映されなくなる。したがって、その部分における歌唱の上手さを多少なりとも採点に反映させるのであれば、上述した図4(b)に示すような重み係数マップのように、1音の先頭及び後端近傍の所定部分においても0でない値の重み係数を持つようにした方が好ましいと言える。
【0047】
なお、図4(b)に示す重み係数マップの変形例としては、例えば図4(c)に示す重み係数マップが考えられる。これは、先頭近傍の所定部分においては先頭からS字状に増加、すなわち先頭から徐々に増加した後に中央部分に向けて急激に増加するような非リニア的に増加し、後端近傍においては後端に向けて逆S字状に減少、すなわち中央部分より急激に減少した後に後端に向けて徐々に減少するような非リニア的に減少するような設定となっている。より先頭に近い側、あるいはより後端に近い側の方が音の外れ度合いが大きいと考えられるため、このような対処も好ましい。
【0048】
また、先頭から徐々に増加した後に中央部分に向けて急激に増加するような非リニア的な増加、あるいは中央部分より急激に減少した後に後端に向けて徐々に減少するような非リニア的な減少を実現する場合、上述したS字状の増加や逆S字状の減少に限らず、二次関数あるいは三次以上の関数的に増加あるいは減少するものであってもよいし、それら曲線的に増加・減少するものに限らず、例えば折れ線的に増加・減少するものであってもよい。つまり、直線的に増加し途中でその増加率が大きくなったり、逆に直線的に急激に減少し途中でその減少率が小さくなるようなものであってもよい。
【0049】
なお、本実施例においては、ハードディスク13が「曲データ記憶手段」に相当し、CPU14及び音源再生装置18等が「カラオケ演奏手段」に相当する。また、採点部28の採点用CPU28aが実行する処理のうち、図2に示すS104、S106、S108が「音高差算出手段」としての処理に実行に相当し、S110、S112が「重み係数乗算手段」としての処理の実行に相当する。
【0050】
以上実施例について説明したが、本発明は上記実施例に限定されるものではなく、種々の態様で実施し得る。そのいくつかを説明する。
(1)上記実施例では、図4に示すように、1音に対する重み係数の分布が対称形となるマップを用いた。つまり、図4(b)に示すように、中央部分よりも小さな重み係数となる先頭からt1(クロック)の期間と後端から先頭方向へのt3(クロック)の期間との関係がt1=t3であった。しかし、例えば図5(a)に示すように、t1>t3となるようなパターンの重み係数マップや、図5(b)に示すように、t1<t3となるようなパターンの重み係数マップを用いてもよい。この場合のt1:t2:t3についての具体例としては、例えば図5(a)に対応するものとしては、1)1.5:4:0.5、2)2:3.5:0.5、3)2:4:0といったものが考えられ、また図5(b)に対応するものとしては、4)0.5:4:1.5、5)0.5:3.5:2、6)0:4:2といったものが考えられる。もちろん、これらの具体的数値は一例である。
【0051】
(2)また、上記(1)のように、図4(b)に示す対称形状の重み係数マップに加えて、図5(a)(b)に示す非対称形状の重み係数マップを持ち、それら3パターンの重み係数マップを、指定されたカラオケ曲に応じて使い分けることも考えられる。
【0052】
例えば「ため」の場合は先頭近傍の所定部分において音高差が大きくなる傾向があり、「しゃくりあげ」、「ビブラート」では後端近傍の所定部分において音高差が大きくなる傾向がある。したがって、「ため」が頻繁に使用されそうな曲については図5(a)のパターン、「しゃくりあげ」、「ビブラート」が頻繁に使用されそうな曲については図5(b)のパターン、それ以外の曲については図4(b)のパターン、というようにカラオケ装置1aにて自動的に選択するようにしてもよい。具体的には、それら3パターンの重み係数マップを重み係数パターン記憶手段としてのEEPROM12に記憶しておく。そして、操作受け付け手段としての操作パネル10にカラオケ曲データに上記図4(b)、図5(a)、図5(b)のパターンを識別する情報を付加しておき、それを参照して選択することなどが考えられる。あるいはジャンルによる大まかな選択であってもよい。例えば演歌については「ビブラート」(あるいはそれに類似した「こぶし」)が頻繁に使用される可能性が高いため、上記図5(b)のパターンを選択する、といった対処である。
【0053】
一方、カラオケ装置1aが自動的に選択するのではなく、ユーザが選択できるようにしてもよい。つまり、操作受け付け手段としての操作パネル10を介してユーザからの操作を受け付けた場合、選択手段としてのCPU14が、その受け付けた操作に基づき、EEPROM12に記憶されている3パターンの重み係数マップの内のいずれかを選択し、その選択した重み係数マップを用いて重み係数の乗算を行うのである。たとえ原曲の歌手が「ため」、「しゃくりあげ」、「ビブラート」などの歌唱テクニックを用いていなくても、自分が歌う場合には、「ため」、「しゃくりあげ」、「ビブラート」といった歌唱テクニックを使ってしまうことも往々にしてある。したがって、そのようなユーザにとっては、このようにユーザが自分で選択できることは好ましい対処である。
【0054】
なお、選択候補のパターンとして3種類の場合を示したが、例えば図4(b)の対称形状のパターンに、上記(1)にて説明した1)6)の非対称形状のパターンを加えて6種類のパターンの重み係数マップをEEPROM12に記憶しておき、それらから選択できるようにしてもよい。
【0055】
(3)上記実施例では、CPU14とは別の採点部28により音高抽出手段及び採点手段を構成したが、それらの機能もCPU14によって実現してもよい。この場合、A/Dコンバータを介して歌唱音声データがCPU14に入力され、CPU14は、図2に示すフローチャートを実行することによって採点が可能となる。
【0056】
(4)上記実施例ではカラオケ装置1a(他のカラオケ装置1b、1c…についても同様である。)の本体に設けられた操作パネル10の操作部によって曲番号等を入力するようにしたが、例えば赤外線信号やBluetooth規格に基づく無線通信によって接続されたリモコンなどに上記操作ボタンを準備し、その操作に基づく選曲データをカラオケ装置本体側へ送信するような構成であってもよい。
【図面の簡単な説明】
【図1】実施例のカラオケ装置の概略構成を示すブロック図である。
【図2】実施例のカラオケ装置において実施される採点処理の内、音高データの一致度合いを判定するアルゴリズムを説明するフローチャートである。
【図3】歌唱音声から抽出した音高データD1と採点基準データD2に基づく採点方法の説明図である。
【図4】本実施例の判定手法の説明図である。
【図5】別実施例の判定手法の説明図である。
【符号の説明】
1…カラオケ装置、2…ホストコンピュータ、3…通信ネットワーク、10…操作パネル、12…EEPROM、13…ハードディスク、14…CPU、15…RAM、17…ネットワークインターフェース、18…音源再生装置、20…アンプ、22…スピーカ、23…マイクロフォン、24…映像再生装置、26…表示装置、28…採点部、28a…採点用CPU、28b…ROM、28c…RAM、28d…A/Dコンバータ。
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to singing scoring in a karaoke apparatus, and more particularly to a technique for obtaining a more appropriate scoring result.
[0002]
[Prior art]
  Conventionally, a scoring function is well known as an incidental function of a karaoke apparatus. This scoring function generates singing data indicating a singing state such as a pitch, volume or tempo uttered by a singer by sampling a singer's voice signal input from a microphone. The singing data is compared with scoring reference data such as main melody data in karaoke data, and a predetermined score is given based on the comparison result to generate scoring data. When the performance of the music is finished, the scores in the scoring data are totaled to calculate a total score. The total score is displayed as it is on a scoreboard or display, or a video reflecting the total score such as a video including a predetermined message or predetermined expression content is output to the display (for example, Patent Document 1, Patent Document) 2).
[0003]
  In the conventional singing scoring method, the superiority or inferiority of the singing ability is determined by the degree of coincidence of the singing state with the uniquely determined scoring standard. For example, if the degree of pitch coincidence is viewed, it is determined that the singing ability is excellent when the difference between the two pitches is as close to zero as possible. Here, when judging the coincidence degree of pitches, it is preferable that the scoring target for one sound is as many sections as possible. In other words, if there is only one scoring target for one sound, for example, if that point happens to match the scoring standard, the singing ability will be excellent even if the other is out of place, and conversely that one point happens to be scoring standard Even if the other parts match, it is determined that the singing ability is low. Therefore, in order to eliminate such chance, it is preferable to set the scoring target for one sound in many sections.
[0004]
[Patent Document 1]
  JP-A-11-305786
[Patent Document 2]
  Japanese Patent No. 2890659
[0005]
[Problems to be solved by the invention]
  However, since the scoring target for one sound is set in many sections, for example, when all the sections in one sound are scoring targets, the following inconvenience occurs. In other words, even if you sing very normally, for example, the singing part of each phrase, the transition part of each phrase, and the ending part of each phrase, the difference is large and the matching degree is low. There was. At the beginning and end of such a phrase, even if you are a professional singer, the sound is likely to come off, and the amount of removal is large, so if you score that part in the same way as other parts, The negative impact on the overall scoring results is significant. In other words, such a detachment of sound greatly influences the direction of lowering the scoring result because the amount of detachment is large when judged mechanically. In general, a person's evaluation of a determination result of singing ability is based on a normal judgment that a person listens to and feels "good or bad". Therefore, for singing that can be determined that a person is good, it is appropriate to lower the scoring evaluation due to short-term sound divergence such as the start part and end part of the phrase as described above. There is a problem from the viewpoint of evaluation.
[0006]
  In addition, when using singing techniques such as “for”, “shakuri-age”, “vibrato”, the difference between the singing part of each phrase, the transition part of each phrase, and the ending part of each phrase with respect to the scoring standard Is getting bigger. Therefore, “skilled” singers who can improve their scoring results if they sing normally without using such singing techniques can imitate the singer or add more singing techniques to the singing technique. Even in this case, the scoring evaluation is lowered for the above-mentioned reason.
[0007]
  Then, this invention relates to the singing score in a karaoke apparatus, It aims at enabling it to obtain a more suitable scoring result.
[0008]
[Means for Solving the Problems and Effects of the Invention]
  (1) The karaoke apparatus according to claim 1, which is made to solve the above-described problems, includes karaoke performance data for the song data storage means to play the karaoke song and pitch data of the singing melody of the karaoke song. The scoring reference data is stored, and the karaoke performance means reads the karaoke performance data of the designated karaoke song from the song data storage means and performs the karaoke performance. When a voice signal of karaoke singing is input via the voice signal input means, the pitch extraction means samples the voice signal and extracts pitch data of the karaoke singing. The scoring means reads out the scoring reference data corresponding to the performance song from the music data storage means in synchronization with the karaoke performance by the karaoke performance means, and the read scoring reference data and the pitch data extracted by the pitch extraction means, The following scoring is performed in more detail.
[0009]
  That is, the pitch difference calculating means includes a plurality of pitch data extracted by the pitch extracting means during the period in which the pitch data of the same pitch to be calculated in the scoring reference data continues, and song data storage means The difference with the corresponding pitch data in the scoring reference data read out from is calculated. Then, the weighting factor multiplication means is at least a predetermined portion near the beginning or a predetermined portion near the rear end in a period in which the pitch data of the same pitch continues with respect to the pitch difference calculated by the pitch difference calculating means. Either one is multiplied by a weighting coefficient that is smaller than the other part. In this way, scoring is performed using the pitch difference multiplied by the weighting coefficient by the weighting coefficient multiplying means.
[0010]
  By performing such scoring, a more appropriate scoring result can be obtained regarding singing scoring. The reason will be described.
  As described above, in order to set the scoring target for one sound in many sections, for example, when all the points during the period in which the pitch data of the same pitch as the calculation target in the scoring reference data continues are used as scoring targets, Various problems arise if the same scoring is performed without considering anything in these whole periods. For example, even if singing very normally, the difference between the singing part of each phrase, the transition part of each phrase, and the end part of the singing of each phrase becomes large with respect to the scoring standard. As described above, at the beginning and end of such a phrase, even if a professional singer, the sound is likely to come off, and the amount of the coming off is large, so the adverse effect on the entire scoring result is great. In addition, when using singing techniques such as so-called “for”, “screaming”, “vibrato”, even if you actually sing “successfully”, the difference is still larger than the scoring standard and Adversely affected.
[0011]
  Therefore, in the present invention, such a portion is multiplied by a weighting coefficient that is smaller than that of the other portions, and scoring is performed using the multiplied pitch difference, thereby eliminating adverse effects and more appropriate scoring. The result can be obtained.
  (2) Various ideas can be considered for the weighting factor multiplied by the weighting factor multiplication means.
[0012]
  For example, as shown in claim 2, it is conceivable that at least one of the predetermined portion near the head and the predetermined portion near the rear end is multiplied by a weight coefficient zero. In this way, the pitch difference in this portion is always zero, and adverse effects can be completely eliminated.
[0013]
  Further, as described in claim 3, it is conceivable that at least one of the predetermined portion near the head and the predetermined portion near the rear end is multiplied by a weighting factor that is greater than or equal to zero and smaller than the other portions. In this case, as shown in claim 4, it may be set to linearly increase from the beginning at a predetermined portion near the head and decrease linearly toward the rear end near the rear end.Yes.
[0014]
  When the weighting coefficient is set to zero as in claim 2, the pitch difference in this part is always zero and the adverse effect can be completely eliminated as described above. If there is a “person who is good at singing” whose sound does not deviate relatively, the skill of the singing will not be reflected in the scoring. Therefore, if the skill of singing in that part is reflected to some extent in the scoring, claim 3, 4It is preferable to set a non-zero coefficient such as
[0015]
  (3) Further, the method of setting the weighting coefficient may be fixed, but it may be properly used depending on the situation.
  For example, claims5As shown in Fig. 4, as the weighting factor, the weighting factors of multiple patterns with different length ratios of the predetermined part near the head, the predetermined part near the rear end, and the other parts in the period in which the pitch data of the same pitch continues Remember. Then, a corresponding weight coefficient pattern is selected from the weight coefficient pattern storage means in accordance with the designated karaoke piece, and the weight coefficient of the selected weight coefficient pattern is multiplied. Using singing techniques such as so-called `` for '', `` shaking '', `` vibrato '', there is a considerable difference with respect to the scoring standard for the singing part of each phrase, the transition part of each phrase, and the ending part of each phrase As described above, it becomes larger. Specifically, in the case of “for”, there is a tendency that the pitch difference is large in a predetermined portion near the head, and in “screaming” and “vibrato”, the pitch difference is likely to be large in a predetermined portion near the rear end. is there. So, for example,1)The predetermined part near the head is relatively long,2)A predetermined part near the rear end is relatively long, or3)Prepare a weighting factor pattern that has a predetermined length near the beginning and a length near the rear end (or you may add variations to these lengths). For songs that are likely to be used1)For songs that are likely to be frequently used2)About other patterns and other songs3)The pattern is automatically selected by the karaoke device. Specifically, the above karaoke song data1)~3)It is conceivable that information for identifying the pattern is added and selected with reference to the information. Alternatively, it may be a rough selection according to genre. For example, for enka, “vibrato” (or similar “fist”) is likely to be used frequently.2)Is to select a pattern.
[0016]
  Meanwhile, claims6Similarly, a plurality of patterns of weighting factors may be stored, and selection from among them may be left to the user's operation. That is, an operation from the user is accepted, and one of the stored weight coefficient patterns is selected based on the accepted operation. In this way, even if the original singer does not use singing techniques such as `` for '', `` screaming '', `` vibrato '', if singing, `` for '', `` shearing '', `` I often use singing techniques such as “Vibrato”. Therefore, as a countermeasure for such a user, it is effective to allow the user to make a selection by himself / herself.
[0017]
[0018]
DETAILED DESCRIPTION OF THE INVENTION
  Embodiments to which the present invention is applied will be described below with reference to the drawings. Needless to say, the embodiments of the present invention are not limited to the following examples, and can take various forms as long as they belong to the technical scope of the present invention.
[0019]
  FIG. 1 is a block diagram showing the configuration of the karaoke apparatus of the present embodiment. In this embodiment, a plurality of karaoke apparatuses 1a, 1b, 1c... Are connected to a local area network (LAN) 30 to constitute a karaoke system. The basic configuration is the same for all karaoke apparatuses 1, but only the karaoke apparatus 1 a can be connected to the host computer 2 via the communication network 3. The karaoke apparatus 1a can acquire music information and image information related to karaoke from the host computer 2 connected via the communication network 3. The music information and image information related to karaoke acquired by the karaoke apparatus 1a can be acquired by the other karaoke apparatuses 1b, 1c,.
[0020]
  The host computer 2 is accessible to the karaoke apparatus 1a via the communication network 3, and sends the song data such as the latest trendy songs to the karaoke apparatus 1a, and what kind of music is how many times. Relevant information including log data such as whether or not a performance has been performed can be received and managed from the karaoke apparatus 1a. In this case, “log data indicating what kind of music has been played and how many times” refers to log data of the entire karaoke system, not log data of the karaoke apparatus 1a alone. That is, log data in the other karaoke apparatuses 1b, 1c,... Is also collected in the karaoke apparatus 1a, and log data of the entire karaoke system is transmitted from the karaoke apparatus 1a to the host computer 2.
[0021]
  Further, the host computer 2 includes a database, and the database stores music information as content data used for music performance, image information such as background images or lyrics, and the like. Further, the host computer 2 stores a system program or the like upgraded in addition to the content data in a database, and can read it from the database at any time and transmit it to the karaoke apparatus 1.
[0022]
  Next, the configuration of the karaoke apparatus 1a will be described.
  As shown in FIG. 1, the karaoke device 1a includes a communication device 19 that is connected to a host computer 2 via a communication network 3 to transmit and receive various kinds of information, an operation panel 10 that performs song reservation, and the karaoke device 1a. CPU 14 as control means for controlling the entire system, RAM 15 for temporarily storing various information, sound source playback device 18 for playing back performance, amplifier 20 for amplifying electrical signals related to music information, and electrical signals from amplifier 20 , And a microphone 22 as an audio signal input means for inputting user's singing voice and the like into the amplifier 20, and microphone 23. The scoring unit 2 extracts the singing pitch by sampling and analyzing the singing voice input from the singer, and scores it in comparison with the scoring reference data , EEPROM 12 and hard disk 13 for storing karaoke music information, image information and other various data, video playback device 24 for visualizing image information, etc., display device for displaying background image and lyrics as image information 26 and a network interface 17 for connecting to the LAN 30. Among these, the operation panel 10, the EEPROM 12, the hard disk 13, the RAM 15, the network interface 17, the sound source playback device 18, the video playback device 24, and the scoring unit 28 are connected to the CPU 14.
[0023]
  The other karaoke devices 1b, 1c,... Are not provided with the communication device 19, but are provided with other configurations. Therefore, only the karaoke device 1a is described here, and the configurations of the other karaoke devices 1b, 1c,. The description about is omitted.
  The communication device 19 described above is a modem device that modulates and demodulates signals, and is configured to be accessible to the host computer 2 through the communication network 3 under the control of the CPU 14. Thereby, the communication device 19 can receive music data and the like sent from the host computer 2 via the communication network 3 and can transmit the related information to the host computer 2.
[0024]
  The operation panel 10 is operated by the user, and can be used to select an arbitrary song, adjust the key of the performance sound, adjust the volume balance between the performance and the song, and perform various adjustments such as echo, volume, and tone. For this purpose, an operation unit and a display unit (not shown) for displaying the selected song number and the like are provided. The user can reserve and register the music to be reproduced in the karaoke apparatus 1 by operating the operation unit.
[0025]
  The EEPROM 12 as a storage means stores a system program, setting data necessary for various settings, a weighting coefficient map (see FIG. 4) described later, and the like.
  The hard disk 13 serving as a storage unit stores content data such as music information and image information, log data such as performance records, and the like. When a song is selected via the operation unit of the operation panel 10, the CPU 14 calls the music information including the lyrics data, the image information including the video data, and the performance data from the hard disk 13, and the video playback device 24 and The sound is output in synchronization with the sound source reproduction device 18. The hard disk 13 stores performance data, lyrics data, etc. corresponding to the song number as identification information.
[0026]
  Thereafter, the performance data output from the CPU 14 is converted into an analog performance sound signal in the sound source reproduction device 18 and then sent to the amplifier 20 to be electrically amplified. The amplifier 20 mixes the singing sound signal of the user (singer) input via the microphone 23 with an appropriate ratio. The mixed singing sound signal and the performance sound signal are sent from the amplifier 20 to the speaker 22. And output as sound and performance sound from the speaker 22 to the outside.
[0027]
  On the other hand, the video reproduction device 24 reproduces an image based on image information read from the hard disk 13 under the control of the CPU 14. Thereby, the lyrics data and the video data output by the CPU 14 are reproduced and combined as a lyrics telop and a background video in the video playback device 24 so that the lyrics telop is displayed together with the background video on the screen of the display device 26. It has become.
[0028]
  With such a configuration, the user can sing using the microphone 23 in accordance with the karaoke performance that flows from the speaker 22 while referring to the lyrics telop displayed on the display device 26.
  Moreover, the karaoke apparatus 1a of a present Example is provided with the singing scoring function which scores the singing state of the person who is singing along with a karaoke performance, and outputs the scoring result. When the user wants to use the singing scoring function in the karaoke apparatus 1a, a predetermined operation key is pressed subsequently to a series of music numbers for performance reservation from the operation panel 10 such as a panel or a remote controller. Thereby, the music number to which the code | symbol which shows the operation | movement command of a song scoring function was added is transferred to CPU14. When the CPU 14 performs the musical performance process, the CPU 14 performs the musical performance reservation process to activate the singing scoring function. Of course, the singing scoring function may be activated by a charging procedure by the user. For example, the singing scoring function is activated by connecting a separate billing device to the karaoke device 1a and putting a predetermined fee into the billing device at an appropriate time, such as immediately before the music to be scored is played or during the performance of the prelude. You may comprise.
[0029]
  Singing is performed by the scoring unit 28 as pitch extraction means, pitch difference calculation means, and weight coefficient multiplication means. The scoring unit 28 includes a scoring CPU 28a, a ROM 28b, a RAM 28c, an A / D converter 28d, and the like. The A / D converter 28d is configured to receive a singing voice from the microphone 23. The scoring CPU 28a includes: Singing voice data output from the A / D converter 28d is sampled and analyzed to extract singing pitches, rhythms, and the like as scoring elements. On the other hand, performance data stored in the hard disk 13 is received via the data bus and the CPU 14, and vocal data (singing melody data) in this data is acquired as scoring reference data. And the scoring element by this acquired scoring reference data is compared with the scoring element extracted from the above-mentioned singing voice, and it is graded according to how close the singing voice data is to the vocal data. Note that this vocal data is also used in the case of realizing a function that is output from the speaker 22 together with the accompaniment music sound at a relatively small volume as a so-called guide melody function.
[0030]
  This scoring result data is stored in the RAM 28c. When the scoring CPU 28a detects the end point of the scoring section in the karaoke song, the scoring CPU 28a stops generating scoring data, totals the scoring data stored in the RAM 28c during the scoring section, transfers this to the CPU 14, and scores the result. Is displayed on the display device 26.
[0031]
  This is the description of the configuration and schematic operation for scoring. However, in the karaoke apparatus 1a of the present embodiment, when singing, in the range of a predetermined length at the beginning and the rear end of one sound (that is, the central portion) Appropriate scoring can be performed by applying a weighting factor with a smaller value than.
[0032]
  This is in view of the following problems. In other words, from the viewpoint of setting the scoring target for one sound in many sections, the scoring target may be all during the period in which the pitch data of the same pitch to be calculated in the scoring reference data continues. preferable. However, if you do the same scoring without considering anything during these whole periods, for example, even if you sing normally, the singing part of each phrase, the transition part of each phrase, the end of the singing of each phrase For the part, the difference is larger than the scoring standard. At the beginning and end of such a phrase, even if you are a professional singer, the sound is likely to come off, and the amount of removal is large, so if you score that part in the same way as other parts, The negative impact on the overall scoring results is significant. In addition, when using singing techniques such as so-called “for”, “screaming”, “vibrato”, even if you actually sing “successfully”, the difference is still larger than the scoring standard and Adversely affected.
[0033]
  Therefore, in this embodiment, such a portion (that is, a range of a predetermined length at the beginning and the rear end of one sound) is multiplied by a weighting coefficient that is smaller than 1, and the multiplied pitch difference is obtained. By using and scoring, adverse effects were eliminated and more appropriate scoring results were obtained.
[0034]
  The contents will be described with reference to FIGS. FIG. 2 is a flowchart for explaining an algorithm for determining the degree of coincidence of pitch data (calculating pitch difference) in the scoring process performed by the scoring CPU 28a of the scoring unit 28 in the embodiment. 3 is a schematic explanatory diagram of a scoring method based on pitch data D1 extracted from singing voice and scoring reference data D2. The pitch difference (absolute value) between the pitch data D1 and the scoring reference data D2 is calculated for each sound, and a predetermined score is given according to the obtained pitch difference. Therefore, the process of FIG. 2 is started by note-on of each sound.
[0035]
  When the processing of FIG. 2 starts, first, singing voice data input from the microphone 23 via the A / D converter 28d is captured (S102). Then, the pitch data D1 is extracted by sampling and analyzing the fetched singing voice data at a predetermined timing (for example, a constant cycle) (S104). In this embodiment, for example, a sampling interval of 0.0375 seconds is employed. Further, performance data is received from the CPU 14 via the data bus, and pitch data in the vocal data in this data is acquired as scoring reference data D2 (S106).
[0036]
  In the next step S108, a difference A between the pitch data D1 extracted from the singing voice data and the scoring reference data D2 corresponding to the singing timing at which the pitch data D1 was obtained is calculated. Specifically, the absolute value of the value obtained by subtracting the scoring reference data D2 from the pitch data D1 is defined as the difference A.
[0037]
  Then, the corresponding weighting factor is read from the weighting factor map previously read out from the EEPROM 12 by the CPU 14 and stored in the RAM 28c (S110), and the difference A is multiplied by the read weighting factor (S112). Here, the weight coefficient map will be described with reference to FIG. The weighting coefficient map is provided corresponding to the lengths of notes used during performance, such as quarter notes, half notes, eighth notes,... In MIDI data, since the gate time is indicated in clock units, the time on the horizontal axis in FIG. 4B is in clock units. The weighting factor of this embodiment is set as follows. As shown in FIG. 4B, the weighting factor is 0 when the clock is 0. Then, the period for the first t1 clock increases linearly, and the weighting coefficient becomes 1 when the clock is t1. The weighting coefficient is a constant value 1 during the subsequent t2 clock period, and the subsequent t3 clock period linearly decreases to zero. Here, for example, t1: t2: t3 = 1: 4: 1. In other words, the 1/6 portion from the beginning of the sound and the 1/6 portion from the back end to the beginning are smaller values than the other portions except the center, that is, the central portion. .
[0038]
  Further, the “corresponding weight coefficient” will be described with a specific example. For example, when the performance speed is defined at a speed that includes 100 quarter notes per minute, the actual (performance) time for one quarter note is 60/100 = 0.6 seconds. In MIDI data, the gate time is generally indicated in units of clocks. If the performance time of one quarter note is defined by 48 clocks, 0.6 / 48 = 0.0125. (Seconds) is the real time corresponding to one clock. Using this, the sampling interval defined in real time is converted into clock units. For example, when the sampling interval of 0.0375 seconds is adopted as described above, it corresponds to 3 clocks. When the note-on time (time 0) is the first sampling timing, the time corresponding to 0, 3, 6, 9,..., 45 is the sampling timing, and in this case, 16 sampling data (single input) Pitch data extracted from the signal). For example, FIG. 4A shows a state in which 16 pieces of sampling data are obtained. Therefore, with respect to the difference A (S108) obtained by using each sampling data, each clock (that is, 0, 3, 6, 9,..., 45) is obtained from the weighting coefficient map shown in FIG. ) Is read out and multiplied (S110, S112) to obtain a pitch difference for use in scoring.
[0039]
  Thereafter, it is determined whether or not the note is off (S114). If the note is not off (S114: NO), the sum of the pitch differences is taken and stored in the RAM 28c (S116), and then the process returns to S102. On the other hand, if the note is off (S114: YES), the pitch difference calculation process for one sound is terminated. Such processing is executed for each sound.
[0040]
  In this case, the scoring unit 28 assigns a predetermined score based on the pitch difference stored in the RAM 28c at the time when the processing of FIG. . Then, when the performance of one song is finished, the score stored in the RAM 28c is transferred to the CPU 14 as a scoring result and displayed on the display device 26.
[0041]
  Note that the above-described sampling interval and the numerical value in clock units indicating the performance time of one quarter note in the MIDI data are merely examples, and the weighting coefficient corresponding to the difference A obtained in S108 of FIG. This is for explaining how to read from the weighting coefficient map as shown in FIG. Therefore, in practice, implementation with various specific numerical values is possible.
[0042]
  Thus, according to the karaoke apparatus 1a of the present embodiment (the same applies to the other karaoke apparatuses 1b, 1c...), The following effects can be obtained.
  (1) More appropriate scoring results can be obtained for karaoke singing. In other words, in this embodiment, all sections of one sound are scored. In this way, setting the scoring targets in many sections is effective in terms of appropriate scoring. Because, if there is only one scoring target for one sound, for example, if that one point happens to coincide with the scoring standard, the singing ability will be excellent even if the other is out of place, and conversely that one point happens to be the scoring standard In order to eliminate such chances, the scoring target for one sound is divided into many sections. It is because it is preferable to set to.
[0043]
  However, various problems arise if the same scoring is performed without considering anything in the entire period. For example, even when singing very normally, the difference between the singing part of each phrase, the transition part of each phrase, and the end part of the singing of each phrase is larger than the scoring standard. As mentioned above, even at the beginning and end of such a phrase, even a professional singer can easily miss the sound, and the amount of removal is large, so that part is scored in the same way as other parts. If this happens, the negative impact on the overall scoring results will be significant. In addition, when using singing techniques such as so-called “for”, “shakuriage”, “vibrato”, even if you actually sing “successfully”, the difference is still larger than the scoring standard and the overall scoring result Adversely affected.
[0044]
  On the other hand, the scoring of the present embodiment is, for example, a one-sixth part from the head and the head from the rear end with respect to the difference A (absolute value) between the pitch data D1 and the scoring reference data D2. For the one-sixth part in the direction, the weighting coefficient having a smaller value than that of the other part, that is, the central part is multiplied, and scoring is performed based on the pitch difference after the multiplication. Therefore, the above-described adverse effects can be eliminated and a more appropriate scoring result can be obtained.
[0045]
  (2) Further, in this embodiment, since the weight coefficient map as shown in FIG. 4B is used, the following advantages are obtained. This advantage will be described in comparison with another embodiment of the weighting coefficient map shown in FIG.
  First, in the case of the weighting coefficient map shown in FIG. 4D, a predetermined portion near the head (for example, one sixth from the head) and a predetermined portion near the rear end (for example, six minutes from the rear end toward the head). The weight coefficient of 1 part) is set to 0. Therefore, if this weighting coefficient map is used, no matter how large the difference A in S108 in FIG. 2 is, if the weighting coefficient 0 is multiplied in S112, the pitch difference is always 0, and the adverse effect is completely eliminated. it can.
[0046]
  Certainly, the weighting coefficient map as shown in FIG. 4 (d) is appropriate in terms of eliminating adverse effects, but conversely, “the person who is good at singing” has a relatively low degree of sound deviation even in that portion. If there is, the skill of the singing will not be reflected in the scoring. Therefore, if the skill of singing in that part is reflected to some extent in the scoring, a predetermined part in the vicinity of the beginning and the rear end of one note as shown in the weight coefficient map as shown in FIG. It can be said that it is preferable to have a non-zero value of the weight coefficient.
[0047]
  As a modification of the weight coefficient map shown in FIG. 4B, for example, the weight coefficient map shown in FIG. 4C can be considered. This increases in a non-linear manner such that it increases in an S-shape from the top in a predetermined portion near the top, that is, increases gradually from the top and then increases rapidly toward the center, and in the vicinity near the rear end. It is set to decrease in a non-linear manner such that it decreases in an inverted S shape toward the end, that is, decreases rapidly from the central portion and then gradually decreases toward the rear end. Since it is considered that the side closer to the head or the side closer to the rear end has a greater degree of sound divergence, such a countermeasure is also preferable.
[0048]
  In addition, a non-linear increase that gradually increases from the beginning and then increases sharply toward the center portion, or a non-linear increase that decreases rapidly from the center portion and then gradually decreases toward the rear end. In the case of realizing the decrease, the increase is not limited to the above-described S-shaped increase or inverse S-shaped decrease, but may be a function that increases or decreases by a quadratic function or a function of a cubic or higher, or a curve thereof. It is not limited to increasing / decreasing, and may be increasing / decreasing in a polygonal line, for example. That is, it may increase linearly and increase in the middle, or conversely decrease linearly and decrease in the middle.
[0049]
  In this embodiment, the hard disk 13 corresponds to “music data storage means”, and the CPU 14 and the sound source reproduction device 18 correspond to “karaoke performance means”. Of the processes executed by the scoring CPU 28a of the scoring unit 28, S104, S106, and S108 shown in FIG. 2 correspond to execution as “pitch difference calculating means”, and S110 and S112 are “weight coefficient multiplication”. This corresponds to execution of processing as “means”.
[0050]
  Although the embodiments have been described above, the present invention is not limited to the above embodiments and can be implemented in various modes. Some of them will be explained.
  (1) In the above embodiment, as shown in FIG. 4, a map is used in which the distribution of weighting coefficients for one sound is symmetrical. That is, as shown in FIG. 4B, the relationship between the period from the beginning t1 (clock) and the period from the rear end to the beginning t3 (clock), which is a smaller weighting coefficient than the central portion, is t1 = t3. Met. However, for example, as shown in FIG. 5A, a pattern weight coefficient map such that t1> t3, or a pattern weight coefficient map such that t1 <t3 as shown in FIG. It may be used. As a specific example of t1: t2: t3 in this case, for example, as corresponding to FIG.1)1.5: 4: 0.5,2)2: 3.5: 0.5,3)2: 4: 0 can be considered, and the one corresponding to FIG.4)0.5: 4: 1.5,5)0.5: 3.5: 2,6)0: 4: 2 is possible. Of course, these specific numerical values are examples.
[0051]
  (2) Also, as in (1) above, in addition to the symmetrical weighting factor map shown in FIG. 4 (b), it has the asymmetrical weighting factor map shown in FIGS. 5 (a) and 5 (b). It is also conceivable to use the three patterns of weighting coefficient maps in accordance with designated karaoke songs.
[0052]
  For example, in the case of “for”, the pitch difference tends to be large in a predetermined portion near the head, and in “screaming” and “vibrato”, the pitch difference tends to be large in a predetermined portion near the rear end. Accordingly, the pattern shown in FIG. 5 (a) is used for songs that are likely to be used for “for”, the pattern shown in FIG. The tune may be automatically selected by the karaoke apparatus 1a as shown in the pattern of FIG. Specifically, these three patterns of weight coefficient maps are stored in the EEPROM 12 as weight coefficient pattern storage means. Then, information identifying the patterns shown in FIGS. 4 (b), 5 (a) and 5 (b) is added to the karaoke song data on the operation panel 10 serving as an operation accepting means. It is conceivable to choose. Alternatively, it may be a rough selection according to genre. For example, since there is a high possibility that “vibrato” (or “fist” similar to it) ”is frequently used for enka, it is a countermeasure such as selecting the pattern shown in FIG.
[0053]
  On the other hand, the karaoke apparatus 1a may not be automatically selected but may be selected by the user. That is, when an operation from the user is accepted via the operation panel 10 as the operation accepting means, the CPU 14 as the selecting means, among the three patterns of weight coefficient maps stored in the EEPROM 12, based on the accepted operation. Is selected, and the selected weighting factor map is used to multiply the weighting factor. Even if the original singer doesn't use singing techniques such as "Take", "Sharukuri", "Vibrato", etc. I often use it. Therefore, for such a user, it is a preferable countermeasure that the user can select by himself / herself.
[0054]
  Although three types of selection candidate patterns are shown, for example, the symmetrical pattern in FIG. 4B has been described in (1) above.1)~6)The weight coefficient map of six types of patterns may be stored in the EEPROM 12 in addition to the asymmetric shape pattern, and may be selected from them.
[0055]
  (3) In the above embodiment, the pitch extraction unit and the scoring unit are configured by the scoring unit 28 different from the CPU 14, but these functions may also be realized by the CPU 14. In this case, the singing voice data is input to the CPU 14 via the A / D converter, and the CPU 14 can score by executing the flowchart shown in FIG.
[0056]
  (4) In the above embodiment, the song number and the like are input by the operation unit of the operation panel 10 provided in the main body of the karaoke apparatus 1a (the same applies to the other karaoke apparatuses 1b, 1c...) For example, the operation button may be prepared in a remote controller connected by an infrared signal or wireless communication based on the Bluetooth standard, and music selection data based on the operation may be transmitted to the karaoke apparatus main body side.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a schematic configuration of a karaoke apparatus according to an embodiment.
FIG. 2 is a flowchart for explaining an algorithm for determining a matching degree of pitch data in the scoring process performed in the karaoke apparatus according to the embodiment.
FIG. 3 is an explanatory diagram of a scoring method based on pitch data D1 extracted from singing voice and scoring reference data D2.
FIG. 4 is an explanatory diagram of a determination method according to this embodiment.
FIG. 5 is an explanatory diagram of a determination method according to another embodiment.
[Explanation of symbols]
  DESCRIPTION OF SYMBOLS 1 ... Karaoke apparatus, 2 ... Host computer, 3 ... Communication network, 10 ... Operation panel, 12 ... EEPROM, 13 ... Hard disk, 14 ... CPU, 15 ... RAM, 17 ... Network interface, 18 ... Sound source reproduction apparatus, 20 ... Amplifier , 22 ... speaker, 23 ... microphone, 24 ... video reproduction device, 26 ... display device, 28 ... scoring unit, 28a ... scoring CPU, 28b ... ROM, 28c ... RAM, 28d ... A / D converter.

Claims (6)

カラオケ曲を演奏するためのカラオケ演奏データ及びそのカラオケ曲の歌唱旋律の音高データを含む採点基準データを記憶する曲データ記憶手段と、
指定されたカラオケ曲のカラオケ演奏データを前記曲データ記憶手段から読み出してカラオケ演奏を行なうカラオケ演奏手段と、
カラオケ歌唱の音声信号を入力するための音声信号入力手段と、
前記音声信号入力手段を介して入力された音声信号をサンプリングしてカラオケ歌唱の音高データを抽出する音高抽出手段と、
前記カラオケ演奏手段によるカラオケ演奏と同期してその演奏曲に対応する前記採点基準データを前記曲データ記憶手段から読み出し、その読み出した採点基準データと前記音高抽出手段によって抽出した音高データとに基づいて採点する採点手段と、
を備えるカラオケ装置であって、
前記採点手段は、
前記採点基準データ中の算出対象となる同一音高の音高データが継続する期間中に前記音高抽出手段によって抽出された複数の音高データと、前記曲データ記憶手段から読み出した採点基準データ中における対応する音高データとの差を算出する音高差算出手段と、
前記音高差算出手段によって算出された音高差に対して、前記同一音高の音高データが継続する期間における先頭近傍の所定部分又は後端近傍の所定部分の少なくともいずれか一方については、前記所定部分を除く他の部分よりも小さな値となる重み係数を乗算する重み係数乗算手段と、
を有し、前記重み係数乗算手段によって重み係数の乗算された前記音高差を用いて採点を行う
カラオケ装置。
Song data storage means for storing scoring reference data including karaoke performance data for playing a karaoke song and pitch data of the singing melody of the karaoke song;
Karaoke performance means for reading out karaoke performance data of a designated karaoke song from the song data storage means and performing karaoke performance;
An audio signal input means for inputting an audio signal of karaoke singing;
A pitch extraction means for sampling the voice signal input through the voice signal input means and extracting pitch data of the karaoke song;
The scoring reference data corresponding to the performance song is read from the song data storage means in synchronization with the karaoke performance by the karaoke performance means, and the read scoring reference data and the pitch data extracted by the pitch extraction means are read out. Scoring means for scoring based on;
A karaoke device comprising:
The scoring means is
A plurality of tone pitch data extracted by the pitch extracting means during a period in which the same pitch of the tone pitch data to be calculated out target in the scoring criteria data continues, scoring criteria read out from the music data storage unit A pitch difference calculating means for calculating a difference from corresponding pitch data in the data;
With respect to the pitch difference calculated by the pitch difference calculating means, at least one of the predetermined portion near the beginning and the predetermined portion near the rear end in the period in which the pitch data of the same pitch continues. Weight coefficient multiplication means for multiplying a weight coefficient that is a smaller value than other parts excluding the predetermined part;
A karaoke apparatus for scoring using the pitch difference multiplied by the weighting coefficient by the weighting coefficient multiplication means.
請求項1に記載のカラオケ装置において、
前記重み係数乗算手段は、前記先頭近傍の所定部分又は後端近傍の所定部分の少なくともいずれか一方については、重み係数零を乗算する
カラオケ装置。
The karaoke apparatus according to claim 1,
The karaoke apparatus, wherein the weight coefficient multiplying unit multiplies at least one of the predetermined part near the head and the predetermined part near the rear end by a weight coefficient zero.
請求項1に記載のカラオケ装置において、
前記重み係数乗算手段は、前記先頭近傍の所定部分又は後端近傍の所定部分の少なくともいずれか一方については、零以上且つ前記所定部分を除く他の部分の値よりも小さな重み係数を乗算する
カラオケ装置。
The karaoke apparatus according to claim 1,
The weighting factor multiplication means multiplies at least one of the predetermined part near the head and the predetermined part near the rear end by a weighting factor that is greater than or equal to zero and smaller than the value of the other part excluding the predetermined part. apparatus.
請求項3に記載のカラオケ装置において、
前記重み係数乗算手段によって乗算される、前記零以上且つ前記所定部分を除く他の部分よりも小さな重み係数は、前記先頭近傍の所定部分においては先頭からリニアに増加し、後端近傍においては後端に向けてリニアに減少するよう設定されている
カラオケ装置。
The karaoke apparatus according to claim 3,
The weighting coefficient multiplied by the weighting factor multiplication means is greater than zero and smaller than the other parts excluding the predetermined part, increases linearly from the head in the predetermined part near the head and rearward in the vicinity of the rear end. Karaoke equipment that is set to decrease linearly toward the edge.
請求項1〜の何れかに記載のカラオケ装置において、
前記重み係数乗算手段における乗算に用いられる重み係数として、前記同一音高の音高データが継続する期間における先頭近傍の所定部分、前記後端近傍の所定部分及びそれ以外の部分の長さの割合が異なる複数パターンの重み係数を記憶している重み係数パターン記憶手段と、
指定されたカラオケ曲に応じて、前記重み係数パターン記憶手段から対応する重み係数パターンを選択する選択手段とを備え、
前記重み係数乗算手段は、前記選択手段によって選択された重み係数パターンの重み係数を乗算する
カラオケ装置。
In the karaoke apparatus in any one of Claims 1-4 ,
As a weighting factor used for multiplication in the weighting factor multiplication means, the ratio of the length of the predetermined portion near the head, the predetermined portion near the rear end, and the length of the other portion during the period in which the pitch data of the same pitch continues Weight coefficient pattern storage means for storing a plurality of patterns of different weight coefficients,
Selecting means for selecting a corresponding weight coefficient pattern from the weight coefficient pattern storage means according to the designated karaoke song,
The karaoke apparatus, wherein the weight coefficient multiplication means multiplies the weight coefficient of the weight coefficient pattern selected by the selection means.
請求項1〜の何れかに記載のカラオケ装置において、
前記重み係数乗算手段における乗算に用いられる重み係数として、前記同一音高の音高データが継続する期間における先頭近傍の所定部分、前記後端近傍の所定部分及びそれ以外の部分の長さの割合が異なる複数パターンの重み係数を記憶している重み係数パターン記憶手段と、
ユーザからの操作を受け付ける操作受け付け手段と、
前記操作受け付け手段によって受け付けた操作に基づき、前記重み係数パターン記憶手段に記憶されている重み係数パターンの中からいずれかを選択する選択手段とを備え、
前記重み係数乗算手段は、前記選択手段によって選択された重み係数パターンの重み係数を乗算する
カラオケ装置。
In the karaoke apparatus in any one of Claims 1-4 ,
As a weighting factor used for multiplication in the weighting factor multiplication means, the ratio of the length of the predetermined portion near the head, the predetermined portion near the rear end, and the length of the other portion during the period in which the pitch data of the same pitch continues Weight coefficient pattern storage means for storing a plurality of patterns of different weight coefficients,
Operation accepting means for accepting an operation from the user;
Selection means for selecting any one of the weighting coefficient patterns stored in the weighting coefficient pattern storage means based on the operation received by the operation receiving means;
The karaoke apparatus, wherein the weight coefficient multiplication means multiplies the weight coefficient of the weight coefficient pattern selected by the selection means.
JP2002348265A 2002-11-29 2002-11-29 Karaoke equipment Expired - Lifetime JP4110951B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002348265A JP4110951B2 (en) 2002-11-29 2002-11-29 Karaoke equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002348265A JP4110951B2 (en) 2002-11-29 2002-11-29 Karaoke equipment

Publications (2)

Publication Number Publication Date
JP2004184506A JP2004184506A (en) 2004-07-02
JP4110951B2 true JP4110951B2 (en) 2008-07-02

Family

ID=32751223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002348265A Expired - Lifetime JP4110951B2 (en) 2002-11-29 2002-11-29 Karaoke equipment

Country Status (1)

Country Link
JP (1) JP4110951B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4855980B2 (en) * 2007-03-13 2012-01-18 ヤマハ株式会社 Karaoke apparatus, singing evaluation method and program
JP5712669B2 (en) * 2011-02-24 2015-05-07 ヤマハ株式会社 Singing voice evaluation device
JP5200144B2 (en) * 2011-09-02 2013-05-15 ヤマハ株式会社 Karaoke equipment
JP6514874B2 (en) * 2014-10-03 2019-05-15 株式会社第一興商 Karaoke scoring device that compares the pitch difference of the reference with the pitch difference of the singing voice and performs scoring
CN113823270B (en) * 2021-10-28 2024-05-03 杭州网易云音乐科技有限公司 Determination method, medium, device and computing equipment of rhythm score

Also Published As

Publication number Publication date
JP2004184506A (en) 2004-07-02

Similar Documents

Publication Publication Date Title
JP3293745B2 (en) Karaoke equipment
CN1750116B (en) Automatic rendition style determining apparatus and method
JP4163584B2 (en) Karaoke equipment
JP3509545B2 (en) Performance information evaluation device, performance information evaluation method, and recording medium
JP3452792B2 (en) Karaoke scoring device
JP4110951B2 (en) Karaoke equipment
JP4222915B2 (en) Singing voice evaluation device, karaoke scoring device and programs thereof
JP2006251697A (en) Karaoke device
JP4182613B2 (en) Karaoke equipment
JP4036952B2 (en) Karaoke device characterized by singing scoring system
JP2008003483A (en) Karaoke device
JP4008562B2 (en) A karaoke device characterized by a singer&#39;s original grading system
JP5969421B2 (en) Musical instrument sound output device and musical instrument sound output program
JP4038471B2 (en) Singing ability examination entry system
JP4135461B2 (en) Karaoke device, program and recording medium
JP2002073058A (en) Sing-along machine
US6201177B1 (en) Music apparatus with automatic pitch arrangement for performance mode
JP2005107332A (en) Karaoke machine
JPH1026992A (en) Karaoke device
JP2000330580A (en) Karaoke apparatus
JPH1069216A (en) Karaoke sing-alone machine
JP3834963B2 (en) Voice input device and method, and storage medium
JP5847049B2 (en) Instrument sound output device
JP4108850B2 (en) Method for estimating standard calorie consumption by singing and karaoke apparatus
JP2007233078A (en) Evaluation device, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080331

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110418

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120418

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120418

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130418

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130418

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140418

Year of fee payment: 6