JP2008286946A - データ再生装置、データ再生方法およびプログラム - Google Patents

データ再生装置、データ再生方法およびプログラム Download PDF

Info

Publication number
JP2008286946A
JP2008286946A JP2007130853A JP2007130853A JP2008286946A JP 2008286946 A JP2008286946 A JP 2008286946A JP 2007130853 A JP2007130853 A JP 2007130853A JP 2007130853 A JP2007130853 A JP 2007130853A JP 2008286946 A JP2008286946 A JP 2008286946A
Authority
JP
Japan
Prior art keywords
data
processing
information
time
machining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007130853A
Other languages
English (en)
Other versions
JP5151245B2 (ja
Inventor
Takaya Kakizaki
貴也 柿崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2007130853A priority Critical patent/JP5151245B2/ja
Publication of JP2008286946A publication Critical patent/JP2008286946A/ja
Application granted granted Critical
Publication of JP5151245B2 publication Critical patent/JP5151245B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

【課題】ライブ演奏のように楽曲のテンポの変動があっても、楽曲の流れにあわせた映像データの再生を簡単に行うことができるとともに、再生するデータを楽曲に応じて加工したり、通信網を介して取得したりすることもできるデータ再生装置、データ再生方法およびプログラムを提供すること。
【解決手段】本発明のデータ再生装置を有する映像表示装置は、同期情報に基づいて、データ読出部103が歌詞データ、楽譜加工データを読み出すことにより、ライブ演奏のように楽曲のテンポの変動があっても、楽曲の流れにあわせて事前に準備したデータを再生することができる。また、楽譜映像は、加工情報に基づいて加工された楽譜加工データによって生成された楽譜映像データに係る映像であるから、同じ楽曲でも和音コードの用い方が異なるなどして演奏が異なる場合に、当該異なった演奏にあわせた映像とすることができる。
【選択図】図3

Description

本発明は、入力されたデータと同期して、他のデータを再生する技術に関する。
一般的なカラオケ装置においては、例えば、MIDI(Musical Instrument Digital Interface)形式の伴奏用データ、楽曲の歌詞テロップを表示するシーケンスデータである歌詞データおよび映像データなどから構成された楽曲データをそれぞれ同期させて再生することにより、利用者はその楽曲のカラオケを楽しむことができる。特許文献1には、伴奏データと映像データを別個にサーバから受信してそれらを同期させて再生させる技術が開示されている。また、特許文献2においては、ライブ演奏のような臨場感のあるカラオケ演奏を提供する技術が開示されている。
また、歌詞を表示させる技術は、カラオケ装置だけで用いられるわけではなく、テレビ放送などにおける歌番組においても用いられている。また、テレビ放送においては、生放送の歌番組などで歌手が歌唱に合わせて歌詞テロップを表示する場合、オペレータが楽曲の進行にあわせて、所定のタイミングで歌詞を表示させるようにしている。
特開2003−15675号公報 特開2000−347676号公報
しかし、特許文献1に開示された技術を用いる場合には、伴奏データはMIDI形式のデータの再生であるため、MIDI形式のデータを再生できる音源を用いた再生のため、音質が劣る場合や、テンポが単調な演奏となってしまう場合があった。また、特許文献2に開示された技術の場合には、ライブ演奏のような臨場感が得られるが、楽曲の進行が単調ではないため、歌詞テロップを表示させるためなどのシーケンスデータについては、楽曲の進行に合わせて事前に作成しておく必要があった。また、ライブ演奏の場合には、演奏者によっては、演奏をアレンジしたり、歌詞を変えたりして、多様な演奏となることがあり、それぞれの演奏に合わせたシーケンスデータを全て用意しておく必要があった。さらに、テレビ放送などにおいて上述したようなオペレータの作業は、本番においてミスは許されず、事前に楽曲の進行と歌詞の表示を行うタイミングとを合わせる練習をしておく必要があり、非常に負担が大きかった。
本発明は、上述の事情に鑑みてなされたものであり、ライブ演奏のように楽曲のテンポの変動があっても、楽曲の流れにあわせたデータの再生を簡単に行うことができるとともに、再生するデータを楽曲に応じて加工したり、通信網を介して取得したりすることもできるデータ再生装置、データ再生方法およびプログラムを提供することを目的とする。
上述の課題を解決するため、本発明は、データ各部についての時刻を規定する時刻情報を有した第1のデータを取得するデータ取得手段と、前記第1のデータの加工内容を示す加工情報を取得する加工情報取得手段と、前記加工情報に基づいて、前記データ取得手段が取得した第1のデータのデータ各部または時刻情報の一部を加工して加工データを生成する加工データ生成手段と、前記加工データ生成手段が生成した加工データを記憶する加工データ記憶手段と、データの読み出し時刻を示す同期情報を取得する同期情報取得手段と、前記同期情報と前記加工データの時刻情報との対応関係に基づいて、前記加工データ記憶手段から加工データを読み出すデータ読出手段と、外部から供給される第2のデータを所定量遅延させる遅延手段とを具備することを特徴とするデータ再生装置を提供する。
また、別の好ましい態様において、前記加工情報取得手段は、外部機器からの通信によって加工情報を受信して取得してもよい。
また、別の好ましい態様において、前記加工情報を記憶する加工情報記憶手段をさらに具備し、前記加工情報取得手段は、前記加工情報記憶手段から加工情報を読み出して取得してもよい。
また、別の好ましい態様において、前記データ取得手段は、外部機器からの通信によって前記第1のデータを受信して取得してもよい。
また、別の好ましい態様において、前記第1のデータを記憶する第1のデータ記憶手段をさらに具備し、前記データ取得手段は、前記第1のデータ記憶手段から第1のデータを読み出して取得してもよい。
また、本発明は、データ各部についての時刻を規定する時刻情報を有した第1のデータと、前記第1のデータの加工内容を示す加工情報とを有し、前記加工情報に基づいて第1のデータのデータ各部または時刻情報の一部を加工して加工データを生成する外部機器からの通信によって、前記加工データを受信する加工データ受信手段と、前記加工データ受信手段が受信した加工データを記憶する加工データ記憶手段と、データの読み出し時刻を示す同期情報を取得する同期情報取得手段と、前記同期情報と前記加工データの時刻情報との対応関係に基づいて、前記加工データ記憶手段から加工データを読み出すデータ読出手段と、外部から供給される第2のデータを所定量遅延させる遅延手段とを具備することを特徴とするデータ再生装置を提供する。
また、別の好ましい態様において、リファレンスデータを記憶するリファレンスデータ記憶手段と、前記外部から供給される第2のデータと前記リファレンスデータとを所定時間長のフレーム単位で対応付けて、対応する部分についての時刻を示す同期情報を生成するタイムアライメント手段とをさらに具備し、前記同期情報取得手段は、前記タイムアライメント手段によって生成された同期情報を取得してもよい。
また、別の好ましい態様において、前記データ読出手段によって読み出された加工データに基づいて映像データを生成する映像データ生成手段をさらに具備してもよい。
また、別の好ましい態様において、データ各部についての時刻を規定する時刻情報を有した第3のデータを記憶する第3のデータ記憶手段をさらに具備し、前記データ読出手段は、前記同期情報と前記加工データの時刻情報との対応関係に基づいて、前記加工データ記憶手段から加工データを読み出すとともに、前記第3のデータ記憶手段から第3のデータを読み出し、前記映像データ生成手段は、前記データ読出手段によって読み出された加工データと第3のデータとに基づいて映像データを生成してもよい。
また、本発明は、データ各部についての時刻を規定する時刻情報を有した第1のデータを取得するデータ取得過程と、前記第1のデータの加工内容を示す加工情報を取得する加工情報取得過程と、前記加工情報に基づいて、前記データ取得過程において取得した第1のデータのデータ各部または時刻情報の一部を加工して加工データを生成する加工データ生成過程と、前記加工データ生成過程において生成した加工データを記憶する加工データ記憶過程と、データの読み出し時刻を示す同期情報を取得する同期情報取得過程と、前記同期情報と前記加工データの時刻情報との対応関係に基づいて、前記加工データ記憶過程において記憶した加工データを読み出すデータ読出過程と、外部から供給される第2のデータを所定量遅延させる遅延過程とを具備することを特徴とするデータ再生方法を提供する。
また、本発明は、データ各部についての時刻を規定する時刻情報を有した第1のデータと、前記第1のデータの加工内容を示す加工情報とを有し、前記加工情報に基づいて第1のデータのデータ各部または時刻情報の一部を加工して加工データを生成する外部機器からの通信によって、前記加工データを受信する加工データ受信過程と、前記加工データ受信過程において受信した加工データを記憶する加工データ記憶過程と、データの読み出し時刻を示す同期情報を取得する同期情報取得過程と、前記同期情報と前記加工データの時刻情報との対応関係に基づいて、前記加工データ記憶過程において記憶した加工データを読み出すデータ読出過程と、外部から供給される第2のデータを所定量遅延させる遅延過程とを具備することを特徴とするデータ再生方法を提供する。
また、本発明は、コンピュータに、データ各部についての時刻を規定する時刻情報を有した第1のデータを取得するデータ取得機能と、前記第1のデータの加工内容を示す加工情報を取得する加工情報取得機能と、前記加工情報に基づいて、前記データ取得機能において取得した第1のデータのデータ各部または時刻情報の一部を加工して加工データを生成する加工データ生成機能と、前記加工データ生成過程において生成した加工データを記憶する加工データ記憶機能と、データの読み出し時刻を示す同期情報を取得する同期情報取得機能と、前記同期情報と前記加工データの時刻情報との対応関係に基づいて、前記加工データ記憶機能において記憶した加工データを読み出すデータ読出機能と、外部から供給される第2のデータを所定量遅延させる遅延機能とを実現させるためのプログラムを提供する。
また、本発明は、コンピュータに、データ各部についての時刻を規定する時刻情報を有した第1のデータと、前記第1のデータの加工内容を示す加工情報とを有し、前記加工情報に基づいて第1のデータのデータ各部または時刻情報の一部を加工して加工データを生成する外部機器からの通信によって、前記加工データを受信する加工データ受信機能と、前記加工データ受信機能において受信した加工データを記憶する加工データ記憶機能と、データの読み出し時刻を示す同期情報を取得する同期情報取得機能と、前記同期情報と前記加工データの時刻情報との対応関係に基づいて、前記加工データ記憶機能において記憶した加工データを読み出すデータ読出機能と、外部から供給される第2のデータを所定量遅延させる遅延機能とを実現させるためのプログラムを提供する。
本発明によれば、ライブ演奏のように楽曲のテンポの変動があっても、楽曲の流れにあわせたデータの再生を簡単に行うことができるとともに、再生するデータを楽曲に応じて加工したり、通信網を介して取得したりすることもできるデータ再生装置、データ再生方法およびプログラムを提供することができる。
以下、本発明の一実施形態について説明する。
<実施形態>
本発明の実施形態に係る映像表示装置1は、図1に示すように、通信網100を介してサーバ2とデータの送受信を行う。図2は、本発明の本実施形態に係るデータ再生装置を有する映像表示装置1のハードウエアの構成を示すブロック図である。
CPU(Central Processing Unit)11は、ROM(Read Only Memory)12に記憶されているプログラムを読み出して、RAM(Random Access Memory)13にロードして実行することにより、映像表示装置1の各部について、バス10を介して制御する。また、RAM13は、CPU11が記憶された各データの加工などを行う際のワークエリアとして機能する。
さらにRAM13は、内部に有するライブデータバッファ領域13aに、通信部17から受信するストリーミング再生するためのライブ映像データ(第2のデータ)、ライブ楽音データ(第2のデータ)を一時的にバッファする機能を有するとともに、当該各データに対応する楽曲に関する情報(以下、楽曲情報という)、後述する楽譜データの加工に関する情報(以下、加工情報という)についても、通信部17において受信して記憶する。なお、楽曲に関する情報は、楽曲名や認識番号など、当該楽曲を特定できる情報であれば何でもよい。そして、CPU11は、RAM13にバッファされたライブ映像データ、ライブ楽音データを読み出し、後述するような処理を行ってストリーミング再生を行う。
ここで、ライブ映像データは、楽曲の生演奏を撮影した映像(以下、ライブ映像という)の映像データである。また、ライブ楽音データは、楽曲の生演奏を録音した音声(以下、ライブ演奏)のオーディオデータであって、ライブ演奏には、歌手の歌声(以下、ライブボーカルという)や伴奏などが含まれている。
記憶部14は、例えば、ハードディスクなどの大容量記憶手段であって、楽曲データ記憶領域14aに、各楽曲のリファレンスデータとなるリファレンス楽曲データを記憶する。リファレンス楽曲データは、リファレンス楽音データ(リファレンスデータ)、歌詞データ(第3のデータ)および楽譜データ(第1のデータ)を有している。リファレンス楽音データは、楽曲の見本となる歌声や伴奏を含む演奏(以下、リファレンス演奏という)を録音したオーディオデータであって、その再生時刻を示すタイムコードが付されている。歌詞データは、楽曲の歌詞を示すテキストデータと当該テキストデータの各テキストの表示タイミングを示すデータとを有するシーケンスデータであって、シーケンスデータの読み出し時刻を示すタイムコード(時刻情報)が付されている。
楽譜データは、楽曲の伴奏における和音コードを示す和音コードデータと、当該和音コードデータの各和音コードの表示タイミングを示すデータとを有するシーケンスデータであって、歌詞情報と同様にタイムコードが付されている。そして、リファレンス楽音データと、歌詞データおよび楽譜データは、同じ時刻を示すタイムコードによって読み出すことにより時間同期して再生することができ、楽曲の見本となる歌声にあった歌詞と楽譜(和音コード譜)が表示されるようになっている。
表示部15は、映像を画面に表示する液晶ディスプレイなどの表示デバイスであって、入力された映像データに基づいて表示を行う。また、映像表示装置1を操作するためのメニュー画面などの各種画面を表示する。操作部16は、例えばキーボードやマウスなどであり、映像表示装置1の利用者が操作部16を操作すると、その操作内容を表すデータがCPU11へ出力される。
通信部17は、有線、無線などによって、サーバ2とデータの送受信を行う通信手段であって、上述したように、本実施形態においては、ライブ映像データ、ライブ楽音データ、楽曲情報、加工情報を受信して、RAM13のライブデータバッファ領域13aにバッファする機能を有している。
音声出力部18は、スピーカなどの放音手段を有し、入力されたオーディオデータに基づいて放音する。
次に、CPU11が、ROM12に記憶されたプログラムを実行することによって実現するデータ再生の機能について説明する。図3は、CPU11が実現する機能を示したソフトウエアの構成を示すブロック図である。
楽曲データ選択部101は、ライブデータバッファ領域13aから楽曲情報を読み取り、通信部17が受信している各データの楽曲を認識する。そして、楽曲データ記憶領域14aに記憶されているリファレンス楽曲データの中から、認識した楽曲に対応するリファレンス楽曲データを選択し、そのリファレンス楽曲データのリファレンス楽音データ、歌詞データおよび楽譜データを読み出す。そして、楽曲データ選択部101は、読み出したリファレンス楽音データをタイムアライメント部102へ出力するとともに、読み出した楽譜データは後述するデータ加工部107に出力する。また、読み出した歌詞データについては、後述するデータ読出部103に読み出されるまでRAM13にバッファしておく。
データ加工部107は、ライブデータバッファ領域13aから加工情報を読み取り、当該加工情報に基づいて楽曲データ選択部101から出力された楽譜データを加工して、楽譜加工データを生成する。そして当該楽譜加工データは、データ読出部103に読み出されるまでRAM13にバッファしておく。具体的な一例として、本実施形態における加工情報について説明する。
加工情報は、楽譜データが示す和音コードを削除、他の和音コードに置換、和音コードの追加などを行うことにより当該楽譜データを加工するための情報であって、加工を行う楽譜データ上の位置を示すタイムコードと加工後のデータとを有する。ここで、加工後のデータとは、和音コードを削除する場合には、削除を指示するデータまたは表示を停止するデータ、また、和音コードの追加する場合、他の和音コードに置換する場合には、当該追加される又は置換される和音コードを示すデータである。
例えば、加工情報において、タイムコードTnに対応する和音コードがG9であり、楽譜データにおいて、タイムコードTnに対応する和音コードがG7である場合、データ加工部107は、楽譜データにおけるタイムコードTnに対応する和音コードG7をG9に置き換える。また、加工情報において、タイムコードTmに対応する和音コードがDm7であり、楽譜データにおいて、タイムコードTmに対応する和音コードが存在しない場合、データ加工部107は、楽譜データにおけるタイムコードTmに対応する和音コードがDm7であるとしてデータを追加する。さらに、加工情報において、タイムコードTkに対応する和音コードが指定無し、または削除指令であり、楽譜データにおいて、あるタイムコードTkに対応する和音コードがC7である場合には、データ加工部107は、楽譜データにおけるタイムコードTkに対応する和音コードC7を削除する。このようにして、データ加工部107は、楽譜データを加工して、楽譜加工データを生成する。これにより、例えば、同じ楽曲でも演奏者によって和音コードの用い方が異なるなどして演奏が異なっている場合であっても、楽譜データと異なっている部分を示す加工情報を受信し、当該加工情報に基づいて楽譜データを加工することにより、当該演奏にあわせた楽譜加工データを生成することができる。
タイムアライメント部102は、CPU11によってライブデータバッファ領域13aから読み出されたライブ楽音データを取得し、当該ライブ楽音データと、楽曲データ選択部101から出力されたリファレンス楽音データとを比較して、ライブ演奏とリファレンス演奏との楽曲の進行のずれを検出し、当該楽曲の進行のずれに基づいてタイムコード(同期情報)を出力する機能を有している。
ここで、楽曲の進行のずれは、それぞれのデータを所定時間長のフレーム単位に分離し、その各々に対してFFT(Fast Fourier Transform)を施して、それぞれのデータのスペクトルを算出し、これらの各フレーム間で類似したスペクトルを対応付けることにより検出する。また、楽曲の進行のずれを検出する機能について、本実施形態ではDP(Dynamic Programming:動的計画法)マッチングを用いる。具体的には以下のような処理となる。
タイムアライメント部102は、図4に示すような座標平面(以下、DPプレーンという)をRAM13に形成する。このDPプレーンの縦軸は、ライブ楽音データをそれぞれ所定時間長のフレーム単位に分離してその各々に対してFFTを施して得られたスペクトルについて、各フレームのスペクトルの絶対値の対数に逆フーリエ変換をかけて得られるパラメータ(ケプストラム)をa1、a2、a3・・・anとして、時間軸に従って並べたものである。また、横軸のb1、b2、b3・・・bnは、リファレンス楽音データについて、上記同様に時間軸に従って並べたものである。ここで、縦軸のa1、a2、a3・・・anの間隔と横軸のb1、b2、b3・・・bnの間隔は、いずれもフレームの時間長と対応している。このDPプレーンにおける各格子点の各々には、a1、a2、a3・・・anの各パラメータと、b1、b2、b3・・・bnの各パラメータのユークリッド距離を夫々示す値であるDPマッチングスコアが対応付けられている。例えば、a1とb1とにより位置決めされる格子点(a1,b1)には、ライブ楽音データの一連のフレームのうち最初のフレームから得たパラメータとリファレンス楽音データの一連のフレームのうち最初のフレームから得たパラメータのユークリッド距離を示す値が対応付けられることになる。
そして、タイムアライメント部102は、このような構造を成すDPプレーンを形成した後、a1とb1とにより位置決めされる始端にあたる格子点(a1,b1)からanとbnとにより位置決めされる終端にあたる格子点(an,bn)に至る全経路を探索し、探索した経路ごとに、その始端から終端までの間に辿る各格子点のDPマッチングスコアを累算して累算値を求める。なお、始端と終端は各データの最初のフレームと最後のフレームということではなく、各データから所定のフレーム数を単位として行われ、この単位における最初のフレームから最後のフレームまで行われて、これが順次処理され各データの最後のフレームまで処理されていく。
そして、DPマッチングスコアの累算値が最小となる経路をDPプレーン上から特定し、その経路上の各格子点によって、ライブ楽音データの各フレームにリファレンス楽音データの各フレームが対応付けられる。この対応関係により楽曲の進行のずれを検出することができる。例えば、図4に示すDPプレーン上に記された経路においては、a1とb1により位置決めされる格子点(a1,b1)からその右上のa2とb2により位置決めされる格子点(a2,b2)に進んでいることが分かる。この場合、a2のフレームとb2のフレームとの時間軸上の位置は当初から同じである。一方、この経路においては、a2とb2により位置決めされる格子点(a2,b2)からその右のa2とb3により位置決めされる格子点(a2,b3)に進んでいる。楽曲の進行のずれが無ければ格子点(a3,b3)へ進み、b3のフレームの時間軸上の位置に対応すべきフレームはa3のフレームとなるものであるが、格子点(a2,b3)に進んでいることから、b3のフレームはa3ではなくa2のフレームの時間軸上の位置と同じであると対応付けられ、楽曲の進行のずれが発生していることになる。すなわち、リファレンス楽音データのフレームb3までに進行する演奏の内容が、ライブ楽音データのフレームa2までに進行していることになるから、この時点においては、リファレンス演奏よりもライブ演奏の方が早く進んでいることになる。このようにして、楽曲の進行のずれを検出することができる。そして、ライブ楽音データの全てのフレームに対して、リファレンス楽音データのフレームを対応付けて、楽曲の進行のずれを検出する。以上がDPマッチングの仕組みである。
次に、タイムアライメント部102が検出した楽曲の進行のずれに基づいてタイムコードを順次出力する機能について説明する。タイムアライメント部102は、上述したように、ライブ楽音データの各フレームに対してリファレンス楽音データのフレームを対応付けるから、入力されたライブ楽音データの時間軸上の位置をリファレンス楽音データの時間軸上の位置(以下、再生位置という)として認識することができる。また、この再生位置の時間変化によりテンポを認識することができる。タイムアライメント部102は、所定の間隔で、認識した再生位置とテンポに基づいてタイムコードを生成し、順次出力する。もし、タイムアライメント部102から順次出力されたタイムコードを参照してリファレンス楽音データを読み出して再生したとすれば、リファレンス演奏の時間軸が伸縮され、ライブ演奏と同等な楽曲の進行で再生することができる。
図3に戻って、説明を続ける。データ読出部103は、タイムアライメント部102から順次出力されるタイムコードと、歌詞データに付されたタイムコードとを対応させるようにして、楽曲データ選択部101がRAM13にバッファした歌詞データを読み出し、データ処理部104に順次出力していく。また、同様にして、データ読出部103は、タイムアライメント部102から順次出力されるタイムコードと、楽譜加工データに付されたタイムコードとを対応させるようにして、データ加工部107がRAM13にバッファした楽譜加工データを読み出し、データ処理部104に順次出力していく。
そして、データ処理部104は、データ読出部103から順次出力された歌詞データに基づいて歌詞映像データを生成し、映像合成部106に出力する。また、データ処理部104は、データ読出部103から順次出力された楽譜加工データに基づいて楽譜映像データを生成し、映像合成部106に出力する。ここで、楽曲の歌詞を示すテキストデータとそのテキストの表示タイミングを示すデータとを有する歌詞データは、タイムアライメント部102から出力されたタイムコードを参照して読み出すことによりデータ読出部103から出力されるシーケンスデータであるから、歌詞映像データは、楽曲の歌詞の表示タイミングがライブ演奏の楽曲の進行にあわせて表示される映像のデータとして生成される。また、楽曲の伴奏における和音コードを示す和音コードデータと、その和音コードの表示タイミングを示すデータとを有する楽譜データを加工情報に基づいて加工した楽譜加工データは、タイムアライメント部102から出力されたタイムコードを参照して読み出すことによりデータ読出部103から出力されるシーケンスデータであるから、楽譜映像データは、和音コードの表示タイミングがライブ演奏の楽曲の進行にあわせて表示される映像のデータとして生成される。また、楽譜加工データは、データ加工部107で加工されたデータであるから、楽譜データが示す和音コードが加工情報に基づいて変更された映像のデータとして生成される。
遅延部105は、CPU11によってライブデータバッファ領域13aから読み出されたライブ映像データとライブ楽音データに所定時間の遅延処理を行って出力する。ここで、所定時間は、上述したタイムアライメント部102がライブ楽音データを取得してから、データ処理部104が歌詞映像データおよび楽譜映像データを出力するまでの処理に必要な時間が設定されている。このようにすると、遅延部105から出力されたライブ楽音データ、ライブ映像データと、データ処理部104から出力された歌詞映像データおよび楽譜映像データは時間同期したものとなる。
映像合成部106は、遅延部105から出力されたライブ映像データに係るライブ映像に対して、データ処理部104から出力された歌詞映像データに係る歌詞の映像(以下、歌詞映像という)および楽譜映像データに係る楽譜の映像(以下、楽譜映像という)をスーパーインポーズした合成映像データを生成して表示部15へ出力する。ここで、合成映像データは、遅延部105において所定時間の遅延処理を行ったライブ映像データに係るライブ映像に対して、時間同期した歌詞映像および楽譜映像、すなわち楽曲の歌詞がライブ演奏の楽曲の進行にあわせて表示される映像をスーパーインポーズしたものであり、ライブ映像に楽曲の歌詞映像および楽譜映像が合成されることによって、その歌詞映像、楽譜映像がライブボーカル、ライブ演奏、ライブ映像に合った映像の映像データとして生成される。
このようにして、表示部15には合成映像データが出力され、音声出力部18にはライブ楽音データが出力されることにより、本実施形態に係るデータ再生装置を有する映像表示装置1は、もともとのライブ映像に対して時間同期、すなわち楽曲の進行に合わせた歌詞映像および楽譜映像が合成された映像と楽曲とを再生することができる。また、楽譜映像は、受信した加工情報に基づいて楽譜データを加工した楽譜加工データによって生成された楽譜映像データに係る映像であるから、同じ楽曲でも演奏者によって和音コードの用い方が異なるなどして演奏が異なる場合であっても、当該異なった演奏にあわせた映像とすることができる。
以上、本発明の実施形態について説明したが、本発明は以下のように、さまざまな態様で実施可能である。
<変形例1>
実施形態においては、加工情報は楽譜データにおける和音コードを変更、追加、削除を行うための情報であり、楽譜データのデータ各部のデータ内容の加工を行っていたが、楽譜データにおけるタイムコードの変更を行うための情報としてもよい。この場合は、加工情報は、変更前後のタイムコードを示す情報とすればよい。このようにすれば、例えば、Aメロ、Bメロが入れ替わっているなど楽曲の構成が変更されている場合にも、その楽曲の構成にあわせた加工を行うことができる。なお、タイムコードの変更により、楽譜加工データにおけるデータの各部をタイムコードの順に並び替えてデータの再構成を行ってもよい。
<変形例2>
実施形態においては、加工情報は楽譜データを加工するための情報であったが、歌詞データを加工するための情報としてもよい。この場合は、楽曲情報は、追加、変更する和音コードに替えて、歌詞を示すテキストデータとすればよい。また、楽曲データ選択部101は歌詞データをRAM13にバッファする代わりにデータ加工部107へ出力すればよい。このようにすれば、歌詞データの加工を行うことができる。ここで、加工情報に基づいて加工されるデータが歌詞データであるか楽譜データであるかについては、加工情報に基づいて加工されるデータを示す情報を楽曲情報が有するようにし、楽曲データ選択部101は、楽曲情報が示す加工されるデータをデータ加工部107に出力する。なお、加工情報に基づいて加工されるデータを加工情報が有するようにすれば、楽曲データ選択部101は、歌詞データおよび楽譜データをともにデータ加工部107に出力し、データ加工部107は、加工情報が示す加工されるデータに対応するデータを加工するようにすれば良い。このようにすれば、加工情報を複数受信することにより、各加工情報に対応する複数のデータ例えば楽譜データと歌詞データ双方を加工することもできる。
<変形例3>
実施形態においては、映像表示装置1のデータ加工部107は、サーバ2から加工情報を受信し、当該加工情報に基づいて楽譜データを加工して楽譜加工データを生成していたが、楽譜加工データをサーバ2から受信するようにしてもよい。この場合、サーバ2は、加工情報と楽譜データとを記憶し、当該加工情報に基づいて当該楽譜データを加工して生成した楽譜加工データを映像表示装置1に送信するようにすればよい。そして、図5に示すように、映像表示装置1の通信部17は、サーバ2から受信した楽譜加工データをライブデータバッファ領域13aにバッファし、データ読出部103は、バッファされた楽譜加工データを読み出すようにすればよい。このようにすれば、映像表示装置1においてデータ加工を行わなくてもよいから、データ加工部107を用いなくてもよく、楽曲データ記憶領域14aに楽譜データを記憶させる必要も無い。なお、サーバ2は、事前に楽譜データを加工した楽譜加工データを記憶しておき、当該楽譜加工データを送信してもよいし、加工されたデータではなく加工前のデータ、すなわち楽譜データを送信してもよい。このようにすれば、楽曲データ記憶領域14aに楽曲情報が特定する楽曲に対応する楽譜データが記憶されていない場合に、CPU11がサーバ2に楽譜データなどを要求することにより、サーバ2から楽譜データなどを受信して楽曲データ記憶領域14aに記憶させることもできる。
<変形例4>
実施形態においては、加工情報はサーバ2から受信していたが、映像表示装置1は、受信した楽曲情報に基づいて、必要な加工情報をサーバ2に要求して、サーバ2に要求した加工情報を送信させてもよい。この場合には、サーバ2は、楽曲と楽曲の演奏者とに対応させて加工情報を記憶しておく。そして、楽曲情報が楽曲の演奏者の情報を有するようにし、映像表示装置1は、楽曲と、楽曲の演奏者と示す情報をサーバ2に送信し、サーバ2は、送信された情報に対応する加工情報を特定し、映像表示装置1に送信するようにすればよい。このようにすれば、ライブ楽音データ、ライブ映像データ、楽曲情報を送信するサーバと加工情報を送信するサーバが異なるサーバとすることもできる。また、受信した加工情報を楽曲データ記憶領域14aに記憶しておいてもよい。このようにすれば、次に同一のデータを再生するときに、要求すべき加工情報が楽曲データ記憶領域14aに記憶されているかをCPU11が判断し、記憶されているときには、サーバ2へ要求せずに記憶されている加工情報を用いることができる。なお、楽曲と楽曲の演奏者とに対応させて加工情報を特定していたが、演奏者に限らず、例えば演奏日時、編曲者、識別番号など、映像表示装置1が受信しているライブ楽音データ、ライブ映像データについての編曲内容を特定することができる情報であればよい。そして、サーバ2に記憶する加工情報に対して、当該情報を対応付けておけばよい。
<変形例5>
実施形態においては、タイムコードの生成は、ライブ楽音データに基づいてタイムアライメント部102において行っていたが、他の方法によって行なわれてもよい。例えば、図6に示すように、通信部17は、サーバ2から同期情報を受信してライブデータバッファ領域13aにバッファした後、ライブ楽音データ、ライブ映像データにあわせて出力する。そして、出力された同期情報に基づいてタイムコードを生成するタイムコード生成部108を設ければよい。ここで、同期情報は、再生するデータの位置の時間変化を示すものであれば、どのような情報でもよい。例えば、サーバ2において、タイムアライメント部102において行われている処理を行い、再生位置とテンポを同期情報とすればよい。このようにすれば、タイムアライメント部102における同期処理の一部または全部を送信側であるサーバ2で行うこともできる。なお、タイムアライメント部102における同期処理は、DPマッチングを用いていたが、異なった手法によって同期処理をするようにしてもよい。例えば、HMM(Hidden Markov Model:隠れマルコフモデル)を用いてもよいし、比較対象である各データから波形の特徴量(音程、音量など)を抽出して比較するようにしてもよい。すなわち、各データの比較をして、各データ間の類似する部分を対応させることができる手法であればどのような手法でもよい。また、映像表示装置1のタイムアライメント部102においても処理を行うときには、受信した同期情報も用いて処理を行うことにより、タイムアライメント部102における処理の精度を向上させてもよい。
<変形例6>
実施形態においては、タイムアライメント部102における同期処理は、ライブ楽音データとリファレンス楽音データを比較することにより行われていた。ここで、楽曲データ記憶領域14aに、楽曲の進行における映像の見本となるリファレンス映像データを記憶させることにより、タイムアライメント部102は、ライブ映像データとリファレンス映像データを比較することにより同期処理を行なうようにしてもよい。この場合は、映像全体で比較してもよいし、例えば映像のうち一部分の特徴、例えば歌唱者の唇付近を抽出して、その動きの特徴量を比較することによって同期処理を行えばよい。このようにしても、タイムアライメント部102における同期処理ができる。
<変形例7>
実施形態においては、楽曲の進行にあわせて再生するデータは歌詞データと楽譜データであったが、歌詞データは無くてもよい。また、歌詞データを加工情報に基づいて加工する場合には、楽譜データは無くてもよい。また、歌詞データ、楽譜データに替えて、以下のような様々なデータを用いることもできる。
例えば、歌詞データは、楽曲の歌詞をリファレンス楽音データと時間同期して再生できるようにしたタイムコードの付された映像データであってもよい。この場合、以下のようにすればよい。データ読出部103は、実施形態に示したようにタイムコードを参照し、映像データである歌詞データを読み出して、データ処理部104に順次出力する。これにより、データ読出部103から順次出力された歌詞データは、読み出されるときに楽曲の進行に合わせるように時間軸が伸縮されてデータ処理部104に出力される。そして、データ処理部104は、この時間軸が伸縮された歌詞データを歌詞映像データとして生成して出力する。このようにすれば、歌詞データが映像データであっても、本発明の効果を奏することができる。なお、映像データについては、歌詞データに限らず、楽曲の楽譜など、入力された音声データの楽曲の進行に合わせて表示させたい映像のデータなら、どのような映像データでもよい。また、このような映像データである歌詞データを加工する場合には、データ加工部107において歌詞データを加工し、加工情報は、歌詞データに係る映像に、視覚効果などを付与するような加工を行う情報としてもよい。なお、楽譜データについても同様である。
また、実施形態においては、楽曲の進行に合わせて歌詞、和音コードを表示させるようにしていたが、外部の他の装置を楽曲の進行に合わせて制御するようにしてもよい。この場合は、以下のような構成とすればよい。図7に示すように、例えば、AUX(Auxiliary)端子などの制御信号出力部19を設け、楽曲データ記憶領域14aに制御信号データを記憶するようにする。ここで、制御信号データは、AUX端子に接続される外部の装置を制御する信号とその制御のタイミングを示すデータを有するシーケンスデータであって、歌詞データ、楽譜データと同様にリファレンス楽音データと時間同期して外部の装置を制御できるようにタイムコードが付されている。そして、データ読出部103によって読み出された制御信号データを制御信号出力部19から出力するようにすればよい。また、上述したように、データ加工部107によって制御信号データを加工することもできる。このようにすると、映像表示装置1は、制御信号出力部に接続される外部の装置が、楽曲の進行にあわせて出力される制御信号に基づいて制御されるため、楽曲の進行にあわせて外部の装置を動作させることができる。なお、外部の装置には、照明、音響機器、ロボットなど、制御信号によって制御できるものであれば、どのようなものにも適用できる。この場合は、制御信号データは、制御したい装置にあわせたデータとしておけばよい。さらに、複数の外部の装置を同時に制御したい場合には、複数の制御信号データを用意しておき、制御信号出力部19に複数の装置を接続できるようにしておけばよい。この接続は、有線接続であってもよいし、無線接続であってもよく、信号が伝達できるものであればよい。
その他にも、楽曲データ記憶領域14aに、リファレンス楽音データと時間同期して再生できるようにタイムコードなどの時刻情報が付されたMIDIデータ、音声データを記憶させてもよい。このようにすれば、データ読出部103がこれらのデータを読み出して、音声合成手段によって受信音声データとミキシングして音声出力部18に出力することにより、楽曲の進行に合わせて音声出力部18からMIDIデータ、音声データに基づく楽音を放音させることができる。ここで、MIDIデータを用いる場合には、MIDIデータを再生して音声データとして出力する音源をデータ処理部104に設け、音声合成手段によってデータ処理部104から出力された音声データを受信音声データとミキシングして音声出力部18に出力するようにすればよい。なお、この場合においても、上述したようにデータ加工部107においてMIDIデータ、音声データを加工することができ、加工情報は、MIDIデータのデルタタイム、イベントなどを加工する情報としたり、音声データに係る音声に、音響効果などを付与するような加工を行う情報としたりすればよい。
<変形例8>
実施形態においては、楽譜データの加工はデータ加工部107において行われたが、データ処理部104において行なってもよい。この場合は、図8に示すように、加工情報がデータ処理部104に出力される構成とすればよい。そして、加工情報が視覚効果などを与える情報とすることで、データ処理部104は、楽譜映像データを生成するときに、加工情報が示す視覚効果を与えるようにすればよい。また、変形例7のようにMIDIデータを用いた場合は、加工情報が音響効果などを与える情報とすることで、データ処理部104は、MIDIデータを再生して得られる音声データに、加工情報が示す音響効果を与えるようにすればよい。このようにしても、加工情報に基づいて各データの加工を行うことができる。
<変形例9>
実施形態においては、データ読出部103が各データの読み出しに用いるタイムコードについて、タイムアライメント部102がライブ楽音データとリファレンス楽音データとの比較に基づいて生成していたが、リファレンス楽音データを用いずに、ライブ楽音データに基づいてタイムコードを生成するようにしてもよい。この場合は、図9に示すように、タイムアライメント部102の代わりにビート抽出部109を用いるようにすればよい。ビート抽出部109は、ライブ楽音データに係るライブ演奏の音量レベルを検出し、その音量レベルの変化(例えば、急激に音量レベルが大きくなる部分)に基づいてビートを抽出し、ライブ演奏のBPM(Beat Per Minute)値を計算する。そして、BPM値とライブ演奏が開始されてから経過した時間とに基づいて、タイムコードを順次生成して、データ読出部103に出力する。ここで、ライブ演奏が開始された時点の特定は、ビート抽出部109にライブ楽音データが供給された時点としてもよいし、楽曲情報にライブ演奏の開始時点を示す情報を持たせて、楽曲情報がビート抽出部109にも出力されるようにすればよい。また、ビート抽出部109にライブ楽音データが入力された時点において、ライブ演奏が既に途中まで進んでいる場合には、楽曲情報にライブ演奏が開始された時点から経過した時刻を持たせて、楽曲情報がビート抽出部109に出力されるようにすればよい。このようにすれば、リファレンス楽音データが無くても、実施形態と同様な効果を得ることができる。
<変形例10>
実施形態においては、通信部17は、有線、無線などによって、サーバ2とデータの送受信を行う通信手段であって、ライブ映像データ、ライブ楽音データ、楽曲情報データなどを受信していたが、図1に破線で示したように、データ入力部20を設けて、これらのデータがデータ入力部20から入力されるようにしてもよい。例えば、これらのデータが、DVD(Digital Versatile Disc)などの記録メディアに記録されたデータであれば、データ入力部は、DVDに記録されたデータを読み取れる光学ドライブであればよい。このようにしても、実施形態と同様な効果を得ることができる。
実施形態に係る映像表示装置とサーバの接続を示すブロック図である。 実施形態に係る映像表示装置のハードウエアの構成を示すブロック図である。 実施形態に係る映像表示装置のソフトウエアの構成を示すブロック図である。 DPマッチングを行う際のDPプレーンを示す説明図である。 変形例3に係る映像表示装置のソフトウエアの構成を示すブロック図である。 変形例5に係る映像表示装置のソフトウエアの構成を示すブロック図である。 変形例7に係る映像表示装置のハードウエアの構成を示すブロック図である。 変形例8に係る映像表示装置のソフトウエアの構成を示すブロック図である。 変形例9に係る映像表示装置のソフトウエアの構成を示すブロック図である。
符号の説明
1…映像表示装置、2…サーバ、10…バス、11…CPU、12…ROM、13…RAM、13a…ライブデータバッファ領域、14…記憶部、14a…楽曲データ記憶領域、15…表示部、16…操作部、17…通信部、18…音声出力部、19…制御信号出力部、20…データ入力部、100…通信網、101…楽曲データ選択部、102…タイムアライメント部、103…データ読出部、104…データ処理部、105…遅延部、106…映像合成部、107…データ加工部、108…タイムコード生成部、109…ビート抽出部

Claims (13)

  1. データ各部についての時刻を規定する時刻情報を有した第1のデータを取得するデータ取得手段と、
    前記第1のデータの加工内容を示す加工情報を取得する加工情報取得手段と、
    前記加工情報に基づいて、前記データ取得手段が取得した第1のデータのデータ各部または時刻情報の一部を加工して加工データを生成する加工データ生成手段と、
    前記加工データ生成手段が生成した加工データを記憶する加工データ記憶手段と、
    データの読み出し時刻を示す同期情報を取得する同期情報取得手段と、
    前記同期情報と前記加工データの時刻情報との対応関係に基づいて、前記加工データ記憶手段から加工データを読み出すデータ読出手段と、
    外部から供給される第2のデータを所定量遅延させる遅延手段と
    を具備することを特徴とするデータ再生装置。
  2. 前記加工情報取得手段は、外部機器からの通信によって加工情報を受信して取得する
    ことを特徴とする請求項1に記載のデータ再生装置。
  3. 前記加工情報を記憶する加工情報記憶手段をさらに具備し、
    前記加工情報取得手段は、前記加工情報記憶手段から加工情報を読み出して取得する
    ことを特徴とする請求項1に記載のデータ再生装置。
  4. 前記データ取得手段は、外部機器からの通信によって前記第1のデータを受信して取得する
    ことを特徴とする請求項1乃至請求項3のいずれかに記載のデータ再生装置。
  5. 前記第1のデータを記憶する第1のデータ記憶手段をさらに具備し、
    前記データ取得手段は、前記第1のデータ記憶手段から第1のデータを読み出して取得する
    ことを特徴とする請求項1乃至請求項3のいずれかに記載のデータ再生装置。
  6. データ各部についての時刻を規定する時刻情報を有した第1のデータと、前記第1のデータの加工内容を示す加工情報とを有し、前記加工情報に基づいて第1のデータのデータ各部または時刻情報の一部を加工して加工データを生成する外部機器からの通信によって、前記加工データを受信する加工データ受信手段と、
    前記加工データ受信手段が受信した加工データを記憶する加工データ記憶手段と、
    データの読み出し時刻を示す同期情報を取得する同期情報取得手段と、
    前記同期情報と前記加工データの時刻情報との対応関係に基づいて、前記加工データ記憶手段から加工データを読み出すデータ読出手段と、
    外部から供給される第2のデータを所定量遅延させる遅延手段と
    を具備することを特徴とするデータ再生装置。
  7. リファレンスデータを記憶するリファレンスデータ記憶手段と、
    前記外部から供給される第2のデータと前記リファレンスデータとを所定時間長のフレーム単位で対応付けて、対応する部分についての時刻を示す同期情報を生成するタイムアライメント手段と
    をさらに具備し、
    前記同期情報取得手段は、前記タイムアライメント手段によって生成された同期情報を取得する
    ことを特徴とする請求項1乃至請求項6のいずれかに記載のデータ再生装置。
  8. 前記データ読出手段によって読み出された加工データに基づいて映像データを生成する映像データ生成手段をさらに具備する
    ことを特徴とする請求項1乃至請求項7のいずれかに記載のデータ再生装置。
  9. データ各部についての時刻を規定する時刻情報を有した第3のデータを記憶する第3のデータ記憶手段をさらに具備し、
    前記データ読出手段は、前記同期情報と前記加工データの時刻情報との対応関係に基づいて、前記加工データ記憶手段から加工データを読み出すとともに、前記第3のデータ記憶手段から第3のデータを読み出し、
    前記映像データ生成手段は、前記データ読出手段によって読み出された加工データと第3のデータとに基づいて映像データを生成する
    ことを特徴とする請求項8に記載のデータ再生装置。
  10. データ各部についての時刻を規定する時刻情報を有した第1のデータを取得するデータ取得過程と、
    前記第1のデータの加工内容を示す加工情報を取得する加工情報取得過程と、
    前記加工情報に基づいて、前記データ取得過程において取得した第1のデータのデータ各部または時刻情報の一部を加工して加工データを生成する加工データ生成過程と、
    前記加工データ生成過程において生成した加工データを記憶する加工データ記憶過程と、
    データの読み出し時刻を示す同期情報を取得する同期情報取得過程と、
    前記同期情報と前記加工データの時刻情報との対応関係に基づいて、前記加工データ記憶過程において記憶した加工データを読み出すデータ読出過程と、
    外部から供給される第2のデータを所定量遅延させる遅延過程と
    を具備することを特徴とするデータ再生方法。
  11. データ各部についての時刻を規定する時刻情報を有した第1のデータと、前記第1のデータの加工内容を示す加工情報とを有し、前記加工情報に基づいて第1のデータのデータ各部または時刻情報の一部を加工して加工データを生成する外部機器からの通信によって、前記加工データを受信する加工データ受信過程と、
    前記加工データ受信過程において受信した加工データを記憶する加工データ記憶過程と、
    データの読み出し時刻を示す同期情報を取得する同期情報取得過程と、
    前記同期情報と前記加工データの時刻情報との対応関係に基づいて、前記加工データ記憶過程において記憶した加工データを読み出すデータ読出過程と、
    外部から供給される第2のデータを所定量遅延させる遅延過程と
    を具備することを特徴とするデータ再生方法。
  12. コンピュータに、
    データ各部についての時刻を規定する時刻情報を有した第1のデータを取得するデータ取得機能と、
    前記第1のデータの加工内容を示す加工情報を取得する加工情報取得機能と、
    前記加工情報に基づいて、前記データ取得機能において取得した第1のデータのデータ各部または時刻情報の一部を加工して加工データを生成する加工データ生成機能と、
    前記加工データ生成過程において生成した加工データを記憶する加工データ記憶機能と、
    データの読み出し時刻を示す同期情報を取得する同期情報取得機能と、
    前記同期情報と前記加工データの時刻情報との対応関係に基づいて、前記加工データ記憶機能において記憶した加工データを読み出すデータ読出機能と、
    外部から供給される第2のデータを所定量遅延させる遅延機能と
    を実現させるためのプログラム。
  13. コンピュータに、
    データ各部についての時刻を規定する時刻情報を有した第1のデータと、前記第1のデータの加工内容を示す加工情報とを有し、前記加工情報に基づいて第1のデータのデータ各部または時刻情報の一部を加工して加工データを生成する外部機器からの通信によって、前記加工データを受信する加工データ受信機能と、
    前記加工データ受信機能において受信した加工データを記憶する加工データ記憶機能と、
    データの読み出し時刻を示す同期情報を取得する同期情報取得機能と、
    前記同期情報と前記加工データの時刻情報との対応関係に基づいて、前記加工データ記憶機能において記憶した加工データを読み出すデータ読出機能と、
    外部から供給される第2のデータを所定量遅延させる遅延機能と
    を実現させるためのプログラム。
JP2007130853A 2007-05-16 2007-05-16 データ再生装置、データ再生方法およびプログラム Expired - Fee Related JP5151245B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007130853A JP5151245B2 (ja) 2007-05-16 2007-05-16 データ再生装置、データ再生方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007130853A JP5151245B2 (ja) 2007-05-16 2007-05-16 データ再生装置、データ再生方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2008286946A true JP2008286946A (ja) 2008-11-27
JP5151245B2 JP5151245B2 (ja) 2013-02-27

Family

ID=40146741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007130853A Expired - Fee Related JP5151245B2 (ja) 2007-05-16 2007-05-16 データ再生装置、データ再生方法およびプログラム

Country Status (1)

Country Link
JP (1) JP5151245B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010261974A (ja) * 2009-04-28 2010-11-18 Yamaha Corp 信号制御装置
JP2011145541A (ja) * 2010-01-15 2011-07-28 Yamaha Corp 再生装置、楽音信号出力装置、再生システム及びプログラム
JP2011215189A (ja) * 2010-03-31 2011-10-27 Yamaha Corp コンテンツ再生装置および音声処理システム
JP2014063107A (ja) * 2012-09-24 2014-04-10 Brother Ind Ltd 楽曲演奏装置及び楽曲演奏用プログラム
US9006551B2 (en) 2008-07-29 2015-04-14 Yamaha Corporation Musical performance-related information output device, system including musical performance-related information output device, and electronic musical instrument
US9040801B2 (en) 2011-09-25 2015-05-26 Yamaha Corporation Displaying content in relation to music reproduction by means of information processing apparatus independent of music reproduction apparatus
US9082382B2 (en) 2012-01-06 2015-07-14 Yamaha Corporation Musical performance apparatus and musical performance program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0547162A (ja) * 1991-08-12 1993-02-26 Nec Home Electron Ltd 音楽データの記録・再生方法
JP2000347676A (ja) * 1999-06-01 2000-12-15 Yamaha Corp 衛星通信カラオケシステム
JP2003015675A (ja) * 2001-07-04 2003-01-17 Sega Miyuujitsuku Netsutowaakusu:Kk 通信カラオケシステム並びにカラオケサーバー及びカラオケ端末
JP2004085609A (ja) * 2002-08-22 2004-03-18 Yamaha Corp 音声データと演奏データの同期再生を行うための装置および方法
JP2005274851A (ja) * 2004-03-24 2005-10-06 Yamaha Corp 電子音楽装置および同装置に適用されるコンピュータプログラム
JP2008197268A (ja) * 2007-02-09 2008-08-28 Yamaha Corp データ再生装置、データ再生方法およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0547162A (ja) * 1991-08-12 1993-02-26 Nec Home Electron Ltd 音楽データの記録・再生方法
JP2000347676A (ja) * 1999-06-01 2000-12-15 Yamaha Corp 衛星通信カラオケシステム
JP2003015675A (ja) * 2001-07-04 2003-01-17 Sega Miyuujitsuku Netsutowaakusu:Kk 通信カラオケシステム並びにカラオケサーバー及びカラオケ端末
JP2004085609A (ja) * 2002-08-22 2004-03-18 Yamaha Corp 音声データと演奏データの同期再生を行うための装置および方法
JP2005274851A (ja) * 2004-03-24 2005-10-06 Yamaha Corp 電子音楽装置および同装置に適用されるコンピュータプログラム
JP2008197268A (ja) * 2007-02-09 2008-08-28 Yamaha Corp データ再生装置、データ再生方法およびプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9006551B2 (en) 2008-07-29 2015-04-14 Yamaha Corporation Musical performance-related information output device, system including musical performance-related information output device, and electronic musical instrument
JP2010261974A (ja) * 2009-04-28 2010-11-18 Yamaha Corp 信号制御装置
JP2011145541A (ja) * 2010-01-15 2011-07-28 Yamaha Corp 再生装置、楽音信号出力装置、再生システム及びプログラム
JP2011215189A (ja) * 2010-03-31 2011-10-27 Yamaha Corp コンテンツ再生装置および音声処理システム
US9029676B2 (en) 2010-03-31 2015-05-12 Yamaha Corporation Musical score device that identifies and displays a musical score from emitted sound and a method thereof
US9040801B2 (en) 2011-09-25 2015-05-26 Yamaha Corporation Displaying content in relation to music reproduction by means of information processing apparatus independent of music reproduction apparatus
US9524706B2 (en) 2011-09-25 2016-12-20 Yamaha Corporation Displaying content in relation to music reproduction by means of information processing apparatus independent of music reproduction apparatus
US9082382B2 (en) 2012-01-06 2015-07-14 Yamaha Corporation Musical performance apparatus and musical performance program
JP2014063107A (ja) * 2012-09-24 2014-04-10 Brother Ind Ltd 楽曲演奏装置及び楽曲演奏用プログラム

Also Published As

Publication number Publication date
JP5151245B2 (ja) 2013-02-27

Similar Documents

Publication Publication Date Title
US8027631B2 (en) Song practice support device
TWI492216B (zh) 顯示控制裝置、方法及電腦可讀取之記憶媒體
JP5151245B2 (ja) データ再生装置、データ再生方法およびプログラム
JP4458096B2 (ja) データ再生装置、データ再生方法およびプログラム
JP4175337B2 (ja) カラオケ装置
JP2005107330A (ja) カラオケ装置
JP5012263B2 (ja) 演奏クロック生成装置、データ再生装置、演奏クロック生成方法、データ再生方法およびプログラム
JP5092589B2 (ja) 演奏クロック生成装置、データ再生装置、演奏クロック生成方法、データ再生方法およびプログラム
JP4595947B2 (ja) データ再生装置、データ再生方法およびプログラム
JP2009169103A (ja) 練習支援装置
JP4595948B2 (ja) データ再生装置、データ再生方法およびプログラム
JP4506750B2 (ja) コンテンツ再生装置
JP4470947B2 (ja) データ再生装置、データ再生方法およびプログラム
JP4561735B2 (ja) コンテンツ再生装置およびコンテンツ同期再生システム
JP2008197272A (ja) データ再生装置、データ再生方法およびプログラム
JP4506748B2 (ja) コンテンツ再生装置
JP6657866B2 (ja) 音響効果付与装置及び音響効果付与プログラム
JP2008244888A (ja) 通信装置、通信方法およびプログラム
JP4182898B2 (ja) カラオケ装置
JP4539647B2 (ja) コンテンツ再生装置
JP2007233078A (ja) 評価装置、制御方法及びプログラム
JP5012269B2 (ja) 演奏クロック生成装置、データ再生装置、演奏クロック生成方法、データ再生方法およびプログラム
JP2009244790A (ja) 歌唱指導機能を備えるカラオケシステム
JP4967747B2 (ja) 通信装置、通信方法およびプログラム
JP6427447B2 (ja) カラオケ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120327

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121119

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees