JP2004094683A - サーバ、通信方法及び観客端末 - Google Patents

サーバ、通信方法及び観客端末 Download PDF

Info

Publication number
JP2004094683A
JP2004094683A JP2002256011A JP2002256011A JP2004094683A JP 2004094683 A JP2004094683 A JP 2004094683A JP 2002256011 A JP2002256011 A JP 2002256011A JP 2002256011 A JP2002256011 A JP 2002256011A JP 2004094683 A JP2004094683 A JP 2004094683A
Authority
JP
Japan
Prior art keywords
data
terminal
audience
performance
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002256011A
Other languages
English (en)
Inventor
Toshihisa Nakamura
中村 利久
Koji Toriyama
鳥山 康治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2002256011A priority Critical patent/JP2004094683A/ja
Publication of JP2004094683A publication Critical patent/JP2004094683A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Telephonic Communication Services (AREA)

Abstract

【課題】複数の装置から送信される音声データを受信し、これらの音声データをリアルタイムに合成・出力する通信システムにおいて、合成後の音声データを出力する際に、当該合成音声に対する観客の反応をリアルタイムに反映して出力することである。
【解決手段】演者端末20は、入力される演奏音声のデータを、他の演者端末20及び管理サーバ10へ送信するとともに、他の演者端末20の演奏データ及び観客端末40の観客データと同期させて出力する。また、観客端末40は、入力される観客音声のデータを管理サーバ10へ送信するとともに、管理サーバ10からストリーミング配信された合奏データを再生する。そして、管理サーバ10は、各観客端末40から受信した観客データを各演者端末20へ配信するとともに、これらの観客データ及び各演者端末20の演奏データを同期させて合成した合奏データを、観客端末40へストリーミング配信する。
【選択図】    図1

Description

【0001】
【発明の属する技術分野】
本発明は、サーバ、通信方法及び観客端末に関する。
【0002】
【従来の技術】
従来、複数の装置間をネットワークで結び、各装置からの入力音声をリアルタイムに受信するとともに、これらの音声を各装置で再生させる通信システムとして、特開平11−219174号公報に開示されているネットワーク演奏システムがある。
【0003】
このネットワーク演奏システムにおいては、複数の端末装置それぞれが、入力された演奏パート(以下、適宜、単に「パート」という。)の音声データをMIDIファイルに変換し、インターネットを介してサーバへ送信する。そして、サーバが、各端末装置から受信した各パートの音声データに基づいて合奏データを生成し、各端末装置へ送信している。
【0004】
【発明が解決しようとする課題】
ところで、上述のような通信システムにおいては、各装置間の距離に起因する時間遅延の問題が発生する。即ち、ネットワークとしてインターネットを利用するといった場合には、各装置間の距離が遠くなるにつれ、物理的な距離や介在するサーバの存在、通信プロトコルといった様々な要因から、受信データの時間遅延の発生は避け難いものとなり、リアルタイムの合奏を行うには不充分である。また、音声データをMIDI形式で送信する方法では、楽曲1曲分の音声データをまとめてMIDIファイルとする必要上、リアルタイムの合奏はさらに困難になる。
【0005】
また、演奏に参加している端末装置のみを合奏データの送信対象としているため、実際のライブ演奏のように、より多くの観客の前で演奏したい、観客の反応をリアルタイムに反映させることができなかった。
【0006】
本発明の課題は、複数の装置から送信される音声データを同期して合成し、その合成された音声データを観客に送信できるようにすることである。
【0007】
【課題を解決するための手段】
上記課題を解決するために、請求項1記載の発明は、
複数の演者端末複数と観客端末とに通信接続されたサーバ(例えば、図1の管理サーバ10)において、
音声データ及び予め定められている同期調整データ(例えば、図4の送信端末識別番号及びパケット番号)を含む通信データを、前記複数の演者端末それぞれから受信する第1受信手段(例えば、図7の通信装置14、図15のステップS27、図19のステップS211〜S216)と、
この第1受信手段により受信された複数の通信データそれぞれに含まれる音声データを、当該通信データに含まれる同期調整データに従って同期して合成し、合成音声データを作成する合成音声作成手段(例えば、図7の管理サーバ;CPU11、図22のステップS241〜S248)と、
この合成音声作成手段により作成された合成音声データを、前記観客端末に送信する合成音声送信手段(例えば、図7の通信装置14、図22のステップS249)と、
を備えることを特徴としている。
【0008】
また、請求項5記載の発明は、
複数の演者端末と観客端末とに通信接続されたサーバにおける通信方法であって、
音声データ及び予め定められている同期調整データを含む通信データを、前記複数の演者端末それぞれから受信する第1受信工程(例えば、図19のステップS211〜S216)と、
この第1受信工程において受信された複数の通信データそれぞれに含まれる音声データを、当該通信データに含まれる同期調整データに従って同期して合成し、合成音声データを作成する合成音声作成工程(例えば、図22のステップS241〜S248)と、
この合成音声作成工程にて作成された合成音声データを、前記観客端末に送信する合成音声送信工程(例えば、図22のステップS249)と、
を含むことを特徴としている。
【0009】
この請求項1又は5記載の発明によれば、各演者端末から受信した音声データを、それぞれに対応する同期調整データに基づいて同期させた合成音声データを作成するとともに、作成した合成音声データを観客端末に配信することができる。従って、各演者端末の間の距離に影響されることなく、リアルタイムな合成音声の再生を実現することができる。
【0010】
また、請求項2記載の発明のように、
請求項1記載のサーバにおいて、
前記観客端末から音声データを受信する第2受信手段(例えば、図7の通信装置14;図20のステップS221〜S225)を更に備え、
前記合成音声作成手段は、前記第1受信手段により受信される複数の通信データそれぞれに含まれる音声データを同期して合成するとともに、前記第2受信手段により受信された音声データを更に合成することにより、合成音声データを作成することとしても良い。
【0011】
この請求項2記載の発明によれば、演者端末より受信した音声データに、観客端末より受信した音声データを、更に合成した音声合成データを作成し、観客端末に送信することができる。従って、例えば複数の演者端末にて入力された演奏音声をリアルタイムに合成しつつ、合奏音声として出力するネットワーク演奏システムで観客は、合奏に対する自身の反応が反映された合奏音声を聴くことができ、実際のライブ演奏のように、観客として参加しているかのような状態を体験することができる。
【0012】
また、請求項3記載の発明のように、
請求項1又は2に記載のサーバにおいて、
前記観客端末から音声データを受信する第2受信手段(例えば、図7の通信装置14;図20のステップS221〜S225)と、
この第2受信手段により受信された音声データに、予め定められている同期調整データを付加して通信データを作成する作成手段(例えば、図7の管理サーバ;CPU11;20のステップS231〜S238)と、
この作成手段により作成された通信データを、前記複数の演者端末それぞれに送信する送信手段(例えば、図7の通信装置14;図21のステップS239)と、
を更に備えることとしても良い。
【0013】
この請求項3記載の発明によれば、観客端末より受信した音声データに、同期調整データを付加し、演者端末に送信することができる。即ち、演者端末においては、観客端末が発信した音声データを、上記合成音声データと同期させて再生することができる。従って、例えば演奏者は、複数の演者端末にて入力された演奏音声をリアルタイムに聴くことができるとともに、当該合奏に対する観客の反応をリアルタイムに聴くことができる。このため、実際のライブ演奏のように、多くの観客の前で演奏しているかのような状態を体験することができる。
【0014】
尚ここで、請求項4に記載の発明のように、請求項2又は3に記載のサーバにおいて、前記合成音声作成手段は、前記第1受信手段により受信された音声データの合成を、前記第2受信手段により受信された音声データの合成に優先して実行する(例えば、図18のステップS202〜S205)こととしても良い。
【0015】
この請求項4に記載の発明によれば、演者端末から受信した音声データに対する処理を、観客端末から受信した音声データに対する処理に優先して実行することができる。従って、観客端末から受信した音声データの多少に関わらず、演者端末から受信した音声データを、遅延無く且つ正確に同期して合成した合成音声データを生成することができる。
【0016】
また、請求項6記載の発明は、
請求項2〜4の何れか一項に記載のサーバに通信接続された観客端末(例えば、図1の観客端末40)であって、
音声入力手段(例えば、図14のマルチプレクサ46に接続されるマイクロフォン)と、
前記サーバから送信される合成音声データを受信する合成音声受信手段(例えば、図14の通信装置53:図27のステップS421〜S428)と、
この合成音声受信手段により受信された合成音声データを再生する再生手段(例えば、図14の観客端末;CPU41及び観客端末;DSP42;図27のステップS429〜S431)と、
この再生手段による再生の際に、前記音声入力手段により入力された音声を音声データとして前記サーバに送信する音声送信手段(例えば、図14の通信装置53;図6(c)のステップC1〜C2、図26のステップS401〜S411)と、
を備えることを特徴としている。
【0017】
この請求項6記載の発明によれば、サーバから受信した合成音声データを再生するとともに、入力された音声の音声データをサーバに送信することができる。従って、例えば利用者は、複数の演者端末にて入力された演奏音声をリアルタイムに聴くことができるとともに、合奏に対する自身の反応がリアルタイムに反映された合奏音声を聴くことができる。このため、実際のライブ演奏のように、観客として参加しているかのような状態を体験することができる。
【0018】
また、請求項7記載の発明は、請求項1記載のサーバであって、
前記合成音声送信手段によって送信された合成音声データの前記観客端末での再生の際に、前記観客端末において入力された観客音声データを受信する観客音声データ受信手段(例えば、図7の通信装置14、図7の管理サーバ;CPU11、図6(b)のステップA1、図20の観客データ受信処理)と、
この観客音声データ受信手段により受信された観客音声データと、前記合成音声作成手段により合成された合成音声データとをさらに合成する観客音声データ合成手段(例えば、図7の管理サーバ;CPU11、管理サーバ;DSP21、図21のステップS231〜S238、図22のステップS241〜S2448)と、
をさらに備えることを特徴としている。
【0019】
この請求項7記載の発明によれば、観客端末で合成音声データが再生される際に、当該観客端末から入力される観客音声データと、合成音声データとを更に合成することができる。従って、演奏音声と、その演奏音声に反応した観客の音声とが重畳するように合成されるため、例えば、合成された音声データを再生することにより、ライブの臨場感を得ることができる。
【0020】
【発明の実施の形態】
以下、図面を参照し、発明の実施の形態を詳細に説明する。尚、以下においては、本発明を適用した演奏システムを例にとって説明するが、本発明の適用はこれに限らない。
【0021】
ここで演奏システムとは、インターネットを介して接続された複数の演者端末が、それぞれに割り当てられたパートで、同時にある曲目の演奏(即ち、合奏)を行うシステムである。この時、演者端末においては、利用者によって入力されたパートの演奏音声と、他の演者端末において入力されたパートの演奏音声と、インターネットを介して接続された観客端末において入力された、拍手や歓声等の観客音声とが合成された合奏音声が、出力される。尚、各演者端末に割り当てるパートは、それぞれ異なるものであっても良いし、複数の演者端末で同一のパートを割り当てることとしても良い。
【0022】
図1は、本実施の形態における演奏システム1の構成を示す図である。
同図によれば、演奏システム1は、管理サーバ10、複数の演者端末20及び複数の観客端末40より構成される。そして、これらの機器は、インターネットNに接続されている。尚、同図においては、3台の演者端末20及び2台の観客端末40が示されているが、勿論、これは何台であっても構わない。
【0023】
管理サーバ10は、CPU(Central Processing Unit)、RAM(Random Access Memory)、記憶装置、通信装置等がシステムバスを介して接続される周知のサーバ装置により実現される。また、管理サーバ10は、Webページ用ファイルを提供するWebサーバ機能、ストリーミングデータを配信するストリーミングサーバ機能及び各種データを複数機器に同時配信するマルチキャストサーバ機能を有している。尚、管理サーバ10を複数のサーバ装置とし、それぞれが各サーバ機能を分担することとしても良い。
【0024】
演者端末20及び観客端末40は、CPU、RAM、記憶装置、入力装置、表示装置、通信装置等がシステムバスを介して接続される、周知のPC(PersonalComputer)により実現される。また、観客端末40には、配信されるストリーミングデータを再生するためのストリーミング再生ソフトが、インストールされている。
【0025】
図2は、演奏システム1における各機器の間のデータの流れを示す図である。同図(a)は、合奏前の様子を、同図(b)は、合奏中の様子を、それぞれ示している。尚、これらのデータは、適宜暗号化され、インターネットNを介して送受信される。
【0026】
同図(a)によれば、演者端末20は、利用者の指示入力に応じた演奏条件データを、管理サーバ10へ送信する。この演奏条件データには、利用者が演奏を希望する曲目、パート及び日時のデータが含まれる。従って、管理サーバ10は、各演者端末20から送信される演奏条件データを受信する(図2(a)中▲1▼)。
【0027】
また、管理サーバ10は、これらの演奏条件データに基づき、合奏に参加する演者端末20を特定する。そして、特定した各演者端末20に対して、当該合奏の予定を示す合奏予定データを送信する。この合奏予定データには、当該合奏を予定する日時、曲目及び参加する演者端末20を示すデータが含まれている。従って、合奏に参加予定の各演者端末20は、管理サーバ10から送信される合奏予定データを受信する(図2(a)中▲2▼)。
【0028】
また、管理サーバ10は、観客端末40の要求に応じて、現在予定されている全ての合奏に関する合奏予定データを送信する。従って、観客端末40は、管理サーバ10から送信される合奏予定データを受信する(同図(a)中▲3▼)。
【0029】
また、観客端末40は、上記受信した合奏予定データに基づき、利用者の指示入力に応じた参加予定データを、管理サーバ10へ送信する。この参加予定データには、上記現在予定されている全ての合奏の内、観客端末40の利用者が観客として参加を希望する合奏を指定するデータが含まれている。従って、管理サーバ10は、各観客端末40から送信される参加予定データを受信する(図(a)中▲4▼)。
【0030】
一方、同図(b)によれば、合奏が予定された日時となると、管理サーバ10は、当該合奏に参加予定の演者端末20及び観客端末40それぞれに対して、演奏開始を指示する(同図(b)中▲1▼)。
【0031】
そして、管理サーバ10から演奏開始が指示された演者端末20は、先に受信した合奏予定データに基づき、当該合奏に参加する他の演者端末20との演奏データ(利用者により入力された演奏音声のデータ)の送受信を行うとともに、管理サーバ10から送信される合成観客データを受信し、合奏を実現する(同図(b)中▲2▼、▲3▼)。具体的には、演者端末20は、利用者により入力された演奏音声に応じた演奏データと、他の演者端末20より受信した演奏データと、管理サーバ10から受信した合成観客データとを合成し、合奏音声として出力する。
【0032】
また、管理サーバ10から演奏開始が指示された観客端末40は、利用者により入力された観客音声のデータ(以下、適宜「観客データ」という。)を、管理サーバ10へ送信する。それとともに、管理サーバ10からストリーミング配信される合奏データを受信し、この合奏データに基づく合奏音声を出力する(同図(b)中▲4▼、▲5▼)。
【0033】
一方、管理サーバ10は、各観客端末40から受信した観客データを合成し、合成観客データとして各演者端末20へ送信する(同図(b)中▲3▼)。それととともに、各演者端末20から受信した演奏データと、上記合成観客データとを合成し、合奏データとして、各観客端末40へストリーミング配信する(同図(b)中▲4▼)。
【0034】
また、本実施の形態においては、通信プロトコルとして、UDP/IPが採用されている。即ち、インターネットNを経由した管理サーバ10、演者端末20及び観客端末40の間のデータ通信は、各機器に割り当てられたIPアドレスに基づくIPパケットの送受信によって、実現される。
【0035】
具体的には、合奏中における各種データの送受信(同図(b)参照)は、マルチキャストIPアドレス、詳細には、合奏に参加している演者端末20をグループ化した演者用マルチキャストIPアドレス及び当該合奏に観客として参加している観客端末40をグループ化した観客用マルチキャストIPアドレスに基づき、実現される。
【0036】
即ち、演者端末20は、当該演者端末20自身の演奏データを、演者用マルチキャストIPアドレス宛に送信する。そして、管理サーバ10は、この演者用マルチキャストIPアドレス宛に送信された演奏データを、当該演者用マルチキャストIPアドレスによってグループ化された他の演者端末20へ一斉配信する(同図(b)中▲2▼)。
【0037】
また、管理サーバ10は、合成観客データを、演者用マルチキャストIPアドレスによってグループ化された各演者端末20へ一斉配信するとともに(同図(b)中▲3▼)、合奏データを、観客用マルチキャストIPアドレスによってグループ化された観客端末40へ一斉配信する(同図(b)中▲4▼)。
【0038】
図3は、IPパケットに含まれるIPヘッダのフォーマットを示す図である。同図によれば、IPヘッダは、準拠しているIP規格のバージョン(即ち“6”)、当該IPパケットの優先度、通信帯域の予約を保証するためのフローラベル、実データの大きさを示すペイロード長、後続ヘッダのIDを示すネクストヘッダ、ルータによる中継限界数を示すホップリミット、送信元の機器のIPアドレスを示す送信元IPアドレス及び宛先の機器のIPアドレスを示す宛先IPアドレスより構成される。
【0039】
また、図4は、IPパケットに含まれる実データ(ペイロード部)のデータ構成を示す図である。尚、同図においては、合奏時に管理サーバ10と演者端末20との間で送受信される演奏データについてのデータ構成を示している。
同図によれば、IPパケットに含まれる実データは、指示ヘッダ及び音声データより構成される。
【0040】
指示ヘッダには、データ識別、送信元の機器を示す送信端末識別番号、上記送信元の機器から送信された何番目のIPパケットであるかを示すパケット番号、音声データの記録方式(符号化方式)を示す音声記録方式(即ち、“PCM”)、その際のパラメータであるサンプリングレート(サンプリング周波数)、ビット数(量子化ビット数)、ビットレート、そして音声データに対するエフェクトを示すエフェクト条件が含まれている。
【0041】
ここで、送信端末識別番号及びパケット番号を合わせて、「同期調整データ」という。この同期調整データは、後述のように、演奏データを同期合成するために用いられる。
【0042】
データ識別とは、演奏システム1で送受信される当該IPパケットの種類を示すものであり、具体的には、“演奏データ”であるか否かを示す。
【0043】
エフェクトとは、音声データに対して付加する音響効果を意味しており、例えば、エコーやリバーブ(残響)、トーンコントロールの度合、音量バランスの変更、ステレオ化の有無等が該当する。
【0044】
また、音声データは、アナログ信号である演奏音声を、PCM(Pulse Code Modulation)方式によってデジタル信号に変換したデータであり、1つのIPパケットにつき、512サンプリング分のデータが含まれる。即ち、演奏データは、管理サーバ10と演者端末20との間で、512サンプリング分を単位としてやり取りされる。以下、この1パケット分(即ち、512サンプリング分)の音声データを、適宜「音声データパケット」という。
【0045】
一方、合奏時に管理サーバ10と観客端末40との間で送受信される観客データ及び合奏データについては、次の点で上記演奏データと異なる。即ち、音声データには、1つのIPパケットにつき、1024サンプリング分のデータが含まれる。また、この音声データは、MP3方式に従って圧縮・符号化されたデータである。即ち、観客データ及び合奏データは、管理サーバ10と観客端末40との間で、1024サンプリング分を単位としてやり取りされる。以下、この1パケット分(即ち、1024サンプリング分)の音声データについて、適宜「音声データパケット」という。
【0046】
図5は、演奏システム1における通信プロトコルのスタックを示す図である。同図によれば、通信プロトコルは、下位層から順に、イーサネット(登録商標)層(PPPoverEther)、IP層(ネットワーク層)、UDP層(トランスポート層)及びアプリケーション層(APIを含む)より構成される。
【0047】
即ち、ある機器が他の機器から受信したIPパケットは、イーサネット(登録商標)層を介してIP層へ渡され、このIP層にて、暗号解読処理がなされる。その後、UDP層を経由して、アプリケーション層に渡される。アプリケーション層では、IPパケットの実データに含まれる音声データが、音声データパケットとして、指示ヘッダとともに抜き出される。
【0048】
また、利用者により入力された演奏音声や観客音声等の音声データは、アプリケーション層において音声データパケットに変換され、続いて、UDP層、IP層へ渡される。そして、IP層にて暗号化処理がなされるとともに、IPパケット化される。生成されたIPパケットは、イーサネット(登録商標)層を経由し、外部の他の機器へ送信される。
【0049】
ここで、IP層にて実現されるデータの暗号/復号化について説明する。
暗号化とは、インターネット等のネットワークを通じて文書や画像等のデジタルデータをやりとりする際に、通信途中で第三者に盗み見られたり改ざんされることを防ぐため、予め定められた規則に従ってデータを変換し、解読が極めて困難な状態にすることである。そして、暗号化されたデータを元に戻し、解読可能な状態にすることを復号化という。
【0050】
また、一般に、暗号/復号化には、暗号表にあたる「鍵」を使用するが、対になる2つの鍵を使う公開鍵暗号方式と、どちらにも同じ鍵を用いる共通鍵暗号方式とがある。前者にはRSA、ElGamal暗号、楕円曲線暗号等があり、後者には米国政府標準のDESやIDEA、FEAL、MISTY等があり、本実施の形態では上記の何れを使うこととしても良い。
【0051】
次に、管理サーバ10、演者端末20及び観客端末40の内部構成について、図7〜図14を参照して説明する。
【0052】
図7は、管理サーバの構成を示すブロック図である。
同図によれば、管理サーバ10は、管理サーバ;CPU11、記憶装置12、RAM13及び通信装置14により構成され、各部は、システムバス15によりデータ通信可能に接続されている。
【0053】
管理サーバ;CPU11は、記憶装置12に記憶される各種処理プログラムに基づいて、管理サーバ10を構成する各部を集中制御する。具体的には、通信装置14から入力される信号に応答して、記憶装置12に記憶されている処理プログラムを読み出してRAM13に一時記憶させるとともに、係る処理プログラムに基づく処理を実行して、管理サーバ10を機能させる。その際、管理サーバ;CPU11は、処理結果をRAM13内の所定領域に格納するとともに、必要に応じて、その処理結果を通信装置14から外部機器へ送信する。
【0054】
また、管理サーバ;CPU11は、本実施の形態の特徴的な処理として、後述する合奏処理(図15参照)、データ受信処理(図18参照)、演奏データ受信処理(図19参照)、観客データ受信処理(図20参照)、合成観客データ送信処理(図21参照)及び合奏データ生成処理(図22参照)を実行する。
【0055】
具体的には、合奏処理において、管理サーバ;CPU11は、演者端末20から送信される演奏条件データを受信すると、受信した演奏条件データを、RAM13内の演奏条件データ格納領域13aに格納する。そして、この演奏条件データに適合するデータを、演奏条件データ格納領域13aに格納されているデータの内から検索し、合奏に参加可能な演者端末20を特定する。
【0056】
それとともに、管理サーバ;CPU11は、上記特定した演者端末20をグループ化した演者用マルチキャストIPアドレス及び観客として参加することとなる観客端末40をグループ化する観客用マルチキャストIPアドレスを設定する。
【0057】
そして、これら設定した演者用マルチキャストIPアドレス及び観客用マルチキャストIPアドレスを含む合奏予定データを、RAM13内の合奏予定データ格納領域13bに格納するとともに、上記特定した各演者端末20に対して、この合奏予定データを送信する。
【0058】
また、管理サーバ;CPU11は、観客端末40の要求に応じ、合奏予定データ格納領域13bに格納されている合奏予定データを、当該観客端末40に送信するとともに、観客端末40から送信される参加予定データを受信し、受信した参加予定データを、合奏予定データ格納領域13bに格納する。
【0059】
更に、管理サーバ;CPU11は、合奏を予定している日時の所定時間前となると、当該合奏に参加予定の演者端末20及び観客端末40に対して、演奏開始を指示する。
【0060】
データ受信処理において、管理サーバ;CPU11は、受信したデータ、即ち入力されたIPパケットが演奏データであるか観客データであるかを判定するとともに、演奏データであると判定した場合には、観客データ受信処理(図20参照)に優先して演奏データ受信処理(図19参照)を実行する。
【0061】
演奏データ受信処理において、管理サーバ;CPU11は、各演者端末20から受信した演奏データ、即ちIPパケットから512サンプリング分の音声データを抜き出し、所定の音響効果処理を行った後、送信元である演者端末20毎に、演奏データバッファ13cに格納する。
【0062】
観客データ受信処理において、管理サーバ;CPU11は、各観客端末40から受信した観客データ、即ちIPパケットから1024サンプリング分の音声データを抜き出し、MP3フォーマットからPCMフォーマットに変換した後、観客データバッファ13dに格納する。
【0063】
合成観客データ送信処理において、管理サーバ;CPU11は、所定時間毎に、観客データバッファ13dに格納されている音声データパケットを読み出して音合成した後、所定の音響効果処理を行う。そして、この合成後の音声データパケットを、合成観客データバッファ13eに格納するとともにIPパケット化し、合成観客データとして、各演者端末20へ送信する。
【0064】
また、合奏データ生成処理において、管理サーバ;CPU11は、演奏データバッファ13cに格納されている音声データパケットの内、所定のパケット番号のものを全て読み出して音合成(同期合成)する。それとともに、合成観客データバッファ13eに格納されている音声データパケットを読み出して、上記同期合成後の音声データパケットと音合成する。そして、この合成後の音声データパケットをIPパケット化し、合奏データとして、各観客端末40へ送信する。
【0065】
図8は、管理サーバ;CPU11が、演奏データに対して行う処理の概念を示す図である。尚、同図においては、管理サーバ10が、3台の他の演者端末20(以下、それぞれを、適宜「演者端末A」、「演者端末B」及び「演者端末B」という。)から送信される演奏データを受信する場合について、示している。
【0066】
管理サーバ10が受信する演奏データは、上述のように、IPパケットとして管理サーバ;CPU11へ入力される。同図においては、このIPパケットを簡略し、送信端末識別番号とパケット番号とから構成される同期調整データ及び音声データのみで表しているともに、管理サーバ;CPU11への入力順に、図中左より示している。
【0067】
また、送信端末識別番号“A”は演者端末Aを、送信端末識別番号“B”は演者端末Bを、そして送信端末識別番号“C”は送信端末Cを、それぞれ示している。
【0068】
そして、音声データ“データAh”は、演者端末Aから受信したパケット番号“h”のIPパケットの音声データパケットを、音声データ“データBi”は、演者端末Bから受信したパケット番号“i”のIPパケットの音声データパケットを、そして音声データ“データCj”は、演者端末Cより受信したパケット番号“j”のIPパケットの音声データパケットを、それぞれ示している。
【0069】
同図(a)によれば、管理サーバ;CPU11は、入力されたIPパケットから音声データを抜き出す。そして、この音声データを1つの音声データパケットとし、付加されている端末識別番号に従って送信元の演者端末20毎に振り分けるとともに、パケット番号に従って並べ替える。即ち、同図(a)においては、図中上から、演者端末A、B、Cの順に振り分けた様子を示している。
【0070】
次いで、同図(b)によれば、管理サーバ;CPU11は、これらの音声データパケットそれぞれに対し、指定されたエフェクト条件に基づいた音響効果処理を行う。即ち、エコーやリバーブ、トーンコントロール等のエフェクトを、指定された度合で付加するとともに、指定されたL/R比のステレオデータに変換する。
【0071】
例えば、音声データ“データA0”に対し、所定のエフェクトを付加するとともに、指定されたL/R比のステレオデータ、即ちLチャネルの音声データ“データA0L”及びRチャネルの音声データ“データA0R”を生成する。
【0072】
また、音声データ“データB0”及び“データC0”についても同様に、所定のエフェクトを付加し、指定されたL/R比で、Lチャネルの音声データ“データB0L”及び“データC0L”、そしてRチャネルの音声データ“データB0R”及び“データC0R”を、それぞれ生成する。
【0073】
その後、同図(c)によれば、管理サーバ;CPU11は、これらの音声データパケットを合成し、合成演奏データを生成する。具体的には、これらの音声データパケットの内、パケット番号が同一のもの同士を、チャネル毎に合成する。
【0074】
例えば、パケット番号“0”については、音声データ“データA0L”、“データB0L”及び“データC0L”を合成し、Lチャネルの音声データ“データA0L+B0L+C0L”を生成するとともに、音声データ“データA0R”、“データB0R”及び“データC0L”を合成し、Rチャネルの音声データ“データA0R+B0R+C0R”を生成する。
【0075】
また、パケット番号“1”についても同様に、音声データ“データA1L”、“データB1L”及び“データC1L”を合成し、Lチャネルの音声データ“データA1L+B1L+C1L”を生成するとともに、音声データ“データA1R”、“データB1R”及び“データC1R”を合成し、Rチャネルの音声データ“データA1R+B1R+C1R”を生成する。
【0076】
図9は、管理サーバ;CPU11が、観客データに対して行う処理の概念を示す図である。尚、同図においては、管理サーバ10が、2台の観客端末40(以下、それぞれを、適宜「観客端末a」及び「観客端末b」という。)から送信される観客データを受信する場合について、示している。
【0077】
管理サーバ10が受信する観客データは、上述のように、IPパケットとして管理サーバ;CPU11へ入力される。同図においては、このIPパケットを簡略し、音声データのみで表しているとともに、管理サーバ;CPU11への入力順に、図中左より示している。
【0078】
また、音声データ“データah”は、観客端末aから受信したh番目の音声データパケットを、そして、音声データ“データbi”は、観客端末bから受信したi番目の音声データパケットを、それぞれ示している。
【0079】
同図(a)によれば、管理サーバ;CPU11は、所定時間の間に入力されたIPパケットそれぞれから音声データを抜き出すとともに、これらの音声データを1組のデータとする。即ち、同図(a)においては、音声データ“データa0”及び“データa1”を1組に、音声データ“データb0”、“データb2”及び“データa2”を1組とした様子を示している。
【0080】
次いで、同図(b)によれば、管理サーバ;CPU11は、これらの音声データパケットを、上記組毎に合成する。即ち、音声データ“データa0”及び“データa1”を合成し、音声データ“データa0+a1”を生成する。また、音声データ“データb0”、“データb2”及び“データa2”を合成し、音声データ“データb0+b2+a2”を生成する。
【0081】
その後、同図(c)によれば、管理サーバ;CPU11は、合成後の音声データパケットそれぞれに対し、指定されたエフェクト条件に基づいた音響効果処理を行い、合成観客データを生成する。即ち、エコーやリバーブ、トーンコントロール等のエフェクトを、指定された度合で付加するとともに、指定されたL/R比のステレオデータに変換する。
【0082】
例えば、音声データ“データa0+a1”に対し、所定のエフェクトを付加するとともに、指定されたL/R比のステレオデータ、即ち、Lチャネルの音声データ“データa0L+a1L”及びRチャネルの音声データ“データa0R+a1R”を生成する。
【0083】
また、音声データ“データb1+b2+a2”についても同様に、所定のエフェクトを付加し、指定されたL/R比で、Lチャネルの音声データ“データb1L+b2L+a2L”及びRチャネルの音声データ“データb1R+b2R+a2R”を生成する。
【0084】
このように、各演奏データを合成した合成演奏データ(即ち、図8(c)の状態)及び各観客データを合成した合成観客データ(即ち、図9(c)の状態)を生成すると、管理サーバ;CPU11は、生成した合成観客データを演者端末20へ送信する。それとともに、上記合成演奏データ及び合成観客データを合成して合奏データを生成し、観客端末40へ送信する。
【0085】
図7において、記憶装置12は、ハードディスク等により構成されるものであり、管理サーバ10の動作に係る各種処理プログラムや、本実施の形態の機能を実現するためのプログラム(具体的には、合奏プログラム12a、データ受信プログラム12b、演奏データ受信プログラム12c、観客データ受信プログラム12d、合成観客データ送信プログラム12e及び合奏データ生成プログラム12f)及びこれらのプログラムの実行に係る処理データ等を記憶する。
【0086】
RAM13は、管理サーバ;CPU11により実行される各プログラムを実行するためのプログラムエリア(不図示)、入力指示や入力データ、上記プログラムが実行される際に生じる処理結果等を一時的に格納するワークメモリエリアを備えている。また、このワークメモリエリアには、演奏条件データ格納領域13a、合奏予定データ格納領域13b、演奏データバッファ13c、観客データバッファ13d及び合成観客データバッファ13eが形成される。
【0087】
演奏条件データ格納領域13aは、演者端末20から受信した演奏条件データが格納される領域であり、図10に、そのデータ構成を示す。
図10は、演奏条件データ格納領域13aに格納されるデータの構成を示す図である。
同図によれば、演奏条件データ格納領域13aには、演奏を希望する曲目、パート及び日時を含む演奏条件とIPアドレスとが対応付けて格納される。また、この演奏条件は、演者端末20から受信した演奏条件データに該当する。
【0088】
即ち、演奏条件データ格納領域13aには、演者端末20から演奏条件データ及びIPアドレスを受信する毎に、これらのデータが対応付けられて追加格納される。そして、管理サーバ;CPU11により互いに適合するものが検索され、合奏予定データが生成されると、該当するデータが、演奏条件データ格納領域13aから削除される。
【0089】
合奏予定データ格納領域13bは、合奏予定データが格納される領域であり、図11に、そのデータ構成を示す。
図11は、合奏予定データ格納領域に格納されるデータの構成を示す図である。
同図によれば、合奏予定データ格納領域13bには、予定している合奏毎に、日時、曲目、各パートに割り当てられた演者端末20のIPアドレス、演者用マルチキャストIPアドレス、観客として参加予定の観客端末40のIPアドレス及び観客用マルチキャストIPアドレスが、対応付けて格納される。
【0090】
即ち、観客端末40から演奏予定データを受信する毎に、ともに受信したIPアドレスが、該当する観客端末40のIPアドレスとして追加格納される。また、これらのデータは、合奏を予定する日時が現在時刻に近い順に格納されている。
【0091】
演奏データバッファ13cは、演者端末20から受信した演奏データが格納される領域である。具体的には、図8(b)に示すように、送信元の演者端末20毎に、管理サーバ;CPU11によって音響効果処理が行われた音声データパケットが、パケット番号に従って格納される。
【0092】
観客データバッファ13dは、観客端末40から受信した観客データが格納される領域である。具体的には、図9(a)に示すように、送受信した音声データパケットが、その受信順に格納される。
【0093】
合成観客データバッファ13eは、合成観客データが格納される領域である。具体的には、図9(c)に示すように、管理サーバ;CPU11によって音響効果処理が行われた音声データパケットが、その生成順に格納される。
【0094】
図7において、通信装置14は、インターネットNを介して他の機器とのデータ通信を行うためのインターフェースであり、ルータ等により構成される
【0095】
図12は、演者端末20の構成を示すブロック図である。
同図によれば演者端末20は、演者端末;CPU21、演者端末;DSP22、記憶装置23、RAM24、入力装置25、マルチプレクサ26、サンプルホールド回路27、A/D(Analog−Digital)変換回路28、D/A(Digital−Analog)変換回路29、アンプ30、表示駆動回路31、表示装置32及び通信装置33より構成される。
【0096】
演者端末;CPU21は、記憶装置23に記憶される各種処理プログラムに基づいて、演者端末20を構成する各部を集中制御する。具体的には、入力装置25、或いは通信装置33から入力される信号に応答して、記憶装置23に記憶されている処理プログラムを読み出してRAM24に一時記憶させるとともに、係る処理プログラムに基づく処理を実行して、演者端末20を機能させる。その際、演者端末;CPU21は、処理結果をRAM24内の所定領域に格納するとともに、必要に応じて、その処理結果を、表示装置32に表示するとともに、通信装置33から外部機器へ送信する。
【0097】
また、演者端末;CPU21は、本実施の形態の特徴的な処理として、後述する合奏処理(図15参照)、リンク確立処理処理(図17参照)演奏データ送信処理(図23参照)及び演奏/合成観客データ受信処理(図24参照)を実行する。
【0098】
具体的には、合奏処理において、演者端末;CPU21は、利用者の入力指示に応じた演奏条件データを、当該演者端末20のIPアドレスとともに、管理サーバ10へ送信する。それとともに、管理サーバ10から送信される合奏予定データを受信する。
【0099】
そして、管理サーバ10より演奏開始を指示されると、演者端末;CPU21は、リンク確立処理、次いで演奏処理を実行する。また、この演奏処理において、演者端末;CPU21は、演奏データ送信処理(図23参照)、及び演奏/合成観客データ受信処理(図24参照)を実行するともに、演者端末;DSP22に、後述する演奏データ送信処理(図23参照)、演奏/合成観客データ受信処理(図24参照)及び合奏音声出力処理(図25参照)を実行させる。
【0100】
リンク確立処理において、演者端末;CPU21は、管理サーバ10から受信した合奏予定データに基づき、合奏に参加する他の演者端末20に対して、利用者により入力された接続条件を送信(提示)する。それとともに、この接続条件と、他の演者端末20から受信した接続条件とを照合し、当該合奏における接続条件を決定する。
【0101】
ここで、接続条件には、通信条件及びエフェクト条件が含まれる。
通信条件とは、演者端末20及び管理サーバ10の間のデータ通信に関する条件であり、具体的には、入力された演奏音声の符号化方式(サンプリング周波数や量子化ビット数等のパラメータを含む)や、これらの機器の間でデータ通信を行う際の接続レート(伝送速度)等が該当する。そして、この通信条件は、各演者端末20や管理サーバ10のスペック等に応じて設定可能な条件の内から、利用者の指示により、或いは最適なものが自動的に決定される。
【0102】
また、エフェクト条件とは、上述のように、演奏音声に対する音響効果に関する条件であり、具体的には、エコーやリバーブ(残響)、トーンコントロールの度合、音量バランス、ステレオ化の有無やそのL/R比等が該当する。そして、このエフェクト条件は、想定する演奏場所(例えば、コンサートホールや野外ステージ、ライブハウス等)に応じて、合奏音声に施すエコーやリバーブ(残響)、トーンコントロール等の度合が決定されたり、或いは想定するステージ上における各パートの位置(例えば、中央にボーカル、右にギター、左にベース等)に応じて、当該各パートの音声の音量バランスや、ステレオ音声として出力する際の左右バランス(L/R比)が決定される。
【0103】
演奏データ送信処理において、演者端末;CPU21は、演者端末;DSP22から入力される音声データパケットをIPパケット化し、演奏データとして、管理サーバ10及び他の演者端末20へ送信する。
【0104】
また、演奏/合成観客データ受信処理において、演者端末;CPU21は、各演者端末20から受信した演奏データ、或いは管理サーバ10から受信した合成観客データ、即ちIPパケットから音声データを抜き出し、1つの音声データパケットとして、演者端末;DSP22へ出力する。
【0105】
図12において、演者端末;DSP22は、デジタルデータの高速処理に特化したプロセッサである。また、演者端末;DSP22は、本実施の形態の特徴的な処理として、後述する演奏データ送信処理(図23参照)、演奏/合成観客データ受信処理(図24参照)及び合奏音声出力処理(図25参照)を実行する。
【0106】
具体的には、演奏データ送信処理において、演者端末;DSP22は、サンプリング周期毎に、D/A変換回路29から入力される音声データを入力バッファ24aに格納するとともに、512サンプリング分の音声データを1つの音声データパケットとして、演者端末;CPU21へ出力する。それとともに、この音声データパケットに対して所定の音響効果処理を行った後、演奏データバッファ24bに格納する。
【0107】
演奏/合成観客データ受信処理において、演者端末;DSP22は、演者端末;CPU21から入力された音声データパケットが演奏データであれば、所定の音響効果処理を行った後、演奏データバッファ24bに格納する。一方、演者端末;CPU21から入力された音声データパケットが合成観客データであれば、合成観客データバッファ24cに格納する。
【0108】
また、合奏音声出力処理において、演者端末;DSP22は、演奏データバッファ24bに格納されている音声データパケットの内、所定のパケット番号のものを読み出して音合成(同期合成)する。それとともに、合成観客データバッファ24cに格納されている音声データパケットを読み出して、上記同期合成後の音声データパケットと音合成する。そして、この合成後の音声データパケットを、D/A変換回路29へ出力する。
【0109】
図13は、演者端末;CPU21及び演者端末;DSP22が、演奏データに対して行う処理の概念を示す図である。尚、同図においては、演者端末20(以下、適宜「演者端末A」という。)が、2台の他の演者端末20(以下、それぞれを、適宜「演者端末B」及び「演者端末C」という。)から送信される演奏データを受信する場合について、示している。
【0110】
演者端末20が受信する演奏データは、上述のように、IPパケットとして演者端末;CPU21へ入力される。同図においては、このIPパケットを簡略し、送信端末識別番号及びパケット番号より構成される同期調整データ及び音声データのみで表しているとともに、演者端末;CPU21への入力順に、図中左より示している。
【0111】
また、送信端末識別番号“A”は演者端末A自身を、送信端末識別番号“B”は演者端末Bを、そして送信端末識別番号“C”は演者端末Cを、それぞれ示している。
【0112】
また、音声データ“データAh”は、演者端末A自身に入力されたパケット番号“h”のIPパケットの音声データパケットを、音声データ“データBi”は、演者端末Bから受信したパケット番号“i”のIPパケットの音声データパケットを、そして、音声データ“データCj”は、演者端末Cから受信したパケット番号“j”のIPパケットの音声データパケットを、それぞれ示している。
【0113】
同図(a)によれば、演者端末;CPU21は、入力されたIPパケットから音声データを抜き出す。そして、この音声データを1つの音声データパケットとし、付加されている端末識別番号に従って送信元の演者端末20毎に振り分けるとともに、パケット番号に従って並べ替える。即ち、同図(a)においては、図中上から、演者端末A、B、Cの順に振り分けた様子を示している。
【0114】
次いで、同図(b)によれば、演者端末;DSP22は、これらの音声データパケットそれぞれに対し、指定されたエフェクト条件に基づいた音響効果処理を行う。即ち、エコーやリバーブ、トーンコントロール等のエフェクトを、指定された度合で付加するとともに、指定されたL/R比のステレオデータに変換する。
【0115】
例えば、音声データ“データA0”に対し、所定のエフェクトを付加するとともに、指定されたL/R比のステレオデータ、即ち、Lチャネルの音声データ“データA0L”及びRチャネルの音声データ“データA0R”を生成する。
【0116】
また、音声データ“データB0”及び“データC0”についても同様に、所定のエフェクトを付加し、指定されたL/R比で、Lチャネルの音声データ“データB0L”及び“データC0L”、そしてRチャネルの音声データ“データB0R”及び“データC0R”を、それぞれ生成する。
【0117】
その後、同図(c)によれば、演者端末;DSP22は、これらの音声データパケットを合成し、合成演奏データを生成する。具体的には、これらの音声データパケットの内、パケット番号が同一のもの同士を、チャネル毎に合成する。
【0118】
例えば、パケット番号“0”については、音声データ“データA0L”、“データB0L”及び“データC0L”を合成し、Lチャネルの音声データ“データA0L+B0L+C0L”を生成するとともに、音声データ“データA0R”、“データB0R”及び“データC0L”を合成し、Rチャネルの音声データ“データA0R+B0R+C0R”を生成する。
【0119】
また、パケット番号“1”についても同様に、音声データ“データA0L”、“データB0L”及び“データC0L”を合成し、Lチャネルの音声データ“データA0L+B0L+C0L”を生成するとともに、音声データ“データA0R”、“データB0R”、及び“データC0L”を合成し、Rチャネルの音声データ“データA0R+B0R+C0R”を生成する。
【0120】
このように、各演奏データを合成した合成演奏データ(即ち、同図(c)の状態)を生成すると、演者端末;DSP22は、この合成演奏データと、管理サーバ10から受信した合成観客データとを合成し、合奏データを生成する。尚、ここで生成された合奏データは、D/A変換回路29へ出力された後、アンプ30にて増幅され、合奏音声として出力される。
【0121】
図12において、記憶装置23は、演者端末20の動作に係る各種処理プログラムや、本実施の形態の機能を実現するためのプログラム(具体的には、合奏プログラム23a、リンク確立プログラム23b、演奏データ送信プログラム23c、演奏/合成観客データ受信プログラム23d、合奏音声出力プログラム23e)及びこれらのプログラムの実行に係る処理データ等を記憶する。
【0122】
RAM24は、演者端末;CPU21により実行される各プログラムを実行するためのプログラムエリア(不図示)、入力指示や入力データ、上記プログラムが実行される際に生じる処理結果等を一時的に格納するワークメモリエリアを備えている。また、このワークメモリエリアには、入力バッファ24a、演奏データバッファ24b及び合成観客データバッファ24cが形成される。
【0123】
入力バッファ24aは、利用者によって入力された演奏音声のデータ(演奏データ)が格納される領域であり、詳細には、512サンプリング分の音声データを格納する領域が、確保されている。
【0124】
演奏データバッファ24bは、演者端末20自身の演奏データ及び他の演者端末20から受信した演奏データが格納される領域である。具体的には、図13(b)に示すように、演者端末;DSP22によって音響効果処理が行われた音声データパケットが、演者端末20毎に、パケット番号に従って格納される。
【0125】
合成観客データバッファ24cは、管理サーバ10から受信した合成観客データが格納される領域である。具体的には、図9(c)に示すように、管理サーバ10にて音響効果処理が行われた音声データパケットが、その受信順に格納される。
【0126】
入力装置25は、演者端末20の利用者が、演奏を希望する条件や、他の演者端末20との接続条件等を入力するためのものであり、文字キーや数字キー、各種機能キーを備えたキーボード又はタッチパネル、或いはマウスやトラックボール、トラック・パッド、ポインティング・スティック等のポインティングデバイス等により構成される。そして、これらの操作に応じた操作信号を、演者端末;CPU21へ出力する。
【0127】
マルチプレクサ26は、複数の入力信号の内から1つの信号を選択し、出力する回路である。また、このマルチプレクサ26の入力側には、マイクロフォンや電子楽器等に接続されており、演者端末;DSP22から入力される指示信号(選択信号)に従って、入力される演奏音声の一つを選択し、サンプルホールド回路27へ出力する。
【0128】
サンプルホールド回路27は、演者端末;DSP22から入力されるクロック信号の入力タイミングに従い、マルチプレクサ26から入力される音声信号(アナログ信号)を、一時的に保持(ホールド)するとともに、A/D変換回路28へ出力する。
【0129】
A/D変換回路28は、サンプルホールド回路27から入力されるアナログ信号をデジタル信号に変換する回路であり、得られたデジタル信号を演者端末;DSP22へ出力する。
【0130】
D/A変換回路29は、演者端末;DSP22から入力されるデジタル信号をアナログ信号に変換する回路であり、得られたアナログ信号をアンプ30へ出力する。
【0131】
アンプ30は、D/A変換回路29から入力されるアナログ信号を所定レベルに増幅し、増幅後の信号を、外部接続されたスピーカ(不図示)へ出力する。
【0132】
表示駆動回路31は、演者端末;CPU21から入力される表示信号に基づいて表示装置32を駆動し、各種表示画面を表示させる回路である。また、表示装置32は、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等により構成され、演者端末;CPU21から入力される表示信号に従った表示画面を表示する。
【0133】
通信装置33は、インターネットNを介して他の機器とのデータ通信を行うためのインターフェースであり、ルータ等により構成される。
【0134】
図14は、観客端末40の構成を示すブロック図である。
同図によれば、観客端末40は、観客端末;CPU41、観客端末;DSP42、記憶装置43、RAM44、入力装置45、マルチプレクサ46、サンプルホールド回路47、A/D変換回路48、D/A変換回路49、アンプ50、表示駆動回路51、表示装置52及び通信装置53より構成される。
【0135】
観客端末;CPU41は、記憶装置43に記憶される各種処理プログラムに基づいて、観客端末40を構成する各部を集中制御する。具体的には、入力装置45、或いは通信装置53から入力される信号に応答して、記憶装置43に記憶されている処理プログラムを読み出してRAM44に一時記憶させるとともに、係る処理プログラムに基づく処理を実行して、観客端末40を機能させる。その際、観客端末;CPU41は、処理結果をRAM44内の所定領域に格納するとともに、必要に応じて、その処理結果を、表示装置52に表示するとともに、通信装置53から外部機器へ送信する。
【0136】
また、観客端末;CPU41は、本実施の形態の特徴的な処理として、後述する合奏処理(図15参照)、観客データ送信処理(図26参照)及び合奏音声再生処理(図27参照)を実行する。
【0137】
具体的には、合奏処理において、観客端末;CPU41は、管理サーバ10から送信される演奏予定データを受信する。そして、この演奏予定データに基づき、利用者の入力指示に応じた参加予定データを、当該観客端末40のIPアドレスとともに、管理サーバ10へ送信する。その後、管理サーバ10より演奏開始を指示されると、観客端末;CPU41は、演奏処理を実行する。
【0138】
この演奏処理において、観客端末;CPU41は、後述する観客データ送信処理(図26参照)及び合奏音声再生処理(図27参照)を実行するとともに、観客端末;DSP42に、観客データ送信処理(図26参照)及び合奏音声再生処理(図27参照)を実行させる。
【0139】
観客データ送信処理において、観客端末;CPU41は、観客端末;DSP42から入力される音声データパケットをIPパケット化し、観客データとして、管理サーバ10へ送信する。
【0140】
また、合奏音声再生処理において、観客端末;CPU41は、管理サーバ10から受信した合奏データ、即ちIPパケットから音声データを抜き出し、1つの音声データパケットとして、観客端末;DSP42へ出力する。
【0141】
観客端末;DSP42は、デジタルデータの高速処理に特化したプロセッサである。また、観客端末;DSP42は、本実施の形態の特徴的な処理として、後述する観客データ送信処理(図26参照)及び合奏音声再生処理(図27参照)を実行する。
【0142】
具体的には、観客データ送信処理において、観客端末;DSP42は、サンプリング周期毎に、D/A変換回路49から入力される音声データを入力バッファ44aに格納するとともに、512サンプリング分の音声データを1つの音声データパケットとして、観客端末;CPU41へ出力する。
【0143】
また、合奏音声再生処理において、観客端末;DSP42は、観客端末;CPU41から入力される音声データパケットを、その受信順に合奏データバッファ44bに格納する。そして、所定時間毎に、合奏データバッファ44bに格納されている音声データパケットを、その格納順に読み出し、D/A変換回路49へ出力する。
【0144】
図14において、記憶装置43は、観客端末40の動作に係る各種処理プログラムや、本実施の形態の機能を実現するためのプログラム(具体的には、合奏プログラム43a、観客データ送信プログラム43b、合奏音声再生プログラム43c)及びこれらのプログラムの実行に係る処理データ等を記憶する。
【0145】
RAM44は、観客端末;CPU41により実行される各プログラムを実行するためのプログラムエリア(不図示)、入力指示や入力データ、上記プログラムが実行される際に生じる処理結果等を一時的に格納するワークメモリエリアを備えている。また、このワークメモリエリアには、入力バッファ44a及び合奏データバッファ44bが形成される。
【0146】
入力バッファ44aは、利用者によって入力された観客音声のデータ(観客データ)が格納される領域であり、詳細には、512サンプリング分の音声データが格納される領域が確保されている。
【0147】
合奏データバッファ44bは、ストリーミング配信用のバッファであり、管理サーバ10から受信した合奏データが格納される領域である。具体的には、管理サーバ10にて合成・音響効果処理が行われた音声データパケットが、その受信順に格納される。
【0148】
入力装置45は、観客端末40の利用者が、観客として参加を希望する演奏の指定等を入力するためのものであり、文字キーや数字キー、各種機能キーを備えたキーボード又はタッチパネル、或いはマウスやトラックボール、トラック・パッド、ポインティング・スティック等のポインティングデバイス等により構成される。そして、これらの操作に応じた操作信号を、観客端末;CPU41へ出力する。
【0149】
マルチプレクサ46は、複数の入力信号の内から1つの信号を選択し、出力する回路である。また、このマルチプレクサ46の入力側には、マイクロフォンが接続されており、観客端末;DSP42から入力される指示信号(選択信号)に従って、入力される観客音声の一つを選択し、サンプルホールド回路47へ出力する。
【0150】
サンプルホールド回路47は、観客端末;DSP42から入力されるクロック信号の入力タイミングに従い、マルチプレクサ46から入力される音声信号(アナログ信号)を一時的に保持(ホールド)するとともに、A/D変換回路48へ出力する。
【0151】
A/D変換回路48は、サンプルホールド回路47から入力されるアナログ信号をデジタル信号に変換する回路であり、得られたデジタル信号を観客端末;DSP42へ出力する。
【0152】
D/A変換回路49は、観客端末;DSP42から入力されるデジタル信号をアナログ信号に変換する回路であり、得られたアナログ信号をアンプ50へ出力する。
【0153】
アンプ50は、D/A変換回路49から入力されるアナログ信号を所定レベルに増幅し、増幅後の信号を、外部接続されたスピーカ(不図示)へ出力する。
【0154】
表示駆動回路51は、観客端末;CPU41から入力される表示信号に基づいて表示装置52を駆動し、各種表示画面を表示させる回路である。また、表示装置52は、CRTやLCD等により構成され、観客端末;CPU41から入力される表示信号に従った表示画面を表示する。
【0155】
通信装置53は、インターネットNを介して他の機器とのデータ通信を行うためのインターフェースであり、ルータ等により構成される。
【0156】
次に、演奏システム1の動作を、図15〜図27を参照して説明する。
【0157】
図15は、合奏処理を示すフローチャートである。
この合奏処理は、管理サーバ10の管理サーバ;CPU11、演者端末20の演者端末;CPU21及び観客端末40の観客端末;CPU41により、それぞれ、記憶装置12に記憶された合奏プログラム12a、記憶装置22に記憶された合奏プログラム22a及び記憶装置42に記憶された合奏プログラム42aに従って、実行される処理である。
【0158】
同図によれば、演者端末20において、演者端末;CPU21は、利用者からの入力指示に従い、管理サーバ10が提供するWebサイトへアクセスし(ステップS11)、この管理サーバ10から送信されるHP情報(Webページを表示させるための情報)を受信する(ステップS12)。そして、このHP情報に基づいて、表示装置32に、合奏参加登録画面(不図示)を表示する。
【0159】
次いで、演奏参加登録画面上の入力フォーマットに従って、利用者により演奏を希望する曲目やパート、日時を含む演奏条件データが入力されると(ステップS13)、演者端末;CPU21は、この演奏条件データ及び演者端末20のIPアドレスを、演奏参加登録要請とともに、管理サーバ10へ送信する(ステップS14)。
【0160】
一方、管理サーバ10において、演者端末20から、演奏参加登録要請とともに送信される演奏条件データ及びIPアドレスを受信すると(ステップS15)、管理サーバ;CPU11は、この演奏条件データ及びIPアドレスを対応付けて、RAM13内の演奏条件データ格納領域13aに追加格納する。
【0161】
そして、管理サーバ;CPU11は、演奏条件データ格納領域13aに格納されているデータの内から、受信した演奏条件データに適合するデータを検索し、合奏に参加可能な演者端末20を特定する(ステップS16)。具体的には、演奏を希望する曲目及び日時が一致し、且つパートが異なるデータを検索する。
【0162】
合奏に参加可能な演者端末20を特定すると、管理サーバ;CPU11は、特定した演者端末20をグループ化した演者用マルチキャストIPアドレス及び観客として参加する観客端末40をグループ化する観客用マルチキャストIPアドレスを設定する。そして、これらの演者用マルチキャストIPアドレス及び観客用マルチキャストIPアドレスととともに、合奏を予定する日時、曲目、参加する演者端末20のIPアドレスを対応付けて、RAM13内の合奏予定データ格納領域13bに、詳細には、合奏予定日時が現在時刻に最も近い順に並ぶ位置に追加格納する。
【0163】
それとともに、管理サーバ;CPU11は、上記特定した各演者端末20に対し、当該合奏を予定する日時、曲目、割り当てたパート、演者用マルチキャストIPアドレスを含む合奏予定データを送信する(ステップS17)。即ち、各演者端末20は、参加することとなる合奏に関する演奏予定データ、即ち、合奏を予定する日時や曲目、演者用マルチキャストIPアドレス(演奏データの送信先となる。)を受信する(ステップS18)。
【0164】
また、観客端末40において、観客端末;CPU41は、利用者からの入力指示に従い、管理サーバ10が提供するWebサイトへアクセスし(ステップS19)、この管理サーバ10から送信される合奏予定データを受信する(ステップS20、S21)。そして、この合奏予定データに基づいて、表示装置52に、演奏予定画面(不図示)を表示する。
【0165】
次いで、この演奏予定画面上の入力フォーマットに従って、利用者により観客として参加を希望する合奏が指定されると(ステップS22)、観客端末;CPU41は、指定された合奏を示す参加予定データ及び当該観客端末40のIPアドレスを、管理サーバ10へ送信する(ステップS23)。
【0166】
一方、管理サーバ10において、演者端末20から送信される参加予定データ及びIPアドレスを受信すると(ステップS24)、管理サーバ;CPU11は、受信したIPアドレスを、指定された合奏に対応する観客用マルチキャストIPアドレスによってグループ化された観客端末40のIPアドレスとして、RAM13内の合奏予定データ格納領域13bに格納する。
【0167】
また、管理サーバ10において、管理サーバ;CPU11は、随時、合奏予定データ格納領域13bの先頭に格納されている合奏予定日時と、現在時刻とを比較している。そして、合奏予定日時の所定時間前となると(ステップS25:YES)、管理サーバ;CPU11は、当該合奏に参加予定の演者端末20及び観客端末40の全てに対し、その旨を通知し、例えば図16に示す演奏開始指示画面を表示させる(ステップS26)。そして、合奏開始日時となったことを確認すると、管理サーバ;CPU11は、後述の演奏処理を実行することで、当該合奏に係る処理を開始する(ステップS27)。
【0168】
また、演者端末20においては、管理サーバ10より合奏予定日時の所定時間前である旨が通知されると(ステップS28)、演者端末;CPU21は、後述のリンク確立処理(図17参照)を実行することで、当該合奏に参加予定の他の演者端末20と、接続条件の提示・照合を行うとともに、直接通信リンクを確立する(ステップS29)。その後、合奏予定日時となったことを確認すると、演者端末;CPU21は、後述の演奏処理を実行することで、当該合奏に係る処理を開始する(ステップS30)。
【0169】
一方、観客端末40においては、管理サーバ10より演奏開始日時の所定時間前である旨が通知されと(ステップS31)、観客端末;CPU41は、合奏予定日時となったことを確認した後、後述の演奏処理を実行することで、当該合奏に、観客として参加する(ステップS32)。
【0170】
そして、各機器(管理サーバ10、各演者端末20及び各観客端末40)の全てにおける演奏処理が終了すると、当該合奏は終了となる。
【0171】
図15のステップS29にて実行されるリンク確立処理について、説明する。図17は、リンク確立処理を示すフローチャートである。このリンク確立処理は、演者端末20の演者端末;CPU21により、記憶装置23に記憶されたリンク確立プログラム23bに従って実行される。
【0172】
同図によれば、演者端末;CPU21は、利用者からの入力指示に従った接続条件を、他の演者端末20に送信(提示)するとともに、他の演者端末20から受信した接続条件と照合する(ステップS101)。尚、ここで照合される接続条件は、上述のように、通信条件及びエフェクト条件が含まれるものである。
【0173】
照合の結果、他の演者端末20の接続条件との合意が得られないと判断した場合(ステップS102:NO)、演者端末;CPU21は、合意されていない接続条件の内容を、代替案の候補とともに表示装置32に表示させる(ステップS103)。
【0174】
そして、これらの代替案から選択された内容を、新たな接続条件として他の演者端末20に再送信(再提示)するとともに、他の演者端末20から再送信(再提示)される接続条件との照合を行う(ステップS104)。
【0175】
その結果、接続条件の合意が得られたと判断した場合には(ステップS102:YES)、演者端末;CPU21は、合意した接続条件、詳細には、少なくとも演者端末20自身に関する接続条件を、RAM24に記憶しておく。
以上の処理を行うと、演者端末;CPU21は、本リンク確立処理を終了する。
【0176】
図15のステップS27にて実行される演奏処理について説明する。この演奏処理において、管理サーバ10は、データ受信処理(図18参照)、合成観客データの演者端末への送信処理(図21参照)及び合奏データ生成・観客端末への送信処理(図22参照)の3つの処理を並行して実行する。図6(a)に、この管理サーバ10が行う演奏処理の概略フローを示す。管理サーバ10は、データ受信処理(図18参照)(ステップA1)と、合成観客データの演者端末への送信処理(図21参照)(ステップA2)と、合奏データ生成・観客端末への送信処理(図22参照)(ステップA3)とを、演奏が終了するまで繰り返し行う(ステップA4)。
【0177】
図18は、データ受信処理(管理サーバ)を示すフローチャートである。このデータ受信処理は、管理サーバ10の管理サーバ;CPU11により、記憶装置12に記憶されたデータ受信プログラム12bに従って実行される処理である。
【0178】
同図によれば、通信装置14からIPパケットが入力されると(ステップS201:YES)、管理サーバ;CPU11は、このIPパケットが演奏データであり、且つ観客データ受信処理を現在実行中であるか否かを判定する(ステップS202)。
【0179】
判定の結果、入力されたIPパケットが演奏データであり、且つ観客データ受信処理を現在実行中である場合には(ステップS202:YES)、管理サーバ;CPU11は、現在実行中の観客データ受信処理を一時中断し(ステップS203)、続いて、後述する演奏データ受信処理を実行する(ステップS204)。
【0180】
そして、演奏データ受信処理を終了すると、管理サーバ;CPU11は、ステップS203にて一時中断していた観客データ受信処理の実行を再開する(ステップS205)。
【0181】
一方、ステップS202において、判定条件を満たさない場合、具体的には、入力されたIPパケットが観客データである、或いは観客データ受信処理を現在実行中でない場合には(ステップS202:NO)、管理サーバ;CPU11は、入力されたIPパケットが演奏データであるか否かを判定する(ステップS206)。
【0182】
判定の結果、このIPパケットが演奏データである場合(ステップS206:YES)、管理サーバ;CPU11は、続いて、後述する演奏データ受信処理を実行する(ステップS207)。一方、演奏データでない、即ち観客データである場合には(ステップS206:NO)、管理サーバ;CPU11は、続いて、後述する観客データ受信処理を実行する(ステップS208)。
以上の処理を終了すると、CUP11は、本データ受信処理を終了する。
【0183】
図19は、演奏データ受信処理(管理サーバ)を示すフローチャートである。この演奏データ受信処理は、図18のステップS204或いはステップS207において、管理サーバ10の管理サーバ;CPU11により、記憶装置12に記憶された演奏データ受信プログラム12cに従って実行される処理である。
【0184】
同図によれば、管理サーバ;CPU11は、通信装置14からIPパケットが入力されると、このIPパケットに対して、暗号解読処理を含むIP層プロトコル処理(ステップS211)及びUDP層プロトコル処理を行う(ステップS212)。そして、アプリケーション層処理により、このIPパケットから音声データ及び指示ヘッダを抜き出す(ステップS213)。
【0185】
次いで、管理サーバ;CPU11は、抜き出した音声データを、指示ヘッダに含まれる音声記録方式(即ち、PCM方式)に従ってデコードするとともに(ステップS214)、図8を参照して説明したように指示ヘッダに含まれるエフェクト条件に従って音響効果処理を行った後(ステップS215)、演奏データバッファ13cの所定領域に格納する(ステップS216)。
その後、管理サーバ;CPU11は、本演奏データ受信処理を終了する。
【0186】
図20は、観客データ受信処理(管理サーバ)を示すフローチャートである。この観客データ受信処理は、図18のステップS208において、管理サーバ10の管理サーバ;CPU11により、記憶装置12に記憶された観客データ受信プログラム12dに従って実行される処理である。
【0187】
同図によれば、通信装置14からIPパケットが入力されると、管理サーバ;CPU11は、このIPパケットに対して、暗号解読処理を含むIP層プロトコル処理(ステップS221)及びUDP層プロトコル処理を行う(ステップS222)。そして、アプリケーション層処理により、このIPパケットから音声データ及び指示ヘッダを抜き出す(ステップS223)。
【0188】
次いで、管理サーバ;CPU11は、抜き出した音声データを、図9を参照して説明したように、指示ヘッダに含まれる音声記録方式(即ち、PCM方式)に従ってデコードするとともに(ステップS224)、観客データバッファ13d内の所定領域、即ち、当該音声データパケットの送信元である観客端末40に対応する領域に、パケット番号に従って格納する(ステップS225)。
以上の処理を行うと、管理サーバ;CPU11は、本観客データ受信処理を終了する。
【0189】
図21は、合成観客データ送信処理(管理サーバ)を示すフローチャートである。この合成観客データ送信処理は、管理サーバ10の管理サーバ;CPU11により、記憶装置12に記憶された合成観客データ送信プログラム12eに従って実行される処理である。
【0190】
同図によれば、本処理の開始した後、所定の観客音声合成周期が経過すると(ステップS231:YES)、管理サーバ;CPU11は、観客データバッファ13dから、格納されている音声データパケットを読み出す(ステップS232)。
【0191】
そして、図9を参照して説明したように、これら読み出した音声データパケットを音合成し(ステップS233)、所定の音響効果処理を行った後(ステップS234)、処理後のデータを、合成観客データバッファ13eに格納する(ステップS235)。
【0192】
次いで、管理サーバ;CPU11は、ステップS234にて音響効果処理を行った音声データパケットを、PCM方式でエンコードした後(ステップS236)、UDP層プロトコル処理(ステップS237)、暗号化処理を含むIP層プロトコル処理を行い、IPパケットを生成する(ステップS238)。但しこの時、管理サーバ;CPU11は、演者用マルチキャストIPアドレスを、IPヘッダの宛先IPアドレスに設定する。
【0193】
そして、生成したIPパケットを、通信装置14から、演奏者用マルチキャストIPアドレスによりグループ化されている各演者端末20へ、一斉配信する(ステップS239)。
【0194】
その後、管理サーバ;CPU11は、本処理の終了が指示されているか否かを判定する(ステップS240)。判定の結果、終了を指示されていない場合には(ステップS240:NO)、管理サーバ;CPU11は、ステップS231へ移行し、更に観客音声合成周期を経過後、同様の処理を繰り返す(ステップS231〜S240)。そして、ステップS240において、本処理の終了が指示されていると判定した場合には(ステップS240:YES)、管理サーバ;CPU11は、本観客データ受信処理を終了する。
【0195】
図22は、合奏データ生成処理(管理サーバ)を示すフローチャートである。この合奏データ生成処理は、管理サーバ10の管理サーバ;CPU11により、記憶装置12に記憶された合奏データ生成プログラム12fに従って実行される処理である。
【0196】
同図によれば、管理サーバ;CPU11は、演奏データバッファ13cを参照し、各演者端末20に対応する、所定のパケット番号の音声データパケットが全て格納されていることを確認すると(ステップS241:YES)、当該パケット番号の音声データパケットを、演奏データバッファ13cから読み出す(ステップS242)。そして、図8を参照して説明したように、読み出した音声データパケットを音合成(同期合成)する(ステップS243)。
【0197】
それとともに、管理サーバ;CPU11は、合成観客データバッファ13eから1つの音声データパケットを、その格納順に読み出し(ステップS244)、読み出した音声データパケットと、ステップS243にて同期合成した音声データパケットとを、チャネル毎に音合成する(ステップS245)。
【0198】
次いで、管理サーバ;CPU11は、合成した音声データパケットを、MP3方式に従ってエンコード(圧縮を含む)した後(ステップS246)、UDP層プロトコル処理(ステップS247)、暗号化処理を含むIP層プロトコル処理を行い、IPパケットを生成する(ステップS248)。但しこの時、管理サーバ;CPU11は、観客用マルチキャストIPアドレスを、IPヘッダの宛先IPアドレスに設定する。
【0199】
そして、管理サーバ;CPU11は、生成したIPパケットを通信装置14へ出力し、観客用マルチキャストIPアドレスによりグループ化されている各観客端末40へ、一斉配信する(ステップS249)。
【0200】
その後、管理サーバ;CPU11は、本処理の終了が指示されているか否かを判定する(ステップS250)。判定の結果、終了を指示されていない場合には(ステップS250:NO)、管理サーバ;CPU11は、ステップS241へ移行し、次のパケット番号の音声データパケットに対して同様の処理を繰り返す(ステップS241〜S250)。そして、ステップS250において、本処理の終了が指示されていると判定した場合には(ステップS250:YES)、管理サーバ;CPU11は、本合奏データ生成処理を終了する。
【0201】
以上のように、データ受信処理、合成観客データ送信処理及び合奏データ生成処理を終了すると、管理サーバ;CPU11は、15のステップS27における演奏処理を終了する。
【0202】
次に、図15のステップS30にて実行される演奏処理について説明する。この演奏処理において、演者端末20は、演奏データ送信処理(図23参照)、演奏/合成観客データ受信処理(図24参照)及び合成音声出力処理(図25参照)の3つの処理を並行して実行する。図6(b)に、演者端末20が行う演奏処理の概略フローを示す。演者端末20は、当該演者が担当するパートの音声・映像情報を入力して(ステップB1)、演奏データ送信処理(図23参照)と、演奏/合成観客データ受信処理(図24参照)と、合成音声出力処理(図25参照)とを、演奏が終了するまで繰り返し行う(ステップB5)。
【0203】
図23は、演奏データ送信処理(演者端末)を示すフローチャートである。この演奏データ送信処理は、演者端末20の演者端末;CPU11及び演者端末;DSP22により、記憶装置23に記憶された演奏データ送信プログラム23cに従って実行される処理である。
【0204】
同図によれば、本処理を開始した後、所定のサンプリング周期が経過すると(ステップS301:YES)、演者端末;DSP22は、A/D変換回路28から出力される音声データを取込み(ステップS302)、取込んだ音声データを、入力バッファ24aへ格納する(ステップS303)。尚、ここでサンプリング周期とは、アナログ信号である演奏音声をデジタル信号に符号化する際の周期であり、図15のステップS29(リンク確立処理)において合意された接続条件に含まれるものである。
【0205】
次いで、演者端末;DSP22は、512サンプリング分、即ち1パケット分の音声データの取込みを行ったか否かを判定し(ステップS304)、行っていないと判定した場合には(ステップS304:NO)、ステップS301へ移行し、更にサンプリング周期を経過後、同様の処理を繰り返す(ステップS301〜S304)。
【0206】
このように、サンプリング周期毎に音声データの取込みを繰り返し、1パケット分(即ち、512サンプリング分)の音声データの取り込みを行ったと判定すると(ステップS304:YES)、演者端末;DSP22は、続いて、入力バッファ24aに格納されている1パケット分(即ち、512サンプリング分)の音声データを読み出す(ステップS305)。
【0207】
そして、読み出した音声データに対して指定された音響効果処理を行った後(ステップS306)、1つの音声データパケットとして演奏データバッファ24bの所定領域、具体的には、当該演者端末20に対応する領域に格納する(ステップS307)。
【0208】
それとともに、演者端末;DSP22は、ステップS305にて読み出した音声データを、MP3方式に従ってエンコード(圧縮を含む)した後(ステップS308)、演者端末;CPU21へ出力する(ステップS309)。その後、演者端末;DSP22は、ステップS301へ移行し、次の1パケット分の音声データに対して、同様の処理を繰り返す(ステップS301〜S309)。
【0209】
一方、演者端末;CPU21は、演者端末;DSP22から音声データパケットが入力されると(ステップS310)、この音声データパケットに、同期調整データ、即ち演者端末20自身を識別する送信端末識別番号及び音声データパケットが入力された順を示すパケット番号を付加するとともに(ステップS311)、UDP層プロトコル処理(ステップS312)、暗号化処理を含むIP層プロトコル処理を行い、IPパケットを生成する(ステップS313)。但し、この時、演者端末;CPU21は、演者用マルチキャストIPアドレス及び管理サーバ10のIPアドレスを、IPヘッダの宛先IPアドレスに設定する。
【0210】
そして、演者端末;CPU21は、生成したIPパケットを、通信装置33へ出力し、演者用マルチキャストIPアドレスによりグループ化された他の演者端末20及び管理サーバ10へ送信する(ステップS314)。
【0211】
その後、演者端末;CPU21は、本処理の終了が指示されているか否かを判定する(ステップS315)。判定の結果、終了を指示されていない場合には(ステップS315:NO)、演者端末;CPU21は、ステップS310へ移行し、続いて入力される音声データに対して同様の処理を繰り返す(ステップS310〜S315)。そして、ステップS315において、本処理の終了が指示されていると判定した場合には(ステップS315:YES)、演者端末;CPU21は、本演奏データ送信処理を終了する。
【0212】
図24は、演奏/合成観客データ受信処理を示すフローチャートである。この演奏/合成観客データ受信処理は、演者端末20の演者端末;CPU21及び演者端末;DSP22により、記憶装置23に記憶された演奏/合成観客データ受信プログラム23dに従って実行される処理である。
【0213】
同図によれば、他の演者端末20から演奏データ或いは管理サーバ10から合成観客データを受信する、即ち、通信装置33からIPパケットが入力されると(ステップS321:YES)、演者端末;CPU21は、入力されたIPパケットに対して、暗号解読処理を含むIP層プロトコル処理(ステップS322)及びUDP層プロトコル処理を行うとともに(ステップS323)、アプリケーション層処理により、このIPパケットから音声データ及び指示ヘッダを抜き出し、1つの音声データパケットとして、指示ヘッダとともに演者端末;DSP22へ出力する(ステップS324)。
【0214】
その後、演者端末;CPU21は、本処理の終了が指示されているか否かを判定する(ステップS325)。判定の結果、終了を指示されていない場合には(ステップS325:NO)、演者端末;CPU21は、ステップS321へ移行し、続いて入力されるIPパケットに対して、同様の処理を繰り返す(ステップS321〜S325)。そして、本処理の終了が指示されていると判定した場合には、演者端末;CPU21は(ステップS235:YES)、本演奏/合成観客データ受信処理を終了する。
【0215】
一方、演者端末;DSP22は、演者端末;CPU21から音声データパケットが入力されると(ステップS326)、入力された音声データパケットに対し、指示ヘッダに含まれる音声記録方式(即ち、PCM方式)に従ってデコードする(ステップS327)。
【0216】
そして、指示ヘッダに含まれるデータ識別より、この音声データパケットが演奏データであると判定した場合には(ステップS328:YES)、当該音声データパケットに対し、指示ヘッダに含まれるエフェクト条件に従って音響効果処理を行う(ステップS329)。その後、演奏データバッファ24bの所定領域、即ち、当該音声データパケットの送信元である演者端末20に対応する領域に、パケット番号に従って格納する(ステップS330)。
【0217】
また、ステップS328において、入力された音声データパケットが合成観客データであると判定した場合には(ステップS328:NO)、演者端末;CPU21は、この音声データパケットを合成観客データバッファ24cに、受信順に格納する(ステップS331)。
【0218】
このように、音声データパケットを演奏データバッファ24b、或いは合成観客データバッファ24cに格納すると、演者端末;DSP22は、ステップS326へ移行し、続いて入力される音声データパケットに対して、同様の処理を繰り返す(ステップS326〜S331)。
【0219】
図25は、合奏音声出力処理(演者端末)を示すフローチャートである。この合奏音声出力処理は、演者端末20の演者端末;DSP22により、記憶装置23に記憶された合奏音声出力プログラム23eに従って実行される処理である。
【0220】
同図によれば、本処理を開始した後、所定の再生サンプリング周期が経過すると(ステップS341:YES)、演者端末;DSP22は、演奏データバッファ24bから、所定のパケット番号の音声データを読み出す(ステップS342)。そして、図13を参照して説明したように、読み出した音声データを、チャネル毎に音合成(同期合成)する(ステップS343)。尚、ここで再生サンプリング周期とは、符号化されている音声データを復号化する際のサンプリング周期であり、各演者端末20毎に固有の値である。
【0221】
それとともに、演者端末;DSP22は、合成観客データバッファ24cから1つの音声データパケットを、その格納順に読み出す(ステップS344)。そして、読み出した音声データと、ステップS343にて同期合成した音声データとを、チャネル毎に音合成する(ステップS345)。
【0222】
次いで、演者端末;DSP22は、合成後の音声データの出力レベルを調整した後、D/A変換回路29へ出力する(ステップS346)。ここでD/A変換回路29に入力された音声データは、アナログ信号に変換された後、アンプ30にて増幅され、合奏音声として出力される。
【0223】
その後、演者端末;DSP22は、本処理の終了が指示されているか否かを判定する(ステップS347)。判定の結果、終了が指示されていない場合には(ステップS347:NO)、演者端末;DSP22は、ステップS341へ移行し、更に再生サンプリング周期を経過後、次の音声データに対して、同様の処理を繰り返す(ステップS341〜S347)。そして、ステップS347において、本処理の終了が指示されている判定した場合には(ステップS347:YES)、演者端末;DSP22は、本合奏音声出力処理を終了する。
【0224】
以上のように、演奏データ送信処理、演奏/合成観客データ受信処理及び合成音声出力処理を終了すると、CPU22は、図15のステップS30における演奏処理を終了する。
【0225】
次に、図15のステップS32にて実行される演奏処理について説明する。この演奏処理において、観客端末40は、観客データ送信処理(図26参照)及び合奏音声再生処理(図27参照)の2つの処理を並行して実行する。図6(c)に、観客端末40が行う演奏処理の概略フローを示す。観客端末40は、観客の音声を入力すると(ステップC1)、観客データ送信処理(図26参照)と、合奏音声再生処理(図27参照)とを、演奏が終了するまで繰り返し行う(ステップC4)。
【0226】
図26は、観客データ送信処理を示すフローチャートである。この観客データ送信処理は、観客端末40の観客端末;CPU41及び観客端末;DSP42により、記憶装置43に記憶された観客データ送信プログラム43bに従って実行される処理である。
【0227】
同図によれば、本処理を開始した後、サンプリング周期が経過すると(ステップS401:YES)、観客端末;DSP42は、A/D変換回路48から出力される音声データを取込み(ステップS402)、取込んだ音声データを、入力バッファ44aへ格納する(ステップS403)。
【0228】
次いで、観客端末;DSP42は、1パケット分(即ち、1024サンプリング分)の音声データの取込みを行ったか否かを判定し(ステップS404)、行っていないと判定した場合には(ステップS404:NO)、ステップS401へ移行し、更にサンプリング周期を経過後、同様の処理を繰り返す(ステップS401〜S404)。
【0229】
このように、サンプリング周期毎に音声データの取込みを繰り返し、1パケット部分(即ち、1024サンプリング分)の音声データの取込みを行ったと判定すると(ステップS404:YES)、観客端末;DSP42は、続いて、入力バッファ44aに格納されている1パケット分(即ち、1024サンプリング分)の音声データを読み出す(ステップS405)。
【0230】
そして、観客端末;DSP42は、読み出した音声データに対し、MP3方式に従ってエンコード(圧縮を含む)した後(ステップS406)、1つの音声データパケットとして、観客端末;CPU41へ出力する(ステップS407)。その後、観客端末;DSP42は、ステップS401へ移行し、更に1パケット分の音声データを取込み、同様の処理を繰り返す(ステップS401〜S407)。
【0231】
一方、観客端末;CPU41は、観客端末;DSP42から音声データパケットが入力されると(ステップS408)、UDP層プロトコル処理(ステップS409)、暗号化処理を含むIP層プロトコル処理を行い、IPパケットを生成する(ステップS410)。但し、この時、観客端末;CPU41は、管理サーバ10のIPアドレスを、IPヘッダの宛先IPアドレスに設定する。そして、観客端末;CPU41は、生成したIPパケットを通信装置53へ出力し、管理サーバ10へ送信する(ステップS411)。
【0232】
その後、観客端末;CPU41は、本処理の終了が指示されているか否かを判定する(ステップS412)。判定の結果、終了を指示されていない場合には(ステップS412:NO)、観客端末;CPU41は、ステップS408へ移行し、続いて入力される音声データパケットに対して同様の処理を繰り返す(ステップS408〜S412)。そして、ステップS412において、本処理の終了が指示されていると判定した場合には(ステップS412:YES)、観客端末;CPU41は、本観客データ送信処理を終了する。
【0233】
図27は、合奏音声再生処理を示すフローチャートである。この合奏音声再生処理は、観客端末40の観客端末;CPU41及び観客端末;DSP42により、記憶装置43に記憶された合奏音声再生プログラム43cに従って実行される処理である。
【0234】
同図によれば、管理サーバ10から合奏データを受信する、即ち、通信装置53からIPパケットが入力されると(ステップS421:YES)、観客端末;CPU41は、入力されたIPパケットに対して、暗号解読処理を含むIP層プロトコル処理(ステップS422)及びUDP層プロトコル処理を行うとともに(ステップS423)、アプリケーション層処理により、このIPパケットから音声データを抜き出し、音声データパケットとして、観客端末;DSP42へ出力する(ステップS424)。
【0235】
その後、観客端末;CPU41は、本処理の終了が指示されているか否かを判定する(ステップS425)。判定の結果、終了を指示されていない場合には(ステップS425:NO)、観客端末;CPU41は、ステップS421へ移行し、続いて入力されるIPパケットに対して、同様の処理を繰り返す(ステップS421〜S425)。
そして、ステップS425において、本処理の終了が指示されていると判定した場合には(ステップS425:YES)、観客端末;CPU41は、本合奏音声再生処理を終了する。
【0236】
一方、観客端末;DSP42は、観客端末;CPU41から音声データパケットが入力されると(ステップS426)、入力された音声データパケットを、指定された音声記録方式(即ち、MP3方式)に従ってデコードした後(ステップS427)、合奏データバッファ44bに格納する(ステップS428)。
【0237】
その後、観客端末;DSP42は、基準時間を経過したか否かを判定する(ステップS429)。尚、この基準時間とは、ストリーミングデータの再生に先立ち、一定量のストリーミングデータを合奏データバッファ44bに蓄積するための時間であり、本処理の開始から、この基準時間が経過した後、再生バッフ44bに格納されている音声データパケットが順次読み出し・再生される。即ち、観客端末40において、合奏音声の出力は、基準時間だけ遅れて開始されることになる。
【0238】
判定の結果、基準時間を経過していない場合には(ステップS429:NO)、観客端末;DSP42は、ステップS426へ移行し、続いて入力される音声データパケットに対して同様の処理を繰り返す(ステップS426〜S429)。
【0239】
一方、基準時間を経過したと判定した場合には(ステップS429:YES)、観客端末;DSP42は、合奏データバッファ44bから、先頭の音声データパケットを読み出す。そして、読み出した音声データの出力レベルを調整した後、D/A変換回路49へ出力する(ステップS431)。ここでD/A変換回路49に入力された音声データは、アナログ信号に変換された後、アンプ50にて増幅され、合奏音声として出力される。
【0240】
その後、観客端末;DSP42は、ステップS426へ移行し、続いて入力される音声データパケットに対して、同様の処理を繰り返す(ステップS426〜S431)。
【0241】
以上のように、観客データ送信処理、合成音声再生処理を終了すると、観客端末;CPU41は、図15のステップS32における演奏処理を終了する。
【0242】
以上のように構成することで、インターネットNを介して接続された複数の演者端末20それぞれにおいて、入力された演奏音声のデータと、他の演者端末20から受信した演奏データとを、パケット番号に従って合成・出力することが可能となる。即ち、各演者端末20の間の距離に関わらず、これらの演者端末2における演奏音声を正確に同期させた、リアルタイムな合奏を実現することができる。
【0243】
また、観客端末40においてこの合奏音声を出力するとともに、演者端末20において、観客端末40において入力された観客音声のデータを、上記合奏音声とともに再生することで、ネットワークを利用した演奏システムにおいて、観客の反応をリアルタイムに反映させることができる。
【0244】
更に、管理サーバ10と演者端末20との間のデータのやり取りを、PCM形式のIPパケットにより実現することで、各演者端末20においては、他の演者端末20からの演奏データをリアルタイムで受信し、合奏音声を出力することができる。一方、管理サーバ10と観客端末40との間のデータのやり取りを、MP3形式のIPパケットにより実現することで、各観客端末40においては、負荷の小さい処理で合奏音声を再生することができる。
【0245】
尚、本発明の適用は、上記実施の形態に限定されることなく、本発明の趣旨を逸脱しない範囲で適宜変更可能である。例えば、上記実施の形態においては、説明の簡明のため、演者端末20と観客端末40とを別個の端末としたが、同一の端末装置としても良い。
【0246】
この場合、管理サーバ10は、図15のステップS12、或いはS20において、端末装置の要求に応じて、演奏条件データ格納領域13a、或いは合奏予定データ格納領域13bに格納されているデータを、当該端末装置へ送信する。そして、端末装置は、これらの受信データに基づき、例えば図26に示すように、現在、実行が決定している合奏及び他に参加する演者端末10を募集している合奏の一覧を表示する。そして、端末装置の利用者は、これらの一覧の内から、演奏、或いは観客としての参加を希望する合奏を選択する。
更に、この時、図中下部に示されているように、利用者により指定された曲目や演奏者等に該当するデータを検索し、表示することとしてもよい。
【0247】
【発明の効果】
請求項1又は5記載の発明によれば、各演者端末から受信した音声データを、それぞれに対応する同期調整データに基づいて同期させた合成音声データを作成するとともに、作成した合成音声データを観客端末に配信することができる。従って、各演者端末の間の距離に影響されることなく、リアルタイムな合成音声の再生を実現することができる。
【0248】
請求項2記載の発明によれば、演者端末より受信した音声データに、観客端末より受信した音声データを、更に合成した音声合成データを作成し、観客端末に送信することができる。
【0249】
請求項3記載の発明によれば、観客端末より受信した音声データに、同期調整データを付加し、演者端末に送信することができる。即ち、演者端末においては、観客端末が発信した音声データを、上記合成音声データと同期させて再生することができる。
【0250】
請求項4記載の発明によれば、演者端末から受信した音声データに対する処理を、観客端末から受信した音声データに対する処理に優先して実行することができる。
【0251】
請求項6記載の発明によれば、サーバから受信した合成音声データを再生するとともに、入力された音声の音声データをサーバに送信することができる。
【0252】
請求項7記載の発明によれば、観客端末で合成音声データが再生される際に、当該観客端末から入力される観客音声データと、合成音声データとを更に合成することができる。
【図面の簡単な説明】
【図1】本実施の形態の演奏システムの構成を示す図である。
【図2】演奏システムにおけるデータの流れを示す図である。
【図3】IPパケットのIPヘッダのフォーマットを示す図である。
【図4】IPパケットの実データの構成を示す図である。
【図5】演奏システムにおける通信プロトコルのスタックを示す図である。
【図6】管理サーバ、演者端末及び観客端末それぞれが行う演奏処理の概略フローを示す図である。
【図7】管理サーバの内部構成を示す図である。
【図8】管理サーバにおける演奏データに対する処理の概念を示す図である。
【図9】管理サーバにおける観客データに対する処理の概念を示す図である。
【図10】演奏条件データ格納領域に格納されるデータの構成を示す図である。
【図11】合奏予定データ格納領域に格納されるデータの構成を示す図である。
【図12】演者端末の内部構成を示す図である。
【図13】演者端末における演奏データに対する処理の概念を示す図である。
【図14】観客端末の内部構成を示す図である。
【図15】合奏処理を示すフローチャートである。
【図16】演奏開始指示画面を示す図である。
【図17】リンク確立処理を示すフローチャートである。
【図18】データ受信処理(管理サーバ)を示すフローチャートである。
【図19】演奏データ受信処理(管理サーバ)を示すフローチャートである。
【図20】観客データ受信処理(管理サーバ)を示すフローチャートである。
【図21】合成観客データ送信処理(管理サーバ)を示すフローチャートである。
【図22】合奏データ生成処理(管理サーバ)を示すフローチャートである。
【図23】演奏データ送信処理(演者端末)を示すフローチャートである。
【図24】演奏/合成観客データ受信処理(演者端末)を示すフローチャートである。
【図25】合奏音声出力処理(演者端末)を示すフローチャートである。
【図26】観客データ送信処理(観客端末)を示すフローチャートである。
【図27】合奏音声再生処理を示すフローチャートである。
【図28】演者端末と観客端末とを同一機器とした場合の表示画面例である、
【符号の説明】
1 演奏システム
10 管理サーバ
11 CPU
12 記憶装置
12a 合奏プログラム
12b データ受信プログラム
12c 演奏データ受信プログラム
12d 観客データ受信プログラム
12e 合成観客データ送信プログラム
12f 合奏データ生成プログラム
13 RAM
13a 演奏条件データ格納領域
13b 合奏予定データ格納領域
13c 演奏データバッファ
13d 観客データバッファ
13e 合成観客データバッファ
14 通信装置
20 演者端末
21 CPU
22 DSP
23 記憶装置
23a 合奏プログラム
23b リンク確立プログラム
23c 演奏データ送信プログラム
23d 演奏/合成観客データ受信プログラム
23e 合奏音声出力プログラム
24 RAM
24a 入力バッファ
24b 演奏データバッファ
24c 合成観客データバッファ
25 入力装置
26 マルチプレクサ
27 サンプルホールド回路
28 A/D変換回路
29 D/A変換回路
30 アンプ
31 表示駆動回路
32 表示装置
33 通信装置
40 観客端末
41 CPU
42 DSP
43 記憶装置
43a 合奏プログラム
43b 観客データ送信プログラム
43c 合奏音声再生プログラム
44 RAM
44a 入力バッファ
44b 合奏データバッファ
45 入力装置
46 マルチプレクサ
47 サンプルホールド回路
48 A/D変換回路
49 D/A変換回路
50 アンプ
51 表示駆動回路
52 表示装置
53 通信装置
N インターネット

Claims (7)

  1. 複数の演者端末と観客端末とに通信接続されたサーバにおいて、
    音声データ及び予め定められている同期調整データを含む通信データを、前記複数の演者端末それぞれから受信する第1受信手段と、
    この第1受信手段により受信された複数の通信データそれぞれに含まれる音声データを、当該通信データに含まれる同期調整データに従って同期して合成し、合成音声データを作成する合成音声作成手段と、
    この合成音声作成手段により作成された合成音声データを、前記観客端末に送信する合成音声送信手段と、
    を備えることを特徴とするサーバ。
  2. 前記観客端末から音声データを受信する第2受信手段を更に備え、
    前記合成音声作成手段は、前記第1受信手段により受信された複数の通信データそれぞれに含まれる音声データを同期して合成するとともに、前記第2受信手段により受信された音声データを更に合成することにより、合成音声データを作成することを特徴とする請求項1記載のサーバ。
  3. 前記観客端末から音声データを受信する第2受信手段と、
    この第2受信手段により受信された音声データに、予め定められている同期調整データを付加して通信データを作成する作成手段と、
    この作成手段により作成された通信データを、前記複数の演者端末それぞれに送信する送信手段と、
    を更に備えることを特徴とする請求項1又は2に記載のサーバ。
  4. 前記合成音声作成手段は、前記第1受信手段により受信された音声データの合成を、前記第2受信手段により受信された音声データの合成に優先して実行することを特徴とする請求項2又は3に記載のサーバ。
  5. 複数の演者端末と観客端末とに通信接続されたサーバにおける通信方法であって、
    音声データ及び予め定められている同期調整データを含む通信データを、前記複数の演者端末それぞれから受信する第1受信工程と、
    この第1受信工程において受信された複数の通信データそれぞれに含まれる音声データを、当該通信データに含まれる同期調整データに従って同期して合成し、合成音声データを作成する合成音声作成工程と、
    この合成音声作成工程にて作成された合成音声データを、前記観客端末に送信する合成音声送信工程と、
    を含むことを特徴とする通信方法。
  6. 複数の演者端末と通信接続されたサーバに、さらに通信接続された観客端末において、
    前記複数の演者端末夫々から受信した通信データから、当該通信データに含まれる同期調整データに従って、当該通信データに含まれる音声データが夫々同期して合成された合成音声データを、前記サーバから受信する合成音声受信手段と、
    音声入力手段と、
    前記合成音声受信手段により受信された合成音声データを再生する再生手段と、
    この再生手段による再生の際に、前記音声入力手段により入力された音声を音声データとして前記サーバに送信する音声送信手段と、
    を備えることを特徴とする観客端末。
  7. 前記合成音声送信手段によって送信された合成音声データの前記観客端末での再生の際に、前記観客端末において入力された観客音声データを受信する観客音声データ受信手段と、
    この観客音声データ受信手段により受信された観客音声データと、前記合成音声作成手段により合成された合成音声データとをさらに合成する観客音声データ合成手段と、
    をさらに備えることを特徴とする請求項1記載のサーバ。
JP2002256011A 2002-08-30 2002-08-30 サーバ、通信方法及び観客端末 Pending JP2004094683A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002256011A JP2004094683A (ja) 2002-08-30 2002-08-30 サーバ、通信方法及び観客端末

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002256011A JP2004094683A (ja) 2002-08-30 2002-08-30 サーバ、通信方法及び観客端末

Publications (1)

Publication Number Publication Date
JP2004094683A true JP2004094683A (ja) 2004-03-25

Family

ID=32061346

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002256011A Pending JP2004094683A (ja) 2002-08-30 2002-08-30 サーバ、通信方法及び観客端末

Country Status (1)

Country Link
JP (1) JP2004094683A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006065010A (ja) * 2004-08-27 2006-03-09 Casio Comput Co Ltd 仮想ライブ演奏の支援システムおよび仮想ライブ演奏の支援処理プログラム
JP2010237442A (ja) * 2009-03-31 2010-10-21 Yamaha Corp 音響効果付与システム
JP2011123462A (ja) * 2009-11-16 2011-06-23 Yamaha Corp 音響処理装置
WO2013021881A1 (ja) * 2011-08-08 2013-02-14 アイキューブド研究所株式会社 情報システム、情報再現装置、情報生成方法、および記録媒体
WO2021235048A1 (ja) * 2020-05-19 2021-11-25 憲保 池田 無観客ライブ配信方法及びシステム
JP2022028570A (ja) * 2020-08-03 2022-02-16 株式会社デザインMプラス 記録データ再生方法およびシステム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006065010A (ja) * 2004-08-27 2006-03-09 Casio Comput Co Ltd 仮想ライブ演奏の支援システムおよび仮想ライブ演奏の支援処理プログラム
JP4655550B2 (ja) * 2004-08-27 2011-03-23 カシオ計算機株式会社 仮想ライブ演奏の支援システムおよび仮想ライブ演奏の支援処理プログラム
JP2010237442A (ja) * 2009-03-31 2010-10-21 Yamaha Corp 音響効果付与システム
JP2011123462A (ja) * 2009-11-16 2011-06-23 Yamaha Corp 音響処理装置
CN103733249A (zh) * 2011-08-08 2014-04-16 I<sup>3</sup>研究所股份有限公司 信息***、信息再现装置、信息生成方法及记录介质
JP2013037524A (ja) * 2011-08-08 2013-02-21 I-Cubed Research Center Inc 情報システム、情報再現装置、情報生成方法、およびプログラム
WO2013021881A1 (ja) * 2011-08-08 2013-02-14 アイキューブド研究所株式会社 情報システム、情報再現装置、情報生成方法、および記録媒体
CN103733249B (zh) * 2011-08-08 2016-04-06 I<sup>3</sup>研究所股份有限公司 信息***、信息再现装置、信息生成方法及记录介质
US9979766B2 (en) 2011-08-08 2018-05-22 I-Cubed Reserach Center Inc. System and method for reproducing source information
WO2021235048A1 (ja) * 2020-05-19 2021-11-25 憲保 池田 無観客ライブ配信方法及びシステム
JP2021182696A (ja) * 2020-05-19 2021-11-25 憲保 池田 双方向放送方法及びシステム
CN115668956A (zh) * 2020-05-19 2023-01-31 池田宪保 无观众现场表演配送方法以及***
JP2022028570A (ja) * 2020-08-03 2022-02-16 株式会社デザインMプラス 記録データ再生方法およびシステム

Similar Documents

Publication Publication Date Title
JP4423790B2 (ja) 実演システム、ネットワークを介した実演方法
JP4559050B2 (ja) メディアデータパケットの同期再生
JP5729393B2 (ja) 演奏システム
US20070255816A1 (en) System and method for processing data signals
US20080201424A1 (en) Method and apparatus for a virtual concert utilizing audio collaboration via a global computer network
Carôt et al. Network music performance-problems, approaches and perspectives
JP2004094683A (ja) サーバ、通信方法及び観客端末
JP2003255935A (ja) 再生切替装置及びプログラム
KR20210108715A (ko) 네트워크에 기반한 합동 공연을 제공하는 장치 및 그 방법
US6525253B1 (en) Transmission of musical tone information
JP4422656B2 (ja) ネットワークを用いた遠隔多地点合奏システム
JP5109496B2 (ja) データ配信装置、データ配信方法およびプログラム
JP2004093975A (ja) 通信端末及びプログラム
CN109413476A (zh) 一种音视频与钢琴动作同步直播方法及***
JP2011197344A (ja) サーバ
JP2008304821A (ja) 楽曲合奏公開システム
JP2022552893A (ja) ワイヤレスmidiヘッドセット
JP2002062884A (ja) データ送受信方法、送受信端末、およびデータ送受信方法に係るプログラムを記憶した記憶媒体
JP4543586B2 (ja) 音声再生装置及び音声再生方法
JP2003085068A (ja) ライブ情報提供サーバ、情報通信端末、ライブ情報提供システムおよびライブ情報提供方法
JPH11284588A (ja) 通信装置、通信方法及びプログラムを記録した媒体
JP7359896B1 (ja) 音処理装置及びカラオケシステム
JP2024001600A (ja) 再生装置、再生方法、および再生プログラム
JP6529116B2 (ja) 送信装置、受信装置およびプログラム
JP5663842B2 (ja) 音響効果付与システム