JP4608400B2 - 音声通話システムおよび音声通話中におけるコンテンツの提供方法 - Google Patents

音声通話システムおよび音声通話中におけるコンテンツの提供方法 Download PDF

Info

Publication number
JP4608400B2
JP4608400B2 JP2005265283A JP2005265283A JP4608400B2 JP 4608400 B2 JP4608400 B2 JP 4608400B2 JP 2005265283 A JP2005265283 A JP 2005265283A JP 2005265283 A JP2005265283 A JP 2005265283A JP 4608400 B2 JP4608400 B2 JP 4608400B2
Authority
JP
Japan
Prior art keywords
voice communication
communication terminal
sound source
voice
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005265283A
Other languages
English (en)
Other versions
JP2007081649A (ja
Inventor
泰 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2005265283A priority Critical patent/JP4608400B2/ja
Priority to US11/492,831 priority patent/US7899171B2/en
Priority to CNA2006101076380A priority patent/CN1933517A/zh
Publication of JP2007081649A publication Critical patent/JP2007081649A/ja
Application granted granted Critical
Publication of JP4608400B2 publication Critical patent/JP4608400B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/4872Non-interactive information services
    • H04M3/4878Advertisement messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/54Presence management, e.g. monitoring or registration for receipt of user log-on information, or the connection status of the users
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/568Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities audio processing specific to telephonic conferencing, e.g. spatial distribution, mixing of participants
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/253Telephone sets using digital voice transmission
    • H04M1/2535Telephone sets using digital voice transmission adapted for voice communication over an Internet Protocol [IP] network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Telephonic Communication Services (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Information Transfer Between Computers (AREA)

Description

本発明は、音声通話システムに関し、特に、音声通話中のユーザに広告等のコンテンツを提供する技術に関する。
テレビ放送、ラジオ放送等のメディアを利用して広告を行うことが従来より行われている。テレビ放送およびラジオ放送を利用した広告では、例えば番組と番組との間に、および番組を時分割してその間に挿入する形態で、広告のための時間を割り当て、該時間に広告の放送信号を流す(非特許文献1)。
日本民間放送連盟(編集)、放送ハンドブック−文化をになう民法の業務知識、東洋経済新報社、1997/08、pp.340-343
上記従来の広告は、メディアとして音声通話を利用することを考慮していない。テレビ放送、ラジオ放送等の利用を前提とした時分割の広告を音声通話に適用した場合、会話が途中で途切れることとなり不自然である。
本発明は上記事情に鑑みてなされたものであり、本発明の目的は、会話を途切れさせることなく音声通話中のユーザに広告等のコンテンツを提供することにある。
上記課題を解決するために、本発明では、時分割ではなく空間分割の形態で広告を挿入する。すなわち、まず、音声通信端末各々のユーザおよびコンテンツを提供する音源の仮想空間における位置を管理するプレゼンスサーバを設ける。そして、プレゼンスサーバを用いて、音声通信端末毎に、当該音声通信端末以外の他の音声通信端末各々の音声データに対して、前記他の音声通信端末各々のユーザと当該音声通信端末のユーザとの相対位置に応じた立体音響処理を施すと共に、前記音源の音響データに対して、前記音源と当該音声通信端末のユーザとの相対位置に応じた立体音響処理を施す。このようにして立体音響処理された前記他の音声通信端末各々の音声データおよび前記音源の音響データを合成して、当該音声通信端末向けの音声通話データを生成する。この際、前記音源の仮想空間における位置は、音声通信端末各々について、当該音声通信端末のユーザにとって他の音声通信端末のユーザの位置と区別できるように設定する。
例えば、本発明は、複数の音声通信端末と、前記複数の音声通信端末各々に音源を提供するコンテンツサーバと、前記複数の音声通信各々のユーザおよび前記コンテンツサーバが提供する音源の仮想空間上における位置を管理するプレゼンスサーバと、を有する音声通話システムであって、
前記プレゼンスサーバから前記複数の音声通信各々のユーザおよび前記コンテンツサーバが提供する音源の仮想空間上における位置の情報を取得するプレゼンス取得部と、
前記音声通信端末毎に設けられたオーディオレンダラと、を有し、
前記オーディオレンダラは、
当該オーディオレンダラが対応する音声通信端末以外の他の音声通信端末各々の音声データに対して、前記プレゼンス取得部が取得した位置の情報により特定される、前記他の音声通信端末各々のユーザと当該オーディオレンダラが対応する音声通信端末のユーザとの相対位置に応じた立体音響処理を施すと共に、前記コンテンツサーバが提供する音源の音響データに対して前記プレゼンス取得部が取得した位置の情報により特定される、前記音源と当該音声通信端末のユーザとの相対位置に応じた立体音響処理を施す処理と、
前記立体音響処理された当該オーディオレンダラが対応する音声通信端末以外の他の音声通信端末各々の音声データおよび音源の音響データを合成して、当該オーディオレンダラが対応する音声通信端末向けの音声通話データを生成する処理と、を行い、
前記プレゼンスサーバは、
前記複数の音声通信端末各々について、前記音源の仮想空間における位置が、当該音声通信端末のユーザにとって他の音声通信端末のユーザの位置と区別できるように、前記音源の仮想空間における位置を決定する位置情報管理部を有する。
ここで、位置情報管理部は、例えば、音声通信端末のユーザから前記音源までの仮想空間における距離が、少なくとも当該音声通信端末のユーザから最寄りの他の音声通信端末のユーザまでの距離より長くなるようにすることで、前記音源の仮想空間における位置が当該音声通信端末のユーザにとって他の音声通信端末のユーザの位置と区別できるように、前記音源の仮想空間における位置を決定してもよい。
あるいは、音声通信端末のユーザから見た前記音源の方向が、少なくとも当該音声通信端末のユーザから見た最寄りの他の音声通信端末のユーザの方向と所定角度以上離れるようにすることで、前記音源の仮想空間における位置が当該音声通信端末のユーザにとって他の音声通信端末のユーザの位置と区別できるように、前記音源の仮想空間における位置を決定してもよい。
本発明では、音声通信端末毎に、当該音声通信端末のユーザと、当該音声通信端末以外の他の音声通信端末各々のユーザおよびコンテンツを提供する音源との仮想空間における相対位置に基づいて立体音響処理された、他の音声通信端末各々の音声データおよび音源の音響データの合成データを、当該音声通信端末向けの音声通話データとする。通話相手および音源が、仮想空間内の分割された空間、すなわち音声通信端末のユーザにとって両者を区別できる位置および/または向きに置かれているため、音声通話データに合成されている通話相手の音声データおよび前記音源の音響データが同時に与えられていても、それらを選択に聴取するか、あるいは両方を区別しながら同時に聴取することができる。したがって、会話を途切れさせることなく音声通話中のユーザに広告等のコンテンツを提供する(視聴させる)ことができる。
以下に、本発明の実施の形態を説明する。
<<第1実施形態>>
図1は本発明の第1実施形態が適用された音声通話システムの概略構成図である。図示するように、本実施形態の音声通話システムは、プレゼンスサーバ1、メディアサーバ2、広告サーバ3、および、複数の音声通信端末4が、IP(Internet Protocol)網5を介して相互接続されて構成されている。
プレゼンスサーバ1は、広告サーバ3が提供する広告音源および各音声通信端末4のユーザの仮想空間上における位置情報を管理する。ここで、仮想空間とは各音声通信端末4のユーザが音声通話を行うために仮想的に作り出した空間である。仮想空間の属性には、例えば、空間の大きさ、天井の高さ、壁および天井の反射率・色彩・質感、残響特性、空間内の空気による音の吸収率などがある。
図2はプレゼンスサーバ1の概略構成図である。
図示するように、プレゼンスサーバ1は、IP網5に接続するためのIP網インターフェース部101と、位置情報管理部102と、位置情報記憶部103と、を有する。
図3は位置情報記憶部103の登録内容を模式的に示した図である。図示するように、位置情報記憶部103には、広告サーバ3が提供する広告音源および音声通信端末4のユーザのそれぞれについて、レコード1030が記憶されている。レコード1030は、識別情報であるユーザ/音源IDを登録するフィールド1031と、IP網5上のアドレス(例えばSIP-URI、IPアドレス等)を登録するフィールド1032と、当該ユーザ/音源IDによって識別される広告サーバ3が提供する広告音源あるいは音声通信端末4のユーザの仮想空間上における位置情報である仮想位置情報を登録するフィールド1033と、を有する。ここで、仮想位置情報は、仮想空間における広告音源あるいはユーザの現在位置の座標情報と当該広告音源あるいはユーザの向き(発話・発音方向)の方位情報とを含む。
位置情報管理部102は、音声通信端末4から受信した当該音声通信端末4のユーザの仮想位置情報に基づいて、位置情報記憶部103に登録されている当該音声通信端末4のユーザのレコード1030を更新する。また、位置情報管理部102は、位置情報記憶部103に登録されている各音声通信端末4のユーザのレコード1030に含まれている仮想位置情報に基づいて、広告サーバ3が提供する広告音源の仮想位置情報を決定する。そして、該決定した仮想位置情報に基づいて、広告サーバ3が提供する広告音源のレコード1030を位置情報記憶部103に登録する。さらに、位置情報管理部102は、メディアサーバ2あるいは音声通信端末4からの位置情報要求に応答して、位置情報記憶部103に登録されている各レコード1030を該位置情報要求の送信元に送信する。
図4はプレゼンスサーバ1の動作フローを説明する図である。
位置情報管理部102は、IP網インターフェース部101を介して音声通信端末4からユーザ/音源IDおよび仮想位置情報を含む位置情報登録要求を受信すると(S1001)、当該ユーザ/音源IDがフィールド1031に登録されているレコード1030を位置情報記憶部103から検索し(S1002)、検索したレコード1030のフィールド1033に登録されている仮想位置情報を当該位置情報登録要求に含まれている仮想位置情報に更新する(S1003)。
また、位置情報管理部102は、IP網インターフェース部101を介して広告サーバ3からユーザ/音源IDを含む音源追加要求を受信すると(S1101)、位置情報記憶部103に記憶されている各音声通信端末4のユーザの仮想位置情報に基づいて、該要求送信元の広告サーバ2が提供する広告音源の仮想位置情報を生成する(S1102)。
具体的には、位置情報記憶部103に記憶されている音声通信端末4のユーザのレコード1030各々について次の処理を行うことで、広告音源の仮想位置情報を生成する。ここで、注目するレコード1030のフィールド1033に登録されている仮想位置情報により特定される仮想空間上の位置を注目位置とする。
先ず、図5(A)に示すように、フィールド1033に登録されている仮想位置情報より特定される仮想空間106上の位置が注目位置に最も近い他の音声通信端末4のユーザのレコード1030を検出する。図5(A)に示す例では、注目位置(taro)104に対して位置(jiro)104が検出され、注目位置(hanako)104に対して位置(taro)104が検出され、そして、注目位置(jiro)104に対して位置(taro)104が検出される。次に、注目位置から見て、該検出したレコード1030のフィールド1032に登録されている仮想位置情報により特定される仮想空間106上の位置より離れているエリアを検出する。そして、このエリアを広告音源設置エリア候補に決定する。図5(A)に示す例では、注目位置(taro)104に対しては、注目位置(taro)104を中心とする半径r1の範囲外のエリアが広告音源設置エリア候補に選択され、注目位置(hanako)104に対しては、注目位置(hanako)104を中心とする半径r2の範囲外のエリアが広告音源設置エリア候補に選択され、そして、注目位置(jiro)104に対しては、注目位置(jiro)104を中心とする半径r3の範囲外のエリアが広告音源設置エリア候補に選択される。
それから、図5(B)に示すように、位置情報記憶部103に記憶されている音声通信端末4のユーザのレコード1030各々について決定した広告音源設置エリア候補の重複範囲107を求め、該範囲107内の任意の位置105を音源追加要求送信元の広告サーバ3が提供する広告音源(publicity A)の仮想空間上の位置(座標)に決定する。また、決定した位置から各音声通信端末4のユーザを眺めたときに、左端に位置するユーザ(hanako)および右端に位置するユーザ(jiro)間のなす角βが最も小さくなる向きを広告音源(publicity A)の仮想空間上の向きに決定する。
位置情報管理部102は、以上のようにして音源追加要求送信元の広告サーバ3が提供する広告音源の仮想位置情報を生成したならば、位置情報記憶部103に新たなレコード1030を追加する。そして、該レコード1030のフィールド1031に該要求に含まれているユーザ/音源IDを登録し、フィールド1032に該要求送信元のアドレスを登録し、そして、フィールド1033に生成した仮想位置情報を登録する(S1103)。
また、位置情報管理部102は、IP網インターフェース部101を介して広告サーバ3からユーザ/音源IDを含む音源削除要求を受信すると(S1201)、当該ユーザ/音源IDがフィールド1031に登録されているレコード1030を位置情報記憶部103から検索して位置情報記憶部103から削除する(S1202)。
また、位置情報管理部102は、IP網インターフェース部101を介してメディアサーバ1あるいは音声通信端末4から位置情報要求を受信すると(S1301)、位置情報記憶部103から全てのレコード1030を読出し(S1302)、該要求の送信元に返信する(S1303)。
図1に戻って説明を続ける。メディアサーバ2は、音声通信端末4毎に、当該音声通信端末4以外の他の音声通信端末4各々から受信した音声データに対して、プレゼンスサーバ1が管理している他の音声通信端末4各々のユーザと当該音声通信端末4のユーザとの相対位置に応じた立体音響処理を施すと共に、広告サーバ3から受信した広告音源の音響データに対して、プレゼンスサーバ1が管理している広告音源と当該音声通信端末4のユーザとの相対位置に応じた立体音響処理を施す。そして、このようにして立体音響処理された他の音声通信端末4各々の音声データおよび広告音源の音響データを合成して、当該音声通信端末4向けの音声通話データを生成する。
図6はメディアサーバ2の概略構成図である。
図示するように、メディアサーバ2は、IP網5に接続するためのIP網インターフェース部201と、RTP(Real-time Transport Protocol)処理部202と、SIP(Session Initiation Protocol)処理部203と、プレゼンス取得部204と、空間モデラ205と、ユーザ情報生成部206と、音声分配部207と、音声通信端末4毎に設けられたオーディオレンダラ208と、を有する。
SIP制御部203は、IP網インターフェース部201を介して広告サーバ3および各音声通信端末4との間に通話路を確立する。
RTP処理部202は、広告サーバ3および音声通信端末4のそれぞれについて、通話路を介して音響データまたは音声データを受信し、受信したデータを、当該データの送信元アドレスと共に、音声分配部207に出力する。また、RTP処理部202は、音声通信端末4毎に、当該音声通信端末4に対応付けられたオーディオレンダラ208から出力された合成データを、通話路を介して当該音声通信端末4に送信する。
プレゼンス取得部204は、IP網インターフェース部201を介してプレゼンスサーバ1に位置情報要求を定期的に送信し、その応答としてプレゼンスサーバ1から広告サーバ3および各音声通信端末4のレコード(仮想位置情報)1030を受信する。そして、受信したレコード1030を空間モデラ205に通知する。
空間モデラ205は、プレゼンス取得部204から広告サーバ3および各音声通信端末4のレコード1030を受け取って保持すると共に、これらのレコード1030をユーザ情報生成部206に出力する。
ユーザ情報生成部206は、音声通信端末4毎に次の処理を行う。すなわち、空間モデラ205から受信した各レコード1030の中から当該音声通信端末4のアドレスを含むレコード1030を特定して、特定したレコード1030を自ユーザ情報として、音声分配部207に送信する。また、該特定したレコード1030以外のレコード1030各々を他ユーザ/音源情報として、該自ユーザ情報に対応付けて音声分配部207に送信する。
音声分配部207は、音声通信端末4毎に、RTP処理部202から受け取った音響データおよび音声データの中から、当該音声通信端末4に送信する合成データに利用するデータを抽出する。具体的には、音声通信端末4毎に次の処理を行う。
すわわち、ユーザ情報生成部206から受信した自ユーザ情報のうち、対象の音声通信端末4のユーザ/音源IDを含む自ユーザ情報を検出し、これを当該音声通信端末4の自ユーザ情報として、当該音声通信端末4に対応付けられたオーディオレンダラ208に出力する。また、ユーザ情報生成部206から受信した他ユーザ/音源情報のうち、該自ユーザ情報に対応付けられている他ユーザ/音源情報を検出する。また、RTP処理部502から受け取った音響データおよび音声データのうち、当該音声通信端末4に送信する合成データに利用する音響データおよび音声データを、該自ユーザ情報に対応付けられている他ユーザ/音源情報に含まれているアドレスに基づいて検出する。そして、検出した音響データおよび音声データ各々を、該データの検出に用いたアドレスを含む他ユーザ/音源情報に対応付けて、当該音声通信端末4に対応付けられたオーディオレンダラ208に出力する。
オーディオレンダラ208は、音声分配部508から各音響データおよび音声データを他ユーザ/音源情報と共に受信する。また、音声分配部508から自ユーザ情報を受信する。そして、受信した各音響データおよび音声データをバッファリングすることによって、該データ間で同期させる(対応付ける)。また、オーディオレンダラ208は、同期させた音響データおよび音声データ各々を、該データに付与されている他ユーザ/音源情報の仮想位置情報と該自ユーザ情報の仮想位置情報とにより特定される、仮想空間における広告音源および他ユーザ各々と自ユーザとの相対位置に基づいて立体音響処理する。そして、2チャンネル(左チャンネルと右チャンネル)の信号データ(信号列)を含む合成データ(3Dオーディオデータ)をRTP処理部202に出力する。
オーディオレンダラ208をより詳細に説明する。
3Dオーディオ技術では、主に人の頭(以下、「人頭」)のまわりでの音響の変化の仕方(インパルス応答)を表すHRIR(Head Related Impulse Response)と、部屋などの仮想環境によって生成される擬似的な残響とによって音の方向および距離を表現する。HRIRは、音源と人頭との距離、および、人頭と音源との角度(水平角度および垂直角度)によって決定される。なお、オーディオレンダラ208には、予めダミーへッドを使用して各距離および各角度毎に測定したHRIRの数値が記憶されているものとする。また、HRIRの数値には、左チャネル用(ダミーヘッドの左耳で測定したもの)と、右チャネル用(ダミーヘッドの右耳で測定したもの)とで異なる数値を使用することによって、左右、前後または上下の方向感を表現する。
図7はオーディオレンダ208の処理を説明する図である。オーディオレンダラ208は、音声分配部207から他ユーザ/音源情報と共に送られてくる音響データおよび音声データ各々に関して下記の計算を行う。
先ず、オーディオレンダラ208は、他ユーザ/音源情報毎に、当該他ユーザ/音源情報および当該他ユーザ/音源情報に対応付けられている音響データあるいは音声データの信号列s[t](t=1,...)を、音声分配部207から受け付ける。また、自ユーザ情報を音声分配部207から受け付ける。そして、他ユーザ/音源情報毎に、当該他ユーザ/音源情報に含まれている仮想位置情報と、当該自ユーザ情報に含まれている仮想位置情報とを、当該他ユーザ/音源情報に対応付けられている音響データあるいは音声データの信号列s[t](t=1,...)に対する3Dオーディオ処理(立体音響処理)に用いるパラメータに設定する(S2001)。
次に、オーディオレンダラ208は、他ユーザ/音源情報毎に、音響データまたは音声データの直接音と、残響である反射音とを計算する。直接音については、パラメータ設定された位置情報を用いて、自ユーザと当該他ユーザ/音響情報を持つ広告音源あるいは他ユーザとの仮想空間における距離および角度(azimuth)を計算する(S2002)。それから、オーディオレンダラ208は、自ユーザとの距離および角度に対応するHRIRを、予め記憶しておいたHRIRの数値の中から特定する(S2003)。なお、オーディオレンダラ208は、予め記憶しておいたHRIRの数値を補間することによって算出したHRIRの数値を使用してもよい。
次に、オーディオレンダラ208は、S2001で入力した信号列と、S2003で特定したHRIRの左チャネル用HRIRとを使用して、畳み込み(convolution)計算を行い、左チャネル信号を生成する(S2004)。同様に、S2001で入力した信号列と、S2003で特定したHRIRの右チャネル用HRIRとを使用して、畳み込み計算を行い、右チャネル信号を生成する(S2005)。
また、反響音については、S2001でパラメータ設定された位置情報を用いて、付加すべき残響を計算する(S2006、S2007)。すなわち、オーディオレンダラ208は、仮想空間の属性による音響の変化の仕方(インパルス応答)に基づいて残響を計算する。以下、残響の計算について説明する。
残響は初期反射(early reflection)および後期残響(late reverberation)により構成される。そして、初期反射の方が後期残響より、他ユーザとの距離や部屋(仮想空間)の大きさなどに関する感覚の形成(認知)において、重要であると一般的に考えられている。実空間上の室内では、音源から直接発せられた音(直接音)が聞こえた後、数msから100msくらいの間に、条件によっては、壁、天井、床などからの数10個の初期反射を聞くことができるといわれている。部屋の形状が直方体であれば、1回の初期反射は6個だけである。しかしながら、より複雑な形状または家具などがある部屋においては、反射音の数が増え、また、壁などで複数回反射した音も聞こえる。
初期反射の計算法としてimage source methodがあり、例えば文献「Allen, J.B. and Berkley, A., "Image Method for efficiently Simulating Small-Room Acoustics", J.Acoustical Society of America, Vol.65, No.4, pp.943-950, April 1979.」に記載されている。単純なimage source methodでは、部屋の壁、天井、床を鏡面とみなし、反射音を鏡面の反対側にある音源の像からの音として計算する。
図8は説明を簡単にするために、天井と床を省略した2次元のimage source methodを模式的に表した図である。すなわち、中央に本来の仮想空間2081があり、当該仮想空間2081には自ユーザおよび広告音源(あるいは他ユーザ)が存在する。そして、音室2081の周囲には部屋の壁2082を含む12個の鏡像が描かれている。なお、鏡像は12個である必然性はなく、これより多くすることも少なくすることもできる。
オーディオレンダラ208は、鏡像各々の中に存在する広告音源(あるいは他ユーザ)の各像からの音が、自ユーザ(聴取者)に直進するものとして、広告音源(あるいは他ユーザ)の各像から自ユーザまでの距離と方向を算出する(S2006)。音の強さは距離に反比例するため、オーディオレンダラ208は、距離に従って各音量を減衰させる。ただし、壁の反射率をα(0≦α≦1)とすると、壁でn回反射される音の標本には、αnを乗じて音量をさらに減衰させる。
なお、反射率αの値は0.6程度の値を使用する。0.6程度の値にする理由は、自ユーザが広告音源(あるいは他ユーザ)との距離を認識するのに充分な残響(すなわち、直接音と反射音との比)を取得するためである。また、もう1つの理由としては、αの値を過大にした場合、自ユーザの方向感覚をにぶらせるからである。
次に、オーディオレンダラ208は、広告音源(あるいは他ユーザ)の像毎に、自ユーザとの距離および角度に対応するHRIRを、予め記憶しておいたHRIRの数値の中から特定する(S2007)。反射音はそれぞれ異なる方向から人頭に達するため、S2003で特定した直接音のHRIRとは異なるHRIRを適用する必要がある。
なお、多数の反射音各々に、異なるHRIRを用いて後述するたたみこみ計算(S2007、S2008)を行うと、膨大な計算が必要になる。計算量の増加を防止するため、反射音の計算には、実際の音源の方向にかかわらず正面に音源があるときのHRIRを適用してもよい。そして、音が左右の耳に達する際の時間差(ITD:interaural time difference)と強度差(IID:interaural intensity difference)だけを計算することで、少ない計算量でHRIRの計算を代替できる。
次に、オーディオレンダラ208は、S2001で入力した信号列と、S2007で特定したHRIRの左チャネル用HRIRとを使用して、畳み込み計算を行い、左チャネル信号の残響を生成する(S2008)。同様に、S2001で入力した信号列と、S2007で特定したHRIRの右チャネル用HRIRとを使用して、畳み込み計算を行い、右チャネル信号の残響を生成する(S2009)。
さて、オーディオレンダラ208は、以上のようにして全ての広告音源および他ユーザの左チャネル信号を計算したならば、これらを全て加算する(S2010)。なお、左チャネル信号は、S2004で算出した直接音と、S2008で算出した反射音とが含まれる。同様に、オーディオレンダラ208は、以上のようにして全ての広告音源および他ユーザの右チャネル信号を計算したならば、これらを全て加算する(S2011)。なお、右チャネル信号は、S2005で算出した直接音と、S2009で算出した反射音とが含まれる。
HRIR計算(S2003、S2007)は、RTPパケットの1パケット分のデータ毎に行う。しかし、畳み込み計算(S2004、S2005、S2008、S2009)では、次の1パケット分のデータに繰り越すべき部分が生じる。このため、特定したHRIRまたは入力された信号列を次の1パケット分のデータに対する処理まで保持する必要がある。
このように、オーディオレンダラ208は、音声分配部207から送られてきた広告音源および他ユーザ各々の音響データおよび音声データに対して、上述の計算による音量の調節、残響や反響音の重ね合わせ、および、フィルタリング等の処理を行い、自ユーザの仮想空間内の位置において聞こえるべき音に音響効果を施す。すなわち、オーディオレンダラ208は、仮想空間の属性と広告音源および他ユーザとの相対的な位置から帰結する処理によって音声を定位させた立体音響を生成する。
図1に戻って説明を続ける。広告サーバ3は、メディアサーバ1との間に確立した通話路を介して、各音声通信端末4に提供する広告音源の音響データをメディアサーバ1に送信する。
図9は広告サーバ3の概略構成図である。
図示するように、広告サーバ3は、IP網5に接続するためのIP網インターフェース部301と、RTP処理部302と、SIP処理部303と、広告情報送信制御部304と、広告情報記憶部305と、を有する。
SIP制御部303は、IP網インターフェース部301を介してメディアサーバ2との間に通話路を確立する。
RTP処理部302は、後述する広告情報送信制御部304より受け取った広告音源の音響データを、メディアサーバ2との間に確立された通話路を介して、メディアサーバ2に送信する。
広告情報記憶部305には、広告音源の音響データが広告条件と共に登録されている。図10は広告情報記憶部305を模式的に表した図である。図示するように、広告音源の音響データ毎にレコード3050が登録されている。レコード3050は、広告音源の音響データの識別情報であるユーザ/音源IDを登録するフィールド3051と、広告音源の音響データを登録するフィールド3052と、広告音源の音響データの送信時間帯を登録するフィールド3053と、を有する。なお、本実施形態ではレコード3050を送信時間帯の順番に登録している。
広告情報送信制御部304は、広告情報記憶部305に記憶されている広告音源の音響データのメディアサーバ2への送信を制御する。図11は広告情報送信制御部304の動作フローを説明するための図である。
先ず、広告情報送信制御部304は、カウンタ値nを1にセットする(S3001)。
次に、広告情報送信制御部304は、広告情報記憶部305に記憶されているn番目のレコード3050に注目し、これを注目レコードとする(S3002)。それから、内蔵タイマ等を利用して、現在時刻が注目レコードのフィールド3053に登録されている広告時間帯の開始時刻に到達したか否かを調べる(S3003)。
そして、広告情報送信制御部304は、現在時刻が広告時間帯の開始時刻に到達したならば(S3003でYES)、注目レコードのフィールド3051に登録されているユーザ/音源IDを含む音源追加要求を生成し、IP網インターフェース部301を介してプレゼンスサーバ1に送信する(S3004)。
次に、広告情報送信制御部304は、SIP制御部303に通話路の確立を指示する(S3005)。これを受けて、SIP制御303はメディアサーバ2との間でSIPに従った呼制御手順を実行して、メディアサーバ2との間に通話路を確立する。次に、広告情報送信制御部304は、注目レコードのフィールド3052に登録されている音響データを広告情報記憶部305から読み出して、RTP処理部302に出力する(S3006)。これを受けて、RTP処理部302は、メディアサーバ2との間に確立されている通話路を用いて、広告情報送信制御部304より受け取った音響データをメディアサーバ2へ送信する。以降、広告情報送信制御部304は、注目レコードのフィールド3052に登録されている音響データのRTP処理部302への出力を定期的に繰り返す。この結果、該音響データのメディアサーバ2への送信が繰り返し行われる。
次に、広告情報送信制御部304は、内蔵タイマ等を利用して、現在時刻が注目レコードのフィールド3053に登録されている広告時間帯の終了時刻に到達したか否かを調べる(S3007)。現在時刻が広告時間帯の終了時刻に到達したならば(S3007でYES)、注目レコードのフィールド3052に登録されている音響データの通話路を用いたメディアサーバ2への送信処理を停止する(S3008)。それから、広告情報送信部304は、SIP制御部303に通話路の切断を指示する(S3009)。これを受けて、SIP制御303はSIPに従いメディアサーバ2との間の通話路を切断する。
次に、広告情報送信制御部304は、自広告サーバ3のユーザ/音源IDを含む音源削除要求を生成し、IP網インターフェース部301を介してプレゼンスサーバ1に送信する(S3010)。その後、カウンタ値nを1つインクリメントし(S3011)、それからS3002に戻る。
図1に戻って説明を続ける。音声通信端末4は、プレゼンスサーバ1に自ユーザの仮想位置情報を送信すると共に、プレゼンスサーバ1から広告サーバ3の広告音源の仮想位置情報および各音声通信端末4のユーザの仮想位置情報を受信する。そして、受信した仮想位置情報に基づいて、各音声通信端末4のユーザおよび広告サーバ3の広告音源の仮想空間における位置および向きを表示したマップを生成し出力する。
また、音声通信端末4は、メディアサーバ1に自ユーザの音声データを送信すると共に、メディアサーバ1から合成データ(3Dオーディオデータ)を受信する。そして、受信した合成データを再生し出力する。
図12は音声通信端末4の概略構成図である。
図示するように、音声通信端末4は、音声入力部401と、音声出力部402と、映像出力部403と、操作受付部404と、オーディオエンコーダ405と、オーディオデコーダ406と、IP網5に接続するためのIP網インターフェース部407と、SIP制御部408と、RTP処理部409と、プレゼンスプロバイダ410と、仮想空間マップ生成部411と、を有する。
音声入力部401は、マイク421で収音した音声信号の入力端子である。音声出力部402は、3Dオーディオ対応(例えば擬似5.1チャンネル対応)のヘッドフォン(あるいはスピーカ)422に接続される音声出力端子である。映像出力部403は、後述する仮想空間マップ生成部411から出力される仮想空間マップの映像をディスプレイ423に表示する。そして、操作受付部404は、ユーザのポインティングデバイス424に対する操作を受け付ける。
オーディオエンコーダ405は、音声入力部401に入力された音声信号をエンコードして音声データをRTP処理部409に出力する。オーディオデコーダ406は、RTP処理部409から出力された合成データをデコードして3Dオーディオ対応の音声信号を音声出力部402に出力する。
SIP制御部408は、IP網インターフェース部407を介してメディアサーバ3との間に通話路を確立する。RTP処理部409は、オーディオエンコーダ405より出力された音声データをRTPパケットに格納し、該RTPパケットをSIP処理部408により確立された通話路を介してメディアサーバ2に送信する。また、該通話路を介してメディアサーバ2より受信したRTPパケットから合成データ(3Dオーディオデータ)を取り出して、オーディオデコーダ406に出力する。
プレゼンスプロバイダ410は、予め設定されている仮想空間の属性に従い、操作受付部404で受け付けた自ユーザのポインティングデバイス424に対する操作に応じて当該仮想空間における自ユーザの位置(座標)および視線方向(方位)を決定し、決定した位置および視線方向を含む自ユーザの仮想位置情報を、仮想空間マップ生成部411に送信すると共に、IP網インターフェース部407を介してプレゼンスサーバ1に送信する。また、プレゼンスプロバイダ410は、IP網インターフェース部212を介してプレゼンスサーバ1に位置情報要求を定期的に送信し、その応答としてプレゼンスサーバ1から広告音源および他ユーザ各々のレコード1030を受信する。そして、受信したレコード1030を仮想空間マップ生成部411に通知する。
仮想空間マップ生成部411は、プレゼンスプロバイダ410より受け取った自ユーザ、広告音源および他ユーザ各々のレコード1030に登録されている仮想位置情報に従って、自ユーザ、広告音源および他ユーザ各々の仮想空間における位置と向きを示す仮想空間マップを生成する。そして、仮想空間マップの映像を映像出力部403に出力する。図13は仮想空間マップの映像の一例を示す図である。図示するように、自ユーザ4121、他ユーザ4122および広告音源4123の仮想空間4120における位置と向きが把握できるように、仮想空間マップの映像がディスプレイ423に表示される。
上記構成のプレゼンスサーバ1、メディアサーバ2および広告サーバ3には、図14に示すような、プログラムに従ってデータの加工・演算を行なうCPU601と、CPU301が直接読み書き可能なメモリ602と、ハードディスク等の外部記憶装置603と、IP網5を介して外部システムとデータ通信をするための通信装置604と、を有する一般的なコンピュータシステムを利用することができる。具体的には、サーバ、ホストコンピュータなどである。
また、上記構成の音声通信端末4も、図14に示すような、プログラムに従ってデータの加工・演算を行うCPU601と、CPU601が直接読み書き可能なメモリ602と、ハードディスク等の外部記憶装置603と、IP網5を介して外部システムとデータ通信をするための通信装置604と、キーボード、マウス等の入力装置605と、LCD等の出力装置606とを有する一般的なコンピュータシステムを利用することができる。例えば、PDA(Personal Digital Assistant)、PC(Personal Computer)などのコンピュータシステムである。
上記各装置の各機能は、メモリ602にロードまたは記憶された所定のプログラムを、CPU601が実行することにより実現される。
図15は本発明の第1実施形態が適用された音声通話システムの概略動作を説明するための図である。ここで、音声通信端末4は、メディアサーバ2との間に通話路を既に確立しているものとする。また、図15では1台の音声通話端末4を示しているが、実際には複数台の音声通信端末4がメディアサーバ2との間に通話路を確立しているものとする。そして、各音声通信端末4が図15に示す動作を行うものとする。
音声通信端末4は、ユーザ操作によって仮想空間上におけるユーザの位置および向きが変わると、新たな仮想位置情報を生成して、該仮想位置情報を含む位置情報登録要求をプレゼンスサーバ1に送信する(S5401)。
プレゼンスサーバ1は、音声通信端末4から位置情報登録要求を受信すると、該要求の送信元端末のユーザ/音源IDおよび該要求送信元のアドレスを含むレコード1030を位置情報記憶部103から検索し、検索したレコード1030を該要求に含まれている仮想位置情報を用いて更新する(S5101)。
広告サーバ3は、現在時刻が、広告情報記憶部305に記憶されているレコード3050であって、次に処理すべきレコード3050(注目レコード)に登録されている広告時間帯の開始時刻になったことを検出すると(S5301)、注目レコードに登録されているユーザ/音源IDを含む音源追加要求をプレゼンスサーバ1に送信する(S5302)。その後、広告サーバ3は、メディアサーバ2にINVITEメッセージを送信して(S5303)、メディアサーバ2との間に通話路を確立する(S5304)。
プレゼンスサーバ1は、広告サーバ3から音源追加要求を受信すると、広告音源の仮想位置情報を生成し、該仮想位置情報および該要求に含まれているユーザ/音源IDを含むレコード1030を位置情報記憶部103に登録する(S5102)。
メディアサーバ2は、定期的に、プレゼンスサーバ1に位置情報要求を送信する(S5201)。同様に、音声通信端末4は、定期的に、プレゼンスサーバ1に位置情報要求を送信する(S5402)。
プレゼンスサーバ1は、メディアサーバ2から位置情報要求を受信すると、位置情報記憶部103から全レコード1030を読み出してメディアサーバ2に送信する(S5103)。同様に、プレゼンスサーバ1は、音声通信端末4から位置情報要求を受信すると、位置情報記憶部103から全レコード1030を読み出して音声通信端末4に送信する(S5104)。
音声通信端末4は、メディアサーバ2との間に確立されている通話路を介して、自ユーザの音声データをメディアサーバ1に送信する(S5403)。同様に、広告サーバ3は、S5304でメディアサーバ1との間に確立した通話路を介して、注目レコードに登録されている音響データをメディアサーバ1に送信する(S5305)。
メディアサーバ2は、広告サーバ3および音声通信端末4各々から受信した音響データ、音声データを、プレゼンスサーバ1から受信した広告サーバ3の広告音源および音声通信端末4のユーザ各々の仮想位置情報に基づいて3Dオーディオ処理する。そして、3Dオーディオ処理された音響データ、音声データを合成して、合成データを生成する(S5202)。また、メディアサーバ2は、音声通信端末4との間に確立されている通話路を介して、合成データを音声通信端末4に送信する(S5203)。
広告サーバ3は、現在時刻が、注目レコードに登録されている広告時間帯の終了時刻になったことを検出すると(S5306)、注目レコードに登録されているユーザ/音源IDを含む音源削除要求をプレゼンスサーバ1に送信する(S5307)。その後、広告サーバ3は、メディアサーバ2にBYEメッセージを送信して(S5308)、メディアサーバ2との間に通話路を切断する。
プレゼンスサーバ1は、広告サーバ3から音源削除要求を受信すると、該要求に含まれているユーザ/音源IDあるいは該要求の送信元アドレスを含むレコード1030を位置情報記憶部103から検索し、該レコード1030を位置情報記憶部103から削除する(S5105)。
以上、本発明の第1実施形態について説明した。
本実施形態では、音声通信端末4毎に、他の音声通信端末4各々の音声データおよび広告サーバ3の音響データを、他の音声通信端末4各々のユーザおよび広告サーバ3の広告音源と当該音声通信端末4のユーザとの仮想空間における相対位置に基づいて3Dオーディオ処理し合成する。そして、合成データを当該音声通信端末4向けの音声通話データとする。この際、広告音源の仮想空間における位置は、音声通信端末4各々について、当該音声通信端末4のユーザから広告音源までの仮想空間における距離が、少なくとも当該音声通信端末4のユーザから最寄りの他の音声通信端末4のユーザまでの距離より長くなるように設定される。したがって、音声通信端末4のユーザは、通話相手および広告音源の仮想空間における当該ユーザとの相対的な位置関係から、通話データに合成されている通話相手の音声データおよび広告音源の音響データを区別することができる。また、広告音源の音響データを通話相手のユーザの音声データよりも遠方から聞かせることができる。したがって、会話を途切れさせることなく音声通話中のユーザに広告を提供する(視聴させる)ことができる。
<<第2実施形態>>
本実施形態は、上記の第1実施形態において、音声通信端末4のユーザから広告サーバ3が提供する広告音源までの仮想空間における距離を、当該ユーザのプレファレンスに応じて変化させるようにしている。
本実施形態の音声通信システムが図1に示す第1実施形態の音声通信システムと異なる点は、プレゼンスサーバ1、広告サーバ3に代えてプレゼンスサーバ1A、広告サーバ3Aを設けたことである。その他の構成は第1実施形態と同様である。
広告サーバ3Aが第1実施形態の広告サーバ3と異なる点は、広告情報送信制御部304、広告情報記憶部305に代えて、広告情報送信制御部304A、広告情報記憶部305Aを設けた点である。その他の構成は広告サーバ3と同様である。
広告情報記憶部305Aには、広告音源の音響データが広告条件および広告のジャンルと共に登録されている。図16は広告情報記憶部305Aの登録内容を模式的に表した図である。図示するように、広告音源の音響データ毎にレコード3050Aが登録されている。レコード3050Aは、広告のジャンルを登録するフィールド3054が追加されている点において、第1実施形態で説明したレコード3050(図10参照)と異なる。
広告情報送信制御部304Aは、図11のS3004において、音源追加要求に、注目レコードのフィールド3054に登録されているジャンルを含めて、プレゼンスサーバ1に送信する。その他の動作は、第1実施形態の広告送信情報制御部304と同様である。
プレゼンスサーバ1Aが第1実施形態のプレゼンスサーバ1と異なる点は、位置情報管理部102、位置情報記憶部103に代えて、位置情報管理部102A、位置情報記憶部103Aを設けた点である。その他の構成はプレゼンスサーバ1と同様である。
図17は位置情報記憶部103Aの登録内容を模式的に示した図である。図示するように、広告サーバ3Aが提供する広告音源および音声通信端末4のユーザのそれぞれについて、レコード1030Aが記憶されている。レコード1030Aは、ユーザのプレファレンスを登録するフィールド1034が追加されている点において、第1実施形態で説明したレコード1030(図3参照)と異なる。
位置情報管理部102Aは、図4のS1103において、位置情報記憶部103Aに記憶されている各音声通信端末4のユーザの仮想位置情報およびプレファレンスと、音源追加要求に含まれているジャンルとに基づいて、該要求送信元の広告サーバ2が提供する広告音源の仮想位置情報を生成する。具体的には、位置情報記憶部103Aに記憶されている音声通信端末4のユーザのレコード1030各々について広告音源設置エリア候補を決定し、該広告音源設置エリア候補の重複範囲107を求めるまでは、第1実施形態と同様である(図5参照)。その後、位置情報記憶部103Aに記憶されている音声通信端末4のユーザのレコード1030各々について、フィールド1034に登録されているプレファレンスが音源追加要求に含まれているジャンルに属するか否かを調べる。そして、フィールド1034に登録されているプレファレンスが該要求に含まれているジャンルに属するレコード1030のフィールド1033に登録されている仮想位置情報により特定される仮想空間106上の位置までの距離が、フィールド1034に登録されているプレファレンスが該要求に含まれていないジャンルに属するレコード1030のフィールド1033に登録されている仮想位置情報により特定される仮想空間106上の位置までの距離よりも短くなるように、該要求の送信元の広告サーバ3が提供する広告音源(publicity A)の仮想空間上の位置105を決定する。例えば、図5(B)において、ユーザ(taro)のプレファレンスが広告音源(publicity A)のジャンルに属し、他のユーザ(jiro, hanako)のプレファレンスが広告音源(publicity A)のジャンルに属していない場合、広告音源(publicity A)の仮想空間上の位置105は、重複範囲107内のエリア107A内に決定される。また、決定した位置から各音声通信端末4のユーザを眺めたときに、左端に位置するユーザ(hanako)および右端に位置するユーザ(jiro)間のなす角βが最も小さくなる向きを広告音源(publicity A)の仮想空間上の向きに決定する。
また、位置情報管理部102Aは、図4のS1103において、位置情報記憶部103に新たなレコード1030Aを追加する。そして、該レコード1030Aのフィールド1031に該要求に含まれているユーザ/音源IDを登録し、該要求送信元のアドレスを登録し、フィールド1033に生成した仮想位置情報を登録し、そして、フィールド1034に該要求に含まれているジャンルを登録する。
以上、本発明の第2実施形態について説明した。
本実施形態では、上記の第1実施形態の効果に加えてさらに以下に効果を有する。すなわち、仮想空間において、広告音源のジャンルに属するプレファレンスを持たないユーザよりも、広告音源のジャンルに属するプレファレンスを持つユーザの近くに、広告音源が配置される。したがって、広告音源のジャンルに属するプレファレンスを持たないユーザに対しては比較的小さい音で、且つ、広告音源のジャンルに属するプレファレンスを持つユーザに対しては比較的大きい音で広告を聞かせることができるので、広告の効果を高めることができる。
<<第3実施形態>>
本実施形態は、上記の第1実施形態において、広告サーバ3が提供する広告音源の音響データ出力の有無を音声通信端末4毎に設定できるようにしている。
本実施形態の音声通信システムが図1に示す第1実施形態の音声通信システムと異なる点は、プレゼンスサーバ1、メディアサーバ2に代えてプレゼンスサーバ1B、メディアサーバ2Bを設けたことである。その他の構成は第1実施形態と同様である。
プレゼンスサーバ1Bが第1実施形態のプレゼンスサーバ1と異なる点は、位置情報管理部102、位置情報記憶部103に代えて、位置情報管理部102B、位置情報記憶部103Bを設けた点である。その他の構成はプレゼンスサーバ1と同様である。
図18は位置情報記憶部103Bの登録内容を模式的に示した図である。図示するように、広告サーバ3が提供する広告音源および音声通信端末4のユーザのそれぞれについて、レコード1030Bが記憶されている。レコード1030Bは、広告ポリシを登録するフィールド1035が追加されている点において、第1実施形態で説明したレコード1030(図3参照)と異なる。ここで、広告ポリシとは、広告音源の音響データを出力するか否かを示すポリシである。音声通信端末4のユーザ各々の、レコード1030Bのフィールド1035には、広告音源の音響データを出力する「広告有り」、あるいは広告音源の音響データを出力しない「広告無し」のいずれかが登録される。なお、広告サーバ3が提供する広告音源のレコード1030Bのフィールド1035は、空欄(ヌルデータ)となる。
位置情報管理部102Bは、図4のS1103において、位置情報記憶部103に新たなレコード1030Bを追加する。そして、該レコード1030Bのフィールド1031に該要求に含まれているユーザ/音源IDを登録し、該要求送信元のアドレスを登録し、フィールド1033に生成した仮想位置情報を登録し、そして、フィールド1035にヌルデータを登録する。
メディアサーバ2Bが第1実施形態のメディアサーバ2と異なる点は、ユーザ情報生成部206に代えて、ユーザ情報生成部206Bを設けた点である。その他の構成はメディアサーバ2と同様である。
ユーザ情報生成部206Bは、音声通信端末4毎に次の処理を行う。すなわち、空間モデラ205から受信した各レコード1030Bの中から当該音声通信端末4のアドレスを含むレコード1030Bを特定して、特定したレコード1030Bを自ユーザ情報として、音声分配部207に送信する。また、自ユーザ情報のレコード1030Bのフィールド1035に登録されている広告ポリシを調べ、該広告ポリシが「広告有り」ならば、自ユーザ情報のレコード1030B以外のレコード1030B各々を他ユーザ/音源情報として、該自ユーザ情報に対応付けて音声分配部207に送信する。一方、該広告ポリシが「広告無し」ならば、フィールド1035がヌルデータであるレコード1030B、つまり、広告サーバ3が提供する広告音源のレコード1030Bを特定し、該レコード1030Bおよび自ユーザ情報のレコード1030B以外のレコード1030B各々を他ユーザ/音源情報として、該自ユーザ情報に対応付けて音声分配部207に送信する。
以上、本発明の第3実施形態について説明した。
本実施形態では、上記の第1実施形態の効果に加えてさらに以下に効果を有する。すなわち、広告サーバ3が提供する広告音源の音響データ出力の有無を音声通信端末4毎に設定できる。したがって、広告を所望しないユーザの音声通信端末4から広告の音響データが出力されてないようにすることができる。
<<第4実施形態>>
本実施形態は、上記の第1実施形態において、広告サーバ3が提供する広告音源の仮想空間における位置を自動で移動させるようにしている。
本実施形態の音声通信システムが図1に示す第1実施形態の音声通信システムと異なる点は、プレゼンスサーバ1、広告サーバ3に代えてプレゼンスサーバ1C、広告サーバ3Cを設けたことである。その他の構成は第1実施形態と同様である。
広告サーバ3Cが第1実施形態の広告サーバ3と異なる点は、広告情報送信制御部304、広告情報記憶部305に代えて、広告情報送信制御部304C、広告情報記憶部305Cを設けた点である。その他の構成は広告サーバ3と同様である。
広告情報記憶部305Cには、広告音源の音響データが広告条件および広告音源の移動規則と共に登録されている。図19は広告情報記憶部305Cの登録内容を模式的に表した図である。図示するように、広告音源の音響データ毎にレコード3050Cが登録されている。レコード3050Cは、広告音源の移動規則を登録するフィールド3055が追加されている点において、第1実施形態で説明したレコード3050(図10参照)と異なる。フィールド3055に登録する移動規則としては、レコード3050Cの登録時に決定された仮想位置情報がそのまま維持されることを示す「固定」、定期的に仮想位置情報の更新されることを示す「更新」、仮想空間上における複数の所定の位置を巡回する「巡回」がある。「巡回」の場合、複数の所定位置各々について、仮想空間上における座標情報、巡回の順番、および、滞在時間が、巡回スケジュールとしてフィールド3055に合わせて登録される。
広告情報送信制御部304Cは、図11のS3004において、音源追加要求に、注目レコードのフィールド3055に登録されている移動規則を含めて、プレゼンスサーバ1Cに送信する。その他の動作は第1実施形態の広告送信情報制御部304と同様である。
プレゼンスサーバ1Cが第1実施形態のプレゼンスサーバ1と異なる点は、位置情報管理部102、位置情報記憶部103に代えて、位置情報管理部102C、位置情報記憶部103Cを設けた点である。その他の構成はプレゼンスサーバ1と同様である。
図20は位置情報記憶部103Cの登録内容を模式的に示した図である。図示するように、広告サーバ3Cが提供する広告音源および音声通信端末4のユーザのそれぞれについて、レコード1030Cが記憶されている。レコード1030Cは、広告音源の移動規則を登録するフィールド1035が追加されている点において、第1実施形態で説明したレコード1030(図3参照)と異なる。なお、各音声通信端末4のユーザの、レコード1030Bのフィールド1035は、空欄(ヌルデータ)となる。
位置情報管理部102Cは、第1実施形態の位置情報管理部102が行う処理に加えて、位置情報記憶部103に登録されている、広告サーバ3Cが提供する広告音源のレコードレコード1030Cのフィールド1035に登録されている移動規則に従い、必要に応じてフィールド1033に登録されている仮想位置情報を変更する処理を行う。
図21はプレゼンスサーバ1Cの動作フローを説明する図である。
位置情報管理部102CがIP網インターフェース部101を介して音声通信端末4から位置情報登録要求を受信した場合(S1001でYES)の処理(S1002、S1003)、位置情報管理部102CがIP網インターフェース部101を介して広告サーバ3Cから音源削除要求を受信した場合(S1201でYES)の処理(S1202)、および、位置情報管理部102CがIP網インターフェース部101を介してメディアサーバ1あるいは音声通信端末4から位置情報要求を受信した場合(S1301でYES)の処理(S1302、S1303)は、図4に示す第1実施形態のものと同様である。
また、位置情報管理部102CがIP網インターフェース部101を介して広告サーバ3Cから音源追加要求を受信した場合(S1101でYES)は、図4に示す第1実施形態の場合の処理(S1102、S1103)に加えて、位置情報管理部102Cは、図示していない内蔵タイマを起動する(S1104)。
さらに、本実施形態のプレゼンスサーバ1Cは次の処理を行う。すなわち、位置情報管理部102Cは、位置情報記憶部103Cに広告音源のレコード1030C(フィールド1035の移動規則がヌルデータでないレコード1030C)が登録されているか否かを調べ、登録されている場合は、そのレコード1030Cのフィールド1035に登録されている移動規則が「更新」であるか否かを調べる(S1401)。移動規則が「更新」である場合(S1401でYES)は、上記の内蔵タイマが所定時間の経過を示しているか否かをさらに調べ(S1402)、示しているならば(S1402でYES)、図4のS1102と同様の要領で広告音源の仮想位置情報を再度生成する(S1403)。そして、広告音源のレコード1030Cのフィールド1033に登録されている仮想位置情報を該再度生成した仮想位置情報に更新する(S1404)。それから、上記の内蔵タイマをリセットし(S1405)、S1001に戻る。一方、S1402で上記の内蔵タイマが所定時間の経過を示していない場合は(S1402でNO)、直ちにS1001に戻る。
また、位置情報管理部102Cは、位置情報記憶部103Cに広告音源のレコード1030Cが登録されている場合であって、そのレコード1030Cのフィールド1035に登録されている移動規則が「更新」でない場合(S1401でNO)、該フィールド1035に登録されている移動規則が「巡回」であるか否かを調べる(S1501)。移動規則が「巡回」である場合(S1501でYES)は、上記の内蔵タイマが所定時間の経過を示しているか否かをさらに調べ(S1502)、示しているならば(S1502でYES)、該広告音源のレコード1030Cのフィールド1035に記載されている移動規則に従い、フィールド1033に登録されている仮想位置情報に含まれている仮想位置に対して順番上次の仮想位置を特定する。また、図4のS1102と同様の要領で広告音源の仮想位置における向きを決定する。そして、特定した仮想位置および決定した向きを含む仮想位置情報を再度生成し(S1503)、該広告音源のレコード1030Cのフィールド1033に登録されている仮想位置情報を該再度生成した仮想位置情報に更新する(S1504)。それから、上記の内蔵タイマをリセットし(S1505)、S1001に戻る。一方、S1502で上記の内蔵タイマが所定時間の経過を示していない場合は(S1502でNO)、直ちにS1001に戻る。
以上、本発明の第4実施形態について説明した。
本実施形態では、上記の第1実施形態の効果に加えてさらに以下に効果を有する。すなわち、仮想空間において、広告音源が自動で移動するので、仮想空間に存在するより多くにユーザに広告音源の音響データを聞かせることができるので、広告の効果を高めることができる。
<<第5実施形態>>
本実施形態は、上記の第1実施形態において、音声通信端末4Dのユーザが広告サーバ3Dが提供する広告音源の音響データをリクエストできるようにしている。
本実施形態の音声通信システムが図1に示す第1実施形態の音声通信システムと異なる点は、広告サーバ3、音声通信端末4に代えて広告サーバ3D、音声通信端末4Dを設けたことである。その他の構成は第1実施形態と同様である。
図22は広告サーバ3Dの概略構成図である。
図示するように、本実施形態の広告サーバ3Dが第1実施形態の広告サーバ3と異なる点は、広告情報送信制御部304、広告情報記憶部305に代えて、広告情報送信制御部304D、広告情報記憶部305Dを設けた点、および、リクエスト受付部306、リクエスト記憶部307を設けた点である。その他の構成は広告サーバ3と同様である。
広告情報記憶部305Dには、広告音源の音響データが広告の案内情報と共に登録されている。図23は広告情報記憶部305Dの登録内容を模式的に表した図である。図示するように、広告音源の音響データ毎にレコード3050Dが登録されている。レコード3050Dは、広告音源の音響データの送信時間帯を登録するフィールド3053に代えて、広告の案内情報を登録するフィールド3056が設けられている点において、第1実施形態で説明したレコード3050(図10参照)と異なる。
リクエスト情報記憶部307には、音声通信端末4より受付けた広告音源の音響データに対するリクエストが登録される。図24はリクエスト情報記憶部305の登録内容を模式的に表した図である。図示するように、音声通信端末4より受付けたリクエスト毎にレコード3070が登録される。レコード3070は、リクエストの受付日時を登録するフィールド3071と、リクエスト送信元の音声通信端末4のユーザ/音源IDを登録するフィールド3072と、リクエストされた広告音源の音響データのユーザ/音源IDを登録するためのフィールド3073と、を有する。
リクエスト受付部306は、IP網インターフェース部301を介して音声通信端末4より受付けたリスト要求に従い、広告情報記憶部305Dに登録されている各レコード3050Dのフィールド3051、フィールド3056に登録されているユーザ/音源ID、案内情報が記述された広告リストを生成し、これを該リスト要求送信元の音声通信端末4に送信する。また、リクエスト受付部306は、IP網インターフェース部301を介して音声通信端末4よりリクエストを受付けると、リクエスト記憶部307にレコード3070を新規に追加する。そして、追加したレコード3070のフィールド3071に現在日時を、フィールド3072に該リクエストに含まれているリクエスト送信元のユーザ/音源IDを、そして、フィールド3073に該リクエストに含まれているリクエスト対象である広告音源の音響データのユーザ/音源IDを登録する。
広告情報送信制御部304Dは、リクエスト記憶部305に記憶されているリクエストにより特定される、広告情報記憶部305Dに記憶されている広告音源の音響データのメディアサーバ2への送信を制御する。図25は広告情報送信制御部304Dの動作フローを説明するための図である。
先ず、広告情報送信制御部304Dは、フィールド3071に登録されている受信日時が最も古いレコード3070をリクエスト記憶部307から検索し、これを注目レコードとする(S3101)。それから、広告情報送信制御部304Dは、注目レコードのフィールド3073に登録されているユーザ/音源IDを含む音源追加要求を生成し、IP網インターフェース部301を介してプレゼンスサーバ1に送信する(S3102)。
次に、広告情報送信制御部304Dは、SIP制御部303に通話路の確立を指示する(S3103)。これを受けて、SIP制御303はメディアサーバ2との間でSIPに従った呼制御手順を実行して、メディアサーバ2との間に通話路を確立する。
それから、広告情報送信制御部304Dは、注目レコードのフィールド3073に登録されているユーザ/音源IDがフィールド3051に登録されているレコード3050Dを広告情報記憶部305Dから検索する。そして、検索したレコード3050Dのフィールド3052に登録されている音響データを、RTP処理部302に出力する(S3104)。これを受けて、RTP処理部302は、メディアサーバ2との間に確立されている通話路を用いて、広告情報送信制御部304Dより受け取った音響データをメディアサーバ2へ送信する。以降、広告情報送信制御部304Dは、該音響データのRTP処理部302への出力を定期的に繰り返す。この結果、該音響データのメディアサーバ2への送信が繰り返し行われる。
次に、広告情報送信制御部304Dは、内蔵タイマ等を利用して、S3104での処理(音響データの繰り返し再生)が開始されてから所定時間を経過したことを検出すると(S3105でYES)、該音響データの通話路を用いたメディアサーバ2への送信処理を停止する(S3106)。それから、広告情報送信部304Dは、SIP制御部303に通話路の切断を指示する(S3107)。これを受けて、SIP制御303はSIPに従いメディアサーバ2との間の通話路を切断する。
次に、広告情報送信制御部304Dは、自広告サーバ3のユーザ/音源IDを含む音源削除要求を生成し、IP網インターフェース部301を介してプレゼンスサーバ1に送信する(S3108)。その後、リクエスト記憶部307から注目レコードを削除し(S3109)、それからS3101に戻る。
図26は音声通信端末4Dの概略構成図である。
図示するように、本実施形態の音声通信端末4Dが第1実施形態の音声通信端末4と異なる点は、リクエスト受付部412を新たに設けた点である。その他の構成は音声通信端末4と同様である。
リクエスト受付部412は、操作受付部404を介してユーザより受付けたリスト閲覧指示に従い、自音声通信端末4Dのユーザ/音源IDを含むリスト要求を生成し、IP網インターフェース部407を介して広告サーバ3Dに送信する。また、リクエスト受付部412は、IP網インターフェース部407を介して広告サーバ3Dより受信した広告リストに従い、図27に示すような、広告音源の音響データのユーザ/音源ID4121および案内情報4122の組がリスト表示された、ユーザから広告音源の音響データのリクエストを受付けるためのリクエスト受付画面4120の映像データを生成し、映像出力部403から出力する。また、リクエスト受付部412は、ユーザがポインティングデバイス424を操作してリクエスト受付画面4120中から選択したユーザ/音源ID4121および案内情報4122の組を、操作受付部412を介して受付け、該組を含むリクエストを生成して、IP網インターフェース部407を介して広告サーバ3Dに送信する。
以上、本発明の第5実施形態について説明した。
本実施形態では、上記の第1実施形態の効果に加えてさらに以下に効果を有する。すなわち、任意のユーザが希望した広告音源の音響データを当該ユーザに聞かせることができるので、広告の効果を高めることができる。
なお、本発明は上記の各実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。
例えば、上記の実施形態では、広告音源の音響データおよび各ユーザの音声データの3Dオーディオ処理および合成処理をメディアサーバ2、2Bで行う場合を例にとり説明した。しかし、本発明はこれに限定されない。広告音源の音響データおよび各ユーザの音声データの3Dオーディオ処理および合成処理を各音声通信端末4、4Dで行うようにしてもよい。すなわち、各音声通信端末4、4Dは、自端末以外の音声通信端末4、4Dおよび広告サーバ3、3A、3C、3D各々との間に通話路を確立する。そして、自端末のユーザの音声データを自端末以外の音声通信端末4、4D各々に送信すると共に、自端末以外の音声通信端末4、4Dおよび広告サーバ3、3A、3C、3D各々から受信した音声データ、音響データを、プレゼンスサーバ1、1A、1B、1Cから入手した自端末以外の音声通信端末4、4Dおよび広告サーバ3、3A、3C、3D各々の仮想位置情報と自端末の仮想位置情報とに基づいて3Dオーディオ処理し、これ等を合成する。このようにすれば、メディアサーバ2、2Bが不要となる。
また、上記の各実施形態において、プレゼンスサーバ1は、広告音源の仮想空間における仮想位置を、音声通信端末4のユーザから広告音源までの距離が少なくとも当該音声通信端末4のユーザから最寄りの他の音声通信端末4のユーザまでの距離より長くなる位置に決定している。しかし、本発明はこれに限定されない。広告音源の仮想空間における仮想位置が、音声通信端末4のユーザにとって他の音声通信端末4のユーザの仮想位置と区別できるように決定するものであればよい。例えば、音声通信端末4のユーザから見た広告音源の向き(音の出力方向)が、少なくとも当該音声通信端末4のユーザから見た最寄りの他の音声通信端末4のユーザの向きと所定角度以上離れるように、広告音源の仮想空間における仮想位置を決定してもよい。
具体的には、プレゼンスサーバ1の位置情報管理部102は次の処理を行う。図28(A)に示すように、任意の音声通信端末4について、当該音声通信端末4のユーザの仮想位置から他の音声通信端末4のユーザを見る方向dを中心とする一定角度範囲γに属さないエリアを他の音声通信端末4毎に求める。図28(B)に示すように、この処理を全ての音声通信端末4に対して実行し、その結果得られたエリアが全て重なり合う領域107Aを求める。領域107Aが複数存在する場合は、その中から任意の領域を1つ選択する。領域107Aが存在しない場合は、上記の角度範囲γを小さくするか、あるいは、各音声通信端末4について、当該音声通信端末4のユーザの仮想位置から最も離れている他の音声通信端末4のユーザを除外して再計算する。なお、広告音源の仮想空間における向きの決定は、上記の各実施形態と同様である(図5(B)参照)。
ところで、人間の聴覚には両耳をむすぶ直線に関して対称な位置にある音源が区別し難いという弱点がある。すなわち、この直線に関して前後、上下等で対称な位置にある音源を区別するのが困難である。次のようにすれば、これ等の位置を避けて配置することができる。図29(A)に示すように、任意の音声通信端末4について、当該音声通信端末4のユーザの仮想位置から他の音声通信端末4のユーザを見る方向dを中心とする一定角度範囲γ、および、当該音声通信端末4のユーザの向きeと直交する線f(両耳を結ぶ直線)に対して当該一定角度範囲γと対象な範囲γ’に属さないエリアを、他の音声通信端末毎に求める。図29(B)に示すように、この処理を全ての音声通信端末4に対して実行し、その結果得られたエリアが全て重なり合う領域107Bを求める。
また、上記の各実施形態では、通話路の確立にSIPを利用する場合を例にとり説明した。しかし、本発明はこれに限定されない。例えばH.323等のSIP以外の呼制御プロトコルを利用してもよい。
また、上記の各実施形態では、音声通信端末4のユーザに提供するコンテンツとして広告音源の音響データを例にとり説明した。しかし、本発明はこれに限定されない。例えば楽曲等の音響データをコンテンツとしてユーザに提供する場合にも本発明は利用できる。
また、上記の各実施形態では、音声による広告を例にとり説明したが、本発明はこれに限定されない。仮想空間に位置するユーザおよび広告音源の音声を出力する代わりに、あるいは該出力に加えて、3Dグラフィクスにより仮想空間に位置するユーザおよび広告音源を表示する端末を使用する場合には、画像による広告、あるいは画像と音声とを併せて使用する広告についても、本発明によって広告の配置を決定し、それを3Dグラフィクスによって表示することができる。ただし、この場合はユーザの後方に広告を置いても効果が少ないので、配置を決定する際にできるだけ多くのユーザから見える位置に広告を配置するように配置の決定を行う必要がある。また、ユーザのプレファレンスを考慮する場合には、優先度の高いユーザから見える位置に配置する必要がある。
図1は本発明の第1実施形態が適用された音声通信システムの概略構成図である。 図2はプレゼンスサーバ1の概略構成図である。 図3は位置情報記憶部103の登録内容を模式的に示した図である。 図4はプレゼンスサーバ1の動作フローを説明する図である。 図5は仮想空間における広告音源の位置および向きを説明する図である。 図6はメディアサーバ2の概略構成図である。 図7はオーディオレンダ208の処理を説明する図である。 図8は天井と床を省略した2次元のimage source methodを模式的に表した図である。 図9は広告サーバ3の概略構成図である。 図10は広告情報記憶部305の登録内容を模式的に示した図である。 図11は広告情報位置制御部304の動作フローを説明する図である。 図12は音声通信端末4の概略構成図である。 図13は仮想空間マップの映像の一例を示す図である。 図14は音声通話システムを構成する各装置のハードウエア構成例を示す図である。 図15は図1に示す音声通話システムの概略動作を説明する図である。 図10は広告情報記憶部305Aの登録内容を模式的に示した図である。 図17は位置情報記憶部103Aの登録内容を模式的に示した図である。 図18は位置情報記憶部103Bの登録内容を模式的に示した図である。 図19は広告情報記憶部305Cの登録内容を模式的に示した図である。 図20は位置情報記憶部103Cの登録内容を模式的に示した図である。 図21はプレゼンスサーバ1Cの動作フローを説明する図である。 図22は広告サーバ3Dの概略構成図である。 図23は広告情報記憶部305Dの登録内容を模式的に示した図である。 図24はリクエスト報記憶部307の登録内容を模式的に示した図である。 図25は広告情報位置制御部304Dの動作フローを説明する図である。 図26は音声通信端末4Dの概略構成図である。 図27はリクエスト受付画面の一例を示す図である。 図28は仮想空間における広告音源の位置を説明する図である。 図29は仮想空間における広告音源の位置を説明する図である。
符号の説明
1…プレゼンスサーバ、2…メディアサーバ、3…広告サーバ、4…音声通信端末、5…IP網、101…IP網インターフェース部、102…位置情報管理部、103…位置情報記憶部、201…IP網インターフェース部、202…RTP処理部、203…SIP制御部、204…プレゼンスプロバイダ、205…空間モデラ、206…ユーザ情報生成部、207…音声分配部、208…オーディオレンダラ、301…IP網インターフェース部、302…RTP処理部、303…SIP制御部、304…広告情報送信制御部、305…広告情報記憶部、401…音声入力部、402…音声出力部、403…映像出力部、404…操作受付部、405…オーディオエンコーダ、406…オーディオデコーダ、407…IP網インターフェース部、408…SIP制御部、409…RTP処理部、410…プレゼンスプロバイダ

Claims (18)

  1. 複数の音声通信端末と、前記複数の音声通信端末各々に音源を提供するコンテンツサーバと、前記複数の音声通信各々のユーザおよび前記コンテンツサーバが提供する音源の仮想空間上における位置を管理するプレゼンスサーバと、を有する音声通話システムであって、
    前記プレゼンスサーバから前記複数の音声通信各々のユーザおよび前記コンテンツサーバが提供する音源の仮想空間上における位置の情報を取得するプレゼンス取得部と、
    前記音声通信端末毎に設けられたオーディオレンダラと
    を有し、
    前記オーディオレンダラは、
    当該オーディオレンダラが対応する音声通信端末以外の他の音声通信端末各々の音声データに対して、前記プレゼンス取得部が取得した位置の情報により特定される、前記他の音声通信端末各々のユーザと当該オーディオレンダラが対応する音声通信端末のユーザとの相対位置に応じた立体音響処理を施すと共に、前記コンテンツサーバが提供する音源の音響データに対して前記プレゼンス取得部が取得した位置の情報により特定される、前記音源と当該音声通信端末のユーザとの相対位置に応じた立体音響処理を施す処理と、
    前記立体音響処理された他の音声通信端末各々の音声データおよび音源の音響データを合成して、当該オーディオレンダラが対応する音声通信端末向けの音声通話データを生成する処理と
    を行い、
    前記プレゼンスサーバは、
    前記複数の音声通信端末各々について、当該音声通信端末を中心として、当該音声通信端末に最も近い他の音声通信端末までの距離を半径とする領域を特定し、それぞれの音声通信端末について特定したいずれの領域にも含まれない位置を、前記音源の仮想空間における位置として決定する位置情報管理部を有することを特徴とする音声通話システム。
  2. 複数の音声通信端末と、前記複数の音声通信端末各々に音源を提供するコンテンツサーバと、前記複数の音声通信各々のユーザおよび前記コンテンツサーバが提供する音源の仮想空間上における位置を管理するプレゼンスサーバと、を有する音声通話システムであって、
    前記プレゼンスサーバから前記複数の音声通信各々のユーザおよび前記コンテンツサーバが提供する音源の仮想空間上における位置の情報を取得するプレゼンス取得部と、
    前記音声通信端末毎に設けられたオーディオレンダラと
    を有し、
    前記オーディオレンダラは、
    当該オーディオレンダラが対応する音声通信端末以外の他の音声通信端末各々の音声データに対して、前記プレゼンス取得部が取得した位置の情報により特定される、前記他の音声通信端末各々のユーザと当該オーディオレンダラが対応する音声通信端末のユーザとの相対位置に応じた立体音響処理を施すと共に、前記コンテンツサーバが提供する音源の音響データに対して前記プレゼンス取得部が取得した位置の情報により特定される、前記音源と当該音声通信端末のユーザとの相対位置に応じた立体音響処理を施す処理と、
    前記立体音響処理された他の音声通信端末各々の音声データおよび音源の音響データを合成して、当該オーディオレンダラが対応する音声通信端末向けの音声通話データを生成する処理と
    を行い、
    前記プレゼンスサーバは、
    前記複数の音声通信端末各々について、当該音声通信端末から、当該音声通信端末に最も近い他の音声通信端末への方向を中心とした所定角度の範囲内の領域を特定し、それぞれの音声通信端末について特定したいずれの領域にも含まれない位置を、前記音源の仮想空間における位置として決定する位置情報管理部を有することを特徴とする音声通話システム。
  3. 複数の音声通信端末と、前記複数の音声通信端末各々に音源を提供するコンテンツサーバと、前記複数の音声通信各々のユーザおよび前記コンテンツサーバが提供する音源の仮想空間上における位置を管理するプレゼンスサーバと、を有する音声通話システムであって、
    前記プレゼンスサーバから前記複数の音声通信各々のユーザおよび前記コンテンツサーバが提供する音源の仮想空間上における位置の情報を取得するプレゼンス取得部と、
    前記音声通信端末毎に設けられたオーディオレンダラと
    を有し、
    前記オーディオレンダラは、
    当該オーディオレンダラが対応する音声通信端末以外の他の音声通信端末各々の音声データに対して、前記プレゼンス取得部が取得した位置の情報により特定される、前記他の音声通信端末各々のユーザと当該オーディオレンダラが対応する音声通信端末のユーザとの相対位置に応じた立体音響処理を施すと共に、前記コンテンツサーバが提供する音源の音響データに対して前記プレゼンス取得部が取得した位置の情報により特定される、前記音源と当該音声通信端末のユーザとの相対位置に応じた立体音響処理を施す処理と、
    前記立体音響処理された他の音声通信端末各々の音声データおよび音源の音響データを合成して、当該オーディオレンダラが対応する音声通信端末向けの音声通話データを生成する処理と
    を行い、
    前記プレゼンスサーバは、
    前記複数の音声通信端末各々について、当該音声通信端末から、当該音声通信端末に最も近い他の音声通信端末への方向を中心とした所定角度の範囲内の領域を求め、当該音声通信端末の仮想空間における向きに直交すると共に、当該音声通信端末の仮想空間における位置を通る直線に対して、前記求めた領域と対称な領域を特定し、それぞれの音声通信端末について求めた領域および特定した領域のいずれにも含まれない位置を、前記音源の仮想空間における位置として決定する位置情報管理部を有することを特徴とする音声通話システム。
  4. 請求項1乃至3のいずれか一項に記載の音声通話システムであって、
    前記位置情報管理部は、
    前記複数の音声通信端末各々に予め設定されたプレファレンスに基づいて、当該プレファレンスが前記音源のジャンルに属する音声通信端末から前記音源までの距離が、当該プレファレンスが前記音源のジャンルに属さない音声通信端末から前記音源までの距離よりも短くなるように、前記音源の仮想空間における位置を決定することを特徴とする音声通話システム。
  5. 請求項1乃至3のいずれか一項に記載の音声通話システムであって、
    前記オーディオレンダラは、
    当該オーディオレンダラが対応する音声通信端末のポリシが「音源あり」の場合に、当該オーディオレンダラが対応する音声通信端末以外の他の音声通信端末各々の音声データに対して、前記プレゼンス取得部が取得した位置の情報により特定される、前記他の音声通信端末各々のユーザと当該オーディオレンダラが対応する音声通信端末のユーザとの相対位置に応じた立体音響処理を施すと共に、前記コンテンツサーバが提供する音源の音響データに対して前記プレゼンス取得部が取得した位置の情報により特定される、前記音源と当該音声通信端末のユーザとの相対位置に応じた立体音響処理を施す処理と、
    前記立体音響処理された他の音声通信端末各々の音声データおよび音源の音響データを合成して、当該オーディオレンダラが対応する音声通信端末向けの音声通話データを生成する処理と
    を行い、
    当該オーディオレンダラが対応する音声通信端末のポリシが「音源なし」の場合に、当該オーディオレンダラが対応する音声通信端末以外の他の音声通信端末各々の音声データに対して、前記プレゼンス取得部が取得した位置の情報により特定される、前記他の音声通信端末各々のユーザと当該オーディオレンダラが対応する音声通信端末のユーザとの相対位置に応じた立体音響処理を施す処理と、
    前記立体音響処理された他の音声通信端末各々の音声データを合成して、当該オーディオレンダラが対応する音声通信端末向けの音声通話データを生成する処理と
    を行うことを特徴とする音声通話システム。
  6. 請求項1乃至3のいずれか一項に記載の音声通話システムであって、
    前記位置情報管理部は、
    前記決定を定期的に実行して、前記音源の仮想空間における位置を更新することを特徴とする音声通話システム。
  7. 請求項1乃至3のいずれか一項に記載の音声通話システムであって、
    前記コンテンツサーバは、
    前記音声通信端末からリクエストを受付けるリクエスト受付部を有し、
    前記リクエストされた音源を、前記複数の音声通信端末各々に提供する音源に設定することを特徴とする音声通話システム。
  8. 請求項1乃至のいずれか一項に記載の音声通話システムであって、
    前記プレゼンス取得部と、
    前記音声通信端末毎に設けられたオーディオレンダラと
    を有するメディアサーバをさらに有することを特徴とする音声通話システム。
  9. 請求項1乃至のいずれか一項に記載の音声通話システムであって、
    前記複数の音声通信端末各々は、
    前記プレゼンス取得部と、
    自端末に対応して設けられたオーディオレンダラと
    を有することを特徴とする音声通話システム。
  10. コンテンツサーバが提供する音源、および複数の音声通信端末各々のユーザの仮想空間上における位置を管理するプレゼンスサーバであって、
    前記複数の音声通信端末各々について、当該音声通信端末を中心として、当該音声通信端末に最も近い他の音声通信端末までの距離を半径とする領域を特定し、それぞれの音声通信端末について特定したいずれの領域にも含まれない位置を、前記音源の仮想空間における位置として決定する位置情報管理部を有することを特徴とするプレゼンスサーバ。
  11. コンテンツサーバが提供する音源、および複数の音声通信端末各々のユーザの仮想空間上における位置を管理するプレゼンスサーバであって、
    前記複数の音声通信端末各々について、当該音声通信端末から、当該音声通信端末に最も近い他の音声通信端末への方向を中心とした所定角度の範囲内の領域を特定し、それぞれの音声通信端末について特定したいずれの領域にも含まれない位置を、前記音源の仮想空間における位置として決定する位置情報管理部を有することを特徴とするプレゼンスサーバ。
  12. コンテンツサーバが提供する音源、および複数の音声通信端末各々のユーザの仮想空間上における位置を管理するプレゼンスサーバであって、
    前記複数の音声通信端末各々について、当該音声通信端末から、当該音声通信端末に最も近い他の音声通信端末への方向を中心とした所定角度の範囲内の領域を求め、当該音声通信端末の仮想空間における向きに直交すると共に、当該音声通信端末の仮想空間における位置を通る直線に対して、前記求めた領域と対称な領域を特定し、それぞれの音声通信端末について求めた領域および特定した領域のいずれにも含まれない位置を、前記音源の仮想空間における位置として決定する位置情報管理部を有することを特徴とするプレゼンスサーバ。
  13. コンピュータを、コンテンツサーバが提供する音源、および複数の音声通信端末各々のユーザの仮想空間における位置を管理するプレゼンスサーバとして機能させる、コンピュータ読み取り可能なプログラムであって、
    前記コンピュータに、
    前記複数の音声通信端末各々について、当該音声通信端末を中心として、当該音声通信端末に最も近い他の音声通信端末までの距離を半径とする領域を特定し、それぞれの音声通信端末について特定したいずれの領域にも含まれない位置を、前記音源の仮想空間における位置として決定する位置情報管理機能を実現させることを特徴とするコンピュータ読み取り可能なプログラム。
  14. コンピュータを、コンテンツサーバが提供する音源、および複数の音声通信端末各々のユーザの仮想空間における位置を管理するプレゼンスサーバとして機能させる、コンピュータ読み取り可能なプログラムであって、
    前記コンピュータに、
    前記複数の音声通信端末各々について、当該音声通信端末から、当該音声通信端末に最も近い他の音声通信端末への方向を中心とした所定角度の範囲内の領域を特定し、それぞれの音声通信端末について特定したいずれの領域にも含まれない位置を、前記音源の仮想空間における位置として決定する位置情報管理機能を実現させることを特徴とするコンピュータ読み取り可能なプログラム。
  15. コンピュータを、コンテンツサーバが提供する音源、および複数の音声通信端末各々のユーザの仮想空間における位置を管理するプレゼンスサーバとして機能させる、コンピュータ読み取り可能なプログラムであって、
    前記コンピュータに、
    前記複数の音声通信端末各々について、当該音声通信端末から、当該音声通信端末に最も近い他の音声通信端末への方向を中心とした所定角度の範囲内の領域を求め、当該音声通信端末の仮想空間における向きに直交すると共に、当該音声通信端末の仮想空間における位置を通る直線に対して、前記求めた領域と対称な領域を特定し、それぞれの音声通信端末について求めた領域および特定した領域のいずれにも含まれない位置を、前記音源の仮想空間における位置として決定する位置情報管理機能を実現させることを特徴とするコンピュータ読み取り可能なプログラム。
  16. 複数の音声通信端末と、前記複数の音声通信端末各々に音源を提供するコンテンツサーバと、前記複数の音声通信各々のユーザおよび前記コンテンツサーバが提供する音源の仮想空間上における位置を管理するプレゼンスサーバと、を有する音声通話システムにおいて、音声通話中である前記複数の音声通信端末各々に前記音源の音響データを提供する、音声通話中におけるコンテンツの提供方法であって、
    前記複数の音声通信端末各々について、
    当該音声通信端末を中心として、当該音声通信端末に最も近い他の音声通信端末までの距離を半径とする領域を特定し、それぞれの音声通信端末について特定したいずれの領域にも含まれない位置を、前記音源の仮想空間における位置として決定し、
    当該音声通信端末以外の他の音声通信端末各々の音声データに対して、前記他の音声通信端末各々のユーザと当該音声通信端末のユーザとの相対位置に応じた立体音響処理を施すと共に、前記音源の音響データに対して、前記音源と当該音声通信端末のユーザとの相対位置に応じた立体音響処理を施し、
    前記立体音響処理された他の音声通信端末各々の音声データおよび音源の音響データを合成して、当該音声通信端末向けの音声通話データを生成することを特徴とする音声通話中におけるコンテンツの提供方法。
  17. 複数の音声通信端末と、前記複数の音声通信端末各々に音源を提供するコンテンツサーバと、前記複数の音声通信各々のユーザおよび前記コンテンツサーバが提供する音源の仮想空間上における位置を管理するプレゼンスサーバと、を有する音声通話システムにおいて、音声通話中である前記複数の音声通信端末各々に前記音源の音響データを提供する、音声通話中におけるコンテンツの提供方法であって、
    前記複数の音声通信端末各々について、
    当該音声通信端末から、当該音声通信端末に最も近い他の音声通信端末への方向を中心とした所定角度の範囲内の領域を特定し、それぞれの音声通信端末について特定したいずれの領域にも含まれない位置を、前記音源の仮想空間における位置として決定し、
    当該音声通信端末以外の他の音声通信端末各々の音声データに対して、前記他の音声通信端末各々のユーザと当該音声通信端末のユーザとの相対位置に応じた立体音響処理を施すと共に、前記音源の音響データに対して、前記音源と当該音声通信端末のユーザとの相対位置に応じた立体音響処理を施し、
    前記立体音響処理された他の音声通信端末各々の音声データおよび音源の音響データを合成して、当該音声通信端末向けの音声通話データを生成することを特徴とする音声通話中におけるコンテンツの提供方法。
  18. 複数の音声通信端末と、前記複数の音声通信端末各々に音源を提供するコンテンツサーバと、前記複数の音声通信各々のユーザおよび前記コンテンツサーバが提供する音源の仮想空間上における位置を管理するプレゼンスサーバと、を有する音声通話システムにおいて、音声通話中である前記複数の音声通信端末各々に前記音源の音響データを提供する、音声通話中におけるコンテンツの提供方法であって、
    前記複数の音声通信端末各々について、
    当該音声通信端末から、当該音声通信端末に最も近い他の音声通信端末への方向を中心とした所定角度の範囲内の領域を求め、当該音声通信端末の仮想空間における向きに直交すると共に、当該音声通信端末の仮想空間における位置を通る直線に対して、前記求めた領域と対称な領域を特定し、それぞれの音声通信端末について求めた領域および特定した領域のいずれにも含まれない位置を、前記音源の仮想空間における位置として決定し、
    当該音声通信端末以外の他の音声通信端末各々の音声データに対して、前記他の音声通信端末各々のユーザと当該音声通信端末のユーザとの相対位置に応じた立体音響処理を施すと共に、前記音源の音響データに対して、前記音源と当該音声通信端末のユーザとの相対位置に応じた立体音響処理を施し、
    前記立体音響処理された他の音声通信端末各々の音声データおよび音源の音響データを合成して、当該音声通信端末向けの音声通話データを生成することを特徴とする音声通話中におけるコンテンツの提供方法。
JP2005265283A 2005-09-13 2005-09-13 音声通話システムおよび音声通話中におけるコンテンツの提供方法 Expired - Fee Related JP4608400B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005265283A JP4608400B2 (ja) 2005-09-13 2005-09-13 音声通話システムおよび音声通話中におけるコンテンツの提供方法
US11/492,831 US7899171B2 (en) 2005-09-13 2006-07-26 Voice call system and method of providing contents during a voice call
CNA2006101076380A CN1933517A (zh) 2005-09-13 2006-07-28 语音通话***及语音通话中的内容提供方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005265283A JP4608400B2 (ja) 2005-09-13 2005-09-13 音声通話システムおよび音声通話中におけるコンテンツの提供方法

Publications (2)

Publication Number Publication Date
JP2007081649A JP2007081649A (ja) 2007-03-29
JP4608400B2 true JP4608400B2 (ja) 2011-01-12

Family

ID=37879130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005265283A Expired - Fee Related JP4608400B2 (ja) 2005-09-13 2005-09-13 音声通話システムおよび音声通話中におけるコンテンツの提供方法

Country Status (3)

Country Link
US (1) US7899171B2 (ja)
JP (1) JP4608400B2 (ja)
CN (1) CN1933517A (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4608400B2 (ja) * 2005-09-13 2011-01-12 株式会社日立製作所 音声通話システムおよび音声通話中におけるコンテンツの提供方法
TWI492607B (zh) * 2007-04-03 2015-07-11 Ymax Comm Corp 集結聯絡表之技術
WO2008125593A2 (en) * 2007-04-14 2008-10-23 Musecom Ltd. Virtual reality-based teleconferencing
WO2008148061A1 (en) * 2007-05-24 2008-12-04 Ymax Communications Corp. Techniques for displaying one or more advertisements
EP2009892B1 (fr) * 2007-06-29 2019-03-06 Orange Positionnement de locuteurs en conférence audio 3D
JP4997022B2 (ja) * 2007-08-15 2012-08-08 ヤフー株式会社 仮想空間提供サーバ及びシステム
KR101617192B1 (ko) * 2007-09-26 2016-05-18 에이큐 미디어 인크 오디오-비주얼 내비게이션 및 통신
US9602295B1 (en) 2007-11-09 2017-03-21 Avaya Inc. Audio conferencing server for the internet
JP2009253565A (ja) * 2008-04-04 2009-10-29 Hitachi Ltd 携帯端末装置および携帯端末装置における無線通信方式の管理方法
EP2216974A1 (en) * 2009-02-04 2010-08-11 Alcatel Lucent Method of providing a communication service
JP5299018B2 (ja) * 2009-03-26 2013-09-25 ソニー株式会社 情報処理装置、コンテンツ処理方法及びプログラム
JP2010251884A (ja) * 2009-04-13 2010-11-04 Fumiichiro Noma サーバ装置、およびプログラム
US8363810B2 (en) * 2009-09-08 2013-01-29 Avaya Inc. Method and system for aurally positioning voice signals in a contact center environment
US8144633B2 (en) * 2009-09-22 2012-03-27 Avaya Inc. Method and system for controlling audio in a collaboration environment
US8547880B2 (en) * 2009-09-30 2013-10-01 Avaya Inc. Method and system for replaying a portion of a multi-party audio interaction
US8744065B2 (en) 2010-09-22 2014-06-03 Avaya Inc. Method and system for monitoring contact center transactions
US9736312B2 (en) 2010-11-17 2017-08-15 Avaya Inc. Method and system for controlling audio signals in multiple concurrent conference calls
US10142755B2 (en) * 2016-02-18 2018-11-27 Google Llc Signal processing methods and systems for rendering audio on virtual loudspeaker arrays
CN107632287B (zh) * 2016-07-19 2022-11-08 浙江星星冷链集成股份有限公司 一种声音定位的方法
WO2018072214A1 (zh) * 2016-10-21 2018-04-26 向裴 混合现实音频***
KR20180091319A (ko) * 2017-02-06 2018-08-16 삼성에스디에스 주식회사 사운드 공유 장치 및 방법
JP7163035B2 (ja) * 2018-02-19 2022-10-31 株式会社東芝 音響出力システム、音響出力方法及びプログラム
JP6791228B2 (ja) * 2018-11-09 2020-11-25 ヤマハ株式会社 情報提供方法、情報提供システム、端末装置の動作方法、端末装置およびプログラム
CN114667744B (zh) * 2020-09-30 2024-03-01 华为技术有限公司 实时通信方法、装置和***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001274912A (ja) * 2000-03-23 2001-10-05 Seiko Epson Corp 遠隔地会話制御方法および遠隔地会話システムならびに遠隔地会話制御プログラムを記録した記録媒体
JP2002101206A (ja) * 2000-09-26 2002-04-05 Casio Comput Co Ltd 電話通信サービス管理装置およびそのプログラム記録媒体
JP2003500935A (ja) * 1999-05-21 2003-01-07 トゥルーチャット, インコーポレイテッド エッジポイントミキシングを有する遠隔会議ブリッジ
JP2005175649A (ja) * 2003-12-09 2005-06-30 Fujitsu Support & Service Kk 音声通知装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5742905A (en) * 1994-09-19 1998-04-21 Bell Communications Research, Inc. Personal communications internetworking
US20020111172A1 (en) * 2001-02-14 2002-08-15 Dewolf Frederik M. Location based profiling
US6134314A (en) * 1998-12-11 2000-10-17 Qwest Communications International Inc. Method and system for dynamically redirecting wireline call delivery
US6320534B1 (en) * 1999-08-24 2001-11-20 Lucent Technologies Inc. Location based personal telephone routing system
US20060067500A1 (en) 2000-05-15 2006-03-30 Christofferson Frank C Teleconferencing bridge with edgepoint mixing
US7489768B1 (en) * 2000-06-01 2009-02-10 Jonathan Strietzel Method and apparatus for telecommunications advertising
AU2002219796A1 (en) * 2000-11-20 2002-06-03 At And T Wireless Services, Inc. Systems for providing wireless communication presence information
US7162237B1 (en) * 2002-07-26 2007-01-09 Bellsouth Intellectual Property Corporation System for automatic selection of profile based on location
JP2004348647A (ja) 2003-05-26 2004-12-09 Hitachi Ltd ヒューマン・コミュニケーション・システム
US20050198545A1 (en) * 2004-02-12 2005-09-08 Sony Corporation Automatic user device presence registration system
JP4546151B2 (ja) 2004-05-26 2010-09-15 株式会社日立製作所 音声コミュニケーション・システム
JP2006025281A (ja) 2004-07-09 2006-01-26 Hitachi Ltd 情報源選択システム、および方法
JP4608400B2 (ja) * 2005-09-13 2011-01-12 株式会社日立製作所 音声通話システムおよび音声通話中におけるコンテンツの提供方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003500935A (ja) * 1999-05-21 2003-01-07 トゥルーチャット, インコーポレイテッド エッジポイントミキシングを有する遠隔会議ブリッジ
JP2001274912A (ja) * 2000-03-23 2001-10-05 Seiko Epson Corp 遠隔地会話制御方法および遠隔地会話システムならびに遠隔地会話制御プログラムを記録した記録媒体
JP2002101206A (ja) * 2000-09-26 2002-04-05 Casio Comput Co Ltd 電話通信サービス管理装置およびそのプログラム記録媒体
JP2005175649A (ja) * 2003-12-09 2005-06-30 Fujitsu Support & Service Kk 音声通知装置

Also Published As

Publication number Publication date
US20070071204A1 (en) 2007-03-29
CN1933517A (zh) 2007-03-21
JP2007081649A (ja) 2007-03-29
US7899171B2 (en) 2011-03-01

Similar Documents

Publication Publication Date Title
JP4608400B2 (ja) 音声通話システムおよび音声通話中におけるコンテンツの提供方法
EP3627860B1 (en) Audio conferencing using a distributed array of smartphones
EP3095254B1 (en) Enhanced spatial impression for home audio
JP4741261B2 (ja) ビデオ会議システム、プログラムおよび会議端末
JP4426484B2 (ja) 音声会議システム、会議端末および音声サーバ
US11877135B2 (en) Audio apparatus and method of audio processing for rendering audio elements of an audio scene
KR102638946B1 (ko) 정보 처리 장치 및 정보 처리 방법, 그리고 정보 처리 시스템
JP5331805B2 (ja) コンテンツ再生装置およびコンテンツ再生方法
Holman New factors in sound for cinema and television
KR101235832B1 (ko) 실감 멀티미디어 서비스 제공 방법 및 장치
Shirley et al. Platform independent audio
Hamasaki 22.2 multichannel audio format standardization activity,”
JP2018191127A (ja) 信号生成装置、信号生成方法およびプログラム
WO2022113288A1 (ja) ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法
JP2005086537A (ja) 高臨場音場再現情報送信装置、高臨場音場再現情報送信プログラム、高臨場音場再現情報送信方法および高臨場音場再現情報受信装置、高臨場音場再現情報受信プログラム、高臨場音場再現情報受信方法
WO2022113289A1 (ja) ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法
Batista et al. Developing an synthetic binaural interactive soundscape based on user 3d space displacement using opencv and pure data
Rumsey Spatial audio: eighty years after Blumlein
Rébillat et al. SMART-I 2:“Spatial multi-user audio-visual real-time interactive interface”, A broadcast application context
WO2023042671A1 (ja) 音信号処理方法、端末、音信号処理システム、管理装置
JP2022045553A (ja) 音信号処理方法および音信号処理装置
de Bruijn et al. Recent developments on WFS for high quality spatial sound reproduction
Molteni Interactive binaural rendering of virtual acoustic scenes

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101005

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101008

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131015

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees