JP4462649B2 - Information processing apparatus, information processing method, and information processing system - Google Patents

Information processing apparatus, information processing method, and information processing system Download PDF

Info

Publication number
JP4462649B2
JP4462649B2 JP32635297A JP32635297A JP4462649B2 JP 4462649 B2 JP4462649 B2 JP 4462649B2 JP 32635297 A JP32635297 A JP 32635297A JP 32635297 A JP32635297 A JP 32635297A JP 4462649 B2 JP4462649 B2 JP 4462649B2
Authority
JP
Japan
Prior art keywords
audio data
voice data
data
file
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP32635297A
Other languages
Japanese (ja)
Other versions
JPH11161465A (en
Inventor
道昭 米田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP32635297A priority Critical patent/JP4462649B2/en
Publication of JPH11161465A publication Critical patent/JPH11161465A/en
Application granted granted Critical
Publication of JP4462649B2 publication Critical patent/JP4462649B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Computer And Data Communications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow audio data to be used excepting for ones already prepared at the side of a world wide web(WWW) server or WWW client when preparing a home page. SOLUTION: A hyper text mark-up language(HTML) file placed at a WWW server is read into a WWW browser of a client. At the side of the client, audio data prepared by a user are selected, for example, and transmitted to the server. Next, the audio data prepared at the side of the server are selected by the client. The selected audio data and the audio data transferred from the client are put to togethe. The combined audio data are preserved at the server while applying a specific uniform resource locator(URL). At the server, the HTML file describing the URL of the combined audio data is automatically generated.

Description

【0001】
【発明の属する技術分野】
この発明は、インターネットにおけるWWW(World Wide Web)サーバとWWWクライアントとの間で音声データの合成を行い、新たな音声データを自動的に生成するようにされた情報処理装置、情報処理方および情報処理システムに関する。
【0002】
【従来の技術】
現在、HTML(Hyper-Text Markup Language)によって記述されたHTMLファイルをWWWサーバ上に置き、これをインターネットに向けて公開する、ホームページ(Webページ)が普及している。このホームページは、比較的平易な言語であるHTMLによって記述されるため、個人による情報発信の手段として盛んに利用されている。
【0003】
このホームページのような、HTMLファイルを閲覧するためには、一般的に、WWWブラウザと称されるアプリケーションが用いられる。WWWブラウザは、例えば入力されたURL(Uniform Resource Locators) の記述に従い、指定されたファイルを読み込む。URLとしてインターネット上のアドレスが記述されていれば、インターネット上でそのファイルが検索され、読み込まれる。同様に、URLとしてローカルな記憶媒体、例えばこのWWWブラウザが稼働しているパーソナルコンピュータのハードディスクを指定することも可能である。
【0004】
WWブラウザに読み込まれたファイルがHTML形式のファイルであれば、ファイルの記述に従いWWWブラウザ上に表示がなされる。読み込んだHTMLファイルに画像データを読み込む指定があれば、自動的に画像データの読み込みがなされ、ブラウザ上に表示される。同様に、音声データの読み込みの指示があれば、自動的に音声データの読み込みがなされ、音声データの再生が行われる。
【0005】
WWWブラウザは、HTML形式とは異なる、他のファイルも読み込むことができる。例えば、URLの記述に従い読み込まれたファイルが画像データであれば、WWWブラウザに対して直接的に画像データの表示がなされ、音声データが読み込まれれば、音声データの再生がなされる。
【0006】
また、所定の記述がなされたHTMLファイルをWWWブラウザに読み込まれることで、ユーザの、WWWブラウザに対する様々なコントロールが実現される。例えば、HTMLファイルの記述に基づき、WWWブラウザ上に、所定のコントロールに対応したボタンなどの操作部を適宜、配置することができる。コントロールを工夫して設定することにより、WWWブラウザに対する、ユーザによるインタラクティブな操作が実現できる。例えば、このように配置されたボタンを操作することによって、画像ファイルの表示や音声ファイルの再生を、ユーザが制御するようにできる。
【0007】
一方、ホームページを自動生成するサービスが提案されている。このサービスは、例えば、サービスを行うようにされたWWWサーバ上に、予め、ホームページの作成に用いられる素材が幾種類か用意される。この素材の一例としては、ホームページに表示させる画像ファイルや、HTMLで記述されレイアウトなどが設定されたホームページのテンプレートファイルなどがある。また、このWWWサーバ上には、ホームページの自動生成サービスの指示を行うためのホームページが置かれる。この自動生成サービスのホームページは、これらの素材を選択するようにされている。
【0008】
ホームページの自動生成を行いたいユーザは、WWWブラウザが搭載された情報機器、例えばパーソナルコンピュータをWWWクライアントとして用い、インターネットを介してこのWWWサーバにアクセスする。WWWサーバでは、アクセスがあったユーザの認証を行い、ホームページ自動生成サービスを利用できるように登録されたユーザであれば、アクセスを許可する。このようにして自動生成サービスのホームページのURLが指定され、これがユーザのWWWブラウザに表示される。ユーザは、WWWブラウザに表示されたこの自動生成サービスのホームページ上で、希望するレイアウト、自動生成されるホームページに表示される画像ファイルなどを選択する。また、必要に応じて、ユーザは、WWWブラウザ上で、ホームページに表示させるためのテキストデータの入力を行う。
【0009】
選択および入力された内容は、WWWクライアントから、自動生成サービスを行うWWWサーバに転送される。転送先のWWWサーバにおいて、選択された内容や、入力されたテキストデータなどに基づき、HTMLファイルが自動的に生成される。自動生成されたHTMLファイルは、例えば所定のWWWサーバに対して転送され、ユーザのホームページとして、インターネットに向けて公開される。このように、このホームページ自動生成システムを利用することにより、ユーザは、特にHTMLに関する知識が無くても、自分のホームページを持つことができる。
【0010】
【発明が解決しようとする課題】
ところで、ホームページにレイアウトすることが可能なデータは、テキストデータや画像データに限られず、音声データも扱うことができる。上述した従来のホームページ自動生成サービスでは、サービスを行うWWWサーバ上に、既にサンプルとなる音声データが幾つか用意されていた。ユーザは、その中から所望の音声データを選択して、自動生成するホームページ上にレイアウトしていた。あるいは、WWWクライアント側で入手または作成した音声データを、インターネットを介してWWWサーバに転送し、この音声データをそのままホームページ上で使用していた。
【0011】
このように、従来のシステムでは、ホームページ上で音声データを扱おうとする場合、WWWサーバ側に予め用意された音声データを使うか、あるいはWWWクライアント側において用意した音声データをWWWサーバ側に転送して用いるかの、何れかの方法しか取り得ないという問題点があった。
【0012】
したがって、この発明の目的は、ホームページを作成する際に、WWWサーバ側あるいはWWWクライアント側に既に用意された音声データ以外の音声データを用いることができるようにされた情報処理装置、情報処理方および情報処理システムを提供することにある。
【0013】
【課題を解決するための手段】
この発明は、上述した課題を解決するために、ネットワークに接続されたクライアント端末に対してサービスを提供するようにされた情報処理装置において、予め音声データが格納される音声データ格納手段と、クライアント端末から転送された第1の音声データを受信する受信手段と、第1の音声データと、音声データ格納手段に格納される音声データのうちクライアント端末からの指示に応じて選択された第2の音声データとを合成して第3の音声データを生成する音声データ生成手段と、第1の音声データのパラメータと第2の音声データのパラメータとに基づき、第1の音声データを変換する音声データ変換手段と、音声データ生成手段により生成された第3の音声データを音声データファイルとしてURLを与えて保存する保存手段と、URLに基づいて、保存された音声データファイルに対してリンクが張られたウェブファイルを生成するウェブファイル生成手段とを備え、音声データ生成手段は、第1の音声データのパラメータと第2の音声データのパラメータとを比較し、比較結果に基づき第1の音声データのパラメータと第2の音声データのパラメータとが異なっているとされた場合、音声データ変換手段で第1の音声データを変換し、第2の音声データと音声データ変換手段で変換された第1の音声データとを合成して第3の音声データを生成することを特徴とする情報処理装置である。
【0015】
また、この発明は、上述した課題を解決するために、情報処理装置を用い、ネットワークにより接続されたクライアント端末との間でデータの送受信を行う情報処理システムにおいて、ネットワークに接続する接続手段と、予め音声データが格納される第1の音声データ格納手段と、クライアント端末から転送された第1の音声データを受信する受信手段と、第1の音声データと、音声データ格納手段に格納される音声データのうちクライアント端末からの指示に応じて選択された第2の音声データとを合成して第3の音声データを生成する音声データ生成手段と、第1の音声データのパラメータと第2の音声データのパラメータとに基づき、第1の音声データを変換する音声データ変換手段と、音声データ生成手段により生成された第3の音声データを音声データファイルとしてURLを与えて保存する保存手段と、URLに基づいて、保存された音声データファイルに対してリンクが張られたウェブファイルを生成するウェブファイル生成手段とを備え、音声データ生成手段は、第1の音声データのパラメータと第2の音声データのパラメータとを比較し、比較結果に基づき第1の音声データのパラメータと第2の音声データのパラメータとが異なっているとされた場合、音声データ変換手段で第1の音声データを変換し、第2の音声データと音声データ変換手段で変換された第1の音声データとを合成して第3の音声データを生成するようにした情報処理装置と、ネットワークを介して情報処理装置と通信する通信手段と、第1の音声データを格納する第2の音声データ格納手段と、第2の音声データ格納手段に格納された第1の音声データを選択し、選択された第1の音声データを、通信手段による通信で情報処理装置へ転送する選択手段と、選択手段によって選択され情報処理装置へ転送された第1の音声データに対して情報処理装置で音声データ生成手段で合成される第2の音声データの選択を指示する指示手段とを備えるクライアント端末とを有することを特徴とする情報処理システムである。
【0016】
また、この発明は、上述した課題を解決するために、ネットワークに接続されたクライアント端末に対してサービスを提供するようにされた情報処理方法において、予め音声データが音声データ格納手段に格納されるステップと、クライアント端末から転送された第1の音声データを受信する受信のステップと、第1の音声データと、音声データ格納手段に格納される音声データのうちクライアント端末からの指示に応じて選択された第2の音声データとを合成して第3の音声データを生成する音声データ生成のステップと、第1の音声データのパラメータと第2の音声データのパラメータとに基づき、第1の音声データを変換する音声データ変換のステップと、音声データ生成のステップにより生成された第3の音声データを音声データファイルとしてURLを与えて保存する保存のステップと、URLに基づいて、保存された音声データファイルに対してリンクが張られたウェブファイルを生成するウェブファイル生成のステップとを備え、音声データ生成のステップは、第1の音声データのパラメータと第2の音声データのパラメータとを比較し、比較結果に基づき第1の音声データのパラメータと第2の音声データのパラメータとが異なっているとされた場合、音声データ変換のステップにより第1の音声データを変換し、第2の音声データと音声データ変換のステップにより変換された第1の音声データとを合成して第3の音声データを生成することを特徴とする情報処理方法である。
【0022】
上述したように、この発明は、WWWサーバにおいて、転送された音声データに対して指示に基づき音声修飾処理が施され、処理された音声データが第1の格納手段に対して格納され、URLを与えられる。また、クライアント用の情報機器において、格納された音声データがWWWサーバに対して転送され、WWWサーバにおける音声修飾処理を選択するようにされている。そのため、WWWサーバ上で、クライアント用の情報機器側から転送された音声データに対して、選択された音声修飾処理を行うことができる。
【0023】
【発明の実施の形態】
以下、この発明の実施の第1の形態を、図面を参照しながら説明する。この第1の形態では、ユーザ側のクライアントコンピュータが有する音声データをWWWサーバに対して転送し、WWWサーバ側で、転送された音声データとWWWサーバが有する音声データとを合成して、新たな音声データを自動的に生成する。
【0024】
図1は、この発明を適用できる通信システムの一例を概略的に示す。この例は、通信ネットワークとしてインターネット1が用いられている例である。インターネット1に対して、WWWサーバ2が接続される。WWWサーバ2は、1または複数のコンピュータからなる。WWWサーバ2が有するストレージ3には、HTMLファイルや音声データファイルなどが格納されている。WWWサーバ2は、ストレージ3に格納されたHTMLファイルをインターネット1に対して公開することができる。
【0025】
インターネット1にプロバイダ4が接続される。プロバイダ4には、複数のクライアントコンピュータ5が例えば公衆電話回線を介して接続される。プロバイダ4は、WWWサーバを有しており、インターネット1に対して様々なコンテンツを提供すると共に、複数のクライアントコンピュータ5のそれぞれとインターネット1との接続を確保するサービスを行う。このシステムでは、WWWサーバ2と複数のクライアントコンピュータ5のそれぞれとは、http(hyper text transfer protocol)によってデータの送受信を行うことができるようにされている。
【0026】
各々のクライアントコンピュータ5には、パーソナルコンピュータが用いて好適である。これに限らず、例えばワードプロセッサやインターネットアクセス機能付テレビジョン、家庭用コンピュータゲーム機といった、ネットワーク接続機能などを有する他の情報機器をクライアントコンピュータ5として利用することができる。
【0027】
図2は、例えばパーソナルコンピュータからなるクライアントコンピュータ5の構成の一例を示す。パーソナルコンピュータ100において、ローカルバス105に対して、メモリコントローラとバスコントローラの機能を兼ねるコントローラ111が接続される。コントローラ111に、例えばSRAMからなるキャッシュ112およびDRAMからなるRAM114が接続される。キャッシュ112に対して、プロセサバス110を介してCPU113が接続される。
【0028】
また、ローカルバス105に対して、ハードディスクコントローラ115を介してハードディスク116が接続されると共に、グラフィックコントローラ117を介して例えばCRTやLCD(Liquid Crystal Display)からなるディスプレイ118が接続される。さらに、ローカルバス105がバスブリッジ119を介して拡張バス120に接続される。
【0029】
拡張バス120に対して入出力コントローラ121が接続される。入出力コントローラ121には、必要とされる入出力デバイスが適宜接続される。入出力コントローラ121に接続される入出力デバイスとしては、例えばキーボード122やマウス123といった入力デバイス、また、例えばフロッピードライブやCD−ROMドライブ、光磁気ディスクドライブといったディスクドライブ、さらに、例えばプリンタ125といった出力デバイスなどが挙げられる。
【0030】
拡張バス120に対して、さらに、モデム126が接続される。モデム126を介して、例えば公衆電話回線127に接続することができる。モデム126の代わりに、外部のネットワークに接続できるようにされたネットワークアダプタを接続するようにしてもよい。この例では、公衆電話回線127を介してプロバイダ4に接続される。プロバイダ4はインターネット1に接続される。したがって、パーソナルコンピュータ100は、公衆電話回線127を通じてインターネット1に接続し、接続されたインターネット1を介してWWWサーバ2に接続することができる。
【0031】
拡張バス120には、さらに、音源モジュール128が接続される。この音源モジュール128は、CPU113の制御に基づき音声を出力して、スピーカ129を駆動する。また、この音源モジュール128は、例えばマイク130によって収録された音声信号を所定の音声データに変換することができる。外部入力端子をこの音源モジュール128に設け、アナログオーディオ信号を音声データに変換するようにもできる。
【0032】
これらマイク130や外部入力端子から入力された音声信号は、例えば44.1KHz、あるいは22.05KHzといったサンプリング周波数Fsでサンプリングされる。そして、量子化ビット数mが例えば8ビット、あるいは16ビットで量子化され、音声データに変換される。変換された音声データは、例えばハードディスク116に格納される。
【0033】
パーソナルコンピュータ100が起動されると、ディスプレイ118に対して所定の画面が表示されると共に、マウス123やキーボード122といった入力デバイスの操作で移動するカーソルが表示される。ユーザは、このカーソルを上述の入力デバイスで操作することで、パーソナルコンピュータ100において所望の機能を実現することができる。
【0034】
図3は、この構成において行われる、ホームページ自動生成サービスの処理の一例のフローチャートを示す。このホームページ自動生成サービスでは、WWWサーバ2上に予め用意された画像データだけでなく、ユーザ側で所有している画像データをWWWサーバ2に転送し、これを予め用意されたホームページのレイアウト上に配置することができる。また、ホームページに対して、音声データの配置も行うことができる。この音声データは、WWWサーバ2側で予め用意されたものが用いられると共に、ユーザ側で用意されたものを用いることができるようにされている。
【0035】
なお、この図3のフローチャートにおいて、クライアントコンピュータ5側での処理は、WWWサーバ2からクライアントコンピュータ5に対して送られたHTMLファイルに基づきなされる。すなわち、WWWサーバ2から送られたHTMLファイルがWWWブラウザに読み込まれ、読み込まれたHTMLファイルに基づいた表示がWWWブラウザに対してなされる。ユーザは、このWWWブラウザに表示された、種々のコントロールなどを用いて、クライアントコンピュータ5内部での処理およびWWWサーバ2に対するデータの転送などを行う。
【0036】
先ず、ステップS10で、WWWサーバ2において、ホームページ自動生成サービスを受けたいユーザのユーザ登録が行われる。これは、WWWサーバ2に対して画像データを転送する際のセキュリティを考慮したものである。
【0037】
ユーザ登録は、例えばユーザ自身の電子メールアドレスとパスワードとを、WWWサーバ2に登録することによってなされる。ユーザは、例えば所定の手続でクライアントコンピュータ5をインターネット1に接続し、コンピュータ5上でWWWブラウザを起動する。そして、WWWブラウザ上で予め知られている該当サービスのURLが指定されると、そのホームページが検索され、WWWブラウザ上に表示される。ユーザ登録は、例えばこのホームページ上で行われる。ユーザ登録が行われると、WWWサーバ2(ストレージ3)に対して、登録されたユーザのデータ格納領域(ディレクトリ)が確保される。このユーザディレクトリには、固有のURLが設定される。
【0038】
ユーザ登録の内容は、WWWサーバ2からユーザのクライアントコンピュータ5に対して、例えば電子メールで以て通知される。ステップS11で、この通知がユーザのクライアントコンピュータ5に受信され、登録内容の確認がなされる。登録内容が正しいとされれば、このユーザは、WWWサーバ2によるホームページ自動生成サービスを受けることができるようになる。
【0039】
ホームページ自動生成サービスを受けたいユーザがクライアントコンピュータ5を用いてWWWサーバ2にアクセスし、所定の入力画面(ログイン画面)に対して予め登録したパスワードを入力することで、ログイン処理がなされる(ステップS12)。WWWサーバ2で、入力されたパスワードが正しいかどうかチェックされる。若し、ユーザによって入力されたパスワードが登録されたものと異なっている場合には、処理はステップS14に移行し、元のログイン画面が表示され、処理はステップS12に戻され、再びパスワードの入力が求められる。
【0040】
ステップS13で、ユーザによって入力されたパスワードが正しいものであるとされた場合には、処理はステップS15に移行する。ステップS15では、クライアントコンピュータ5において、画像データ転送処理が起動される。これにより、ユーザは、クライアントコンピュータ5からWWWサーバ2に対して、画像データファイルの転送を行うことができるようになる。
【0041】
次のステップS16では、クライアントコンピュータ5側で予め保有している画像データファイルのうち、ホームページに掲載するためにWWWサーバ2に対して転送するファイルの選択がなされる。例えば、WWWブラウザ上にファイル名を入力するための入力部と、ハードディスク116のディレクトリ構造を参照してファイル名の入力を支援するボタンとが表示される。この表示に基づき、ユーザによる画像ファイルの選択が行われる。
【0042】
画像ファイルが選択されると、次のステップS17で、選択された画像ファイルが所定の形式に則っているかどうかが判断される。例えば、ファイルサイズが所定のサイズ以下であるか、および、ファイルフォーマットが所定のものであるかどうかが判断される。転送可能なファイル形式は、例えば、ファイルサイズは、64kバイト以下とされ、ファイルフォーマットは、JPEG(Joint Photographic Experts Group)あるいはGIF(Graphics Interchange Format) の何れかとされる。若し、ステップS17で、画像ファイルの形式が所定のものではないとされた場合には、処理はステップS18に移行し、エラーである旨が表示され、処理が終了される。ステップS18からステップS16へ処理を戻すようにしてもよい。
【0043】
一方、ステップS17で、画像ファイルの形式が所定のものであると判断された場合には、処理はステップS19に移行する。ステップS19では、選択された画像ファイルのWWWサーバ2への転送が行われる。転送された画像ファイルは、ユーザ登録時に設定された、該当ユーザのユーザディレクトリに格納される。
【0044】
画像データの転送が行われると、処理はステップS20に移行する。ステップS20では、この発明の特徴である、音声データに関する処理が行われる。詳細は後述するが、この発明によるホームページ自動生成サービスにおいては、音声データをホームページに対してレイアウトすることができる。音声データは、ユーザがクライアントコンピュータ5上で作成したものや、WWWサーバ2において予め用意されたものを利用することができる。このステップS20では、これらの音声データに対して、音声データの合成やエフェクト処理などの音声修飾処理を施すことができる。処理された音声データは、音声データファイルとして保存され、ユーザのホームページにレイアウトされる。
【0045】
次のステップS21では、自動生成したいホームページのレイアウト構成が設定される。すなわち、予め用意された数種類のレイアウトから所望のものが選択されると共に、そのホームページに表示したいタイトルやメッセージなどのテキストデータの入力などがなされる。WWWサーバ2に予め用意されたレイアウトは、例えばサンプル画像ファイルとしてクライアントコンピュータ5に送られ、WWWブラウザに表示される。ユーザは、この画面を見て、所望のレイアウトを選択し、そのレイアウト内の所定位置に表示するようにされたタイトルやメッセージなどを、WWWブラウザに設けられた入力部に対して入力する。また、ユーザは、背景画像やライン、マークなどの飾りなど、ホームページの構成に必要なものを選択することもできる。
【0046】
これらレイアウト構成の設定データは、例えばWWWブラウザに配置されたページ作成指示ボタンを押することで、クライアントコンピュータ5からWWWサーバ2に対して送られる。設定内容が気に入らないときは、例えばWWWブラウザに配置されたリセットボタンを押すことで、設定内容を取り消し、再び設定を行うことができる。
【0047】
WWWサーバ2では、クライアントコンピュータ5から送られたレイアウト構成設定データに基づき、HTMLファイルを自動生成する(ステップS22)。そして、次のステップS23において、自動生成されたHTMLファイルがクライアントコンピュータ5に対して送られる。クライアントコンピュータ5側では、送られたこのHTMLファイルがWWWブラウザに読み込まれ、ファイルの内容に従い自動生成されたホームページが表示される。この表示を見て、ユーザは、ホームページの仕上がりを確認することができる。
【0048】
このとき、自動生成されたホームページとは別に、この結果でいいかどうかをWWWサーバ2に通知するためのボタンが配置される。ユーザは、WWWブラウザの表示によりホームページの仕上がり確認を行って、これらのボタンを操作することによって、WWWサーバ2に対して仕上がり結果の良否を通知する。若し、結果が意に沿わないような場合には、その旨WWWサーバ2に通知され、処理はステップS15に戻される。
【0049】
一方、ステップS24で、ユーザによって、例えば仕上がり結果が満足すべきものであると判断された場合には、その旨WWWサーバ2に通知され、処理はステップS25に移行する。
【0050】
このホームページ自動生成サービスでは、自動生成によってユーザのホームページが更新された場合、予め指定された相手に、その旨を自動的に通知することができる。通知は、電子メールによって行われる。ステップS25では、この通知を行う相手先の設定がなされる。相手先は、複数設定することができる。ステップS25で通知先が設定されたら、次のステップS26で、設定された通知先に対して、自動的に電子メールが送信される。この更新通知のための電子メールは、予め設定された日時に送信するようにもできいる。
【0051】
この更新通知電子メールには、例えば更新されたホームページのURLが記述されており、メールを受け取ったユーザは、この記述に基づき容易に更新されたホームページにアクセスすることができる。
【0052】
このように、このホームページ自動生成サービスでは、サービスによってホームページが更新されたことを、特定の相手に自動的に通知することができる。これを利用することで、例えば、年賀状やグリーティングカードをHTMLファイルとして自動生成し、自動生成されたこれらのHTMLファイルを、インターネット上で自動配信することができる。
【0053】
次に、ステップS20で上述した、音声修飾処理について説明する。この実施の第1の形態では、音声修飾処理として、WWWサーバ2に用意された音声データとクライアントコンピュータ5側に用意された音声データとの合成処理を行う。図4は、この実施の第1の形態における音声修飾処理、すなわち音声データの合成を示すフローチャートである。
【0054】
上述の図3において、ステップS20に処理が移行すると、先ず、図4のフローチャートに示されるように、ステップS200で、クライアントコンピュータ5側での音声データの選択が行われる。この音声データは、例えば、ユーザによって、マイク130を用いて収録されて得られたものを用いることができる。この音声データは、ファイル名が付けられ音声データファイルとされ、ハードディスク116の所定領域に格納されている。
【0055】
図5は、ステップS200での音声データの選択の際の、WWWブラウザにおける表示の一例を示す。WWWブラウザ表示300に対して、音声データファイルのファイル名を入力するための、ファイル名入力部301が配置される。また、参照ボタン302および転送ボタン303が配置される。
【0056】
この表示は、WWWサーバ2からクライアントコンピュータ5に対して送られたHTMLファイルがWWWブラウザに読み込まれることで表示される。図6は、この場合のHTMLファイルの記述の一例を示す。タグ<FORM ENCTYPE=…> ・・・</FORM> の部分がファイル名入力部301,参照ボタン302,および転送ボタン303に対応する。また、この部分に、後述するCGIを用いたファイル転送プログラムを呼び出すための記述がなされる。
【0057】
参照ボタン302を押すことで、クライアントコンピュータ5におけるハードディスク116のディレクトリ構成が表示される。ユーザは、このディレクトリ構成の表示上でファイルの検索を行い、所望の音声データファイルを指定する。これにより、ファイル名入力部301に対して、正確なファイル名の入力を自動的に行うことができる。
【0058】
ファイル名入力部301に音声データファイルのファイル名が入力され、音声データファイルの選択が行われると、次のステップS201で、選択された音声データファイルの、WWWサーバ2への転送が指示される。これは、ファイル名入力部301にファイル名が入力された状態で転送ボタン303が押されることで行われる。転送ボタン303が押されると、HTMLファイルの記述に対応したWWWブラウザの機能により、選択された音声データファイルがハードディスク116の、ファイル名入力部301で指定された領域から読み出され、公衆電話回線127およびインターネット1を介してWWWサーバ2に転送される。
【0059】
WWWサーバ2では、クライアントコンピュータ5から転送された音声データファイルのチェックが行われる。転送された音声データファイルについて、ファイルの種類とファイルサイズとがチェックされる。そして、これらが所定の条件を満たしている場合には、その音声データファイルがWWWサーバ2に受け付けられ、例えばストレージ3の所定の領域に格納される。
【0060】
若し、転送された音声データファイルについて、これらが所定の条件を満たしていない場合には、その音声データファイルは、WWWサーバ2に受け付けられない。そして、WWWサーバ2からその音声データファイルを転送したクライアントコンピュータ5に対して、エラーである旨が通知される。例えばエラー表示を行うように記述されたHTMLファイルがWWWサーバ2から該当クライアントコンピュータ5に対して送られ、WWWブラウザに読み込まれると、WWWブラウザ表示300にエラー通知が表示される。このとき、音声データファイルの再送を指示するように表示してもよい。
【0061】
ファイルの種類は、例えばPCM(Pulse Code Modulation) 方式に基づくディジタル音声データに対応した形式を用いることができる。複数の形式の音声データファイルに対応させることも可能である。ファイルの種類は、ファイル名の末尾に、通常「.(ピリオド)」で区切って付された拡張子に基づき判断することが可能である。ファイルのヘッダ情報などから自動的に判断するようにしてもよい。また、転送可能なファイルサイズには制限を与えることができる。この例では、500kバイトが上限とされる。
【0062】
なお、音声データファイルに関するこれらの諸条件は、HTMLファイルに記述し、図5に一例が示されるように、WWWブラウザ表示300に対して表示すると、より好ましい。また、図5において、ファイル条件の表示における「wav形式」は、特定のOS(Operation System)で用いられるPCMに基づく音声データファイルの形式の一例である。
【0063】
図7は、このステップS201における音声データファイル転送の処理を行うためのプログラムの一例を示す。この例では、プログラムは、Perl(Practical Extraction and Report Language)で記述されており、CGI( Common Gateway Interface) において用いられる。このプログラムは、WWWサーバ2上に格納され、上述した、タグ<FORM ENCTYPE=…> ・・・</FORM> の部分の記述により、WWWサーバ2から呼び出される。このプログラムがWWWサーバ2上で実行されることによって、転送された音声データファイルが上述の条件を満たしているかどうかのチェックが行われる。
【0064】
音声データファイルの、クライアントコンピュータ5からWWWサーバ2への転送が完了すると、処理はステップS202に移行する。ステップS202では、WWWサーバ2に予め用意された音声データの選択が行われる。この実施の第1の形態では、選択された音声データと、上述のステップS201でクライアントコンピュータ5から音声データファイルとして転送された音声データとの合成処理が行われる。
【0065】
図8は、WWWサーバ2上の音声データの選択を行うための、WWWブラウザにおける表示の一例を示す。これは、WWWサーバ2からクライアントコンピュータ5に対して送られたHTMLファイルに基づき表示される。WWWブラウザ表示300に対して、WWWサーバ2に予め用意された音声データの一覧305が表示されると共に、それぞれの音声データに対応したラジオボタン306,306,・・・が表示される。この例では、WWWサーバ2において、「波の音」,「風の音」,および「車の音」といった、複数の環境音が用意されている。ユーザは、このラジオボタン306,306,・・・の中の1つを押すことで、合成したい音声データの選択を行うことができる。
【0066】
ラジオボタン306が押されると、WWWブラウザにおいて、HTMLファイルの記述に基づき、押されたラジオボタン306に対応したパラメータが生成される。このパラメータがクライアントコンピュータ5からWWWサーバ2に対して送られる。このパラメータに基づき、WWWサーバ2において、例えば予めストレージ3に格納されている音声データファイルの指定がなされる。
【0067】
次のステップS203で、クライアントコンピュータ5から転送された音声データと、クライアントコンピュータ5側で選択されたWWWサーバ2上の音声データとが合成される。この合成処理については、後述する。音声データの合成が行われると、次のステップS204で、合成された音声データが1つの音声データファイルとして、固有のURLを与えられてWWWサーバ2において保存される。そして、処理はステップS205に移行する。
【0068】
ステップS205では、このようにして合成され保存された音声データファイルを再生できるページがWWWブラウザに対して表示される。例えば、WWWサーバ2において、合成された音声データファイルに与えられたURLに基づき、この音声データファイルに対してリンクが張られたHTMLファイルが自動的に生成される。この生成されたHTMLファイルがWWWサーバ2からクライアントコンピュータ5に対して送られる。このHTMLファイルがWWWブラウザによって読み込まれることで、ユーザは、合成された音声データファイルを再生させて、合成音声を確認することができる。
【0069】
上述のステップS203での音声データの合成処理について説明する。図9は、この合成処理について、概略的に示す。上述したように、音声データは、例えばアナログ音声信号を所定のサンプリング周波数Fsでサンプリングし、所定の量子化ビット数mで量子化することで得られる。また、音声データには、例えばステレオ音声のように、複数チャンネルを有するものがある。したがって、音声データ情報としては、これらサンプリング周波数Fs,量子化ビット数m,およびチャンネルが用いられる。例えば、サンプリング周波数Fsが22.05KHz、量子化ビット数mが8ビット、およびチャンネル数が1(モノラル)などとされる。これら音声データ情報は、例えばヘッダ情報として音声データファイルの先頭に書き込まれる。この音声データ情報に続けて音声データ本体が連続的に格納される。
【0070】
WWWサーバ2において、予め用意された音声データ(本体)の例を、図9Aに示す。これは、例えば「波の音」の波形を示す音声データである。また、図9Bに、クライアントコンピュータ5からWWWサーバ2に転送された音声データ(本体)の例を示す。これは、例えばユーザ自身の声をサンプリングした波形を示す音声データである。
【0071】
これらの音声データにおいて、上述のヘッダ情報が互いに一致している場合、各々の音声データファイルにおいて、ヘッダを取り除いた音声データの部分をそのまま用いて、合成処理を行うことができる。先ず、データのオーバーフローを防ぐために、サンプリング毎の各データを2で除して、各々の音声データのゲインを6dBずつ下げる。そして、図9Aに示される、WWWサーバ2側で用意された音声データに対して、図9Bに示される、クライアントコンピュータ5から転送された音声データを、サンプリング単位で順番に足し込む。これにより、2つの音声データの合成が行われる。
【0072】
このとき、この実施の第1の形態では、用意された音声データに対して、転送された音声データを時間軸方向に時間t(例えばt=1秒)だけ遅らせて、合成を行う。こうして合成された音声データの一例を、図9Cに示す。この音声データは、先頭にヘッダ情報が付され、新たな音声データファイルとされ保存される。なお、例えば上述の図8の画面において、この時間tをパラメータとして設定するようにもできる。
【0073】
一方、2つの音声データの間でヘッダ情報が異なる場合も考えられる。例えば、用意された音声データは、サンプリング周波数Fs1 が22.05KHz、量子化ビット数m1 が8ビット、およびチャンネル数が1(モノラル)であるのに対して、転送された音声データは、サンプリング周波数Fs2 が32KHz、量子化ビット数m2 が16ビット、チャンネル数が2(ステレオ)であるような場合である。このような場合には、所定の方法によって、クライアントコンピュータ5から転送された音声データのパラメータ(音声データ情報)を、WWWブラウザ2側に用意された音声データのパラメータへと変換する。
【0074】
サンプリング周波数Fs1 およびFs2 とが異なる場合、例えばFs1 >Fs2 である場合には、Fs1 およびFs2 の違いの比率に応じて、転送された音声データに対して、補間処理が行われる。また、Fs1 <Fs2 である場合には、転送された音声データ(Fs2 )に対して、例えばFIR(Finite Impulse Response) によるディジタルフィルタを通してエリアシングを防いだ後に、Fs1 およびFs2 の違いの比率に応じて補間処理が行われる。このような補間処理によって、サンプリング周波数Fs2 をサンプリング周波数Fs1 に変換する。
【0075】
一方、量子化ビット数m1 およびm2 が異なる場合には、各々の音声データを一旦、浮動小数点の値に変換する。そして、浮動小数点の値同士でサンプリング単位の合成、すなわち加算を行い、加算された結果を量子化ビット数m1 に量子化する。
【0076】
さらに、用意された音声データが1チャンネルのモノラル音声であり、転送された音声データが2チャンネルのステレオ音声であるというように、互いにチャンネル数が異なる場合もある。この場合には、2チャンネルの音声データの各チャンネルのデータのゲインを6dB下げ、チャンネル同士を足し合わせて合成し、モノラルにする。このモノラルの音声データを、WWWサーバ2で用意された音声データに合成する。
【0077】
次に、この発明の実施の第2の形態について説明する。この第2の形態では、上述の図3に示されるフローチャートにおけるステップS20の音声修飾処理として、転送された音声データに対して所定の音響効果を与える、エフェクト処理を行う。なお、この第2の形態において、図3のフローチャートの他の部分は、上述の第1の形態と同一であるので、重複した説明は省略する。
【0078】
音声データに付加できる音響効果としては、様々なものが考えられる。代表的な効果としては、残響を与えるリヴァーブ、音程を変化させるピッチシフト、元の信号の位相をある周期で揺らすフェイズシフトなどが挙げられる。この他にも、音にエコーを与えるディレイを音声データに付加することも可能である。また、上述した種々の効果は、それぞれバリエーションを持たせ、かかり具合を変えることが可能である。
【0079】
これらのエフェクト処理は、例えばDSP(Digital Signal Processor)によって容易に実現可能なものである。すなわち、このDSPをWWWサーバ2に搭載し、クライアントコンピュータ5から転送された音声データの処理を、このDSPを用いて行う。
【0080】
図10は、この実施の第2の形態における音声修飾処理、すなわちエフェクト処理を行うためのフローチャートを示す。また、図11は、エフェクト処理の選択画面の表示の一例を示す。図10において、最初のステップS210では、クライアントコンピュータ5側での音声データの選択が行われる。この音声データは、上述と同様に、例えばユーザによって収録されて得られたものである。この音声データは、ファイル名が付けられ音声データファイルとされ、ハードディスク116の所定領域に格納されている。
【0081】
なお、図11に示される画面表示ならびにこの画面表示によってなされる諸機能は、所定の記述がなされたHTMLファイルによって実現される。このHTMLファイルがWWWサーバ2からクライアントコンピュータ5に送られる。クライアントコンピュータ5で、このHTMLファイルがWWWブラウザに読み込まれる。このHTMLファイルには、処理を行う際のガイダンスなども記述されており、この図11のWWWブラウザ表示300に表示される。
【0082】
また、ガイダンスの記述中、音声データファイル形式の「AU形式」,「WAVE形式」,および「AIFF形式」は、それぞれ特定のOSで用いられる、PCMに基づく音声データファイル形式の例である。さらに、「Windows95」は、OSの名称であり、米国Microsoft社の商標である。
【0083】
図11に一例が示される画面において、WWWブラウザ表示300に対して、音声データのファイル名を入力するための、ファイル名入力部301’が配置される。また、参照ボタン302’および転送ボタン303’が配置される。ファイル名入力部301’に対して、WWWサーバ2に転送してエフェクト処置を行いたいファイル名を入力する。この入力は、参照ボタン302’を用いて自動的に行うこともできる。
【0084】
音声データの選択が行われたら、次のステップS211で、選択された音声データに対するエフェクト処理が選択される。これは、WWWブラウザ表示300の、エフェクト選択部310で行われる。エフェクト選択部310に、エフェクト処理の種類を表すラジオボタン311,311,311,・・・が配置される。ユーザは、クライアントコンピュータ5上でこれらのラジオボタン311,311,311,・・・のうち、所望の処理に対応するボタンを1つだけ選択する。エフェクト処理を行わない場合には、ラジオボタン312が選択される。
【0085】
ラジオボタン311,311,311,・・・のうち、「残響を付ける」の記述に対応して配置される3つのボタンは、リヴァーブ処理を選択する。3つのボタンのそれぞれは、リヴァーブ効果のかかり具合が異なる。「シュアシュアさせる」の記述に対応するラジオボタン311は、フェイズシフト処理を選択する。また、「1オクターブ上げる」,「1オクターブ下げる」は、共にピッチシフト処理を選択する。このピッチシフト処理では、音声データの再生時間を変えずに音程だけを上下させる。なお、上下させる音程の幅は、1オクターブに限られない。
【0086】
クライアントコンピュータ5では、ラジオボタン311,311,311,・・・の選択が行われると、選択されたボタンに対応したパラメータが生成される。
【0087】
エフェクト処理が選択されると、処理は次のステップS212に移行し、ステップS210で選択され音声データファイルの転送処理が行われる。転送ボタン303’を押すことで、クライアントコンピュータ5からWWWサーバ2に対して選択された音声データファイルが転送される。また、この音声データファイルの転送と共に、ステップS211でのラジオボタン311,311,311,・・・の選択に対応して生成されたパラメータも転送される。転送された音声データファイルおよびパラメータは、WWWサーバ2においてファイル形式のチェックを受け、所定の条件を満足していれば、WWWサーバ2に受け付けられる。
【0088】
次のステップS213では、WWWサーバ2において、転送され受け付けられた音声データファイルに対するエフェクト処理が行われる。転送された音声データファイルによる音声データに対して、このファイルと共に転送されたパラメータに対応するエフェクト処理が施される。このエフェクト処理が施された音声データは、ステップS214で音声データファイルとして保存されると共に、固有のURLが与えられる。
【0089】
そして、次のステップS215で、このURLに基づき、保存された音声データファイルに対してリンクが張られたHTMLファイルが自動的に生成される。この生成されたHTMLファイルがWWWサーバ2からクライアントコンピュータ5に対して送られ、WWWブラウザによって読み込まれる。これにより、ユーザは、エフェクト処理された音声データファイルの確認を行うことができる。
【0090】
なお、上述では、音声データに施されるエフェクト処理が1種類であるように説明したが、これはこの例に限定されるものではない。すなわち、1つの音声データに対して、複数種類のエフェクト効果を組み合わせて施すようにすることも可能である。
【0091】
次に、実施の第2の形態の変形例について説明する。上述の実施の第2の形態では、音声修飾処理としてエフェクト処理だけを行ったが、これはこの例に限定されない。すなわち、この変形例では、音声データに対してエフェクト処理を施すと共に、既に実施の第1の形態で説明した、音声データの合成を行う。
【0092】
図12は、この変形例における音声修飾処理を示すフローチャートである。なお、上述の図4および図10と重複する部分の説明は、省略する。この変形例では、このように、ステップS220でクライアントコンピュータ5側で音声データファイルが選択され、この音声データファイルに対するエフェクト処理がステップS221で選択される。ここでは、例えば上述の図11の表示画面が用いられる。エフェクト処理の選択がなされると、ステップS222で音声データファイルがクライアントコンピュータ5からWWWサーバ2に対して転送される。
【0093】
次に、ステップS223で、WWWサーバ2側の音声データが選択される。そして、ステップS224で、上述のステップS222でクライアントコンピュータ5からWWWサーバ2に対して転送された音声データファイルによる音声データと、ステップS223で選択されたWWWサーバ2側の音声データとの合成処理が行われる。処理された音声データは、ステップS225で保存され、固有のURLを与えられ、ステップS226でリンクを張られたHTMLファイルが生成される。
【0094】
なお、上述では、この発明がホームページ自動生成サービスに適用されるように説明したが、これはこの例に限定されるものではない。すなわち、この発明による音声修飾処理は、単独のサービスとして実施することが可能である。
【0095】
【発明の効果】
以上説明したように、この発明の実施の第1の形態によれば、WWWサーバ側で用意された音声データに対して、ユーザ側の音声データを合成して新しい音声データファイルとすることができ、WWWサーバ側の音声データとユーザ側の音声データとを同時に再生するようにできる効果がある。
【0096】
また、この発明の実施の第2の形態によれば、ユーザ側で特に音声データに対するエフェクト処理手段を持っていなくても、WWWサーバ側で、ユーザの音声データに対して様々なエフェクト処理を施すことができるという効果がある。
【図面の簡単な説明】
【図1】この発明を適用できる通信システムの一例を概略的に示す略線図である。
【図2】クライアントコンピュータの構成の一例を示すブロック図である。
【図3】ホームページ自動生成サービスの処理の一例のフローチャートである。
【図4】実施の第1の形態における音声修飾処理、すなわち音声データの合成を示すフローチャートである。
【図5】音声データの選択時のWWWブラウザでの表示の一例を示す略線図である。
【図6】音声データの選択時のWWWブラウザでの表示を行うHTMLの記述の一例を示す略線図である。
【図7】音声データファイル転送の処理を行うためのプログラムの一例を示す略線図である。
【図8】音声データの選択時のWWWブラウザでの表示の一例を示す略線図である。
【図9】音声データの合成を説明するための概略図である。
【図10】実施の第2の形態における音声修飾処理、すなわちエフェクト処理を行うためのフローチャートである。
【図11】エフェクト処理の選択画面の表示の一例を示す略線図である。
【図12】実施の第2の形態の変形例での音声修飾処理を示すフローチャートである。
【符号の説明】
1・・・インターネット、2・・・サーバ、5・・・クライアントコンピュータ、301,301’・・・ファイル名入力部、302,302’・・・参照ボタン、303,303’・・・転送ボタン、305・・・音声データの一覧、306・・・合成したい音声データの選択を行うラジオボタン、310・・・エフェクト選択部、311・・・エフェクトの種類に対応したラジオボタン
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information processing apparatus and an information processing apparatus which synthesize audio data between a WWW (World Wide Web) server and a WWW client on the Internet and automatically generate new audio data. Reason Law and information Processing system About.
[0002]
[Prior art]
Currently, homepages (Web pages) are widely used in which HTML files described in HTML (Hyper-Text Markup Language) are placed on a WWW server and released to the Internet. Since this home page is described in HTML, which is a relatively simple language, it is actively used as a means for transmitting information by individuals.
[0003]
In order to browse an HTML file such as this home page, an application called a WWW browser is generally used. The WWW browser reads the specified file in accordance with, for example, the description of the input URL (Uniform Resource Locators). If an Internet address is described as the URL, the file is retrieved and read on the Internet. Similarly, a local storage medium such as a hard disk of a personal computer on which this WWW browser is operating can be designated as the URL.
[0004]
If the file read into the WWW browser is a file in HTML format, it is displayed on the WWW browser according to the description of the file. If there is an instruction to read image data in the read HTML file, the image data is automatically read and displayed on the browser. Similarly, if there is an instruction to read audio data, the audio data is automatically read and the audio data is reproduced.
[0005]
The WWW browser can also read other files that are different from the HTML format. For example, if the file read according to the URL description is image data, the image data is directly displayed on the WWW browser, and if the audio data is read, the audio data is reproduced.
[0006]
In addition, by reading an HTML file in which a predetermined description is made into a WWW browser, various controls on the WWW browser are realized. For example, an operation unit such as a button corresponding to a predetermined control can be appropriately arranged on the WWW browser based on the description of the HTML file. By devising and setting the controls, an interactive operation by the user for the WWW browser can be realized. For example, the user can control the display of the image file and the reproduction of the audio file by operating the buttons arranged in this way.
[0007]
On the other hand, a service for automatically generating a home page has been proposed. For this service, for example, several types of materials used for creating a home page are prepared in advance on a WWW server that is configured to perform the service. As an example of this material, there are an image file to be displayed on a home page, a home page template file described in HTML and set with a layout and the like. On this WWW server, a homepage for instructing a homepage automatic generation service is placed. The home page of this automatic generation service selects these materials.
[0008]
A user who wants to automatically generate a home page uses an information device equipped with a WWW browser, such as a personal computer, as a WWW client, and accesses the WWW server via the Internet. The WWW server authenticates the user who has accessed, and permits access if the user is registered so that the homepage automatic generation service can be used. In this way, the URL of the home page of the automatic generation service is designated and displayed on the user's WWW browser. The user selects a desired layout, an image file displayed on the automatically generated home page, and the like on the home page of the automatic generation service displayed on the WWW browser. If necessary, the user inputs text data to be displayed on the homepage on the WWW browser.
[0009]
The selected and input contents are transferred from the WWW client to the WWW server that performs the automatic generation service. In the transfer destination WWW server, an HTML file is automatically generated based on the selected contents, the input text data, and the like. The automatically generated HTML file is transferred to, for example, a predetermined WWW server, and is released to the Internet as a user home page. In this way, by using this homepage automatic generation system, the user can have his / her homepage even without knowledge of HTML in particular.
[0010]
[Problems to be solved by the invention]
By the way, the data that can be laid out on the home page is not limited to text data and image data, but can also handle audio data. In the above-described conventional homepage automatic generation service, some sample audio data has already been prepared on the WWW server that performs the service. The user selects desired voice data from among them and lays it out on a home page that is automatically generated. Alternatively, voice data obtained or created on the WWW client side is transferred to a WWW server via the Internet, and this voice data is used as it is on the home page.
[0011]
As described above, in the conventional system, when the voice data is to be handled on the homepage, the voice data prepared in advance on the WWW server side is used, or the voice data prepared on the WWW client side is transferred to the WWW server side. There is a problem that only one of the methods can be used.
[0012]
Accordingly, an object of the present invention is to provide an information processing apparatus and an information processing apparatus that can use voice data other than voice data already prepared on the WWW server side or WWW client side when creating a homepage. Reason Law and information Processing system Is to provide.
[0013]
[Means for Solving the Problems]
In order to solve the above-described problems, the present invention provides an audio data storage means for storing audio data in advance in an information processing apparatus configured to provide a service to a client terminal connected to a network, and a client The receiving means for receiving the first voice data transferred from the terminal, the first voice data, and the second voice data selected from the voice data stored in the voice data storage means in response to an instruction from the client terminal Voice data generation means for generating third voice data by combining voice data; Audio data conversion means for converting the first audio data based on the parameters of the first audio data and the parameters of the second audio data; Storage means for saving the third voice data generated by the voice data generation means by giving a URL as a voice data file; Web linked to the saved audio data file based on the URL Web file generating means for generating a file, The voice data generation means compares the parameters of the first voice data and the parameters of the second voice data, and the parameters of the first voice data and the parameters of the second voice data are different based on the comparison result. The first voice data is converted by the voice data conversion means, and the second voice data and the first voice data converted by the voice data conversion means are synthesized to generate the third voice data. Do This is an information processing apparatus.
[0015]
Further, in order to solve the above-described problems, the present invention provides an information processing system that uses an information processing apparatus and transmits / receives data to / from a client terminal connected by a network. First voice data storage means for storing voice data in advance, receiving means for receiving first voice data transferred from the client terminal, first voice data, and voice stored in the voice data storage means Voice data generating means for generating third voice data by synthesizing the second voice data selected according to an instruction from the client terminal among the data; Audio data conversion means for converting the first audio data based on the parameters of the first audio data and the parameters of the second audio data; Storage means for saving the third voice data generated by the voice data generation means by giving a URL as a voice data file; Web linked to the saved audio data file based on the URL Web file generating means for generating a file, The voice data generation means compares the parameters of the first voice data and the parameters of the second voice data, and the parameters of the first voice data and the parameters of the second voice data are different based on the comparison result. The first voice data is converted by the voice data conversion means, and the second voice data and the first voice data converted by the voice data conversion means are synthesized to generate the third voice data. Do Stored in the information processing apparatus, the communication means for communicating with the information processing apparatus via the network, the second voice data storage means for storing the first voice data, and the second voice data storage means. Selection means for selecting the first audio data, the selected first audio data being transferred to the information processing apparatus by communication by the communication means, and the first voice selected by the selection means and transferred to the information processing apparatus An information processing system comprising: a client terminal including instruction means for instructing selection of second audio data to be combined with data by an audio data generation means in an information processing apparatus.
[0016]
According to another aspect of the present invention, there is provided an information processing method for providing a service to a client terminal connected to a network. A step of receiving the first audio data transferred from the client terminal, a selection of the first audio data and the audio data stored in the audio data storage means according to an instruction from the client terminal A step of generating audio data by synthesizing the generated second audio data to generate third audio data; A voice data conversion step of converting the first voice data based on the first voice data parameter and the second voice data parameter; A storage step of saving the third audio data generated by the audio data generation step by giving a URL as an audio data file; Web linked to the saved audio data file based on the URL A web file generation step for generating a file, The audio data generation step compares the parameters of the first audio data and the parameters of the second audio data, and the parameters of the first audio data and the parameters of the second audio data are different based on the comparison result. If the audio data is converted, the first audio data is converted by the audio data conversion step, and the second audio data and the first audio data converted by the audio data conversion step are synthesized to generate the third audio data. Generate data This is an information processing method characterized by this.
[0022]
As described above, according to the present invention, in the WWW server, the voice modification processing is performed on the transferred voice data based on the instruction, the processed voice data is stored in the first storage means, and the URL is stored. Given. In the client information device, the stored voice data is transferred to the WWW server, and the voice modification process in the WWW server is selected. Therefore, the selected voice modification process can be performed on the voice data transferred from the client information device side on the WWW server.
[0023]
DETAILED DESCRIPTION OF THE INVENTION
A first embodiment of the present invention will be described below with reference to the drawings. In this first mode, the voice data held by the client computer on the user side is transferred to the WWW server, and the transferred voice data and the voice data held by the WWW server are synthesized on the WWW server side to create a new Audio data is automatically generated.
[0024]
FIG. 1 schematically shows an example of a communication system to which the present invention can be applied. In this example, the Internet 1 is used as a communication network. A WWW server 2 is connected to the Internet 1. The WWW server 2 is composed of one or a plurality of computers. The storage 3 included in the WWW server 2 stores an HTML file, an audio data file, and the like. The WWW server 2 can publish an HTML file stored in the storage 3 to the Internet 1.
[0025]
A provider 4 is connected to the Internet 1. A plurality of client computers 5 are connected to the provider 4 via, for example, public telephone lines. The provider 4 has a WWW server, provides various contents to the Internet 1, and performs a service for ensuring connection between each of the plurality of client computers 5 and the Internet 1. In this system, the WWW server 2 and each of the plurality of client computers 5 can transmit and receive data using http (hyper text transfer protocol).
[0026]
Each client computer 5 is preferably a personal computer. For example, other information devices having a network connection function such as a word processor, a television with an Internet access function, and a home computer game machine can be used as the client computer 5.
[0027]
FIG. 2 shows an example of the configuration of the client computer 5 composed of, for example, a personal computer. In the personal computer 100, a controller 111 that functions as a memory controller and a bus controller is connected to the local bus 105. For example, a cache 112 made of SRAM and a RAM 114 made of DRAM are connected to the controller 111. A CPU 113 is connected to the cache 112 via the processor bus 110.
[0028]
A hard disk 116 is connected to the local bus 105 via a hard disk controller 115, and a display 118 such as a CRT or LCD (Liquid Crystal Display) is connected via a graphic controller 117. Further, the local bus 105 is connected to the expansion bus 120 via the bus bridge 119.
[0029]
An input / output controller 121 is connected to the expansion bus 120. Necessary input / output devices are appropriately connected to the input / output controller 121. Input / output devices connected to the input / output controller 121 include input devices such as a keyboard 122 and a mouse 123, disk drives such as a floppy drive, CD-ROM drive, and magneto-optical disk drive, and outputs such as a printer 125. Devices.
[0030]
A modem 126 is further connected to the expansion bus 120. For example, a public telephone line 127 can be connected via the modem 126. Instead of the modem 126, a network adapter that can be connected to an external network may be connected. In this example, it is connected to the provider 4 via the public telephone line 127. The provider 4 is connected to the Internet 1. Therefore, the personal computer 100 can connect to the Internet 1 through the public telephone line 127 and connect to the WWW server 2 through the connected Internet 1.
[0031]
A sound source module 128 is further connected to the expansion bus 120. The sound module 128 outputs sound based on the control of the CPU 113 and drives the speaker 129. The sound source module 128 can convert, for example, an audio signal recorded by the microphone 130 into predetermined audio data. An external input terminal can be provided in the tone generator module 128 to convert an analog audio signal into audio data.
[0032]
The audio signal input from the microphone 130 or the external input terminal is sampled at a sampling frequency Fs such as 44.1 KHz or 22.05 KHz. Then, the quantization bit number m is quantized with, for example, 8 bits or 16 bits, and converted into audio data. The converted audio data is stored in the hard disk 116, for example.
[0033]
When the personal computer 100 is activated, a predetermined screen is displayed on the display 118 and a cursor that is moved by operating an input device such as the mouse 123 or the keyboard 122 is displayed. The user can implement a desired function in the personal computer 100 by operating the cursor with the above-described input device.
[0034]
FIG. 3 shows a flowchart of an example of processing of the homepage automatic generation service performed in this configuration. In this homepage automatic generation service, not only the image data prepared in advance on the WWW server 2 but also the image data owned by the user is transferred to the WWW server 2 and this is transferred onto the layout of the homepage prepared in advance. Can be arranged. Also, audio data can be arranged on the home page. The voice data prepared in advance on the WWW server 2 side is used, and the voice data prepared on the user side can be used.
[0035]
In the flowchart of FIG. 3, processing on the client computer 5 side is performed based on an HTML file sent from the WWW server 2 to the client computer 5. That is, the HTML file sent from the WWW server 2 is read into the WWW browser, and the display based on the read HTML file is made to the WWW browser. The user uses various controls displayed on the WWW browser to perform processing inside the client computer 5 and transfer of data to the WWW server 2.
[0036]
First, in step S10, the WWW server 2 performs user registration for a user who wants to receive the homepage automatic generation service. This is in consideration of security when image data is transferred to the WWW server 2.
[0037]
The user registration is performed, for example, by registering the user's own e-mail address and password in the WWW server 2. For example, the user connects the client computer 5 to the Internet 1 according to a predetermined procedure, and starts a WWW browser on the computer 5. When a URL of a corresponding service known in advance on the WWW browser is designated, the home page is searched and displayed on the WWW browser. User registration is performed on this homepage, for example. When user registration is performed, a data storage area (directory) for the registered user is secured in the WWW server 2 (storage 3). A unique URL is set in this user directory.
[0038]
The contents of the user registration are notified from the WWW server 2 to the user client computer 5 by e-mail, for example. In step S11, this notification is received by the user's client computer 5 and the registered content is confirmed. If the registered content is correct, this user can receive the homepage automatic generation service by the WWW server 2.
[0039]
A user who wants to receive the homepage automatic generation service accesses the WWW server 2 using the client computer 5 and inputs a password registered in advance on a predetermined input screen (login screen), thereby performing login processing (step S12). The WWW server 2 checks whether the entered password is correct. If the password input by the user is different from that registered, the process proceeds to step S14, the original login screen is displayed, the process returns to step S12, and the password is input again. Is required.
[0040]
If it is determined in step S13 that the password input by the user is correct, the process proceeds to step S15. In step S15, the image data transfer process is started in the client computer 5. As a result, the user can transfer the image data file from the client computer 5 to the WWW server 2.
[0041]
In the next step S16, a file to be transferred to the WWW server 2 for posting on the home page is selected from image data files held in advance on the client computer 5 side. For example, an input unit for inputting a file name on the WWW browser and a button for supporting the input of the file name with reference to the directory structure of the hard disk 116 are displayed. Based on this display, the user selects an image file.
[0042]
When an image file is selected, it is determined in the next step S17 whether or not the selected image file conforms to a predetermined format. For example, it is determined whether the file size is equal to or smaller than a predetermined size and whether the file format is predetermined. The transferable file format is, for example, a file size of 64 kbytes or less, and a file format of either JPEG (Joint Photographic Experts Group) or GIF (Graphics Interchange Format). If it is determined in step S17 that the format of the image file is not a predetermined format, the process proceeds to step S18, an error message is displayed, and the process ends. The processing may be returned from step S18 to step S16.
[0043]
On the other hand, if it is determined in step S17 that the format of the image file is predetermined, the process proceeds to step S19. In step S19, the selected image file is transferred to the WWW server 2. The transferred image file is stored in the user directory of the user set at the time of user registration.
[0044]
When the image data is transferred, the process proceeds to step S20. In step S20, processing relating to audio data, which is a feature of the present invention, is performed. Although details will be described later, in the homepage automatic generation service according to the present invention, voice data can be laid out for a homepage. Audio data created by the user on the client computer 5 or data prepared in advance in the WWW server 2 can be used. In step S20, voice modification processing such as voice data synthesis and effect processing can be performed on the voice data. The processed audio data is saved as an audio data file and laid out on the user's home page.
[0045]
In the next step S21, the layout configuration of the home page to be automatically generated is set. That is, a desired layout is selected from several types of layouts prepared in advance, and text data such as a title and a message to be displayed on the home page are input. The layout prepared in advance in the WWW server 2 is sent to the client computer 5 as a sample image file, for example, and displayed on the WWW browser. The user views this screen, selects a desired layout, and inputs a title, a message, and the like that are displayed at a predetermined position in the layout to an input unit provided in the WWW browser. The user can also select items necessary for the configuration of the home page, such as decorations such as background images, lines, and marks.
[0046]
The layout configuration setting data is sent from the client computer 5 to the WWW server 2 by pressing a page creation instruction button arranged in, for example, a WWW browser. If you do not like the setting contents, you can cancel the setting contents by pressing a reset button placed on the WWW browser, for example, and set it again.
[0047]
The WWW server 2 automatically generates an HTML file based on the layout configuration setting data sent from the client computer 5 (step S22). In the next step S23, the automatically generated HTML file is sent to the client computer 5. On the client computer 5 side, the sent HTML file is read into a WWW browser, and a home page automatically generated according to the contents of the file is displayed. By viewing this display, the user can confirm the finish of the home page.
[0048]
At this time, apart from the automatically generated home page, a button for notifying the WWW server 2 whether this result is acceptable is arranged. The user confirms the finish of the home page by displaying the WWW browser, and operates these buttons to notify the WWW server 2 of the quality of the finish result. If the result does not match the intention, the WWW server 2 is notified to that effect, and the process returns to step S15.
[0049]
On the other hand, if it is determined in step S24 that the finished result is satisfactory, for example, the user is notified to the WWW server 2 and the process proceeds to step S25.
[0050]
In this homepage automatic generation service, when a user's homepage is updated by automatic generation, it is possible to automatically notify a partner designated in advance. Notification is performed by electronic mail. In step S25, the destination of the notification is set. A plurality of destinations can be set. When the notification destination is set in step S25, an e-mail is automatically transmitted to the set notification destination in the next step S26. The e-mail for this update notification can be transmitted at a preset date and time.
[0051]
In this update notification e-mail, for example, the URL of the updated home page is described, and the user who receives the mail can easily access the updated home page based on this description.
[0052]
In this way, this homepage automatic generation service can automatically notify a specific partner that the homepage has been updated by the service. By using this, for example, New Year's cards and greeting cards can be automatically generated as HTML files, and these automatically generated HTML files can be automatically distributed on the Internet.
[0053]
Next, the voice modification process described above in step S20 will be described. In the first embodiment, as voice modification processing, synthesis processing of voice data prepared in the WWW server 2 and voice data prepared on the client computer 5 side is performed. FIG. 4 is a flowchart showing voice modification processing, that is, synthesis of voice data in the first embodiment.
[0054]
In FIG. 3 described above, when the process proceeds to step S20, first, as shown in the flowchart of FIG. 4, in step S200, audio data is selected on the client computer 5 side. As this audio data, for example, data obtained by being recorded by the user using the microphone 130 can be used. This audio data is an audio data file with a file name, and is stored in a predetermined area of the hard disk 116.
[0055]
FIG. 5 shows an example of display on the WWW browser when the audio data is selected in step S200. A file name input unit 301 for inputting the file name of the audio data file is arranged on the WWW browser display 300. Also, a reference button 302 and a transfer button 303 are arranged.
[0056]
This display is displayed when an HTML file sent from the WWW server 2 to the client computer 5 is read by the WWW browser. FIG. 6 shows an example of the description of the HTML file in this case. tag <FORM ENCTYPE =…> ・ ・ ・ </ FORM> corresponds to the file name input unit 301, the reference button 302, and the transfer button 303. In this portion, a description for calling a file transfer program using CGI, which will be described later, is made.
[0057]
By pressing the browse button 302, the directory structure of the hard disk 116 in the client computer 5 is displayed. The user searches for a file on the directory structure display and designates a desired audio data file. Thereby, an accurate file name can be automatically input to the file name input unit 301.
[0058]
When the file name of the audio data file is input to the file name input unit 301 and the audio data file is selected, transfer of the selected audio data file to the WWW server 2 is instructed in the next step S201. . This is performed by pressing the transfer button 303 while the file name is input to the file name input unit 301. When the transfer button 303 is pressed, the selected voice data file is read from the area specified by the file name input unit 301 of the hard disk 116 by the function of the WWW browser corresponding to the description of the HTML file, and is sent to the public telephone line. 127 and the Internet 1 are transferred to the WWW server 2.
[0059]
In the WWW server 2, the audio data file transferred from the client computer 5 is checked. For the transferred audio data file, the file type and file size are checked. If these satisfy a predetermined condition, the audio data file is received by the WWW server 2 and stored in a predetermined area of the storage 3, for example.
[0060]
If the transferred audio data file does not satisfy a predetermined condition, the audio data file is not accepted by the WWW server 2. Then, the WWW server 2 is notified of the error to the client computer 5 that has transferred the audio data file. For example, when an HTML file described to display an error is sent from the WWW server 2 to the corresponding client computer 5 and read into the WWW browser, an error notification is displayed on the WWW browser display 300. At this time, it may be displayed so as to instruct retransmission of the audio data file.
[0061]
As the file type, for example, a format corresponding to digital audio data based on the PCM (Pulse Code Modulation) method can be used. It is possible to correspond to a plurality of formats of audio data files. The type of the file can be determined based on the extensions that are usually appended with “. (Period)” at the end of the file name. You may make it judge automatically from the header information of a file, etc. In addition, the transferable file size can be limited. In this example, the upper limit is 500 kbytes.
[0062]
It is more preferable that these conditions regarding the audio data file are described in the HTML file and displayed on the WWW browser display 300 as shown in FIG. In FIG. 5, “wav format” in the file condition display is an example of a format of an audio data file based on PCM used in a specific OS (Operation System).
[0063]
FIG. 7 shows an example of a program for performing the audio data file transfer process in step S201. In this example, the program is described in Perl (Practical Extraction and Report Language), and is used in CGI (Common Gateway Interface). This program is stored on the WWW server 2 and has the tag described above. <FORM ENCTYPE =…> ・ ・ ・ It is called from the WWW server 2 by the description of the part of </ FORM>. By executing this program on the WWW server 2, it is checked whether or not the transferred audio data file satisfies the above-described conditions.
[0064]
When the transfer of the audio data file from the client computer 5 to the WWW server 2 is completed, the process proceeds to step S202. In step S202, audio data prepared in advance in the WWW server 2 is selected. In the first embodiment, a synthesis process is performed on the selected audio data and the audio data transferred as an audio data file from the client computer 5 in step S201 described above.
[0065]
FIG. 8 shows an example of display on the WWW browser for selecting audio data on the WWW server 2. This is displayed based on the HTML file sent from the WWW server 2 to the client computer 5. A list 305 of voice data prepared in advance on the WWW server 2 is displayed on the WWW browser display 300, and radio buttons 306, 306,... Corresponding to the respective voice data are displayed. In this example, a plurality of environmental sounds such as “wave sound”, “wind sound”, and “car sound” are prepared in the WWW server 2. The user can select voice data to be synthesized by pressing one of the radio buttons 306, 306,.
[0066]
When the radio button 306 is pressed, a parameter corresponding to the pressed radio button 306 is generated in the WWW browser based on the description of the HTML file. This parameter is sent from the client computer 5 to the WWW server 2. Based on this parameter, the WWW server 2 designates, for example, an audio data file stored in advance in the storage 3.
[0067]
In the next step S203, the voice data transferred from the client computer 5 and the voice data on the WWW server 2 selected on the client computer 5 side are synthesized. This combining process will be described later. When the voice data is synthesized, the synthesized voice data is given as a single voice data file and stored in the WWW server 2 in one step S204. Then, the process proceeds to step S205.
[0068]
In step S205, a page capable of reproducing the voice data file synthesized and stored in this manner is displayed on the WWW browser. For example, the WWW server 2 automatically generates an HTML file linked to the voice data file based on the URL given to the synthesized voice data file. The generated HTML file is sent from the WWW server 2 to the client computer 5. By reading this HTML file by the WWW browser, the user can play the synthesized voice data file and check the synthesized voice.
[0069]
The voice data synthesizing process in step S203 will be described. FIG. 9 schematically shows this synthesis process. As described above, the audio data is obtained, for example, by sampling an analog audio signal at a predetermined sampling frequency Fs and quantizing it with a predetermined quantization bit number m. Some audio data has a plurality of channels such as stereo audio. Therefore, the sampling frequency Fs, the quantization bit number m, and the channel are used as the audio data information. For example, the sampling frequency Fs is 22.05 KHz, the number of quantization bits m is 8 bits, and the number of channels is 1 (monaural). Such audio data information is written at the head of the audio data file as header information, for example. Following the audio data information, the audio data main body is stored continuously.
[0070]
FIG. 9A shows an example of voice data (main body) prepared in advance in the WWW server 2. This is audio data indicating the waveform of “wave sound”, for example. FIG. 9B shows an example of audio data (main body) transferred from the client computer 5 to the WWW server 2. This is audio data indicating a waveform obtained by sampling the user's own voice, for example.
[0071]
In these audio data, when the above-described header information matches each other, the synthesis process can be performed using the audio data portion from which the header is removed as it is in each audio data file. First, in order to prevent data overflow, each data for each sampling is divided by 2, and the gain of each audio data is decreased by 6 dB. Then, the audio data transferred from the client computer 5 shown in FIG. 9B is added to the audio data prepared on the WWW server 2 side shown in FIG. 9A in order of sampling units. Thereby, the synthesis | combination of two audio | voice data is performed.
[0072]
At this time, in the first embodiment, synthesis is performed on the prepared audio data by delaying the transferred audio data by time t (for example, t = 1 second) in the time axis direction. An example of the voice data synthesized in this way is shown in FIG. 9C. This audio data is saved as a new audio data file with header information added to the head. For example, the time t can be set as a parameter on the above-described screen of FIG.
[0073]
On the other hand, there may be a case where header information differs between two audio data. For example, the prepared audio data has a sampling frequency Fs 1 Is 22.05 KHz and the number of quantization bits is m 1 Is 8 bits, and the number of channels is 1 (monaural), whereas the transferred audio data has a sampling frequency Fs. 2 Is 32 KHz, quantization bit number m 2 Is 16 bits and the number of channels is 2 (stereo). In such a case, the parameter (audio data information) of the audio data transferred from the client computer 5 is converted into the parameter of the audio data prepared on the WWW browser 2 side by a predetermined method.
[0074]
Sampling frequency Fs 1 And Fs 2 Is different from, for example, Fs 1 > Fs 2 Is Fs 1 And Fs 2 Interpolation processing is performed on the transferred audio data according to the difference ratio. Fs 1 <Fs 2 Is transferred, the transferred voice data (Fs 2 ), For example, after preventing aliasing through a digital filter using FIR (Finite Impulse Response), Fs 1 And Fs 2 Interpolation processing is performed according to the difference ratio. By such interpolation processing, the sampling frequency Fs 2 Sampling frequency Fs 1 Convert to
[0075]
On the other hand, the number of quantization bits m 1 And m 2 Are different from each other, each audio data is once converted into a floating point value. Then, the floating point values are combined in a sampling unit, that is, addition is performed, and the addition result is converted into a quantization bit number m. 1 Quantize to
[0076]
Furthermore, the number of channels may be different from each other, for example, the prepared audio data is 1-channel monaural audio and the transferred audio data is 2-channel stereo audio. In this case, the gain of the data of each channel of the two-channel audio data is lowered by 6 dB, and the channels are added together to synthesize them into monaural. The monaural audio data is synthesized with audio data prepared by the WWW server 2.
[0077]
Next, a second embodiment of the present invention will be described. In the second mode, effect processing for giving a predetermined acoustic effect to the transferred audio data is performed as the audio modification processing in step S20 in the flowchart shown in FIG. In the second embodiment, the other parts of the flowchart in FIG. 3 are the same as those in the first embodiment described above, and a duplicate description is omitted.
[0078]
There are various acoustic effects that can be added to audio data. Typical effects include reverberation that gives reverberation, pitch shift that changes the pitch, and phase shift that fluctuates the phase of the original signal at a certain period. In addition, it is possible to add to the audio data a delay that gives an echo to the sound. In addition, the various effects described above can be varied to change the degree of application.
[0079]
These effect processes can be easily realized by, for example, a DSP (Digital Signal Processor). That is, the DSP is mounted on the WWW server 2 and the audio data transferred from the client computer 5 is processed using the DSP.
[0080]
FIG. 10 shows a flowchart for performing audio modification processing, that is, effect processing in the second embodiment. FIG. 11 shows an example of the display of the effect process selection screen. In FIG. 10, in the first step S210, audio data is selected on the client computer 5 side. This audio data is obtained by being recorded by a user, for example, as described above. This audio data is given an audio data file with a file name and is stored in a predetermined area of the hard disk 116.
[0081]
Note that the screen display shown in FIG. 11 and various functions performed by this screen display are realized by an HTML file in which a predetermined description is made. This HTML file is sent from the WWW server 2 to the client computer 5. The HTML file is read into the WWW browser by the client computer 5. This HTML file also describes guidance for processing, etc., and is displayed on the WWW browser display 300 of FIG.
[0082]
In the description of the guidance, the audio data file formats “AU format”, “WAVE format”, and “AIFF format” are examples of audio data file formats based on PCM, which are respectively used in a specific OS. Furthermore, “Windows95” is the name of the OS and is a trademark of Microsoft Corporation.
[0083]
In the screen shown as an example in FIG. 11, a file name input unit 301 ′ for inputting a file name of audio data is arranged on the WWW browser display 300. Also, a reference button 302 ′ and a transfer button 303 ′ are arranged. A file name to be transferred to the WWW server 2 and effect processing is input to the file name input unit 301 ′. This input can also be made automatically using the reference button 302 '.
[0084]
When the audio data is selected, an effect process for the selected audio data is selected in the next step S211. This is performed by the effect selection unit 310 of the WWW browser display 300. Radio buttons 311, 311, 311,... Representing the types of effect processing are arranged in the effect selection unit 310. The user selects only one button corresponding to a desired process among the radio buttons 311, 311, 311,... On the client computer 5. When effect processing is not performed, the radio button 312 is selected.
[0085]
Of the radio buttons 311, 311, 311,..., Three buttons arranged corresponding to the description of “apply reverberation” select reverberation processing. Each of the three buttons has a different reverb effect. A radio button 311 corresponding to the description “Sure Sure” selects phase shift processing. In addition, “shift one octave” and “decrease one octave” both select pitch shift processing. In this pitch shift process, only the pitch is raised or lowered without changing the reproduction time of the audio data. Note that the pitch range to be raised or lowered is not limited to one octave.
[0086]
In the client computer 5, when radio buttons 311, 311, 311,... Are selected, parameters corresponding to the selected buttons are generated.
[0087]
When the effect process is selected, the process proceeds to the next step S212, where the selected audio data file is transferred in step S210. By pressing the transfer button 303 ′, the selected audio data file is transferred from the client computer 5 to the WWW server 2. In addition to the transfer of the audio data file, parameters generated in response to the selection of the radio buttons 311, 311, 311,. The transferred audio data file and parameters are subjected to a file format check in the WWW server 2 and are accepted by the WWW server 2 if predetermined conditions are satisfied.
[0088]
In the next step S213, the WWW server 2 performs effect processing on the audio data file transferred and accepted. The effect processing corresponding to the parameters transferred together with the file is performed on the audio data by the transferred audio data file. The audio data subjected to the effect processing is saved as an audio data file in step S214 and given a unique URL.
[0089]
In the next step S215, an HTML file linked to the stored audio data file is automatically generated based on this URL. The generated HTML file is sent from the WWW server 2 to the client computer 5 and read by the WWW browser. Thereby, the user can confirm the audio data file subjected to the effect processing.
[0090]
In the above description, the effect processing applied to the audio data is described as being one type, but this is not limited to this example. That is, it is possible to combine a plurality of types of effect effects on one audio data.
[0091]
Next, a modification of the second embodiment will be described. In the second embodiment described above, only the effect processing is performed as the sound modification processing, but this is not limited to this example. In other words, in this modification, the effect processing is performed on the sound data, and the sound data is already synthesized as described in the first embodiment.
[0092]
FIG. 12 is a flowchart showing the speech modification process in this modification. In addition, description of the part which overlaps with the above-mentioned FIG. 4 and FIG. In this modification, as described above, the audio data file is selected on the client computer 5 side in step S220, and the effect processing for the audio data file is selected in step S221. Here, for example, the display screen of FIG. 11 described above is used. When the effect processing is selected, the audio data file is transferred from the client computer 5 to the WWW server 2 in step S222.
[0093]
Next, in step S223, audio data on the WWW server 2 side is selected. In step S224, a synthesis process of the audio data based on the audio data file transferred from the client computer 5 to the WWW server 2 in step S222 and the audio data on the WWW server 2 side selected in step S223 is performed. Done. The processed audio data is saved in step S225, given a unique URL, and a linked HTML file is generated in step S226.
[0094]
In the above description, the present invention is applied to the homepage automatic generation service, but this is not limited to this example. That is, the voice modification process according to the present invention can be implemented as a single service.
[0095]
【The invention's effect】
As described above, according to the first embodiment of the present invention, the voice data prepared on the WWW server side can be synthesized with the voice data on the user side to form a new voice data file. There is an effect that the audio data on the WWW server side and the audio data on the user side can be reproduced simultaneously.
[0096]
Further, according to the second embodiment of the present invention, even if the user side does not particularly have an effect processing means for audio data, the WWW server side performs various effect processes on the user audio data. There is an effect that can be.
[Brief description of the drawings]
FIG. 1 is a schematic diagram schematically showing an example of a communication system to which the present invention can be applied.
FIG. 2 is a block diagram illustrating an example of a configuration of a client computer.
FIG. 3 is a flowchart of an example of processing of a homepage automatic generation service.
FIG. 4 is a flowchart showing voice modification processing, that is, voice data synthesis in the first embodiment;
FIG. 5 is a schematic diagram illustrating an example of display on a WWW browser when audio data is selected.
FIG. 6 is a schematic diagram illustrating an example of an HTML description that is displayed on a WWW browser when audio data is selected.
FIG. 7 is a schematic diagram illustrating an example of a program for performing an audio data file transfer process.
FIG. 8 is a schematic diagram illustrating an example of display on a WWW browser when audio data is selected.
FIG. 9 is a schematic diagram for explaining synthesis of audio data.
FIG. 10 is a flowchart for performing audio modification processing, that is, effect processing according to the second embodiment;
FIG. 11 is a schematic diagram illustrating an example of a display of an effect process selection screen.
FIG. 12 is a flowchart showing voice modification processing according to a modification of the second embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Internet, 2 ... Server, 5 ... Client computer, 301, 301 '... File name input part, 302, 302' ... Reference button, 303, 303 '... Transfer button 305 ... List of audio data, 306 ... Radio button for selecting audio data to be synthesized, 310 ... Effect selection unit, 311 ... Radio button corresponding to the type of effect

Claims (5)

ネットワークに接続されたクライアント端末に対してサービスを提供するようにされた情報処理装置において、
予め音声データが格納される音声データ格納手段と、
上記クライアント端末から転送された第1の音声データを受信する受信手段と、
上記第1の音声データと、上記音声データ格納手段に格納される上記音声データのうち上記クライアント端末からの指示に応じて選択された第2の音声データとを合成して第3の音声データを生成する音声データ生成手段と、
上記第1の音声データのパラメータと上記第2の音声データのパラメータとに基づき、上記第1の音声データを変換する音声データ変換手段と、
上記音声データ生成手段により生成された上記第3の音声データを音声データファイルとしてURLを与えて保存する保存手段と、
上記URLに基づいて、上記保存された音声データファイルに対してリンクが張られたウェブファイルを生成するウェブファイル生成手段と
を備え、
上記音声データ生成手段は、上記第1の音声データのパラメータと上記第2の音声データのパラメータとを比較し、比較結果に基づき上記第1の音声データのパラメータと上記第2の音声データのパラメータとが異なっているとされた場合、上記音声データ変換手段で上記第1の音声データを変換し、上記第2の音声データと上記音声データ変換手段で変換された該第1の音声データとを合成して上記第3の音声データを生成する
ことを特徴とする情報処理装置
In an information processing apparatus adapted to provide services to client terminals connected to a network,
Voice data storage means for storing voice data in advance;
Receiving means for receiving the first audio data transferred from the client terminal;
The first audio data and the second audio data selected in response to an instruction from the client terminal among the audio data stored in the audio data storage means are synthesized to obtain third audio data. Voice data generating means for generating;
Audio data conversion means for converting the first audio data based on the parameters of the first audio data and the parameters of the second audio data;
Storage means for storing the third voice data generated by the voice data generation means by giving a URL as a voice data file;
Web file generating means for generating a web file linked to the stored audio data file based on the URL ;
The voice data generation means compares the parameter of the first voice data with the parameter of the second voice data, and based on the comparison result, the parameter of the first voice data and the parameter of the second voice data. Is different from the first voice data by the voice data conversion means, and the second voice data and the first voice data converted by the voice data conversion means are An information processing apparatus, characterized by being synthesized to generate the third audio data .
請求項1に記載の情報処理装置において、
上記音声データ生成手段は、さらに、上記第1の音声データに対して、上記クライアント端末からの指示に応じて選択された音響効果処理を施す
ことを特徴とする情報処理装置。
The information processing apparatus according to claim 1,
The information processing apparatus according to claim 1, wherein the sound data generation unit further performs a sound effect process selected according to an instruction from the client terminal on the first sound data.
ネットワークに接続されたクライアント端末に対してサービスを提供するようにされた情報処理方法において、
予め音声データが音声データ格納手段に格納されるステップと、
上記クライアント端末から転送された第1の音声データを受信する受信のステップと、
上記第1の音声データと、上記音声データ格納手段に格納される上記音声データのうち上記クライアント端末からの指示に応じて選択された第2の音声データとを合成して第3の音声データを生成する音声データ生成のステップと、
上記第1の音声データのパラメータと上記第2の音声データのパラメータとに基づき、上記第1の音声データを変換する音声データ変換のステップと、
上記音声データ生成のステップにより生成された上記第3の音声データを音声データファイルとしてURLを与えて保存する保存のステップと、
上記URLに基づいて、上記保存された音声データファイルに対してリンクが張られたウェブファイルを生成するウェブファイル生成のステップと
を備え、
上記音声データ生成のステップは、上記第1の音声データのパラメータと上記第2の音声データのパラメータとを比較し、比較結果に基づき上記第1の音声データのパラメータと上記第2の音声データのパラメータとが異なっているとされた場合、上記音声データ変換のステップにより上記第1の音声データを変換し、上記第2の音声データと上記音声データ変換のステップにより変換された該第1の音声データとを合成して上記第3の音声データを生成する
ことを特徴とする情報処理方法
In an information processing method adapted to provide services to client terminals connected to a network,
A step in which voice data is stored in the voice data storage means in advance;
A receiving step of receiving the first audio data transferred from the client terminal;
The first audio data and the second audio data selected in response to an instruction from the client terminal among the audio data stored in the audio data storage means are synthesized to obtain third audio data. Generating voice data to be generated; and
An audio data conversion step of converting the first audio data based on the first audio data parameter and the second audio data parameter;
A storage step of storing the third audio data generated by the audio data generation step by giving a URL as an audio data file;
A web file generating step for generating a web file linked to the stored audio data file based on the URL ;
The audio data generation step compares the parameter of the first audio data with the parameter of the second audio data, and based on the comparison result, compares the parameter of the first audio data and the parameter of the second audio data. If the parameter is different, the first voice data is converted by the voice data conversion step, and the second voice data and the first voice data converted by the voice data conversion step are converted. An information processing method comprising: synthesizing data and generating the third audio data .
請求項に記載の情報処理方法において、
上記音声データ生成のステップは、さらに、上記第1の音声データに対して、上記クライアント端末からの指示に応じて選択された音響効果処理を施す
ことを特徴とする情報処理方法。
The information processing method according to claim 3 ,
The audio data generation step further includes performing an acoustic effect process selected according to an instruction from the client terminal on the first audio data.
情報処理装置を用い、ネットワークにより接続されたクライアント端末との間でデータの送受信を行う情報処理システムにおいて、
ネットワークに接続する接続手段と、
予め音声データが格納される第1の音声データ格納手段と、
上記クライアント端末から転送された第1の音声データを受信する受信手段と、
上記第1の音声データと、上記音声データ格納手段に格納される上記音声データのうち上記クライアント端末からの指示に応じて選択された第2の音声データとを合成して第3の音声データを生成する音声データ生成手段と、
上記第1の音声データのパラメータと上記第2の音声データのパラメータとに基づき、上記第1の音声データを変換する音声データ変換手段と、
上記音声データ生成手段により生成された上記第3の音声データを音声データファイルとしてURLを与えて保存する保存手段と、
上記URLに基づいて、上記保存された音声データファイルに対してリンクが張られたウェブファイルを生成するウェブファイル生成手段と
を備え、
上記音声データ生成手段は、上記第1の音声データのパラメータと上記第2の音声データのパラメータとを比較し、比較結果に基づき上記第1の音声データのパラメータと上記第2の音声データのパラメータとが異なっているとされた場合、上記音声データ変換手段で上記第1の音声データを変換し、上記第2の音声データと上記音声データ変換手段で変換された該第1の音声データとを合成して上記第3の音声データを生成する
ようにした情報処理装置と、
上記ネットワークを介して上記情報処理装置と通信する通信手段と、
上記第1の音声データを格納する第2の音声データ格納手段と、
上記第2の音声データ格納手段に格納された上記第1の音声データを選択し、選択された該第1の音声データを、上記通信手段による通信で上記情報処理装置へ転送する選択手段と、
上記選択手段によって選択され上記情報処理装置へ転送された上記第1の音声データに対して上記情報処理装置で上記音声データ生成手段で合成される上記第2の音声データの選択を指示する指示手段と
を備えるクライアント端末と
を有する
ことを特徴とする情報処理システム
In an information processing system that uses an information processing device to transmit and receive data to and from a client terminal connected via a network,
A connection means for connecting to the network;
First voice data storage means for storing voice data in advance;
Receiving means for receiving the first audio data transferred from the client terminal;
The first audio data and the second audio data selected in response to an instruction from the client terminal among the audio data stored in the audio data storage means are synthesized to obtain third audio data. Voice data generating means for generating;
Audio data conversion means for converting the first audio data based on the parameters of the first audio data and the parameters of the second audio data;
Storage means for storing the third voice data generated by the voice data generation means by giving a URL as a voice data file;
Web file generating means for generating a web file linked to the stored audio data file based on the URL ;
The voice data generation means compares the parameter of the first voice data with the parameter of the second voice data, and based on the comparison result, the parameter of the first voice data and the parameter of the second voice data. Is different from the first voice data by the voice data conversion means, and the second voice data and the first voice data converted by the voice data conversion means are An information processing apparatus configured to synthesize and generate the third audio data ;
Communication means for communicating with the information processing apparatus via the network;
Second audio data storage means for storing the first audio data;
Selecting means for selecting the first sound data stored in the second sound data storage means, and transferring the selected first sound data to the information processing apparatus by communication by the communication means;
Instruction means for instructing selection of the second voice data synthesized by the voice data generation means in the information processing apparatus with respect to the first voice data selected by the selection means and transferred to the information processing apparatus. And an information processing system .
JP32635297A 1997-11-27 1997-11-27 Information processing apparatus, information processing method, and information processing system Expired - Fee Related JP4462649B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32635297A JP4462649B2 (en) 1997-11-27 1997-11-27 Information processing apparatus, information processing method, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32635297A JP4462649B2 (en) 1997-11-27 1997-11-27 Information processing apparatus, information processing method, and information processing system

Publications (2)

Publication Number Publication Date
JPH11161465A JPH11161465A (en) 1999-06-18
JP4462649B2 true JP4462649B2 (en) 2010-05-12

Family

ID=18186839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32635297A Expired - Fee Related JP4462649B2 (en) 1997-11-27 1997-11-27 Information processing apparatus, information processing method, and information processing system

Country Status (1)

Country Link
JP (1) JP4462649B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001256183A (en) * 2000-03-13 2001-09-21 Keitaro Aso Homepage preparation method using internet and server
JP3862470B2 (en) 2000-03-31 2006-12-27 キヤノン株式会社 Data processing apparatus and method, browser system, browser apparatus, and recording medium
JP2001344202A (en) * 2000-05-30 2001-12-14 Sony Corp Portable radio terminal equipment and information communication edition system
JP2002132634A (en) * 2000-10-26 2002-05-10 Nippon Telegr & Teleph Corp <Ntt> System for providing information related with broadcasting
JP2002189677A (en) * 2000-12-21 2002-07-05 Estore Corp Contents information registering method, information registering service, information registering terminal and contents information making recording medium
CN1156751C (en) * 2001-02-02 2004-07-07 国际商业机器公司 Method and system for automatic generating speech XML file
JP2003216539A (en) * 2002-01-28 2003-07-31 Pacific Consultants Co Ltd Information collecting method, information transmission method, information collection device, and information transmission device
US7644350B2 (en) * 2005-02-18 2010-01-05 Ricoh Company, Ltd. Techniques for validating multimedia forms
JP4771424B2 (en) * 2006-12-08 2011-09-14 ソニー株式会社 Information processing apparatus and method, and program
JP5153521B2 (en) * 2008-08-29 2013-02-27 株式会社タイトー Data distribution device and data distribution program

Also Published As

Publication number Publication date
JPH11161465A (en) 1999-06-18

Similar Documents

Publication Publication Date Title
US6288319B1 (en) Electronic greeting card with a custom audio mix
US7454346B1 (en) Apparatus and methods for converting textual information to audio-based output
JP3753007B2 (en) Performance support apparatus, performance support method, and storage medium
US7044741B2 (en) On demand contents providing method and system
US7268287B2 (en) Music data providing apparatus, music data reception apparatus and program
US6510438B2 (en) Electronic mail system, method of sending and receiving electronic mail, and storage medium
US6956162B2 (en) Apparatus and method for providing real-play sounds of musical instruments
JP2009265279A (en) Voice synthesizer, voice synthetic method, voice synthetic program, personal digital assistant, and voice synthetic system
JP4462649B2 (en) Information processing apparatus, information processing method, and information processing system
US20030075036A1 (en) Electronic music apparatus that enables user to purchase music related product from server
JP2000039884A (en) Musical piece information forming device with data. reproducing device, transmission and reception system and recording medium
KR20010103273A (en) Electronic music distribution service system and method using synchronous multimedia integration language format
WO2001067306A1 (en) On-line notation system
JP2001503236A (en) Personal voice message processor and method
JP2008046951A (en) System and method for generating electronic document, server device, terminal device, program for server device, and program for terminal device
JP3775271B2 (en) Automatic performance device, information distribution server device, and program used therefor
JP2007058103A (en) Mobile terminal device with lyric download function
JP2002091473A (en) Information processor
JPH11203217A (en) Electronic mail system, electronic mail transmission and reception method and storage medium
JPH10322478A (en) Hypertext access device in voice
KR19990031015A (en) Audio web browser device using speech synthesis
JP3999078B2 (en) Voice data distribution device and client terminal
JP3970664B2 (en) Karaoke device that can receive and play the user&#39;s original music from a mobile phone
JP4141317B2 (en) Web browsing apparatus, control method thereof, program thereof, and recording medium recording the program
JP2003223178A (en) Electronic song card creation method and receiving method, electronic song card creation device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20031216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070219

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070323

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20070608

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100216

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130226

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees