JP4023150B2 - Information processing apparatus and method, and program - Google Patents

Information processing apparatus and method, and program Download PDF

Info

Publication number
JP4023150B2
JP4023150B2 JP2001385451A JP2001385451A JP4023150B2 JP 4023150 B2 JP4023150 B2 JP 4023150B2 JP 2001385451 A JP2001385451 A JP 2001385451A JP 2001385451 A JP2001385451 A JP 2001385451A JP 4023150 B2 JP4023150 B2 JP 4023150B2
Authority
JP
Japan
Prior art keywords
image data
content
time
data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001385451A
Other languages
Japanese (ja)
Other versions
JP2003189279A (en
Inventor
正道 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001385451A priority Critical patent/JP4023150B2/en
Publication of JP2003189279A publication Critical patent/JP2003189279A/en
Application granted granted Critical
Publication of JP4023150B2 publication Critical patent/JP4023150B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、情報処理装置および方法、並びにプログラムに関し、特に、コンテンツを配信する情報処理装置および方法、並びにプログラムに関する。
【0002】
【従来の技術】
インタネットなどのネットワークを介して、パーソナルコンピュータから他のパーソナルコンピュータにコンテンツを配信するシステムが利用されている。
【0003】
【発明が解決しようとする課題】
しかしながら、いわゆるライブで画像を撮像して、撮像された画像をコンテンツとして配信するとき、撮像するカメラまたはマイクロフォンなど、ソースの切り換え、または撮像した画像への効果、いわゆるエフェクトの適用は、コンテンツを配信している最中に手動で、コンテンツを配信するパーソナルコンピュータに指示しなければならなかった。
【0004】
このため、1人だけで自ら出演するようなライブのコンテンツを配信するとき、ソースの切り換え、または所望の効果の選択は、不可能であった。また、複数人でコンテンツを配信するときであっても、操作のミスをなくすことはできず、コンテンツを繰り返して配信するとき、ソースの切り換えが同一の手順、または効果の適用が同一の手順であっても、その都度操作をしなければならず、面倒であるという問題があった。
【0005】
本発明はこのような状況に鑑みてなされたものであり、確実に、所望のソースの切り換えおよび効果の適用ができるようにすることを目的とする。
【0006】
【課題を解決するための手段】
本発明の情報処理装置は、サーバへのコンテンツの予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および画像データに対する画像処理の適用の設定を示すシナリオデータを生成するシナリオデータ生成手段と、所定の撮像手段から供給される画像データであるライブ画像データを取得する第1の画像データ取得手段と、予め記録された画像データである記録画像データを所定の記録手段から読み出して取得する第2の画像データ取得手段と、第1の画像データ取得手段による画像データの取得と、第2の画像データ取得手段による画像データの取得とを、シナリオデータに従って、サーバへのコンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替える切替手段と、シナリオデータに従って、第1の画像データ取得手段または第2の画像データ取得手段により取得された画像データに対して設定された画像処理を適用して、サーバに配信するコンテンツを生成するコンテンツ生成手段と、生成されたコンテンツのサーバへの配信を制御する配信制御手段とを備えることを特徴とする。
【0007】
撮像手段をさらに設け、第1の画像データ取得手段には、自分の撮像手段から供給されるライブ画像データを取得させることができる。
【0008】
所定の音声取得手段から供給される音声データであるライブ音声データを取得する第1の音声データ取得手段と、予め記録された音声データである記録音声データを所定の記録手段から読み出して取得する第2の音声データ取得手段とをさらに設け、切替手段には、第1の音声データ取得手段による音声データの取得と、第2の音声データ取得手段による音声データの取得とを、シナリオデータに従って、サーバへのコンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替えさせることができる。
コンテンツを配信する前に、現実の時間に対し所望の倍率を有する仮想的な時間を基準として、コンテンツの再生を制御するプレビュー制御手段をさらに設けることができる。
【0009】
本発明の情報処理方法は、サーバへのコンテンツの予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および画像データに対する画像処理の適用の設定を示すシナリオデータを生成するシナリオデータ生成ステップと、所定の撮像手段から供給される画像データであるライブ画像データを取得する第1の画像データ取得ステップと、予め記録された画像データである記録画像データを所定の記録手段から読み出して取得する第2の画像データ取得ステップと、第1の画像データ取得ステップにおける画像データの取得と、第2の画像データ取得ステップにおける画像データの取得とを、シナリオデータに従って、サーバへのコンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替える切替ステップと、シナリオデータに従って、第1の画像データ取得ステップまたは第2の画像データ取得ステップにおいて取得された画像データに対して設定された画像処理を適用して、サーバに配信するコンテンツを生成するコンテンツ生成ステップと、生成されたコンテンツのサーバへの配信を制御する配信制御ステップとを含むことを特徴とする。
【0010】
本発明のプログラムは、コンピュータに、サーバへのコンテンツの予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および画像データに対する画像処理の適用の設定を示すシナリオデータを生成するシナリオデータ生成ステップと、所定の撮像手段から供給される画像データであるライブ画像データを取得する第1の画像データ取得ステップと、予め記録された画像データである記録画像データを所定の記録手段から読み出して取得する第2の画像データ取得ステップと、第1の画像データ取得ステップにおける画像データの取得と、第2の画像データ取得ステップにおける画像データの取得とを、シナリオデータに従って、サーバへのコンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替える切替ステップと、シナリオデータに従って、第1の画像データ取得ステップまたは第2の画像データ取得ステップにおいて取得された画像データに対して設定された画像処理を適用して、サーバに配信するコンテンツを生成するコンテンツ生成ステップと、生成されたコンテンツのサーバへの配信を制御する配信制御ステップとを実行させる。
【0011】
本発明の情報処理装置および方法、並びにプログラムにおいては、サーバへのコンテンツの予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および画像データに対する画像処理の適用の設定を示すシナリオデータが生成され、所定の撮像手段から供給される画像データであるライブ画像データが取得され、予め記録された画像データである記録画像データが所定の記録手段から読み出して取得され、ライブ画像データの取得と、記録画像データの取得とが、シナリオデータに従って、サーバへのコンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替えられ、シナリオデータに従って、取得されたライブ画像データまたは記録画像データに対して設定された画像処理が適用されて、サーバに配信するコンテンツが生成され、生成されたコンテンツのサーバへの配信が制御される。
【0012】
【発明の実施の形態】
図1は、本発明に係るコンテンツ配信システム1の一実施の形態の構成を示す図である。コンテンツ配信システム1は、パーソナルキャスティングを実行するシステムである。
【0013】
コンテンツ配信システム1は、インタネット11、公衆回線網12、および図示せぬISP(Internet Service Provider)を介して、パーソナルコンピュータ13、サーバ使用予約管理センタ14、サーバ接続専用ネットワーク15、クライアントとしてのパーソナルコンピュータ16−1乃至16−3、およびストリーミングサーバ17を含む。
【0014】
専用回線18は、サーバ使用予約管理センタ14とストリーミングサーバ17とを接続する。
【0015】
公衆回線網12は、ADSL(Asymmetric Digital Subscriber Line)網31−1、ケーブルテレビ網31−2、または電話回線網31−3を含む。
【0016】
パーソナルコンピュータ13は、アンテナ19を介して、図示せぬ放送局から放送された番組を取得すると共に、ネットワークを介して接続されたデジタルビデオカメラ20−1または20−2から供給された画像データおよび音声データを取得する。
【0017】
パーソナルコンピュータ13は、さらに、アナログインタフェースを介して、ビデオカメラ21から画像信号を取得すると共に、マイクロフォン22から音声信号を取得する。
【0018】
パーソナルコンピュータ13は、記録している画像データ若しくは音声データ、受信した番組、デジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データ、ビデオカメラ21から取得した画像信号、またはマイクロフォン22から取得した音声信号を基に、パーソナルコンピュータ16−1乃至16−3に配信するコンテンツを生成する。
【0019】
パーソナルコンピュータ13は、生成したコンテンツをストリーミングサーバ17に供給するとき、例えば、公衆回線網13の電話回線網31−3を介して、サーバ接続専用ネットワーク15のアクセスポートに、PPP(Point-to-Point Protocol)接続し、ストリーミングサーバ17との伝送路を確立する。パーソナルコンピュータ13は、サーバ接続専用ネットワーク15による伝送路を介して、確実にコンテンツをストリーミングサーバ17に送信することができる。
【0020】
パーソナルコンピュータ13は、確立した伝送路を介して、コンテンツをストリーミングサーバ17に送信する。
【0021】
パーソナルコンピュータ13は、リアルタイムに、記録している画像データ若しくは音声データ、受信した番組、デジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データ、ビデオカメラ21から取得した画像信号、またはマイクロフォン22から取得した音声信号を基に、パーソナルコンピュータ16−1乃至16−3に配信するコンテンツを生成し、確立した伝送路を介して、リアルタイムに、コンテンツをストリーミングサーバ17に送信する。
【0022】
パーソナルコンピュータ13は、インタネット11、公衆回線網12、および図示せぬISPを介して、ストリーミングサーバ17と接続するようにしてもよい。パーソナルコンピュータ13は、ADSL網31−1、ケーブルテレビ網31−2、および電話回線網31−3のうちの1つの伝送路を介して、コンテンツをストリーミングサーバ17に送信するようにしてもよい。
【0023】
サーバ使用予約管理センタ14は、パーソナルコンピュータ13から要求された、ストリーミングサーバ17のストリーミング配信機能を使用する時間帯の予約を基に、ストリーミング配信機能の使用を、ストリーミングサーバ17に予約する。
【0024】
ストリーミングサーバ17は、ストリーミング配信機能の使用が予約された所定の時間帯において、パーソナルコンピュータ13から送信されたコンテンツを、インタネット11を介して、いわゆる、ストリームにより、パーソナルコンピュータ16−1乃至16−3にリアルタイムに提供する。
【0025】
パーソナルコンピュータ16−1は、インタネット11を介して、ストリーミングサーバ17から送信されたストリームであるコンテンツを受信し、受信したコンテンツを基に、画像を表示すると共に、音声を出力する。
【0026】
パーソナルコンピュータ16−2は、インタネット11を介して、ストリーミングサーバ17から送信されたストリームであるコンテンツを受信し、受信したコンテンツを基に、画像を表示すると共に、音声を出力する。
【0027】
パーソナルコンピュータ16−3は、インタネット11を介して、ストリーミングサーバ17から送信されたストリームであるコンテンツを受信し、受信したコンテンツを基に、画像を表示すると共に、音声を出力する。
【0028】
すなわち、コンテンツ配信システム1は、ストリーミングサーバ17がパーソナルコンピュータ13からリアルタイムに送信されたコンテンツを、パーソナルコンピュータ16−1乃至16−3にリアルタイムに提供することにより、個人放送、すなわちパーソナルキャスティングを実現する。
【0029】
パーソナルコンピュータ13、パーソナルコンピュータ16−1乃至16−3、およびストリーミングサーバ17は、相互認証するとき、専用回線18を介して、相互に認証データを授受する。
【0030】
パーソナルコンピュータ13は、パーソナルキャスティングにおける放送開始を基準とした時間の経過に対応して、記録している画像データ若しくは音声データ、受信した番組、デジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データ、ビデオカメラ21から取得した画像信号、またはマイクロフォン22から取得した音声信号の選択を決定すると共に、選択された記録している画像データ若しくは音声データ、受信した番組、デジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データ、ビデオカメラ21から取得した画像信号、またはマイクロフォン22から取得した音声信号に適用する画像処理または音声処理の選択を予め設定する。
【0031】
以下、記録している画像データ若しくは音声データ、受信した番組、デジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データ、ビデオカメラ21から取得した画像信号、またはマイクロフォン22から取得した音声信号を、ソースとも称する。
【0032】
以下、画像または音声に適用する画像処理または音声処理は、効果またはエフェクトともに称する。
【0033】
パーソナルコンピュータ13は、ストリーミングサーバ17にコンテンツを供給する前に、予め定めたソースの選択およびエフェクトの選択を基に、記録している画像データ若しくは音声データ、受信した番組、デジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データ、ビデオカメラ21から取得した画像信号、またはマイクロフォン22から取得した音声信号から、コンテンツを生成し、生成したコンテンツに対応する画像を表示すると共に、音声を出力する。
【0034】
ストリーミングサーバ17にコンテンツを供給する前に、予め定めたソースの選択およびエフェクトの選択を基に、コンテンツを生成し、生成したコンテンツに対応する画像を表示すると共に、音声を出力する処理をプレビューとも称する。
【0035】
パーソナルコンピュータ13は、ストリーミングサーバ17にコンテンツを供給するとき、すなわち、パーソナルキャスティングを実行するとき、予め定めたソースの選択およびエフェクトの選択を基に、記録している画像データ若しくは音声データ、受信した番組、デジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データ、ビデオカメラ21から取得した画像信号、またはマイクロフォン22から取得した音声信号から、リアルタイムにコンテンツを生成する。
【0036】
アンテナ19は、図示せぬ放送局から放送された電波を受信し、受信した電波に対応する信号をパーソナルコンピュータ13に供給する。
【0037】
デジタルビデオカメラ20−1は、デジタルデータである、撮像した動画像または静止画像に対応する画像データを、ネットワークを介して、パーソナルコンピュータ13に供給すると共に、デジタルデータである、取得した音声データをネットワークを介して、パーソナルコンピュータ13に供給する。
【0038】
デジタルビデオカメラ20−2は、デジタルデータである、撮像した動画像または静止画像に対応する画像データを、ネットワークを介して、パーソナルコンピュータ13に供給すると共に、デジタルデータである、取得した音声データをネットワークを介して、パーソナルコンピュータ13に供給する。
【0039】
ビデオカメラ21は、アナログ信号である、撮像した動画像または静止画像に対応する画像信号を、パーソナルコンピュータ13に供給する。マイクロフォン22は、アナログ信号である、取得した音声信号をパーソナルコンピュータ13に供給する。
【0040】
以下、パーソナルコンピュータ16−1乃至16−3を個々に区別する必要がないとき、単にパーソナルコンピュータ16と称する。
【0041】
以下、デジタルビデオカメラ20−1および20−2を個々に区別する必要がないとき、単にデジタルビデオカメラ20と称する。
【0042】
図2乃至図5は、パーソナルコンピュータ13の外観を示す図である。
【0043】
図2は、本体52に対して表示部51が開かれたパーソナルコンピュータ13の正面図である。
【0044】
表示部51は、ヒンジ部53を介して、本体52と開閉自在に連結されている。表示部51には、画像または文字などを表示するLCD(Liquid Crystal Display)54が設けられている。本体52には、文字またはパーソナルコンピュータ13に対する指令を入力するためのキーボード55が設けられている。
【0045】
表示部51は、ヒンジ部53により、図中の矢印aの方向に回動自在に、本体52に連結されている。
【0046】
図3に示すように、LCD54の表示面と、キーボード55の上面がほぼ同じ方向を向くように、表示部51は、本体52に対して、回動させることができる。
【0047】
ジョグダイヤル56は、表示部54の右上側に設けられ、回転または図中の左側への押圧により、パーソナルコンピュータ13にアイコンの選択、またはプログラムの起動などの指令を与える。
【0048】
本体52の右側には、操作ボタン58、およびデジタルビデオカメラ59からなる撮像部57が設けられている。
【0049】
パーソナルコンピュータ13は、ジョグダイヤル56または操作ボタン58の操作に対応して、デジタルビデオカメラ59に撮影を開始させるか、撮影を停止させるか、焦点距離を変更させるか(いわゆる、ズームインさせるかまたはズームアウトさせる)、撮像した画像に所定のエフェクトを適用するか、撮像した画像に対応する画像データを保存するか、または撮像した画像に対応する画像データを送信する。
【0050】
本体52の手前側には、アイコンの選択、プログラムの起動などの指令を与えるポインティングデバイス60が設けられている。
【0051】
表示部51の上側には、音声を取得するためのマイクロフォン61が設けられている。
【0052】
また、デジタルビデオカメラ59は、図2中の矢印bの方向に、本体52に対して回動自在に連結されている。
【0053】
図4に示すように、LCD54の表示面と、キーボード55の上面がほぼ同じ方向を向くように、表示部51を回動して、表示部51を本体52に対して閉じて、デジタルビデオカメラ59を使用者側に向けることにより、パーソナルコンピュータ13は、使用者自身を撮像することができる。このとき、パーソナルコンピュータ13は、撮像している使用者の画像を表示部51に表示させることができるので、使用者は、内容を確認しながら、自分を撮像することができる。
【0054】
この場合において、使用者は、ジョグダイヤル56または操作ボタン58により、パーソナルコンピュータ13に撮像を実行させるか、または停止させることができる。
【0055】
一方、図5に示すように、LCD54の表示面と、キーボード55の上面がほぼ同じ方向を向くように、表示部51を回動して、表示部51を本体52に対して閉じて、デジタルビデオカメラ59を使用者の正面側に向けることにより、パーソナルコンピュータ13は、使用者の正面に位置する対象物を撮像することができる。
【0056】
次に、パーソナルコンピュータ13の構成の例について図6に示すブロック図を参照して説明する。
【0057】
中央処理装置(CPU(Central Processing Unit))101は、オペーレーティングシステムまたは各種のアプリケーションプログラムなどを実行し、各種の処理を実際に実行する。CPU101は、例えば、インテル(Intel)社製のペンティアム(登録商標)(Pentium(R))プロセッサ等で構成される。CPU101は、ホストバス(プロセッサバス)を介して、ハブ102に接続されている。
【0058】
ハブ102は、AGP(Accelerated Graphics Port)インタフェース、およびメモリインタフェース等を有し、CPU101およびRAM(Random-Access Memory)103(いわゆる、メインメモリ)等のデータの伝送などを制御する。ハブ102は、AGPを介して、ビデオコントローラ104とのデータの伝送を制御する。ハブ102は、例えば、インテル社製の82850 Memory Controller Hubなどからなる。
【0059】
RAM103は、例えば、DRAM(Dynamic RAM)で構成され、CPU101が実行するプログラム、またはCPU101の動作に必要なデータを記憶する。具体的には、例えば、RAM103は、起動が完了した時点において、HDD106からロードされた、後述するオペレーティングシステム、およびコンテンツ配信プログラム等を記憶する。
【0060】
オペレーティングシステム(Operating System)は、例えばマイクロソフト社のいわゆるウィンドウズ(登録商標)(Windows(登録商標))XP、またはアップルコンピュータ社のいわゆるマックOS(商標)等に代表される、コンピュータの基本的な動作を制御するプログラムである。
【0061】
ビデオコントローラ104は、AGPを介してハブ102に接続されており、AGPおよびハブ102を介して、CPU101から供給されるデータ(イメージデータまたはテキストデータなど)を受信して、受信したデータに対応するイメージデータを生成するか、または受信したデータをそのまま、内蔵するビデオメモリに記憶する。ビデオコントローラ104は、表示部51のLCD(Liquid Crystal Display)54に、ビデオメモリに記憶されているイメージデータに対応する画像を表示させる。
【0062】
LCD54は、ビデオコントローラ104から供給されたデータを基に、画像または文字などを表示する。
【0063】
ハブ102には、さらに、ハブインタフェースを介して、ハブ105が接続されている。
【0064】
ハブ105は、IDE(Integrated Drive Electronics)インタフェース151、LAN(Local Area Network)インタフェース152、USB(Universal Serial Bus)インタフェース153、RTC(Real Time Clock)154、ファームウェアハブインタフェース155、音声信号インタフェース156、PCI(Peripheral Component Interconnect)インタフェース157、LPC(Low Pin Count)インタフェース158、および電源制御回路159等を有する。
【0065】
ハブ105は、例えば、インテル社製の82801BA I/O Controller Hub 2などからなり、ハブ102およびハブ105は、いわゆるチップセットシステムを構成する。
【0066】
IDEインタフェース151は、その内部に、IDEコントローラ/コンフィギュレーションレジスタ、いわゆるプライマリIDEコントローラとセカンダリIDEコントローラとの2つのIDEコントローラ、およびコンフィギュレーションレジスタ(configuration register)等を含む。
【0067】
IDEインタフェース151のプライマリIDEコントローラには、IDEバスを介して、HDD(Hard Disk Drive)106が接続されている。
【0068】
HDD106は、オペレーティングシステム、および文章入力プログラム等の各種のプログラムまたはデータを記録する。HDD106に記録されているオペレーティングシステム、およびコンテンツ配信プログラム等は、例えば、起動(ブートアップ)処理の過程で、RAM103に順次供給され、ロードされる。
【0069】
LANインタフェース152は、ローカルエリアネットワークに接続するためのインタフェースである。パーソナルコンピュータ13は、LANインタフェース152により接続されているローカルエリアネットワークを介して、インタネット11に接続することができる。
【0070】
USBインタフェース153は、USBポートを介して、接続されている外部の装置にデータを送信すると共に、デバイスからデータを受信する。
【0071】
RTC154は、時間を測定し、現在時刻を示すデータを提供する。
【0072】
ファームウェアハブインタフェース155は、ファームウェアハブ119と接続するためのインタフェースである。ファームウェアハブ119は、オペレーティングシステムまたはアプリケーションプログラムと周辺機器(キーボード55、ポインティングデバイス60、またはHDD106等)との間で、データの受け渡し(入出力)を制御するBIOS(Basic Input/Output System(基本入出力システム))を記憶している。パーソナルコンピュータが起動されるとき、ファームウェアハブインタフェース155は、ファームウェアハブ119からBIOSを取得する。
【0073】
音声信号インタフェース156には、サウンドコントローラ107が接続されている。サウンドコントローラ107は、マイクロフォン61から音声に対応する信号を取り込み、音声に対応するデータを生成して、RAM103に出力する。または、サウンドコントローラ107は、スピーカ108を駆動して、スピーカ108に音声を出力させる。
【0074】
PCIインタフェース157には、内蔵する汎用デバイスを接続するためのPCIバスを介して、インタフェース109、メモリカードインタフェース111、インタフェース112、MPEG(Moving Pictures Experts Group)2エンコーダ/デコーダ113、AV(Audio Visual)アナログインタフェース114、IEEE(Institute of Electrical and Electronic Engineers)1394インタフェース115、およびチューナ116が接続されている。
【0075】
インタフェース109は、例えば、SCSI(Small Computer System Interface)インタフェース、またはIEEE1394インタフェースなど、各種の記録媒体または記憶媒体にプログラムまたはデータを書き込み、または各種の記録媒体または記憶媒体に記録または記憶されているプログラムまたはデータを読み出すためのドライブ110を接続するためのインタフェースである。
【0076】
ドライブ110は、装着されている磁気ディスク141、光ディスク142、光磁気ディスク143、または半導体メモリ144に記録されているプログラムまたはデータを読み出し、読み出したプログラムまたはデータをインタフェース109、PCIバス、およびPCIインタフェース157等を介して、CPU101またはRAM103に供給する。
【0077】
メモリカードインタフェース111は、図示せぬメモリカードスロットに装着されたメモリカード(例えば、メモリースティック(商標))にプログラムまたはデータを書き込み、装着されているメモリカードに記憶されているプログラムまたはデータを読み出すためのインタフェースである。
【0078】
インタフェース112は、デジタルビデオカメラ59を接続するためのインタフェースである。デジタルビデオカメラ59は、撮像した画像の画像データをインタフェース112、PCIバス、およびPCIインタフェース157等を介して、CPU101に供給する。
【0079】
MPEG2エンコーダ/デコーダ113は、AVアナログインタフェース114、IEEE1394インタフェース115、またはチューナ116から供給された画像データまたは音声データを圧縮符号化し、圧縮符号化した画像データまたは音声データを、HDD106に供給するか、またはLANインタフェース152若しくはモデム118に供給する。
【0080】
MPEG2エンコーダ/デコーダ113は、HDD106から供給された圧縮符号化されている画像データまたは音声データを伸張し、伸張した画像データまたは音声データを、RAM103、ビデオコントローラ104、またはサウンドコントローラ107に供給する。
【0081】
AVアナログインタフェース114は、ビデオカメラ21から供給された、アナログ信号である画像信号、およびマイクロフォン22から供給されたアナログ信号である音声信号を取得するためのインタフェースである。AVアナログインタフェース114は、取得したアナログ信号である画像信号に対応する画像データを生成して、RAM103、またはMPEG2エンコーダ/デコーダ113に供給する。
【0082】
AVアナログインタフェース114は、取得したアナログ信号である音声信号に対応する音声データを生成して、RAM103、またはMPEG2エンコーダ/デコーダ113に供給する。
【0083】
IEEE1394インタフェース115は、IEEE1394の規格に基づくネットワークを介して、デジタルビデオカメラ20と接続するためのインタフェースである。
【0084】
チューナ116は、アンテナ19から供給された信号を基に、選択したチャンネルの番組に対応する画像データおよび音声データをMPEG2エンコーダ/デコーダ113に供給するか、または、ハブ105またはハブ102を介して、ビデオコントローラ104若しくはサウンドコントローラ107に供給する。
【0085】
LPCインタフェース158には、比較的低速なデバイスを接続するためのインタフェース117が接続されている。インタフェース117は、キーボード55、ポインティングデバイス60、およびモデム118などから供給される、操作などに対応した信号を取得し、取得した信号をLPCインタフェース158に供給すると共に、LPCインタフェース158から供給された信号に基づいて、モデム118にデータの通信を指示する。
【0086】
モデム118は、ADSL網31−1、ケーブルテレビ網31−2、または電話回線網31−3に接続するためのモデムである。パーソナルコンピュータ13は、モデム118により接続される、ADSL網31−1、ケーブルテレビ網31−2、または電話回線網31−3を介して、インタネット11に接続する。
【0087】
また、パーソナルコンピュータ13は、モデム118により接続される、電話回線網31−3およびサーバ接続専用ネットワーク15を介して、ストリーミングサーバ17に接続する。
【0088】
電源制御回路159は、バッテリ120に接続されており、各ブロックに、必要な電源を供給するとともに、電源をオンまたはオフするときに操作される電源スイッチからの信号またはCPU101からの指示に基づいて、電源のオンまたはオフの制御を行う。電源制御回路159は、バッテリ120への充電を制御する。
【0089】
図7は、パーソナルコンピュータ13が実行するプログラムを説明するブロック図である。
【0090】
オペレーティングシステム171は、パーソナルコンピュータ13の基本的な動作を管理するためのプログラムである。
【0091】
デバイスドライバ172は、オペレーティングシステム171の制御、およびコンテンツ配信プログラム174の要求に基づいて、デジタルビデオカメラ59、サウンドコントローラ107、IEEE1394インタフェース115、およびAVアナログインタフェース114を制御するプログラムである。デバイスドライバ172は、デジタルビデオカメラ59が撮像した画像の画像データ、マイクロフォン61が取得した音声の音声データ、IEEE1394インタフェース115を介して、デジタルビデオカメラ20から供給された画像データ若しくは音声データ、またはAVアナログインタフェース114を介してビデオカメラ21から供給された画像信号、若しくはマイクロフォン22から供給された音声信号に対応する画像データまたは音声データをコンテンツ配信プログラム174に供給する。
【0092】
通信プログラム173は、LANインタフェース152またはモデム118を制御し、コンテンツ配信プログラム174から供給されたコンテンツを電話回線網31−3およびサーバ接続専用ネットワーク15を介して、ストリーミングサーバ17に供給する。
【0093】
コンテンツ配信プログラム174は、通信プログラム173に、公衆回線網12およびインタネット11を介して、ストリーミングサーバ17のストリーミング配信機能を使用する時間帯の予約をサーバ使用予約管理センタ14に要求させる。
【0094】
コンテンツ配信プログラム174は、パーソナルキャスティングにおける放送開始から経過時刻に対応する、チューナ116から供給された画像データ若しくは音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、AVアナログインタフェース114を介して、ビデオカメラ21から供給された画像信号に対応する画像データ若しくはマイクロフォン22から供給された音声信号に対応する音声データ、またはHDD106に記録されている、動画ファイル175−1乃至175−Jのそれぞれに格納されている画像データ、静止画ファイル176−1乃至176−Kのそれぞれに格納されている画像データ、若しくは音声ファイル177−1乃至177−Nのそれぞれに格納されている音声データの選択を決定する。
【0095】
コンテンツ配信プログラム174は、選択された、チューナ116から供給された画像データ若しくは音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、AVアナログインタフェース114を介してビデオカメラ21から供給された画像信号に対応する画像データ若しくはマイクロフォン22から供給された音声信号に対応する音声データ、またはHDD106に記録されている、動画ファイル175−1乃至175−Jのそれぞれに格納されている画像データ、静止画ファイル176−1乃至176−Kのそれぞれに格納されている画像データ、若しくは音声ファイル177−1乃至177−Nのそれぞれに格納されている音声データに適用する画像処理または音声処理(いわゆる、エフェクト)の選択を決定する。
【0096】
コンテンツ配信プログラム174は、パーソナルキャスティングにおける放送開始を基準とした時間の経過に対応して、画像データまたは音声データの選択(入力インタフェースまたは入力ポートの選択を含む)、および選択された画像データまたは音声データに適用するエフェクトの選択をシナリオファイル178−1乃至178−Mのいずれか1つに記録する。
【0097】
コンテンツ配信プログラム174は、ストリーミングサーバ17にコンテンツを供給する前に、シナリオファイル178−1乃至178−Mのいずれか1つを基に、チューナ116から供給された画像データ若しくは音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、AVアナログインタフェース114を介してビデオカメラ21から供給された画像信号に対応する画像データ若しくはマイクロフォン22から供給された音声信号に対応する音声データ、またはHDD106に記録されている、動画ファイル175−1乃至175−Jのそれぞれに格納されている画像データ、静止画ファイル176−1乃至176−Kのそれぞれに格納されている画像データ、若しくは音声ファイル177−1乃至177−Nのそれぞれに格納されている音声データから、ストリーミングデータである、画像データおよび音声データからなるコンテンツを生成し、生成したコンテンツに対応する画像をLCD54に表示させると共に、スピーカ108に音声を出力させる。
【0098】
コンテンツ配信プログラム174は、ストリーミングサーバ17にコンテンツを供給するとき、すなわち、パーソナルキャスティングを実行するとき、予め選択したシナリオファイル178−1乃至178−Mのいずれか1つを基に、チューナ116から供給された画像データ若しくは音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、AVアナログインタフェース114を介してビデオカメラ21から供給された画像信号に対応する画像データ若しくはマイクロフォン22から供給された音声信号に対応する音声データ、またはHDD106に記録されている、動画ファイル175−1乃至175−Jのそれぞれに格納されている画像データ、静止画ファイル176−1乃至176−Kのそれぞれに格納されている画像データ、若しくは音声ファイル177−1乃至177−Nのそれぞれに格納されている音声データから、ストリーミングデータである、画像データおよび音声データからなるコンテンツをリアルタイムに生成する。
【0099】
コンテンツ配信プログラム174は、通信プログラム173に、リアルタイムに生成したコンテンツを、ストリーミングサーバ17にリアルタイムに供給させる。
【0100】
以下、シナリオファイル178−1乃至178−Mを個々に区別する必要がないとき、単にシナリオファイル178と称する。
【0101】
図8は、コンテンツ配信プログラム174の構成を示すブロック図である。
【0102】
入力モジュール181は、ソース選択エフェクト設定モジュール186の制御に基づいて、チューナ116から供給された画像データ若しくは音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、AVアナログインタフェース114を介してビデオカメラ21から供給された画像信号に対応する画像データ若しくはマイクロフォン22から供給された音声信号に対応する音声データ、またはHDD106に記録されている、動画ファイル175−1乃至175−Jのそれぞれに格納されている画像データ、静止画ファイル176−1乃至176−Kのそれぞれに格納されている画像データ、若しくは音声ファイル177−1乃至177−Nのそれぞれに格納されている音声データのうち、画像データまたは音声データを選択し、選択した画像データまたは音声データを入力する。入力モジュール181は、入力した画像データまたは音声データを、エフェクトモジュール182に出力する。
【0103】
なお、入力モジュール181は、ソース選択エフェクト設定モジュール186の制御に基づいて、エフェクトモジュール182にいずれの画像データも供給しないか、1つの画像データを供給するか、または複数の画像データを供給する。同様に、入力モジュール181は、ソース選択エフェクト設定モジュール186の制御に基づいて、エフェクトモジュール182にいずれの音声データも供給しないか、1つの音声データを供給するか、または複数の音声データを供給する。
【0104】
エフェクトモジュール182は、ソース選択エフェクト設定モジュール186の制御に基づいて、入力モジュール181から供給された画像データに、例えば、ワイプのエフェクト、またはディゾルブのエフェクトなどを適用し、所定のエフェクトを適用した画像データを分配モジュール183に供給する。
【0105】
エフェクトモジュール182はまた、ソース選択エフェクト設定モジュール186の制御に基づいて、入力モジュール181から供給された音声データに、所定のエフェクトを適用し、所定のエフェクトを適用した音声データをプレビューモジュール184およびエンコードモジュール185に出力する。
【0106】
分配モジュール183は、エフェクトモジュール182から供給された画像データを、プレビューモジュール184およびエンコードモジュール185に分配して出力する。
【0107】
プレビューモジュール184は、エフェクトモジュール182から供給された画像データを基に、プレビュー画像をLCD54に表示させると共に、エフェクトモジュール182から供給された音声データを基に、音声をスピーカ108に出力させる。
【0108】
エンコードモジュール185は、MPEG2エンコーダ/デコーダ113に、エフェクトモジュール182から供給された音声データおよび分配モジュール183から供給された画像データを圧縮符号化させ、その結果得られたデータを、デバイスドライバ172および通信プログラム173に出力する。
【0109】
ソース選択エフェクト設定モジュール186は、HDD106に記録されているシナリオファイル178−1乃至178−Mのいずれかに基づいて、入力モジュール181の画像データまたは音声データの選択を制御すると共に、エフェクトモジュール182のエフェクトの適用の処理を制御する。
【0110】
ソース選択エフェクト設定モジュール186は、使用者による設定の操作に対応する、キーボード55、ジョグダイヤル56、またはポインティングデバイス60からの信号に基づいて、入力モジュール181の画像データまたは音声データの選択を設定し、およびエフェクトモジュール182のエフェクトの適用を設定する。ソース選択エフェクト設定モジュール186は、入力モジュール181の画像データまたは音声データの選択の設定、およびエフェクトモジュール182のエフェクトの適用の設定に対応するシナリオファイル178−1乃至178−Mのいずれかを、シナリオファイル生成モジュール187に生成させる。
【0111】
シナリオファイル生成モジュール187は、ソース選択エフェクト設定モジュール186における、入力モジュール181の画像データまたは音声データの選択の設定、およびエフェクトモジュール182のエフェクトの適用の設定に対応するシナリオファイル178−1乃至178−Mのいずれかを生成し、生成したシナリオファイル178−1乃至178−MのいずれかをHDD106に記録させる。
【0112】
図9は、ストリーミングサーバ17の構成を説明する図である。CPU201は、各種アプリケーションプログラムや、オペレーティングシステムを実際に実行する。ROM202は、一般的には、CPU201が使用するプログラムや演算用のパラメータのうちの基本的に固定のデータを格納する。RAM203は、CPU201の実行において使用するプログラムや、その実行において適宜変化するパラメータを格納する。これらはホストバスなどから構成されるバス204により相互に接続されている。
【0113】
バス204には、さらにインタフェース205が接続されている。
【0114】
HDD206は、ハードディスクを駆動し、それらにCPU201によって実行するプログラムや情報を記録または再生させる。
【0115】
ネットワークインタフェース207は、インタネット11が接続され、CPU201、またはHDD206から供給されたデータを、所定の方式のパケットに格納して、インタネット11を介して、送信するとともに、インタネット11を介して、受信したパケットに格納されているデータをCPU201,RAM203、またはHDD206に出力する。
【0116】
ネットワークインタフェース208は、サーバ接続専用ネットワーク15が接続され、CPU201、またはHDD206から供給されたデータを、所定の方式のパケットに格納して、サーバ接続専用ネットワーク15を介して、送信するとともに、サーバ接続専用ネットワーク15を介して、受信したパケットに格納されているデータをCPU201,RAM203、またはHDD206に出力する。
【0117】
ネットワークインタフェース209は、専用回線18が接続され、CPU201、またはHDD206から供給されたデータを、所定の方式のパケットに格納して、専用回線18を介して、送信するとともに、専用回線18を介して、受信したパケットに格納されているデータをCPU201,RAM203、またはHDD206に出力する。
【0118】
ネットワークインタフェース207、ネットワークインタフェース208、およびネットワークインタフェース209は、インタフェース205およびバス204を介して、CPU201に接続されている。
【0119】
図10は、ストリーミングサーバ17が実行するプログラムを説明する図である。
【0120】
オペレーティングシステム221は、ストリーミングサーバ17の基本的な動作を管理するためのプログラムである。
【0121】
通信プログラム222は、ネットワークインタフェース207を制御し、インタネット11と接続するためのプログラムである。通信プログラム222は、ストリーミング制御プログラム225から供給された、ストリームであるコンテンツをインタネット11を介して、パーソナルコンピュータ16−1乃至16−3に配信する。
【0122】
通信プログラム223は、ネットワークインタフェース208を制御し、サーバ接続専用ネットワーク15と接続するためのプログラムである。通信プログラム223は、サーバ接続専用ネットワーク15を介して、パーソナルコンピュータ13から供給された、ストリームであるコンテンツを受信し、受信したコンテンツをストリーミング制御プログラム225に供給する。
【0123】
通信プログラム224は、ネットワークインタフェース209を制御し、専用回線18を介して、サーバ使用予約管理センタ14と接続するためのプログラムである。通信プログラム224は、サーバ使用予約管理センタ14から送信された、ストリーミング配信機能を使用する時間帯の予約のデータを受信し、受信した予約のデータをストリーミング制御プログラム225に供給する。
【0124】
ストリーミング制御プログラム225は、ストリームであるコンテンツの配信を実行する。すなわち、ストリーミング制御プログラム225は、ストリーミング配信機能を使用する時間帯の予約のデータを基に、通信プログラム223から供給された、ストリームであるコンテンツを一時的にバッファ226に記憶させ、バッファ226に記憶されているコンテンツを、通信プログラム222に供給する。
【0125】
図11は、パーソナルコンピュータ16の構成を説明するブロック図である。CPU301は、各種アプリケーションプログラムや、OSを実際に実行する。ROM302は、一般的には、CPU301が使用するプログラムや演算用のパラメータのうちの基本的に固定のデータを格納する。RAM303は、CPU301の実行において使用するプログラムや、その実行において適宜変化するパラメータを格納する。これらはホストバス304により相互に接続されている。
【0126】
ホストバス304は、ブリッジ305を介して、PCIバスなどの外部バス306に接続されている。
【0127】
キーボード308は、CPU301に各種の指令を入力するとき、使用者により操作される。ポインティングデバイス309は、モニタ310の画面上のポイントの指示や選択を行うとき、使用者により操作される。モニタ310は、液晶表示装置またはCRT(Cathode Ray Tube)などから成り、各種情報をテキストやイメージで表示する。HDD311およびFDD(Flexible Disk Drive)312は、それぞれハードディスクまたはフレキシブルディスクを駆動し、それらにCPU301によって実行するプログラムや情報を記録または再生させる。
【0128】
スピーカ313は、CPU301から供給された音声データを基に、音声を出力する。
【0129】
これらのキーボード308乃至スピーカ313は、インターフェース307に接続されており、インターフェース307は、外部バス306、ブリッジ305、およびホストバス304を介してCPU301に接続されている。
【0130】
ネットワークインタフェース314は、インタネット11が接続され、CPU301、またはHDD311から供給されたデータを、所定の方式のパケットに格納して、ネットワーク4を介して、送信するとともに、インタネット11を介して、受信したパケットに格納されているデータをCPU301,RAM303、またはHDD311に出力する。
【0131】
ネットワークインタフェース314は、外部バス306、ブリッジ305、およびホストバス304を介してCPU301に接続されている。
【0132】
図12は、パーソナルコンピュータ16が実行するプログラムを説明するブロック図である。
【0133】
オペレーティングシステム321は、パーソナルコンピュータ16の基本的な動作を管理するためのプログラムである。
【0134】
通信プログラム322は、ネットワークインタフェース314を制御し、インタネット11と接続するためのプログラムである。通信プログラム322は、インタネット11を介して、ストリーミングサーバ17から供給された、ストリームであるコンテンツを受信し、受信したコンテンツをコンテンツ再生プログラム324に供給する。
【0135】
デバイスドライバ323は、コンテンツ再生プログラム324から供給された画像データを基に、モニタ310に画像を表示させると共に、コンテンツ再生プログラム324から供給された音声データを基に、スピーカ313に音声を出力させる。
【0136】
コンテンツ再生プログラム324は、通信プログラム322から供給された、ストリームであるコンテンツに含まれる画像データおよび音声データを復号(伸張)し、復号した画像データおよび音声データをデバイスドライバ323に供給し、デバイスドライバ323に、画像を表示させる共に音声を出力させる。
【0137】
次に、コンテンツ配信プログラム174の画像データまたは音声データの選択の設定、およびエフェクトの設定について説明する。
【0138】
図13は、コンテンツ配信プログラム174がLCD54に表示させる画像の例を示す図である。
【0139】
コンテンツ配信プログラム174は、画像データまたは音声データの選択の設定、およびエフェクトの設定をするとき、LCD54に、パーソナルキャスティングにおける放送開始を基準とした時間の経過に対応して、画像データまたは音声データの選択、およびエフェクトの選択を示すと共に、画像データまたは音声データの選択、およびエフェクトの選択を設定するウィンドウ401を表示する。
【0140】
コンテンツ配信プログラム174は、LCD54に、デジタルビデオカメラ59、マイクロフォン61、AVアナログインタフェース114、IEEE1394インタフェース115、またはチューナ116のいずれかから供給される画像データまたは音声データの選択を指定するためのウィンドウ402を表示させる。
【0141】
コンテンツ配信プログラム174は、LCD54に、HDD106に記録されている、動画ファイル175−1乃至175−Jのそれぞれに格納されている画像データ、静止画ファイル176−1乃至176−Kのそれぞれに格納されている画像データ、または音声ファイル177−1乃至177−Nのそれぞれに格納されている音声データの選択を指定するためのウィンドウ403を表示させる。
【0142】
コンテンツ配信プログラム174は、LCD54に、エフェクトを指定するためのウィンドウ403を表示させる。
【0143】
ウィンドウ401のカーソル431は、放送開始の時刻を基準として、時間の経過に対応する時刻のうち、所定の基準時刻を示す。例えば、コンテンツ配信プログラム174は、画像データまたは音声データの選択の設定を基に、カーソル431で示される基準時刻における選択された画像データまたは音声データに、選択されたエフェクトを適用した結果に対応する画像をウィンドウ406に表示する。
【0144】
ウィンドウ401のバー432、バー433、バー435、バー436、およびバー437は、それぞれ、1つの画像データまたは1つの音声データの選択および選択される期間を示す。
【0145】
図14に示すように、バー432は、動画ファィル1を、放送開始の時刻を基準として、時間の経過に対応する時刻のうち、時刻t1から時刻t3までの期間、選択することを示す。動画ファィル1は、例えば、動画ファイル175−1に対応する。
【0146】
バー433は、動画ファィル2を、放送開始の時刻を基準として、時間の経過に対応する時刻のうち、時刻t2から時刻t4までの期間、選択することを示す。動画ファィル1は、例えば、動画ファイル175−2に対応する。
【0147】
バー435は、音声ファィル1を、放送開始の時刻を基準として、時間の経過に対応する時刻のうち、時刻t1から時刻t5までの期間、選択することを示す。音声ファイル1は、例えば、音声ファイル177−1に対応する。
【0148】
バー436は、カメラ2に対応する画像データを、放送開始の時刻を基準として、時間の経過に対応する時刻のうち、時刻t4から時刻t6までの期間、選択することを示す。カメラ2は、例えば、ビデオカメラ21に対応する。
【0149】
バー437は、マイク1に対応する音声データを、放送開始の時刻を基準として、時間の経過に対応する時刻のうち、時刻t4から時刻t6までの期間、選択することを示す。マイク1は、例えば、マイクロフォン22に対応する。
【0150】
ウィンドウ401のバー434は、1つのエフェクトが選択される期間を示す。図14に示すように、バー434は、動画ファィル1および動画ファイル2に、ワイプであるエフェクトを適用することを示す。
【0151】
ウィンドウ402のボタン451は、カメラ1の選択を指定するボタンである。例えば、カメラ1がデジタルビデオカメラ20−1に対応するとき、ボタン451がクリックされ、ウィンドウ401において、時刻t11に対応する位置から時刻t12に対応する位置までドラッグされたとき、コンテンツ配信プログラム174は、時刻t11から時刻t12までのカメラ1、すなわちデジタルビデオカメラ20−1から供給される画像データの選択を設定し、対応するバーをウィンドウ401に表示させる。
【0152】
ボタン452は、カメラ2の選択を指定するボタンである。例えば、カメラ2はビデオカメラ21に対応するとき、ボタン452がクリックされ、ウィンドウ401において、時刻t21に対応する位置から時刻t22に対応する位置までドラッグされたとき、コンテンツ配信プログラム174は、時刻t21から時刻t22までのカメラ1、すなわちビデオカメラ21から供給される画像信号に対応する画像データの選択を設定し、対応するバーをウィンドウ401に表示させる。
【0153】
同様に、ボタン453は、マイク1の選択を指定するボタンであり、ボタン454は、カメラ3(例えば、デジタルビデオカメラ59に対応する)の選択を指定するボタンである。
【0154】
ウィンドウ403のボタン461は、動画ファイル1の選択を指定するボタンである。例えば、動画ファイル1が動画ファイル175−1に対応するとき、ボタン461がクリックされ、ウィンドウ401において、時刻t31に対応する位置から時刻t32に対応する位置までドラッグされたとき、コンテンツ配信プログラム174は、時刻t31から時刻t32までの動画ファイル1、すなわち動画ファイル175−1に格納されている画像データの選択を設定し、対応するバーをウィンドウ401に表示させる。
【0155】
同様に、ボタン462は、動画ファイル2(例えば、動画ファイル175−2に対応する)の選択を指定するボタンであり、ボタン463は、動画ファイル3(例えば、他の動画ファイルに対応する)の選択を指定するボタンである。
【0156】
ウィンドウ403のボタン464は、音声ファイル1の選択を指定するボタンである。例えば、音声ファイル1が音声ファイル177−1に対応するとき、ボタン464がクリックされ、ウィンドウ401において、時刻t41に対応する位置から時刻t42に対応する位置までドラッグされたとき、コンテンツ配信プログラム174は、時刻t41から時刻t42までの音声ファイル1、すなわち音声ファイル177−1に格納されている音声データの選択を設定し、対応するバーをウィンドウ401に表示させる。
【0157】
ウィンドウ403のボタン465は、静止画ファイル1の選択を指定するボタンである。例えば、静止画ファイル1が静止画ファイル176−1に対応するとき、ボタン465がクリックされ、ウィンドウ401において、時刻t51に対応する位置から時刻t52に対応する位置までドラッグされたとき、コンテンツ配信プログラム174は、時刻t51から時刻t52までの静止画ファイル1、すなわち静止画ファイル176−1に格納されている画像データの選択を設定し、対応するバーをウィンドウ401に表示させる。
【0158】
同様に、ボタン466は、静止画ファイル2(例えば、静止画ファイル176−2に対応する)の選択を指定するボタンである。
【0159】
ウィンドウ404のボタン481は、自動車のワイパーで拭き取られるように画像が切り替わる効果である、いわゆるワイプの1種であるワイプ1であるエフェクトの適用を指定するボタンである。例えば、ボタン481がクリックされ、ウィンドウ401において、時刻t61に対応する位置から時刻t62に対応する位置までドラッグされたとき、コンテンツ配信プログラム174は、時刻t61から時刻t62において選択されている画像データに、ワイプ1であるエフェクトの適用を設定し、対応するバーをウィンドウ401に表示させる。
【0160】
同様に、ボタン482は、ワイプ2であるエフェクトの適用を指定するボタンであり、ボタン483は、ズーム2であるエフェクトの適用を指定するボタンであり、ボタン483は、オーバーラップしながら画像が切り替わる効果である、いわゆるディゾルブであるエフェクトの適用を指定するボタンである。
【0161】
コンテンツ配信プログラム174は、このように設定された、画像データまたは音声データの選択、またはエフェクトの選択を示すシナリオファイル178を生成する。
【0162】
コンテンツ配信プログラム174は、デジタルビデオカメラ59、マイクロフォン61、AVアナログインタフェース114、IEEE1394インタフェース115、またはチューナ116のいずれかから供給される画像、またはHDD106に記録されている、動画ファイル175−1乃至175−Jのそれぞれに格納されている画像データ、若しくは静止画ファイル176−1乃至176−Kのそれぞれに格納されている画像データに対応する画像をウィンドウ405に表示させる。
【0163】
コンテンツ配信プログラム174は、選択された画像データに、選択されたエフェクトを適用した画像をウィンドウ406に表示させる。
【0164】
コンテンツ配信プログラム174は、ボタン407がクリックされたとき、設定された送信開始日時から、予め選択した、シナリオファイル178−1乃至178−Mのいずれかに基づいて、コンテンツを生成し、ストリームであるコンテンツをストリーミングサーバ17に送信する。
【0165】
コンテンツ配信プログラム174は、テキストボックス408に設定された年月日および時刻のデータを、コンテンツのストリーミングサーバ17への送信を開始する日時を示すデータとして取得する。
【0166】
コンテンツ配信プログラム174は、テキストボックス409に設定された数字のデータを、コンテンツのストリーミングサーバ17への送信の繰り返しの回数を指定するデータとして取得する。
【0167】
例えば、テキストボックス408に”2001.12.31.17.30.00”が設定され、テキストボックス409に5が設定されているとき、コンテンツ配信プログラム174は、2001年12月31日の午後5時30分から、予め選択した、シナリオファイル178−1乃至178−Mのいずれかに基づいて、コンテンツを生成し、ストリームであるコンテンツをストリーミングサーバ17に送信する処理を5回繰り返す。
【0168】
コンテンツ配信プログラム174は、テキストボックス410に設定された数値のデータを、プレビューにおける時間の倍率のデータとして取得する。プレビューにおける時間の倍率とは、現実の時間に対する、プレビューにおける仮想的な時間の速度の比率を示す。例えば、倍率が5であるとき、ストリーミングサーバ17に送信するコンテンツの長さが10分である場合、コンテンツ配信プログラム174は、プレビューにおいて、5倍の速度で仮想的な時間が経過する2分の長さのコンテンツを生成し、画像を表示すると共に音声を出力する。
【0169】
コンテンツ配信プログラム174は、ボタン411がクリックされたとき、プレビューを実行する。
【0170】
図15は、コンテンツ配信プログラム174に生成され、または使用されるシナリオファイル178の例を示す図である。
【0171】
シナリオファイル178は、時刻に対応する画像データまたは音声データの選択を示すデータ、および時刻に対応するコンテンツの適用を示すデータを含む。
【0172】
例えば、図15に示すシナリオファイル178は、時刻t1において、画像ファイル1の選択を開始し、音声ファイル1の選択を開始することを示すデータ、時刻t2において、動画ファイル2の選択を開始し、動画ファイル1および動画ファイル2を対象とする、ワイプであるエフェクトの適用を開始することを示すデータ、および時刻t3において、動画ファイル1の選択を終了し、動画ファイル1および動画ファイル2を対象とする、ワイプであるエフェクトの適用を終了することを示すデータを含む。
【0173】
さらに、図15に示すシナリオファイル178は、時刻t4において、動画ファイル2の選択を終了し、カメラ2の選択を開始し、マイク1の選択を開始することを示すデータ、時刻t5において、音声ファイル1の選択を終了することを示すデータ、時刻t6において、カメラ2の選択を終了し、マイク1の選択を終了することを示すデータを含む。
【0174】
次に、CPU101が実行するコンテンツ配信プログラム174によるコンテンツの配信の処理を図16のフローチャートを参照して説明する。
【0175】
ステップS11において、コンテンツ配信プログラム174は、所定の画像データまたは音声データの選択である、ソースの選択の設定の処理を実行する。ソースの選択の設定の処理の詳細は後述する。
【0176】
ステップS12において、コンテンツ配信プログラム174は、エフェクトの設定の処理を実行する。エフェクトの設定の処理の詳細は後述する。
【0177】
ステップS13において、コンテンツ配信プログラム174は、ボタン411がクリックされたとき、プレビューの処理を実行する。プレビューの処理の詳細は後述する。
【0178】
ステップS14において、コンテンツ配信プログラム174は、ボタン407がクリックされたか否かを基に、送信の指示がされたか否かを判定し、送信の指示がされていないと判定された場合、さらにソースの選択およびエフェクトの設定がなされるので、ステップS11に戻り、ソースの選択の処理乃至プレビューの処理を繰り返す。
【0179】
ステップS14において、送信の指示がされていると判定された場合、ステップS15に進み、コンテンツ配信プログラム174は、テキストボックス408に入力された年月日および時刻のデータを基に、コンテンツのストリーミングサーバ17への送信を開始する日時を設定する。
【0180】
ステップS16において、コンテンツ配信プログラム174は、テキストボックス409に入力された数字のデータを基に、コンテンツのストリーミングサーバ17への送信の繰り返しの回数を設定する。
【0181】
ステップS17において、コンテンツ配信プログラム174は、送信を開始する日時の設定と、RTC154から供給される現在の日付けおよび時刻のデータを基に、コンテンツの送信を開始する時刻であるか否かを判定し、コンテンツの送信を開始する時刻でないと判定された場合、コンテンツの送信を開始する時刻になっていないので、ステップS17に戻り、コンテンツの送信を開始する時刻であるか否かの判定の処理を繰り返す。
【0182】
ステップS17において、コンテンツの送信を開始する時刻であると判定された場合、ステップS18に進み、コンテンツ配信プログラム174は、コンテンツの送信の処理を実行する。コンテンツの送信の処理の詳細は後述する。
【0183】
ステップS19において、コンテンツ配信プログラム174は、コンテンツのストリーミングサーバ17への送信の繰り返しの回数の設定を基に、送信の処理を所定の回数繰り返したか否かを判定し、送信の処理を所定の回数繰り返していないと判定された場合、さらに送信の処理を実行するために、ステップS18に戻り、送信の処理を繰り返す。
【0184】
送信の処理が繰り返して行われるとき、コンテンツ配信プログラム174は、同一のシナリオファイル178を使用して、ソースの選択およびエフェクトの適用を実行するので、同じパターンの番組を送信することができる。
【0185】
ステップS19において、送信の処理を所定の回数繰り返したと判定された場合、これ以上送信の処理を実行する必要がないので、処理は終了する。
【0186】
次に、ステップS11の処理に対応する、ソースの選択の設定の処理の詳細を図17のフローチャートを参照して説明する。
【0187】
ステップS31において、コンテンツ配信プログラム174は、ボタン451乃至ボタン454、およびボタン461乃至ボタン466のクリック等の操作を基に、画像データまたは音声のデータである、ソースを選択する。
【0188】
ステップS32において、コンテンツ配信プログラム174は、例えば、ウィンドウ401のドラッグの開始位置を基に、ソースの選択の開始時刻を設定する。
【0189】
ステップS33において、コンテンツ配信プログラム174は、例えば、ウィンドウ401のドラッグの終了位置を基に、ソースの選択の終了時刻を設定する。
【0190】
なお、ソースの選択、ソースの選択の開始時刻、またはソースの選択の終了時刻は、例えば、メニューの選択、またはテキストボックスへの数値の入力などにより設定されるようにしてもよい。
【0191】
ステップS34において、コンテンツ配信プログラム174は、ソースの選択、ソースの選択の開始時刻、またはソースの選択の終了時刻をシナリオファイル178に記録し、処理は終了する。
【0192】
次に、ステップS12の処理に対応する、エフェクトの設定の処理の詳細を図18のフローチャートを参照して説明する。
【0193】
ステップS51において、コンテンツ配信プログラム174は、ボタン481乃至484のクリック等の操作を基に、適用するエフェクトを選択する。
【0194】
ステップS52において、コンテンツ配信プログラム174は、エフェクトを適用する対象となるソース、すなわち画像データまたは音声データを選択する。
【0195】
ステップS53において、コンテンツ配信プログラム174は、例えば、ウィンドウ401のドラッグの開始位置を基に、エフェクトの開始時刻を設定する。
【0196】
ステップS54において、コンテンツ配信プログラム174は、例えば、ウィンドウ401のドラッグの終了位置を基に、エフェクトの終了時刻を設定する。
【0197】
なお、エフェクトの選択、エフェクトを適用するソースの選択、エフェクトの開始時刻、またはエフェクトの終了時刻は、例えば、メニューの選択、またはテキストボックスへの数値の入力などにより設定されるようにしてもよい。
【0198】
ステップS55において、コンテンツ配信プログラム174は、エフェクトの選択、エフェクトを適用するソースの選択、エフェクトの開始時刻、またはエフェクトの終了時刻をシナリオファイル178に記録し、処理は終了する。
【0199】
次に、ステップS13の処理に対応する、プレビューの処理の詳細を図19のフローチャートを参照して説明する。
【0200】
ステップS71において、コンテンツ配信プログラム174は、テキストボックス410に入力された数値のデータを基に、プレビューの処理における時間の倍率を設定する。
【0201】
ステップS72において、コンテンツ配信プログラム174は、設定した時間の倍率を基に、仮想時刻の演算を開始する。すなわち、コンテンツ配信プログラム174は、処理を開始した時刻とRTC154から供給されたデータが示す時刻との差に、時間の倍率を乗算して、仮想時刻を求める。例えば、時間の倍率が3と設定されているとき、処理を開始してから現実に5分が経過した場合、コンテンツ配信プログラム174は、仮想時刻として15分を求める。
【0202】
ステップS73において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、仮想時刻が、所定のソースの選択の開始時刻であるか否かを判定し、仮想時刻が、所定のソースの選択の開始時刻であると判定された場合、ステップS74に進み、選択されているシナリオファイル178を基に、入力モジュール181に、設定されているソースを選択させ、処理はステップS75に進む。
【0203】
ステップS73において、仮想時刻が、所定のソースの選択の開始時刻でないと判定された場合、ソースの選択の処理は不要なので、ステップS74の処理はスキップされ、処理はステップS75に進む。
【0204】
ステップS75において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、仮想時刻が、所定のソースの選択の終了時刻であるか否かを判定し、仮想時刻が、所定のソースの選択の終了時刻であると判定された場合、ステップS76に進み、選択されているシナリオファイル178を基に、入力モジュール181に、設定されているソースの選択を停止させ、処理はステップS77に進む。
【0205】
ステップS75において、仮想時刻が、所定のソースの選択の終了時刻でないと判定された場合、ソースの選択の停止の処理は不要なので、ステップS76の処理はスキップされ、処理はステップS77に進む。
【0206】
ステップS77において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、仮想時刻が、所定のエフェクトの開始時刻であるか否かを判定し、仮想時刻が、所定のエフェクトの開始時刻であると判定された場合、ステップS78に進み、選択されているシナリオファイル178を基に、エフェクトモジュール182に、所定のソースにエフェクトを適用させ、処理はステップS79に進む。
【0207】
ステップS77において、仮想時刻が、所定のエフェクトの開始時刻でないと判定された場合、エフェクトの適用の処理は不要なので、ステップS78の処理はスキップされ、処理はステップS79に進む。
【0208】
ステップS79において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、仮想時刻が、所定のエフェクトの終了時刻であるか否かを判定し、仮想時刻が、所定のエフェクトの終了時刻であると判定された場合、ステップS80に進み、選択されているシナリオファイル178を基に、エフェクトモジュール182に、所定のソースへのエフェクトを適用を停止させ、処理はステップS81に進む。
【0209】
ステップS79において、仮想時刻が、所定のエフェクトの終了時刻でないと判定された場合、エフェクトの適用の停止の処理は不要なので、ステップS80の処理はスキップされ、処理はステップS81に進む。
【0210】
ステップS81において、コンテンツ配信プログラム174は、ステップS73乃至ステップS80の処理で選択され、エフェクトが適用されたソース、すなわち、画像データおよび音声データを基に、プレビューモジュール184に、画像をLCD54に表示させ、スピーカ108に音声を出力させる。
【0211】
ステップS82において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、仮想時刻が、終了時刻であるか否かを判定し、仮想時刻が、終了時刻でないと判定された場合、ステップS73に戻り、ソースの選択およびエフェクトの適用の処理を繰り返す。
【0212】
ステップS82において、仮想時刻が、終了時刻であると判定された場合、ステップS83に進み、コンテンツ配信プログラム174は、仮想時刻の演算の処理を終了して、処理は終了する。
【0213】
このように、コンテンツ配信プログラム174は、現実の時間より速い仮想時間で、または遅い仮想時間で、選択され、エフェクトが適用されたソースに対応する画像を表示し、音声を出力することができる。
【0214】
使用者は、所望の倍率を設定し、プレビューを実行することより、実際の放送前に、実際の放送時間より短い時間でソースの選択またはエフェクトの適用を確認したり、実際の放送時間より短い時間で、より詳細に、ソースの選択またはエフェクトの適用を確認することができる。
【0215】
次に、ステップS18の処理に対応する、送信の処理の詳細を図20のフローチャートを参照して説明する。以下の処理において、コンテンツ配信プログラム174は、送信の処理を開始した時刻とRTC154から供給されたデータが示す時刻との差を現在時刻として、各ステップの処理を実行する。
【0216】
ステップS91において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、現在時刻が、所定のソースの選択の開始時刻であると判定された場合、ステップS92に進み、選択されているシナリオファイル178を基に、入力モジュール181に、設定されているソースを選択させ、処理はステップS93に進む。
【0217】
ステップS91において、現在時刻が、所定のソースの選択の開始時刻でないと判定された場合、ソースの選択の処理は不要なので、ステップS92の処理はスキップされ、処理はステップS93に進む。
【0218】
ステップS93において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、現在時刻が、所定のソースの選択の終了時刻であるか否かを判定し、現在時刻が、所定のソースの選択の終了時刻であると判定された場合、ステップS94に進み、選択されているシナリオファイル178を基に、入力モジュール181に、設定されているソースの選択を停止させ、処理はステップS95に進む。
【0219】
ステップS93において、現在時刻が、所定のソースの選択の終了時刻でないと判定された場合、ソースの選択の停止の処理は不要なので、ステップS94の処理はスキップされ、処理はステップS95に進む。
【0220】
ステップS95において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、現在時刻が、所定のエフェクトの開始時刻であるか否かを判定し、現在時刻が、所定のエフェクトの開始時刻であると判定された場合、ステップS96に進み、選択されているシナリオファイル178を基に、エフェクトモジュール182に、所定のソースにエフェクトを適用させ、処理はステップS97に進む。
【0221】
ステップS95において、現在時刻が、所定のエフェクトの開始時刻でないと判定された場合、エフェクトの適用の処理は不要なので、ステップS96の処理はスキップされ、処理はステップS97に進む。
【0222】
ステップS97において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、現在時刻が、所定のエフェクトの終了時刻であるか否かを判定し、現在時刻が、所定のエフェクトの終了時刻であると判定された場合、ステップS98に進み、選択されているシナリオファイル178を基に、エフェクトモジュール182に、所定のソースへのエフェクトの適用を停止させ、処理はステップS99に進む。
【0223】
ステップS97において、現在時刻が、所定のエフェクトの終了時刻でないと判定された場合、エフェクトの適用の停止の処理は不要なので、ステップS98の処理はスキップされ、処理はステップS99に進む。
【0224】
ステップS99において、コンテンツ配信プログラム174は、ステップS91乃至ステップS98の処理で選択され、エフェクトが適用された画像データおよび音声データからなるコンテンツをエンコードモジュール185に出力させ、ストリーミングサーバ17にあてて、ストリームであるコンテンツを通信プログラム173に送信させる。
【0225】
ステップS100において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、現在時刻が、終了時刻であるか否かを判定し、現在時刻が、終了時刻でないと判定された場合、ステップS91に戻り、ソースの選択およびエフェクトの適用の処理を繰り返す。
【0226】
ステップS100において、現在時刻が、終了時刻であると判定された場合、処理は終了する。
【0227】
図21は、コンテンツ配信システム1による、コンテンツの配信の処理を説明するフローチャートである。
【0228】
ステップS1001において、パーソナルコンピュータ13は、公衆回線網12およびサーバ接続専用ネットワーク15を介して、ストリームであるコンテンツをストリーミングサーバ17に送信する。ステップS1001の処理は、ステップS99の処理に対応する。パーソナルコンピュータ13は、ストリーミングサーバ17へのコンテンツの送信の処理を繰り返す。
【0229】
ステップS1101において、ストリーミングサーバ17は、パーソナルコンピュータ13から送信されたコンテンツを受信する。
【0230】
ステップS1102において、ストリーミングサーバ17は、インタネット11を介して、ステップS1101の処理で受信したコンテンツを、パーソナルコンピュータ16−1に送信する。
【0231】
ステップS1201において、パーソナルコンピュータ16−1は、ストリーミングサーバ17から送信されたコンテンツを受信する。ステップS1202において、パーソナルコンピュータ16−1は、受信したコンテンツを再生する。パーソナルコンピュータ16−1は、ステップS1201に戻り、コンテンツの受信の処理およびコンテンツの再生の処理を繰り返す。
【0232】
ステップS1103において、ストリーミングサーバ17は、インタネット11を介して、ステップS1101の処理で受信したコンテンツを、パーソナルコンピュータ16−2に送信する。
【0233】
ステップS1301において、パーソナルコンピュータ16−2は、ストリーミングサーバ17から送信されたコンテンツを受信する。ステップS1302において、パーソナルコンピュータ16−2は、受信したコンテンツを再生する。パーソナルコンピュータ16−2は、ステップS1301に戻り、コンテンツの受信の処理およびコンテンツの再生の処理を繰り返す。
【0234】
ステップS1104において、ストリーミングサーバ17は、インタネット11を介して、ステップS1101の処理で受信したコンテンツを、パーソナルコンピュータ16−3に送信する。ストリーミングサーバ17は、ステップS1101に戻り、コンテンツの受信の処理およびコンテンツの送信の処理を繰り返す。
【0235】
ステップS1401において、パーソナルコンピュータ16−3は、ストリーミングサーバ17から送信されたコンテンツを受信する。ステップS1402において、パーソナルコンピュータ16−3は、受信したコンテンツを再生する。パーソナルコンピュータ16−3は、ステップS1401に戻り、コンテンツの受信の処理およびコンテンツの再生の処理を繰り返す。
【0236】
このように、パーソナルコンピュータ13からストリーミングサーバ17に送信されたコンテンツは、インタネット11を介して、リアルタイムに、パーソナルコンピュータ16−1乃至16−3に配信される。
【0237】
以上のように、本発明に係るコンテンツ配信システム1において、放送開始を基準とする時刻に従って、予め定めたソースが選択され、エフェクトが適用されるので、従来困難であった、自分自身の出演するライブ放送が1人でできるようになる。
【0238】
図22は、本発明に係るコンテンツ配信システム1の他の実施の形態の構成を示す図である。図1に示す場合と同様の部分には、同一の番号を付してあり、その説明は省略する。
【0239】
公衆回線網12には、通信サービスの提供エリアを所望の広さに分割したセルにそれぞれ配置されている、固定無線局である基地局602を介して、カメラ付デジタル携帯電話機601が接続されている。
【0240】
カメラ付デジタル携帯電話機601は、IEEE1394の規格に準拠するネットワークを介して接続されたデジタルビデオカメラ20−1または20−2から供給された画像データおよび音声データを取得する。
【0241】
基地局602は、移動無線局であるカメラ付デジタル携帯電話機601を、例えば、W-CDMA(Wideband-Code Division Multiple Access)と呼ばれる符号分割多元接続により無線接続し、移動無線局であるカメラ付デジタル携帯電話機601と、2GHzの周波数帯域を利用して最大2Mbpsのデータ転送速度で大容量データを高速にデータ通信できる。
【0242】
カメラ付デジタル携帯電話機601は、基地局602とW-CDMA方式により大容量データを高速にデータ通信できるので、音声通話に限らず、電子メールの送受信、簡易ホームページの閲覧、画像などのコンテンツの送受信等の多種に及ぶデータ通信を実行し得る。
【0243】
カメラ付デジタル携帯電話機601は、ブラウザプログラム、後述するコンテンツ配信プログラムなどを実行する。
【0244】
カメラ付デジタル携帯電話機601は、パーソナルキャスティングにおける放送開始を基準とした時間の経過に対応して、ソースの選択を決定すると共に、選択されたソースに適用するエフェクトを予め設定する。
【0245】
カメラ付デジタル携帯電話機601は、ストリーミングサーバ17にコンテンツを供給する前に、予め定めたソースの選択およびエフェクトの設定を基に、撮像した画像に対応する画像データ若しくは取得した音声に対応する音声データ、記録している画像データ若しくは音声データ、またはデジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データから、コンテンツを生成し、生成したコンテンツに対応する画像を表示すると共に、音声を出力する。
【0246】
カメラ付デジタル携帯電話機601は、ストリーミングサーバ17にコンテンツを供給するとき、すなわち、パーソナルキャスティングを実行するとき、予め定めたソースの選択およびエフェクトの設定を基に、撮像した画像に対応する画像データ若しくは取得した音声に対応する音声データ、記録している画像データ若しくは音声データ、またはデジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データから、リアルタイムにコンテンツを生成する。
【0247】
カメラ付デジタル携帯電話機601は、ストリーミングサーバ17にコンテンツを供給するとき、リアルタイムに生成したコンテンツを、公衆回線網12およびサーバ接続専用ネットワーク15を介して、ストリーミングサーバ17にリアルタイムに送信する。
【0248】
また、公衆回線網12には、有線回線を介して、インタネット11、ローカルエリアネットワーク、図示せぬ加入者有線端末装置、コンピュータネットワーク、および企業内ネットワーク等が接続されている。
【0249】
インタネットサービスプロバイダのアクセスサーバ603は、公衆回線網12に接続されており、更に、インタネットサービスプロバイダが保有するコンテンツサーバ604に接続されている。
【0250】
コンテンツサーバ604は、加入者有線端末装置、またはカメラ付デジタル携帯電話機601からの要求に対応して、例えば、簡易ホームページ等のコンテンツを、コンパクトHTML(HyperText Markup Language)方式のファイルとして提供する。
【0251】
インタネット11には、図示せぬ多数のWWW(World Wide Web)サーバが接続されている。WWWサーバは、TCP(Transmission Control Protocol)/IP(Internet Protocol)のプロトコルに従って、加入者有線端末装置、およびカメラ付デジタル携帯電話機601からアクセスされる。
【0252】
因みに、およびカメラ付デジタル携帯電話機601は、基地局602までを2Mbpsの簡易トランスポートプロトコルで通信し、基地局602から、インタネット11、およびWWWサーバまでをTCP/IPで通信する。
【0253】
なお、管理制御装置605は、公衆回線網12を介して、加入者有線端末装置、およびカメラ付デジタル携帯電話機601に接続され、加入者有線端末装置、およびカメラ付デジタル携帯電話機601に対する認証処理などを実行する。
【0254】
次に本発明を適用したカメラ付デジタル携帯電話機601の外観構成について説明する。図23に示すようにカメラ付デジタル携帯電話機601は、表示部611および本体612で構成され、中央のヒンジ部613により折り畳み可能に形成されている。
【0255】
表示部611は、上端左部に引出しまたは収納可能な送受信用のアンテナ614を有する。カメラ付デジタル携帯電話機601は、アンテナ614を介して、固定無線局である基地局602との間で電波を送受信する。
【0256】
また、表示部611は、上端中央部にほぼ180度の角度範囲で回動自在なカメラ部615を有する。カメラ付デジタル携帯電話機601は、カメラ部615のCCDカメラ616によって所望の撮像対象を撮像する。
【0257】
カメラ部615が使用者によってほぼ180度回動されて位置決めされた場合、図24に示すように、表示部611は、カメラ部615の背面側中央に設けられたスピーカ617が正面側に位置する状態となる。これにより、カメラ付デジタル携帯電話機601は、通常の音声通話状態に切り換わる。
【0258】
さらに、表示部611の正面に液晶ディスプレイ618が設けられている。液晶ディスプレイ618は、ソースの選択またはエフェクトの選択を設定する画面、プレビュー画面、電波の受信状態、電池残量、電話帳として登録されている相手先名や電話番号および発信履歴等の他、電子メールの内容、簡易ホームページ、カメラ部615のCCDカメラ616で撮像した画像などを表示する。
【0259】
一方、本体612には、その表面に「0」乃至「9」の数字キー、発呼キー、リダイヤルキー、終話及び電源キー、クリアキー及びメールキー等の操作キー619が設けられている。操作キー619の操作に対応した各種指示が、カメラ付デジタル携帯電話機601に入力される。
【0260】
また、本体612の操作キー619の下部にメモボタン620およびマイクロフォン621が設けられている。カメラ付デジタル携帯電話機601は、メモボタン620が操作されたとき、通話中の相手の音声を録音する。カメラ付デジタル携帯電話機601は、マイクロフォン621によって通話時の使用者の音声を集音する。
【0261】
さらに、本体612の操作キー619の上部に回動自在なジョグダイヤル622が、本体612の表面から僅かに突出した状態で設けられている。カメラ付デジタル携帯電話機601は、ジョグダイヤル622に対する回動操作に応じて、液晶ディスプレイ618に表示されている電話帳リスト若しくは電子メールのスクロール動作、簡易ホームページのページ捲り動作、または画像の送り動作等の種々の動作を実行する。
【0262】
例えば、本体612は、使用者によるジョグダイヤル622の回動操作に応じて液晶ディスプレイ618に表示された電話帳リストの複数の電話番号の中から所望の電話番号を選択し、ジョグダイヤル622が本体612の内部方向に押圧されたとき、選択されている電話番号を確定して、確定した電話番号に対して自動的に発呼処理を行う。
【0263】
例えば、液晶ディスプレイ618に複数の候補単語が表示されている状態で、ジョグダイヤル622が回転操作を受けた場合、複数の候補単語の中から、所望の候補単語が選択され、ジョグダイヤル622が本体612側に押圧されたとき、選択されている候補単語が確定される。
【0264】
なお、本体612は、背面側に図示しないバッテリパックが装着されており、終話/電源キーがオン状態になると、バッテリパックから各回路部に対して電力が供給されて動作可能な状態に起動する。
【0265】
ところで、本体612の左側面上部に抜差自在なメモリカード624を装着するためのメモリカードスロット623が設けられている。カメラ付デジタル携帯電話機601は、メモボタン620が押下されると、通話中の相手の音声を装着されているメモリカード624に記録する。カメラ付デジタル携帯電話機601は、使用者の操作に応じて、電子メール、簡易ホームページ、CCDカメラ616で撮像した画像、または音声などのコンテンツを装着されているメモリカード624に記録する。
【0266】
メモリカード624は、例えば、メモリースティック(商標)である。メモリースティックは、本願出願人であるソニー株式会社によって開発されたフラッシュメモリカードの一種である。このメモリカード624は、縦21.5×横50×厚さ2.8[mm] の小型薄型形状のプラスチックケース内に電気的に書換えや消去が可能な不揮発性メモリであるEEPROM(Electrically Erasable and Programmable Read Only Memory )の一種であるフラッシュメモリ素子を格納したものであり、10ピン端子を介して画像や音声、音楽等の各種データの書き込み及び読み出しが可能となっている。
【0267】
またメモリースティックは、大容量化等による内蔵フラッシュメモリの仕様変更に対しても、使用する機器で互換性を確保することができる独自のシリアルプロトコルを採用し、最大書込速度1.5[MB/S] 、最大読出速度2.45[MB/S]の高速性能を実現していると共に、誤消去防止スイッチを設けて高い信頼性を確保している。
【0268】
従って、カメラ付デジタル携帯電話機601は、このようなメモリカード624を装着可能に構成されているために、メモリカード624を介して、他の電子機器との間でデータの共有化を図ることができる。
【0269】
さらに、本体612の左側面下部には、デジタルビデオカメラ20−1および20−2と接続するためのIEEE1394ポートが設けられている。
【0270】
図25に示すように、カメラ付デジタル携帯電話機601は、表示部611および本体612の各部を統括的に制御する主制御部631に対して、電源回路部632、操作入力制御部633、画像エンコーダ634、カメラインターフェース部635、LCD(Liquid Crystal Display)制御部636、画像デコーダ637、多重分離部638、記憶再生部643、変復調回路部639、音声コーデック640、およびIEEE1394インタフェース645がメインバス641を介して互いに接続されると共に、画像エンコーダ634、画像デコーダ637、多重分離部638、変復調回路部639、音声コーデック640、およびIEEE1394インタフェース645が同期バス642を介して互いに接続されて構成されている。
【0271】
電源回路部632は、使用者の操作により終話/電源キーがオン状態にされると、バッテリパックから各部に対して電力を供給することによりカメラ付デジタル携帯電話機601を動作可能な状態に起動する。
【0272】
カメラ付デジタル携帯電話機601は、CPU、ROMおよびRAM等でなる主制御部631の制御に基づいて、音声通話モードにおいて、マイクロフォン621で集音した音声信号を音声コーデック640によってデジタル音声データに変換する。カメラ付デジタル携帯電話機601は、デジタル音声データを変復調回路部639でスペクトラム拡散処理し、送受信回路部644でデジタルアナログ変換処理および周波数変換処理を施した後にアンテナ614を介して送信する。
【0273】
また、カメラ付デジタル携帯電話機601は、音声通話モードにおいて、アンテナ614で受信した受信信号を増幅して周波数変換処理およびアナログデジタル変換処理を施し、変復調回路部639でスペクトラム逆拡散処理し、音声コーデック640によってアナログ音声信号に変換する。カメラ付デジタル携帯電話機601は、アナログ音声信号に対応する音声をスピーカ617に出力させる。
【0274】
さらに、カメラ付デジタル携帯電話機601は、データ通信モードにおいて、コンテンツを送信する場合、操作キー619およびジョグダイヤル622の操作によって入力に対応して指定されたコンテンツを主制御部631に送出する。
【0275】
主制御部631は、コンテンツを変復調回路部639でスペクトラム拡散処理し、送受信回路部644でデジタルアナログ変換処理及び周波数変換処理を施した後にアンテナ614を介して基地局へ送信する。
【0276】
これに対してカメラ付デジタル携帯電話機601は、データ通信モードにおいて、コンテンツを受信する場合、アンテナ614を介して基地局602から受信した受信信号を変復調回路部639でスペクトラム逆拡散処理して、元のコンテンツを復元した後、LCD制御部636を介して液晶ディスプレイ618にコンテンツに対応するデータを表示する。
【0277】
この後、カメラ付デジタル携帯電話機601は、使用者の操作に応じて受信したコンテンツを記憶再生部643を介してメモリカード624に記録することも可能である。
【0278】
カメラ付デジタル携帯電話機601は、データ通信モードにおいて画像データを送信する場合、CCDカメラ616で撮像された画像データをカメラインターフェース部635を介して画像エンコーダ634に供給する。
【0279】
因みにカメラ付デジタル携帯電話機601は、画像データを送信しない場合には、CCDカメラ616で撮像した画像データをカメラインターフェース部635およびLCD制御部636を介して液晶ディスプレイ618に直接表示することも可能である。
【0280】
画像エンコーダ634は、CCDカメラ616から供給された画像データを、例えば、MPEG(Moving Picture Experts Group )2またはMPEG4等の所定の符号化方式によって圧縮符号化することにより符号化画像データに変換し、これを多重分離部638に送出する。
【0281】
このとき同時にカメラ付デジタル携帯電話機601は、CCDカメラ616で撮像中にマイクロフォン621で集音した音声を音声コーデック640を介してデジタルの音声データとして多重分離部638に送出する。
【0282】
多重分離部638は、画像エンコーダ634から供給された符号化画像データと音声コーデック640から供給された音声データとを所定の方式で多重化し、その結果得られる多重化データを変復調回路部639でスペクトラム拡散処理し、送受信回路部644でデジタルアナログ変換処理及び周波数変換処理を施した後にアンテナ614を介して送信する。
【0283】
これに対してカメラ付デジタル携帯電話機601は、データ通信モードにおいて、例えば、簡易ホームページ等にリンクされた動画像ファイルのデータを受信する場合、アンテナ614を介して基地局から受信した受信信号を変復調回路部639でスペクトラム逆拡散処理し、その結果得られる多重化データを多重分離部638に送出する。
【0284】
多重分離部638は、多重化データを符号化画像データと音声データとに分離し、同期バス642を介して、符号化画像データを画像デコーダ637に供給すると共に、音声データを音声コーデック640に供給する。
【0285】
画像デコーダ637は、符号化画像データをMPEG2またはMPEG4等の所定の符号化方式に対応した復号方式でデコードすることにより再生動画像データを生成し、これをLCD制御部636を介して液晶ディスプレイ618に供給する。これにより、カメラ付デジタル携帯電話機601は、例えば、簡易ホームページにリンクされた動画像ファイルに含まれる動画データを表示する。
【0286】
このとき同時に音声コーデック640は、音声データをアナログ音声信号に変換した後、これをスピーカ617に供給する。これにより、カメラ付デジタル携帯電話機601は、例えば、簡易ホームページにリンクされた動画像ファイルに含まる音声データを再生する。
【0287】
IEEE1394インタフェース645は、IEEE1394ポート625を介して、デジタルビデオカメラ20から供給された画像データまたは音声データを受信し、受信した画像データまたは音声データを、主制御部631に供給する。
【0288】
図26は、主制御部631が実行するプログラムを説明する図である。
【0289】
オペレーティングシステム661は、カメラ付デジタル携帯電話機601の基本的な動作を管理するためのプログラムである。
【0290】
コンテンツ配信プログラム662は、インタネット11を介して、ストリーミングサーバ17のストリーミング配信機能を使用する時間帯の予約をサーバ使用予約管理センタ14に要求する。
【0291】
コンテンツ配信プログラム662は、パーソナルキャスティングにおける放送開始を基準とした時間の経過に対応して、CCDカメラ616で撮像した画像に対応する画像データ若しくはマイクロフォン621で取得した音声に対応する音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、またはメモリカード624に記憶されている、動画ファイル663−1乃至663−Pのそれぞれに格納されている画像データ、静止画ファイル664−1乃至664−Qのそれぞれに格納されている画像データ、若しくは音声ファイル665−1乃至665−Rのそれぞれに格納されている音声データの選択を決定する。
【0292】
コンテンツ配信プログラム662は、選択された、CCDカメラ616で撮像した画像に対応する画像データ若しくはマイクロフォン621で取得した音声に対応する音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、またはメモリカード624に記憶されている、動画ファイル663−1乃至663−Pのそれぞれに格納されている画像データ、静止画ファイル664−1乃至664−Qのそれぞれに格納されている画像データ、若しくは音声ファイル665−1乃至665−Rのそれぞれに格納されている音声データに適用する画像処理または音声処理(いわゆる、エフェクト)の選択を決定する。
【0293】
コンテンツ配信プログラム662は、パーソナルキャスティングにおける放送開始を基準とした時間の経過に対応して、画像データまたは音声データの選択、および選択された画像データまたは音声データに適用するエフェクトの選択をシナリオファイル666−1乃至666−Sのいずれか1つに記録する。
【0294】
コンテンツ配信プログラム662は、ストリーミングサーバ17にコンテンツを供給する前に、シナリオファイル666−1乃至666−Sのいずれか1つを基に、CCDカメラ616で撮像した画像に対応する画像データ若しくはマイクロフォン621で取得した音声に対応する音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、またはメモリカード624に記憶されている、動画ファイル663−1乃至663−Pのそれぞれに格納されている画像データ、静止画ファイル664−1乃至664−Qのそれぞれに格納されている画像データ、若しくは音声ファイル665−1乃至665−Rのそれぞれに格納されている音声データから、ストリーミングデータである、画像データおよび音声データからなるコンテンツを生成し、生成したコンテンツに対応する画像を液晶ディスプレイ618に表示させると共に、スピーカ617に音声を出力させる。
【0295】
コンテンツ配信プログラム662は、ストリーミングサーバ17にコンテンツを供給するとき、すなわち、パーソナルキャスティングを実行するとき、予め選択したシナリオファイル666−1乃至666−Sのいずれか1つを基に、CCDカメラ616で撮像した画像に対応する画像データ若しくはマイクロフォン621で取得した音声に対応する音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、またはメモリカード624に記憶されている、動画ファイル663−1乃至663−Pのそれぞれに格納されている画像データ、静止画ファイル664−1乃至664−Qのそれぞれに格納されている画像データ、若しくは音声ファイル665−1乃至665−Rのそれぞれに格納されている音声データから、ストリーミングデータである、画像データおよび音声データからなるコンテンツをリアルタイムに生成する。
【0296】
コンテンツ配信プログラム662は、リアルタイムに生成したコンテンツを、ストリーミングサーバ17にリアルタイムに送信する。
【0297】
シナリオファイル666−1乃至666−Sは、シナリオファイル178乃至178−Mと同様なので、その詳細の説明は省略する。
【0298】
コンテンツ配信プログラム662の処理の詳細は、図16乃至図21のフローチャートを参照して説明した処理と同様なのでその説明は省略する。
【0299】
なお、パーソナルコンピュータ13またはカメラ付デジタル携帯電話機601がコンテンツを配信すると説明したが、パーソナルコンピュータ13またはカメラ付デジタル携帯電話機601に限らず、PDA(Personal Digital Assistant)またデジタルビデオカメラなど他の機器でもよい。
【0300】
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
【0301】
この記録媒体は、図6に示すように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク14(フレキシブルディスクを含む)、光ディスク142(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク143(MD(商標)(Mini-Disc)を含む)、半導体メモリ144、若しくはメモリカード624などよりなるパッケージメディアにより構成されるだけでなく、コンピュータに予め組み込まれた状態でユーザに提供される、プログラムが記録されているROMや、HDD106に含まれるハードディスクなどで構成される。
【0302】
なお、上述した一連の処理を実行させるプログラムは、必要に応じてルータ、モデムなどのインタフェースを介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を介してコンピュータにインストールされるようにしてもよい。
【0303】
また、本明細書において、記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0304】
なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【0305】
【発明の効果】
本発明の情報処理装置および方法、並びにプログラムによれば、サーバへのコンテンツの予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および画像データに対する画像処理の適用の設定を示すシナリオデータが生成され、所定の撮像手段から供給される画像データであるライブ画像データが取得され、予め記録された画像データである記録画像データが所定の記録手段から読み出して取得され、ライブ画像データの取得と、記録画像データの取得とが、シナリオデータに従って、サーバへのコンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替えられ、シナリオデータに従って、取得されたライブ画像データまたは記録画像データに対して設定された画像処理が適用されて、サーバに配信するコンテンツが生成され、生成されたコンテンツのサーバへの配信が制御されるようにしたので、確実に、所望の画像の切り換えおよび効果の適用ができるようになる。
【図面の簡単な説明】
【図1】本発明に係るコンテンツ配信システム1の一実施の形態の構成を示す図である。
【図2】パーソナルコンピュータ13の外観を示す図である。
【図3】パーソナルコンピュータ13の外観を示す図である。
【図4】パーソナルコンピュータ13の外観を示す図である。
【図5】パーソナルコンピュータ13の外観を示す図である。
【図6】パーソナルコンピュータ13の構成の例を示すブロック図である。
【図7】パーソナルコンピュータ13が実行するプログラムを説明するブロック図である。
【図8】コンテンツ配信プログラム174の構成を示すブロック図である。
【図9】ストリーミングサーバ17の構成を説明するブロック図である。
【図10】ストリーミングサーバ17が実行するプログラムを説明するブロック図である。
【図11】パーソナルコンピュータ16の構成を説明するブロック図である。
【図12】パーソナルコンピュータ16が実行するプログラムを説明するブロック図である。
【図13】コンテンツ配信プログラム174がLCD54に表示させる画像の例を示す図である。
【図14】ソースの選択またはエフェクトの選択に対応する時刻を説明する図である。
【図15】シナリオファイル178の例を示す図である。
【図16】コンテンツの配信の処理を説明するフローチャートである。
【図17】ソースの選択の設定の処理を説明するフローチャートである。
【図18】エフェクトの設定の処理を説明するフローチャートである。
【図19】プレビューの処理を説明するフローチャートである。
【図20】送信の処理を説明するフローチャートである。
【図21】コンテンツの配信の処理を説明するフローチャートである。
【図22】本発明に係るコンテンツ配信システム1の他の実施の形態の構成を示す図である。
【図23】カメラ付デジタル携帯電話機601の外観を示す図である。
【図24】カメラ部615を説明する図である。
【図25】カメラ付デジタル携帯電話機601の構成を説明するブロック図である。
【図26】カメラ付デジタル携帯電話機601が実行するプログラムの構成を説明するブロック図である。
【符号の説明】
11 インタネット, 13 パーソナルコンピュータ, 54 LCD, 59 デジタルビデオカメラ, 61 マイクロフォン, 101 CPU, 103 RAM, 106 HDD, 108 スピーカ, 114 AVアナログインタフェース, 115 IEEE1394インタフェース, 116 チューナ, 118 モデム, 141 磁気ディスク, 142 光ディスク, 143 光磁気ディスク, 144 半導体メモリ, 152 LANインタフェース, 172 デバイスドライバ, 173 通信プログラム, 174 コンテンツ配信プログラム, 175−1乃至175−J 動画ファイル, 176−1乃至176−K 静止画ファイル, 177−1乃至177−N 音声ファイル, 178−1乃至178−M シナリオファイル, 601 カメラ付デジタル携帯電話機601, 616 CCDカメラ, 618 液晶ディスプレイ, 621 マイクロフォン, 624 メモリカード, 631 主制御部, 662 コンテンツ配信プログラム, 663−1乃至663−P 動画ファイル, 664−1乃至664−Q 静止画ファイル, 665−1乃至665−R 音声ファイル, 666−1乃至666−S シナリオファイル
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information processing apparatus and method, and a program, and more particularly, to an information processing apparatus and method for distributing content, and a program.
[0002]
[Prior art]
A system for distributing content from a personal computer to another personal computer via a network such as the Internet is used.
[0003]
[Problems to be solved by the invention]
However, when a so-called live image is captured and the captured image is distributed as content, switching of the source, such as a camera or microphone to be imaged, or an effect on the captured image, so-called effect distribution, distributes the content. While doing so, I had to manually instruct the personal computer to deliver the content.
[0004]
For this reason, when distributing live content that appears on its own, it is impossible to switch sources or select a desired effect. Moreover, even when content is distributed by multiple people, it is not possible to eliminate operational mistakes. When content is distributed repeatedly, the procedure for switching sources is the same or the procedure for applying effects is the same. Even if there was, there was a problem that it had to be operated each time and was troublesome.
[0005]
The present invention has been made in view of such a situation, and an object thereof is to ensure that a desired source can be switched and an effect can be applied.
[0006]
[Means for Solving the Problems]
  The information processing apparatus of the present inventionBased on content reservation to serverCorresponding to the time relative to the start of delivery,Image data selection settingsAnd image processing for image dataScenario data generation means for generating scenario data indicating the setting of application, first image data acquisition means for acquiring live image data that is image data supplied from a predetermined imaging means, and prerecorded image data The second image data acquisition unit that reads and acquires the recorded image data from the predetermined recording unit, the acquisition of the image data by the first image data acquisition unit, and the acquisition of the image data by the second image data acquisition unit According to the scenario data, switching means corresponding to the elapsed time from the time on the basis of the start of distribution of the content to the server, and the first image data acquisition means or the second image data according to the scenario data Applying the set image processing to the image data acquired by the acquisition means, It includes a content generation means for forming, and a distribution control means for controlling the delivery to the server generated contentIt is characterized by that.
[0007]
  An imaging unit is further provided, and the first image data acquisition unit can acquire live image data supplied from its own imaging unit.
[0008]
  A first audio data acquisition unit that acquires live audio data that is audio data supplied from a predetermined audio acquisition unit; and a first audio data acquisition unit that reads out and acquires recorded audio data that is audio data recorded in advance from the predetermined recording unit. The voice data acquisition means of the second voice data acquisition means and the voice data acquisition of the voice data acquisition means of the second voice data acquisition means according to the scenario data. Can be switched in accordance with the elapsed time from the time on the basis of the start of the distribution of the content to.
  Before delivering the content, it is possible to further provide a preview control means for controlling the reproduction of the content on the basis of a virtual time having a desired magnification with respect to the actual time.
[0009]
  The information processing method of the present invention includes:Based on content reservation to serverCorresponding to the time relative to the start of delivery,Image data selection settingsAnd image processing for image dataA scenario data generation step for generating scenario data indicating application settings, a first image data acquisition step for acquiring live image data that is image data supplied from a predetermined imaging means, and prerecorded image data A second image data acquisition step for reading out and acquiring recorded image data from a predetermined recording means, acquisition of image data in the first image data acquisition step, and acquisition of image data in the second image data acquisition step In accordance with the scenario data in accordance with the elapsed time from the time based on the start of the distribution of the content to the server, and the first image data acquisition step or the second image data in accordance with the scenario data The image processing set for the image data acquired in the acquisition step And use a content generating step of generating a content to be distributed to the server, a distribution control step of controlling the delivery to the server generated contentIt is characterized by including.
[0010]
  The program of the present invention is stored in a computer.Based on content reservation to serverCorresponding to the time relative to the start of delivery,Image data selection settingsAnd image processing for image dataA scenario data generation step for generating scenario data indicating application settings, a first image data acquisition step for acquiring live image data that is image data supplied from a predetermined imaging means, and prerecorded image data A second image data acquisition step for reading out and acquiring recorded image data from a predetermined recording means, acquisition of image data in the first image data acquisition step, and acquisition of image data in the second image data acquisition step In accordance with the scenario data in accordance with the elapsed time from the time based on the start of the distribution of the content to the server, and the first image data acquisition step or the second image data in accordance with the scenario data The image processing set for the image data acquired in the acquisition step And use to execute a content generating step of generating a content to be distributed to the server, and a distribution control step of controlling the distribution of the server in the generated content.
[0011]
  In the information processing apparatus and method and program of the present invention,Based on content reservation to serverCorresponding to the time relative to the start of delivery,Image data selection settingsAnd image processing for image dataScenario data indicating the setting of the application is generated, live image data that is image data supplied from a predetermined imaging unit is acquired, and recorded image data that is pre-recorded image data is read from the predetermined recording unit Acquired, acquisition of live image data and acquisition of recorded image data are switched according to the elapsed time from the time based on the start of distribution of content to the server according to the scenario data, and according to the scenario data, The set image processing is applied to the obtained live image data or recorded image data to generate content to be distributed to the server, and the distribution of the generated content to the server is controlled.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a diagram showing a configuration of an embodiment of a content distribution system 1 according to the present invention. The content distribution system 1 is a system that executes personal casting.
[0013]
The content distribution system 1 includes a personal computer 13, a server use reservation management center 14, a server connection dedicated network 15, and a personal computer as a client via an Internet 11, a public line network 12, and an ISP (Internet Service Provider) (not shown). 16-1 to 16-3 and the streaming server 17 are included.
[0014]
The dedicated line 18 connects the server use reservation management center 14 and the streaming server 17.
[0015]
The public line network 12 includes an ADSL (Asymmetric Digital Subscriber Line) network 31-1, a cable television network 31-2, or a telephone line network 31-3.
[0016]
The personal computer 13 acquires a program broadcast from a broadcast station (not shown) via the antenna 19 and also supplies image data supplied from the digital video camera 20-1 or 20-2 connected via the network. Get audio data.
[0017]
The personal computer 13 further acquires an image signal from the video camera 21 and an audio signal from the microphone 22 via the analog interface.
[0018]
The personal computer 13 stores recorded image data or audio data, a received program, image data or audio data acquired from the digital video camera 20-1 or 20-2, an image signal acquired from the video camera 21, or a microphone 22. Content to be distributed to the personal computers 16-1 to 16-3 is generated based on the audio signal acquired from the above.
[0019]
When the personal computer 13 supplies the generated content to the streaming server 17, for example, the PPP (Point-to-To) is connected to the access port of the server connection dedicated network 15 via the telephone line network 31-3 of the public line network 13. Point Protocol) is established and a transmission path with the streaming server 17 is established. The personal computer 13 can reliably transmit the content to the streaming server 17 via the transmission path by the server connection dedicated network 15.
[0020]
The personal computer 13 transmits the content to the streaming server 17 via the established transmission path.
[0021]
The personal computer 13 is recorded in real time with recorded image data or audio data, received program, image data or audio data acquired from the digital video camera 20-1 or 20-2, image signal acquired from the video camera 21, Alternatively, content to be distributed to the personal computers 16-1 to 16-3 is generated based on the audio signal acquired from the microphone 22, and the content is transmitted to the streaming server 17 in real time via the established transmission path.
[0022]
The personal computer 13 may be connected to the streaming server 17 via the Internet 11, the public line network 12, and an ISP (not shown). The personal computer 13 may transmit the content to the streaming server 17 via one transmission path among the ADSL network 31-1, the cable television network 31-2, and the telephone line network 31-3.
[0023]
The server use reservation management center 14 reserves the streaming server 17 to use the streaming distribution function based on the reservation for the time zone in which the streaming distribution function of the streaming server 17 is requested, which is requested from the personal computer 13.
[0024]
The streaming server 17 transmits the content transmitted from the personal computer 13 through the Internet 11 in a predetermined time zone in which the use of the streaming distribution function is reserved, by a so-called stream, to the personal computers 16-1 to 16-3. In real time.
[0025]
The personal computer 16-1 receives the content that is a stream transmitted from the streaming server 17 via the Internet 11, and displays an image and outputs a sound based on the received content.
[0026]
The personal computer 16-2 receives content that is a stream transmitted from the streaming server 17 via the Internet 11, and displays an image and outputs sound based on the received content.
[0027]
The personal computer 16-3 receives the content that is a stream transmitted from the streaming server 17 via the Internet 11, and displays an image and outputs a sound based on the received content.
[0028]
That is, the content distribution system 1 realizes personal broadcasting, that is, personal casting, by providing the content transmitted by the streaming server 17 from the personal computer 13 in real time to the personal computers 16-1 to 16-3 in real time. .
[0029]
The personal computer 13, the personal computers 16-1 to 16-3, and the streaming server 17 exchange authentication data with each other via the dedicated line 18 when performing mutual authentication.
[0030]
The personal computer 13 records image data or audio data, a received program, an image acquired from the digital video camera 20-1 or 20-2 in response to the passage of time based on the start of broadcasting in personal casting. Data or audio data, an image signal acquired from the video camera 21 or an audio signal acquired from the microphone 22 is determined, and the selected recorded image data or audio data, received program, digital video camera 20 -1 or 20-2, image processing or audio processing to be applied to image data or audio data, an image signal acquired from the video camera 21, or an audio signal acquired from the microphone 22 is preset.
[0031]
Hereinafter, recorded image data or audio data, received program, image data or audio data acquired from the digital video camera 20-1 or 20-2, image signal acquired from the video camera 21, or acquired from the microphone 22 An audio signal is also referred to as a source.
[0032]
Hereinafter, image processing or sound processing applied to an image or sound is also referred to as an effect or an effect.
[0033]
Before supplying content to the streaming server 17, the personal computer 13 records image data or audio data, received program, digital video camera 20-1 based on selection of a predetermined source and selection of an effect. Alternatively, content is generated from the image data or audio data acquired from 20-2, the image signal acquired from the video camera 21, or the audio signal acquired from the microphone 22, and an image corresponding to the generated content is displayed and the audio is displayed. Is output.
[0034]
Before supplying the content to the streaming server 17, the content is generated based on the selection of the predetermined source and the selection of the effect, the image corresponding to the generated content is displayed, and the process of outputting the sound is also referred to as the preview. Called.
[0035]
When the personal computer 13 supplies the content to the streaming server 17, that is, when performing personal casting, the personal computer 13 receives the recorded image data or audio data based on the selection of the source and the effect selected in advance. Content is generated in real time from a program, image data or audio data acquired from the digital video camera 20-1 or 20-2, an image signal acquired from the video camera 21, or an audio signal acquired from the microphone 22.
[0036]
The antenna 19 receives a radio wave broadcast from a broadcast station (not shown) and supplies a signal corresponding to the received radio wave to the personal computer 13.
[0037]
The digital video camera 20-1 supplies image data corresponding to the captured moving image or still image, which is digital data, to the personal computer 13 via the network, and also acquires the acquired audio data, which is digital data. The data is supplied to the personal computer 13 via the network.
[0038]
The digital video camera 20-2 supplies image data corresponding to the captured moving image or still image, which is digital data, to the personal computer 13 via the network, and also acquires the acquired audio data, which is digital data. The data is supplied to the personal computer 13 via the network.
[0039]
The video camera 21 supplies an image signal corresponding to the captured moving image or still image, which is an analog signal, to the personal computer 13. The microphone 22 supplies the acquired audio signal, which is an analog signal, to the personal computer 13.
[0040]
Hereinafter, when it is not necessary to distinguish the personal computers 16-1 to 16-3 from each other, they are simply referred to as personal computers 16.
[0041]
Hereinafter, when it is not necessary to distinguish the digital video cameras 20-1 and 20-2 from each other, they are simply referred to as a digital video camera 20.
[0042]
2 to 5 are views showing the external appearance of the personal computer 13.
[0043]
FIG. 2 is a front view of the personal computer 13 in which the display unit 51 is opened with respect to the main body 52.
[0044]
The display unit 51 is connected to the main body 52 through a hinge unit 53 so as to be freely opened and closed. The display unit 51 is provided with an LCD (Liquid Crystal Display) 54 for displaying images or characters. The main body 52 is provided with a keyboard 55 for inputting characters or commands to the personal computer 13.
[0045]
The display unit 51 is connected to the main body 52 by a hinge unit 53 so as to be rotatable in the direction of an arrow a in the drawing.
[0046]
As shown in FIG. 3, the display unit 51 can be rotated with respect to the main body 52 so that the display surface of the LCD 54 and the upper surface of the keyboard 55 face in substantially the same direction.
[0047]
The jog dial 56 is provided on the upper right side of the display unit 54, and gives an instruction for selecting an icon or starting a program to the personal computer 13 by rotating or pressing the left side in the drawing.
[0048]
On the right side of the main body 52, an operation button 58 and an imaging unit 57 including a digital video camera 59 are provided.
[0049]
In response to the operation of the jog dial 56 or the operation button 58, the personal computer 13 causes the digital video camera 59 to start shooting, stop shooting, or change the focal length (so-called zoom in or zoom out). A predetermined effect is applied to the captured image, image data corresponding to the captured image is stored, or image data corresponding to the captured image is transmitted.
[0050]
A pointing device 60 is provided on the front side of the main body 52 to give commands such as icon selection and program activation.
[0051]
A microphone 61 for acquiring sound is provided on the upper side of the display unit 51.
[0052]
Further, the digital video camera 59 is rotatably connected to the main body 52 in the direction of the arrow b in FIG.
[0053]
As shown in FIG. 4, the display unit 51 is rotated so that the display surface of the LCD 54 and the upper surface of the keyboard 55 face in substantially the same direction, and the display unit 51 is closed with respect to the main body 52. By pointing 59 toward the user, the personal computer 13 can take an image of the user. At this time, since the personal computer 13 can display the image of the user who is taking an image on the display unit 51, the user can take an image of himself / herself while confirming the contents.
[0054]
In this case, the user can cause the personal computer 13 to execute imaging or stop the operation using the jog dial 56 or the operation button 58.
[0055]
On the other hand, as shown in FIG. 5, the display unit 51 is rotated so that the display surface of the LCD 54 and the upper surface of the keyboard 55 face in substantially the same direction, and the display unit 51 is closed with respect to the main body 52. By directing the video camera 59 toward the front side of the user, the personal computer 13 can image an object located in front of the user.
[0056]
Next, an example of the configuration of the personal computer 13 will be described with reference to the block diagram shown in FIG.
[0057]
A central processing unit (CPU (Central Processing Unit)) 101 executes an operating system or various application programs and actually executes various processes. The CPU 101 is configured by, for example, a Pentium (Pentium®) processor manufactured by Intel. The CPU 101 is connected to the hub 102 via a host bus (processor bus).
[0058]
The hub 102 has an AGP (Accelerated Graphics Port) interface, a memory interface, and the like, and controls transmission of data such as a CPU 101 and a RAM (Random-Access Memory) 103 (so-called main memory). The hub 102 controls data transmission with the video controller 104 via AGP. The hub 102 is, for example, an Intel 82850 Memory Controller Hub.
[0059]
The RAM 103 is constituted by, for example, a DRAM (Dynamic RAM), and stores a program executed by the CPU 101 or data necessary for the operation of the CPU 101. Specifically, for example, the RAM 103 stores an operating system, a content distribution program, and the like, which will be described later, loaded from the HDD 106 when activation is completed.
[0060]
The operating system (Operating System) is, for example, a basic operation of a computer represented by a so-called Windows (registered trademark) XP of Microsoft Corporation or a so-called Mac OS (trademark) of Apple Computer Corporation. It is a program that controls.
[0061]
The video controller 104 is connected to the hub 102 via the AGP, receives data (such as image data or text data) supplied from the CPU 101 via the AGP and the hub 102, and corresponds to the received data. Image data is generated or the received data is stored as it is in a built-in video memory. The video controller 104 causes an LCD (Liquid Crystal Display) 54 of the display unit 51 to display an image corresponding to the image data stored in the video memory.
[0062]
The LCD 54 displays images or characters based on the data supplied from the video controller 104.
[0063]
A hub 105 is further connected to the hub 102 via a hub interface.
[0064]
The hub 105 includes an IDE (Integrated Drive Electronics) interface 151, a LAN (Local Area Network) interface 152, a USB (Universal Serial Bus) interface 153, an RTC (Real Time Clock) 154, a firmware hub interface 155, an audio signal interface 156, and a PCI. (Peripheral Component Interconnect) interface 157, LPC (Low Pin Count) interface 158, power supply control circuit 159, and the like.
[0065]
The hub 105 is made of, for example, Intel 8281BA I / O Controller Hub 2 and the like, and the hub 102 and the hub 105 constitute a so-called chipset system.
[0066]
The IDE interface 151 includes an IDE controller / configuration register, two IDE controllers, a so-called primary IDE controller and a secondary IDE controller, a configuration register, and the like.
[0067]
An HDD (Hard Disk Drive) 106 is connected to the primary IDE controller of the IDE interface 151 via an IDE bus.
[0068]
The HDD 106 records various programs or data such as an operating system and a text input program. The operating system, content distribution program, and the like recorded in the HDD 106 are sequentially supplied to and loaded into the RAM 103 in the process of startup (boot-up) processing, for example.
[0069]
The LAN interface 152 is an interface for connecting to a local area network. The personal computer 13 can be connected to the Internet 11 via a local area network connected by a LAN interface 152.
[0070]
The USB interface 153 transmits data to the connected external device via the USB port and receives data from the device.
[0071]
The RTC 154 measures time and provides data indicating the current time.
[0072]
The firmware hub interface 155 is an interface for connecting to the firmware hub 119. The firmware hub 119 is a BIOS (Basic Input / Output System) that controls data transfer (input / output) between an operating system or application program and peripheral devices (such as the keyboard 55, the pointing device 60, or the HDD 106). Output system)). When the personal computer is activated, the firmware hub interface 155 acquires the BIOS from the firmware hub 119.
[0073]
A sound controller 107 is connected to the audio signal interface 156. The sound controller 107 takes in a signal corresponding to sound from the microphone 61, generates data corresponding to sound, and outputs the data to the RAM 103. Alternatively, the sound controller 107 drives the speaker 108 and causes the speaker 108 to output sound.
[0074]
The PCI interface 157 includes an interface 109, a memory card interface 111, an interface 112, an MPEG (Moving Pictures Experts Group) 2 encoder / decoder 113, and an AV (Audio Visual) via a PCI bus for connecting a built-in general-purpose device. An analog interface 114, an IEEE (Institute of Electrical and Electronic Engineers) 1394 interface 115, and a tuner 116 are connected.
[0075]
The interface 109 writes a program or data in various recording media or storage media such as a SCSI (Small Computer System Interface) interface or an IEEE1394 interface, or is recorded or stored in various recording media or storage media. Or it is an interface for connecting the drive 110 for reading data.
[0076]
The drive 110 reads a program or data recorded in the mounted magnetic disk 141, optical disk 142, magneto-optical disk 143, or semiconductor memory 144, and reads the read program or data as an interface 109, a PCI bus, and a PCI interface. The data is supplied to the CPU 101 or RAM 103 via 157 or the like.
[0077]
The memory card interface 111 writes a program or data in a memory card (for example, Memory Stick (trademark)) installed in a memory card slot (not shown), and reads out the program or data stored in the installed memory card. Interface.
[0078]
The interface 112 is an interface for connecting the digital video camera 59. The digital video camera 59 supplies image data of captured images to the CPU 101 via the interface 112, the PCI bus, the PCI interface 157, and the like.
[0079]
The MPEG2 encoder / decoder 113 compresses and encodes image data or audio data supplied from the AV analog interface 114, IEEE1394 interface 115, or tuner 116, and supplies the compressed image data or audio data to the HDD 106. Alternatively, the data is supplied to the LAN interface 152 or the modem 118.
[0080]
The MPEG2 encoder / decoder 113 expands the compressed and encoded image data or audio data supplied from the HDD 106 and supplies the expanded image data or audio data to the RAM 103, video controller 104, or sound controller 107.
[0081]
The AV analog interface 114 is an interface for acquiring an image signal that is an analog signal supplied from the video camera 21 and an audio signal that is an analog signal supplied from the microphone 22. The AV analog interface 114 generates image data corresponding to the acquired image signal, which is an analog signal, and supplies the image data to the RAM 103 or the MPEG2 encoder / decoder 113.
[0082]
The AV analog interface 114 generates audio data corresponding to the acquired audio signal that is an analog signal, and supplies the audio data to the RAM 103 or the MPEG2 encoder / decoder 113.
[0083]
The IEEE1394 interface 115 is an interface for connecting to the digital video camera 20 via a network based on the IEEE1394 standard.
[0084]
The tuner 116 supplies the image data and audio data corresponding to the program of the selected channel to the MPEG2 encoder / decoder 113 based on the signal supplied from the antenna 19, or via the hub 105 or the hub 102. The video controller 104 or the sound controller 107 is supplied.
[0085]
An interface 117 for connecting a relatively low speed device is connected to the LPC interface 158. The interface 117 acquires signals corresponding to operations and the like supplied from the keyboard 55, the pointing device 60, the modem 118, and the like, supplies the acquired signals to the LPC interface 158, and signals supplied from the LPC interface 158 The modem 118 is instructed to communicate data.
[0086]
The modem 118 is a modem for connecting to the ADSL network 31-1, the cable television network 31-2, or the telephone line network 31-3. The personal computer 13 is connected to the Internet 11 via an ADSL network 31-1, a cable television network 31-2, or a telephone line network 31-3 connected by a modem 118.
[0087]
The personal computer 13 is connected to the streaming server 17 via the telephone line network 31-3 and the server connection dedicated network 15 connected by the modem 118.
[0088]
The power control circuit 159 is connected to the battery 120, supplies necessary power to each block, and based on a signal from a power switch operated when the power is turned on or off or an instruction from the CPU 101 Control the power on or off. The power supply control circuit 159 controls charging of the battery 120.
[0089]
FIG. 7 is a block diagram illustrating a program executed by the personal computer 13.
[0090]
The operating system 171 is a program for managing basic operations of the personal computer 13.
[0091]
The device driver 172 is a program that controls the digital video camera 59, the sound controller 107, the IEEE1394 interface 115, and the AV analog interface 114 based on the control of the operating system 171 and the request of the content distribution program 174. The device driver 172 includes image data of an image captured by the digital video camera 59, audio data of audio acquired by the microphone 61, image data or audio data supplied from the digital video camera 20 via the IEEE1394 interface 115, or AV. Image data or audio data corresponding to the image signal supplied from the video camera 21 or the audio signal supplied from the microphone 22 via the analog interface 114 is supplied to the content distribution program 174.
[0092]
The communication program 173 controls the LAN interface 152 or the modem 118, and supplies the content supplied from the content distribution program 174 to the streaming server 17 via the telephone line network 31-3 and the server connection dedicated network 15.
[0093]
The content distribution program 174 causes the server use reservation management center 14 to request the communication program 173 to make a reservation for a time zone in which the streaming distribution function of the streaming server 17 is used via the public network 12 and the Internet 11.
[0094]
The content distribution program 174 includes image data or audio data supplied from the tuner 116, image data or audio data supplied from the digital video camera 20 via the IEEE1394 interface 115, corresponding to the elapsed time from the start of broadcasting in personal casting. Via the AV analog interface 114, image data corresponding to the image signal supplied from the video camera 21, audio data corresponding to the audio signal supplied from the microphone 22, or a moving image file 175-1 recorded in the HDD 106 Through 175-J, image data stored in still image files 176-1 through 176-K, or audio files 177-1 through 177-N, respectively. Determine the selection of the audio data that is being used.
[0095]
The content distribution program 174 selects the image data or audio data supplied from the tuner 116, the image data or audio data supplied from the digital video camera 20 via the IEEE1394 interface 115, and the video via the AV analog interface 114. The image data corresponding to the image signal supplied from the camera 21, the audio data corresponding to the audio signal supplied from the microphone 22, or the moving image files 175-1 to 175-J recorded in the HDD 106 are stored. Image processing applied to image data stored in each of the image data stored in each of the still image files 176-1 to 176-K, or audio data stored in each of the audio files 177-1 to 177-N, or Audio processing ( The selection of so-called effects is determined.
[0096]
The content distribution program 174 selects image data or audio data (including selection of an input interface or input port) and the selected image data or audio in response to the passage of time based on the start of broadcasting in personal casting. The selection of the effect to be applied to the data is recorded in any one of the scenario files 178-1 to 178-M.
[0097]
Before the content is delivered to the streaming server 17, the content distribution program 174 is based on any one of the scenario files 178-1 to 178-M, the image data or audio data supplied from the tuner 116, and the IEEE1394 interface 115. Corresponding to image data or audio data supplied from the digital video camera 20 via the AV, image data corresponding to the image signal supplied from the video camera 21 via the AV analog interface 114, or audio signal supplied from the microphone 22. Audio data, or image data stored in each of the moving image files 175-1 to 175-J recorded in the HDD 106, image data stored in each of the still image files 176-1 to 176-K, Or voice From the audio data stored in each of the files 177-1 to 177-N, content including streaming data, which is image data and audio data, is generated, and an image corresponding to the generated content is displayed on the LCD 54. Sound is output from the speaker 108.
[0098]
When the content distribution program 174 supplies content to the streaming server 17, that is, when performing personal casting, the content distribution program 174 supplies from the tuner 116 based on any one of the scenario files 178-1 to 178-M selected in advance. Image data or audio data, image data or audio data supplied from the digital video camera 20 via the IEEE1394 interface 115, image data corresponding to an image signal supplied from the video camera 21 via the AV analog interface 114, or Audio data corresponding to the audio signal supplied from the microphone 22 or image data stored in each of the moving image files 175-1 to 175-J and the still image file 176-1 From the image data stored in each of 176-K or the audio data stored in each of the audio files 177-1 to 177-N, the content composed of the image data and the audio data, which is streaming data, is real-time. To generate.
[0099]
The content distribution program 174 causes the communication program 173 to supply content generated in real time to the streaming server 17 in real time.
[0100]
Hereinafter, when it is not necessary to individually distinguish the scenario files 178-1 to 178-M, they are simply referred to as scenario files 178.
[0101]
FIG. 8 is a block diagram showing the configuration of the content distribution program 174.
[0102]
Based on the control of the source selection effect setting module 186, the input module 181 is image data or audio data supplied from the tuner 116, image data or audio data supplied from the digital video camera 20 via the IEEE1394 interface 115, AV Image data corresponding to the image signal supplied from the video camera 21 via the analog interface 114, audio data corresponding to the audio signal supplied from the microphone 22, or moving image files 175-1 to 175 recorded in the HDD 106 -J stored in each of the image data, image data stored in each of the still image files 176-1 through 176-K, or audio stored in each of the audio files 177-1 through 177-N. Day Image data or audio data is selected from the data, and the selected image data or audio data is input. The input module 181 outputs the input image data or audio data to the effect module 182.
[0103]
The input module 181 does not supply any image data to the effect module 182, supplies one image data, or supplies a plurality of image data based on the control of the source selection effect setting module 186. Similarly, the input module 181 does not supply any audio data to the effect module 182, supplies one audio data, or supplies a plurality of audio data based on the control of the source selection effect setting module 186. .
[0104]
The effect module 182 applies, for example, a wipe effect or a dissolve effect to the image data supplied from the input module 181 based on the control of the source selection effect setting module 186 and applies a predetermined effect to the image data. Data is supplied to distribution module 183.
[0105]
The effect module 182 also applies a predetermined effect to the audio data supplied from the input module 181 based on the control of the source selection effect setting module 186, and encodes the audio data to which the predetermined effect is applied with the preview module 184. Output to module 185.
[0106]
The distribution module 183 distributes the image data supplied from the effect module 182 to the preview module 184 and the encoding module 185 and outputs the result.
[0107]
The preview module 184 displays a preview image on the LCD 54 based on the image data supplied from the effect module 182, and outputs audio to the speaker 108 based on the audio data supplied from the effect module 182.
[0108]
The encoding module 185 causes the MPEG2 encoder / decoder 113 to compress and encode the audio data supplied from the effect module 182 and the image data supplied from the distribution module 183, and the resulting data is transmitted to the device driver 172 and the communication. Output to the program 173.
[0109]
The source selection effect setting module 186 controls the selection of image data or audio data of the input module 181 based on one of the scenario files 178-1 to 178-M recorded in the HDD 106, and also controls the effect module 182. Controls the process of applying effects.
[0110]
The source selection effect setting module 186 sets the selection of image data or audio data of the input module 181 based on a signal from the keyboard 55, jog dial 56, or pointing device 60 corresponding to the setting operation by the user. And the application of the effect of the effect module 182 is set. The source selection effect setting module 186 selects one of the scenario files 178-1 to 178-M corresponding to the setting for selecting image data or audio data in the input module 181 and the setting for applying the effect in the effect module 182 as a scenario. The file generation module 187 is generated.
[0111]
The scenario file generation module 187 includes scenario files 178-1 to 178- corresponding to the setting for selecting image data or audio data in the input module 181 and the setting for effect application in the effect module 182 in the source selection effect setting module 186. One of M is generated, and any one of the generated scenario files 178-1 to 178-M is recorded in the HDD 106.
[0112]
FIG. 9 is a diagram illustrating the configuration of the streaming server 17. The CPU 201 actually executes various application programs and an operating system. In general, the ROM 202 stores basically fixed data among programs used by the CPU 201 and calculation parameters. The RAM 203 stores programs used in the execution of the CPU 201 and parameters that change as appropriate during the execution. These are connected to each other by a bus 204 including a host bus.
[0113]
An interface 205 is further connected to the bus 204.
[0114]
The HDD 206 drives a hard disk and records or reproduces programs and information executed by the CPU 201.
[0115]
The network interface 207 is connected to the Internet 11, stores data supplied from the CPU 201 or the HDD 206 in a packet of a predetermined method, transmits the packet via the Internet 11, and receives the data via the Internet 11. The data stored in the packet is output to the CPU 201, RAM 203, or HDD 206.
[0116]
The network interface 208 is connected to the server connection dedicated network 15, stores data supplied from the CPU 201 or the HDD 206 in a packet of a predetermined method, transmits the data via the server connection dedicated network 15, and connects to the server. The data stored in the received packet is output to the CPU 201, the RAM 203, or the HDD 206 via the dedicated network 15.
[0117]
The network interface 209 is connected to the dedicated line 18, stores data supplied from the CPU 201 or the HDD 206 in a packet of a predetermined method, transmits the packet via the dedicated line 18, and transmits the data via the dedicated line 18. The data stored in the received packet is output to the CPU 201, RAM 203, or HDD 206.
[0118]
The network interface 207, the network interface 208, and the network interface 209 are connected to the CPU 201 via the interface 205 and the bus 204.
[0119]
FIG. 10 is a diagram illustrating a program executed by the streaming server 17.
[0120]
The operating system 221 is a program for managing basic operations of the streaming server 17.
[0121]
The communication program 222 is a program for controlling the network interface 207 and connecting to the Internet 11. The communication program 222 distributes the content, which is a stream, supplied from the streaming control program 225 to the personal computers 16-1 to 16-3 via the Internet 11.
[0122]
The communication program 223 is a program for controlling the network interface 208 and connecting to the server connection dedicated network 15. The communication program 223 receives the content that is a stream supplied from the personal computer 13 via the server connection dedicated network 15 and supplies the received content to the streaming control program 225.
[0123]
The communication program 224 is a program for controlling the network interface 209 and connecting to the server use reservation management center 14 via the dedicated line 18. The communication program 224 receives the reservation data in the time zone using the streaming distribution function transmitted from the server use reservation management center 14 and supplies the received reservation data to the streaming control program 225.
[0124]
The streaming control program 225 executes distribution of content that is a stream. That is, the streaming control program 225 temporarily stores the content, which is a stream, supplied from the communication program 223 in the buffer 226 based on the reservation data for the time zone in which the streaming distribution function is used, and stores the content in the buffer 226. The content that has been recorded is supplied to the communication program 222.
[0125]
FIG. 11 is a block diagram illustrating the configuration of the personal computer 16. The CPU 301 actually executes various application programs and OS. The ROM 302 generally stores basically fixed data among programs used by the CPU 301 and calculation parameters. The RAM 303 stores programs used in the execution of the CPU 301 and parameters that change as appropriate during the execution. These are connected to each other by a host bus 304.
[0126]
The host bus 304 is connected to an external bus 306 such as a PCI bus via the bridge 305.
[0127]
The keyboard 308 is operated by the user when inputting various commands to the CPU 301. The pointing device 309 is operated by a user when specifying or selecting a point on the screen of the monitor 310. The monitor 310 includes a liquid crystal display device, a CRT (Cathode Ray Tube), or the like, and displays various types of information as text or images. An HDD 311 and an FDD (Flexible Disk Drive) 312 drive a hard disk or a flexible disk, respectively, and cause a program and information executed by the CPU 301 to be recorded or reproduced.
[0128]
The speaker 313 outputs sound based on the sound data supplied from the CPU 301.
[0129]
These keyboard 308 to speaker 313 are connected to an interface 307, and the interface 307 is connected to the CPU 301 via an external bus 306, a bridge 305, and a host bus 304.
[0130]
The network interface 314 is connected to the Internet 11, stores data supplied from the CPU 301 or the HDD 311 in a packet of a predetermined method, transmits it via the network 4, and receives it via the Internet 11. Data stored in the packet is output to the CPU 301, RAM 303, or HDD 311.
[0131]
The network interface 314 is connected to the CPU 301 via the external bus 306, the bridge 305, and the host bus 304.
[0132]
FIG. 12 is a block diagram illustrating a program executed by the personal computer 16.
[0133]
The operating system 321 is a program for managing basic operations of the personal computer 16.
[0134]
The communication program 322 is a program for controlling the network interface 314 and connecting to the Internet 11. The communication program 322 receives content that is a stream supplied from the streaming server 17 via the Internet 11 and supplies the received content to the content reproduction program 324.
[0135]
The device driver 323 displays an image on the monitor 310 based on the image data supplied from the content reproduction program 324, and causes the speaker 313 to output sound based on the audio data supplied from the content reproduction program 324.
[0136]
The content reproduction program 324 decodes (decompresses) the image data and audio data included in the content that is a stream supplied from the communication program 322, and supplies the decoded image data and audio data to the device driver 323, In 323, an image is displayed and a sound is output.
[0137]
Next, image data or audio data selection settings and effect settings of the content distribution program 174 will be described.
[0138]
FIG. 13 is a diagram illustrating an example of an image displayed on the LCD 54 by the content distribution program 174.
[0139]
When setting the selection of image data or audio data and setting the effect, the content distribution program 174 displays the image data or audio data on the LCD 54 corresponding to the passage of time based on the start of broadcasting in personal casting. A window 401 is displayed for indicating selection and effect selection, and setting image data or audio data selection and effect selection.
[0140]
The content distribution program 174 has a window 402 for designating selection of image data or audio data supplied from the digital video camera 59, the microphone 61, the AV analog interface 114, the IEEE1394 interface 115, or the tuner 116 on the LCD 54. Is displayed.
[0141]
The content distribution program 174 is stored in the LCD 54 in the image data stored in each of the moving image files 175-1 to 175-J and the still image files 176-1 to 176-K, which are recorded in the HDD 106. The window 403 for designating selection of the audio data stored in each of the stored image data or the audio files 177-1 to 177-N is displayed.
[0142]
The content distribution program 174 causes the LCD 54 to display a window 403 for designating an effect.
[0143]
The cursor 431 of the window 401 indicates a predetermined reference time among the times corresponding to the passage of time with reference to the broadcast start time. For example, the content distribution program 174 corresponds to the result of applying the selected effect to the selected image data or audio data at the reference time indicated by the cursor 431 based on the setting for selecting image data or audio data. The image is displayed in window 406.
[0144]
A bar 432, a bar 433, a bar 435, a bar 436, and a bar 437 of the window 401 indicate selection of one image data or one audio data and a selection period, respectively.
[0145]
As shown in FIG. 14, the bar 432 indicates that the moving image file 1 is selected during a period from time t1 to time t3 among the times corresponding to the passage of time with reference to the broadcast start time. The moving image file 1 corresponds to the moving image file 175-1, for example.
[0146]
The bar 433 indicates that the moving image file 2 is selected during a period from time t2 to time t4 among the times corresponding to the passage of time with reference to the broadcast start time. The moving image file 1 corresponds to the moving image file 175-2, for example.
[0147]
The bar 435 indicates that the audio file 1 is selected during a period from time t1 to time t5 among the times corresponding to the passage of time with reference to the broadcast start time. The audio file 1 corresponds to the audio file 177-1, for example.
[0148]
The bar 436 indicates that image data corresponding to the camera 2 is selected for a period from time t4 to time t6, out of the time corresponding to the passage of time, with the broadcast start time as a reference. The camera 2 corresponds to the video camera 21, for example.
[0149]
The bar 437 indicates that the audio data corresponding to the microphone 1 is selected during a period from time t4 to time t6 out of the time corresponding to the passage of time with reference to the broadcast start time. The microphone 1 corresponds to the microphone 22, for example.
[0150]
A bar 434 of the window 401 indicates a period during which one effect is selected. As shown in FIG. 14, the bar 434 indicates that an effect that is a wipe is applied to the moving image file 1 and the moving image file 2.
[0151]
A button 451 in the window 402 is a button for designating selection of the camera 1. For example, when the camera 1 corresponds to the digital video camera 20-1, when the button 451 is clicked and dragged from the position corresponding to the time t11 to the position corresponding to the time t12 in the window 401, the content distribution program 174 The selection of the image data supplied from the camera 1 from time t11 to time t12, that is, the digital video camera 20-1, is set, and a corresponding bar is displayed on the window 401.
[0152]
The button 452 is a button for designating selection of the camera 2. For example, when the camera 2 corresponds to the video camera 21, when the button 452 is clicked and dragged from the position corresponding to the time t21 to the position corresponding to the time t22 in the window 401, the content distribution program 174 displays the time t21. The selection of the image data corresponding to the image signal supplied from the camera 1 from the camera 1 to the time t22, that is, the video camera 21, is set, and the corresponding bar is displayed on the window 401.
[0153]
Similarly, the button 453 is a button for designating selection of the microphone 1, and the button 454 is a button for designating selection of the camera 3 (for example, corresponding to the digital video camera 59).
[0154]
A button 461 in the window 403 is a button for designating selection of the moving image file 1. For example, when the moving image file 1 corresponds to the moving image file 175-1, when the button 461 is clicked and dragged from the position corresponding to the time t31 to the position corresponding to the time t32 in the window 401, the content distribution program 174 The selection of the image data stored in the moving image file 1 from time t31 to time t32, that is, the moving image file 175-1 is set, and the corresponding bar is displayed on the window 401.
[0155]
Similarly, the button 462 is a button for designating selection of the moving image file 2 (for example, corresponding to the moving image file 175-2), and the button 463 is for the moving image file 3 (for example, corresponding to another moving image file). This button specifies the selection.
[0156]
A button 464 in the window 403 is a button for designating selection of the audio file 1. For example, when the audio file 1 corresponds to the audio file 177-1, when the button 464 is clicked and dragged from the position corresponding to the time t41 to the position corresponding to the time t42 in the window 401, the content distribution program 174 The selection of the audio data stored in the audio file 1 from time t41 to time t42, that is, the audio file 177-1 is set, and the corresponding bar is displayed on the window 401.
[0157]
A button 465 in the window 403 is a button for designating selection of the still image file 1. For example, when the still image file 1 corresponds to the still image file 176-1, when the button 465 is clicked and dragged from the position corresponding to the time t51 to the position corresponding to the time t52 in the window 401, the content distribution program In step 174, selection of the image data stored in the still image file 1 from time t51 to time t52, that is, the still image file 176-1, is set, and a corresponding bar is displayed on the window 401.
[0158]
Similarly, the button 466 is a button for designating selection of the still image file 2 (for example, corresponding to the still image file 176-2).
[0159]
A button 481 of the window 404 is a button for designating application of an effect which is a so-called wipe 1, which is an effect of switching an image so as to be wiped off with a car wiper. For example, when the button 481 is clicked and dragged from the position corresponding to the time t61 to the position corresponding to the time t62 in the window 401, the content distribution program 174 changes the image data selected from the time t61 to the time t62. The application of the effect of wipe 1 is set, and the corresponding bar is displayed on the window 401.
[0160]
Similarly, the button 482 is a button that specifies application of the effect that is wipe 2, the button 483 is a button that specifies application of the effect that is zoom 2, and the button 483 switches images while overlapping. This is a button for designating application of an effect, which is a so-called dissolve effect.
[0161]
The content distribution program 174 generates a scenario file 178 indicating the selection of image data or audio data or the selection of effects set in this way.
[0162]
The content distribution program 174 is an image supplied from any of the digital video camera 59, the microphone 61, the AV analog interface 114, the IEEE1394 interface 115, or the tuner 116, or the moving image files 175-1 to 175 recorded in the HDD 106. The image corresponding to the image data stored in each of -J or the image data stored in each of the still image files 176-1 to 176-K is displayed on the window 405.
[0163]
The content distribution program 174 causes the window 406 to display an image obtained by applying the selected effect to the selected image data.
[0164]
When the button 407 is clicked, the content distribution program 174 generates content based on one of the scenario files 178-1 to 178-M selected in advance from the set transmission start date and time, and is a stream. The content is transmitted to the streaming server 17.
[0165]
The content distribution program 174 acquires the date and time data set in the text box 408 as data indicating the date and time when transmission of the content to the streaming server 17 is started.
[0166]
The content distribution program 174 acquires the numerical data set in the text box 409 as data designating the number of repetitions of transmission of the content to the streaming server 17.
[0167]
For example, when “2001.12.31.17.30.00” is set in the text box 408 and 5 is set in the text box 409, the content distribution program 174 selects in advance from 5:30 pm on December 31, 2001. Based on one of the scenario files 178-1 to 178-M, the process of generating the content and transmitting the content as a stream to the streaming server 17 is repeated five times.
[0168]
The content distribution program 174 acquires the numerical data set in the text box 410 as time magnification data in the preview. The time magnification in the preview indicates the ratio of the virtual time speed in the preview to the actual time. For example, when the magnification is 5 and the length of the content to be transmitted to the streaming server 17 is 10 minutes, the content distribution program 174 causes the preview to display 2 minutes when the virtual time elapses at 5 times the speed. Generate length content, display images and output audio.
[0169]
The content distribution program 174 executes a preview when the button 411 is clicked.
[0170]
FIG. 15 is a diagram illustrating an example of a scenario file 178 generated or used in the content distribution program 174.
[0171]
The scenario file 178 includes data indicating selection of image data or audio data corresponding to time and data indicating application of content corresponding to time.
[0172]
For example, the scenario file 178 shown in FIG. 15 starts selection of the image file 1 at time t1 and data indicating that selection of the audio file 1 starts, and starts selection of the moving image file 2 at time t2. At the time t3, the selection of the video file 1 is completed, and the video file 1 and the video file 2 are targeted. Data indicating that the application of the effect that is a wipe is terminated.
[0173]
Further, the scenario file 178 shown in FIG. 15 is data indicating that the selection of the moving image file 2 is completed at the time t4, the selection of the camera 2 is started, and the selection of the microphone 1 is started. The data indicating that the selection of 1 is finished, and data indicating that the selection of the camera 2 is finished and the selection of the microphone 1 is finished at the time t6.
[0174]
Next, content distribution processing by the content distribution program 174 executed by the CPU 101 will be described with reference to the flowchart of FIG.
[0175]
In step S <b> 11, the content distribution program 174 executes a source selection setting process that is selection of predetermined image data or audio data. Details of the source selection setting process will be described later.
[0176]
In step S12, the content distribution program 174 executes an effect setting process. Details of the effect setting process will be described later.
[0177]
In step S13, the content distribution program 174 executes a preview process when the button 411 is clicked. Details of the preview processing will be described later.
[0178]
In step S14, the content distribution program 174 determines whether or not a transmission instruction has been issued based on whether or not the button 407 has been clicked. Since selection and effect settings are made, the process returns to step S11 to repeat the source selection process or the preview process.
[0179]
If it is determined in step S14 that a transmission instruction has been issued, the process proceeds to step S15, where the content distribution program 174 determines that the content streaming server is based on the date and time data input in the text box 408. 17 sets the date and time to start transmission.
[0180]
In step S <b> 16, the content distribution program 174 sets the number of repetitions of transmission of the content to the streaming server 17 based on the numerical data input in the text box 409.
[0181]
In step S <b> 17, the content distribution program 174 determines whether or not it is a time to start content transmission based on the date and time setting for starting transmission and the current date and time data supplied from the RTC 154. If it is determined that it is not the time to start content transmission, it is not the time to start content transmission, so the process returns to step S17 to determine whether it is time to start content transmission. repeat.
[0182]
In step S17, when it is determined that it is time to start content transmission, the process proceeds to step S18, and the content distribution program 174 executes content transmission processing. Details of the content transmission processing will be described later.
[0183]
In step S19, the content distribution program 174 determines whether or not the transmission process has been repeated a predetermined number of times based on the setting of the number of repetitions of transmission of the content to the streaming server 17, and the transmission process is performed a predetermined number of times. If it is determined that the process has not been repeated, the process returns to step S18 to repeat the transmission process in order to further execute the transmission process.
[0184]
When the transmission process is repeatedly performed, the content distribution program 174 uses the same scenario file 178 to select a source and apply an effect, so that a program with the same pattern can be transmitted.
[0185]
If it is determined in step S19 that the transmission process has been repeated a predetermined number of times, the process ends because there is no need to perform any more transmission processes.
[0186]
Next, details of source selection setting processing corresponding to the processing in step S11 will be described with reference to the flowchart of FIG.
[0187]
In step S31, the content distribution program 174 selects a source, which is image data or audio data, based on an operation such as clicking on the buttons 451 to 454 and the buttons 461 to 466.
[0188]
In step S <b> 32, the content distribution program 174 sets a source selection start time based on, for example, the drag start position of the window 401.
[0189]
In step S <b> 33, the content distribution program 174 sets the source selection end time based on the dragging end position of the window 401, for example.
[0190]
Note that the source selection, the source selection start time, or the source selection end time may be set by, for example, selecting a menu or inputting a numerical value in a text box.
[0191]
In step S34, the content distribution program 174 records the source selection, the source selection start time, or the source selection end time in the scenario file 178, and the process ends.
[0192]
Next, details of the effect setting process corresponding to the process of step S12 will be described with reference to the flowchart of FIG.
[0193]
In step S51, the content distribution program 174 selects an effect to be applied based on an operation such as clicking on the buttons 481 to 484.
[0194]
In step S52, the content distribution program 174 selects a source to which the effect is applied, that is, image data or audio data.
[0195]
In step S53, the content distribution program 174 sets the effect start time based on the drag start position of the window 401, for example.
[0196]
In step S54, the content distribution program 174 sets the end time of the effect based on, for example, the drag end position of the window 401.
[0197]
Note that the selection of the effect, the selection of the source to which the effect is applied, the start time of the effect, or the end time of the effect may be set by, for example, selecting a menu or inputting a numerical value in a text box. .
[0198]
In step S55, the content distribution program 174 records the selection of the effect, the selection of the source to which the effect is applied, the start time of the effect, or the end time of the effect in the scenario file 178, and the process ends.
[0199]
Next, details of the preview process corresponding to the process of step S13 will be described with reference to the flowchart of FIG.
[0200]
In step S <b> 71, the content distribution program 174 sets the time magnification in the preview process based on the numerical data input in the text box 410.
[0201]
In step S72, the content distribution program 174 starts the calculation of the virtual time based on the set time magnification. That is, the content distribution program 174 obtains the virtual time by multiplying the difference between the time at which the process is started and the time indicated by the data supplied from the RTC 154 by the time magnification. For example, when the time magnification is set to 3, when 5 minutes have actually elapsed since the start of the process, the content distribution program 174 obtains 15 minutes as the virtual time.
[0202]
In step S73, the content distribution program 174 determines based on the selected scenario file 178 whether or not the virtual time is a start time for selecting a predetermined source, and the virtual time is determined based on the predetermined source. If it is determined that it is the start time of selection, the process proceeds to step S74, the input module 181 is made to select a set source based on the selected scenario file 178, and the process proceeds to step S75.
[0203]
If it is determined in step S73 that the virtual time is not the start time for selecting a predetermined source, the source selection process is unnecessary, so the process in step S74 is skipped, and the process proceeds to step S75.
[0204]
In step S75, the content distribution program 174 determines based on the selected scenario file 178 whether or not the virtual time is the end time of the selection of the predetermined source, and the virtual time is determined to be that of the predetermined source. If it is determined that the selection end time is reached, the process proceeds to step S76, and based on the selected scenario file 178, the input module 181 stops the selection of the set source, and the process proceeds to step S77. .
[0205]
If it is determined in step S75 that the virtual time is not the end time of the selection of the predetermined source, the process of stopping the selection of the source is unnecessary, so the process of step S76 is skipped and the process proceeds to step S77.
[0206]
In step S77, the content distribution program 174 determines whether or not the virtual time is the start time of the predetermined effect based on the selected scenario file 178, and the virtual time is the start time of the predetermined effect. If it is determined, the process proceeds to step S78, the effect module 182 is made to apply the effect to a predetermined source based on the selected scenario file 178, and the process proceeds to step S79.
[0207]
If it is determined in step S77 that the virtual time is not the start time of the predetermined effect, the effect application process is unnecessary, so the process in step S78 is skipped, and the process proceeds to step S79.
[0208]
In step S79, the content distribution program 174 determines whether or not the virtual time is the end time of the predetermined effect based on the selected scenario file 178, and the virtual time is the end time of the predetermined effect. If it is determined, the process proceeds to step S80, the application of the effect to the predetermined source is stopped in the effect module 182 based on the selected scenario file 178, and the process proceeds to step S81.
[0209]
If it is determined in step S79 that the virtual time is not the end time of the predetermined effect, the process of stopping application of the effect is unnecessary, so the process of step S80 is skipped and the process proceeds to step S81.
[0210]
In step S81, the content distribution program 174 causes the preview module 184 to display an image on the LCD 54 based on the source selected in the processing of steps S73 to S80 and to which the effect is applied, that is, image data and audio data. Then, the speaker 108 is made to output sound.
[0211]
In step S82, the content distribution program 174 determines whether or not the virtual time is the end time based on the selected scenario file 178, and if it is determined that the virtual time is not the end time, step S82 is performed. Returning to S73, the process of source selection and effect application is repeated.
[0212]
If it is determined in step S82 that the virtual time is the end time, the process proceeds to step S83, where the content distribution program 174 ends the virtual time calculation process, and the process ends.
[0213]
As described above, the content distribution program 174 can display an image corresponding to a source selected and applied with an effect in a virtual time that is faster or slower than the actual time, and can output sound.
[0214]
The user can confirm the selection of the source or the application of the effect in a shorter time than the actual broadcast time before the actual broadcast by setting a desired magnification and executing the preview, or shorter than the actual broadcast time. In time, you can see the source selection or effect application in more detail.
[0215]
Next, details of the transmission process corresponding to the process of step S18 will be described with reference to the flowchart of FIG. In the following processing, the content distribution program 174 executes the processing of each step by setting the difference between the time when the transmission processing is started and the time indicated by the data supplied from the RTC 154 as the current time.
[0216]
In step S91, if it is determined that the current time is the start time for selecting a predetermined source based on the selected scenario file 178, the content distribution program 174 proceeds to step S92 and is selected. Based on the scenario file 178, the input module 181 is made to select a set source, and the process proceeds to step S93.
[0217]
If it is determined in step S91 that the current time is not the start time for selecting a predetermined source, the source selection process is unnecessary, so the process in step S92 is skipped, and the process proceeds to step S93.
[0218]
In step S93, the content distribution program 174 determines based on the selected scenario file 178 whether or not the current time is the end time of selection of the predetermined source, and the current time is the predetermined source. If it is determined that it is the end time of the selection, the process proceeds to step S94, the selection of the set source is stopped in the input module 181 based on the selected scenario file 178, and the process proceeds to step S95. .
[0219]
If it is determined in step S93 that the current time is not the end time for selecting a predetermined source, the process of stopping the selection of the source is unnecessary, so the process of step S94 is skipped and the process proceeds to step S95.
[0220]
In step S95, the content distribution program 174 determines whether the current time is the start time of the predetermined effect based on the selected scenario file 178, and the current time is the start time of the predetermined effect. If it is determined, the process proceeds to step S96, the effect module 182 is made to apply the effect to a predetermined source based on the selected scenario file 178, and the process proceeds to step S97.
[0221]
If it is determined in step S95 that the current time is not the start time of the predetermined effect, the effect application process is unnecessary, so the process in step S96 is skipped, and the process proceeds to step S97.
[0222]
In step S97, the content distribution program 174 determines whether or not the current time is the end time of the predetermined effect based on the selected scenario file 178, and the current time is the end time of the predetermined effect. If it is determined, the process proceeds to step S98, the effect module 182 is stopped from applying the effect to a predetermined source based on the selected scenario file 178, and the process proceeds to step S99.
[0223]
If it is determined in step S97 that the current time is not the end time of the predetermined effect, the process of stopping application of the effect is unnecessary, so the process of step S98 is skipped and the process proceeds to step S99.
[0224]
In step S99, the content distribution program 174 causes the encoding module 185 to output the content composed of the image data and the audio data selected by the processing in steps S91 to S98 and applying the effect to the streaming server 17, and the stream. Is transmitted to the communication program 173.
[0225]
In step S100, the content distribution program 174 determines whether or not the current time is the end time based on the selected scenario file 178, and if it is determined that the current time is not the end time, step S100 is performed. Returning to S91, the process of source selection and effect application is repeated.
[0226]
If it is determined in step S100 that the current time is the end time, the process ends.
[0227]
FIG. 21 is a flowchart illustrating content distribution processing by the content distribution system 1.
[0228]
In step S <b> 1001, the personal computer 13 transmits content that is a stream to the streaming server 17 via the public line network 12 and the server connection dedicated network 15. The process of step S1001 corresponds to the process of step S99. The personal computer 13 repeats the process of transmitting content to the streaming server 17.
[0229]
In step S <b> 1101, the streaming server 17 receives the content transmitted from the personal computer 13.
[0230]
In step S1102, the streaming server 17 transmits the content received in the process of step S1101 to the personal computer 16-1 via the Internet 11.
[0231]
In step S <b> 1201, the personal computer 16-1 receives the content transmitted from the streaming server 17. In step S1202, the personal computer 16-1 reproduces the received content. The personal computer 16-1 returns to step S1201, and repeats the content reception process and the content reproduction process.
[0232]
In step S1103, the streaming server 17 transmits the content received in the process of step S1101 to the personal computer 16-2 via the Internet 11.
[0233]
In step S1301, the personal computer 16-2 receives the content transmitted from the streaming server 17. In step S1302, the personal computer 16-2 reproduces the received content. The personal computer 16-2 returns to step S1301, and repeats the content reception process and the content reproduction process.
[0234]
In step S1104, the streaming server 17 transmits the content received in the process of step S1101 to the personal computer 16-3 via the Internet 11. The streaming server 17 returns to step S1101 and repeats the content reception process and the content transmission process.
[0235]
In step S1401, the personal computer 16-3 receives the content transmitted from the streaming server 17. In step S1402, the personal computer 16-3 reproduces the received content. The personal computer 16-3 returns to step S1401, and repeats the content reception process and the content reproduction process.
[0236]
As described above, the content transmitted from the personal computer 13 to the streaming server 17 is distributed to the personal computers 16-1 to 16-3 in real time via the Internet 11.
[0237]
As described above, in the content distribution system 1 according to the present invention, since a predetermined source is selected and an effect is applied according to a time based on the start of broadcasting, the appearance of himself / herself, which has been difficult in the past, has appeared. Live broadcasting can be done by one person.
[0238]
FIG. 22 is a diagram showing a configuration of another embodiment of the content distribution system 1 according to the present invention. The same parts as those shown in FIG. 1 are denoted by the same reference numerals, and the description thereof is omitted.
[0239]
The public line network 12 is connected with a digital mobile phone 601 with a camera via a base station 602, which is a fixed wireless station, which is arranged in a cell in which a communication service providing area is divided into a desired area. Yes.
[0240]
The camera-equipped digital cellular phone 601 acquires image data and audio data supplied from the digital video camera 20-1 or 20-2 connected via a network conforming to the IEEE1394 standard.
[0241]
The base station 602 wirelessly connects the digital mobile phone with camera 601 as a mobile radio station, for example, by code division multiple access called W-CDMA (Wideband-Code Division Multiple Access), and the digital with camera as a mobile radio station. Large-capacity data can be communicated at high speed with the cellular phone 601 at a maximum data transfer rate of 2 Mbps using the 2 GHz frequency band.
[0242]
The camera-equipped digital cellular phone 601 can perform high-speed data communication with the base station 602 using the W-CDMA method, so that it is not limited to voice calls, but can send and receive e-mails, browse simple websites, and send and receive content such as images. Various types of data communication such as can be performed.
[0243]
The camera-equipped digital cellular phone 601 executes a browser program, a content distribution program to be described later, and the like.
[0244]
The camera-equipped digital cellular phone 601 determines the selection of a source and sets an effect to be applied to the selected source in advance, in response to the passage of time based on the start of broadcasting in personal casting.
[0245]
Prior to supplying content to the streaming server 17, the camera-equipped digital cellular phone 601 uses image data corresponding to the captured image or audio data corresponding to the acquired sound based on the selection of a predetermined source and the setting of the effect. , Generating content from recorded image data or audio data, or image data or audio data acquired from the digital video camera 20-1 or 20-2, displaying an image corresponding to the generated content, and audio Is output.
[0246]
When the digital mobile phone with camera 601 supplies content to the streaming server 17, that is, when performing personal casting, the image data corresponding to the captured image based on the selection of a predetermined source and the setting of the effect, or Content is generated in real time from audio data corresponding to the acquired audio, recorded image data or audio data, or image data or audio data acquired from the digital video camera 20-1 or 20-2.
[0247]
When supplying the content to the streaming server 17, the digital mobile phone with camera 601 transmits the content generated in real time to the streaming server 17 via the public line network 12 and the server connection dedicated network 15 in real time.
[0248]
The public line network 12 is connected to the Internet 11, a local area network, a subscriber wired terminal device (not shown), a computer network, an in-company network, and the like via a wired line.
[0249]
The access server 603 of the internet service provider is connected to the public network 12, and is further connected to a content server 604 owned by the internet service provider.
[0250]
In response to a request from the subscriber wired terminal device or the digital mobile phone with camera 601, the content server 604 provides content such as a simple homepage as a file of a compact HTML (HyperText Markup Language) system.
[0251]
A large number of WWW (World Wide Web) servers (not shown) are connected to the Internet 11. The WWW server is accessed from the subscriber wired terminal device and the digital mobile phone with camera 601 in accordance with the protocol of TCP (Transmission Control Protocol) / IP (Internet Protocol).
[0252]
Incidentally, the camera-equipped digital cellular phone 601 communicates with the base station 602 by a simple transport protocol of 2 Mbps, and communicates from the base station 602 to the Internet 11 and the WWW server by TCP / IP.
[0253]
The management control device 605 is connected to the subscriber wired terminal device and the camera-equipped digital cellular phone 601 via the public line network 12, and performs authentication processing for the subscriber wired terminal device and the camera-equipped digital cellular phone 601. Execute.
[0254]
Next, the external configuration of the camera-equipped digital mobile phone 601 to which the present invention is applied will be described. As shown in FIG. 23, a camera-equipped digital cellular phone 601 includes a display unit 611 and a main body 612, and is formed to be foldable by a central hinge unit 613.
[0255]
The display unit 611 includes a transmission / reception antenna 614 that can be pulled out or stored in the upper left part. The camera-equipped digital cellular phone 601 transmits and receives radio waves to and from the base station 602 that is a fixed wireless station via the antenna 614.
[0256]
In addition, the display unit 611 includes a camera unit 615 that is rotatable at an angle range of approximately 180 degrees at the center of the upper end. The camera-equipped digital cellular phone 601 captures an image of a desired imaging object using the CCD camera 616 of the camera unit 615.
[0257]
When the camera unit 615 is positioned by being rotated by approximately 180 degrees by the user, as shown in FIG. 24, the display unit 611 has a speaker 617 provided at the center on the back side of the camera unit 615 located on the front side. It becomes a state. As a result, the camera-equipped digital mobile phone 601 switches to a normal voice call state.
[0258]
Further, a liquid crystal display 618 is provided in front of the display unit 611. The liquid crystal display 618 includes a screen for setting source selection or effect selection, a preview screen, a radio wave reception state, a remaining battery level, a destination name and phone number registered as a phone book, a call history, and the like. The contents of mail, a simple homepage, an image captured by the CCD camera 616 of the camera unit 615, and the like are displayed.
[0259]
On the other hand, the main body 612 is provided with operation keys 619 such as numeric keys “0” to “9”, a call key, a redial key, an end call and power key, a clear key, and a mail key. Various instructions corresponding to the operation of the operation key 619 are input to the digital mobile phone with camera 601.
[0260]
A memo button 620 and a microphone 621 are provided below the operation keys 619 of the main body 612. When the memo button 620 is operated, the camera-equipped digital mobile phone 601 records the voice of the other party during the call. The camera-equipped digital cellular phone 601 collects the voice of the user during a call by the microphone 621.
[0261]
Further, a rotatable jog dial 622 is provided above the operation key 619 of the main body 612 so as to slightly protrude from the surface of the main body 612. The digital mobile phone 601 with a camera performs a scroll operation of a telephone directory list or an e-mail displayed on the liquid crystal display 618, a page turning operation of a simple home page, an image sending operation, or the like in response to a rotation operation with respect to the jog dial 622. Perform various operations.
[0262]
For example, the main body 612 selects a desired telephone number from a plurality of telephone numbers in the telephone directory list displayed on the liquid crystal display 618 in response to a user's turning operation of the jog dial 622, and the jog dial 622 is used for the main body 612. When pressed in the internal direction, the selected telephone number is confirmed, and call processing is automatically performed for the confirmed telephone number.
[0263]
For example, when the jog dial 622 receives a rotation operation while a plurality of candidate words are displayed on the liquid crystal display 618, a desired candidate word is selected from the plurality of candidate words, and the jog dial 622 is connected to the main body 612 side. When pressed, the selected candidate word is confirmed.
[0264]
The main body 612 has a battery pack (not shown) on the back side, and when the end call / power key is turned on, power is supplied from the battery pack to each circuit unit to start operation. To do.
[0265]
By the way, a memory card slot 623 for mounting a detachable memory card 624 is provided on the upper left side of the main body 612. When the memo button 620 is pressed, the camera-equipped digital cellular phone 601 records the voice of the other party who is talking on the memory card 624 attached. The camera-equipped digital cellular phone 601 records content such as an e-mail, a simple homepage, an image captured by the CCD camera 616, or a sound in a memory card 624 mounted in accordance with a user operation.
[0266]
The memory card 624 is, for example, a Memory Stick (trademark). Memory Stick is a type of flash memory card developed by Sony Corporation, the applicant of the present application. This memory card 624 is an EEPROM (Electrically Erasable and Programmable Read Only Memory) that is a nonvolatile memory that can be electrically rewritten and erased in a small and thin plastic case of 21.5 x 50 x 2.8 mm. A flash memory element is stored, and various data such as images, sounds, and music can be written and read via a 10-pin terminal.
[0267]
In addition, the memory stick uses a unique serial protocol that can ensure compatibility with the devices used even when the specifications of the built-in flash memory change due to an increase in capacity, etc., and a maximum writing speed of 1.5 [MB / S] In addition to realizing high-speed performance of maximum reading speed of 2.45 [MB / S], a high reliability is secured by providing an accidental erasure prevention switch.
[0268]
Therefore, since the camera-equipped digital cellular phone 601 is configured so that such a memory card 624 can be mounted, data sharing with other electronic devices can be achieved via the memory card 624. it can.
[0269]
Further, an IEEE1394 port for connecting to the digital video cameras 20-1 and 20-2 is provided at the lower left side of the main body 612.
[0270]
As shown in FIG. 25, a digital mobile phone 601 with a camera has a power supply circuit unit 632, an operation input control unit 633, an image encoder, and a main control unit 631 that comprehensively controls each unit of the display unit 611 and the main body 612. 634, a camera interface unit 635, an LCD (Liquid Crystal Display) control unit 636, an image decoder 637, a demultiplexing unit 638, a storage / playback unit 643, a modulation / demodulation circuit unit 639, an audio codec 640, and an IEEE1394 interface 645 via the main bus 641. The image encoder 634, the image decoder 637, the demultiplexing unit 638, the modulation / demodulation circuit unit 639, the audio codec 640, and the IEEE1394 interface 645 are connected to each other via a synchronization bus 642.
[0271]
When the call end / power key is turned on by the user's operation, the power supply circuit unit 632 activates the camera-equipped digital cellular phone 601 by supplying power to each unit from the battery pack. To do.
[0272]
The camera-equipped digital cellular phone 601 converts the audio signal collected by the microphone 621 into digital audio data by the audio codec 640 in the voice call mode based on the control of the main control unit 631 including a CPU, ROM, RAM, and the like. . The camera-equipped digital cellular phone 601 performs spread spectrum processing on the digital audio data in the modulation / demodulation circuit unit 639, performs digital analog conversion processing and frequency conversion processing in the transmission / reception circuit unit 644, and transmits the digital audio data via the antenna 614.
[0273]
Also, the camera-equipped digital cellular phone 601 amplifies the received signal received by the antenna 614 in the voice call mode, performs frequency conversion processing and analog-digital conversion processing, performs spectrum despreading processing in the modulation / demodulation circuit unit 639, and performs voice codec The analog audio signal is converted by 640. The digital mobile phone with camera 601 causes the speaker 617 to output sound corresponding to the analog sound signal.
[0274]
Furthermore, when transmitting content in the data communication mode, the camera-equipped digital cellular phone 601 sends the content designated corresponding to the input by operating the operation key 619 and the jog dial 622 to the main control unit 631.
[0275]
The main control unit 631 performs spread spectrum processing on the content by the modulation / demodulation circuit unit 639, performs digital analog conversion processing and frequency conversion processing by the transmission / reception circuit unit 644, and then transmits the content to the base station via the antenna 614.
[0276]
On the other hand, when receiving content in the data communication mode, the camera-equipped digital cellular phone 601 performs spectrum despreading processing on the received signal received from the base station 602 via the antenna 614 by the modulation / demodulation circuit unit 639, After the content is restored, data corresponding to the content is displayed on the liquid crystal display 618 via the LCD control unit 636.
[0277]
Thereafter, the camera-equipped digital cellular phone 601 can record the received content in response to the user's operation on the memory card 624 via the storage / playback unit 643.
[0278]
When transmitting image data in the data communication mode, the digital mobile phone with camera 601 supplies the image data captured by the CCD camera 616 to the image encoder 634 via the camera interface unit 635.
[0279]
Incidentally, when not transmitting image data, the camera-equipped digital cellular phone 601 can directly display the image data captured by the CCD camera 616 on the liquid crystal display 618 via the camera interface unit 635 and the LCD control unit 636. is there.
[0280]
The image encoder 634 converts the image data supplied from the CCD camera 616 into encoded image data by performing compression encoding according to a predetermined encoding method such as MPEG (Moving Picture Experts Group) 2 or MPEG4, for example. This is sent to the demultiplexing unit 638.
[0281]
At the same time, the camera-equipped digital mobile phone 601 sends the sound collected by the microphone 621 during imaging by the CCD camera 616 to the demultiplexing unit 638 via the audio codec 640 as digital audio data.
[0282]
The demultiplexing unit 638 multiplexes the encoded image data supplied from the image encoder 634 and the audio data supplied from the audio codec 640 by a predetermined method, and the modulation / demodulation circuit unit 639 spectrums the multiplexed data obtained as a result. The signal is subjected to spreading processing, subjected to digital / analog conversion processing and frequency conversion processing by the transmission / reception circuit unit 644, and then transmitted through the antenna 614.
[0283]
In contrast, in the data communication mode, the camera-equipped digital cellular phone 601 modulates / demodulates the received signal received from the base station via the antenna 614 when receiving data of a moving image file linked to a simple homepage, for example. The circuit unit 639 performs spectrum despreading processing, and sends the multiplexed data obtained as a result to the demultiplexing unit 638.
[0284]
The demultiplexer 638 separates the multiplexed data into encoded image data and audio data, and supplies the encoded image data to the image decoder 637 and also supplies the audio data to the audio codec 640 via the synchronization bus 642. To do.
[0285]
The image decoder 637 generates reproduced moving image data by decoding the encoded image data by a decoding method corresponding to a predetermined encoding method such as MPEG2 or MPEG4, and generates the reproduced moving image data via the LCD control unit 636. To supply. Thereby, the camera-equipped digital cellular phone 601 displays, for example, moving image data included in a moving image file linked to a simple homepage.
[0286]
At the same time, the audio codec 640 converts the audio data into an analog audio signal and supplies the analog audio signal to the speaker 617. Thereby, the camera-equipped digital cellular phone 601 reproduces the audio data included in the moving image file linked to the simple homepage, for example.
[0287]
The IEEE1394 interface 645 receives image data or audio data supplied from the digital video camera 20 via the IEEE1394 port 625, and supplies the received image data or audio data to the main control unit 631.
[0288]
FIG. 26 is a diagram illustrating a program executed by the main control unit 631.
[0289]
The operating system 661 is a program for managing basic operations of the camera-equipped digital mobile phone 601.
[0290]
The content distribution program 662 requests the server use reservation management center 14 to reserve a time zone for using the streaming distribution function of the streaming server 17 via the Internet 11.
[0291]
The content distribution program 662 corresponds to the passage of time with reference to the start of broadcasting in personal casting, image data corresponding to an image captured by the CCD camera 616 or audio data corresponding to audio acquired by the microphone 621, IEEE1394 interface 115, image data or audio data supplied from the digital video camera 20 via 115, or image data and still image files stored in each of the moving image files 663-1 to 663-P stored in the memory card 624. The selection of the image data stored in each of 664-1 to 664-Q or the sound data stored in each of the sound files 665-1 to 665-R is determined.
[0292]
The content distribution program 662 selects the image data corresponding to the selected image captured by the CCD camera 616 or the audio data corresponding to the sound acquired by the microphone 621, the image supplied from the digital video camera 20 via the IEEE1394 interface 115. Data or audio data, or image data stored in each of the moving image files 663-1 to 663-P and each of the still image files 664-1 to 664-Q stored in the memory card 624. Selection of image processing or sound processing (so-called effect) to be applied to the stored image data or the sound data stored in each of the sound files 665-1 to 665-R.
[0293]
The content distribution program 662 selects the image data or audio data and selects the effect to be applied to the selected image data or audio data in accordance with the passage of time with reference to the start of broadcasting in personal casting. -1 to 666-S.
[0294]
Before the content distribution program 662 supplies the content to the streaming server 17, the image data corresponding to the image captured by the CCD camera 616 or the microphone 621 based on any one of the scenario files 666-1 to 666-S. Of the moving image files 663-1 to 663-P stored in the memory card 624, or the audio data corresponding to the audio acquired in Step 1, the image data or audio data supplied from the digital video camera 20 via the IEEE1394 interface 115 From the image data stored in each, the image data stored in each of the still image files 664-1 to 664-Q, or the audio data stored in each of the audio files 665-1 to 665-R, Streaming data It generates a content consisting of video data and audio data, an image corresponding to the generated content with display on liquid crystal display 618, and outputs sounds to a speaker 617.
[0295]
When the content distribution program 662 supplies content to the streaming server 17, that is, when performing personal casting, the content distribution program 662 uses the CCD camera 616 based on any one of the scenario files 666-1 to 666-S selected in advance. Image data corresponding to the captured image or audio data corresponding to audio acquired by the microphone 621, image data or audio data supplied from the digital video camera 20 via the IEEE1394 interface 115, or stored in the memory card 624. , Image data stored in each of the moving image files 663-1 through 663-P, image data stored in each of the still image files 664-1 through 664-Q, or audio files 665-1 through 665-R. It's From the voice data stored in the record, which is streaming data, it generates a content consisting of video data and audio data in real time.
[0296]
The content distribution program 662 transmits the content generated in real time to the streaming server 17 in real time.
[0297]
Since the scenario files 666-1 to 666-S are the same as the scenario files 178 to 178-M, a detailed description thereof will be omitted.
[0298]
Details of the processing of the content distribution program 662 are the same as the processing described with reference to the flowcharts of FIGS.
[0299]
Although it has been described that the personal computer 13 or the digital mobile phone with camera 601 distributes content, the present invention is not limited to the personal computer 13 or the digital mobile phone with camera 601, and other devices such as a PDA (Personal Digital Assistant) or a digital video camera may be used. Good.
[0300]
The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a recording medium in a general-purpose personal computer or the like.
[0301]
As shown in FIG. 6, this recording medium is distributed to provide a program to a user separately from a computer, and includes a magnetic disk 14 (including a flexible disk) on which a program is recorded, an optical disk 142 (CD- ROM (Compact Disc-Read Only Memory), DVD (including Digital Versatile Disc)), magneto-optical disk 143 (including MD (trademark) (Mini-Disc)), semiconductor memory 144, memory card 624, etc. In addition to being configured by media, it is configured by a ROM in which a program is recorded, a hard disk included in the HDD 106, and the like provided to the user in a state of being preinstalled in a computer.
[0302]
The program for executing the series of processes described above is installed in a computer via a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via an interface such as a router or a modem as necessary. You may be made to do.
[0303]
Further, in the present specification, the step of describing the program stored in the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.
[0304]
In the present specification, the term “system” represents the entire apparatus constituted by a plurality of apparatuses.
[0305]
【The invention's effect】
  According to the information processing apparatus and method and the program of the present invention,Based on content reservation to serverCorresponding to the time relative to the start of delivery,Image data selection settingsAnd image processing for image dataScenario data indicating the setting of the application is generated, live image data that is image data supplied from a predetermined imaging unit is acquired, and recorded image data that is pre-recorded image data is read from the predetermined recording unit Acquired, acquisition of live image data and acquisition of recorded image data are switched according to the elapsed time from the time based on the start of distribution of content to the server according to the scenario data, and according to the scenario data, The set image processing is applied to the acquired live image data or recorded image data to generate content to be distributed to the server, and distribution of the generated content to the server is controlled.So that the desiredimageCan be switched and effects can be applied.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of an embodiment of a content distribution system 1 according to the present invention.
FIG. 2 is a diagram showing an external appearance of a personal computer 13;
FIG. 3 is a diagram showing an external appearance of a personal computer 13;
FIG. 4 is a diagram showing an external appearance of a personal computer 13;
FIG. 5 is a diagram showing an external appearance of a personal computer 13;
FIG. 6 is a block diagram showing an example of the configuration of a personal computer 13;
FIG. 7 is a block diagram illustrating a program executed by the personal computer 13;
8 is a block diagram showing a configuration of a content distribution program 174. FIG.
FIG. 9 is a block diagram illustrating a configuration of a streaming server.
FIG. 10 is a block diagram illustrating a program executed by the streaming server 17;
FIG. 11 is a block diagram illustrating a configuration of a personal computer 16;
FIG. 12 is a block diagram for explaining a program executed by the personal computer 16;
13 is a diagram showing an example of an image displayed on the LCD 54 by the content distribution program 174. FIG.
FIG. 14 is a diagram illustrating time corresponding to source selection or effect selection.
15 is a diagram showing an example of a scenario file 178. FIG.
FIG. 16 is a flowchart illustrating a content distribution process.
FIG. 17 is a flowchart illustrating processing for setting a source selection.
FIG. 18 is a flowchart for describing effect setting processing;
FIG. 19 is a flowchart illustrating preview processing.
FIG. 20 is a flowchart illustrating a transmission process.
FIG. 21 is a flowchart for describing content distribution processing;
FIG. 22 is a diagram showing a configuration of another embodiment of a content distribution system 1 according to the present invention.
FIG. 23 is a diagram showing an external appearance of a digital mobile phone with camera 601. FIG.
24 is a diagram illustrating a camera unit 615. FIG.
25 is a block diagram illustrating a configuration of a digital mobile phone with a camera 601. FIG.
FIG. 26 is a block diagram illustrating the configuration of a program executed by the camera-equipped digital mobile phone 601.
[Explanation of symbols]
11 Internet, 13 Personal computer, 54 LCD, 59 Digital video camera, 61 Microphone, 101 CPU, 103 RAM, 106 HDD, 108 Speaker, 114 AV analog interface, 115 IEEE1394 interface, 116 Tuner, 118 Modem, 141 Magnetic disk, 142 Optical disk, 143 magneto-optical disk, 144 semiconductor memory, 152 LAN interface, 172 device driver, 173 communication program, 174 content distribution program, 175-1 to 175-J video file, 176-1 to 176-K still image file, 177 -1 to 177-N Audio file, 178-1 to 178-M Scenario file, 601 Digital camera with camera Band phone 601, 616 CCD camera, 618 liquid crystal display, 621 microphone, 624 memory card, 631 main control unit, 662 content distribution program, 663-1 to 663-P video file, 664-1 to 664-Q still image file, 665-1 to 665-R audio file, 666-1 to 666-S scenario file

Claims (6)

予約に基づいて供給されたコンテンツをリアルタイムで配信するサーバとネットワークを介して接続される情報処理装置において、
前記サーバへの前記コンテンツの前記予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および前記画像データに対する画像処理の適用の設定を示すシナリオデータを生成するシナリオデータ生成手段と、
所定の撮像手段から供給される前記画像データであるライブ画像データを取得する第1の画像データ取得手段と、
予め記録された前記画像データである記録画像データを所定の記録手段から読み出して取得する第2の画像データ取得手段と、
前記第1の画像データ取得手段による前記画像データの取得と、前記第2の画像データ取得手段による前記画像データの取得とを、前記シナリオデータに従って、前記サーバへの前記コンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替える切替手段と、
前記シナリオデータに従って、前記第1の画像データ取得手段または前記第2の画像データ取得手段により取得された前記画像データに対して設定された画像処理を適用して、前記サーバに配信する前記コンテンツを生成するコンテンツ生成手段と、
生成された前記コンテンツの前記サーバへの配信を制御する配信制御手段と
備えることを特徴とする情報処理装置。
In an information processing apparatus connected via a network to a server that distributes content supplied based on a reservation in real time,
Scenario data for generating scenario data indicating a setting for selecting image data and a setting for applying image processing to the image data , corresponding to a time based on the start of distribution based on the reservation of the content to the server Generating means;
First image data acquisition means for acquiring live image data that is the image data supplied from a predetermined imaging means;
Second image data acquisition means for reading out and acquiring recorded image data as the image data recorded in advance from a predetermined recording means;
The acquisition of the image data by the first image data acquisition unit and the acquisition of the image data by the second image data acquisition unit are based on the start of distribution of the content to the server according to the scenario data. Switching means for switching in accordance with the elapsed time from the time,
Applying the set image processing to the image data acquired by the first image data acquisition unit or the second image data acquisition unit according to the scenario data, the content to be distributed to the server Content generating means for generating;
The information processing apparatus characterized by comprising a distribution control means for controlling the delivery to the server generated the content.
撮像手段をさらに備え、It further comprises an imaging means,
前記第1の画像データ取得手段は、自分の前記撮像手段から供給される前記ライブ画像データを取得するThe first image data acquisition unit acquires the live image data supplied from the imaging unit of the first image data acquisition unit.
ことを特徴とする請求項1に記載の情報処理装置。The information processing apparatus according to claim 1.
所定の音声取得手段から供給される音声データであるライブ音声データを取得する第1の音声データ取得手段と、First audio data acquisition means for acquiring live audio data which is audio data supplied from a predetermined audio acquisition means;
予め記録された音声データである記録音声データを所定の記録手段から読み出して取得する第2の音声データ取得手段とSecond audio data acquisition means for reading out and acquiring recorded audio data, which is audio data recorded in advance, from predetermined recording means;
をさらに備え、Further comprising
前記切替手段は、前記第1の音声データ取得手段による前記音声データの取得と、前記第2の音声データ取得手段による前記音声データの取得とを、前記シナリオデータに従って、前記サーバへの前記コンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替えるThe switching means performs acquisition of the audio data by the first audio data acquisition means and acquisition of the audio data by the second audio data acquisition means according to the scenario data. Switching according to the elapsed time from the time when the start of distribution is used as a reference
ことを特徴とする請求項1に記載の情報処理装置。The information processing apparatus according to claim 1.
前記コンテンツを配信する前に、現実の時間に対し所望の倍率を有する仮想的な時間を基準として、前記コンテンツの再生を制御するプレビュー制御手段をさらに備えるPrior to delivering the content, preview control means is further provided for controlling reproduction of the content with reference to a virtual time having a desired magnification with respect to the actual time.
ことを特徴とする請求項1に記載の情報処理装置。The information processing apparatus according to claim 1.
予約に基づいて供給されたコンテンツをリアルタイムで配信するサーバとネットワークを介して接続される情報処理装置の情報処理方法において、
前記サーバへの前記コンテンツの前記予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および前記画像データに対する画像処理の適用の設定を示すシナリオデータを生成するシナリオデータ生成ステップと、
所定の撮像手段から供給される前記画像データであるライブ画像データを取得する第1の画像データ取得ステップと、
予め記録された前記画像データである記録画像データを所定の記録手段から読み出して取得する第2の画像データ取得ステップと、
前記第1の画像データ取得ステップにおける前記画像データの取得と、前記第2の画像データ取得ステップにおける前記画像データの取得とを、前記シナリオデータに従って、前記サーバへの前記コンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替える切替ステップと、
前記シナリオデータに従って、前記第1の画像データ取得ステップまたは前記第2の画像データ取得ステップにおいて取得された前記画像データに対して設定された画像処理を適用して、前記サーバに配信する前記コンテンツを生成するコンテンツ生成ステップと、
生成された前記コンテンツの前記サーバへの配信を制御する配信制御ステップと
を含むことを特徴とする情報処理方法。
In an information processing method of an information processing apparatus connected via a network to a server that distributes content supplied based on a reservation in real time,
Scenario data for generating scenario data indicating a setting for selecting image data and a setting for applying image processing to the image data , corresponding to a time based on the start of distribution based on the reservation of the content to the server Generation step;
A first image data acquisition step of acquiring live image data which is the image data supplied from a predetermined imaging means;
A second image data acquisition step of reading out and acquiring recorded image data, which is the image data recorded in advance, from a predetermined recording unit;
The acquisition of the image data in the first image data acquisition step and the acquisition of the image data in the second image data acquisition step are based on the start of distribution of the content to the server according to the scenario data A switching step that switches in accordance with the elapsed time from the time
The content to be distributed to the server by applying image processing set to the image data acquired in the first image data acquisition step or the second image data acquisition step according to the scenario data. A content generation step to generate;
A distribution control step of controlling distribution of the generated content to the server .
予約に基づいて供給されたコンテンツをリアルタイムで配信するサーバとネットワークを介して接続される情報処理装置を制御するコンピュータに、
前記サーバへの前記コンテンツの前記予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および前記画像データに対する画像処理の適用の設定を示すシナリオデータを生成するシナリオデータ生成ステップと、
所定の撮像手段から供給される前記画像データであるライブ画像データを取得する第1の画像データ取得ステップと、
予め記録された前記画像データである記録画像データを所定の記録手段から読み出して取得する第2の画像データ取得ステップと、
前記第1の画像データ取得ステップにおける前記画像データの取得と、前記第2の画像データ取得ステップにおける前記画像データの取得とを、前記シナリオデータに従って、前記サーバへの前記コンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替える切替ステップと、
前記シナリオデータに従って、前記第1の画像データ取得ステップまたは前記第2の画像データ取得ステップにおいて取得された前記画像データに対して設定された画像処理を適用して、前記サーバに配信する前記コンテンツを生成するコンテンツ生成ステップと、
生成された前記コンテンツの前記サーバへの配信を制御する配信制御ステップと
を実行させるプログラム。
To a computer that controls an information processing apparatus connected via a network with a server that distributes content supplied based on a reservation in real time,
Scenario data for generating scenario data indicating a setting for selecting image data and a setting for applying image processing to the image data , corresponding to a time based on the start of distribution based on the reservation of the content to the server Generation step;
A first image data acquisition step of acquiring live image data which is the image data supplied from a predetermined imaging means;
A second image data acquisition step of reading out and acquiring recorded image data, which is the image data recorded in advance, from a predetermined recording unit;
The acquisition of the image data in the first image data acquisition step and the acquisition of the image data in the second image data acquisition step are based on the start of distribution of the content to the server according to the scenario data A switching step that switches in accordance with the elapsed time from the time
The content to be distributed to the server by applying image processing set to the image data acquired in the first image data acquisition step or the second image data acquisition step according to the scenario data. A content generation step to generate;
A program for executing a distribution control step of controlling distribution of the generated content to the server .
JP2001385451A 2001-12-19 2001-12-19 Information processing apparatus and method, and program Expired - Fee Related JP4023150B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001385451A JP4023150B2 (en) 2001-12-19 2001-12-19 Information processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001385451A JP4023150B2 (en) 2001-12-19 2001-12-19 Information processing apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2003189279A JP2003189279A (en) 2003-07-04
JP4023150B2 true JP4023150B2 (en) 2007-12-19

Family

ID=27594862

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001385451A Expired - Fee Related JP4023150B2 (en) 2001-12-19 2001-12-19 Information processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP4023150B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060041632A1 (en) * 2004-08-23 2006-02-23 Microsoft Corporation System and method to associate content types in a portable communication device
RU2008105912A (en) * 2005-07-20 2009-08-27 Креатекна Xxi С.П. (Es) DIRECT TELEVISION SYSTEM FROM MOBILE PHONE
JP6385538B1 (en) * 2017-08-15 2018-09-05 株式会社ドワンゴ Content distribution server, content distribution method, and content distribution program

Also Published As

Publication number Publication date
JP2003189279A (en) 2003-07-04

Similar Documents

Publication Publication Date Title
US9544245B2 (en) Server reservation method, reservation control apparatus and program storage medium
US7856468B2 (en) Server reservation method, reservation control apparatus and program storage medium
KR101026593B1 (en) Network control confirmation system, control communication terminal, server, and network control confirmation method
US6970928B2 (en) Content distribution method and content supply system
US7681225B2 (en) Content distribution system, content distribution control apparatus, content distribution control method, content distribution control program and content distribution control program storage medium
US7386623B2 (en) Content distribution notification method, reservation control apparatus and program storage medium
US7716708B2 (en) Content distribution method, reservation management device, and program storage medium
JP2003036219A (en) Contents distribution system, apparatus, method and program for managing contents reservation, and storage medium for contents reservation management program
US20020046401A1 (en) Information processing apparatus and method, information providing apparatus and method, and program storage medium
CN103037243A (en) Method and system for switching network videos among multiple intelligent terminals and intelligent terminals
WO2008075083A2 (en) Interdevice transmission of data
CN103037266A (en) Terminal video switching method, system and intelligent terminal based on proxy server
JP4023150B2 (en) Information processing apparatus and method, and program
JP4736166B2 (en) Information processing apparatus and method, information processing system, and recording medium
JP2009044749A (en) Information processing system, recording device, and communication apparatus
JP4051935B2 (en) Information collection system, information collection method, and information collection program
JP4348930B2 (en) Service providing system, recording apparatus and method, information processing apparatus and method, recording medium, and program
JP2003224801A (en) Reproduction apparatus system, information processing apparatus, and control method for the information processing apparatus
JP3888182B2 (en) Recording apparatus and method, display apparatus and method, and program
JP2003030552A (en) Procedure situation notification system, device, method, program and program storage medium, and procedure implementation device, method, program and program storage medium
JP2003309795A (en) Device and method for reproduction, device and method for provision, and program
JP2003309839A (en) Image processing apparatus and method, and program
JP2001356982A (en) Information processor, its method and program storage medium
KR20040011580A (en) Wireless internet mobile video/audio receiver

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070924

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101012

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees