JP4023150B2 - 情報処理装置および方法、並びにプログラム - Google Patents

情報処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP4023150B2
JP4023150B2 JP2001385451A JP2001385451A JP4023150B2 JP 4023150 B2 JP4023150 B2 JP 4023150B2 JP 2001385451 A JP2001385451 A JP 2001385451A JP 2001385451 A JP2001385451 A JP 2001385451A JP 4023150 B2 JP4023150 B2 JP 4023150B2
Authority
JP
Japan
Prior art keywords
image data
content
time
data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001385451A
Other languages
English (en)
Other versions
JP2003189279A (ja
Inventor
正道 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001385451A priority Critical patent/JP4023150B2/ja
Publication of JP2003189279A publication Critical patent/JP2003189279A/ja
Application granted granted Critical
Publication of JP4023150B2 publication Critical patent/JP4023150B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、情報処理装置および方法、並びにプログラムに関し、特に、コンテンツを配信する情報処理装置および方法、並びにプログラムに関する。
【0002】
【従来の技術】
インタネットなどのネットワークを介して、パーソナルコンピュータから他のパーソナルコンピュータにコンテンツを配信するシステムが利用されている。
【0003】
【発明が解決しようとする課題】
しかしながら、いわゆるライブで画像を撮像して、撮像された画像をコンテンツとして配信するとき、撮像するカメラまたはマイクロフォンなど、ソースの切り換え、または撮像した画像への効果、いわゆるエフェクトの適用は、コンテンツを配信している最中に手動で、コンテンツを配信するパーソナルコンピュータに指示しなければならなかった。
【0004】
このため、1人だけで自ら出演するようなライブのコンテンツを配信するとき、ソースの切り換え、または所望の効果の選択は、不可能であった。また、複数人でコンテンツを配信するときであっても、操作のミスをなくすことはできず、コンテンツを繰り返して配信するとき、ソースの切り換えが同一の手順、または効果の適用が同一の手順であっても、その都度操作をしなければならず、面倒であるという問題があった。
【0005】
本発明はこのような状況に鑑みてなされたものであり、確実に、所望のソースの切り換えおよび効果の適用ができるようにすることを目的とする。
【0006】
【課題を解決するための手段】
本発明の情報処理装置は、サーバへのコンテンツの予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および画像データに対する画像処理の適用の設定を示すシナリオデータを生成するシナリオデータ生成手段と、所定の撮像手段から供給される画像データであるライブ画像データを取得する第1の画像データ取得手段と、予め記録された画像データである記録画像データを所定の記録手段から読み出して取得する第2の画像データ取得手段と、第1の画像データ取得手段による画像データの取得と、第2の画像データ取得手段による画像データの取得とを、シナリオデータに従って、サーバへのコンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替える切替手段と、シナリオデータに従って、第1の画像データ取得手段または第2の画像データ取得手段により取得された画像データに対して設定された画像処理を適用して、サーバに配信するコンテンツを生成するコンテンツ生成手段と、生成されたコンテンツのサーバへの配信を制御する配信制御手段とを備えることを特徴とする。
【0007】
撮像手段をさらに設け、第1の画像データ取得手段には、自分の撮像手段から供給されるライブ画像データを取得させることができる。
【0008】
所定の音声取得手段から供給される音声データであるライブ音声データを取得する第1の音声データ取得手段と、予め記録された音声データである記録音声データを所定の記録手段から読み出して取得する第2の音声データ取得手段とをさらに設け、切替手段には、第1の音声データ取得手段による音声データの取得と、第2の音声データ取得手段による音声データの取得とを、シナリオデータに従って、サーバへのコンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替えさせることができる。
コンテンツを配信する前に、現実の時間に対し所望の倍率を有する仮想的な時間を基準として、コンテンツの再生を制御するプレビュー制御手段をさらに設けることができる。
【0009】
本発明の情報処理方法は、サーバへのコンテンツの予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および画像データに対する画像処理の適用の設定を示すシナリオデータを生成するシナリオデータ生成ステップと、所定の撮像手段から供給される画像データであるライブ画像データを取得する第1の画像データ取得ステップと、予め記録された画像データである記録画像データを所定の記録手段から読み出して取得する第2の画像データ取得ステップと、第1の画像データ取得ステップにおける画像データの取得と、第2の画像データ取得ステップにおける画像データの取得とを、シナリオデータに従って、サーバへのコンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替える切替ステップと、シナリオデータに従って、第1の画像データ取得ステップまたは第2の画像データ取得ステップにおいて取得された画像データに対して設定された画像処理を適用して、サーバに配信するコンテンツを生成するコンテンツ生成ステップと、生成されたコンテンツのサーバへの配信を制御する配信制御ステップとを含むことを特徴とする。
【0010】
本発明のプログラムは、コンピュータに、サーバへのコンテンツの予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および画像データに対する画像処理の適用の設定を示すシナリオデータを生成するシナリオデータ生成ステップと、所定の撮像手段から供給される画像データであるライブ画像データを取得する第1の画像データ取得ステップと、予め記録された画像データである記録画像データを所定の記録手段から読み出して取得する第2の画像データ取得ステップと、第1の画像データ取得ステップにおける画像データの取得と、第2の画像データ取得ステップにおける画像データの取得とを、シナリオデータに従って、サーバへのコンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替える切替ステップと、シナリオデータに従って、第1の画像データ取得ステップまたは第2の画像データ取得ステップにおいて取得された画像データに対して設定された画像処理を適用して、サーバに配信するコンテンツを生成するコンテンツ生成ステップと、生成されたコンテンツのサーバへの配信を制御する配信制御ステップとを実行させる。
【0011】
本発明の情報処理装置および方法、並びにプログラムにおいては、サーバへのコンテンツの予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および画像データに対する画像処理の適用の設定を示すシナリオデータが生成され、所定の撮像手段から供給される画像データであるライブ画像データが取得され、予め記録された画像データである記録画像データが所定の記録手段から読み出して取得され、ライブ画像データの取得と、記録画像データの取得とが、シナリオデータに従って、サーバへのコンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替えられ、シナリオデータに従って、取得されたライブ画像データまたは記録画像データに対して設定された画像処理が適用されて、サーバに配信するコンテンツが生成され、生成されたコンテンツのサーバへの配信が制御される。
【0012】
【発明の実施の形態】
図1は、本発明に係るコンテンツ配信システム1の一実施の形態の構成を示す図である。コンテンツ配信システム1は、パーソナルキャスティングを実行するシステムである。
【0013】
コンテンツ配信システム1は、インタネット11、公衆回線網12、および図示せぬISP(Internet Service Provider)を介して、パーソナルコンピュータ13、サーバ使用予約管理センタ14、サーバ接続専用ネットワーク15、クライアントとしてのパーソナルコンピュータ16−1乃至16−3、およびストリーミングサーバ17を含む。
【0014】
専用回線18は、サーバ使用予約管理センタ14とストリーミングサーバ17とを接続する。
【0015】
公衆回線網12は、ADSL(Asymmetric Digital Subscriber Line)網31−1、ケーブルテレビ網31−2、または電話回線網31−3を含む。
【0016】
パーソナルコンピュータ13は、アンテナ19を介して、図示せぬ放送局から放送された番組を取得すると共に、ネットワークを介して接続されたデジタルビデオカメラ20−1または20−2から供給された画像データおよび音声データを取得する。
【0017】
パーソナルコンピュータ13は、さらに、アナログインタフェースを介して、ビデオカメラ21から画像信号を取得すると共に、マイクロフォン22から音声信号を取得する。
【0018】
パーソナルコンピュータ13は、記録している画像データ若しくは音声データ、受信した番組、デジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データ、ビデオカメラ21から取得した画像信号、またはマイクロフォン22から取得した音声信号を基に、パーソナルコンピュータ16−1乃至16−3に配信するコンテンツを生成する。
【0019】
パーソナルコンピュータ13は、生成したコンテンツをストリーミングサーバ17に供給するとき、例えば、公衆回線網13の電話回線網31−3を介して、サーバ接続専用ネットワーク15のアクセスポートに、PPP(Point-to-Point Protocol)接続し、ストリーミングサーバ17との伝送路を確立する。パーソナルコンピュータ13は、サーバ接続専用ネットワーク15による伝送路を介して、確実にコンテンツをストリーミングサーバ17に送信することができる。
【0020】
パーソナルコンピュータ13は、確立した伝送路を介して、コンテンツをストリーミングサーバ17に送信する。
【0021】
パーソナルコンピュータ13は、リアルタイムに、記録している画像データ若しくは音声データ、受信した番組、デジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データ、ビデオカメラ21から取得した画像信号、またはマイクロフォン22から取得した音声信号を基に、パーソナルコンピュータ16−1乃至16−3に配信するコンテンツを生成し、確立した伝送路を介して、リアルタイムに、コンテンツをストリーミングサーバ17に送信する。
【0022】
パーソナルコンピュータ13は、インタネット11、公衆回線網12、および図示せぬISPを介して、ストリーミングサーバ17と接続するようにしてもよい。パーソナルコンピュータ13は、ADSL網31−1、ケーブルテレビ網31−2、および電話回線網31−3のうちの1つの伝送路を介して、コンテンツをストリーミングサーバ17に送信するようにしてもよい。
【0023】
サーバ使用予約管理センタ14は、パーソナルコンピュータ13から要求された、ストリーミングサーバ17のストリーミング配信機能を使用する時間帯の予約を基に、ストリーミング配信機能の使用を、ストリーミングサーバ17に予約する。
【0024】
ストリーミングサーバ17は、ストリーミング配信機能の使用が予約された所定の時間帯において、パーソナルコンピュータ13から送信されたコンテンツを、インタネット11を介して、いわゆる、ストリームにより、パーソナルコンピュータ16−1乃至16−3にリアルタイムに提供する。
【0025】
パーソナルコンピュータ16−1は、インタネット11を介して、ストリーミングサーバ17から送信されたストリームであるコンテンツを受信し、受信したコンテンツを基に、画像を表示すると共に、音声を出力する。
【0026】
パーソナルコンピュータ16−2は、インタネット11を介して、ストリーミングサーバ17から送信されたストリームであるコンテンツを受信し、受信したコンテンツを基に、画像を表示すると共に、音声を出力する。
【0027】
パーソナルコンピュータ16−3は、インタネット11を介して、ストリーミングサーバ17から送信されたストリームであるコンテンツを受信し、受信したコンテンツを基に、画像を表示すると共に、音声を出力する。
【0028】
すなわち、コンテンツ配信システム1は、ストリーミングサーバ17がパーソナルコンピュータ13からリアルタイムに送信されたコンテンツを、パーソナルコンピュータ16−1乃至16−3にリアルタイムに提供することにより、個人放送、すなわちパーソナルキャスティングを実現する。
【0029】
パーソナルコンピュータ13、パーソナルコンピュータ16−1乃至16−3、およびストリーミングサーバ17は、相互認証するとき、専用回線18を介して、相互に認証データを授受する。
【0030】
パーソナルコンピュータ13は、パーソナルキャスティングにおける放送開始を基準とした時間の経過に対応して、記録している画像データ若しくは音声データ、受信した番組、デジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データ、ビデオカメラ21から取得した画像信号、またはマイクロフォン22から取得した音声信号の選択を決定すると共に、選択された記録している画像データ若しくは音声データ、受信した番組、デジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データ、ビデオカメラ21から取得した画像信号、またはマイクロフォン22から取得した音声信号に適用する画像処理または音声処理の選択を予め設定する。
【0031】
以下、記録している画像データ若しくは音声データ、受信した番組、デジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データ、ビデオカメラ21から取得した画像信号、またはマイクロフォン22から取得した音声信号を、ソースとも称する。
【0032】
以下、画像または音声に適用する画像処理または音声処理は、効果またはエフェクトともに称する。
【0033】
パーソナルコンピュータ13は、ストリーミングサーバ17にコンテンツを供給する前に、予め定めたソースの選択およびエフェクトの選択を基に、記録している画像データ若しくは音声データ、受信した番組、デジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データ、ビデオカメラ21から取得した画像信号、またはマイクロフォン22から取得した音声信号から、コンテンツを生成し、生成したコンテンツに対応する画像を表示すると共に、音声を出力する。
【0034】
ストリーミングサーバ17にコンテンツを供給する前に、予め定めたソースの選択およびエフェクトの選択を基に、コンテンツを生成し、生成したコンテンツに対応する画像を表示すると共に、音声を出力する処理をプレビューとも称する。
【0035】
パーソナルコンピュータ13は、ストリーミングサーバ17にコンテンツを供給するとき、すなわち、パーソナルキャスティングを実行するとき、予め定めたソースの選択およびエフェクトの選択を基に、記録している画像データ若しくは音声データ、受信した番組、デジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データ、ビデオカメラ21から取得した画像信号、またはマイクロフォン22から取得した音声信号から、リアルタイムにコンテンツを生成する。
【0036】
アンテナ19は、図示せぬ放送局から放送された電波を受信し、受信した電波に対応する信号をパーソナルコンピュータ13に供給する。
【0037】
デジタルビデオカメラ20−1は、デジタルデータである、撮像した動画像または静止画像に対応する画像データを、ネットワークを介して、パーソナルコンピュータ13に供給すると共に、デジタルデータである、取得した音声データをネットワークを介して、パーソナルコンピュータ13に供給する。
【0038】
デジタルビデオカメラ20−2は、デジタルデータである、撮像した動画像または静止画像に対応する画像データを、ネットワークを介して、パーソナルコンピュータ13に供給すると共に、デジタルデータである、取得した音声データをネットワークを介して、パーソナルコンピュータ13に供給する。
【0039】
ビデオカメラ21は、アナログ信号である、撮像した動画像または静止画像に対応する画像信号を、パーソナルコンピュータ13に供給する。マイクロフォン22は、アナログ信号である、取得した音声信号をパーソナルコンピュータ13に供給する。
【0040】
以下、パーソナルコンピュータ16−1乃至16−3を個々に区別する必要がないとき、単にパーソナルコンピュータ16と称する。
【0041】
以下、デジタルビデオカメラ20−1および20−2を個々に区別する必要がないとき、単にデジタルビデオカメラ20と称する。
【0042】
図2乃至図5は、パーソナルコンピュータ13の外観を示す図である。
【0043】
図2は、本体52に対して表示部51が開かれたパーソナルコンピュータ13の正面図である。
【0044】
表示部51は、ヒンジ部53を介して、本体52と開閉自在に連結されている。表示部51には、画像または文字などを表示するLCD(Liquid Crystal Display)54が設けられている。本体52には、文字またはパーソナルコンピュータ13に対する指令を入力するためのキーボード55が設けられている。
【0045】
表示部51は、ヒンジ部53により、図中の矢印aの方向に回動自在に、本体52に連結されている。
【0046】
図3に示すように、LCD54の表示面と、キーボード55の上面がほぼ同じ方向を向くように、表示部51は、本体52に対して、回動させることができる。
【0047】
ジョグダイヤル56は、表示部54の右上側に設けられ、回転または図中の左側への押圧により、パーソナルコンピュータ13にアイコンの選択、またはプログラムの起動などの指令を与える。
【0048】
本体52の右側には、操作ボタン58、およびデジタルビデオカメラ59からなる撮像部57が設けられている。
【0049】
パーソナルコンピュータ13は、ジョグダイヤル56または操作ボタン58の操作に対応して、デジタルビデオカメラ59に撮影を開始させるか、撮影を停止させるか、焦点距離を変更させるか(いわゆる、ズームインさせるかまたはズームアウトさせる)、撮像した画像に所定のエフェクトを適用するか、撮像した画像に対応する画像データを保存するか、または撮像した画像に対応する画像データを送信する。
【0050】
本体52の手前側には、アイコンの選択、プログラムの起動などの指令を与えるポインティングデバイス60が設けられている。
【0051】
表示部51の上側には、音声を取得するためのマイクロフォン61が設けられている。
【0052】
また、デジタルビデオカメラ59は、図2中の矢印bの方向に、本体52に対して回動自在に連結されている。
【0053】
図4に示すように、LCD54の表示面と、キーボード55の上面がほぼ同じ方向を向くように、表示部51を回動して、表示部51を本体52に対して閉じて、デジタルビデオカメラ59を使用者側に向けることにより、パーソナルコンピュータ13は、使用者自身を撮像することができる。このとき、パーソナルコンピュータ13は、撮像している使用者の画像を表示部51に表示させることができるので、使用者は、内容を確認しながら、自分を撮像することができる。
【0054】
この場合において、使用者は、ジョグダイヤル56または操作ボタン58により、パーソナルコンピュータ13に撮像を実行させるか、または停止させることができる。
【0055】
一方、図5に示すように、LCD54の表示面と、キーボード55の上面がほぼ同じ方向を向くように、表示部51を回動して、表示部51を本体52に対して閉じて、デジタルビデオカメラ59を使用者の正面側に向けることにより、パーソナルコンピュータ13は、使用者の正面に位置する対象物を撮像することができる。
【0056】
次に、パーソナルコンピュータ13の構成の例について図6に示すブロック図を参照して説明する。
【0057】
中央処理装置(CPU(Central Processing Unit))101は、オペーレーティングシステムまたは各種のアプリケーションプログラムなどを実行し、各種の処理を実際に実行する。CPU101は、例えば、インテル(Intel)社製のペンティアム(登録商標)(Pentium(R))プロセッサ等で構成される。CPU101は、ホストバス(プロセッサバス)を介して、ハブ102に接続されている。
【0058】
ハブ102は、AGP(Accelerated Graphics Port)インタフェース、およびメモリインタフェース等を有し、CPU101およびRAM(Random-Access Memory)103(いわゆる、メインメモリ)等のデータの伝送などを制御する。ハブ102は、AGPを介して、ビデオコントローラ104とのデータの伝送を制御する。ハブ102は、例えば、インテル社製の82850 Memory Controller Hubなどからなる。
【0059】
RAM103は、例えば、DRAM(Dynamic RAM)で構成され、CPU101が実行するプログラム、またはCPU101の動作に必要なデータを記憶する。具体的には、例えば、RAM103は、起動が完了した時点において、HDD106からロードされた、後述するオペレーティングシステム、およびコンテンツ配信プログラム等を記憶する。
【0060】
オペレーティングシステム(Operating System)は、例えばマイクロソフト社のいわゆるウィンドウズ(登録商標)(Windows(登録商標))XP、またはアップルコンピュータ社のいわゆるマックOS(商標)等に代表される、コンピュータの基本的な動作を制御するプログラムである。
【0061】
ビデオコントローラ104は、AGPを介してハブ102に接続されており、AGPおよびハブ102を介して、CPU101から供給されるデータ(イメージデータまたはテキストデータなど)を受信して、受信したデータに対応するイメージデータを生成するか、または受信したデータをそのまま、内蔵するビデオメモリに記憶する。ビデオコントローラ104は、表示部51のLCD(Liquid Crystal Display)54に、ビデオメモリに記憶されているイメージデータに対応する画像を表示させる。
【0062】
LCD54は、ビデオコントローラ104から供給されたデータを基に、画像または文字などを表示する。
【0063】
ハブ102には、さらに、ハブインタフェースを介して、ハブ105が接続されている。
【0064】
ハブ105は、IDE(Integrated Drive Electronics)インタフェース151、LAN(Local Area Network)インタフェース152、USB(Universal Serial Bus)インタフェース153、RTC(Real Time Clock)154、ファームウェアハブインタフェース155、音声信号インタフェース156、PCI(Peripheral Component Interconnect)インタフェース157、LPC(Low Pin Count)インタフェース158、および電源制御回路159等を有する。
【0065】
ハブ105は、例えば、インテル社製の82801BA I/O Controller Hub 2などからなり、ハブ102およびハブ105は、いわゆるチップセットシステムを構成する。
【0066】
IDEインタフェース151は、その内部に、IDEコントローラ/コンフィギュレーションレジスタ、いわゆるプライマリIDEコントローラとセカンダリIDEコントローラとの2つのIDEコントローラ、およびコンフィギュレーションレジスタ(configuration register)等を含む。
【0067】
IDEインタフェース151のプライマリIDEコントローラには、IDEバスを介して、HDD(Hard Disk Drive)106が接続されている。
【0068】
HDD106は、オペレーティングシステム、および文章入力プログラム等の各種のプログラムまたはデータを記録する。HDD106に記録されているオペレーティングシステム、およびコンテンツ配信プログラム等は、例えば、起動(ブートアップ)処理の過程で、RAM103に順次供給され、ロードされる。
【0069】
LANインタフェース152は、ローカルエリアネットワークに接続するためのインタフェースである。パーソナルコンピュータ13は、LANインタフェース152により接続されているローカルエリアネットワークを介して、インタネット11に接続することができる。
【0070】
USBインタフェース153は、USBポートを介して、接続されている外部の装置にデータを送信すると共に、デバイスからデータを受信する。
【0071】
RTC154は、時間を測定し、現在時刻を示すデータを提供する。
【0072】
ファームウェアハブインタフェース155は、ファームウェアハブ119と接続するためのインタフェースである。ファームウェアハブ119は、オペレーティングシステムまたはアプリケーションプログラムと周辺機器(キーボード55、ポインティングデバイス60、またはHDD106等)との間で、データの受け渡し(入出力)を制御するBIOS(Basic Input/Output System(基本入出力システム))を記憶している。パーソナルコンピュータが起動されるとき、ファームウェアハブインタフェース155は、ファームウェアハブ119からBIOSを取得する。
【0073】
音声信号インタフェース156には、サウンドコントローラ107が接続されている。サウンドコントローラ107は、マイクロフォン61から音声に対応する信号を取り込み、音声に対応するデータを生成して、RAM103に出力する。または、サウンドコントローラ107は、スピーカ108を駆動して、スピーカ108に音声を出力させる。
【0074】
PCIインタフェース157には、内蔵する汎用デバイスを接続するためのPCIバスを介して、インタフェース109、メモリカードインタフェース111、インタフェース112、MPEG(Moving Pictures Experts Group)2エンコーダ/デコーダ113、AV(Audio Visual)アナログインタフェース114、IEEE(Institute of Electrical and Electronic Engineers)1394インタフェース115、およびチューナ116が接続されている。
【0075】
インタフェース109は、例えば、SCSI(Small Computer System Interface)インタフェース、またはIEEE1394インタフェースなど、各種の記録媒体または記憶媒体にプログラムまたはデータを書き込み、または各種の記録媒体または記憶媒体に記録または記憶されているプログラムまたはデータを読み出すためのドライブ110を接続するためのインタフェースである。
【0076】
ドライブ110は、装着されている磁気ディスク141、光ディスク142、光磁気ディスク143、または半導体メモリ144に記録されているプログラムまたはデータを読み出し、読み出したプログラムまたはデータをインタフェース109、PCIバス、およびPCIインタフェース157等を介して、CPU101またはRAM103に供給する。
【0077】
メモリカードインタフェース111は、図示せぬメモリカードスロットに装着されたメモリカード(例えば、メモリースティック(商標))にプログラムまたはデータを書き込み、装着されているメモリカードに記憶されているプログラムまたはデータを読み出すためのインタフェースである。
【0078】
インタフェース112は、デジタルビデオカメラ59を接続するためのインタフェースである。デジタルビデオカメラ59は、撮像した画像の画像データをインタフェース112、PCIバス、およびPCIインタフェース157等を介して、CPU101に供給する。
【0079】
MPEG2エンコーダ/デコーダ113は、AVアナログインタフェース114、IEEE1394インタフェース115、またはチューナ116から供給された画像データまたは音声データを圧縮符号化し、圧縮符号化した画像データまたは音声データを、HDD106に供給するか、またはLANインタフェース152若しくはモデム118に供給する。
【0080】
MPEG2エンコーダ/デコーダ113は、HDD106から供給された圧縮符号化されている画像データまたは音声データを伸張し、伸張した画像データまたは音声データを、RAM103、ビデオコントローラ104、またはサウンドコントローラ107に供給する。
【0081】
AVアナログインタフェース114は、ビデオカメラ21から供給された、アナログ信号である画像信号、およびマイクロフォン22から供給されたアナログ信号である音声信号を取得するためのインタフェースである。AVアナログインタフェース114は、取得したアナログ信号である画像信号に対応する画像データを生成して、RAM103、またはMPEG2エンコーダ/デコーダ113に供給する。
【0082】
AVアナログインタフェース114は、取得したアナログ信号である音声信号に対応する音声データを生成して、RAM103、またはMPEG2エンコーダ/デコーダ113に供給する。
【0083】
IEEE1394インタフェース115は、IEEE1394の規格に基づくネットワークを介して、デジタルビデオカメラ20と接続するためのインタフェースである。
【0084】
チューナ116は、アンテナ19から供給された信号を基に、選択したチャンネルの番組に対応する画像データおよび音声データをMPEG2エンコーダ/デコーダ113に供給するか、または、ハブ105またはハブ102を介して、ビデオコントローラ104若しくはサウンドコントローラ107に供給する。
【0085】
LPCインタフェース158には、比較的低速なデバイスを接続するためのインタフェース117が接続されている。インタフェース117は、キーボード55、ポインティングデバイス60、およびモデム118などから供給される、操作などに対応した信号を取得し、取得した信号をLPCインタフェース158に供給すると共に、LPCインタフェース158から供給された信号に基づいて、モデム118にデータの通信を指示する。
【0086】
モデム118は、ADSL網31−1、ケーブルテレビ網31−2、または電話回線網31−3に接続するためのモデムである。パーソナルコンピュータ13は、モデム118により接続される、ADSL網31−1、ケーブルテレビ網31−2、または電話回線網31−3を介して、インタネット11に接続する。
【0087】
また、パーソナルコンピュータ13は、モデム118により接続される、電話回線網31−3およびサーバ接続専用ネットワーク15を介して、ストリーミングサーバ17に接続する。
【0088】
電源制御回路159は、バッテリ120に接続されており、各ブロックに、必要な電源を供給するとともに、電源をオンまたはオフするときに操作される電源スイッチからの信号またはCPU101からの指示に基づいて、電源のオンまたはオフの制御を行う。電源制御回路159は、バッテリ120への充電を制御する。
【0089】
図7は、パーソナルコンピュータ13が実行するプログラムを説明するブロック図である。
【0090】
オペレーティングシステム171は、パーソナルコンピュータ13の基本的な動作を管理するためのプログラムである。
【0091】
デバイスドライバ172は、オペレーティングシステム171の制御、およびコンテンツ配信プログラム174の要求に基づいて、デジタルビデオカメラ59、サウンドコントローラ107、IEEE1394インタフェース115、およびAVアナログインタフェース114を制御するプログラムである。デバイスドライバ172は、デジタルビデオカメラ59が撮像した画像の画像データ、マイクロフォン61が取得した音声の音声データ、IEEE1394インタフェース115を介して、デジタルビデオカメラ20から供給された画像データ若しくは音声データ、またはAVアナログインタフェース114を介してビデオカメラ21から供給された画像信号、若しくはマイクロフォン22から供給された音声信号に対応する画像データまたは音声データをコンテンツ配信プログラム174に供給する。
【0092】
通信プログラム173は、LANインタフェース152またはモデム118を制御し、コンテンツ配信プログラム174から供給されたコンテンツを電話回線網31−3およびサーバ接続専用ネットワーク15を介して、ストリーミングサーバ17に供給する。
【0093】
コンテンツ配信プログラム174は、通信プログラム173に、公衆回線網12およびインタネット11を介して、ストリーミングサーバ17のストリーミング配信機能を使用する時間帯の予約をサーバ使用予約管理センタ14に要求させる。
【0094】
コンテンツ配信プログラム174は、パーソナルキャスティングにおける放送開始から経過時刻に対応する、チューナ116から供給された画像データ若しくは音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、AVアナログインタフェース114を介して、ビデオカメラ21から供給された画像信号に対応する画像データ若しくはマイクロフォン22から供給された音声信号に対応する音声データ、またはHDD106に記録されている、動画ファイル175−1乃至175−Jのそれぞれに格納されている画像データ、静止画ファイル176−1乃至176−Kのそれぞれに格納されている画像データ、若しくは音声ファイル177−1乃至177−Nのそれぞれに格納されている音声データの選択を決定する。
【0095】
コンテンツ配信プログラム174は、選択された、チューナ116から供給された画像データ若しくは音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、AVアナログインタフェース114を介してビデオカメラ21から供給された画像信号に対応する画像データ若しくはマイクロフォン22から供給された音声信号に対応する音声データ、またはHDD106に記録されている、動画ファイル175−1乃至175−Jのそれぞれに格納されている画像データ、静止画ファイル176−1乃至176−Kのそれぞれに格納されている画像データ、若しくは音声ファイル177−1乃至177−Nのそれぞれに格納されている音声データに適用する画像処理または音声処理(いわゆる、エフェクト)の選択を決定する。
【0096】
コンテンツ配信プログラム174は、パーソナルキャスティングにおける放送開始を基準とした時間の経過に対応して、画像データまたは音声データの選択(入力インタフェースまたは入力ポートの選択を含む)、および選択された画像データまたは音声データに適用するエフェクトの選択をシナリオファイル178−1乃至178−Mのいずれか1つに記録する。
【0097】
コンテンツ配信プログラム174は、ストリーミングサーバ17にコンテンツを供給する前に、シナリオファイル178−1乃至178−Mのいずれか1つを基に、チューナ116から供給された画像データ若しくは音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、AVアナログインタフェース114を介してビデオカメラ21から供給された画像信号に対応する画像データ若しくはマイクロフォン22から供給された音声信号に対応する音声データ、またはHDD106に記録されている、動画ファイル175−1乃至175−Jのそれぞれに格納されている画像データ、静止画ファイル176−1乃至176−Kのそれぞれに格納されている画像データ、若しくは音声ファイル177−1乃至177−Nのそれぞれに格納されている音声データから、ストリーミングデータである、画像データおよび音声データからなるコンテンツを生成し、生成したコンテンツに対応する画像をLCD54に表示させると共に、スピーカ108に音声を出力させる。
【0098】
コンテンツ配信プログラム174は、ストリーミングサーバ17にコンテンツを供給するとき、すなわち、パーソナルキャスティングを実行するとき、予め選択したシナリオファイル178−1乃至178−Mのいずれか1つを基に、チューナ116から供給された画像データ若しくは音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、AVアナログインタフェース114を介してビデオカメラ21から供給された画像信号に対応する画像データ若しくはマイクロフォン22から供給された音声信号に対応する音声データ、またはHDD106に記録されている、動画ファイル175−1乃至175−Jのそれぞれに格納されている画像データ、静止画ファイル176−1乃至176−Kのそれぞれに格納されている画像データ、若しくは音声ファイル177−1乃至177−Nのそれぞれに格納されている音声データから、ストリーミングデータである、画像データおよび音声データからなるコンテンツをリアルタイムに生成する。
【0099】
コンテンツ配信プログラム174は、通信プログラム173に、リアルタイムに生成したコンテンツを、ストリーミングサーバ17にリアルタイムに供給させる。
【0100】
以下、シナリオファイル178−1乃至178−Mを個々に区別する必要がないとき、単にシナリオファイル178と称する。
【0101】
図8は、コンテンツ配信プログラム174の構成を示すブロック図である。
【0102】
入力モジュール181は、ソース選択エフェクト設定モジュール186の制御に基づいて、チューナ116から供給された画像データ若しくは音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、AVアナログインタフェース114を介してビデオカメラ21から供給された画像信号に対応する画像データ若しくはマイクロフォン22から供給された音声信号に対応する音声データ、またはHDD106に記録されている、動画ファイル175−1乃至175−Jのそれぞれに格納されている画像データ、静止画ファイル176−1乃至176−Kのそれぞれに格納されている画像データ、若しくは音声ファイル177−1乃至177−Nのそれぞれに格納されている音声データのうち、画像データまたは音声データを選択し、選択した画像データまたは音声データを入力する。入力モジュール181は、入力した画像データまたは音声データを、エフェクトモジュール182に出力する。
【0103】
なお、入力モジュール181は、ソース選択エフェクト設定モジュール186の制御に基づいて、エフェクトモジュール182にいずれの画像データも供給しないか、1つの画像データを供給するか、または複数の画像データを供給する。同様に、入力モジュール181は、ソース選択エフェクト設定モジュール186の制御に基づいて、エフェクトモジュール182にいずれの音声データも供給しないか、1つの音声データを供給するか、または複数の音声データを供給する。
【0104】
エフェクトモジュール182は、ソース選択エフェクト設定モジュール186の制御に基づいて、入力モジュール181から供給された画像データに、例えば、ワイプのエフェクト、またはディゾルブのエフェクトなどを適用し、所定のエフェクトを適用した画像データを分配モジュール183に供給する。
【0105】
エフェクトモジュール182はまた、ソース選択エフェクト設定モジュール186の制御に基づいて、入力モジュール181から供給された音声データに、所定のエフェクトを適用し、所定のエフェクトを適用した音声データをプレビューモジュール184およびエンコードモジュール185に出力する。
【0106】
分配モジュール183は、エフェクトモジュール182から供給された画像データを、プレビューモジュール184およびエンコードモジュール185に分配して出力する。
【0107】
プレビューモジュール184は、エフェクトモジュール182から供給された画像データを基に、プレビュー画像をLCD54に表示させると共に、エフェクトモジュール182から供給された音声データを基に、音声をスピーカ108に出力させる。
【0108】
エンコードモジュール185は、MPEG2エンコーダ/デコーダ113に、エフェクトモジュール182から供給された音声データおよび分配モジュール183から供給された画像データを圧縮符号化させ、その結果得られたデータを、デバイスドライバ172および通信プログラム173に出力する。
【0109】
ソース選択エフェクト設定モジュール186は、HDD106に記録されているシナリオファイル178−1乃至178−Mのいずれかに基づいて、入力モジュール181の画像データまたは音声データの選択を制御すると共に、エフェクトモジュール182のエフェクトの適用の処理を制御する。
【0110】
ソース選択エフェクト設定モジュール186は、使用者による設定の操作に対応する、キーボード55、ジョグダイヤル56、またはポインティングデバイス60からの信号に基づいて、入力モジュール181の画像データまたは音声データの選択を設定し、およびエフェクトモジュール182のエフェクトの適用を設定する。ソース選択エフェクト設定モジュール186は、入力モジュール181の画像データまたは音声データの選択の設定、およびエフェクトモジュール182のエフェクトの適用の設定に対応するシナリオファイル178−1乃至178−Mのいずれかを、シナリオファイル生成モジュール187に生成させる。
【0111】
シナリオファイル生成モジュール187は、ソース選択エフェクト設定モジュール186における、入力モジュール181の画像データまたは音声データの選択の設定、およびエフェクトモジュール182のエフェクトの適用の設定に対応するシナリオファイル178−1乃至178−Mのいずれかを生成し、生成したシナリオファイル178−1乃至178−MのいずれかをHDD106に記録させる。
【0112】
図9は、ストリーミングサーバ17の構成を説明する図である。CPU201は、各種アプリケーションプログラムや、オペレーティングシステムを実際に実行する。ROM202は、一般的には、CPU201が使用するプログラムや演算用のパラメータのうちの基本的に固定のデータを格納する。RAM203は、CPU201の実行において使用するプログラムや、その実行において適宜変化するパラメータを格納する。これらはホストバスなどから構成されるバス204により相互に接続されている。
【0113】
バス204には、さらにインタフェース205が接続されている。
【0114】
HDD206は、ハードディスクを駆動し、それらにCPU201によって実行するプログラムや情報を記録または再生させる。
【0115】
ネットワークインタフェース207は、インタネット11が接続され、CPU201、またはHDD206から供給されたデータを、所定の方式のパケットに格納して、インタネット11を介して、送信するとともに、インタネット11を介して、受信したパケットに格納されているデータをCPU201,RAM203、またはHDD206に出力する。
【0116】
ネットワークインタフェース208は、サーバ接続専用ネットワーク15が接続され、CPU201、またはHDD206から供給されたデータを、所定の方式のパケットに格納して、サーバ接続専用ネットワーク15を介して、送信するとともに、サーバ接続専用ネットワーク15を介して、受信したパケットに格納されているデータをCPU201,RAM203、またはHDD206に出力する。
【0117】
ネットワークインタフェース209は、専用回線18が接続され、CPU201、またはHDD206から供給されたデータを、所定の方式のパケットに格納して、専用回線18を介して、送信するとともに、専用回線18を介して、受信したパケットに格納されているデータをCPU201,RAM203、またはHDD206に出力する。
【0118】
ネットワークインタフェース207、ネットワークインタフェース208、およびネットワークインタフェース209は、インタフェース205およびバス204を介して、CPU201に接続されている。
【0119】
図10は、ストリーミングサーバ17が実行するプログラムを説明する図である。
【0120】
オペレーティングシステム221は、ストリーミングサーバ17の基本的な動作を管理するためのプログラムである。
【0121】
通信プログラム222は、ネットワークインタフェース207を制御し、インタネット11と接続するためのプログラムである。通信プログラム222は、ストリーミング制御プログラム225から供給された、ストリームであるコンテンツをインタネット11を介して、パーソナルコンピュータ16−1乃至16−3に配信する。
【0122】
通信プログラム223は、ネットワークインタフェース208を制御し、サーバ接続専用ネットワーク15と接続するためのプログラムである。通信プログラム223は、サーバ接続専用ネットワーク15を介して、パーソナルコンピュータ13から供給された、ストリームであるコンテンツを受信し、受信したコンテンツをストリーミング制御プログラム225に供給する。
【0123】
通信プログラム224は、ネットワークインタフェース209を制御し、専用回線18を介して、サーバ使用予約管理センタ14と接続するためのプログラムである。通信プログラム224は、サーバ使用予約管理センタ14から送信された、ストリーミング配信機能を使用する時間帯の予約のデータを受信し、受信した予約のデータをストリーミング制御プログラム225に供給する。
【0124】
ストリーミング制御プログラム225は、ストリームであるコンテンツの配信を実行する。すなわち、ストリーミング制御プログラム225は、ストリーミング配信機能を使用する時間帯の予約のデータを基に、通信プログラム223から供給された、ストリームであるコンテンツを一時的にバッファ226に記憶させ、バッファ226に記憶されているコンテンツを、通信プログラム222に供給する。
【0125】
図11は、パーソナルコンピュータ16の構成を説明するブロック図である。CPU301は、各種アプリケーションプログラムや、OSを実際に実行する。ROM302は、一般的には、CPU301が使用するプログラムや演算用のパラメータのうちの基本的に固定のデータを格納する。RAM303は、CPU301の実行において使用するプログラムや、その実行において適宜変化するパラメータを格納する。これらはホストバス304により相互に接続されている。
【0126】
ホストバス304は、ブリッジ305を介して、PCIバスなどの外部バス306に接続されている。
【0127】
キーボード308は、CPU301に各種の指令を入力するとき、使用者により操作される。ポインティングデバイス309は、モニタ310の画面上のポイントの指示や選択を行うとき、使用者により操作される。モニタ310は、液晶表示装置またはCRT(Cathode Ray Tube)などから成り、各種情報をテキストやイメージで表示する。HDD311およびFDD(Flexible Disk Drive)312は、それぞれハードディスクまたはフレキシブルディスクを駆動し、それらにCPU301によって実行するプログラムや情報を記録または再生させる。
【0128】
スピーカ313は、CPU301から供給された音声データを基に、音声を出力する。
【0129】
これらのキーボード308乃至スピーカ313は、インターフェース307に接続されており、インターフェース307は、外部バス306、ブリッジ305、およびホストバス304を介してCPU301に接続されている。
【0130】
ネットワークインタフェース314は、インタネット11が接続され、CPU301、またはHDD311から供給されたデータを、所定の方式のパケットに格納して、ネットワーク4を介して、送信するとともに、インタネット11を介して、受信したパケットに格納されているデータをCPU301,RAM303、またはHDD311に出力する。
【0131】
ネットワークインタフェース314は、外部バス306、ブリッジ305、およびホストバス304を介してCPU301に接続されている。
【0132】
図12は、パーソナルコンピュータ16が実行するプログラムを説明するブロック図である。
【0133】
オペレーティングシステム321は、パーソナルコンピュータ16の基本的な動作を管理するためのプログラムである。
【0134】
通信プログラム322は、ネットワークインタフェース314を制御し、インタネット11と接続するためのプログラムである。通信プログラム322は、インタネット11を介して、ストリーミングサーバ17から供給された、ストリームであるコンテンツを受信し、受信したコンテンツをコンテンツ再生プログラム324に供給する。
【0135】
デバイスドライバ323は、コンテンツ再生プログラム324から供給された画像データを基に、モニタ310に画像を表示させると共に、コンテンツ再生プログラム324から供給された音声データを基に、スピーカ313に音声を出力させる。
【0136】
コンテンツ再生プログラム324は、通信プログラム322から供給された、ストリームであるコンテンツに含まれる画像データおよび音声データを復号(伸張)し、復号した画像データおよび音声データをデバイスドライバ323に供給し、デバイスドライバ323に、画像を表示させる共に音声を出力させる。
【0137】
次に、コンテンツ配信プログラム174の画像データまたは音声データの選択の設定、およびエフェクトの設定について説明する。
【0138】
図13は、コンテンツ配信プログラム174がLCD54に表示させる画像の例を示す図である。
【0139】
コンテンツ配信プログラム174は、画像データまたは音声データの選択の設定、およびエフェクトの設定をするとき、LCD54に、パーソナルキャスティングにおける放送開始を基準とした時間の経過に対応して、画像データまたは音声データの選択、およびエフェクトの選択を示すと共に、画像データまたは音声データの選択、およびエフェクトの選択を設定するウィンドウ401を表示する。
【0140】
コンテンツ配信プログラム174は、LCD54に、デジタルビデオカメラ59、マイクロフォン61、AVアナログインタフェース114、IEEE1394インタフェース115、またはチューナ116のいずれかから供給される画像データまたは音声データの選択を指定するためのウィンドウ402を表示させる。
【0141】
コンテンツ配信プログラム174は、LCD54に、HDD106に記録されている、動画ファイル175−1乃至175−Jのそれぞれに格納されている画像データ、静止画ファイル176−1乃至176−Kのそれぞれに格納されている画像データ、または音声ファイル177−1乃至177−Nのそれぞれに格納されている音声データの選択を指定するためのウィンドウ403を表示させる。
【0142】
コンテンツ配信プログラム174は、LCD54に、エフェクトを指定するためのウィンドウ403を表示させる。
【0143】
ウィンドウ401のカーソル431は、放送開始の時刻を基準として、時間の経過に対応する時刻のうち、所定の基準時刻を示す。例えば、コンテンツ配信プログラム174は、画像データまたは音声データの選択の設定を基に、カーソル431で示される基準時刻における選択された画像データまたは音声データに、選択されたエフェクトを適用した結果に対応する画像をウィンドウ406に表示する。
【0144】
ウィンドウ401のバー432、バー433、バー435、バー436、およびバー437は、それぞれ、1つの画像データまたは1つの音声データの選択および選択される期間を示す。
【0145】
図14に示すように、バー432は、動画ファィル1を、放送開始の時刻を基準として、時間の経過に対応する時刻のうち、時刻t1から時刻t3までの期間、選択することを示す。動画ファィル1は、例えば、動画ファイル175−1に対応する。
【0146】
バー433は、動画ファィル2を、放送開始の時刻を基準として、時間の経過に対応する時刻のうち、時刻t2から時刻t4までの期間、選択することを示す。動画ファィル1は、例えば、動画ファイル175−2に対応する。
【0147】
バー435は、音声ファィル1を、放送開始の時刻を基準として、時間の経過に対応する時刻のうち、時刻t1から時刻t5までの期間、選択することを示す。音声ファイル1は、例えば、音声ファイル177−1に対応する。
【0148】
バー436は、カメラ2に対応する画像データを、放送開始の時刻を基準として、時間の経過に対応する時刻のうち、時刻t4から時刻t6までの期間、選択することを示す。カメラ2は、例えば、ビデオカメラ21に対応する。
【0149】
バー437は、マイク1に対応する音声データを、放送開始の時刻を基準として、時間の経過に対応する時刻のうち、時刻t4から時刻t6までの期間、選択することを示す。マイク1は、例えば、マイクロフォン22に対応する。
【0150】
ウィンドウ401のバー434は、1つのエフェクトが選択される期間を示す。図14に示すように、バー434は、動画ファィル1および動画ファイル2に、ワイプであるエフェクトを適用することを示す。
【0151】
ウィンドウ402のボタン451は、カメラ1の選択を指定するボタンである。例えば、カメラ1がデジタルビデオカメラ20−1に対応するとき、ボタン451がクリックされ、ウィンドウ401において、時刻t11に対応する位置から時刻t12に対応する位置までドラッグされたとき、コンテンツ配信プログラム174は、時刻t11から時刻t12までのカメラ1、すなわちデジタルビデオカメラ20−1から供給される画像データの選択を設定し、対応するバーをウィンドウ401に表示させる。
【0152】
ボタン452は、カメラ2の選択を指定するボタンである。例えば、カメラ2はビデオカメラ21に対応するとき、ボタン452がクリックされ、ウィンドウ401において、時刻t21に対応する位置から時刻t22に対応する位置までドラッグされたとき、コンテンツ配信プログラム174は、時刻t21から時刻t22までのカメラ1、すなわちビデオカメラ21から供給される画像信号に対応する画像データの選択を設定し、対応するバーをウィンドウ401に表示させる。
【0153】
同様に、ボタン453は、マイク1の選択を指定するボタンであり、ボタン454は、カメラ3(例えば、デジタルビデオカメラ59に対応する)の選択を指定するボタンである。
【0154】
ウィンドウ403のボタン461は、動画ファイル1の選択を指定するボタンである。例えば、動画ファイル1が動画ファイル175−1に対応するとき、ボタン461がクリックされ、ウィンドウ401において、時刻t31に対応する位置から時刻t32に対応する位置までドラッグされたとき、コンテンツ配信プログラム174は、時刻t31から時刻t32までの動画ファイル1、すなわち動画ファイル175−1に格納されている画像データの選択を設定し、対応するバーをウィンドウ401に表示させる。
【0155】
同様に、ボタン462は、動画ファイル2(例えば、動画ファイル175−2に対応する)の選択を指定するボタンであり、ボタン463は、動画ファイル3(例えば、他の動画ファイルに対応する)の選択を指定するボタンである。
【0156】
ウィンドウ403のボタン464は、音声ファイル1の選択を指定するボタンである。例えば、音声ファイル1が音声ファイル177−1に対応するとき、ボタン464がクリックされ、ウィンドウ401において、時刻t41に対応する位置から時刻t42に対応する位置までドラッグされたとき、コンテンツ配信プログラム174は、時刻t41から時刻t42までの音声ファイル1、すなわち音声ファイル177−1に格納されている音声データの選択を設定し、対応するバーをウィンドウ401に表示させる。
【0157】
ウィンドウ403のボタン465は、静止画ファイル1の選択を指定するボタンである。例えば、静止画ファイル1が静止画ファイル176−1に対応するとき、ボタン465がクリックされ、ウィンドウ401において、時刻t51に対応する位置から時刻t52に対応する位置までドラッグされたとき、コンテンツ配信プログラム174は、時刻t51から時刻t52までの静止画ファイル1、すなわち静止画ファイル176−1に格納されている画像データの選択を設定し、対応するバーをウィンドウ401に表示させる。
【0158】
同様に、ボタン466は、静止画ファイル2(例えば、静止画ファイル176−2に対応する)の選択を指定するボタンである。
【0159】
ウィンドウ404のボタン481は、自動車のワイパーで拭き取られるように画像が切り替わる効果である、いわゆるワイプの1種であるワイプ1であるエフェクトの適用を指定するボタンである。例えば、ボタン481がクリックされ、ウィンドウ401において、時刻t61に対応する位置から時刻t62に対応する位置までドラッグされたとき、コンテンツ配信プログラム174は、時刻t61から時刻t62において選択されている画像データに、ワイプ1であるエフェクトの適用を設定し、対応するバーをウィンドウ401に表示させる。
【0160】
同様に、ボタン482は、ワイプ2であるエフェクトの適用を指定するボタンであり、ボタン483は、ズーム2であるエフェクトの適用を指定するボタンであり、ボタン483は、オーバーラップしながら画像が切り替わる効果である、いわゆるディゾルブであるエフェクトの適用を指定するボタンである。
【0161】
コンテンツ配信プログラム174は、このように設定された、画像データまたは音声データの選択、またはエフェクトの選択を示すシナリオファイル178を生成する。
【0162】
コンテンツ配信プログラム174は、デジタルビデオカメラ59、マイクロフォン61、AVアナログインタフェース114、IEEE1394インタフェース115、またはチューナ116のいずれかから供給される画像、またはHDD106に記録されている、動画ファイル175−1乃至175−Jのそれぞれに格納されている画像データ、若しくは静止画ファイル176−1乃至176−Kのそれぞれに格納されている画像データに対応する画像をウィンドウ405に表示させる。
【0163】
コンテンツ配信プログラム174は、選択された画像データに、選択されたエフェクトを適用した画像をウィンドウ406に表示させる。
【0164】
コンテンツ配信プログラム174は、ボタン407がクリックされたとき、設定された送信開始日時から、予め選択した、シナリオファイル178−1乃至178−Mのいずれかに基づいて、コンテンツを生成し、ストリームであるコンテンツをストリーミングサーバ17に送信する。
【0165】
コンテンツ配信プログラム174は、テキストボックス408に設定された年月日および時刻のデータを、コンテンツのストリーミングサーバ17への送信を開始する日時を示すデータとして取得する。
【0166】
コンテンツ配信プログラム174は、テキストボックス409に設定された数字のデータを、コンテンツのストリーミングサーバ17への送信の繰り返しの回数を指定するデータとして取得する。
【0167】
例えば、テキストボックス408に”2001.12.31.17.30.00”が設定され、テキストボックス409に5が設定されているとき、コンテンツ配信プログラム174は、2001年12月31日の午後5時30分から、予め選択した、シナリオファイル178−1乃至178−Mのいずれかに基づいて、コンテンツを生成し、ストリームであるコンテンツをストリーミングサーバ17に送信する処理を5回繰り返す。
【0168】
コンテンツ配信プログラム174は、テキストボックス410に設定された数値のデータを、プレビューにおける時間の倍率のデータとして取得する。プレビューにおける時間の倍率とは、現実の時間に対する、プレビューにおける仮想的な時間の速度の比率を示す。例えば、倍率が5であるとき、ストリーミングサーバ17に送信するコンテンツの長さが10分である場合、コンテンツ配信プログラム174は、プレビューにおいて、5倍の速度で仮想的な時間が経過する2分の長さのコンテンツを生成し、画像を表示すると共に音声を出力する。
【0169】
コンテンツ配信プログラム174は、ボタン411がクリックされたとき、プレビューを実行する。
【0170】
図15は、コンテンツ配信プログラム174に生成され、または使用されるシナリオファイル178の例を示す図である。
【0171】
シナリオファイル178は、時刻に対応する画像データまたは音声データの選択を示すデータ、および時刻に対応するコンテンツの適用を示すデータを含む。
【0172】
例えば、図15に示すシナリオファイル178は、時刻t1において、画像ファイル1の選択を開始し、音声ファイル1の選択を開始することを示すデータ、時刻t2において、動画ファイル2の選択を開始し、動画ファイル1および動画ファイル2を対象とする、ワイプであるエフェクトの適用を開始することを示すデータ、および時刻t3において、動画ファイル1の選択を終了し、動画ファイル1および動画ファイル2を対象とする、ワイプであるエフェクトの適用を終了することを示すデータを含む。
【0173】
さらに、図15に示すシナリオファイル178は、時刻t4において、動画ファイル2の選択を終了し、カメラ2の選択を開始し、マイク1の選択を開始することを示すデータ、時刻t5において、音声ファイル1の選択を終了することを示すデータ、時刻t6において、カメラ2の選択を終了し、マイク1の選択を終了することを示すデータを含む。
【0174】
次に、CPU101が実行するコンテンツ配信プログラム174によるコンテンツの配信の処理を図16のフローチャートを参照して説明する。
【0175】
ステップS11において、コンテンツ配信プログラム174は、所定の画像データまたは音声データの選択である、ソースの選択の設定の処理を実行する。ソースの選択の設定の処理の詳細は後述する。
【0176】
ステップS12において、コンテンツ配信プログラム174は、エフェクトの設定の処理を実行する。エフェクトの設定の処理の詳細は後述する。
【0177】
ステップS13において、コンテンツ配信プログラム174は、ボタン411がクリックされたとき、プレビューの処理を実行する。プレビューの処理の詳細は後述する。
【0178】
ステップS14において、コンテンツ配信プログラム174は、ボタン407がクリックされたか否かを基に、送信の指示がされたか否かを判定し、送信の指示がされていないと判定された場合、さらにソースの選択およびエフェクトの設定がなされるので、ステップS11に戻り、ソースの選択の処理乃至プレビューの処理を繰り返す。
【0179】
ステップS14において、送信の指示がされていると判定された場合、ステップS15に進み、コンテンツ配信プログラム174は、テキストボックス408に入力された年月日および時刻のデータを基に、コンテンツのストリーミングサーバ17への送信を開始する日時を設定する。
【0180】
ステップS16において、コンテンツ配信プログラム174は、テキストボックス409に入力された数字のデータを基に、コンテンツのストリーミングサーバ17への送信の繰り返しの回数を設定する。
【0181】
ステップS17において、コンテンツ配信プログラム174は、送信を開始する日時の設定と、RTC154から供給される現在の日付けおよび時刻のデータを基に、コンテンツの送信を開始する時刻であるか否かを判定し、コンテンツの送信を開始する時刻でないと判定された場合、コンテンツの送信を開始する時刻になっていないので、ステップS17に戻り、コンテンツの送信を開始する時刻であるか否かの判定の処理を繰り返す。
【0182】
ステップS17において、コンテンツの送信を開始する時刻であると判定された場合、ステップS18に進み、コンテンツ配信プログラム174は、コンテンツの送信の処理を実行する。コンテンツの送信の処理の詳細は後述する。
【0183】
ステップS19において、コンテンツ配信プログラム174は、コンテンツのストリーミングサーバ17への送信の繰り返しの回数の設定を基に、送信の処理を所定の回数繰り返したか否かを判定し、送信の処理を所定の回数繰り返していないと判定された場合、さらに送信の処理を実行するために、ステップS18に戻り、送信の処理を繰り返す。
【0184】
送信の処理が繰り返して行われるとき、コンテンツ配信プログラム174は、同一のシナリオファイル178を使用して、ソースの選択およびエフェクトの適用を実行するので、同じパターンの番組を送信することができる。
【0185】
ステップS19において、送信の処理を所定の回数繰り返したと判定された場合、これ以上送信の処理を実行する必要がないので、処理は終了する。
【0186】
次に、ステップS11の処理に対応する、ソースの選択の設定の処理の詳細を図17のフローチャートを参照して説明する。
【0187】
ステップS31において、コンテンツ配信プログラム174は、ボタン451乃至ボタン454、およびボタン461乃至ボタン466のクリック等の操作を基に、画像データまたは音声のデータである、ソースを選択する。
【0188】
ステップS32において、コンテンツ配信プログラム174は、例えば、ウィンドウ401のドラッグの開始位置を基に、ソースの選択の開始時刻を設定する。
【0189】
ステップS33において、コンテンツ配信プログラム174は、例えば、ウィンドウ401のドラッグの終了位置を基に、ソースの選択の終了時刻を設定する。
【0190】
なお、ソースの選択、ソースの選択の開始時刻、またはソースの選択の終了時刻は、例えば、メニューの選択、またはテキストボックスへの数値の入力などにより設定されるようにしてもよい。
【0191】
ステップS34において、コンテンツ配信プログラム174は、ソースの選択、ソースの選択の開始時刻、またはソースの選択の終了時刻をシナリオファイル178に記録し、処理は終了する。
【0192】
次に、ステップS12の処理に対応する、エフェクトの設定の処理の詳細を図18のフローチャートを参照して説明する。
【0193】
ステップS51において、コンテンツ配信プログラム174は、ボタン481乃至484のクリック等の操作を基に、適用するエフェクトを選択する。
【0194】
ステップS52において、コンテンツ配信プログラム174は、エフェクトを適用する対象となるソース、すなわち画像データまたは音声データを選択する。
【0195】
ステップS53において、コンテンツ配信プログラム174は、例えば、ウィンドウ401のドラッグの開始位置を基に、エフェクトの開始時刻を設定する。
【0196】
ステップS54において、コンテンツ配信プログラム174は、例えば、ウィンドウ401のドラッグの終了位置を基に、エフェクトの終了時刻を設定する。
【0197】
なお、エフェクトの選択、エフェクトを適用するソースの選択、エフェクトの開始時刻、またはエフェクトの終了時刻は、例えば、メニューの選択、またはテキストボックスへの数値の入力などにより設定されるようにしてもよい。
【0198】
ステップS55において、コンテンツ配信プログラム174は、エフェクトの選択、エフェクトを適用するソースの選択、エフェクトの開始時刻、またはエフェクトの終了時刻をシナリオファイル178に記録し、処理は終了する。
【0199】
次に、ステップS13の処理に対応する、プレビューの処理の詳細を図19のフローチャートを参照して説明する。
【0200】
ステップS71において、コンテンツ配信プログラム174は、テキストボックス410に入力された数値のデータを基に、プレビューの処理における時間の倍率を設定する。
【0201】
ステップS72において、コンテンツ配信プログラム174は、設定した時間の倍率を基に、仮想時刻の演算を開始する。すなわち、コンテンツ配信プログラム174は、処理を開始した時刻とRTC154から供給されたデータが示す時刻との差に、時間の倍率を乗算して、仮想時刻を求める。例えば、時間の倍率が3と設定されているとき、処理を開始してから現実に5分が経過した場合、コンテンツ配信プログラム174は、仮想時刻として15分を求める。
【0202】
ステップS73において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、仮想時刻が、所定のソースの選択の開始時刻であるか否かを判定し、仮想時刻が、所定のソースの選択の開始時刻であると判定された場合、ステップS74に進み、選択されているシナリオファイル178を基に、入力モジュール181に、設定されているソースを選択させ、処理はステップS75に進む。
【0203】
ステップS73において、仮想時刻が、所定のソースの選択の開始時刻でないと判定された場合、ソースの選択の処理は不要なので、ステップS74の処理はスキップされ、処理はステップS75に進む。
【0204】
ステップS75において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、仮想時刻が、所定のソースの選択の終了時刻であるか否かを判定し、仮想時刻が、所定のソースの選択の終了時刻であると判定された場合、ステップS76に進み、選択されているシナリオファイル178を基に、入力モジュール181に、設定されているソースの選択を停止させ、処理はステップS77に進む。
【0205】
ステップS75において、仮想時刻が、所定のソースの選択の終了時刻でないと判定された場合、ソースの選択の停止の処理は不要なので、ステップS76の処理はスキップされ、処理はステップS77に進む。
【0206】
ステップS77において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、仮想時刻が、所定のエフェクトの開始時刻であるか否かを判定し、仮想時刻が、所定のエフェクトの開始時刻であると判定された場合、ステップS78に進み、選択されているシナリオファイル178を基に、エフェクトモジュール182に、所定のソースにエフェクトを適用させ、処理はステップS79に進む。
【0207】
ステップS77において、仮想時刻が、所定のエフェクトの開始時刻でないと判定された場合、エフェクトの適用の処理は不要なので、ステップS78の処理はスキップされ、処理はステップS79に進む。
【0208】
ステップS79において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、仮想時刻が、所定のエフェクトの終了時刻であるか否かを判定し、仮想時刻が、所定のエフェクトの終了時刻であると判定された場合、ステップS80に進み、選択されているシナリオファイル178を基に、エフェクトモジュール182に、所定のソースへのエフェクトを適用を停止させ、処理はステップS81に進む。
【0209】
ステップS79において、仮想時刻が、所定のエフェクトの終了時刻でないと判定された場合、エフェクトの適用の停止の処理は不要なので、ステップS80の処理はスキップされ、処理はステップS81に進む。
【0210】
ステップS81において、コンテンツ配信プログラム174は、ステップS73乃至ステップS80の処理で選択され、エフェクトが適用されたソース、すなわち、画像データおよび音声データを基に、プレビューモジュール184に、画像をLCD54に表示させ、スピーカ108に音声を出力させる。
【0211】
ステップS82において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、仮想時刻が、終了時刻であるか否かを判定し、仮想時刻が、終了時刻でないと判定された場合、ステップS73に戻り、ソースの選択およびエフェクトの適用の処理を繰り返す。
【0212】
ステップS82において、仮想時刻が、終了時刻であると判定された場合、ステップS83に進み、コンテンツ配信プログラム174は、仮想時刻の演算の処理を終了して、処理は終了する。
【0213】
このように、コンテンツ配信プログラム174は、現実の時間より速い仮想時間で、または遅い仮想時間で、選択され、エフェクトが適用されたソースに対応する画像を表示し、音声を出力することができる。
【0214】
使用者は、所望の倍率を設定し、プレビューを実行することより、実際の放送前に、実際の放送時間より短い時間でソースの選択またはエフェクトの適用を確認したり、実際の放送時間より短い時間で、より詳細に、ソースの選択またはエフェクトの適用を確認することができる。
【0215】
次に、ステップS18の処理に対応する、送信の処理の詳細を図20のフローチャートを参照して説明する。以下の処理において、コンテンツ配信プログラム174は、送信の処理を開始した時刻とRTC154から供給されたデータが示す時刻との差を現在時刻として、各ステップの処理を実行する。
【0216】
ステップS91において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、現在時刻が、所定のソースの選択の開始時刻であると判定された場合、ステップS92に進み、選択されているシナリオファイル178を基に、入力モジュール181に、設定されているソースを選択させ、処理はステップS93に進む。
【0217】
ステップS91において、現在時刻が、所定のソースの選択の開始時刻でないと判定された場合、ソースの選択の処理は不要なので、ステップS92の処理はスキップされ、処理はステップS93に進む。
【0218】
ステップS93において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、現在時刻が、所定のソースの選択の終了時刻であるか否かを判定し、現在時刻が、所定のソースの選択の終了時刻であると判定された場合、ステップS94に進み、選択されているシナリオファイル178を基に、入力モジュール181に、設定されているソースの選択を停止させ、処理はステップS95に進む。
【0219】
ステップS93において、現在時刻が、所定のソースの選択の終了時刻でないと判定された場合、ソースの選択の停止の処理は不要なので、ステップS94の処理はスキップされ、処理はステップS95に進む。
【0220】
ステップS95において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、現在時刻が、所定のエフェクトの開始時刻であるか否かを判定し、現在時刻が、所定のエフェクトの開始時刻であると判定された場合、ステップS96に進み、選択されているシナリオファイル178を基に、エフェクトモジュール182に、所定のソースにエフェクトを適用させ、処理はステップS97に進む。
【0221】
ステップS95において、現在時刻が、所定のエフェクトの開始時刻でないと判定された場合、エフェクトの適用の処理は不要なので、ステップS96の処理はスキップされ、処理はステップS97に進む。
【0222】
ステップS97において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、現在時刻が、所定のエフェクトの終了時刻であるか否かを判定し、現在時刻が、所定のエフェクトの終了時刻であると判定された場合、ステップS98に進み、選択されているシナリオファイル178を基に、エフェクトモジュール182に、所定のソースへのエフェクトの適用を停止させ、処理はステップS99に進む。
【0223】
ステップS97において、現在時刻が、所定のエフェクトの終了時刻でないと判定された場合、エフェクトの適用の停止の処理は不要なので、ステップS98の処理はスキップされ、処理はステップS99に進む。
【0224】
ステップS99において、コンテンツ配信プログラム174は、ステップS91乃至ステップS98の処理で選択され、エフェクトが適用された画像データおよび音声データからなるコンテンツをエンコードモジュール185に出力させ、ストリーミングサーバ17にあてて、ストリームであるコンテンツを通信プログラム173に送信させる。
【0225】
ステップS100において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、現在時刻が、終了時刻であるか否かを判定し、現在時刻が、終了時刻でないと判定された場合、ステップS91に戻り、ソースの選択およびエフェクトの適用の処理を繰り返す。
【0226】
ステップS100において、現在時刻が、終了時刻であると判定された場合、処理は終了する。
【0227】
図21は、コンテンツ配信システム1による、コンテンツの配信の処理を説明するフローチャートである。
【0228】
ステップS1001において、パーソナルコンピュータ13は、公衆回線網12およびサーバ接続専用ネットワーク15を介して、ストリームであるコンテンツをストリーミングサーバ17に送信する。ステップS1001の処理は、ステップS99の処理に対応する。パーソナルコンピュータ13は、ストリーミングサーバ17へのコンテンツの送信の処理を繰り返す。
【0229】
ステップS1101において、ストリーミングサーバ17は、パーソナルコンピュータ13から送信されたコンテンツを受信する。
【0230】
ステップS1102において、ストリーミングサーバ17は、インタネット11を介して、ステップS1101の処理で受信したコンテンツを、パーソナルコンピュータ16−1に送信する。
【0231】
ステップS1201において、パーソナルコンピュータ16−1は、ストリーミングサーバ17から送信されたコンテンツを受信する。ステップS1202において、パーソナルコンピュータ16−1は、受信したコンテンツを再生する。パーソナルコンピュータ16−1は、ステップS1201に戻り、コンテンツの受信の処理およびコンテンツの再生の処理を繰り返す。
【0232】
ステップS1103において、ストリーミングサーバ17は、インタネット11を介して、ステップS1101の処理で受信したコンテンツを、パーソナルコンピュータ16−2に送信する。
【0233】
ステップS1301において、パーソナルコンピュータ16−2は、ストリーミングサーバ17から送信されたコンテンツを受信する。ステップS1302において、パーソナルコンピュータ16−2は、受信したコンテンツを再生する。パーソナルコンピュータ16−2は、ステップS1301に戻り、コンテンツの受信の処理およびコンテンツの再生の処理を繰り返す。
【0234】
ステップS1104において、ストリーミングサーバ17は、インタネット11を介して、ステップS1101の処理で受信したコンテンツを、パーソナルコンピュータ16−3に送信する。ストリーミングサーバ17は、ステップS1101に戻り、コンテンツの受信の処理およびコンテンツの送信の処理を繰り返す。
【0235】
ステップS1401において、パーソナルコンピュータ16−3は、ストリーミングサーバ17から送信されたコンテンツを受信する。ステップS1402において、パーソナルコンピュータ16−3は、受信したコンテンツを再生する。パーソナルコンピュータ16−3は、ステップS1401に戻り、コンテンツの受信の処理およびコンテンツの再生の処理を繰り返す。
【0236】
このように、パーソナルコンピュータ13からストリーミングサーバ17に送信されたコンテンツは、インタネット11を介して、リアルタイムに、パーソナルコンピュータ16−1乃至16−3に配信される。
【0237】
以上のように、本発明に係るコンテンツ配信システム1において、放送開始を基準とする時刻に従って、予め定めたソースが選択され、エフェクトが適用されるので、従来困難であった、自分自身の出演するライブ放送が1人でできるようになる。
【0238】
図22は、本発明に係るコンテンツ配信システム1の他の実施の形態の構成を示す図である。図1に示す場合と同様の部分には、同一の番号を付してあり、その説明は省略する。
【0239】
公衆回線網12には、通信サービスの提供エリアを所望の広さに分割したセルにそれぞれ配置されている、固定無線局である基地局602を介して、カメラ付デジタル携帯電話機601が接続されている。
【0240】
カメラ付デジタル携帯電話機601は、IEEE1394の規格に準拠するネットワークを介して接続されたデジタルビデオカメラ20−1または20−2から供給された画像データおよび音声データを取得する。
【0241】
基地局602は、移動無線局であるカメラ付デジタル携帯電話機601を、例えば、W-CDMA(Wideband-Code Division Multiple Access)と呼ばれる符号分割多元接続により無線接続し、移動無線局であるカメラ付デジタル携帯電話機601と、2GHzの周波数帯域を利用して最大2Mbpsのデータ転送速度で大容量データを高速にデータ通信できる。
【0242】
カメラ付デジタル携帯電話機601は、基地局602とW-CDMA方式により大容量データを高速にデータ通信できるので、音声通話に限らず、電子メールの送受信、簡易ホームページの閲覧、画像などのコンテンツの送受信等の多種に及ぶデータ通信を実行し得る。
【0243】
カメラ付デジタル携帯電話機601は、ブラウザプログラム、後述するコンテンツ配信プログラムなどを実行する。
【0244】
カメラ付デジタル携帯電話機601は、パーソナルキャスティングにおける放送開始を基準とした時間の経過に対応して、ソースの選択を決定すると共に、選択されたソースに適用するエフェクトを予め設定する。
【0245】
カメラ付デジタル携帯電話機601は、ストリーミングサーバ17にコンテンツを供給する前に、予め定めたソースの選択およびエフェクトの設定を基に、撮像した画像に対応する画像データ若しくは取得した音声に対応する音声データ、記録している画像データ若しくは音声データ、またはデジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データから、コンテンツを生成し、生成したコンテンツに対応する画像を表示すると共に、音声を出力する。
【0246】
カメラ付デジタル携帯電話機601は、ストリーミングサーバ17にコンテンツを供給するとき、すなわち、パーソナルキャスティングを実行するとき、予め定めたソースの選択およびエフェクトの設定を基に、撮像した画像に対応する画像データ若しくは取得した音声に対応する音声データ、記録している画像データ若しくは音声データ、またはデジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データから、リアルタイムにコンテンツを生成する。
【0247】
カメラ付デジタル携帯電話機601は、ストリーミングサーバ17にコンテンツを供給するとき、リアルタイムに生成したコンテンツを、公衆回線網12およびサーバ接続専用ネットワーク15を介して、ストリーミングサーバ17にリアルタイムに送信する。
【0248】
また、公衆回線網12には、有線回線を介して、インタネット11、ローカルエリアネットワーク、図示せぬ加入者有線端末装置、コンピュータネットワーク、および企業内ネットワーク等が接続されている。
【0249】
インタネットサービスプロバイダのアクセスサーバ603は、公衆回線網12に接続されており、更に、インタネットサービスプロバイダが保有するコンテンツサーバ604に接続されている。
【0250】
コンテンツサーバ604は、加入者有線端末装置、またはカメラ付デジタル携帯電話機601からの要求に対応して、例えば、簡易ホームページ等のコンテンツを、コンパクトHTML(HyperText Markup Language)方式のファイルとして提供する。
【0251】
インタネット11には、図示せぬ多数のWWW(World Wide Web)サーバが接続されている。WWWサーバは、TCP(Transmission Control Protocol)/IP(Internet Protocol)のプロトコルに従って、加入者有線端末装置、およびカメラ付デジタル携帯電話機601からアクセスされる。
【0252】
因みに、およびカメラ付デジタル携帯電話機601は、基地局602までを2Mbpsの簡易トランスポートプロトコルで通信し、基地局602から、インタネット11、およびWWWサーバまでをTCP/IPで通信する。
【0253】
なお、管理制御装置605は、公衆回線網12を介して、加入者有線端末装置、およびカメラ付デジタル携帯電話機601に接続され、加入者有線端末装置、およびカメラ付デジタル携帯電話機601に対する認証処理などを実行する。
【0254】
次に本発明を適用したカメラ付デジタル携帯電話機601の外観構成について説明する。図23に示すようにカメラ付デジタル携帯電話機601は、表示部611および本体612で構成され、中央のヒンジ部613により折り畳み可能に形成されている。
【0255】
表示部611は、上端左部に引出しまたは収納可能な送受信用のアンテナ614を有する。カメラ付デジタル携帯電話機601は、アンテナ614を介して、固定無線局である基地局602との間で電波を送受信する。
【0256】
また、表示部611は、上端中央部にほぼ180度の角度範囲で回動自在なカメラ部615を有する。カメラ付デジタル携帯電話機601は、カメラ部615のCCDカメラ616によって所望の撮像対象を撮像する。
【0257】
カメラ部615が使用者によってほぼ180度回動されて位置決めされた場合、図24に示すように、表示部611は、カメラ部615の背面側中央に設けられたスピーカ617が正面側に位置する状態となる。これにより、カメラ付デジタル携帯電話機601は、通常の音声通話状態に切り換わる。
【0258】
さらに、表示部611の正面に液晶ディスプレイ618が設けられている。液晶ディスプレイ618は、ソースの選択またはエフェクトの選択を設定する画面、プレビュー画面、電波の受信状態、電池残量、電話帳として登録されている相手先名や電話番号および発信履歴等の他、電子メールの内容、簡易ホームページ、カメラ部615のCCDカメラ616で撮像した画像などを表示する。
【0259】
一方、本体612には、その表面に「0」乃至「9」の数字キー、発呼キー、リダイヤルキー、終話及び電源キー、クリアキー及びメールキー等の操作キー619が設けられている。操作キー619の操作に対応した各種指示が、カメラ付デジタル携帯電話機601に入力される。
【0260】
また、本体612の操作キー619の下部にメモボタン620およびマイクロフォン621が設けられている。カメラ付デジタル携帯電話機601は、メモボタン620が操作されたとき、通話中の相手の音声を録音する。カメラ付デジタル携帯電話機601は、マイクロフォン621によって通話時の使用者の音声を集音する。
【0261】
さらに、本体612の操作キー619の上部に回動自在なジョグダイヤル622が、本体612の表面から僅かに突出した状態で設けられている。カメラ付デジタル携帯電話機601は、ジョグダイヤル622に対する回動操作に応じて、液晶ディスプレイ618に表示されている電話帳リスト若しくは電子メールのスクロール動作、簡易ホームページのページ捲り動作、または画像の送り動作等の種々の動作を実行する。
【0262】
例えば、本体612は、使用者によるジョグダイヤル622の回動操作に応じて液晶ディスプレイ618に表示された電話帳リストの複数の電話番号の中から所望の電話番号を選択し、ジョグダイヤル622が本体612の内部方向に押圧されたとき、選択されている電話番号を確定して、確定した電話番号に対して自動的に発呼処理を行う。
【0263】
例えば、液晶ディスプレイ618に複数の候補単語が表示されている状態で、ジョグダイヤル622が回転操作を受けた場合、複数の候補単語の中から、所望の候補単語が選択され、ジョグダイヤル622が本体612側に押圧されたとき、選択されている候補単語が確定される。
【0264】
なお、本体612は、背面側に図示しないバッテリパックが装着されており、終話/電源キーがオン状態になると、バッテリパックから各回路部に対して電力が供給されて動作可能な状態に起動する。
【0265】
ところで、本体612の左側面上部に抜差自在なメモリカード624を装着するためのメモリカードスロット623が設けられている。カメラ付デジタル携帯電話機601は、メモボタン620が押下されると、通話中の相手の音声を装着されているメモリカード624に記録する。カメラ付デジタル携帯電話機601は、使用者の操作に応じて、電子メール、簡易ホームページ、CCDカメラ616で撮像した画像、または音声などのコンテンツを装着されているメモリカード624に記録する。
【0266】
メモリカード624は、例えば、メモリースティック(商標)である。メモリースティックは、本願出願人であるソニー株式会社によって開発されたフラッシュメモリカードの一種である。このメモリカード624は、縦21.5×横50×厚さ2.8[mm] の小型薄型形状のプラスチックケース内に電気的に書換えや消去が可能な不揮発性メモリであるEEPROM(Electrically Erasable and Programmable Read Only Memory )の一種であるフラッシュメモリ素子を格納したものであり、10ピン端子を介して画像や音声、音楽等の各種データの書き込み及び読み出しが可能となっている。
【0267】
またメモリースティックは、大容量化等による内蔵フラッシュメモリの仕様変更に対しても、使用する機器で互換性を確保することができる独自のシリアルプロトコルを採用し、最大書込速度1.5[MB/S] 、最大読出速度2.45[MB/S]の高速性能を実現していると共に、誤消去防止スイッチを設けて高い信頼性を確保している。
【0268】
従って、カメラ付デジタル携帯電話機601は、このようなメモリカード624を装着可能に構成されているために、メモリカード624を介して、他の電子機器との間でデータの共有化を図ることができる。
【0269】
さらに、本体612の左側面下部には、デジタルビデオカメラ20−1および20−2と接続するためのIEEE1394ポートが設けられている。
【0270】
図25に示すように、カメラ付デジタル携帯電話機601は、表示部611および本体612の各部を統括的に制御する主制御部631に対して、電源回路部632、操作入力制御部633、画像エンコーダ634、カメラインターフェース部635、LCD(Liquid Crystal Display)制御部636、画像デコーダ637、多重分離部638、記憶再生部643、変復調回路部639、音声コーデック640、およびIEEE1394インタフェース645がメインバス641を介して互いに接続されると共に、画像エンコーダ634、画像デコーダ637、多重分離部638、変復調回路部639、音声コーデック640、およびIEEE1394インタフェース645が同期バス642を介して互いに接続されて構成されている。
【0271】
電源回路部632は、使用者の操作により終話/電源キーがオン状態にされると、バッテリパックから各部に対して電力を供給することによりカメラ付デジタル携帯電話機601を動作可能な状態に起動する。
【0272】
カメラ付デジタル携帯電話機601は、CPU、ROMおよびRAM等でなる主制御部631の制御に基づいて、音声通話モードにおいて、マイクロフォン621で集音した音声信号を音声コーデック640によってデジタル音声データに変換する。カメラ付デジタル携帯電話機601は、デジタル音声データを変復調回路部639でスペクトラム拡散処理し、送受信回路部644でデジタルアナログ変換処理および周波数変換処理を施した後にアンテナ614を介して送信する。
【0273】
また、カメラ付デジタル携帯電話機601は、音声通話モードにおいて、アンテナ614で受信した受信信号を増幅して周波数変換処理およびアナログデジタル変換処理を施し、変復調回路部639でスペクトラム逆拡散処理し、音声コーデック640によってアナログ音声信号に変換する。カメラ付デジタル携帯電話機601は、アナログ音声信号に対応する音声をスピーカ617に出力させる。
【0274】
さらに、カメラ付デジタル携帯電話機601は、データ通信モードにおいて、コンテンツを送信する場合、操作キー619およびジョグダイヤル622の操作によって入力に対応して指定されたコンテンツを主制御部631に送出する。
【0275】
主制御部631は、コンテンツを変復調回路部639でスペクトラム拡散処理し、送受信回路部644でデジタルアナログ変換処理及び周波数変換処理を施した後にアンテナ614を介して基地局へ送信する。
【0276】
これに対してカメラ付デジタル携帯電話機601は、データ通信モードにおいて、コンテンツを受信する場合、アンテナ614を介して基地局602から受信した受信信号を変復調回路部639でスペクトラム逆拡散処理して、元のコンテンツを復元した後、LCD制御部636を介して液晶ディスプレイ618にコンテンツに対応するデータを表示する。
【0277】
この後、カメラ付デジタル携帯電話機601は、使用者の操作に応じて受信したコンテンツを記憶再生部643を介してメモリカード624に記録することも可能である。
【0278】
カメラ付デジタル携帯電話機601は、データ通信モードにおいて画像データを送信する場合、CCDカメラ616で撮像された画像データをカメラインターフェース部635を介して画像エンコーダ634に供給する。
【0279】
因みにカメラ付デジタル携帯電話機601は、画像データを送信しない場合には、CCDカメラ616で撮像した画像データをカメラインターフェース部635およびLCD制御部636を介して液晶ディスプレイ618に直接表示することも可能である。
【0280】
画像エンコーダ634は、CCDカメラ616から供給された画像データを、例えば、MPEG(Moving Picture Experts Group )2またはMPEG4等の所定の符号化方式によって圧縮符号化することにより符号化画像データに変換し、これを多重分離部638に送出する。
【0281】
このとき同時にカメラ付デジタル携帯電話機601は、CCDカメラ616で撮像中にマイクロフォン621で集音した音声を音声コーデック640を介してデジタルの音声データとして多重分離部638に送出する。
【0282】
多重分離部638は、画像エンコーダ634から供給された符号化画像データと音声コーデック640から供給された音声データとを所定の方式で多重化し、その結果得られる多重化データを変復調回路部639でスペクトラム拡散処理し、送受信回路部644でデジタルアナログ変換処理及び周波数変換処理を施した後にアンテナ614を介して送信する。
【0283】
これに対してカメラ付デジタル携帯電話機601は、データ通信モードにおいて、例えば、簡易ホームページ等にリンクされた動画像ファイルのデータを受信する場合、アンテナ614を介して基地局から受信した受信信号を変復調回路部639でスペクトラム逆拡散処理し、その結果得られる多重化データを多重分離部638に送出する。
【0284】
多重分離部638は、多重化データを符号化画像データと音声データとに分離し、同期バス642を介して、符号化画像データを画像デコーダ637に供給すると共に、音声データを音声コーデック640に供給する。
【0285】
画像デコーダ637は、符号化画像データをMPEG2またはMPEG4等の所定の符号化方式に対応した復号方式でデコードすることにより再生動画像データを生成し、これをLCD制御部636を介して液晶ディスプレイ618に供給する。これにより、カメラ付デジタル携帯電話機601は、例えば、簡易ホームページにリンクされた動画像ファイルに含まれる動画データを表示する。
【0286】
このとき同時に音声コーデック640は、音声データをアナログ音声信号に変換した後、これをスピーカ617に供給する。これにより、カメラ付デジタル携帯電話機601は、例えば、簡易ホームページにリンクされた動画像ファイルに含まる音声データを再生する。
【0287】
IEEE1394インタフェース645は、IEEE1394ポート625を介して、デジタルビデオカメラ20から供給された画像データまたは音声データを受信し、受信した画像データまたは音声データを、主制御部631に供給する。
【0288】
図26は、主制御部631が実行するプログラムを説明する図である。
【0289】
オペレーティングシステム661は、カメラ付デジタル携帯電話機601の基本的な動作を管理するためのプログラムである。
【0290】
コンテンツ配信プログラム662は、インタネット11を介して、ストリーミングサーバ17のストリーミング配信機能を使用する時間帯の予約をサーバ使用予約管理センタ14に要求する。
【0291】
コンテンツ配信プログラム662は、パーソナルキャスティングにおける放送開始を基準とした時間の経過に対応して、CCDカメラ616で撮像した画像に対応する画像データ若しくはマイクロフォン621で取得した音声に対応する音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、またはメモリカード624に記憶されている、動画ファイル663−1乃至663−Pのそれぞれに格納されている画像データ、静止画ファイル664−1乃至664−Qのそれぞれに格納されている画像データ、若しくは音声ファイル665−1乃至665−Rのそれぞれに格納されている音声データの選択を決定する。
【0292】
コンテンツ配信プログラム662は、選択された、CCDカメラ616で撮像した画像に対応する画像データ若しくはマイクロフォン621で取得した音声に対応する音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、またはメモリカード624に記憶されている、動画ファイル663−1乃至663−Pのそれぞれに格納されている画像データ、静止画ファイル664−1乃至664−Qのそれぞれに格納されている画像データ、若しくは音声ファイル665−1乃至665−Rのそれぞれに格納されている音声データに適用する画像処理または音声処理(いわゆる、エフェクト)の選択を決定する。
【0293】
コンテンツ配信プログラム662は、パーソナルキャスティングにおける放送開始を基準とした時間の経過に対応して、画像データまたは音声データの選択、および選択された画像データまたは音声データに適用するエフェクトの選択をシナリオファイル666−1乃至666−Sのいずれか1つに記録する。
【0294】
コンテンツ配信プログラム662は、ストリーミングサーバ17にコンテンツを供給する前に、シナリオファイル666−1乃至666−Sのいずれか1つを基に、CCDカメラ616で撮像した画像に対応する画像データ若しくはマイクロフォン621で取得した音声に対応する音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、またはメモリカード624に記憶されている、動画ファイル663−1乃至663−Pのそれぞれに格納されている画像データ、静止画ファイル664−1乃至664−Qのそれぞれに格納されている画像データ、若しくは音声ファイル665−1乃至665−Rのそれぞれに格納されている音声データから、ストリーミングデータである、画像データおよび音声データからなるコンテンツを生成し、生成したコンテンツに対応する画像を液晶ディスプレイ618に表示させると共に、スピーカ617に音声を出力させる。
【0295】
コンテンツ配信プログラム662は、ストリーミングサーバ17にコンテンツを供給するとき、すなわち、パーソナルキャスティングを実行するとき、予め選択したシナリオファイル666−1乃至666−Sのいずれか1つを基に、CCDカメラ616で撮像した画像に対応する画像データ若しくはマイクロフォン621で取得した音声に対応する音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、またはメモリカード624に記憶されている、動画ファイル663−1乃至663−Pのそれぞれに格納されている画像データ、静止画ファイル664−1乃至664−Qのそれぞれに格納されている画像データ、若しくは音声ファイル665−1乃至665−Rのそれぞれに格納されている音声データから、ストリーミングデータである、画像データおよび音声データからなるコンテンツをリアルタイムに生成する。
【0296】
コンテンツ配信プログラム662は、リアルタイムに生成したコンテンツを、ストリーミングサーバ17にリアルタイムに送信する。
【0297】
シナリオファイル666−1乃至666−Sは、シナリオファイル178乃至178−Mと同様なので、その詳細の説明は省略する。
【0298】
コンテンツ配信プログラム662の処理の詳細は、図16乃至図21のフローチャートを参照して説明した処理と同様なのでその説明は省略する。
【0299】
なお、パーソナルコンピュータ13またはカメラ付デジタル携帯電話機601がコンテンツを配信すると説明したが、パーソナルコンピュータ13またはカメラ付デジタル携帯電話機601に限らず、PDA(Personal Digital Assistant)またデジタルビデオカメラなど他の機器でもよい。
【0300】
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
【0301】
この記録媒体は、図6に示すように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク14(フレキシブルディスクを含む)、光ディスク142(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク143(MD(商標)(Mini-Disc)を含む)、半導体メモリ144、若しくはメモリカード624などよりなるパッケージメディアにより構成されるだけでなく、コンピュータに予め組み込まれた状態でユーザに提供される、プログラムが記録されているROMや、HDD106に含まれるハードディスクなどで構成される。
【0302】
なお、上述した一連の処理を実行させるプログラムは、必要に応じてルータ、モデムなどのインタフェースを介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を介してコンピュータにインストールされるようにしてもよい。
【0303】
また、本明細書において、記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0304】
なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【0305】
【発明の効果】
本発明の情報処理装置および方法、並びにプログラムによれば、サーバへのコンテンツの予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および画像データに対する画像処理の適用の設定を示すシナリオデータが生成され、所定の撮像手段から供給される画像データであるライブ画像データが取得され、予め記録された画像データである記録画像データが所定の記録手段から読み出して取得され、ライブ画像データの取得と、記録画像データの取得とが、シナリオデータに従って、サーバへのコンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替えられ、シナリオデータに従って、取得されたライブ画像データまたは記録画像データに対して設定された画像処理が適用されて、サーバに配信するコンテンツが生成され、生成されたコンテンツのサーバへの配信が制御されるようにしたので、確実に、所望の画像の切り換えおよび効果の適用ができるようになる。
【図面の簡単な説明】
【図1】本発明に係るコンテンツ配信システム1の一実施の形態の構成を示す図である。
【図2】パーソナルコンピュータ13の外観を示す図である。
【図3】パーソナルコンピュータ13の外観を示す図である。
【図4】パーソナルコンピュータ13の外観を示す図である。
【図5】パーソナルコンピュータ13の外観を示す図である。
【図6】パーソナルコンピュータ13の構成の例を示すブロック図である。
【図7】パーソナルコンピュータ13が実行するプログラムを説明するブロック図である。
【図8】コンテンツ配信プログラム174の構成を示すブロック図である。
【図9】ストリーミングサーバ17の構成を説明するブロック図である。
【図10】ストリーミングサーバ17が実行するプログラムを説明するブロック図である。
【図11】パーソナルコンピュータ16の構成を説明するブロック図である。
【図12】パーソナルコンピュータ16が実行するプログラムを説明するブロック図である。
【図13】コンテンツ配信プログラム174がLCD54に表示させる画像の例を示す図である。
【図14】ソースの選択またはエフェクトの選択に対応する時刻を説明する図である。
【図15】シナリオファイル178の例を示す図である。
【図16】コンテンツの配信の処理を説明するフローチャートである。
【図17】ソースの選択の設定の処理を説明するフローチャートである。
【図18】エフェクトの設定の処理を説明するフローチャートである。
【図19】プレビューの処理を説明するフローチャートである。
【図20】送信の処理を説明するフローチャートである。
【図21】コンテンツの配信の処理を説明するフローチャートである。
【図22】本発明に係るコンテンツ配信システム1の他の実施の形態の構成を示す図である。
【図23】カメラ付デジタル携帯電話機601の外観を示す図である。
【図24】カメラ部615を説明する図である。
【図25】カメラ付デジタル携帯電話機601の構成を説明するブロック図である。
【図26】カメラ付デジタル携帯電話機601が実行するプログラムの構成を説明するブロック図である。
【符号の説明】
11 インタネット, 13 パーソナルコンピュータ, 54 LCD, 59 デジタルビデオカメラ, 61 マイクロフォン, 101 CPU, 103 RAM, 106 HDD, 108 スピーカ, 114 AVアナログインタフェース, 115 IEEE1394インタフェース, 116 チューナ, 118 モデム, 141 磁気ディスク, 142 光ディスク, 143 光磁気ディスク, 144 半導体メモリ, 152 LANインタフェース, 172 デバイスドライバ, 173 通信プログラム, 174 コンテンツ配信プログラム, 175−1乃至175−J 動画ファイル, 176−1乃至176−K 静止画ファイル, 177−1乃至177−N 音声ファイル, 178−1乃至178−M シナリオファイル, 601 カメラ付デジタル携帯電話機601, 616 CCDカメラ, 618 液晶ディスプレイ, 621 マイクロフォン, 624 メモリカード, 631 主制御部, 662 コンテンツ配信プログラム, 663−1乃至663−P 動画ファイル, 664−1乃至664−Q 静止画ファイル, 665−1乃至665−R 音声ファイル, 666−1乃至666−S シナリオファイル

Claims (6)

  1. 予約に基づいて供給されたコンテンツをリアルタイムで配信するサーバとネットワークを介して接続される情報処理装置において、
    前記サーバへの前記コンテンツの前記予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および前記画像データに対する画像処理の適用の設定を示すシナリオデータを生成するシナリオデータ生成手段と、
    所定の撮像手段から供給される前記画像データであるライブ画像データを取得する第1の画像データ取得手段と、
    予め記録された前記画像データである記録画像データを所定の記録手段から読み出して取得する第2の画像データ取得手段と、
    前記第1の画像データ取得手段による前記画像データの取得と、前記第2の画像データ取得手段による前記画像データの取得とを、前記シナリオデータに従って、前記サーバへの前記コンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替える切替手段と、
    前記シナリオデータに従って、前記第1の画像データ取得手段または前記第2の画像データ取得手段により取得された前記画像データに対して設定された画像処理を適用して、前記サーバに配信する前記コンテンツを生成するコンテンツ生成手段と、
    生成された前記コンテンツの前記サーバへの配信を制御する配信制御手段と
    備えることを特徴とする情報処理装置。
  2. 撮像手段をさらに備え、
    前記第1の画像データ取得手段は、自分の前記撮像手段から供給される前記ライブ画像データを取得する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 所定の音声取得手段から供給される音声データであるライブ音声データを取得する第1の音声データ取得手段と、
    予め記録された音声データである記録音声データを所定の記録手段から読み出して取得する第2の音声データ取得手段と
    をさらに備え、
    前記切替手段は、前記第1の音声データ取得手段による前記音声データの取得と、前記第2の音声データ取得手段による前記音声データの取得とを、前記シナリオデータに従って、前記サーバへの前記コンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替える
    ことを特徴とする請求項1に記載の情報処理装置。
  4. 前記コンテンツを配信する前に、現実の時間に対し所望の倍率を有する仮想的な時間を基準として、前記コンテンツの再生を制御するプレビュー制御手段をさらに備える
    ことを特徴とする請求項1に記載の情報処理装置。
  5. 予約に基づいて供給されたコンテンツをリアルタイムで配信するサーバとネットワークを介して接続される情報処理装置の情報処理方法において、
    前記サーバへの前記コンテンツの前記予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および前記画像データに対する画像処理の適用の設定を示すシナリオデータを生成するシナリオデータ生成ステップと、
    所定の撮像手段から供給される前記画像データであるライブ画像データを取得する第1の画像データ取得ステップと、
    予め記録された前記画像データである記録画像データを所定の記録手段から読み出して取得する第2の画像データ取得ステップと、
    前記第1の画像データ取得ステップにおける前記画像データの取得と、前記第2の画像データ取得ステップにおける前記画像データの取得とを、前記シナリオデータに従って、前記サーバへの前記コンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替える切替ステップと、
    前記シナリオデータに従って、前記第1の画像データ取得ステップまたは前記第2の画像データ取得ステップにおいて取得された前記画像データに対して設定された画像処理を適用して、前記サーバに配信する前記コンテンツを生成するコンテンツ生成ステップと、
    生成された前記コンテンツの前記サーバへの配信を制御する配信制御ステップと
    を含むことを特徴とする情報処理方法。
  6. 予約に基づいて供給されたコンテンツをリアルタイムで配信するサーバとネットワークを介して接続される情報処理装置を制御するコンピュータに、
    前記サーバへの前記コンテンツの前記予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および前記画像データに対する画像処理の適用の設定を示すシナリオデータを生成するシナリオデータ生成ステップと、
    所定の撮像手段から供給される前記画像データであるライブ画像データを取得する第1の画像データ取得ステップと、
    予め記録された前記画像データである記録画像データを所定の記録手段から読み出して取得する第2の画像データ取得ステップと、
    前記第1の画像データ取得ステップにおける前記画像データの取得と、前記第2の画像データ取得ステップにおける前記画像データの取得とを、前記シナリオデータに従って、前記サーバへの前記コンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替える切替ステップと、
    前記シナリオデータに従って、前記第1の画像データ取得ステップまたは前記第2の画像データ取得ステップにおいて取得された前記画像データに対して設定された画像処理を適用して、前記サーバに配信する前記コンテンツを生成するコンテンツ生成ステップと、
    生成された前記コンテンツの前記サーバへの配信を制御する配信制御ステップと
    を実行させるプログラム。
JP2001385451A 2001-12-19 2001-12-19 情報処理装置および方法、並びにプログラム Expired - Fee Related JP4023150B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001385451A JP4023150B2 (ja) 2001-12-19 2001-12-19 情報処理装置および方法、並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001385451A JP4023150B2 (ja) 2001-12-19 2001-12-19 情報処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2003189279A JP2003189279A (ja) 2003-07-04
JP4023150B2 true JP4023150B2 (ja) 2007-12-19

Family

ID=27594862

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001385451A Expired - Fee Related JP4023150B2 (ja) 2001-12-19 2001-12-19 情報処理装置および方法、並びにプログラム

Country Status (1)

Country Link
JP (1) JP4023150B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060041632A1 (en) * 2004-08-23 2006-02-23 Microsoft Corporation System and method to associate content types in a portable communication device
US20080209486A1 (en) * 2005-07-20 2008-08-28 Createcna Xxi S.L. System For Live Television Broadcasting From a Mobile Telephone
JP6385538B1 (ja) * 2017-08-15 2018-09-05 株式会社ドワンゴ コンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム

Also Published As

Publication number Publication date
JP2003189279A (ja) 2003-07-04

Similar Documents

Publication Publication Date Title
US9544245B2 (en) Server reservation method, reservation control apparatus and program storage medium
US7856468B2 (en) Server reservation method, reservation control apparatus and program storage medium
KR101026593B1 (ko) 네트워크 제어 확인 시스템, 제어 통신 단말, 서버 장치및 네트워크 제어 확인 방법
US6970928B2 (en) Content distribution method and content supply system
US7681225B2 (en) Content distribution system, content distribution control apparatus, content distribution control method, content distribution control program and content distribution control program storage medium
US7386623B2 (en) Content distribution notification method, reservation control apparatus and program storage medium
US7716708B2 (en) Content distribution method, reservation management device, and program storage medium
US7620965B2 (en) Information processing apparatus and method, information providing apparatus and method, and program storage medium
JP2003036219A (ja) コンテンツ配信システム、コンテンツ予約管理装置、コンテンツ予約管理方法、コンテンツ予約管理プログラム及びコンテンツ予約管理プログラム格納媒体
CN103037243A (zh) 多个智能终端之间切换网络视频的方法、***及智能终端
US20100185736A1 (en) Interdevice transmission of data
CN103037266A (zh) 基于代理服务器的终端切换视频的方法、***及智能终端
JP4023150B2 (ja) 情報処理装置および方法、並びにプログラム
JP4736166B2 (ja) 情報処理装置および方法、情報処理システム、並びに記録媒体
JP4051935B2 (ja) 情報収集システム、情報収集方法および情報収集プログラム
JP4348930B2 (ja) サービス提供システム、記録装置および方法、情報処理装置および方法、記録媒体、並びにプログラム
JP2003224801A (ja) 再生装置システム、情報処理装置及び情報処理装置の制御方法
JP3888182B2 (ja) 記録装置および方法、表示装置および方法、並びにプログラム
JP2003030552A (ja) 手続状況通知システム、手続状況通知装置、手続状況通知方法、手続状況通知プログラム、手続状況通知プログラム格納媒体、手続実行装置、手続実行方法、手続実行プログラム及び手続実行プログラム格納媒体
JP2003309795A (ja) 再生装置および方法、提供装置および方法、並びにプログラム
JP2003309839A (ja) 画像処理装置および方法、並びにプログラム
JP2001356982A (ja) 情報処理装置および方法、並びにプログラム格納媒体
KR20040011580A (ko) 무선인터넷 이동 비디오/오디오 수신기

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070924

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101012

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees