JP4023150B2 - Information processing apparatus and method, and program - Google Patents
Information processing apparatus and method, and program Download PDFInfo
- Publication number
- JP4023150B2 JP4023150B2 JP2001385451A JP2001385451A JP4023150B2 JP 4023150 B2 JP4023150 B2 JP 4023150B2 JP 2001385451 A JP2001385451 A JP 2001385451A JP 2001385451 A JP2001385451 A JP 2001385451A JP 4023150 B2 JP4023150 B2 JP 4023150B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- content
- time
- data
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、情報処理装置および方法、並びにプログラムに関し、特に、コンテンツを配信する情報処理装置および方法、並びにプログラムに関する。
【0002】
【従来の技術】
インタネットなどのネットワークを介して、パーソナルコンピュータから他のパーソナルコンピュータにコンテンツを配信するシステムが利用されている。
【0003】
【発明が解決しようとする課題】
しかしながら、いわゆるライブで画像を撮像して、撮像された画像をコンテンツとして配信するとき、撮像するカメラまたはマイクロフォンなど、ソースの切り換え、または撮像した画像への効果、いわゆるエフェクトの適用は、コンテンツを配信している最中に手動で、コンテンツを配信するパーソナルコンピュータに指示しなければならなかった。
【0004】
このため、1人だけで自ら出演するようなライブのコンテンツを配信するとき、ソースの切り換え、または所望の効果の選択は、不可能であった。また、複数人でコンテンツを配信するときであっても、操作のミスをなくすことはできず、コンテンツを繰り返して配信するとき、ソースの切り換えが同一の手順、または効果の適用が同一の手順であっても、その都度操作をしなければならず、面倒であるという問題があった。
【0005】
本発明はこのような状況に鑑みてなされたものであり、確実に、所望のソースの切り換えおよび効果の適用ができるようにすることを目的とする。
【0006】
【課題を解決するための手段】
本発明の情報処理装置は、サーバへのコンテンツの予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および画像データに対する画像処理の適用の設定を示すシナリオデータを生成するシナリオデータ生成手段と、所定の撮像手段から供給される画像データであるライブ画像データを取得する第1の画像データ取得手段と、予め記録された画像データである記録画像データを所定の記録手段から読み出して取得する第2の画像データ取得手段と、第1の画像データ取得手段による画像データの取得と、第2の画像データ取得手段による画像データの取得とを、シナリオデータに従って、サーバへのコンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替える切替手段と、シナリオデータに従って、第1の画像データ取得手段または第2の画像データ取得手段により取得された画像データに対して設定された画像処理を適用して、サーバに配信するコンテンツを生成するコンテンツ生成手段と、生成されたコンテンツのサーバへの配信を制御する配信制御手段とを備えることを特徴とする。
【0007】
撮像手段をさらに設け、第1の画像データ取得手段には、自分の撮像手段から供給されるライブ画像データを取得させることができる。
【0008】
所定の音声取得手段から供給される音声データであるライブ音声データを取得する第1の音声データ取得手段と、予め記録された音声データである記録音声データを所定の記録手段から読み出して取得する第2の音声データ取得手段とをさらに設け、切替手段には、第1の音声データ取得手段による音声データの取得と、第2の音声データ取得手段による音声データの取得とを、シナリオデータに従って、サーバへのコンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替えさせることができる。
コンテンツを配信する前に、現実の時間に対し所望の倍率を有する仮想的な時間を基準として、コンテンツの再生を制御するプレビュー制御手段をさらに設けることができる。
【0009】
本発明の情報処理方法は、サーバへのコンテンツの予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および画像データに対する画像処理の適用の設定を示すシナリオデータを生成するシナリオデータ生成ステップと、所定の撮像手段から供給される画像データであるライブ画像データを取得する第1の画像データ取得ステップと、予め記録された画像データである記録画像データを所定の記録手段から読み出して取得する第2の画像データ取得ステップと、第1の画像データ取得ステップにおける画像データの取得と、第2の画像データ取得ステップにおける画像データの取得とを、シナリオデータに従って、サーバへのコンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替える切替ステップと、シナリオデータに従って、第1の画像データ取得ステップまたは第2の画像データ取得ステップにおいて取得された画像データに対して設定された画像処理を適用して、サーバに配信するコンテンツを生成するコンテンツ生成ステップと、生成されたコンテンツのサーバへの配信を制御する配信制御ステップとを含むことを特徴とする。
【0010】
本発明のプログラムは、コンピュータに、サーバへのコンテンツの予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および画像データに対する画像処理の適用の設定を示すシナリオデータを生成するシナリオデータ生成ステップと、所定の撮像手段から供給される画像データであるライブ画像データを取得する第1の画像データ取得ステップと、予め記録された画像データである記録画像データを所定の記録手段から読み出して取得する第2の画像データ取得ステップと、第1の画像データ取得ステップにおける画像データの取得と、第2の画像データ取得ステップにおける画像データの取得とを、シナリオデータに従って、サーバへのコンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替える切替ステップと、シナリオデータに従って、第1の画像データ取得ステップまたは第2の画像データ取得ステップにおいて取得された画像データに対して設定された画像処理を適用して、サーバに配信するコンテンツを生成するコンテンツ生成ステップと、生成されたコンテンツのサーバへの配信を制御する配信制御ステップとを実行させる。
【0011】
本発明の情報処理装置および方法、並びにプログラムにおいては、サーバへのコンテンツの予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および画像データに対する画像処理の適用の設定を示すシナリオデータが生成され、所定の撮像手段から供給される画像データであるライブ画像データが取得され、予め記録された画像データである記録画像データが所定の記録手段から読み出して取得され、ライブ画像データの取得と、記録画像データの取得とが、シナリオデータに従って、サーバへのコンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替えられ、シナリオデータに従って、取得されたライブ画像データまたは記録画像データに対して設定された画像処理が適用されて、サーバに配信するコンテンツが生成され、生成されたコンテンツのサーバへの配信が制御される。
【0012】
【発明の実施の形態】
図1は、本発明に係るコンテンツ配信システム1の一実施の形態の構成を示す図である。コンテンツ配信システム1は、パーソナルキャスティングを実行するシステムである。
【0013】
コンテンツ配信システム1は、インタネット11、公衆回線網12、および図示せぬISP(Internet Service Provider)を介して、パーソナルコンピュータ13、サーバ使用予約管理センタ14、サーバ接続専用ネットワーク15、クライアントとしてのパーソナルコンピュータ16−1乃至16−3、およびストリーミングサーバ17を含む。
【0014】
専用回線18は、サーバ使用予約管理センタ14とストリーミングサーバ17とを接続する。
【0015】
公衆回線網12は、ADSL(Asymmetric Digital Subscriber Line)網31−1、ケーブルテレビ網31−2、または電話回線網31−3を含む。
【0016】
パーソナルコンピュータ13は、アンテナ19を介して、図示せぬ放送局から放送された番組を取得すると共に、ネットワークを介して接続されたデジタルビデオカメラ20−1または20−2から供給された画像データおよび音声データを取得する。
【0017】
パーソナルコンピュータ13は、さらに、アナログインタフェースを介して、ビデオカメラ21から画像信号を取得すると共に、マイクロフォン22から音声信号を取得する。
【0018】
パーソナルコンピュータ13は、記録している画像データ若しくは音声データ、受信した番組、デジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データ、ビデオカメラ21から取得した画像信号、またはマイクロフォン22から取得した音声信号を基に、パーソナルコンピュータ16−1乃至16−3に配信するコンテンツを生成する。
【0019】
パーソナルコンピュータ13は、生成したコンテンツをストリーミングサーバ17に供給するとき、例えば、公衆回線網13の電話回線網31−3を介して、サーバ接続専用ネットワーク15のアクセスポートに、PPP(Point-to-Point Protocol)接続し、ストリーミングサーバ17との伝送路を確立する。パーソナルコンピュータ13は、サーバ接続専用ネットワーク15による伝送路を介して、確実にコンテンツをストリーミングサーバ17に送信することができる。
【0020】
パーソナルコンピュータ13は、確立した伝送路を介して、コンテンツをストリーミングサーバ17に送信する。
【0021】
パーソナルコンピュータ13は、リアルタイムに、記録している画像データ若しくは音声データ、受信した番組、デジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データ、ビデオカメラ21から取得した画像信号、またはマイクロフォン22から取得した音声信号を基に、パーソナルコンピュータ16−1乃至16−3に配信するコンテンツを生成し、確立した伝送路を介して、リアルタイムに、コンテンツをストリーミングサーバ17に送信する。
【0022】
パーソナルコンピュータ13は、インタネット11、公衆回線網12、および図示せぬISPを介して、ストリーミングサーバ17と接続するようにしてもよい。パーソナルコンピュータ13は、ADSL網31−1、ケーブルテレビ網31−2、および電話回線網31−3のうちの1つの伝送路を介して、コンテンツをストリーミングサーバ17に送信するようにしてもよい。
【0023】
サーバ使用予約管理センタ14は、パーソナルコンピュータ13から要求された、ストリーミングサーバ17のストリーミング配信機能を使用する時間帯の予約を基に、ストリーミング配信機能の使用を、ストリーミングサーバ17に予約する。
【0024】
ストリーミングサーバ17は、ストリーミング配信機能の使用が予約された所定の時間帯において、パーソナルコンピュータ13から送信されたコンテンツを、インタネット11を介して、いわゆる、ストリームにより、パーソナルコンピュータ16−1乃至16−3にリアルタイムに提供する。
【0025】
パーソナルコンピュータ16−1は、インタネット11を介して、ストリーミングサーバ17から送信されたストリームであるコンテンツを受信し、受信したコンテンツを基に、画像を表示すると共に、音声を出力する。
【0026】
パーソナルコンピュータ16−2は、インタネット11を介して、ストリーミングサーバ17から送信されたストリームであるコンテンツを受信し、受信したコンテンツを基に、画像を表示すると共に、音声を出力する。
【0027】
パーソナルコンピュータ16−3は、インタネット11を介して、ストリーミングサーバ17から送信されたストリームであるコンテンツを受信し、受信したコンテンツを基に、画像を表示すると共に、音声を出力する。
【0028】
すなわち、コンテンツ配信システム1は、ストリーミングサーバ17がパーソナルコンピュータ13からリアルタイムに送信されたコンテンツを、パーソナルコンピュータ16−1乃至16−3にリアルタイムに提供することにより、個人放送、すなわちパーソナルキャスティングを実現する。
【0029】
パーソナルコンピュータ13、パーソナルコンピュータ16−1乃至16−3、およびストリーミングサーバ17は、相互認証するとき、専用回線18を介して、相互に認証データを授受する。
【0030】
パーソナルコンピュータ13は、パーソナルキャスティングにおける放送開始を基準とした時間の経過に対応して、記録している画像データ若しくは音声データ、受信した番組、デジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データ、ビデオカメラ21から取得した画像信号、またはマイクロフォン22から取得した音声信号の選択を決定すると共に、選択された記録している画像データ若しくは音声データ、受信した番組、デジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データ、ビデオカメラ21から取得した画像信号、またはマイクロフォン22から取得した音声信号に適用する画像処理または音声処理の選択を予め設定する。
【0031】
以下、記録している画像データ若しくは音声データ、受信した番組、デジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データ、ビデオカメラ21から取得した画像信号、またはマイクロフォン22から取得した音声信号を、ソースとも称する。
【0032】
以下、画像または音声に適用する画像処理または音声処理は、効果またはエフェクトともに称する。
【0033】
パーソナルコンピュータ13は、ストリーミングサーバ17にコンテンツを供給する前に、予め定めたソースの選択およびエフェクトの選択を基に、記録している画像データ若しくは音声データ、受信した番組、デジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データ、ビデオカメラ21から取得した画像信号、またはマイクロフォン22から取得した音声信号から、コンテンツを生成し、生成したコンテンツに対応する画像を表示すると共に、音声を出力する。
【0034】
ストリーミングサーバ17にコンテンツを供給する前に、予め定めたソースの選択およびエフェクトの選択を基に、コンテンツを生成し、生成したコンテンツに対応する画像を表示すると共に、音声を出力する処理をプレビューとも称する。
【0035】
パーソナルコンピュータ13は、ストリーミングサーバ17にコンテンツを供給するとき、すなわち、パーソナルキャスティングを実行するとき、予め定めたソースの選択およびエフェクトの選択を基に、記録している画像データ若しくは音声データ、受信した番組、デジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データ、ビデオカメラ21から取得した画像信号、またはマイクロフォン22から取得した音声信号から、リアルタイムにコンテンツを生成する。
【0036】
アンテナ19は、図示せぬ放送局から放送された電波を受信し、受信した電波に対応する信号をパーソナルコンピュータ13に供給する。
【0037】
デジタルビデオカメラ20−1は、デジタルデータである、撮像した動画像または静止画像に対応する画像データを、ネットワークを介して、パーソナルコンピュータ13に供給すると共に、デジタルデータである、取得した音声データをネットワークを介して、パーソナルコンピュータ13に供給する。
【0038】
デジタルビデオカメラ20−2は、デジタルデータである、撮像した動画像または静止画像に対応する画像データを、ネットワークを介して、パーソナルコンピュータ13に供給すると共に、デジタルデータである、取得した音声データをネットワークを介して、パーソナルコンピュータ13に供給する。
【0039】
ビデオカメラ21は、アナログ信号である、撮像した動画像または静止画像に対応する画像信号を、パーソナルコンピュータ13に供給する。マイクロフォン22は、アナログ信号である、取得した音声信号をパーソナルコンピュータ13に供給する。
【0040】
以下、パーソナルコンピュータ16−1乃至16−3を個々に区別する必要がないとき、単にパーソナルコンピュータ16と称する。
【0041】
以下、デジタルビデオカメラ20−1および20−2を個々に区別する必要がないとき、単にデジタルビデオカメラ20と称する。
【0042】
図2乃至図5は、パーソナルコンピュータ13の外観を示す図である。
【0043】
図2は、本体52に対して表示部51が開かれたパーソナルコンピュータ13の正面図である。
【0044】
表示部51は、ヒンジ部53を介して、本体52と開閉自在に連結されている。表示部51には、画像または文字などを表示するLCD(Liquid Crystal Display)54が設けられている。本体52には、文字またはパーソナルコンピュータ13に対する指令を入力するためのキーボード55が設けられている。
【0045】
表示部51は、ヒンジ部53により、図中の矢印aの方向に回動自在に、本体52に連結されている。
【0046】
図3に示すように、LCD54の表示面と、キーボード55の上面がほぼ同じ方向を向くように、表示部51は、本体52に対して、回動させることができる。
【0047】
ジョグダイヤル56は、表示部54の右上側に設けられ、回転または図中の左側への押圧により、パーソナルコンピュータ13にアイコンの選択、またはプログラムの起動などの指令を与える。
【0048】
本体52の右側には、操作ボタン58、およびデジタルビデオカメラ59からなる撮像部57が設けられている。
【0049】
パーソナルコンピュータ13は、ジョグダイヤル56または操作ボタン58の操作に対応して、デジタルビデオカメラ59に撮影を開始させるか、撮影を停止させるか、焦点距離を変更させるか(いわゆる、ズームインさせるかまたはズームアウトさせる)、撮像した画像に所定のエフェクトを適用するか、撮像した画像に対応する画像データを保存するか、または撮像した画像に対応する画像データを送信する。
【0050】
本体52の手前側には、アイコンの選択、プログラムの起動などの指令を与えるポインティングデバイス60が設けられている。
【0051】
表示部51の上側には、音声を取得するためのマイクロフォン61が設けられている。
【0052】
また、デジタルビデオカメラ59は、図2中の矢印bの方向に、本体52に対して回動自在に連結されている。
【0053】
図4に示すように、LCD54の表示面と、キーボード55の上面がほぼ同じ方向を向くように、表示部51を回動して、表示部51を本体52に対して閉じて、デジタルビデオカメラ59を使用者側に向けることにより、パーソナルコンピュータ13は、使用者自身を撮像することができる。このとき、パーソナルコンピュータ13は、撮像している使用者の画像を表示部51に表示させることができるので、使用者は、内容を確認しながら、自分を撮像することができる。
【0054】
この場合において、使用者は、ジョグダイヤル56または操作ボタン58により、パーソナルコンピュータ13に撮像を実行させるか、または停止させることができる。
【0055】
一方、図5に示すように、LCD54の表示面と、キーボード55の上面がほぼ同じ方向を向くように、表示部51を回動して、表示部51を本体52に対して閉じて、デジタルビデオカメラ59を使用者の正面側に向けることにより、パーソナルコンピュータ13は、使用者の正面に位置する対象物を撮像することができる。
【0056】
次に、パーソナルコンピュータ13の構成の例について図6に示すブロック図を参照して説明する。
【0057】
中央処理装置(CPU(Central Processing Unit))101は、オペーレーティングシステムまたは各種のアプリケーションプログラムなどを実行し、各種の処理を実際に実行する。CPU101は、例えば、インテル(Intel)社製のペンティアム(登録商標)(Pentium(R))プロセッサ等で構成される。CPU101は、ホストバス(プロセッサバス)を介して、ハブ102に接続されている。
【0058】
ハブ102は、AGP(Accelerated Graphics Port)インタフェース、およびメモリインタフェース等を有し、CPU101およびRAM(Random-Access Memory)103(いわゆる、メインメモリ)等のデータの伝送などを制御する。ハブ102は、AGPを介して、ビデオコントローラ104とのデータの伝送を制御する。ハブ102は、例えば、インテル社製の82850 Memory Controller Hubなどからなる。
【0059】
RAM103は、例えば、DRAM(Dynamic RAM)で構成され、CPU101が実行するプログラム、またはCPU101の動作に必要なデータを記憶する。具体的には、例えば、RAM103は、起動が完了した時点において、HDD106からロードされた、後述するオペレーティングシステム、およびコンテンツ配信プログラム等を記憶する。
【0060】
オペレーティングシステム(Operating System)は、例えばマイクロソフト社のいわゆるウィンドウズ(登録商標)(Windows(登録商標))XP、またはアップルコンピュータ社のいわゆるマックOS(商標)等に代表される、コンピュータの基本的な動作を制御するプログラムである。
【0061】
ビデオコントローラ104は、AGPを介してハブ102に接続されており、AGPおよびハブ102を介して、CPU101から供給されるデータ(イメージデータまたはテキストデータなど)を受信して、受信したデータに対応するイメージデータを生成するか、または受信したデータをそのまま、内蔵するビデオメモリに記憶する。ビデオコントローラ104は、表示部51のLCD(Liquid Crystal Display)54に、ビデオメモリに記憶されているイメージデータに対応する画像を表示させる。
【0062】
LCD54は、ビデオコントローラ104から供給されたデータを基に、画像または文字などを表示する。
【0063】
ハブ102には、さらに、ハブインタフェースを介して、ハブ105が接続されている。
【0064】
ハブ105は、IDE(Integrated Drive Electronics)インタフェース151、LAN(Local Area Network)インタフェース152、USB(Universal Serial Bus)インタフェース153、RTC(Real Time Clock)154、ファームウェアハブインタフェース155、音声信号インタフェース156、PCI(Peripheral Component Interconnect)インタフェース157、LPC(Low Pin Count)インタフェース158、および電源制御回路159等を有する。
【0065】
ハブ105は、例えば、インテル社製の82801BA I/O Controller Hub 2などからなり、ハブ102およびハブ105は、いわゆるチップセットシステムを構成する。
【0066】
IDEインタフェース151は、その内部に、IDEコントローラ/コンフィギュレーションレジスタ、いわゆるプライマリIDEコントローラとセカンダリIDEコントローラとの2つのIDEコントローラ、およびコンフィギュレーションレジスタ(configuration register)等を含む。
【0067】
IDEインタフェース151のプライマリIDEコントローラには、IDEバスを介して、HDD(Hard Disk Drive)106が接続されている。
【0068】
HDD106は、オペレーティングシステム、および文章入力プログラム等の各種のプログラムまたはデータを記録する。HDD106に記録されているオペレーティングシステム、およびコンテンツ配信プログラム等は、例えば、起動(ブートアップ)処理の過程で、RAM103に順次供給され、ロードされる。
【0069】
LANインタフェース152は、ローカルエリアネットワークに接続するためのインタフェースである。パーソナルコンピュータ13は、LANインタフェース152により接続されているローカルエリアネットワークを介して、インタネット11に接続することができる。
【0070】
USBインタフェース153は、USBポートを介して、接続されている外部の装置にデータを送信すると共に、デバイスからデータを受信する。
【0071】
RTC154は、時間を測定し、現在時刻を示すデータを提供する。
【0072】
ファームウェアハブインタフェース155は、ファームウェアハブ119と接続するためのインタフェースである。ファームウェアハブ119は、オペレーティングシステムまたはアプリケーションプログラムと周辺機器(キーボード55、ポインティングデバイス60、またはHDD106等)との間で、データの受け渡し(入出力)を制御するBIOS(Basic Input/Output System(基本入出力システム))を記憶している。パーソナルコンピュータが起動されるとき、ファームウェアハブインタフェース155は、ファームウェアハブ119からBIOSを取得する。
【0073】
音声信号インタフェース156には、サウンドコントローラ107が接続されている。サウンドコントローラ107は、マイクロフォン61から音声に対応する信号を取り込み、音声に対応するデータを生成して、RAM103に出力する。または、サウンドコントローラ107は、スピーカ108を駆動して、スピーカ108に音声を出力させる。
【0074】
PCIインタフェース157には、内蔵する汎用デバイスを接続するためのPCIバスを介して、インタフェース109、メモリカードインタフェース111、インタフェース112、MPEG(Moving Pictures Experts Group)2エンコーダ/デコーダ113、AV(Audio Visual)アナログインタフェース114、IEEE(Institute of Electrical and Electronic Engineers)1394インタフェース115、およびチューナ116が接続されている。
【0075】
インタフェース109は、例えば、SCSI(Small Computer System Interface)インタフェース、またはIEEE1394インタフェースなど、各種の記録媒体または記憶媒体にプログラムまたはデータを書き込み、または各種の記録媒体または記憶媒体に記録または記憶されているプログラムまたはデータを読み出すためのドライブ110を接続するためのインタフェースである。
【0076】
ドライブ110は、装着されている磁気ディスク141、光ディスク142、光磁気ディスク143、または半導体メモリ144に記録されているプログラムまたはデータを読み出し、読み出したプログラムまたはデータをインタフェース109、PCIバス、およびPCIインタフェース157等を介して、CPU101またはRAM103に供給する。
【0077】
メモリカードインタフェース111は、図示せぬメモリカードスロットに装着されたメモリカード(例えば、メモリースティック(商標))にプログラムまたはデータを書き込み、装着されているメモリカードに記憶されているプログラムまたはデータを読み出すためのインタフェースである。
【0078】
インタフェース112は、デジタルビデオカメラ59を接続するためのインタフェースである。デジタルビデオカメラ59は、撮像した画像の画像データをインタフェース112、PCIバス、およびPCIインタフェース157等を介して、CPU101に供給する。
【0079】
MPEG2エンコーダ/デコーダ113は、AVアナログインタフェース114、IEEE1394インタフェース115、またはチューナ116から供給された画像データまたは音声データを圧縮符号化し、圧縮符号化した画像データまたは音声データを、HDD106に供給するか、またはLANインタフェース152若しくはモデム118に供給する。
【0080】
MPEG2エンコーダ/デコーダ113は、HDD106から供給された圧縮符号化されている画像データまたは音声データを伸張し、伸張した画像データまたは音声データを、RAM103、ビデオコントローラ104、またはサウンドコントローラ107に供給する。
【0081】
AVアナログインタフェース114は、ビデオカメラ21から供給された、アナログ信号である画像信号、およびマイクロフォン22から供給されたアナログ信号である音声信号を取得するためのインタフェースである。AVアナログインタフェース114は、取得したアナログ信号である画像信号に対応する画像データを生成して、RAM103、またはMPEG2エンコーダ/デコーダ113に供給する。
【0082】
AVアナログインタフェース114は、取得したアナログ信号である音声信号に対応する音声データを生成して、RAM103、またはMPEG2エンコーダ/デコーダ113に供給する。
【0083】
IEEE1394インタフェース115は、IEEE1394の規格に基づくネットワークを介して、デジタルビデオカメラ20と接続するためのインタフェースである。
【0084】
チューナ116は、アンテナ19から供給された信号を基に、選択したチャンネルの番組に対応する画像データおよび音声データをMPEG2エンコーダ/デコーダ113に供給するか、または、ハブ105またはハブ102を介して、ビデオコントローラ104若しくはサウンドコントローラ107に供給する。
【0085】
LPCインタフェース158には、比較的低速なデバイスを接続するためのインタフェース117が接続されている。インタフェース117は、キーボード55、ポインティングデバイス60、およびモデム118などから供給される、操作などに対応した信号を取得し、取得した信号をLPCインタフェース158に供給すると共に、LPCインタフェース158から供給された信号に基づいて、モデム118にデータの通信を指示する。
【0086】
モデム118は、ADSL網31−1、ケーブルテレビ網31−2、または電話回線網31−3に接続するためのモデムである。パーソナルコンピュータ13は、モデム118により接続される、ADSL網31−1、ケーブルテレビ網31−2、または電話回線網31−3を介して、インタネット11に接続する。
【0087】
また、パーソナルコンピュータ13は、モデム118により接続される、電話回線網31−3およびサーバ接続専用ネットワーク15を介して、ストリーミングサーバ17に接続する。
【0088】
電源制御回路159は、バッテリ120に接続されており、各ブロックに、必要な電源を供給するとともに、電源をオンまたはオフするときに操作される電源スイッチからの信号またはCPU101からの指示に基づいて、電源のオンまたはオフの制御を行う。電源制御回路159は、バッテリ120への充電を制御する。
【0089】
図7は、パーソナルコンピュータ13が実行するプログラムを説明するブロック図である。
【0090】
オペレーティングシステム171は、パーソナルコンピュータ13の基本的な動作を管理するためのプログラムである。
【0091】
デバイスドライバ172は、オペレーティングシステム171の制御、およびコンテンツ配信プログラム174の要求に基づいて、デジタルビデオカメラ59、サウンドコントローラ107、IEEE1394インタフェース115、およびAVアナログインタフェース114を制御するプログラムである。デバイスドライバ172は、デジタルビデオカメラ59が撮像した画像の画像データ、マイクロフォン61が取得した音声の音声データ、IEEE1394インタフェース115を介して、デジタルビデオカメラ20から供給された画像データ若しくは音声データ、またはAVアナログインタフェース114を介してビデオカメラ21から供給された画像信号、若しくはマイクロフォン22から供給された音声信号に対応する画像データまたは音声データをコンテンツ配信プログラム174に供給する。
【0092】
通信プログラム173は、LANインタフェース152またはモデム118を制御し、コンテンツ配信プログラム174から供給されたコンテンツを電話回線網31−3およびサーバ接続専用ネットワーク15を介して、ストリーミングサーバ17に供給する。
【0093】
コンテンツ配信プログラム174は、通信プログラム173に、公衆回線網12およびインタネット11を介して、ストリーミングサーバ17のストリーミング配信機能を使用する時間帯の予約をサーバ使用予約管理センタ14に要求させる。
【0094】
コンテンツ配信プログラム174は、パーソナルキャスティングにおける放送開始から経過時刻に対応する、チューナ116から供給された画像データ若しくは音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、AVアナログインタフェース114を介して、ビデオカメラ21から供給された画像信号に対応する画像データ若しくはマイクロフォン22から供給された音声信号に対応する音声データ、またはHDD106に記録されている、動画ファイル175−1乃至175−Jのそれぞれに格納されている画像データ、静止画ファイル176−1乃至176−Kのそれぞれに格納されている画像データ、若しくは音声ファイル177−1乃至177−Nのそれぞれに格納されている音声データの選択を決定する。
【0095】
コンテンツ配信プログラム174は、選択された、チューナ116から供給された画像データ若しくは音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、AVアナログインタフェース114を介してビデオカメラ21から供給された画像信号に対応する画像データ若しくはマイクロフォン22から供給された音声信号に対応する音声データ、またはHDD106に記録されている、動画ファイル175−1乃至175−Jのそれぞれに格納されている画像データ、静止画ファイル176−1乃至176−Kのそれぞれに格納されている画像データ、若しくは音声ファイル177−1乃至177−Nのそれぞれに格納されている音声データに適用する画像処理または音声処理(いわゆる、エフェクト)の選択を決定する。
【0096】
コンテンツ配信プログラム174は、パーソナルキャスティングにおける放送開始を基準とした時間の経過に対応して、画像データまたは音声データの選択(入力インタフェースまたは入力ポートの選択を含む)、および選択された画像データまたは音声データに適用するエフェクトの選択をシナリオファイル178−1乃至178−Mのいずれか1つに記録する。
【0097】
コンテンツ配信プログラム174は、ストリーミングサーバ17にコンテンツを供給する前に、シナリオファイル178−1乃至178−Mのいずれか1つを基に、チューナ116から供給された画像データ若しくは音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、AVアナログインタフェース114を介してビデオカメラ21から供給された画像信号に対応する画像データ若しくはマイクロフォン22から供給された音声信号に対応する音声データ、またはHDD106に記録されている、動画ファイル175−1乃至175−Jのそれぞれに格納されている画像データ、静止画ファイル176−1乃至176−Kのそれぞれに格納されている画像データ、若しくは音声ファイル177−1乃至177−Nのそれぞれに格納されている音声データから、ストリーミングデータである、画像データおよび音声データからなるコンテンツを生成し、生成したコンテンツに対応する画像をLCD54に表示させると共に、スピーカ108に音声を出力させる。
【0098】
コンテンツ配信プログラム174は、ストリーミングサーバ17にコンテンツを供給するとき、すなわち、パーソナルキャスティングを実行するとき、予め選択したシナリオファイル178−1乃至178−Mのいずれか1つを基に、チューナ116から供給された画像データ若しくは音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、AVアナログインタフェース114を介してビデオカメラ21から供給された画像信号に対応する画像データ若しくはマイクロフォン22から供給された音声信号に対応する音声データ、またはHDD106に記録されている、動画ファイル175−1乃至175−Jのそれぞれに格納されている画像データ、静止画ファイル176−1乃至176−Kのそれぞれに格納されている画像データ、若しくは音声ファイル177−1乃至177−Nのそれぞれに格納されている音声データから、ストリーミングデータである、画像データおよび音声データからなるコンテンツをリアルタイムに生成する。
【0099】
コンテンツ配信プログラム174は、通信プログラム173に、リアルタイムに生成したコンテンツを、ストリーミングサーバ17にリアルタイムに供給させる。
【0100】
以下、シナリオファイル178−1乃至178−Mを個々に区別する必要がないとき、単にシナリオファイル178と称する。
【0101】
図8は、コンテンツ配信プログラム174の構成を示すブロック図である。
【0102】
入力モジュール181は、ソース選択エフェクト設定モジュール186の制御に基づいて、チューナ116から供給された画像データ若しくは音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、AVアナログインタフェース114を介してビデオカメラ21から供給された画像信号に対応する画像データ若しくはマイクロフォン22から供給された音声信号に対応する音声データ、またはHDD106に記録されている、動画ファイル175−1乃至175−Jのそれぞれに格納されている画像データ、静止画ファイル176−1乃至176−Kのそれぞれに格納されている画像データ、若しくは音声ファイル177−1乃至177−Nのそれぞれに格納されている音声データのうち、画像データまたは音声データを選択し、選択した画像データまたは音声データを入力する。入力モジュール181は、入力した画像データまたは音声データを、エフェクトモジュール182に出力する。
【0103】
なお、入力モジュール181は、ソース選択エフェクト設定モジュール186の制御に基づいて、エフェクトモジュール182にいずれの画像データも供給しないか、1つの画像データを供給するか、または複数の画像データを供給する。同様に、入力モジュール181は、ソース選択エフェクト設定モジュール186の制御に基づいて、エフェクトモジュール182にいずれの音声データも供給しないか、1つの音声データを供給するか、または複数の音声データを供給する。
【0104】
エフェクトモジュール182は、ソース選択エフェクト設定モジュール186の制御に基づいて、入力モジュール181から供給された画像データに、例えば、ワイプのエフェクト、またはディゾルブのエフェクトなどを適用し、所定のエフェクトを適用した画像データを分配モジュール183に供給する。
【0105】
エフェクトモジュール182はまた、ソース選択エフェクト設定モジュール186の制御に基づいて、入力モジュール181から供給された音声データに、所定のエフェクトを適用し、所定のエフェクトを適用した音声データをプレビューモジュール184およびエンコードモジュール185に出力する。
【0106】
分配モジュール183は、エフェクトモジュール182から供給された画像データを、プレビューモジュール184およびエンコードモジュール185に分配して出力する。
【0107】
プレビューモジュール184は、エフェクトモジュール182から供給された画像データを基に、プレビュー画像をLCD54に表示させると共に、エフェクトモジュール182から供給された音声データを基に、音声をスピーカ108に出力させる。
【0108】
エンコードモジュール185は、MPEG2エンコーダ/デコーダ113に、エフェクトモジュール182から供給された音声データおよび分配モジュール183から供給された画像データを圧縮符号化させ、その結果得られたデータを、デバイスドライバ172および通信プログラム173に出力する。
【0109】
ソース選択エフェクト設定モジュール186は、HDD106に記録されているシナリオファイル178−1乃至178−Mのいずれかに基づいて、入力モジュール181の画像データまたは音声データの選択を制御すると共に、エフェクトモジュール182のエフェクトの適用の処理を制御する。
【0110】
ソース選択エフェクト設定モジュール186は、使用者による設定の操作に対応する、キーボード55、ジョグダイヤル56、またはポインティングデバイス60からの信号に基づいて、入力モジュール181の画像データまたは音声データの選択を設定し、およびエフェクトモジュール182のエフェクトの適用を設定する。ソース選択エフェクト設定モジュール186は、入力モジュール181の画像データまたは音声データの選択の設定、およびエフェクトモジュール182のエフェクトの適用の設定に対応するシナリオファイル178−1乃至178−Mのいずれかを、シナリオファイル生成モジュール187に生成させる。
【0111】
シナリオファイル生成モジュール187は、ソース選択エフェクト設定モジュール186における、入力モジュール181の画像データまたは音声データの選択の設定、およびエフェクトモジュール182のエフェクトの適用の設定に対応するシナリオファイル178−1乃至178−Mのいずれかを生成し、生成したシナリオファイル178−1乃至178−MのいずれかをHDD106に記録させる。
【0112】
図9は、ストリーミングサーバ17の構成を説明する図である。CPU201は、各種アプリケーションプログラムや、オペレーティングシステムを実際に実行する。ROM202は、一般的には、CPU201が使用するプログラムや演算用のパラメータのうちの基本的に固定のデータを格納する。RAM203は、CPU201の実行において使用するプログラムや、その実行において適宜変化するパラメータを格納する。これらはホストバスなどから構成されるバス204により相互に接続されている。
【0113】
バス204には、さらにインタフェース205が接続されている。
【0114】
HDD206は、ハードディスクを駆動し、それらにCPU201によって実行するプログラムや情報を記録または再生させる。
【0115】
ネットワークインタフェース207は、インタネット11が接続され、CPU201、またはHDD206から供給されたデータを、所定の方式のパケットに格納して、インタネット11を介して、送信するとともに、インタネット11を介して、受信したパケットに格納されているデータをCPU201,RAM203、またはHDD206に出力する。
【0116】
ネットワークインタフェース208は、サーバ接続専用ネットワーク15が接続され、CPU201、またはHDD206から供給されたデータを、所定の方式のパケットに格納して、サーバ接続専用ネットワーク15を介して、送信するとともに、サーバ接続専用ネットワーク15を介して、受信したパケットに格納されているデータをCPU201,RAM203、またはHDD206に出力する。
【0117】
ネットワークインタフェース209は、専用回線18が接続され、CPU201、またはHDD206から供給されたデータを、所定の方式のパケットに格納して、専用回線18を介して、送信するとともに、専用回線18を介して、受信したパケットに格納されているデータをCPU201,RAM203、またはHDD206に出力する。
【0118】
ネットワークインタフェース207、ネットワークインタフェース208、およびネットワークインタフェース209は、インタフェース205およびバス204を介して、CPU201に接続されている。
【0119】
図10は、ストリーミングサーバ17が実行するプログラムを説明する図である。
【0120】
オペレーティングシステム221は、ストリーミングサーバ17の基本的な動作を管理するためのプログラムである。
【0121】
通信プログラム222は、ネットワークインタフェース207を制御し、インタネット11と接続するためのプログラムである。通信プログラム222は、ストリーミング制御プログラム225から供給された、ストリームであるコンテンツをインタネット11を介して、パーソナルコンピュータ16−1乃至16−3に配信する。
【0122】
通信プログラム223は、ネットワークインタフェース208を制御し、サーバ接続専用ネットワーク15と接続するためのプログラムである。通信プログラム223は、サーバ接続専用ネットワーク15を介して、パーソナルコンピュータ13から供給された、ストリームであるコンテンツを受信し、受信したコンテンツをストリーミング制御プログラム225に供給する。
【0123】
通信プログラム224は、ネットワークインタフェース209を制御し、専用回線18を介して、サーバ使用予約管理センタ14と接続するためのプログラムである。通信プログラム224は、サーバ使用予約管理センタ14から送信された、ストリーミング配信機能を使用する時間帯の予約のデータを受信し、受信した予約のデータをストリーミング制御プログラム225に供給する。
【0124】
ストリーミング制御プログラム225は、ストリームであるコンテンツの配信を実行する。すなわち、ストリーミング制御プログラム225は、ストリーミング配信機能を使用する時間帯の予約のデータを基に、通信プログラム223から供給された、ストリームであるコンテンツを一時的にバッファ226に記憶させ、バッファ226に記憶されているコンテンツを、通信プログラム222に供給する。
【0125】
図11は、パーソナルコンピュータ16の構成を説明するブロック図である。CPU301は、各種アプリケーションプログラムや、OSを実際に実行する。ROM302は、一般的には、CPU301が使用するプログラムや演算用のパラメータのうちの基本的に固定のデータを格納する。RAM303は、CPU301の実行において使用するプログラムや、その実行において適宜変化するパラメータを格納する。これらはホストバス304により相互に接続されている。
【0126】
ホストバス304は、ブリッジ305を介して、PCIバスなどの外部バス306に接続されている。
【0127】
キーボード308は、CPU301に各種の指令を入力するとき、使用者により操作される。ポインティングデバイス309は、モニタ310の画面上のポイントの指示や選択を行うとき、使用者により操作される。モニタ310は、液晶表示装置またはCRT(Cathode Ray Tube)などから成り、各種情報をテキストやイメージで表示する。HDD311およびFDD(Flexible Disk Drive)312は、それぞれハードディスクまたはフレキシブルディスクを駆動し、それらにCPU301によって実行するプログラムや情報を記録または再生させる。
【0128】
スピーカ313は、CPU301から供給された音声データを基に、音声を出力する。
【0129】
これらのキーボード308乃至スピーカ313は、インターフェース307に接続されており、インターフェース307は、外部バス306、ブリッジ305、およびホストバス304を介してCPU301に接続されている。
【0130】
ネットワークインタフェース314は、インタネット11が接続され、CPU301、またはHDD311から供給されたデータを、所定の方式のパケットに格納して、ネットワーク4を介して、送信するとともに、インタネット11を介して、受信したパケットに格納されているデータをCPU301,RAM303、またはHDD311に出力する。
【0131】
ネットワークインタフェース314は、外部バス306、ブリッジ305、およびホストバス304を介してCPU301に接続されている。
【0132】
図12は、パーソナルコンピュータ16が実行するプログラムを説明するブロック図である。
【0133】
オペレーティングシステム321は、パーソナルコンピュータ16の基本的な動作を管理するためのプログラムである。
【0134】
通信プログラム322は、ネットワークインタフェース314を制御し、インタネット11と接続するためのプログラムである。通信プログラム322は、インタネット11を介して、ストリーミングサーバ17から供給された、ストリームであるコンテンツを受信し、受信したコンテンツをコンテンツ再生プログラム324に供給する。
【0135】
デバイスドライバ323は、コンテンツ再生プログラム324から供給された画像データを基に、モニタ310に画像を表示させると共に、コンテンツ再生プログラム324から供給された音声データを基に、スピーカ313に音声を出力させる。
【0136】
コンテンツ再生プログラム324は、通信プログラム322から供給された、ストリームであるコンテンツに含まれる画像データおよび音声データを復号(伸張)し、復号した画像データおよび音声データをデバイスドライバ323に供給し、デバイスドライバ323に、画像を表示させる共に音声を出力させる。
【0137】
次に、コンテンツ配信プログラム174の画像データまたは音声データの選択の設定、およびエフェクトの設定について説明する。
【0138】
図13は、コンテンツ配信プログラム174がLCD54に表示させる画像の例を示す図である。
【0139】
コンテンツ配信プログラム174は、画像データまたは音声データの選択の設定、およびエフェクトの設定をするとき、LCD54に、パーソナルキャスティングにおける放送開始を基準とした時間の経過に対応して、画像データまたは音声データの選択、およびエフェクトの選択を示すと共に、画像データまたは音声データの選択、およびエフェクトの選択を設定するウィンドウ401を表示する。
【0140】
コンテンツ配信プログラム174は、LCD54に、デジタルビデオカメラ59、マイクロフォン61、AVアナログインタフェース114、IEEE1394インタフェース115、またはチューナ116のいずれかから供給される画像データまたは音声データの選択を指定するためのウィンドウ402を表示させる。
【0141】
コンテンツ配信プログラム174は、LCD54に、HDD106に記録されている、動画ファイル175−1乃至175−Jのそれぞれに格納されている画像データ、静止画ファイル176−1乃至176−Kのそれぞれに格納されている画像データ、または音声ファイル177−1乃至177−Nのそれぞれに格納されている音声データの選択を指定するためのウィンドウ403を表示させる。
【0142】
コンテンツ配信プログラム174は、LCD54に、エフェクトを指定するためのウィンドウ403を表示させる。
【0143】
ウィンドウ401のカーソル431は、放送開始の時刻を基準として、時間の経過に対応する時刻のうち、所定の基準時刻を示す。例えば、コンテンツ配信プログラム174は、画像データまたは音声データの選択の設定を基に、カーソル431で示される基準時刻における選択された画像データまたは音声データに、選択されたエフェクトを適用した結果に対応する画像をウィンドウ406に表示する。
【0144】
ウィンドウ401のバー432、バー433、バー435、バー436、およびバー437は、それぞれ、1つの画像データまたは1つの音声データの選択および選択される期間を示す。
【0145】
図14に示すように、バー432は、動画ファィル1を、放送開始の時刻を基準として、時間の経過に対応する時刻のうち、時刻t1から時刻t3までの期間、選択することを示す。動画ファィル1は、例えば、動画ファイル175−1に対応する。
【0146】
バー433は、動画ファィル2を、放送開始の時刻を基準として、時間の経過に対応する時刻のうち、時刻t2から時刻t4までの期間、選択することを示す。動画ファィル1は、例えば、動画ファイル175−2に対応する。
【0147】
バー435は、音声ファィル1を、放送開始の時刻を基準として、時間の経過に対応する時刻のうち、時刻t1から時刻t5までの期間、選択することを示す。音声ファイル1は、例えば、音声ファイル177−1に対応する。
【0148】
バー436は、カメラ2に対応する画像データを、放送開始の時刻を基準として、時間の経過に対応する時刻のうち、時刻t4から時刻t6までの期間、選択することを示す。カメラ2は、例えば、ビデオカメラ21に対応する。
【0149】
バー437は、マイク1に対応する音声データを、放送開始の時刻を基準として、時間の経過に対応する時刻のうち、時刻t4から時刻t6までの期間、選択することを示す。マイク1は、例えば、マイクロフォン22に対応する。
【0150】
ウィンドウ401のバー434は、1つのエフェクトが選択される期間を示す。図14に示すように、バー434は、動画ファィル1および動画ファイル2に、ワイプであるエフェクトを適用することを示す。
【0151】
ウィンドウ402のボタン451は、カメラ1の選択を指定するボタンである。例えば、カメラ1がデジタルビデオカメラ20−1に対応するとき、ボタン451がクリックされ、ウィンドウ401において、時刻t11に対応する位置から時刻t12に対応する位置までドラッグされたとき、コンテンツ配信プログラム174は、時刻t11から時刻t12までのカメラ1、すなわちデジタルビデオカメラ20−1から供給される画像データの選択を設定し、対応するバーをウィンドウ401に表示させる。
【0152】
ボタン452は、カメラ2の選択を指定するボタンである。例えば、カメラ2はビデオカメラ21に対応するとき、ボタン452がクリックされ、ウィンドウ401において、時刻t21に対応する位置から時刻t22に対応する位置までドラッグされたとき、コンテンツ配信プログラム174は、時刻t21から時刻t22までのカメラ1、すなわちビデオカメラ21から供給される画像信号に対応する画像データの選択を設定し、対応するバーをウィンドウ401に表示させる。
【0153】
同様に、ボタン453は、マイク1の選択を指定するボタンであり、ボタン454は、カメラ3(例えば、デジタルビデオカメラ59に対応する)の選択を指定するボタンである。
【0154】
ウィンドウ403のボタン461は、動画ファイル1の選択を指定するボタンである。例えば、動画ファイル1が動画ファイル175−1に対応するとき、ボタン461がクリックされ、ウィンドウ401において、時刻t31に対応する位置から時刻t32に対応する位置までドラッグされたとき、コンテンツ配信プログラム174は、時刻t31から時刻t32までの動画ファイル1、すなわち動画ファイル175−1に格納されている画像データの選択を設定し、対応するバーをウィンドウ401に表示させる。
【0155】
同様に、ボタン462は、動画ファイル2(例えば、動画ファイル175−2に対応する)の選択を指定するボタンであり、ボタン463は、動画ファイル3(例えば、他の動画ファイルに対応する)の選択を指定するボタンである。
【0156】
ウィンドウ403のボタン464は、音声ファイル1の選択を指定するボタンである。例えば、音声ファイル1が音声ファイル177−1に対応するとき、ボタン464がクリックされ、ウィンドウ401において、時刻t41に対応する位置から時刻t42に対応する位置までドラッグされたとき、コンテンツ配信プログラム174は、時刻t41から時刻t42までの音声ファイル1、すなわち音声ファイル177−1に格納されている音声データの選択を設定し、対応するバーをウィンドウ401に表示させる。
【0157】
ウィンドウ403のボタン465は、静止画ファイル1の選択を指定するボタンである。例えば、静止画ファイル1が静止画ファイル176−1に対応するとき、ボタン465がクリックされ、ウィンドウ401において、時刻t51に対応する位置から時刻t52に対応する位置までドラッグされたとき、コンテンツ配信プログラム174は、時刻t51から時刻t52までの静止画ファイル1、すなわち静止画ファイル176−1に格納されている画像データの選択を設定し、対応するバーをウィンドウ401に表示させる。
【0158】
同様に、ボタン466は、静止画ファイル2(例えば、静止画ファイル176−2に対応する)の選択を指定するボタンである。
【0159】
ウィンドウ404のボタン481は、自動車のワイパーで拭き取られるように画像が切り替わる効果である、いわゆるワイプの1種であるワイプ1であるエフェクトの適用を指定するボタンである。例えば、ボタン481がクリックされ、ウィンドウ401において、時刻t61に対応する位置から時刻t62に対応する位置までドラッグされたとき、コンテンツ配信プログラム174は、時刻t61から時刻t62において選択されている画像データに、ワイプ1であるエフェクトの適用を設定し、対応するバーをウィンドウ401に表示させる。
【0160】
同様に、ボタン482は、ワイプ2であるエフェクトの適用を指定するボタンであり、ボタン483は、ズーム2であるエフェクトの適用を指定するボタンであり、ボタン483は、オーバーラップしながら画像が切り替わる効果である、いわゆるディゾルブであるエフェクトの適用を指定するボタンである。
【0161】
コンテンツ配信プログラム174は、このように設定された、画像データまたは音声データの選択、またはエフェクトの選択を示すシナリオファイル178を生成する。
【0162】
コンテンツ配信プログラム174は、デジタルビデオカメラ59、マイクロフォン61、AVアナログインタフェース114、IEEE1394インタフェース115、またはチューナ116のいずれかから供給される画像、またはHDD106に記録されている、動画ファイル175−1乃至175−Jのそれぞれに格納されている画像データ、若しくは静止画ファイル176−1乃至176−Kのそれぞれに格納されている画像データに対応する画像をウィンドウ405に表示させる。
【0163】
コンテンツ配信プログラム174は、選択された画像データに、選択されたエフェクトを適用した画像をウィンドウ406に表示させる。
【0164】
コンテンツ配信プログラム174は、ボタン407がクリックされたとき、設定された送信開始日時から、予め選択した、シナリオファイル178−1乃至178−Mのいずれかに基づいて、コンテンツを生成し、ストリームであるコンテンツをストリーミングサーバ17に送信する。
【0165】
コンテンツ配信プログラム174は、テキストボックス408に設定された年月日および時刻のデータを、コンテンツのストリーミングサーバ17への送信を開始する日時を示すデータとして取得する。
【0166】
コンテンツ配信プログラム174は、テキストボックス409に設定された数字のデータを、コンテンツのストリーミングサーバ17への送信の繰り返しの回数を指定するデータとして取得する。
【0167】
例えば、テキストボックス408に”2001.12.31.17.30.00”が設定され、テキストボックス409に5が設定されているとき、コンテンツ配信プログラム174は、2001年12月31日の午後5時30分から、予め選択した、シナリオファイル178−1乃至178−Mのいずれかに基づいて、コンテンツを生成し、ストリームであるコンテンツをストリーミングサーバ17に送信する処理を5回繰り返す。
【0168】
コンテンツ配信プログラム174は、テキストボックス410に設定された数値のデータを、プレビューにおける時間の倍率のデータとして取得する。プレビューにおける時間の倍率とは、現実の時間に対する、プレビューにおける仮想的な時間の速度の比率を示す。例えば、倍率が5であるとき、ストリーミングサーバ17に送信するコンテンツの長さが10分である場合、コンテンツ配信プログラム174は、プレビューにおいて、5倍の速度で仮想的な時間が経過する2分の長さのコンテンツを生成し、画像を表示すると共に音声を出力する。
【0169】
コンテンツ配信プログラム174は、ボタン411がクリックされたとき、プレビューを実行する。
【0170】
図15は、コンテンツ配信プログラム174に生成され、または使用されるシナリオファイル178の例を示す図である。
【0171】
シナリオファイル178は、時刻に対応する画像データまたは音声データの選択を示すデータ、および時刻に対応するコンテンツの適用を示すデータを含む。
【0172】
例えば、図15に示すシナリオファイル178は、時刻t1において、画像ファイル1の選択を開始し、音声ファイル1の選択を開始することを示すデータ、時刻t2において、動画ファイル2の選択を開始し、動画ファイル1および動画ファイル2を対象とする、ワイプであるエフェクトの適用を開始することを示すデータ、および時刻t3において、動画ファイル1の選択を終了し、動画ファイル1および動画ファイル2を対象とする、ワイプであるエフェクトの適用を終了することを示すデータを含む。
【0173】
さらに、図15に示すシナリオファイル178は、時刻t4において、動画ファイル2の選択を終了し、カメラ2の選択を開始し、マイク1の選択を開始することを示すデータ、時刻t5において、音声ファイル1の選択を終了することを示すデータ、時刻t6において、カメラ2の選択を終了し、マイク1の選択を終了することを示すデータを含む。
【0174】
次に、CPU101が実行するコンテンツ配信プログラム174によるコンテンツの配信の処理を図16のフローチャートを参照して説明する。
【0175】
ステップS11において、コンテンツ配信プログラム174は、所定の画像データまたは音声データの選択である、ソースの選択の設定の処理を実行する。ソースの選択の設定の処理の詳細は後述する。
【0176】
ステップS12において、コンテンツ配信プログラム174は、エフェクトの設定の処理を実行する。エフェクトの設定の処理の詳細は後述する。
【0177】
ステップS13において、コンテンツ配信プログラム174は、ボタン411がクリックされたとき、プレビューの処理を実行する。プレビューの処理の詳細は後述する。
【0178】
ステップS14において、コンテンツ配信プログラム174は、ボタン407がクリックされたか否かを基に、送信の指示がされたか否かを判定し、送信の指示がされていないと判定された場合、さらにソースの選択およびエフェクトの設定がなされるので、ステップS11に戻り、ソースの選択の処理乃至プレビューの処理を繰り返す。
【0179】
ステップS14において、送信の指示がされていると判定された場合、ステップS15に進み、コンテンツ配信プログラム174は、テキストボックス408に入力された年月日および時刻のデータを基に、コンテンツのストリーミングサーバ17への送信を開始する日時を設定する。
【0180】
ステップS16において、コンテンツ配信プログラム174は、テキストボックス409に入力された数字のデータを基に、コンテンツのストリーミングサーバ17への送信の繰り返しの回数を設定する。
【0181】
ステップS17において、コンテンツ配信プログラム174は、送信を開始する日時の設定と、RTC154から供給される現在の日付けおよび時刻のデータを基に、コンテンツの送信を開始する時刻であるか否かを判定し、コンテンツの送信を開始する時刻でないと判定された場合、コンテンツの送信を開始する時刻になっていないので、ステップS17に戻り、コンテンツの送信を開始する時刻であるか否かの判定の処理を繰り返す。
【0182】
ステップS17において、コンテンツの送信を開始する時刻であると判定された場合、ステップS18に進み、コンテンツ配信プログラム174は、コンテンツの送信の処理を実行する。コンテンツの送信の処理の詳細は後述する。
【0183】
ステップS19において、コンテンツ配信プログラム174は、コンテンツのストリーミングサーバ17への送信の繰り返しの回数の設定を基に、送信の処理を所定の回数繰り返したか否かを判定し、送信の処理を所定の回数繰り返していないと判定された場合、さらに送信の処理を実行するために、ステップS18に戻り、送信の処理を繰り返す。
【0184】
送信の処理が繰り返して行われるとき、コンテンツ配信プログラム174は、同一のシナリオファイル178を使用して、ソースの選択およびエフェクトの適用を実行するので、同じパターンの番組を送信することができる。
【0185】
ステップS19において、送信の処理を所定の回数繰り返したと判定された場合、これ以上送信の処理を実行する必要がないので、処理は終了する。
【0186】
次に、ステップS11の処理に対応する、ソースの選択の設定の処理の詳細を図17のフローチャートを参照して説明する。
【0187】
ステップS31において、コンテンツ配信プログラム174は、ボタン451乃至ボタン454、およびボタン461乃至ボタン466のクリック等の操作を基に、画像データまたは音声のデータである、ソースを選択する。
【0188】
ステップS32において、コンテンツ配信プログラム174は、例えば、ウィンドウ401のドラッグの開始位置を基に、ソースの選択の開始時刻を設定する。
【0189】
ステップS33において、コンテンツ配信プログラム174は、例えば、ウィンドウ401のドラッグの終了位置を基に、ソースの選択の終了時刻を設定する。
【0190】
なお、ソースの選択、ソースの選択の開始時刻、またはソースの選択の終了時刻は、例えば、メニューの選択、またはテキストボックスへの数値の入力などにより設定されるようにしてもよい。
【0191】
ステップS34において、コンテンツ配信プログラム174は、ソースの選択、ソースの選択の開始時刻、またはソースの選択の終了時刻をシナリオファイル178に記録し、処理は終了する。
【0192】
次に、ステップS12の処理に対応する、エフェクトの設定の処理の詳細を図18のフローチャートを参照して説明する。
【0193】
ステップS51において、コンテンツ配信プログラム174は、ボタン481乃至484のクリック等の操作を基に、適用するエフェクトを選択する。
【0194】
ステップS52において、コンテンツ配信プログラム174は、エフェクトを適用する対象となるソース、すなわち画像データまたは音声データを選択する。
【0195】
ステップS53において、コンテンツ配信プログラム174は、例えば、ウィンドウ401のドラッグの開始位置を基に、エフェクトの開始時刻を設定する。
【0196】
ステップS54において、コンテンツ配信プログラム174は、例えば、ウィンドウ401のドラッグの終了位置を基に、エフェクトの終了時刻を設定する。
【0197】
なお、エフェクトの選択、エフェクトを適用するソースの選択、エフェクトの開始時刻、またはエフェクトの終了時刻は、例えば、メニューの選択、またはテキストボックスへの数値の入力などにより設定されるようにしてもよい。
【0198】
ステップS55において、コンテンツ配信プログラム174は、エフェクトの選択、エフェクトを適用するソースの選択、エフェクトの開始時刻、またはエフェクトの終了時刻をシナリオファイル178に記録し、処理は終了する。
【0199】
次に、ステップS13の処理に対応する、プレビューの処理の詳細を図19のフローチャートを参照して説明する。
【0200】
ステップS71において、コンテンツ配信プログラム174は、テキストボックス410に入力された数値のデータを基に、プレビューの処理における時間の倍率を設定する。
【0201】
ステップS72において、コンテンツ配信プログラム174は、設定した時間の倍率を基に、仮想時刻の演算を開始する。すなわち、コンテンツ配信プログラム174は、処理を開始した時刻とRTC154から供給されたデータが示す時刻との差に、時間の倍率を乗算して、仮想時刻を求める。例えば、時間の倍率が3と設定されているとき、処理を開始してから現実に5分が経過した場合、コンテンツ配信プログラム174は、仮想時刻として15分を求める。
【0202】
ステップS73において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、仮想時刻が、所定のソースの選択の開始時刻であるか否かを判定し、仮想時刻が、所定のソースの選択の開始時刻であると判定された場合、ステップS74に進み、選択されているシナリオファイル178を基に、入力モジュール181に、設定されているソースを選択させ、処理はステップS75に進む。
【0203】
ステップS73において、仮想時刻が、所定のソースの選択の開始時刻でないと判定された場合、ソースの選択の処理は不要なので、ステップS74の処理はスキップされ、処理はステップS75に進む。
【0204】
ステップS75において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、仮想時刻が、所定のソースの選択の終了時刻であるか否かを判定し、仮想時刻が、所定のソースの選択の終了時刻であると判定された場合、ステップS76に進み、選択されているシナリオファイル178を基に、入力モジュール181に、設定されているソースの選択を停止させ、処理はステップS77に進む。
【0205】
ステップS75において、仮想時刻が、所定のソースの選択の終了時刻でないと判定された場合、ソースの選択の停止の処理は不要なので、ステップS76の処理はスキップされ、処理はステップS77に進む。
【0206】
ステップS77において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、仮想時刻が、所定のエフェクトの開始時刻であるか否かを判定し、仮想時刻が、所定のエフェクトの開始時刻であると判定された場合、ステップS78に進み、選択されているシナリオファイル178を基に、エフェクトモジュール182に、所定のソースにエフェクトを適用させ、処理はステップS79に進む。
【0207】
ステップS77において、仮想時刻が、所定のエフェクトの開始時刻でないと判定された場合、エフェクトの適用の処理は不要なので、ステップS78の処理はスキップされ、処理はステップS79に進む。
【0208】
ステップS79において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、仮想時刻が、所定のエフェクトの終了時刻であるか否かを判定し、仮想時刻が、所定のエフェクトの終了時刻であると判定された場合、ステップS80に進み、選択されているシナリオファイル178を基に、エフェクトモジュール182に、所定のソースへのエフェクトを適用を停止させ、処理はステップS81に進む。
【0209】
ステップS79において、仮想時刻が、所定のエフェクトの終了時刻でないと判定された場合、エフェクトの適用の停止の処理は不要なので、ステップS80の処理はスキップされ、処理はステップS81に進む。
【0210】
ステップS81において、コンテンツ配信プログラム174は、ステップS73乃至ステップS80の処理で選択され、エフェクトが適用されたソース、すなわち、画像データおよび音声データを基に、プレビューモジュール184に、画像をLCD54に表示させ、スピーカ108に音声を出力させる。
【0211】
ステップS82において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、仮想時刻が、終了時刻であるか否かを判定し、仮想時刻が、終了時刻でないと判定された場合、ステップS73に戻り、ソースの選択およびエフェクトの適用の処理を繰り返す。
【0212】
ステップS82において、仮想時刻が、終了時刻であると判定された場合、ステップS83に進み、コンテンツ配信プログラム174は、仮想時刻の演算の処理を終了して、処理は終了する。
【0213】
このように、コンテンツ配信プログラム174は、現実の時間より速い仮想時間で、または遅い仮想時間で、選択され、エフェクトが適用されたソースに対応する画像を表示し、音声を出力することができる。
【0214】
使用者は、所望の倍率を設定し、プレビューを実行することより、実際の放送前に、実際の放送時間より短い時間でソースの選択またはエフェクトの適用を確認したり、実際の放送時間より短い時間で、より詳細に、ソースの選択またはエフェクトの適用を確認することができる。
【0215】
次に、ステップS18の処理に対応する、送信の処理の詳細を図20のフローチャートを参照して説明する。以下の処理において、コンテンツ配信プログラム174は、送信の処理を開始した時刻とRTC154から供給されたデータが示す時刻との差を現在時刻として、各ステップの処理を実行する。
【0216】
ステップS91において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、現在時刻が、所定のソースの選択の開始時刻であると判定された場合、ステップS92に進み、選択されているシナリオファイル178を基に、入力モジュール181に、設定されているソースを選択させ、処理はステップS93に進む。
【0217】
ステップS91において、現在時刻が、所定のソースの選択の開始時刻でないと判定された場合、ソースの選択の処理は不要なので、ステップS92の処理はスキップされ、処理はステップS93に進む。
【0218】
ステップS93において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、現在時刻が、所定のソースの選択の終了時刻であるか否かを判定し、現在時刻が、所定のソースの選択の終了時刻であると判定された場合、ステップS94に進み、選択されているシナリオファイル178を基に、入力モジュール181に、設定されているソースの選択を停止させ、処理はステップS95に進む。
【0219】
ステップS93において、現在時刻が、所定のソースの選択の終了時刻でないと判定された場合、ソースの選択の停止の処理は不要なので、ステップS94の処理はスキップされ、処理はステップS95に進む。
【0220】
ステップS95において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、現在時刻が、所定のエフェクトの開始時刻であるか否かを判定し、現在時刻が、所定のエフェクトの開始時刻であると判定された場合、ステップS96に進み、選択されているシナリオファイル178を基に、エフェクトモジュール182に、所定のソースにエフェクトを適用させ、処理はステップS97に進む。
【0221】
ステップS95において、現在時刻が、所定のエフェクトの開始時刻でないと判定された場合、エフェクトの適用の処理は不要なので、ステップS96の処理はスキップされ、処理はステップS97に進む。
【0222】
ステップS97において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、現在時刻が、所定のエフェクトの終了時刻であるか否かを判定し、現在時刻が、所定のエフェクトの終了時刻であると判定された場合、ステップS98に進み、選択されているシナリオファイル178を基に、エフェクトモジュール182に、所定のソースへのエフェクトの適用を停止させ、処理はステップS99に進む。
【0223】
ステップS97において、現在時刻が、所定のエフェクトの終了時刻でないと判定された場合、エフェクトの適用の停止の処理は不要なので、ステップS98の処理はスキップされ、処理はステップS99に進む。
【0224】
ステップS99において、コンテンツ配信プログラム174は、ステップS91乃至ステップS98の処理で選択され、エフェクトが適用された画像データおよび音声データからなるコンテンツをエンコードモジュール185に出力させ、ストリーミングサーバ17にあてて、ストリームであるコンテンツを通信プログラム173に送信させる。
【0225】
ステップS100において、コンテンツ配信プログラム174は、選択されているシナリオファイル178を基に、現在時刻が、終了時刻であるか否かを判定し、現在時刻が、終了時刻でないと判定された場合、ステップS91に戻り、ソースの選択およびエフェクトの適用の処理を繰り返す。
【0226】
ステップS100において、現在時刻が、終了時刻であると判定された場合、処理は終了する。
【0227】
図21は、コンテンツ配信システム1による、コンテンツの配信の処理を説明するフローチャートである。
【0228】
ステップS1001において、パーソナルコンピュータ13は、公衆回線網12およびサーバ接続専用ネットワーク15を介して、ストリームであるコンテンツをストリーミングサーバ17に送信する。ステップS1001の処理は、ステップS99の処理に対応する。パーソナルコンピュータ13は、ストリーミングサーバ17へのコンテンツの送信の処理を繰り返す。
【0229】
ステップS1101において、ストリーミングサーバ17は、パーソナルコンピュータ13から送信されたコンテンツを受信する。
【0230】
ステップS1102において、ストリーミングサーバ17は、インタネット11を介して、ステップS1101の処理で受信したコンテンツを、パーソナルコンピュータ16−1に送信する。
【0231】
ステップS1201において、パーソナルコンピュータ16−1は、ストリーミングサーバ17から送信されたコンテンツを受信する。ステップS1202において、パーソナルコンピュータ16−1は、受信したコンテンツを再生する。パーソナルコンピュータ16−1は、ステップS1201に戻り、コンテンツの受信の処理およびコンテンツの再生の処理を繰り返す。
【0232】
ステップS1103において、ストリーミングサーバ17は、インタネット11を介して、ステップS1101の処理で受信したコンテンツを、パーソナルコンピュータ16−2に送信する。
【0233】
ステップS1301において、パーソナルコンピュータ16−2は、ストリーミングサーバ17から送信されたコンテンツを受信する。ステップS1302において、パーソナルコンピュータ16−2は、受信したコンテンツを再生する。パーソナルコンピュータ16−2は、ステップS1301に戻り、コンテンツの受信の処理およびコンテンツの再生の処理を繰り返す。
【0234】
ステップS1104において、ストリーミングサーバ17は、インタネット11を介して、ステップS1101の処理で受信したコンテンツを、パーソナルコンピュータ16−3に送信する。ストリーミングサーバ17は、ステップS1101に戻り、コンテンツの受信の処理およびコンテンツの送信の処理を繰り返す。
【0235】
ステップS1401において、パーソナルコンピュータ16−3は、ストリーミングサーバ17から送信されたコンテンツを受信する。ステップS1402において、パーソナルコンピュータ16−3は、受信したコンテンツを再生する。パーソナルコンピュータ16−3は、ステップS1401に戻り、コンテンツの受信の処理およびコンテンツの再生の処理を繰り返す。
【0236】
このように、パーソナルコンピュータ13からストリーミングサーバ17に送信されたコンテンツは、インタネット11を介して、リアルタイムに、パーソナルコンピュータ16−1乃至16−3に配信される。
【0237】
以上のように、本発明に係るコンテンツ配信システム1において、放送開始を基準とする時刻に従って、予め定めたソースが選択され、エフェクトが適用されるので、従来困難であった、自分自身の出演するライブ放送が1人でできるようになる。
【0238】
図22は、本発明に係るコンテンツ配信システム1の他の実施の形態の構成を示す図である。図1に示す場合と同様の部分には、同一の番号を付してあり、その説明は省略する。
【0239】
公衆回線網12には、通信サービスの提供エリアを所望の広さに分割したセルにそれぞれ配置されている、固定無線局である基地局602を介して、カメラ付デジタル携帯電話機601が接続されている。
【0240】
カメラ付デジタル携帯電話機601は、IEEE1394の規格に準拠するネットワークを介して接続されたデジタルビデオカメラ20−1または20−2から供給された画像データおよび音声データを取得する。
【0241】
基地局602は、移動無線局であるカメラ付デジタル携帯電話機601を、例えば、W-CDMA(Wideband-Code Division Multiple Access)と呼ばれる符号分割多元接続により無線接続し、移動無線局であるカメラ付デジタル携帯電話機601と、2GHzの周波数帯域を利用して最大2Mbpsのデータ転送速度で大容量データを高速にデータ通信できる。
【0242】
カメラ付デジタル携帯電話機601は、基地局602とW-CDMA方式により大容量データを高速にデータ通信できるので、音声通話に限らず、電子メールの送受信、簡易ホームページの閲覧、画像などのコンテンツの送受信等の多種に及ぶデータ通信を実行し得る。
【0243】
カメラ付デジタル携帯電話機601は、ブラウザプログラム、後述するコンテンツ配信プログラムなどを実行する。
【0244】
カメラ付デジタル携帯電話機601は、パーソナルキャスティングにおける放送開始を基準とした時間の経過に対応して、ソースの選択を決定すると共に、選択されたソースに適用するエフェクトを予め設定する。
【0245】
カメラ付デジタル携帯電話機601は、ストリーミングサーバ17にコンテンツを供給する前に、予め定めたソースの選択およびエフェクトの設定を基に、撮像した画像に対応する画像データ若しくは取得した音声に対応する音声データ、記録している画像データ若しくは音声データ、またはデジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データから、コンテンツを生成し、生成したコンテンツに対応する画像を表示すると共に、音声を出力する。
【0246】
カメラ付デジタル携帯電話機601は、ストリーミングサーバ17にコンテンツを供給するとき、すなわち、パーソナルキャスティングを実行するとき、予め定めたソースの選択およびエフェクトの設定を基に、撮像した画像に対応する画像データ若しくは取得した音声に対応する音声データ、記録している画像データ若しくは音声データ、またはデジタルビデオカメラ20−1若しくは20−2から取得した画像データ若しくは音声データから、リアルタイムにコンテンツを生成する。
【0247】
カメラ付デジタル携帯電話機601は、ストリーミングサーバ17にコンテンツを供給するとき、リアルタイムに生成したコンテンツを、公衆回線網12およびサーバ接続専用ネットワーク15を介して、ストリーミングサーバ17にリアルタイムに送信する。
【0248】
また、公衆回線網12には、有線回線を介して、インタネット11、ローカルエリアネットワーク、図示せぬ加入者有線端末装置、コンピュータネットワーク、および企業内ネットワーク等が接続されている。
【0249】
インタネットサービスプロバイダのアクセスサーバ603は、公衆回線網12に接続されており、更に、インタネットサービスプロバイダが保有するコンテンツサーバ604に接続されている。
【0250】
コンテンツサーバ604は、加入者有線端末装置、またはカメラ付デジタル携帯電話機601からの要求に対応して、例えば、簡易ホームページ等のコンテンツを、コンパクトHTML(HyperText Markup Language)方式のファイルとして提供する。
【0251】
インタネット11には、図示せぬ多数のWWW(World Wide Web)サーバが接続されている。WWWサーバは、TCP(Transmission Control Protocol)/IP(Internet Protocol)のプロトコルに従って、加入者有線端末装置、およびカメラ付デジタル携帯電話機601からアクセスされる。
【0252】
因みに、およびカメラ付デジタル携帯電話機601は、基地局602までを2Mbpsの簡易トランスポートプロトコルで通信し、基地局602から、インタネット11、およびWWWサーバまでをTCP/IPで通信する。
【0253】
なお、管理制御装置605は、公衆回線網12を介して、加入者有線端末装置、およびカメラ付デジタル携帯電話機601に接続され、加入者有線端末装置、およびカメラ付デジタル携帯電話機601に対する認証処理などを実行する。
【0254】
次に本発明を適用したカメラ付デジタル携帯電話機601の外観構成について説明する。図23に示すようにカメラ付デジタル携帯電話機601は、表示部611および本体612で構成され、中央のヒンジ部613により折り畳み可能に形成されている。
【0255】
表示部611は、上端左部に引出しまたは収納可能な送受信用のアンテナ614を有する。カメラ付デジタル携帯電話機601は、アンテナ614を介して、固定無線局である基地局602との間で電波を送受信する。
【0256】
また、表示部611は、上端中央部にほぼ180度の角度範囲で回動自在なカメラ部615を有する。カメラ付デジタル携帯電話機601は、カメラ部615のCCDカメラ616によって所望の撮像対象を撮像する。
【0257】
カメラ部615が使用者によってほぼ180度回動されて位置決めされた場合、図24に示すように、表示部611は、カメラ部615の背面側中央に設けられたスピーカ617が正面側に位置する状態となる。これにより、カメラ付デジタル携帯電話機601は、通常の音声通話状態に切り換わる。
【0258】
さらに、表示部611の正面に液晶ディスプレイ618が設けられている。液晶ディスプレイ618は、ソースの選択またはエフェクトの選択を設定する画面、プレビュー画面、電波の受信状態、電池残量、電話帳として登録されている相手先名や電話番号および発信履歴等の他、電子メールの内容、簡易ホームページ、カメラ部615のCCDカメラ616で撮像した画像などを表示する。
【0259】
一方、本体612には、その表面に「0」乃至「9」の数字キー、発呼キー、リダイヤルキー、終話及び電源キー、クリアキー及びメールキー等の操作キー619が設けられている。操作キー619の操作に対応した各種指示が、カメラ付デジタル携帯電話機601に入力される。
【0260】
また、本体612の操作キー619の下部にメモボタン620およびマイクロフォン621が設けられている。カメラ付デジタル携帯電話機601は、メモボタン620が操作されたとき、通話中の相手の音声を録音する。カメラ付デジタル携帯電話機601は、マイクロフォン621によって通話時の使用者の音声を集音する。
【0261】
さらに、本体612の操作キー619の上部に回動自在なジョグダイヤル622が、本体612の表面から僅かに突出した状態で設けられている。カメラ付デジタル携帯電話機601は、ジョグダイヤル622に対する回動操作に応じて、液晶ディスプレイ618に表示されている電話帳リスト若しくは電子メールのスクロール動作、簡易ホームページのページ捲り動作、または画像の送り動作等の種々の動作を実行する。
【0262】
例えば、本体612は、使用者によるジョグダイヤル622の回動操作に応じて液晶ディスプレイ618に表示された電話帳リストの複数の電話番号の中から所望の電話番号を選択し、ジョグダイヤル622が本体612の内部方向に押圧されたとき、選択されている電話番号を確定して、確定した電話番号に対して自動的に発呼処理を行う。
【0263】
例えば、液晶ディスプレイ618に複数の候補単語が表示されている状態で、ジョグダイヤル622が回転操作を受けた場合、複数の候補単語の中から、所望の候補単語が選択され、ジョグダイヤル622が本体612側に押圧されたとき、選択されている候補単語が確定される。
【0264】
なお、本体612は、背面側に図示しないバッテリパックが装着されており、終話/電源キーがオン状態になると、バッテリパックから各回路部に対して電力が供給されて動作可能な状態に起動する。
【0265】
ところで、本体612の左側面上部に抜差自在なメモリカード624を装着するためのメモリカードスロット623が設けられている。カメラ付デジタル携帯電話機601は、メモボタン620が押下されると、通話中の相手の音声を装着されているメモリカード624に記録する。カメラ付デジタル携帯電話機601は、使用者の操作に応じて、電子メール、簡易ホームページ、CCDカメラ616で撮像した画像、または音声などのコンテンツを装着されているメモリカード624に記録する。
【0266】
メモリカード624は、例えば、メモリースティック(商標)である。メモリースティックは、本願出願人であるソニー株式会社によって開発されたフラッシュメモリカードの一種である。このメモリカード624は、縦21.5×横50×厚さ2.8[mm] の小型薄型形状のプラスチックケース内に電気的に書換えや消去が可能な不揮発性メモリであるEEPROM(Electrically Erasable and Programmable Read Only Memory )の一種であるフラッシュメモリ素子を格納したものであり、10ピン端子を介して画像や音声、音楽等の各種データの書き込み及び読み出しが可能となっている。
【0267】
またメモリースティックは、大容量化等による内蔵フラッシュメモリの仕様変更に対しても、使用する機器で互換性を確保することができる独自のシリアルプロトコルを採用し、最大書込速度1.5[MB/S] 、最大読出速度2.45[MB/S]の高速性能を実現していると共に、誤消去防止スイッチを設けて高い信頼性を確保している。
【0268】
従って、カメラ付デジタル携帯電話機601は、このようなメモリカード624を装着可能に構成されているために、メモリカード624を介して、他の電子機器との間でデータの共有化を図ることができる。
【0269】
さらに、本体612の左側面下部には、デジタルビデオカメラ20−1および20−2と接続するためのIEEE1394ポートが設けられている。
【0270】
図25に示すように、カメラ付デジタル携帯電話機601は、表示部611および本体612の各部を統括的に制御する主制御部631に対して、電源回路部632、操作入力制御部633、画像エンコーダ634、カメラインターフェース部635、LCD(Liquid Crystal Display)制御部636、画像デコーダ637、多重分離部638、記憶再生部643、変復調回路部639、音声コーデック640、およびIEEE1394インタフェース645がメインバス641を介して互いに接続されると共に、画像エンコーダ634、画像デコーダ637、多重分離部638、変復調回路部639、音声コーデック640、およびIEEE1394インタフェース645が同期バス642を介して互いに接続されて構成されている。
【0271】
電源回路部632は、使用者の操作により終話/電源キーがオン状態にされると、バッテリパックから各部に対して電力を供給することによりカメラ付デジタル携帯電話機601を動作可能な状態に起動する。
【0272】
カメラ付デジタル携帯電話機601は、CPU、ROMおよびRAM等でなる主制御部631の制御に基づいて、音声通話モードにおいて、マイクロフォン621で集音した音声信号を音声コーデック640によってデジタル音声データに変換する。カメラ付デジタル携帯電話機601は、デジタル音声データを変復調回路部639でスペクトラム拡散処理し、送受信回路部644でデジタルアナログ変換処理および周波数変換処理を施した後にアンテナ614を介して送信する。
【0273】
また、カメラ付デジタル携帯電話機601は、音声通話モードにおいて、アンテナ614で受信した受信信号を増幅して周波数変換処理およびアナログデジタル変換処理を施し、変復調回路部639でスペクトラム逆拡散処理し、音声コーデック640によってアナログ音声信号に変換する。カメラ付デジタル携帯電話機601は、アナログ音声信号に対応する音声をスピーカ617に出力させる。
【0274】
さらに、カメラ付デジタル携帯電話機601は、データ通信モードにおいて、コンテンツを送信する場合、操作キー619およびジョグダイヤル622の操作によって入力に対応して指定されたコンテンツを主制御部631に送出する。
【0275】
主制御部631は、コンテンツを変復調回路部639でスペクトラム拡散処理し、送受信回路部644でデジタルアナログ変換処理及び周波数変換処理を施した後にアンテナ614を介して基地局へ送信する。
【0276】
これに対してカメラ付デジタル携帯電話機601は、データ通信モードにおいて、コンテンツを受信する場合、アンテナ614を介して基地局602から受信した受信信号を変復調回路部639でスペクトラム逆拡散処理して、元のコンテンツを復元した後、LCD制御部636を介して液晶ディスプレイ618にコンテンツに対応するデータを表示する。
【0277】
この後、カメラ付デジタル携帯電話機601は、使用者の操作に応じて受信したコンテンツを記憶再生部643を介してメモリカード624に記録することも可能である。
【0278】
カメラ付デジタル携帯電話機601は、データ通信モードにおいて画像データを送信する場合、CCDカメラ616で撮像された画像データをカメラインターフェース部635を介して画像エンコーダ634に供給する。
【0279】
因みにカメラ付デジタル携帯電話機601は、画像データを送信しない場合には、CCDカメラ616で撮像した画像データをカメラインターフェース部635およびLCD制御部636を介して液晶ディスプレイ618に直接表示することも可能である。
【0280】
画像エンコーダ634は、CCDカメラ616から供給された画像データを、例えば、MPEG(Moving Picture Experts Group )2またはMPEG4等の所定の符号化方式によって圧縮符号化することにより符号化画像データに変換し、これを多重分離部638に送出する。
【0281】
このとき同時にカメラ付デジタル携帯電話機601は、CCDカメラ616で撮像中にマイクロフォン621で集音した音声を音声コーデック640を介してデジタルの音声データとして多重分離部638に送出する。
【0282】
多重分離部638は、画像エンコーダ634から供給された符号化画像データと音声コーデック640から供給された音声データとを所定の方式で多重化し、その結果得られる多重化データを変復調回路部639でスペクトラム拡散処理し、送受信回路部644でデジタルアナログ変換処理及び周波数変換処理を施した後にアンテナ614を介して送信する。
【0283】
これに対してカメラ付デジタル携帯電話機601は、データ通信モードにおいて、例えば、簡易ホームページ等にリンクされた動画像ファイルのデータを受信する場合、アンテナ614を介して基地局から受信した受信信号を変復調回路部639でスペクトラム逆拡散処理し、その結果得られる多重化データを多重分離部638に送出する。
【0284】
多重分離部638は、多重化データを符号化画像データと音声データとに分離し、同期バス642を介して、符号化画像データを画像デコーダ637に供給すると共に、音声データを音声コーデック640に供給する。
【0285】
画像デコーダ637は、符号化画像データをMPEG2またはMPEG4等の所定の符号化方式に対応した復号方式でデコードすることにより再生動画像データを生成し、これをLCD制御部636を介して液晶ディスプレイ618に供給する。これにより、カメラ付デジタル携帯電話機601は、例えば、簡易ホームページにリンクされた動画像ファイルに含まれる動画データを表示する。
【0286】
このとき同時に音声コーデック640は、音声データをアナログ音声信号に変換した後、これをスピーカ617に供給する。これにより、カメラ付デジタル携帯電話機601は、例えば、簡易ホームページにリンクされた動画像ファイルに含まる音声データを再生する。
【0287】
IEEE1394インタフェース645は、IEEE1394ポート625を介して、デジタルビデオカメラ20から供給された画像データまたは音声データを受信し、受信した画像データまたは音声データを、主制御部631に供給する。
【0288】
図26は、主制御部631が実行するプログラムを説明する図である。
【0289】
オペレーティングシステム661は、カメラ付デジタル携帯電話機601の基本的な動作を管理するためのプログラムである。
【0290】
コンテンツ配信プログラム662は、インタネット11を介して、ストリーミングサーバ17のストリーミング配信機能を使用する時間帯の予約をサーバ使用予約管理センタ14に要求する。
【0291】
コンテンツ配信プログラム662は、パーソナルキャスティングにおける放送開始を基準とした時間の経過に対応して、CCDカメラ616で撮像した画像に対応する画像データ若しくはマイクロフォン621で取得した音声に対応する音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、またはメモリカード624に記憶されている、動画ファイル663−1乃至663−Pのそれぞれに格納されている画像データ、静止画ファイル664−1乃至664−Qのそれぞれに格納されている画像データ、若しくは音声ファイル665−1乃至665−Rのそれぞれに格納されている音声データの選択を決定する。
【0292】
コンテンツ配信プログラム662は、選択された、CCDカメラ616で撮像した画像に対応する画像データ若しくはマイクロフォン621で取得した音声に対応する音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、またはメモリカード624に記憶されている、動画ファイル663−1乃至663−Pのそれぞれに格納されている画像データ、静止画ファイル664−1乃至664−Qのそれぞれに格納されている画像データ、若しくは音声ファイル665−1乃至665−Rのそれぞれに格納されている音声データに適用する画像処理または音声処理(いわゆる、エフェクト)の選択を決定する。
【0293】
コンテンツ配信プログラム662は、パーソナルキャスティングにおける放送開始を基準とした時間の経過に対応して、画像データまたは音声データの選択、および選択された画像データまたは音声データに適用するエフェクトの選択をシナリオファイル666−1乃至666−Sのいずれか1つに記録する。
【0294】
コンテンツ配信プログラム662は、ストリーミングサーバ17にコンテンツを供給する前に、シナリオファイル666−1乃至666−Sのいずれか1つを基に、CCDカメラ616で撮像した画像に対応する画像データ若しくはマイクロフォン621で取得した音声に対応する音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、またはメモリカード624に記憶されている、動画ファイル663−1乃至663−Pのそれぞれに格納されている画像データ、静止画ファイル664−1乃至664−Qのそれぞれに格納されている画像データ、若しくは音声ファイル665−1乃至665−Rのそれぞれに格納されている音声データから、ストリーミングデータである、画像データおよび音声データからなるコンテンツを生成し、生成したコンテンツに対応する画像を液晶ディスプレイ618に表示させると共に、スピーカ617に音声を出力させる。
【0295】
コンテンツ配信プログラム662は、ストリーミングサーバ17にコンテンツを供給するとき、すなわち、パーソナルキャスティングを実行するとき、予め選択したシナリオファイル666−1乃至666−Sのいずれか1つを基に、CCDカメラ616で撮像した画像に対応する画像データ若しくはマイクロフォン621で取得した音声に対応する音声データ、IEEE1394インタフェース115を介してデジタルビデオカメラ20から供給された画像データ若しくは音声データ、またはメモリカード624に記憶されている、動画ファイル663−1乃至663−Pのそれぞれに格納されている画像データ、静止画ファイル664−1乃至664−Qのそれぞれに格納されている画像データ、若しくは音声ファイル665−1乃至665−Rのそれぞれに格納されている音声データから、ストリーミングデータである、画像データおよび音声データからなるコンテンツをリアルタイムに生成する。
【0296】
コンテンツ配信プログラム662は、リアルタイムに生成したコンテンツを、ストリーミングサーバ17にリアルタイムに送信する。
【0297】
シナリオファイル666−1乃至666−Sは、シナリオファイル178乃至178−Mと同様なので、その詳細の説明は省略する。
【0298】
コンテンツ配信プログラム662の処理の詳細は、図16乃至図21のフローチャートを参照して説明した処理と同様なのでその説明は省略する。
【0299】
なお、パーソナルコンピュータ13またはカメラ付デジタル携帯電話機601がコンテンツを配信すると説明したが、パーソナルコンピュータ13またはカメラ付デジタル携帯電話機601に限らず、PDA(Personal Digital Assistant)またデジタルビデオカメラなど他の機器でもよい。
【0300】
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
【0301】
この記録媒体は、図6に示すように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク14(フレキシブルディスクを含む)、光ディスク142(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク143(MD(商標)(Mini-Disc)を含む)、半導体メモリ144、若しくはメモリカード624などよりなるパッケージメディアにより構成されるだけでなく、コンピュータに予め組み込まれた状態でユーザに提供される、プログラムが記録されているROMや、HDD106に含まれるハードディスクなどで構成される。
【0302】
なお、上述した一連の処理を実行させるプログラムは、必要に応じてルータ、モデムなどのインタフェースを介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を介してコンピュータにインストールされるようにしてもよい。
【0303】
また、本明細書において、記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0304】
なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【0305】
【発明の効果】
本発明の情報処理装置および方法、並びにプログラムによれば、サーバへのコンテンツの予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および画像データに対する画像処理の適用の設定を示すシナリオデータが生成され、所定の撮像手段から供給される画像データであるライブ画像データが取得され、予め記録された画像データである記録画像データが所定の記録手段から読み出して取得され、ライブ画像データの取得と、記録画像データの取得とが、シナリオデータに従って、サーバへのコンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替えられ、シナリオデータに従って、取得されたライブ画像データまたは記録画像データに対して設定された画像処理が適用されて、サーバに配信するコンテンツが生成され、生成されたコンテンツのサーバへの配信が制御されるようにしたので、確実に、所望の画像の切り換えおよび効果の適用ができるようになる。
【図面の簡単な説明】
【図1】本発明に係るコンテンツ配信システム1の一実施の形態の構成を示す図である。
【図2】パーソナルコンピュータ13の外観を示す図である。
【図3】パーソナルコンピュータ13の外観を示す図である。
【図4】パーソナルコンピュータ13の外観を示す図である。
【図5】パーソナルコンピュータ13の外観を示す図である。
【図6】パーソナルコンピュータ13の構成の例を示すブロック図である。
【図7】パーソナルコンピュータ13が実行するプログラムを説明するブロック図である。
【図8】コンテンツ配信プログラム174の構成を示すブロック図である。
【図9】ストリーミングサーバ17の構成を説明するブロック図である。
【図10】ストリーミングサーバ17が実行するプログラムを説明するブロック図である。
【図11】パーソナルコンピュータ16の構成を説明するブロック図である。
【図12】パーソナルコンピュータ16が実行するプログラムを説明するブロック図である。
【図13】コンテンツ配信プログラム174がLCD54に表示させる画像の例を示す図である。
【図14】ソースの選択またはエフェクトの選択に対応する時刻を説明する図である。
【図15】シナリオファイル178の例を示す図である。
【図16】コンテンツの配信の処理を説明するフローチャートである。
【図17】ソースの選択の設定の処理を説明するフローチャートである。
【図18】エフェクトの設定の処理を説明するフローチャートである。
【図19】プレビューの処理を説明するフローチャートである。
【図20】送信の処理を説明するフローチャートである。
【図21】コンテンツの配信の処理を説明するフローチャートである。
【図22】本発明に係るコンテンツ配信システム1の他の実施の形態の構成を示す図である。
【図23】カメラ付デジタル携帯電話機601の外観を示す図である。
【図24】カメラ部615を説明する図である。
【図25】カメラ付デジタル携帯電話機601の構成を説明するブロック図である。
【図26】カメラ付デジタル携帯電話機601が実行するプログラムの構成を説明するブロック図である。
【符号の説明】
11 インタネット, 13 パーソナルコンピュータ, 54 LCD, 59 デジタルビデオカメラ, 61 マイクロフォン, 101 CPU, 103 RAM, 106 HDD, 108 スピーカ, 114 AVアナログインタフェース, 115 IEEE1394インタフェース, 116 チューナ, 118 モデム, 141 磁気ディスク, 142 光ディスク, 143 光磁気ディスク, 144 半導体メモリ, 152 LANインタフェース, 172 デバイスドライバ, 173 通信プログラム, 174 コンテンツ配信プログラム, 175−1乃至175−J 動画ファイル, 176−1乃至176−K 静止画ファイル, 177−1乃至177−N 音声ファイル, 178−1乃至178−M シナリオファイル, 601 カメラ付デジタル携帯電話機601, 616 CCDカメラ, 618 液晶ディスプレイ, 621 マイクロフォン, 624 メモリカード, 631 主制御部, 662 コンテンツ配信プログラム, 663−1乃至663−P 動画ファイル, 664−1乃至664−Q 静止画ファイル, 665−1乃至665−R 音声ファイル, 666−1乃至666−S シナリオファイル[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information processing apparatus and method, and a program, and more particularly, to an information processing apparatus and method for distributing content, and a program.
[0002]
[Prior art]
A system for distributing content from a personal computer to another personal computer via a network such as the Internet is used.
[0003]
[Problems to be solved by the invention]
However, when a so-called live image is captured and the captured image is distributed as content, switching of the source, such as a camera or microphone to be imaged, or an effect on the captured image, so-called effect distribution, distributes the content. While doing so, I had to manually instruct the personal computer to deliver the content.
[0004]
For this reason, when distributing live content that appears on its own, it is impossible to switch sources or select a desired effect. Moreover, even when content is distributed by multiple people, it is not possible to eliminate operational mistakes. When content is distributed repeatedly, the procedure for switching sources is the same or the procedure for applying effects is the same. Even if there was, there was a problem that it had to be operated each time and was troublesome.
[0005]
The present invention has been made in view of such a situation, and an object thereof is to ensure that a desired source can be switched and an effect can be applied.
[0006]
[Means for Solving the Problems]
The information processing apparatus of the present inventionBased on content reservation to serverCorresponding to the time relative to the start of delivery,Image data selection settingsAnd image processing for image dataScenario data generation means for generating scenario data indicating the setting of application, first image data acquisition means for acquiring live image data that is image data supplied from a predetermined imaging means, and prerecorded image data The second image data acquisition unit that reads and acquires the recorded image data from the predetermined recording unit, the acquisition of the image data by the first image data acquisition unit, and the acquisition of the image data by the second image data acquisition unit According to the scenario data, switching means corresponding to the elapsed time from the time on the basis of the start of distribution of the content to the server, and the first image data acquisition means or the second image data according to the scenario data Applying the set image processing to the image data acquired by the acquisition means, It includes a content generation means for forming, and a distribution control means for controlling the delivery to the server generated contentIt is characterized by that.
[0007]
An imaging unit is further provided, and the first image data acquisition unit can acquire live image data supplied from its own imaging unit.
[0008]
A first audio data acquisition unit that acquires live audio data that is audio data supplied from a predetermined audio acquisition unit; and a first audio data acquisition unit that reads out and acquires recorded audio data that is audio data recorded in advance from the predetermined recording unit. The voice data acquisition means of the second voice data acquisition means and the voice data acquisition of the voice data acquisition means of the second voice data acquisition means according to the scenario data. Can be switched in accordance with the elapsed time from the time on the basis of the start of the distribution of the content to.
Before delivering the content, it is possible to further provide a preview control means for controlling the reproduction of the content on the basis of a virtual time having a desired magnification with respect to the actual time.
[0009]
The information processing method of the present invention includes:Based on content reservation to serverCorresponding to the time relative to the start of delivery,Image data selection settingsAnd image processing for image dataA scenario data generation step for generating scenario data indicating application settings, a first image data acquisition step for acquiring live image data that is image data supplied from a predetermined imaging means, and prerecorded image data A second image data acquisition step for reading out and acquiring recorded image data from a predetermined recording means, acquisition of image data in the first image data acquisition step, and acquisition of image data in the second image data acquisition step In accordance with the scenario data in accordance with the elapsed time from the time based on the start of the distribution of the content to the server, and the first image data acquisition step or the second image data in accordance with the scenario data The image processing set for the image data acquired in the acquisition step And use a content generating step of generating a content to be distributed to the server, a distribution control step of controlling the delivery to the server generated contentIt is characterized by including.
[0010]
The program of the present invention is stored in a computer.Based on content reservation to serverCorresponding to the time relative to the start of delivery,Image data selection settingsAnd image processing for image dataA scenario data generation step for generating scenario data indicating application settings, a first image data acquisition step for acquiring live image data that is image data supplied from a predetermined imaging means, and prerecorded image data A second image data acquisition step for reading out and acquiring recorded image data from a predetermined recording means, acquisition of image data in the first image data acquisition step, and acquisition of image data in the second image data acquisition step In accordance with the scenario data in accordance with the elapsed time from the time based on the start of the distribution of the content to the server, and the first image data acquisition step or the second image data in accordance with the scenario data The image processing set for the image data acquired in the acquisition step And use to execute a content generating step of generating a content to be distributed to the server, and a distribution control step of controlling the distribution of the server in the generated content.
[0011]
In the information processing apparatus and method and program of the present invention,Based on content reservation to serverCorresponding to the time relative to the start of delivery,Image data selection settingsAnd image processing for image dataScenario data indicating the setting of the application is generated, live image data that is image data supplied from a predetermined imaging unit is acquired, and recorded image data that is pre-recorded image data is read from the predetermined recording unit Acquired, acquisition of live image data and acquisition of recorded image data are switched according to the elapsed time from the time based on the start of distribution of content to the server according to the scenario data, and according to the scenario data, The set image processing is applied to the obtained live image data or recorded image data to generate content to be distributed to the server, and the distribution of the generated content to the server is controlled.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a diagram showing a configuration of an embodiment of a
[0013]
The
[0014]
The
[0015]
The
[0016]
The
[0017]
The
[0018]
The
[0019]
When the
[0020]
The
[0021]
The
[0022]
The
[0023]
The server use
[0024]
The streaming
[0025]
The personal computer 16-1 receives the content that is a stream transmitted from the streaming
[0026]
The personal computer 16-2 receives content that is a stream transmitted from the streaming
[0027]
The personal computer 16-3 receives the content that is a stream transmitted from the streaming
[0028]
That is, the
[0029]
The
[0030]
The
[0031]
Hereinafter, recorded image data or audio data, received program, image data or audio data acquired from the digital video camera 20-1 or 20-2, image signal acquired from the
[0032]
Hereinafter, image processing or sound processing applied to an image or sound is also referred to as an effect or an effect.
[0033]
Before supplying content to the streaming
[0034]
Before supplying the content to the streaming
[0035]
When the
[0036]
The
[0037]
The digital video camera 20-1 supplies image data corresponding to the captured moving image or still image, which is digital data, to the
[0038]
The digital video camera 20-2 supplies image data corresponding to the captured moving image or still image, which is digital data, to the
[0039]
The
[0040]
Hereinafter, when it is not necessary to distinguish the personal computers 16-1 to 16-3 from each other, they are simply referred to as personal computers 16.
[0041]
Hereinafter, when it is not necessary to distinguish the digital video cameras 20-1 and 20-2 from each other, they are simply referred to as a
[0042]
2 to 5 are views showing the external appearance of the
[0043]
FIG. 2 is a front view of the
[0044]
The
[0045]
The
[0046]
As shown in FIG. 3, the
[0047]
The
[0048]
On the right side of the
[0049]
In response to the operation of the
[0050]
A
[0051]
A
[0052]
Further, the
[0053]
As shown in FIG. 4, the
[0054]
In this case, the user can cause the
[0055]
On the other hand, as shown in FIG. 5, the
[0056]
Next, an example of the configuration of the
[0057]
A central processing unit (CPU (Central Processing Unit)) 101 executes an operating system or various application programs and actually executes various processes. The CPU 101 is configured by, for example, a Pentium (Pentium®) processor manufactured by Intel. The CPU 101 is connected to the
[0058]
The
[0059]
The
[0060]
The operating system (Operating System) is, for example, a basic operation of a computer represented by a so-called Windows (registered trademark) XP of Microsoft Corporation or a so-called Mac OS (trademark) of Apple Computer Corporation. It is a program that controls.
[0061]
The
[0062]
The
[0063]
A hub 105 is further connected to the
[0064]
The hub 105 includes an IDE (Integrated Drive Electronics)
[0065]
The hub 105 is made of, for example, Intel 8281BA I / O Controller Hub 2 and the like, and the
[0066]
The
[0067]
An HDD (Hard Disk Drive) 106 is connected to the primary IDE controller of the
[0068]
The
[0069]
The
[0070]
The
[0071]
The
[0072]
The
[0073]
A
[0074]
The PCI interface 157 includes an interface 109, a
[0075]
The interface 109 writes a program or data in various recording media or storage media such as a SCSI (Small Computer System Interface) interface or an IEEE1394 interface, or is recorded or stored in various recording media or storage media. Or it is an interface for connecting the
[0076]
The
[0077]
The
[0078]
The
[0079]
The MPEG2 encoder / decoder 113 compresses and encodes image data or audio data supplied from the AV analog interface 114,
[0080]
The MPEG2 encoder / decoder 113 expands the compressed and encoded image data or audio data supplied from the
[0081]
The AV analog interface 114 is an interface for acquiring an image signal that is an analog signal supplied from the
[0082]
The AV analog interface 114 generates audio data corresponding to the acquired audio signal that is an analog signal, and supplies the audio data to the
[0083]
The
[0084]
The
[0085]
An
[0086]
The
[0087]
The
[0088]
The
[0089]
FIG. 7 is a block diagram illustrating a program executed by the
[0090]
The
[0091]
The
[0092]
The
[0093]
The
[0094]
The
[0095]
The
[0096]
The
[0097]
Before the content is delivered to the streaming
[0098]
When the
[0099]
The
[0100]
Hereinafter, when it is not necessary to individually distinguish the scenario files 178-1 to 178-M, they are simply referred to as scenario files 178.
[0101]
FIG. 8 is a block diagram showing the configuration of the
[0102]
Based on the control of the source selection
[0103]
The
[0104]
The
[0105]
The
[0106]
The distribution module 183 distributes the image data supplied from the
[0107]
The
[0108]
The
[0109]
The source selection
[0110]
The source selection
[0111]
The scenario
[0112]
FIG. 9 is a diagram illustrating the configuration of the streaming
[0113]
An
[0114]
The
[0115]
The
[0116]
The
[0117]
The network interface 209 is connected to the
[0118]
The
[0119]
FIG. 10 is a diagram illustrating a program executed by the streaming
[0120]
The
[0121]
The
[0122]
The
[0123]
The
[0124]
The
[0125]
FIG. 11 is a block diagram illustrating the configuration of the personal computer 16. The
[0126]
The
[0127]
The keyboard 308 is operated by the user when inputting various commands to the
[0128]
The speaker 313 outputs sound based on the sound data supplied from the
[0129]
These keyboard 308 to speaker 313 are connected to an
[0130]
The
[0131]
The
[0132]
FIG. 12 is a block diagram illustrating a program executed by the personal computer 16.
[0133]
The
[0134]
The
[0135]
The
[0136]
The
[0137]
Next, image data or audio data selection settings and effect settings of the
[0138]
FIG. 13 is a diagram illustrating an example of an image displayed on the
[0139]
When setting the selection of image data or audio data and setting the effect, the
[0140]
The
[0141]
The
[0142]
The
[0143]
The
[0144]
A
[0145]
As shown in FIG. 14, the
[0146]
The
[0147]
The
[0148]
The
[0149]
The
[0150]
A bar 434 of the
[0151]
A
[0152]
The
[0153]
Similarly, the
[0154]
A
[0155]
Similarly, the
[0156]
A
[0157]
A
[0158]
Similarly, the
[0159]
A
[0160]
Similarly, the button 482 is a button that specifies application of the effect that is wipe 2, the
[0161]
The
[0162]
The
[0163]
The
[0164]
When the
[0165]
The
[0166]
The
[0167]
For example, when “2001.12.31.17.30.00” is set in the text box 408 and 5 is set in the
[0168]
The
[0169]
The
[0170]
FIG. 15 is a diagram illustrating an example of a
[0171]
The
[0172]
For example, the scenario file 178 shown in FIG. 15 starts selection of the
[0173]
Further, the scenario file 178 shown in FIG. 15 is data indicating that the selection of the moving image file 2 is completed at the time t4, the selection of the camera 2 is started, and the selection of the
[0174]
Next, content distribution processing by the
[0175]
In step S <b> 11, the
[0176]
In step S12, the
[0177]
In step S13, the
[0178]
In step S14, the
[0179]
If it is determined in step S14 that a transmission instruction has been issued, the process proceeds to step S15, where the
[0180]
In step S <b> 16, the
[0181]
In step S <b> 17, the
[0182]
In step S17, when it is determined that it is time to start content transmission, the process proceeds to step S18, and the
[0183]
In step S19, the
[0184]
When the transmission process is repeatedly performed, the
[0185]
If it is determined in step S19 that the transmission process has been repeated a predetermined number of times, the process ends because there is no need to perform any more transmission processes.
[0186]
Next, details of source selection setting processing corresponding to the processing in step S11 will be described with reference to the flowchart of FIG.
[0187]
In step S31, the
[0188]
In step S <b> 32, the
[0189]
In step S <b> 33, the
[0190]
Note that the source selection, the source selection start time, or the source selection end time may be set by, for example, selecting a menu or inputting a numerical value in a text box.
[0191]
In step S34, the
[0192]
Next, details of the effect setting process corresponding to the process of step S12 will be described with reference to the flowchart of FIG.
[0193]
In step S51, the
[0194]
In step S52, the
[0195]
In step S53, the
[0196]
In step S54, the
[0197]
Note that the selection of the effect, the selection of the source to which the effect is applied, the start time of the effect, or the end time of the effect may be set by, for example, selecting a menu or inputting a numerical value in a text box. .
[0198]
In step S55, the
[0199]
Next, details of the preview process corresponding to the process of step S13 will be described with reference to the flowchart of FIG.
[0200]
In step S <b> 71, the
[0201]
In step S72, the
[0202]
In step S73, the
[0203]
If it is determined in step S73 that the virtual time is not the start time for selecting a predetermined source, the source selection process is unnecessary, so the process in step S74 is skipped, and the process proceeds to step S75.
[0204]
In step S75, the
[0205]
If it is determined in step S75 that the virtual time is not the end time of the selection of the predetermined source, the process of stopping the selection of the source is unnecessary, so the process of step S76 is skipped and the process proceeds to step S77.
[0206]
In step S77, the
[0207]
If it is determined in step S77 that the virtual time is not the start time of the predetermined effect, the effect application process is unnecessary, so the process in step S78 is skipped, and the process proceeds to step S79.
[0208]
In step S79, the
[0209]
If it is determined in step S79 that the virtual time is not the end time of the predetermined effect, the process of stopping application of the effect is unnecessary, so the process of step S80 is skipped and the process proceeds to step S81.
[0210]
In step S81, the
[0211]
In step S82, the
[0212]
If it is determined in step S82 that the virtual time is the end time, the process proceeds to step S83, where the
[0213]
As described above, the
[0214]
The user can confirm the selection of the source or the application of the effect in a shorter time than the actual broadcast time before the actual broadcast by setting a desired magnification and executing the preview, or shorter than the actual broadcast time. In time, you can see the source selection or effect application in more detail.
[0215]
Next, details of the transmission process corresponding to the process of step S18 will be described with reference to the flowchart of FIG. In the following processing, the
[0216]
In step S91, if it is determined that the current time is the start time for selecting a predetermined source based on the selected
[0217]
If it is determined in step S91 that the current time is not the start time for selecting a predetermined source, the source selection process is unnecessary, so the process in step S92 is skipped, and the process proceeds to step S93.
[0218]
In step S93, the
[0219]
If it is determined in step S93 that the current time is not the end time for selecting a predetermined source, the process of stopping the selection of the source is unnecessary, so the process of step S94 is skipped and the process proceeds to step S95.
[0220]
In step S95, the
[0221]
If it is determined in step S95 that the current time is not the start time of the predetermined effect, the effect application process is unnecessary, so the process in step S96 is skipped, and the process proceeds to step S97.
[0222]
In step S97, the
[0223]
If it is determined in step S97 that the current time is not the end time of the predetermined effect, the process of stopping application of the effect is unnecessary, so the process of step S98 is skipped and the process proceeds to step S99.
[0224]
In step S99, the
[0225]
In step S100, the
[0226]
If it is determined in step S100 that the current time is the end time, the process ends.
[0227]
FIG. 21 is a flowchart illustrating content distribution processing by the
[0228]
In step S <b> 1001, the
[0229]
In step S <b> 1101, the streaming
[0230]
In step S1102, the streaming
[0231]
In step S <b> 1201, the personal computer 16-1 receives the content transmitted from the streaming
[0232]
In step S1103, the streaming
[0233]
In step S1301, the personal computer 16-2 receives the content transmitted from the streaming
[0234]
In step S1104, the streaming
[0235]
In step S1401, the personal computer 16-3 receives the content transmitted from the streaming
[0236]
As described above, the content transmitted from the
[0237]
As described above, in the
[0238]
FIG. 22 is a diagram showing a configuration of another embodiment of the
[0239]
The
[0240]
The camera-equipped digital
[0241]
The
[0242]
The camera-equipped digital
[0243]
The camera-equipped digital
[0244]
The camera-equipped digital
[0245]
Prior to supplying content to the streaming
[0246]
When the digital mobile phone with
[0247]
When supplying the content to the streaming
[0248]
The
[0249]
The access server 603 of the internet service provider is connected to the
[0250]
In response to a request from the subscriber wired terminal device or the digital mobile phone with
[0251]
A large number of WWW (World Wide Web) servers (not shown) are connected to the
[0252]
Incidentally, the camera-equipped digital
[0253]
The
[0254]
Next, the external configuration of the camera-equipped digital
[0255]
The display unit 611 includes a transmission /
[0256]
In addition, the display unit 611 includes a camera unit 615 that is rotatable at an angle range of approximately 180 degrees at the center of the upper end. The camera-equipped digital
[0257]
When the camera unit 615 is positioned by being rotated by approximately 180 degrees by the user, as shown in FIG. 24, the display unit 611 has a
[0258]
Further, a
[0259]
On the other hand, the main body 612 is provided with
[0260]
A
[0261]
Further, a
[0262]
For example, the main body 612 selects a desired telephone number from a plurality of telephone numbers in the telephone directory list displayed on the
[0263]
For example, when the
[0264]
The main body 612 has a battery pack (not shown) on the back side, and when the end call / power key is turned on, power is supplied from the battery pack to each circuit unit to start operation. To do.
[0265]
By the way, a
[0266]
The
[0267]
In addition, the memory stick uses a unique serial protocol that can ensure compatibility with the devices used even when the specifications of the built-in flash memory change due to an increase in capacity, etc., and a maximum writing speed of 1.5 [MB / S] In addition to realizing high-speed performance of maximum reading speed of 2.45 [MB / S], a high reliability is secured by providing an accidental erasure prevention switch.
[0268]
Therefore, since the camera-equipped digital
[0269]
Further, an IEEE1394 port for connecting to the digital video cameras 20-1 and 20-2 is provided at the lower left side of the main body 612.
[0270]
As shown in FIG. 25, a digital
[0271]
When the call end / power key is turned on by the user's operation, the power
[0272]
The camera-equipped digital
[0273]
Also, the camera-equipped digital
[0274]
Furthermore, when transmitting content in the data communication mode, the camera-equipped digital
[0275]
The main control unit 631 performs spread spectrum processing on the content by the modulation / demodulation circuit unit 639, performs digital analog conversion processing and frequency conversion processing by the transmission /
[0276]
On the other hand, when receiving content in the data communication mode, the camera-equipped digital
[0277]
Thereafter, the camera-equipped digital
[0278]
When transmitting image data in the data communication mode, the digital mobile phone with
[0279]
Incidentally, when not transmitting image data, the camera-equipped digital
[0280]
The
[0281]
At the same time, the camera-equipped digital
[0282]
The
[0283]
In contrast, in the data communication mode, the camera-equipped digital
[0284]
The
[0285]
The
[0286]
At the same time, the
[0287]
The
[0288]
FIG. 26 is a diagram illustrating a program executed by the main control unit 631.
[0289]
The
[0290]
The
[0291]
The
[0292]
The
[0293]
The
[0294]
Before the
[0295]
When the
[0296]
The
[0297]
Since the scenario files 666-1 to 666-S are the same as the scenario files 178 to 178-M, a detailed description thereof will be omitted.
[0298]
Details of the processing of the
[0299]
Although it has been described that the
[0300]
The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a recording medium in a general-purpose personal computer or the like.
[0301]
As shown in FIG. 6, this recording medium is distributed to provide a program to a user separately from a computer, and includes a magnetic disk 14 (including a flexible disk) on which a program is recorded, an optical disk 142 (CD- ROM (Compact Disc-Read Only Memory), DVD (including Digital Versatile Disc)), magneto-optical disk 143 (including MD (trademark) (Mini-Disc)),
[0302]
The program for executing the series of processes described above is installed in a computer via a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via an interface such as a router or a modem as necessary. You may be made to do.
[0303]
Further, in the present specification, the step of describing the program stored in the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.
[0304]
In the present specification, the term “system” represents the entire apparatus constituted by a plurality of apparatuses.
[0305]
【The invention's effect】
According to the information processing apparatus and method and the program of the present invention,Based on content reservation to serverCorresponding to the time relative to the start of delivery,Image data selection settingsAnd image processing for image dataScenario data indicating the setting of the application is generated, live image data that is image data supplied from a predetermined imaging unit is acquired, and recorded image data that is pre-recorded image data is read from the predetermined recording unit Acquired, acquisition of live image data and acquisition of recorded image data are switched according to the elapsed time from the time based on the start of distribution of content to the server according to the scenario data, and according to the scenario data, The set image processing is applied to the acquired live image data or recorded image data to generate content to be distributed to the server, and distribution of the generated content to the server is controlled.So that the desiredimageCan be switched and effects can be applied.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of an embodiment of a
FIG. 2 is a diagram showing an external appearance of a
FIG. 3 is a diagram showing an external appearance of a
FIG. 4 is a diagram showing an external appearance of a
FIG. 5 is a diagram showing an external appearance of a
FIG. 6 is a block diagram showing an example of the configuration of a
FIG. 7 is a block diagram illustrating a program executed by the
8 is a block diagram showing a configuration of a
FIG. 9 is a block diagram illustrating a configuration of a streaming server.
FIG. 10 is a block diagram illustrating a program executed by the streaming
FIG. 11 is a block diagram illustrating a configuration of a personal computer 16;
FIG. 12 is a block diagram for explaining a program executed by the personal computer 16;
13 is a diagram showing an example of an image displayed on the
FIG. 14 is a diagram illustrating time corresponding to source selection or effect selection.
15 is a diagram showing an example of a
FIG. 16 is a flowchart illustrating a content distribution process.
FIG. 17 is a flowchart illustrating processing for setting a source selection.
FIG. 18 is a flowchart for describing effect setting processing;
FIG. 19 is a flowchart illustrating preview processing.
FIG. 20 is a flowchart illustrating a transmission process.
FIG. 21 is a flowchart for describing content distribution processing;
FIG. 22 is a diagram showing a configuration of another embodiment of a
FIG. 23 is a diagram showing an external appearance of a digital mobile phone with
24 is a diagram illustrating a camera unit 615. FIG.
25 is a block diagram illustrating a configuration of a digital mobile phone with a
FIG. 26 is a block diagram illustrating the configuration of a program executed by the camera-equipped digital
[Explanation of symbols]
11 Internet, 13 Personal computer, 54 LCD, 59 Digital video camera, 61 Microphone, 101 CPU, 103 RAM, 106 HDD, 108 Speaker, 114 AV analog interface, 115 IEEE1394 interface, 116 Tuner, 118 Modem, 141 Magnetic disk, 142 Optical disk, 143 magneto-optical disk, 144 semiconductor memory, 152 LAN interface, 172 device driver, 173 communication program, 174 content distribution program, 175-1 to 175-J video file, 176-1 to 176-K still image file, 177 -1 to 177-N Audio file, 178-1 to 178-M Scenario file, 601 Digital camera with
Claims (6)
前記サーバへの前記コンテンツの前記予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および前記画像データに対する画像処理の適用の設定を示すシナリオデータを生成するシナリオデータ生成手段と、
所定の撮像手段から供給される前記画像データであるライブ画像データを取得する第1の画像データ取得手段と、
予め記録された前記画像データである記録画像データを所定の記録手段から読み出して取得する第2の画像データ取得手段と、
前記第1の画像データ取得手段による前記画像データの取得と、前記第2の画像データ取得手段による前記画像データの取得とを、前記シナリオデータに従って、前記サーバへの前記コンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替える切替手段と、
前記シナリオデータに従って、前記第1の画像データ取得手段または前記第2の画像データ取得手段により取得された前記画像データに対して設定された画像処理を適用して、前記サーバに配信する前記コンテンツを生成するコンテンツ生成手段と、
生成された前記コンテンツの前記サーバへの配信を制御する配信制御手段と
を備えることを特徴とする情報処理装置。In an information processing apparatus connected via a network to a server that distributes content supplied based on a reservation in real time,
Scenario data for generating scenario data indicating a setting for selecting image data and a setting for applying image processing to the image data , corresponding to a time based on the start of distribution based on the reservation of the content to the server Generating means;
First image data acquisition means for acquiring live image data that is the image data supplied from a predetermined imaging means;
Second image data acquisition means for reading out and acquiring recorded image data as the image data recorded in advance from a predetermined recording means;
The acquisition of the image data by the first image data acquisition unit and the acquisition of the image data by the second image data acquisition unit are based on the start of distribution of the content to the server according to the scenario data. Switching means for switching in accordance with the elapsed time from the time,
Applying the set image processing to the image data acquired by the first image data acquisition unit or the second image data acquisition unit according to the scenario data, the content to be distributed to the server Content generating means for generating;
The information processing apparatus characterized by comprising a distribution control means for controlling the delivery to the server generated the content.
前記第1の画像データ取得手段は、自分の前記撮像手段から供給される前記ライブ画像データを取得するThe first image data acquisition unit acquires the live image data supplied from the imaging unit of the first image data acquisition unit.
ことを特徴とする請求項1に記載の情報処理装置。The information processing apparatus according to claim 1.
予め記録された音声データである記録音声データを所定の記録手段から読み出して取得する第2の音声データ取得手段とSecond audio data acquisition means for reading out and acquiring recorded audio data, which is audio data recorded in advance, from predetermined recording means;
をさらに備え、Further comprising
前記切替手段は、前記第1の音声データ取得手段による前記音声データの取得と、前記第2の音声データ取得手段による前記音声データの取得とを、前記シナリオデータに従って、前記サーバへの前記コンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替えるThe switching means performs acquisition of the audio data by the first audio data acquisition means and acquisition of the audio data by the second audio data acquisition means according to the scenario data. Switching according to the elapsed time from the time when the start of distribution is used as a reference
ことを特徴とする請求項1に記載の情報処理装置。The information processing apparatus according to claim 1.
ことを特徴とする請求項1に記載の情報処理装置。The information processing apparatus according to claim 1.
前記サーバへの前記コンテンツの前記予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および前記画像データに対する画像処理の適用の設定を示すシナリオデータを生成するシナリオデータ生成ステップと、
所定の撮像手段から供給される前記画像データであるライブ画像データを取得する第1の画像データ取得ステップと、
予め記録された前記画像データである記録画像データを所定の記録手段から読み出して取得する第2の画像データ取得ステップと、
前記第1の画像データ取得ステップにおける前記画像データの取得と、前記第2の画像データ取得ステップにおける前記画像データの取得とを、前記シナリオデータに従って、前記サーバへの前記コンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替える切替ステップと、
前記シナリオデータに従って、前記第1の画像データ取得ステップまたは前記第2の画像データ取得ステップにおいて取得された前記画像データに対して設定された画像処理を適用して、前記サーバに配信する前記コンテンツを生成するコンテンツ生成ステップと、
生成された前記コンテンツの前記サーバへの配信を制御する配信制御ステップと
を含むことを特徴とする情報処理方法。In an information processing method of an information processing apparatus connected via a network to a server that distributes content supplied based on a reservation in real time,
Scenario data for generating scenario data indicating a setting for selecting image data and a setting for applying image processing to the image data , corresponding to a time based on the start of distribution based on the reservation of the content to the server Generation step;
A first image data acquisition step of acquiring live image data which is the image data supplied from a predetermined imaging means;
A second image data acquisition step of reading out and acquiring recorded image data, which is the image data recorded in advance, from a predetermined recording unit;
The acquisition of the image data in the first image data acquisition step and the acquisition of the image data in the second image data acquisition step are based on the start of distribution of the content to the server according to the scenario data A switching step that switches in accordance with the elapsed time from the time
The content to be distributed to the server by applying image processing set to the image data acquired in the first image data acquisition step or the second image data acquisition step according to the scenario data. A content generation step to generate;
A distribution control step of controlling distribution of the generated content to the server .
前記サーバへの前記コンテンツの前記予約に基づいた配信の開始を基準とした時刻に対応する、画像データの選択の設定および前記画像データに対する画像処理の適用の設定を示すシナリオデータを生成するシナリオデータ生成ステップと、
所定の撮像手段から供給される前記画像データであるライブ画像データを取得する第1の画像データ取得ステップと、
予め記録された前記画像データである記録画像データを所定の記録手段から読み出して取得する第2の画像データ取得ステップと、
前記第1の画像データ取得ステップにおける前記画像データの取得と、前記第2の画像データ取得ステップにおける前記画像データの取得とを、前記シナリオデータに従って、前記サーバへの前記コンテンツの配信の開始を基準とした時刻からの経過時間に対応して切り替える切替ステップと、
前記シナリオデータに従って、前記第1の画像データ取得ステップまたは前記第2の画像データ取得ステップにおいて取得された前記画像データに対して設定された画像処理を適用して、前記サーバに配信する前記コンテンツを生成するコンテンツ生成ステップと、
生成された前記コンテンツの前記サーバへの配信を制御する配信制御ステップと
を実行させるプログラム。To a computer that controls an information processing apparatus connected via a network with a server that distributes content supplied based on a reservation in real time,
Scenario data for generating scenario data indicating a setting for selecting image data and a setting for applying image processing to the image data , corresponding to a time based on the start of distribution based on the reservation of the content to the server Generation step;
A first image data acquisition step of acquiring live image data which is the image data supplied from a predetermined imaging means;
A second image data acquisition step of reading out and acquiring recorded image data, which is the image data recorded in advance, from a predetermined recording unit;
The acquisition of the image data in the first image data acquisition step and the acquisition of the image data in the second image data acquisition step are based on the start of distribution of the content to the server according to the scenario data A switching step that switches in accordance with the elapsed time from the time
The content to be distributed to the server by applying image processing set to the image data acquired in the first image data acquisition step or the second image data acquisition step according to the scenario data. A content generation step to generate;
A program for executing a distribution control step of controlling distribution of the generated content to the server .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001385451A JP4023150B2 (en) | 2001-12-19 | 2001-12-19 | Information processing apparatus and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001385451A JP4023150B2 (en) | 2001-12-19 | 2001-12-19 | Information processing apparatus and method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003189279A JP2003189279A (en) | 2003-07-04 |
JP4023150B2 true JP4023150B2 (en) | 2007-12-19 |
Family
ID=27594862
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001385451A Expired - Fee Related JP4023150B2 (en) | 2001-12-19 | 2001-12-19 | Information processing apparatus and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4023150B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060041632A1 (en) * | 2004-08-23 | 2006-02-23 | Microsoft Corporation | System and method to associate content types in a portable communication device |
RU2008105912A (en) * | 2005-07-20 | 2009-08-27 | Креатекна Xxi С.П. (Es) | DIRECT TELEVISION SYSTEM FROM MOBILE PHONE |
JP6385538B1 (en) * | 2017-08-15 | 2018-09-05 | 株式会社ドワンゴ | Content distribution server, content distribution method, and content distribution program |
-
2001
- 2001-12-19 JP JP2001385451A patent/JP4023150B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003189279A (en) | 2003-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9544245B2 (en) | Server reservation method, reservation control apparatus and program storage medium | |
US7856468B2 (en) | Server reservation method, reservation control apparatus and program storage medium | |
KR101026593B1 (en) | Network control confirmation system, control communication terminal, server, and network control confirmation method | |
US6970928B2 (en) | Content distribution method and content supply system | |
US7681225B2 (en) | Content distribution system, content distribution control apparatus, content distribution control method, content distribution control program and content distribution control program storage medium | |
US7386623B2 (en) | Content distribution notification method, reservation control apparatus and program storage medium | |
US7716708B2 (en) | Content distribution method, reservation management device, and program storage medium | |
JP2003036219A (en) | Contents distribution system, apparatus, method and program for managing contents reservation, and storage medium for contents reservation management program | |
US20020046401A1 (en) | Information processing apparatus and method, information providing apparatus and method, and program storage medium | |
CN103037243A (en) | Method and system for switching network videos among multiple intelligent terminals and intelligent terminals | |
WO2008075083A2 (en) | Interdevice transmission of data | |
CN103037266A (en) | Terminal video switching method, system and intelligent terminal based on proxy server | |
JP4023150B2 (en) | Information processing apparatus and method, and program | |
JP4736166B2 (en) | Information processing apparatus and method, information processing system, and recording medium | |
JP2009044749A (en) | Information processing system, recording device, and communication apparatus | |
JP4051935B2 (en) | Information collection system, information collection method, and information collection program | |
JP4348930B2 (en) | Service providing system, recording apparatus and method, information processing apparatus and method, recording medium, and program | |
JP2003224801A (en) | Reproduction apparatus system, information processing apparatus, and control method for the information processing apparatus | |
JP3888182B2 (en) | Recording apparatus and method, display apparatus and method, and program | |
JP2003030552A (en) | Procedure situation notification system, device, method, program and program storage medium, and procedure implementation device, method, program and program storage medium | |
JP2003309795A (en) | Device and method for reproduction, device and method for provision, and program | |
JP2003309839A (en) | Image processing apparatus and method, and program | |
JP2001356982A (en) | Information processor, its method and program storage medium | |
KR20040011580A (en) | Wireless internet mobile video/audio receiver |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061124 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070911 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070924 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101012 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |