JP2004502321A - カメラのアレーを利用した操作可能な遠隔臨場方法およびシステム - Google Patents

カメラのアレーを利用した操作可能な遠隔臨場方法およびシステム Download PDF

Info

Publication number
JP2004502321A
JP2004502321A JP2000542921A JP2000542921A JP2004502321A JP 2004502321 A JP2004502321 A JP 2004502321A JP 2000542921 A JP2000542921 A JP 2000542921A JP 2000542921 A JP2000542921 A JP 2000542921A JP 2004502321 A JP2004502321 A JP 2004502321A
Authority
JP
Japan
Prior art keywords
camera
user
output
array
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000542921A
Other languages
English (en)
Inventor
スコット・ソロキン
アンドリュー・エイチ・ウエーバー
デイビッド・シー・ウォーリー
Original Assignee
ケワジンガ・コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=22157205&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2004502321(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by ケワジンガ・コーポレーション filed Critical ケワジンガ・コーポレーション
Publication of JP2004502321A publication Critical patent/JP2004502321A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • H04N5/2627Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect for providing spin image effect, 3D stop motion effect or temporal freeze effect
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Navigation (AREA)

Abstract

第一ユーザに対して環境の第一画面、第二ユーザに対してカメラのアレーを含めた環境の第二画面を提供する遠隔臨場装置。各カメラには環境の関連視野が存在し、関連カメラの出力は関連視野を表している。当該アレーにはまた、少なくとも1つのカメラパスが含まれる。第一ユーザのインタフェース装置にはアレーの第一経路に沿った動きに関連した第一ユーザの入力を備え、第二ユーザのインタフェース装置にはアレーの第二経路に沿った、関連した第二ユーザの入力を備えている。当該ユーザインタフェース装置はユーザの入力を受信し、解釈する、少なくとも1つの処理要素と連結している。処理要素は第一の入力を解釈し、第一経路中のカメラの出力を選択し、第二の入力を解釈し、第一の入力とは別に第二経路中のカメラの出力を選択する。従って、当該アレーを通して、第一ユーザおよび第二ユーザが同時かつ別々に進行することができる。その他の実施例においては、遠隔臨場装置はアレー中の許容カメラとアレー中の非許容カメラを区別する少なくとも1つの処理要素を含む。

Description

【0001】
関連出願の相互参照
本出願は1998年4月2日出願の米国仮出願シリアル番号60/080,413の特典を主張し、同仮出願をここに引用することにより本出願の一部とするものである。
【0002】
発明の背景
1. 発明の属する技術的分野
本出願は遠隔臨場システムに関し、具体的には操作可能なカメラアレーによる遠隔臨場システムおよび同システムを利用する方法に関するものである。
【0003】
先行技術の説明
一般的に博物館など動かぬ催しまたは音楽会のような動く催しあるいはイベントなどの使用に適した遠隔臨場システムの開発が必要である。かような催しへの来場は時間、地理的な開催地、および催しの来場者容量により制限される。例えば博物館の展示を見ようとしても開館時間の制限で来られない者がいる場合がある。同様に音楽会のプロデューサは会場の客席数が制限されているためファンの来場を断らなければならないこともある。つまり来場制限により開催による収入が減少する。
【0004】
動かぬ催しおよび動く催しの収入の流れを増やすために催しを放送あるいは配給用に録画することがある。動く催しは実況放送されることもある。このような放送は催しの視聴を増やすが相当な制作努力を必要とする。録画放送は典型的に複数のカメラからの撮影範囲を継ぎ合すためカット・編集しなければならない。これらの編集・制作作業の費用は高くかかる。
【0005】
しかしながらこれら編集・制作作業の結果制作された放送は視聴者にとってあまり楽しめない場合もある。つまり放送は通常予め決められた限定数のカメラによる催しの撮影に基いている。従って放送では催しを眺める角度や展望が限定される。また放送で呈される鑑賞角度や展望は編集過程でプロデューサあるいはディレクタによって選択されたものであり、視聴者の自主性はない。さらに放送はしばしば複数回の上映向けに録画されるが見る度に最初の上映と同じためその内容寿命は制限される。上映のたび同じに見え、同じに聞こえるので視聴者が複数回の上映に戻ってくることは希である。
【0006】
幸運にも実際に催しに参加できた視聴者も同様の問題に遭遇する。例えば博物館への来訪者はバリケードに遮られ、限られた角度や展望から展示物を鑑賞しなければならない。同様に音楽会の観客もしばしば会場の特定の席あるいは区域に制限される。たとえ観客が会場全体を自由に動き催しのビデオテープを撮ることができたとしても、そのような録画もみるたびに最初と同じであるため内容寿命は制限される。従って好ましくはユーザに自主性を与え、かつ制作コストが削減され内容寿命が高まる録画ができる遠隔臨場システムが望まれている。
【0007】
明らかに上記問題のいくつかを解決する遠隔臨場システムを開発する試みがなされてきた。遠隔臨場システムの一例は1998年1月13日発行の米国特許5,708,469号、「極性配置の複数カメラを囲み視野を識別するワイヤケージを使用した複数視野の遠隔臨場カメラシステム」に記載されている。同特許に発表されているシステムは複数のカメラから成り、各カメラは少なくとも1台の他のカメラと空間的に隣接し直角である視野を持つ。つまりカメラの各視野が互いに重複しないことが好ましい。ユーザインタフェースによりユーザは1つの視野から別の視野に移ることができる。ユーザの展望が催しあるいは対象環境を見渡せるようにカメラは移動車体に搬送される。
【0008】
しかしながらこのシステムにはいくつかの欠点がある。例えば視聴者の展望が催しを見渡せるためには移動車体を駆動し制御しなければならない。この点で同システムの作動は複雑である。さらにカメラの視野が隣接し、典型的には互いに直角であるため、カメラの視野を変えた結果、非連続的な画像になってしまう。
【0009】
遠隔臨場システムを提供する別の試みとして360度カメラシステムがある。同システムの一例は1998年4月28日発行の米国特許5,745,305号、「パノラマ状鑑賞機器」、に記載される。同特許に記載されるシステムは複数のカメラをピラミッド形の反射要素の周囲に配置することにより対象環境を360度の展望で見ることができる。カメラは仮想光心を共有しているが、各々反射ピラミッドの異なった面から画像を受ける。他の360度カメラシステムにはパラボラレンズあるいは回転カメラを使用するものもある。
【0010】
上記のような360度カメラシステムにも欠点がある。特にこのようなシステムではユーザの展望がある特定点からの360度に限定される。つまり360度カメラシステムはユーザに1ヶ所からのパノラマ状の展望を提供している。カメラシステムが移動車体に搭載されなければユーザはある対象環境内の移動シミュレーションを体験できない。
【0011】
1993年2月16日発行の米国特許5,187,571号、「遠隔地の複数展望を表示するテレビシステム」には上記説明の360度カメラシステムに似たカメラシステムが記載されている。記載されたシステムではユーザに総視野から任意かつ連続的に変化する部分を選択させる。複数のカメラを配列し、各カメラの視野が隣接カメラの視野と連続的に組み合わせられ総視野を作り上げる。総視野は360度に及ぶよう拡大することもできる。総視野を作り上げるためにはカメラの撮影範囲が連続的でなければならない。カメラの撮影範囲が連続的であるためにはカメラが共通した一つの視点、つまり頂点、を共有していなければならない。従って前記360度カメラシステムと同様、米国特許5,187,571号はユーザの展望を一点からの視点に制限し、ユーザが対象環境を通して視点の移動を体験することはできない。
【0012】
米国特許5,187,571号に関してはさらにカメラ間の視野の連続性を得るために比較的複雑な鏡の配置が必要である。加えて各カメラも見たところ同一の垂直面に配置されなければならない。
【0013】
従って催しに対し視聴者の実際の来場をより良く、好ましくはリアルタイムで、シミュレートできる改良遠隔臨場システムへのニーズが今なお存在する。
【0014】
発明の要約
上記および他のニーズは本発明により満足される。本発明の一実施形態による遠隔臨場システムにはカメラのアレーがあり、各カメラは対象環境の関連視野およびその視野を表す関連出力を有する。同システムにはまたアレー内の第一の経路に沿った移動に関連する第一のユーザ入力を有する第一のユーザインタフェース装置が含まれる。さらに同システムにはアレー内の第二の経路に沿った移動に関連する第二のユーザ入力を有する第二のユーザインタフェース装置が含まれる。処理要素が第一の入力を受領した上解釈し、第一経路のカメラの出力を選択する。同様に処理要素は第一の入力とは独立して第二の入力を受領した上解釈し、第二経路のカメラの出力を選択する。従って第一ユーザおよび第二ユーザが同時かつ独立してアレーを操作することができる。本発明の他の実施形態では遠隔臨場システムがアレー内の許容カメラと非許容カメラとを識別する。
【0015】
好適な実施例の説明
好適な実施例の全般的説明
本発明は遠隔臨場システムに関するもので、好適実施例ではマイクロカメラのモジュール型連動アレーを使用している。カメラはレールに乗っており、各レールは複数のカメラを保持する。これらのカメラは各々アレー上の隣接カメラに対し固定された関係に組み合わされ特定対象環境において寸法的に分散されており、遠隔視聴者が実際の対象環境の通過を特徴づける空間的視覚的な合図(変化する透視線、移動する光の反射や影)と同じ合図をもってかような対象環境を練り歩くことができるようにする。
【0016】
別の好適実施例ではこれらマイクロカメラの出力は微小な(人間の髪幅の半分以下)垂直空隙面発振レーザ(Vertical Cavity Surface Emitting Laser = VCSEL)により光ファイバに接続され、エリアネットハブに送り込まれ、サーバアレーあるいはサーバファームでブッファされ(録画あるいは(実況)中継のため)遠隔ターミナル、インタラクティブな壁掛けスクリーン、あるいは携帯画像機器(仮想網膜ディスプレー = VirtualRetinal Displayのような)などの視聴者に送られる。各遠隔視聴者は直感的グラフィカルユーザインタフェース(GUI)を通じて対象環境を簡単に練り歩き、イベントでシームレスに動き回ることが可能になる。
【0017】
これには多重化電子スイッチングプロセス(視聴者からは隠れている)が係わっており、視聴者の視点をカメラからカメラへと移動させる。マイクロカメラを物理的に空間中を移動させること自体に頼るのではなく、本システムは位置付けされた多数のマイクロカメラを利用して視聴者の視点を一つのマイクロカメラのノードから隣接マイクロカメラのノードに移動させ、アレーの全範囲を通じて視聴者に順次視覚パスおよび音響パスを提供している。これにより視聴者は3次元的遠隔環境において流れるように追跡するなり台車で移動するなり、イベントで歩き回り自主的かつリアルタイムでどこに行き、いつとどまるかの決断をすることができる。
【0018】
視聴者がロボットカメラを物理的に動かせるようにした場合、これは取りも直さずあるカメラを通して同時に自分の進路を決めて動き回る視聴者の数を制限することになるが、本システムでは視聴者が電子スイッチングを通し(従ってアレー上の移動を通し)視界をシームレスな移動経路に組み合わせるような形で多数のカメラ出力間を動き回ることができる。
【0019】
好適な実施例の詳細な説
次に図面を参照して本発明の実施例のいくつかをより詳細に説明する。ここで説明される実施例における構成要素の多くの動作および機能は当業者であれば熟知しているとみなされるので、本説明はかような動作および機能については深く触れない。
【0020】
図1は本発明の遠隔臨場システム100を示す。遠隔臨場システム100は一般的にサーバ18に接続されたカメラ14のアレー10を含んでおり、該サーバ18は各々ユーザインタフェース/ディスプレー装置24を有する一人以上のユーザ22に接続している。ここで説明される実施例の動作および機能は一部サーバおよびユーザインタフェース/ディスプレー装置によって提供されるということを当業者は理解されよう。これら構成要素は特にコード表あるいは論理図によって説明されていないが、当業者であればここに提供される機能上動作上の詳細に基き適当な実施に到達できるとみなされる。さらに本発明の範囲はある特定のコードあるいは論理の実施に限定されるものではない。
【0021】
本実施例においてカメラアレー10はX、Z座標システム上にあると概念的に解釈される。これにより各カメラはXおよびZ座標(X、Z)からなるユニークなノードの連想アドレスを持つことになる。本実施例では例えばあるカメラの軸に対応する座標値はそのカメラが軸に沿って基準カメラからいくつのカメラ位置分移動したかを示している。本実施例でX軸はユーザからみて左右に走り、Z軸は上下に走る。各カメラ14はそのX、Z座標によって識別される。但しカメラ14の識別は他の方法も使用できる。例えば固定基準点からの角変位を識別する座標システム、あるいは現在のカメラノードに対する相対的変位を示す座標システムを使用することができる。別の実施例ではアレーが3次元になっており、X、Y、Z座標システム上に位置している。
【0022】
アレー10は複数のレール12で構成され、各レール12には一連のカメラ14が含まれる。本好適な実施例においてカメラ14はマイクロカメラである。マイクロカメラ14からの出力はローカルエリアハブ16によってサーバ18に接続される。ローカルエリアハブ16は出力を集め、必要であれば出力を増幅してサーバ18に送信する。別の実施例においてローカルエリアハブ16は出力を多重化してサーバ18に送信している。図でカメラ14とサーバ18との通信リンク15はハード配線となっているが、言うまでもなく無線リンクも使用できる。従って通信リンク15が光ファイバ、有線ケーブル、衛星、マイクロ波伝送、インターネット、等々の形態をとっても本発明の範囲内である。
【0023】
サーバ18にはまた電子記憶装置20が接続されている。サーバ18は電子記憶装置20に出力を転送する。電子(大容量)記憶装置20は次に各カメラの出力をCD−ROM、DVD、テープ、プラッタ、ディスクアレー、等々の記憶媒体あるいは手段に転送する。各カメラ14の出力はカメラ14に関連する記憶媒体の特定位置に記憶されるか、あるいは記憶された各出力がどのカメラ14に対応するかを示した形で記憶される。例えば各カメラ14の出力は別のディスク、テープ、CD−ROM、あるいはプラッタ上の連続的位置に記憶される。技術的に公知のように、カメラの出力はJPEG、MPEG1、MPEG2等の圧縮フォーマットで記憶することができる。各出力を記憶することによりユーザは後にその対象環境を繰り返し眺めることができ、以下に説明するごとくその都度新しい経路でアレー10上を進むことができる。本発明の実施例のうちリアルタイムのみの視聴を提供するものは記憶装置を必要としない。
【0024】
以下に詳細に説明する通り、サーバ18はアレー上のカメラ14からの出力を受領する。サーバ18は電子記憶装置20に記憶するか、ユーザ22に送信するか、双方を行うためにこれらの出力を処理する。
【0025】
本実施例でサーバ18はシステム100の機能を提供するように構成されているが、同システム100の機能を他の処理要素が提供することもできることは言うまでもない。例えば別の実施例でユーザインタフェース装置はユーザ入力を解釈し現在所望するノードアドレスの指示を送信し、アレーからの出力をバッファし、その他上記説明の機能を提供するようにプログラムされたパソコンである。
【0026】
図示されているように、システム100は複数のユーザ22に対応できる(必要とはしないが)。各ユーザ22にはユーザディスプレー装置を含むユーザインタフェース装置(集合的に24)が結合している。例えばユーザ22−1はコンピュータ24−1という形で結合したユーザインタフェース装置およびユーザディスプレー装置を有する。ユーザ22−2にはユーザインタフェース装置およびユーザディスプレー装置となるインタラクティブな壁掛けスクリーン24−2が結合している。ユーザ22−3のユーザインタフェース装置およびユーザディスプレー装置には携帯音響画像機器24−3が含まれる。ディジタル・インターアクティブ・テレビがユーザー22−4のユーザインタフェース装置およびユーザディスプレー装置である。同様にユーザ22−5はユーザインタフェース装置およびユーザディスプレー装置として音声認識ユニットおよびモニタ24−5を有する。言うまでもなく上記ユーザインタフェース装置およびユーザディスプレー装置は単に例示であり、他のインタフェース装置としては例えばマウス、タッチスクリーン、バイオフィードバック装置、さらには米国仮出願通し番号60/080,413に記載されるもの、等々が含まれる。
【0027】
以下に詳細に説明するように、各ユーザインタフェース装置24には各々ユーザ入力が結び付いている。これらのユーザ入力によりユーザ22は各々独立してアレー10上を動き回ることができる。つまりユーザ22は各々情報を入力し、全般的にどのカメラ出力をユーザディスプレー装置に転送するか選択する。各ユーザディスプレー装置はアレー10の図式表示が含まれることが好ましい。図式表示には眺めている出力がアレー上のどのカメラのものかの表示が含まれる。ユーザ入力によりユーザは特定のカメラを選択できるのみならず、アレー10上の相対的な動きや経路を選ぶことができる。
【0028】
図1に示すように、ユーザ22は各々独立した通信リンクでサーバ18に接続することができる。さらに通信リンクは各々異なった技術を使用しても良い。例えば別の実施例において通信リンクにはインターネットリンク、マイクロ波信号リンク、衛星リンク、有線ケーブルリンク、光ファイバリンク、無線リンク、等々が含まれる。
【0029】
アレー10にはいくつかの利点がある。例えばアレー10は一連のカメラ14を使用しているので、対象環境のシームレスな光景を得るために個々のカメラを、実際またアレー10全体も、動かす必要がない。その代わりユーザは眺められる物理的環境内およびその周囲の要所要所に配置されたアレー10上を移動する。さらに、アレー10のカメラ14は眺められる環境の異なった個所に配置されているので、ユーザは視点を変えて眺めることができ、これは単に焦点距離を変化させる1台のカメラでは得られない特長である。
【0030】
マイクロカメラ
各カメラ14はマイクロカメラであることが好ましい。マイクロカメラ − 親指の爪ほどのCMOSアクティブピクセルセンサ(APS)マイクロチップに搭載されたマイクロレンズ − はユーザが放射方向、直線状、あるいはそれらの流動的な組み合わせで移動できるようなパターンに配列されている。カメラはフォトビット社(カリフォルニア州パサデナ市)、サーノフ社(ニュジャージー州プリンストン市)、およびVLSIビジョン社(スコットランド、エジンバラ市)を含む数社において主流製造プロセスで生産されている。
【0031】
アレーの構造
次に図2a−2eを参照してアレー10の構造をより詳しく説明する。全般的に本実施例のカメラアレー10はマイクロカメラを搭載した一連のモジュール式レール12で構成される。次に図2a−2dを参照してレール12およびカメラ14の構造をより詳しく説明する。各カメラ14には嵌合ピン34がある。好適な実施例においてカメラ14はVCSELを利用して出力をレール12に転送する。言うまでもなく本発明は1種類の特定のカメラ14、あるいは1種類のみのカメラ14で構成されるアレー10に限定されるものではない。
【0032】
各レール12は2つの側面12a、12bを有し、少なくとも片方12bはレール12の台12cにヒンジで動くように連結している。台12cにはカメラ14の嵌合ピン34を受ける結合ポート36が備わっている。嵌合ピン34が結合ポート36に完全にはまるようにカメラ14がレール12に載せられた後レール12のヒンジで動く側面12bをカメラ14のベース32にあてがい、カメラ14をレール12に固定する。
【0033】
各レール12はさらに第一端面38および第二端面44を有する。本実施例の第一端面38には2本の止めピン40およびカメラ出力を伝送する保護された伝送リレーポート42含まれる。第二端面44には止めピン40を受ける合わせ穴46および伝送受信ポート48が含まれる。よって1本のレール12の第一端面38は別のレール12の第二端面44にはめることができる。従って各レールはモジュール式で、別のレールに機能的に連結しアレー10を作成することができる。
【0034】
一旦カメラ14がレール12に固定して据え付けられるとカメラ出力をVCSEL経由でレール12に送信できるようにカメラ14の位置付けをする。各レール12には各カメラ14からの出力を送信する通信経路が備わっている。
【0035】
アレー10は特定の構成をもって図示されているが、言うまでもなくレール12およびカメラ14の殆どいかなる構成でも本発明の範囲内に含まれる。例えばアレー10はカメラ14の直線状のアレー、カメラ14の2次元アレー、カメラ14の3次元アレー、あるいはこれらの組み合わせでも良い。さらにアレー10は直線部分だけではなく、むしろ曲線部分も含むことができる。
【0036】
アレー10はいくつかの支持手段のいずれかで支持されている。例えばアレー10は壁あるいは天井に固定して据え付けることもできる。またアレー10を可動枠に固定し対象環境内の位置に運ぶこともできケーブルで支持することもできる。
【0037】
図3はアレー10の部分例を示す。図示されるようにアレー10は5列のレール12a−12eで構成される。これらのレール12a−12eは各々実質的に中央列12cを通過する中央の平面に向けられている。従って中間の列12cと同じ平面上に物体が置かれた場合ユーザはその物体を底、前面、および上部から見ることができる。
【0038】
前記のごとくアレー10のレール12は同じ形状である必要はない。例えばいくつかのレール12は直線状で、他は曲線状でも良い。例えば図4は曲線レールを利用した結果得られるカメラの配列を示している。図4におけるレールはカメラ14の配列が容易に見られるように透明に図示されている点に留意されたい。
【0039】
別の実施例では各レールが段階状に構成され、各カメラは先立つカメラの上方および前方に配置される。このような配置の場合ユーザは対象環境を前進することができる。
【0040】
マイクロカメラ14の間隔は眺めれられる対象、マイクロカメラ14の焦点距離、アレー10上の移動速度を含み各々の用途によって異なる。一実施例ではマイクロカメラ14間の距離が通常の映画フィルム用映写機を類推して概算することができる。一般的に映写機が対象環境を移動する速度をフレーム/単位時間・秒で割ることによりフレーム・距離比率が得られる。
【0041】
例えば次の方程式にみられるように用途によっては1インチ毎にフレームが録画される。通常の映写機は毎秒24フレームを録画する。このような映写機を毎秒2フィートで対象環境内を移動させると約1インチ毎に1フレームが録画される。
2フィート(24フレーム=2フィート =1フィート =12インチ=
秒 秒 24フレーム 12フレーム 12フレーム
1インチ=インチ当り1フレーム
【0042】
フレーム
映写機の1フレームは本発明における1台のカメラ14に類似する。従って毎秒1フレームで対象環境がシームレスに眺められる結果になるのと同じ結果が1インチ毎のカメラ14で得られる。よって本発明の一実施例ではカメラ14が約1インチの間隔で配置され、それによって対象環境のシームレスな光景が得られる。
【0043】
システム内の移動
次に図5および引き続き図1を参照しながら本実施例の全般的動作を説明する。ステップ110に示すようにユーザに開始カメラに相当する対象環境の予め設定された開始光景が呈せられる。システムの作動はサーバに存在するソフトウェアで一部制御される。前記の如くシステムはアレー上の各カメラを座標で連想する。よってシステムは開始カメラのノード座標を記録することができる。カメラ出力およびそれに対応する光景はユーザ入力があって初めて変化する。
【0044】
ユーザはアレー上を移動したいと決めるとユーザインタフェース装置24でユーザ入力を入力する。以下に叙述するように本実施例のユーザ入力には一般的にアレー上で右方向、左方向、上方、あるいは下方への移動が含まれる。さらにユーザはアレー上の特定カメラに飛ぶこともできる。別の実施例ではこれら、あるいは前進、後退、斜め、越える、くぐる等他の入力のサブセットが使用される。ユーザインタフェース装置は次にステップ120でユーザ入力をサーバに送信する。
【0045】
次にサーバはステップ130でユーザ入力を受信し入力の解読に移る。本実施例における解読は一般的にユーザがアレー上で右、左、上、あるいは下に移動したいのかの判断が係わる。
【0046】
一方受信したユーザ入力が後退に相当しない場合サーバ18は入力がアレー10上でユーザの右への移動に相当するか判断する。この判断はステップ140に示される。受信したユーザ入力が右への移動に相当する場合現在のノードアドレスはステップ150でX軸に沿って増分され更新されたアドレスが得られる。
【0047】
受信したユーザ入力が右への移動に相当しない場合サーバ18はステップ160で入力がアレー上でユーザの左への移動に相当するか判断する。入力が左への移動に相当すると判断した場合サーバ18は現在のノードアドレスをX軸に沿って減分し更新されたアドレスに到達する。これはステップ170に示される。
【0048】
受信したユーザ入力が右左いずれの移動にも相当しない場合サーバ18は入力がアレー10上で上への移動に相当するか判断する。この判断はステップ180でなされる。ユーザ入力が上への移動に相当する場合サーバ18はステップ190で現在のノードアドレスをZ軸に沿って増分し更新されたアドレスを得る。
【0049】
次にサーバ18は受信したユーザ入力がアレー10上で下への移動に相当するか判断する。この判断はステップ200でなされる。入力がアレー10上で下への移動に相当する場合サーバ18はステップ210で現在のノードアドレスをZ軸に沿って減分する。
【0050】
最後にサーバ18はステップ220で受信したユーザ入力が特定カメラ14に飛ぶか光景を移すかに相当するか判断する。図5で示すように、入力が特定カメラ14に飛ぶことに相当する場合サーバ18は現在のノードアドレスを所望のカメラ位置を反映するように変更する。ノードアドレスの更新はステップ230として示される。別の実施例において入力はアレー10上の特定位置に飛ぶことに相当しているが、ユーザによって特定カメラとして識別したものではなく、舞台の下手など開催地への引き合いで識別されている。
【0051】
言うまでもなくサーバ18は受信したユーザ入力を順序も含み色々な方法で解読することができる。例えば別の実施例でサーバ18は最初にユーザ入力が上か下に相当するか判断する。更に別の好適実施例ではユーザの移動は3次元アレー内での前進、後退、左進、右進、および上下移動が含まれる。
【0052】
受信したユーザ入力が認識し得る入力、つまり右、左、上、下、あるいはアレー10上の特定位置への飛び、のいずれにも相当しない場合サーバ18はステップ240でメッセージ信号をユーザディスプレー装置24に送信し、受信入力が理解されなかったというメッセージがユーザ22に表示されるようにする。システム100の作動はその後ステップ120で続行し、サーバ18は次のユーザ入力の受信を待つ。
【0053】
ある軸に沿ってノードアドレスを増分減分するか特定のノードアドレスに飛ぶかして現在のノードアドレスを調整した後サーバ18はステップ250でユーザの光景を調節する。一旦光景が調節されるとシステム100の動作は再びステップ120で続行し、サーバ18は次のユーザ入力の受信を待つ。
【0054】
別の実施例においてサーバ18は受信したユーザ入力に基いてノードアドレスを更新および光景の調節を続ける。例えばユーザ入力が「右へ移動」に相当した場合システム100の動作は連続的にステップ140、150、および250でループし、別の入力があるか確認する。別の入力を受信するとサーバ18はそれに応じて連続的に光景を調節する。
【0055】
言うまでもなく、前記ユーザ入力、即ち右へ、左へ、上へ、および下へ、は単にアレー上の移動を一般的に叙述したものである。本発明では限定されるわけではないが、本好適実施例においてこれら一般的方向各々への移動はユーザ入力に基いてさらに定義される。
【0056】
従って図6は図5におけるステップ140、150、および250によるシステムの動作をより詳細に示す図である。尚図6は一方向、つまり右方向へのより詳細な移動を説明しているが、同様の詳細な説明は他のどの方向にも適用できる。図示されるように、ユーザ入力が右への移動に相当するかは数個の判断を必要とする。次に詳しく述べるように、これらの判断はアレー10上で異なった速度で右方向に移動すること、異なった速度で右方向の複合追加ソース出力に移動すること、およびユーザ入力をシステム100が優先することも含まれる。
【0057】
本発明ではユーザ22が異なった速度でアレー10上を移動することができる。ポインタ装置(あるいはその他のインタフェース装置)の動き等ユーザの入力で指示される速度(即ち単位時間内に通過するカメラノードの数)によってサーバ18はカメラ出力間の遷移を臨界速度で(nノード/単位時間)、臨界速度未満で(n−1ノード/単位時間)、あるいは臨界速度を越えて(n+1ノード/単位時間)制御するアルゴリズムを適用する。
【0058】
尚アレー10上の移動速度は1台のカメラ14から別のカメラ14に切り替える時間で表現することもできる。
【0059】
具体的にはステップ140aで示すようにサーバ18はユーザ入力が臨界速度で右へ移動することに相当するか判断する。臨界速度はアレー10上を移動する予め設定された速度でシステムオペレータあるいは設計者が眺める予想対象環境に基いて設定されるものが好ましい。さらに臨界速度は焦点距離、カメラ間の距離、カメラと視聴対象との距離等々その他の種々な要素に依存する。アレー10上の移動速度は一定時間内に通過するカメラ14の数で制御される。従ってアレー10上を臨機速度で移動することは1ミリ秒毎に「n」数のカメラノードを通過すること、あるいは1台のカメラ14から別のカメラに切り替えるのに「s」という時間をかけることに相当する。尚同一の実施例でも一つの次元でアレー10上を移動する臨界速度と他の次元でアレー上を移動する臨界速度と同等である必要はない。従ってサーバ18は現在のノードアドレスをX軸に沿ってnノード/ミリ秒の速度で増分する。
【0060】
本好適実施例においてユーザは毎秒24台のカメラ14を通過する。前述のごとく映写機は毎秒24フレームを録画する。映写機と本発明を類推すると、臨界 [速度]でユーザは毎秒約24台のカメラ14を通過し(サーバ18が切り替え)、あるいは0.04167秒毎に1台のカメラ14を通過する。
【0061】
図6に示すようにユーザ22は臨界速度のみならず、ステップ140bに示すように臨界速度を越えて、あるいはステップ140cに示すように臨界速度未満で進むことができる。ユーザ入力「I」が臨界速度を越えてアレー10上を移動することを示す場合サーバ18はX軸に沿った現在のノードアドレスをミリ秒毎nより大きい単位、例えばn+2のノード数で増分する。ステップ150bは現在のノードアドレスをX軸に沿ってn+1ノード/ミリ秒で増分する場合を示している。ユーザ入力「I」が臨界速度未満でアレー10上を移動することを示す場合サーバ18はX軸に沿った現在のノードアドレスをn未満の変数、例えばn−1/ミリ秒で増分する。この動作をステップ150cに示す。
【0062】
スケーラブルアレー
ユーザ22が制御を解除するかシステム100がユーザの自主性に優先するようプログラムされている場合アレー10の形状を電子的にスケーリングし、システム100に「重心」をつけて設計することによってユーザの画像経路を「開始」あるいは「臨界位置」のノードあるいはノードの環に戻すこともできる。即ち劇的な工夫を必要とする状況に注意をまとめ、集中させるためにアレー10の有効範囲あるいは形状を一定の時期にあるいは間隔で変化するように予め構成することができる。システムオペレータはリアルタイムの操作あるいは予め設定した電子的代理でカメラアレー10の指定部分を順次活性化あるいは非活性化することができる。これは劇場あるいは娯楽施設における原作意図および劇的効果を維持するために特に重要であり、またユーザ22がアレー10上を移動する自由度に対する管理を実施する上でも重要である。
【0063】
本実施例においてはシステム100がアレー10のある部分を指定時間あるいは指定間隔でユーザ22が利用できないようにプログラムすることができる。従って図6のステップ140dを続行するとサーバ18はユーザ入力がアレー上右への移動に相当するが移動管理アルゴリズムに従属するか判断する。移動管理アルゴリズムは移動管理要素に基いてユーザの望む動きが許可されるかサーバ18に判断させる。
【0064】
より具体的にはサーバ18内でプログラムされている移動管理アルゴリズムは所望する動きにより現在のノードアドレスがノード座標の許容範囲から外れるかどうかを判断する。本実施例においてノード座標の許容範囲は予め設定されており、サーバ18に記録されているように一日内の時間による。従って本実施例においては移動管理要素に時間が含まれる。許容カメラノードおよび管理要素はメモリに記憶された表において相関させることができるということを当業者は理解するであろう。
【0065】
別の実施例において移動管理要素は視聴している公演の開始から計算される時間を含んでおり、これもサーバに記録される。このような実施例においてはユーザがある情景をアレー上どこから眺めるかをシステムオペレータが指図することができる。さらに別の実施例においてはアレー上の移動速度が移動管理要素となっている。例えばユーザ22がアレー上速く移動あるいは操作すればするほど回転の幅が広くならければならない。他の実施例においてはノード座標の許容範囲が予め設定されていない。一つの実施例においては移動管理要素、従って許容範囲、はシステムオペレータが動的に管理し、入力装置経由でサーバに通信する。
【0066】
ユーザ入力が移動管理アルゴリズムに従属すると判断した場合サーバ18はステップ150dでさらに現在のノードアドレスを予め設定された経路に沿って増分する。現在のノードアドレスを予め設定された経路に沿って増分することによりシステムオペレータは許容カメラ14の特定光景にユーザ22の注意をまとめ、集中させることができ、それにより劇場あるいは娯楽施設における原作意図および劇的効果を維持することができる。
【0067】
ユーザ入力が移動管理アルゴリズムに従属する別の実施例においてはサーバ18がユーザを予め設定された経路で移動させない。その代わりにサーバ18は許容できるユーザ入力を単に待ち、光景を現在のノードに維持している。サーバ18が許容されるノード座標をもたらすユーザ入力を受信して初めてサーバ18はユーザの光景を調節する。
【0068】
追加ソース出力
アレー10上を移動することに加えユーザ22はアレー10上の予め設定された個所で視聴している実世界環境を離れることができる。より具体的にはコンピュータグラフィック画像、仮想世界画像、アプレット、フィルムクリップ等々の追加ソース出力、およびその他の人工および実際のカメラ出力をユーザ22は利用することができる。一実施例において追加ソース出力は実際の対象環境の光景と複合化されている。別の実施例においてはユーザの光景は実際の対象環境から追加ソース出力が提供するものに完全に移転する。
【0069】
より具体的に追加ソース出力は電子記憶装置20に記憶されている(ディジタルの形が好ましい)。ユーザ22が追加ソース出力を見たいと入力するとサーバ18は追加ソース出力をユーザインタフェース/ディスプレー装置24に送信する。本実施例においてサーバ18は単に追加ソース出力をユーザディスプレー装置24に送信する。別の実施例ではサーバ18がまず追加ソース出力をカメラ出力と複合化し、複合信号をユーザインタフェース/ディスプレー装置24に送信する。
【0070】
ステップ140eに示すようにサーバ18はユーザ入力がアレーからソース出力へ移行することに相当するか判断する。ユーザ22が追加ソース出力に移行すると決めた場合サーバ18はステップ150a−dのいずれかで識別された更新カメラ出力を追加ソース出力に代えて光景を調節する。
【0071】
一旦ステップ150a−dのいずれかで現在のノードアドレスが更新されるとサーバ18はステップ250でユーザの光景を調節する。光景を調節する際サーバ18は表示されている既存のあるいは現在のカメラ出力と更新されたカメラのノードアドレスで識別されるカメラ14の出力との「ミクシング」を行う。発明の別の実施例では出力のミクシングが異なった方法でなされる。本実施例において出力のミクシングは特定速度で既存のカメラ出力から新しい現行ノードアドレスを持つカメラ14の出力に電子的なスイッチングすることによる。
【0072】
言うまでもなくここで開示される本実施例および他の好適実施例においてカメラ出力は同期されている。技術上良く知られているように「同期発生器」から同期信号がカメラに供給される。同期発生器はビデオの編集に使用されるものと同じ形態でも良く、他の実施例ではサーバ、ハブ、および/あるいはアレーに接続された別の構成要素でも良い。
【0073】
上述の如く臨界速度でサーバ18はカメラ出力を約24/秒、あるいは0.04167秒毎に1回の速さで切り替える。ユーザ22が臨界速度未満でアレー10上を移動している場合中間カメラ14の各々の出力はユーザが臨界速度で移動する場合に比べやや長い時間表示される。同様にユーザが臨界速度を越えて移動している場合各出力はやや短い時間表示される。つまりサーバ18はアレー10上の移動速度に基いて切替え速度を調節する。
【0074】
本発明の簡単な実施例においてユーザは臨界速度でしか移動できないことはもちろん言うまでもない。
【0075】
他の実施例において出力のミクシングは既存あるいは現在の出力と更新されたカメラノードの出力とを複合化して達成される。さらに別の実施例においてミクシングは既存の光景を新しい光景に融合させることによる。さらに異なる実施例において出力のミクシングはユーザディスプレー装置のフレームリフレッシュ速度を調節することが含まれる。加えてサーバはアレー上の移動速度に基き実際のスピード感を出すためにモーションブラーをかけることもできる。
【0076】
さらに異なった実施例においてサーバはカメラの光景と光景の間に瞬間的に黒スクリーンが表示されるようにする。このような実施例は映画リールにおけるフレーム間のブランクフィルムに類似する。また常に有益というわけではないがこのような黒スクリーンは一つの光景が続く光景に生理学的に「繰越す」のを防ぐ。
【0077】
尚アレー上における異なった速度での移動に相当するユーザ入力はキーパッド上のキーストローク、ジョイスティックの異なった位置、ジョイスティックを特定の位置に予め決められた時間位置付ける、等々が含まれる。同様に追加ソース出力に移行するという決定を特定のキーストローク、ジョイスティックの動き、等々で示すことができる。
【0078】
他の実施例において、光景のシームレスな進行を計るためサーバ18は必ずしも必要ではないものの中間カメラ、即ち現在のカメラノードと更新されたカメラノードとの間に位置するカメラ、の一部あるいはすべてからの出力をユーザディスプレー装置24に送信する。この実施例は図7a−7gを参照し以下に説明される。具体的に図7aはX軸、つまりユーザから見て左右に伸びるアレー10の曲線部分を示す。よってサーバ18がカメラ14に関連付ける座標はX軸においてのみ変わる。より具体的に本例に関して言えばカメラ14は左端のカメラ14を最初、つまり「1」番、として順次番号がついているとみなすことができる。各カメラ14のX座標はアレー上のカメラの位置に等しい。説明上個々のカメラを14−Xと呼び、ここでXはアレー10上のカメラの位置、つまりその関連X座標に等しい。
【0079】
全般的に図7a−7gはユーザがアレー10上で取り得る動きを示している。眺められる対象環境には3個の物体602[sic]、604[sic]、606[sic]が含まれ、最初の2個は数字の付いた表面が含まれる。後に明らかになるように、これら数字の付いた表面はユーザ視点の変化をより良く認識できる。
【0080】
図7aにおいて6台のカメラ14−2、14−7、14−11、14−14、14−20、14−23がアレー10上で識別されている。各カメラ視野の境界は識別された各カメラ14−2、14−7、14−11、14−14、14−20、14−23から各々放射状に伸びる1対の線14−2a、14−7a、14−11a、14−14a、14−20a、14−23aで識別される。以下に説明する通り本例においてユーザ22は対象環境の画像あるいは光景が識別されたカメラ14−2、14−7、14−11、14−14、14−20、14−23に対応するものであるようにアレー10上をX軸に沿って移動する。
【0081】
本例においてカメラ14−2がユーザ22に開始光景を提供している。この光景は図7bに示される。ユーザ22は物体702をより良く見たいのでキーボードの「7」のキーを押す。このユーザ入力はサーバ18に送信され解釈される。
【0082】
サーバ18は「7」のキーがアレー上をカメラ14−7に移動あるいは飛ぶことに相当することを認識するようプログラムされているのでサーバ18は現行カメラのノードアドレスのX座標を7に変え、カメラ14−7の出力を選択し、ユーザ22に送信される光景あるいは画像を調節する。光景の調節には前述の如く現在のおよび更新されたカメラノードのミクシングが係わる。続いて出力のミクシングにはカメラ14−2から14−7の個別光景をシームレスな進行を達成するために中間カメラの出力を切替えて光景に入れることが係わり、これによりユーザ22は眺める対象の周りを回るような視覚および感覚を得る。ユーザ22はこれで最初の物体702について別の光景を得たことになる。カメラ14−7からの光景を図7cに示す。前述の通りカメラノードの飛びが予め設定された限度を超えるとサーバ18は中間出力の一部あるいは全部を省略する。
【0083】
キーボード上の「右矢印」のキーを押すことによってユーザ22は臨界速度で右方向に移動したいことをシステム100に伝える。サーバ18はこのユーザ入力をその通りに受信、解釈し現行カメラのノードアドレスをn=4だけ増分する。その結果更新されたカメラのノードアドレスは14−11になる。サーバ18はカメラ14−11の出力とカメラ14−7の出力とのミクシングを行う。ここでもまたユーザ22は眺める対象の周りを回るような視覚および感覚を与えるために中間カメラ(即ち14−8、14−9、および14−10)の出力を切替えて光景に入れることが係わってくる。よってユーザ22は図7bに示すようにカメラ14−11からの光景を受ける。
【0084】
ユーザ22はまだ最初の物体702に興味を持ち、臨界速度未満で右方向に移動したいことを示すため例えば「alt−右矢印」といったユーザ入力を入力する。これによりサーバ18はn−1分、即ち本例では3、だけ更新されたカメラのノードアドレスを増分しカメラ14−14とする。カメラ14−11と14−14の出力がミクシングされ、ユーザ22はカメラ14−11から14−14に関連するシームレスな光景を受ける。結果として生じるカメラ14−14の光景を図7eに示す。
【0085】
物体702の直後あまり見る物がないのでユーザ22は速く、つまり臨界速度を越えて、アレー10上を移動したいことを示すために例えば「シフト−右矢印」といったユーザ入力を入力する。サーバ18はユーザ入力を解釈して現在のノードアドレスをn+2分、つまり本例では6、増分する。よって更新されたノードアドレスはカメラ14−20に対応する。サーバ18はカメラ14−14と14−20の出力のミクシングを行い、これには中間カメラ14−15から14−19の出力を切替えて光景に入れることが含まれる。その結果生じたカメラ14−20の光景がユーザ22に表示される。図7fに示されるようにユーザ22はこれで第二の物体704を見ることになる。
【0086】
第三の物体704[sic]に興味を持ったユーザ22はアレー上をゆっくり移動することを望む。従ってユーザ22は臨界速度未満で右方向に移動することを意味する「alt−右矢印」を入力する。受信したユーザ入力を一旦解釈するとサーバ18は現行カメラのノードアドレスをX軸に沿って3増分し、カメラ14−23にする。次にサーバ18はカメラ14−20と14−23の出力のミクシングを行い、カメラ14−23までの光景のシームレスな進行をユーザ22に提供する。その結果生じた光景14−23aを図7gに示す。
【0087】
その他のデータ装置
言うまでもなくカメラ以外の装置もアレー上に散在することができる。動作感知器、マイクロホン等これら他の装置はサーバで処理するデータを提供する。例えば他の実施例において動作感知器あるいはマイクロホンからの出力はサーバに送り込まれアレーのスケーリングをするために使用される。具体的に許容カメラノード(メモリに記憶された表で定義したもの)とは例えば動作や音など望ましい出力を有する感知器あるいはマイクロホンに近いものを言う。こういう意味で移動管理要素にはこのような他の装置からの出力が含まれる。あるいはまた感知器あるいはマイクロホンからの出力はユーザに提供される。
【0088】
以下図8を参照しながら眺められる対象環境およびカメラの間に散在する複数のマイクロホンがカメラのアレーに含まれる別の実施例を説明する。システム800は一般的にサーバ804に接続されたカメラのアレー802を含み、サーバ804自体は1個以上のユーザインタフェースおよびディスプレー装置806ならびに電子記憶装置808に接続されている。ハブ810がアレー802からの出力を集めサーバ804に送信する。具体的にアレー802は互いに連結したモジュール式レール812で構成される。各レール812は複数のマイクロカメラ814およびレール812の中央に位置する1台のマイクロホン816を搭載している。加えてシステム800にはアレー802から物理的に離れているマイクロホン818が含まれる。カメラ814およびマイクロホン816、818双方の出力はサーバ804に接続され処理される。
【0089】
システム800の動作は全般的に図1−2dおよび5−6に示すシステム100に関し説明したと同様に進む。但し前述のシステム100の動作を超えるものとしてサーバ804はマイクロホン816、818の音響出力を受信し、カメラの出力と同様に音響出力をユーザに対し選択的に送信する。サーバ804が現行カメラのノードアドレスを更新し、ユーザの光景を変えると同時にユーザに送信した音響出力も変える。本実施例においてサーバ804は特定マイクロホンに対し関連付けされたカメラノードの範囲をメモリに記憶している。つまり各レール810上のカメラ814は各々のレール810上のマイクロホン816に連想している。ユーザがアレー802の端を越えて移動しようと試みた場合サーバ804はカメラの移動が許容されないと判断し、代りにマイクロホンのノード出力をアレー802に隣接するマイクロホン818のそれに更新する。
【0090】
他の実施例においてサーバ804は特定区域のカメラノードが特定マイクロホンに連想するデータベースを含むこともできる。例えば (0,0,0), (10,0,0), (10,5,0), (0,5,0), (0,0,5), (10,0,5), (10,5,5) および (0,5,5)の(X、Y、Z)座標で定義される長方形が特定のマイクロホンに連想する。言うまでもなくアレー上のユーザの位置(あるいは視点)に基いて一連のマイクロホンのうち1台を選ぶと対象環境の視覚展望と一致した音響展望がユーザに提供される。
【0091】
尚、上述のサーバは知られているコンフィギュレーションのいずれを取っても良い。以下図9および10を参照して本発明における使用に適したサーバコンフィギュレーションの例を2つ説明する。まず図9ではサーバ902、電子記憶装置20、アレー10、ユーザ(1,2,3...N)22−1−22−N、および連想したユーザインタフェース/ディスプレー装置24−1−24Nが図示される。
【0092】
サーバ902は他の構成要素に加え、関連付けされた読み出し専用メモリ(ROM)906およびランダムアクセスメモリ(RAM)908に接続された1個以上の中央演算装置(CPU)904という形態の処理手段が含まれる。一般的にROM906はサーバ902の動作を支配するプログラムを記憶するためにあり、RAM908は動作中CPU904が使用する変数および値を記憶するためにある。さらにユーザインタフェース/ディスプレー装置24もCPU904に接続されている。尚、他の実施例においてCPU は各々個別の機能を行う数個の演算装置で構成されても良い。
【0093】
メモリコントローラ910がCPU904および電子記憶装置20双方に接続されている。メモリコントローラ910はCPU904の指示のもとで記憶装置20へのアクセス(読み取りおよび書き出し)を管理する。メモリコントローラ910はサーバ902の一部として図示されているが、記憶装置20の内部にあっても良い。
【0094】
動作中CPU904はバス912を経由してアレー10からカメラ出力を受信する。前述のようにCPU 904はカメラ出力のミクシングを行いユーザインタフェース/ディスプレー装置24に表示する。どの出力のミクシングがなされるかは各ユーザ22の選択する光景による。具体的にはユーザインタフェース/ディスプレー装置24が各々バス914を通じて表示されるべき光景を定義するユーザ入力を送信する。CPU904は適切な出力のミクシングを行い、その結果生じた出力をバス916経由でユーザインタフェース/ディスプレー装置24に送信する。図示されるように本実施例においてユーザ22は各々独立してサーバ902に接続している。
【0095】
バス912はさらにカメラ出力を記憶装置20に運び記憶させる。カメラ出力を記憶する際CPU904はメモリコントローラ910に指示を出し、カメラ14の各々の出力を記憶装置20内の特定の場所に記憶させる。
【0096】
表示すべき画像が既に記憶装置20に記憶されている場合CPU904はメモリコントローラ910に指示を出し、該当カメラ出力を検索させる。同出力はバス918経由でCPU904に送信され、そこでミクシングされる。バス918はさらにユーザ22への送信用に追加ソース出力をCPU904に運ぶ。アレー10から直接受信した出力と同様CPU904はこれらの出力のミクシングを行い、適当な光景をユーザインタフェース/ディスプレー装置24に送信する。
【0097】
図10は本発明の別の実施例によるサーバコンフィギュレーションを示す。図示されるようにサーバ1002は全般的にコントロール用中央演算装置(CPU)1004、各ユーザ22に連想したミクシング用CPU1006、およびメモリコントローラ1008で構成される。コントロール用CPU1004は連想したROM1010およびRAM1012を有する。同様に各ミクシング用CPU1006は連想したROM1014およびRAM1016を有する。
【0098】
前述の機能を達成するためにアレー10からのカメラ出力はバス1018経由で1からNの各ミクシング用CPU1006−1、1006−N接続されている。動作中ユーザ22は各々の入力をインタフェース/ディスプレー装置24に入力しコントロール用CPU 1004へ送信する(バス1020経由)。コントロール用CPU1004は入力を解釈し、バス1022−1、1022−N経由でコントロール信号をミクシング用CPU1006−1、1006−Nに送信し、バス1018で受信したカメラ出力のうちどれをミクシングするか指示する。名称の意味する通りミクシング用CPU1006−1、1006−Nは適当な光景を生成するために出力のミクシングを行い、出来上がった光景をバス1024−1、1024−N経由でユーザインタフェース/ディスプレー装置24−1、24−Nに送信する。別の関連する実施例において各ミクシング用CPU1006は出力を1人以上のユーザ22に多重化する。各ユーザ22にどの出力をミクシングして送信するかの指示はコントロールCPU1004から発せられる。
【0099】
バス1018はカメラ出力をミクシング用CPU1006−1、1006−Nにだけではなく記憶装置20にも接続する。メモリコントローラ1008の管理のもとで記憶装置20は既知の記憶場所にカメラ出力を記憶するが、同コントローラ自体はコントロール用CPU1004に管理される。コントロール用CPU1004に対するユーザ入力が記憶された画像を見たいというユーザ22の意志を示す場合コントロール用CPU1004はメモリコントローラ1008に該当する画像を記憶装置20から検索させる。このような画像はバス1026経由で各ミクシング用CPU1006に回収される。追加ソース出力もバス1026経由でミクシング用CPU1006−1、1006−Nに回収される。コントロール用CPU1004はさらにどの出力をミクシングし表示するか指示するためにコントロール信号をミクシング用CPU1006−1、1006−Nに送る。
【0100】
立体光景
言うまでもなく対象環境の立体光景の使用は本発明の範囲内に含まれる。立体光景を達成するためにシステムはアレー(あるいは電子記憶装置)から2台のカメラによる出力の少なくとも一部を検索し、ユーザに同時に送信する。サーバの処理要素はこれらのカメラ出力をミクシングして立体出力を達成する。ユーザに提供される光景は各々このような立体出力に基いている。一つの立体実施例においてアレー上隣接する2台のカメラによる出力を使用して一つの立体光景を制作している。図7a−7gの符号を利用すると一つの光景はカメラ14−1と14−2による立体光景である。次の光景はカメラ14−2と14−3あるいは他の2台のカメラによる立体出力である。従ってこのような実施例においてユーザはさらに対象環境の立体的でシームレスな光景を提供される。
【0101】
複数ユーザ
前述のように本発明では複数のユーザが同時に独立してアレー上を移動できる。複数のユーザに対応するために前述のシステムは複数のユーザからの入力を区別し、各ユーザの入力に適した別々のカメラ出力を選択する。このような実施例の一つにおいてサーバは各ノードアドレスを特定のユーザに連想する記憶場所に記憶することにより各ユーザに連想する現行カメラのノードアドレスを追跡する。同様に各ユーザの入力もユーザ入力にメッセージタグを対応するユーザインタフェース装置が加えることによって差別化され各々特定の記憶場所に連想することが識別される。
【0102】
別の実施例においてが2人以上のユーザが連結することができ、それによって連合して移動し対象環境の同じ光景を得ることができる。このような実施例においては各々他方のユーザが「ガイド」となるようそのコードで識別することが含まれる。動作の上ではガイドユーザが選択した出力および光景をサーバがガイドおよびガイドを選んだ他のユーザ双方に提供する。再びユーザ入力があるとサーバはユーザの連結を解き、それによりユーザは各々アレー上の自分の移動を制御することができるようになる。
【0103】
包含される実施形態
本発明は幾つかの好適実施例という形で説明されているが、普通の当業者にとっては明らかな他の実施形態も本発明の範囲内にあることが意図されている。従って本発明の範囲は付記されたクレームによってのみ限定されることが意図されている。
【図面の簡単な説明】
【図1】本発明の一実施例の全体概略図である。
【図2】図2aは本発明の一実施例のアレーにおけるカメラおよびカメラ用レール部の斜視図である。図2b−2dは本発明の一実施例におけるカメラおよびカメラ用レール部の側面図である。図2eは本発明の一実施例におけるカメラ用レールの頂面図である。
【図3】本発明の一実施例におけるカメラアレーの一部を示す斜視図である。
【図4】本発明の別の実施例におけるカメラアレーの一部を示す斜視図である。
【図5】本発明の一実施例におけるユーザインタフェースの一般動作を示すフローチャートである。
【図6】図5に示す動作の一部詳細を示すフローチャートである。
【図7】図7aは本発明の一実施例の部分的斜視図で、眺める対象物に相対したカメラアレーの配置を示す。図7b−7gは図7aにおけるアレー中選ばれたカメラの視点から見た光景を示す。
【図8】本発明における別の実施例を示す概略図である。
【図9】本発明の一実施例におけるサーバの概略図である。
【図10】本発明の別の実施例におけるサーバの概略図である。

Claims (119)

  1. 対象環境の第一ディスプレーを第一ユーザに提供し、対象環境の第二ディスプレーを第二ユーザに提供する遠隔臨場システムは、以下のもので構成される。
    対象環境に関連した視野を持つカメラおよび関連した視野を示す関連したカメラ出力を持つカメラアレー。アレーは最低一つのカメラパスを含む。
    アレーの第一パスに沿った動きに関連した第一ユーザ入力を持つ、第一ユーザに関連した第一ユーザインタフェース装置。
    アレーの第二パスに沿った動きに関連した第二ユーザ入力を持つ、第二ユーザに関連した第二ユーザインタフェース装置。
    ユーザ入力受信のための処理要素が最低一つユーザインターフェース装置に連結され、処理要素は第一入力を解釈しまた第一パスのカメラ出力を選択し、受信した第二入力を解釈しまた第二パスのカメラ出力を第一入力と切り離して選択し、第一ユーザと第二ユーザが同時に別々にアレー内を動くことを可能にする。
  2. 請求項1に記載のシステムにはさらに以下が含まれる。
    第一ユーザに関連した第一ディスプレー装置および連結された処理要素。
    第二ユーザに関連した第二ディスプレー装置および連結された処理要素。
    処理要素はさらに、受信した第一入力に基づき第一出力を選択するよう設定され、選択された第一出力に関連した視野を表示ように設定された第一ディスプレー装置に第一出力を送信する。
    受信した第二入力に基づき第二出力を選択し、選択された第二出力に関連した視野を表示ように設定された第二ディスプレー装置に第二出力を送信する。
  3. 処理要素がリアルタイムの出力を選択するように構成され、かつディスプレー装置がリアルタイムの視野を表示するよう構成された請求項2に記載のシステム。
  4. アレーが複数の操作可能なカメラパスを含み、かつ第一経路が第二経路とは異なる請求項1に記載のシステム。
  5. 処理要素が制御処理要素と多数の混合処理要素を含む請求項1に記載のシステム。
  6. 処理要素はまたアレーにも連結された請求項1に記載のシステム。
  7. 処理要素が複数の処理要素を含む請求項1に記載のシステム。
  8. 第一ユーザインタフェース装置と第一ディスプレー装置が異なる種類の通信リンクにより処理要素に連結される請求項2に記載のシステム。
  9. ユーザインタフェース装置が次に列記する通信リンクの一つにより処理要素に連結される請求項1に記載のシステム: インターネットリンク、マイクロ波信号リンク、衛星リンク、無線リンク、光ファイバリンク。
  10. 第一ユーザインタフェース装置と第二ユーザインタフェース装置が異なる通信リンクにより処理要素に連結される請求項1に記載のシステム。
  11. 第一ユーザインターフェース装置と第二ユーザインターフェース装置が異なる請求項1に記載のシステム。
  12. カメラのアレーが雄端部と雌端部を持つ多数のモジュール式のレールと、他のレールの雌端部に接続可能なレールの雄端部と、各レールに接続可能な複数のカメラを持つ請求項1に記載のシステム。
  13. カメラのアレーが各カメラを覆う中空の球形連結部と球形連結部を繋げる中空のロッドを含み、ロッドは出力用通信パスを覆う請求項1に記載のシステム。
  14. アレーのカメラは約1インチにカメラ1台の密度で設置される請求項1に記載のシステム。
  15. 第一カメラの視野が第二カメラの視野に重なる請求項1に記載のシステム。
  16. アレーには、第一出力を持つ第一カメラと第二出力を持つ第二カメラが含まれ、受信した第一ユーザ入力に基づき第一出力と第二出力を合成するよう処理要素がさらに設定される請求項1に記載のシステム。
  17. 受信された第一ユーザ入力は第一カメラから第二カメラへの移動の希望を示し、処理要素は電子的に第一出力と第二出力を切り替え速度で切り替えミキシングするよう構成される請求項16に記載のシステム。
  18. 処理要素はさらに変換速度を調整することにより出力をミキシングするよう構成された請求項17に記載のシステム。
  19. 第一ユーザ入力には、第一パスを通しての動きの速度表示が含まれる請求項1に記載のシステム。
  20. 処理要素は予め決められた限界値の表示を比較するよう構成され、速度表示が予め決められた限界値を超えることを確認後、パス内のカメラ総数以下の出力数を選択する請求項19に記載のシステム。
  21. 出力数は速度に反比例する請求項19に記載のシステム。
  22. 第一ユーザ入力には、アレーを通過する動きの相対速度表示が含まれ、処理要素は第一出力から第二出力へ切り替えることで第一出力と第二出力をミキシングするよう構成され、処理要素は相対速度に基づき切り換え速度を調節するよう構成された請求項16に記載のシステム。
  23. アレーの移動の相対的速度の表示は、アレーを通して比較的遅く移動していることの表示を含み、処理要素は第一カメラに関連した視野が遅い移動の表示に応じて比較的長い間ディスプレーされるようにすることにより切り替え速度を調整する請求項19に記載のシステム。
  24. 処理要素は、第二カメラの視野を第一カメラに関連した視野に融合させることで出力をミキシングするよう構成された請求項16に記載のシステム。
  25. 第一ユーザに関連し、処理要素に連結された第一ユーザディスプレー装置を含み、第一ディスプレー装置は関連したフレームリフレッシュ速度を持ち、処理要素はフレームリフレッシュ速度を調整することにより出力をミキシングするよう構成された請求項16に記載のシステム。
  26. 処理要素は第一及び第二出力から合成出力を生成することにより出力をミキシングするよう構成された請求項16に記載のシステム。
  27. アレーには、第一カメラと第二カメラの間に設置された最低一つのカメラが含まれ、プロセッサは第一出力からその最低一つのカメラの出力へ、次に第二出力へ切り替えることにより、第一カメラの出力と第二カメラの出力をミキシングするよう構成された請求項16に記載のシステム。
  28. 処理要素はモーションブラーをかけることにより出力をミキシングするよう構成された請求項16に記載のシステム。
  29. ユーザインタフェース装置はキーボードを含み、ユーザの入力はキーを打つことにより行われる請求項1に記載のシステム。
  30. ユーザインタフェース装置はジョイスティックを含み、ユーザの入力はジョイスティックの動きにより行われる請求項1に記載のシステム。
  31. ユーザインタフェース装置はマウスを含み、ユーザの入力はマウスの動きにより行われる請求項1に記載のシステム。
  32. ユーザインタフェース装置はタッチスクリーンを含む請求項1に記載のシステム。
  33. ユーザインタフェース装置はバイオフィードバック装置を含む請求項1に記載のシステム。
  34. ユーザインタフェース装置は音声認知装置を含む請求項1に記載のシステム。
  35. ユーザ入力はアレーの特定のカメラの表示を含む請求項1に記載のシステム。
  36. ユーザ入力は上下左右の動きを含む請求項1に記載のシステム。
  37. ユーザ入力は前方及び後方への動きを含む請求項34に記載のシステム。
  38. 処理要素は移動管理アルゴリズムに応じて作動し、移動管理アルゴリズムはアレーの許容される動きと許容されない動きを区別する請求項1に記載のシステム。
  39. 移動管理要因を含み、移動管理アルゴリズムが移動管理要因に応じてアレーにおける動きを管理する請求項38に記載のシステム。
  40. 移動管理要因には、日時、持続時間、アレーを通過する移動速度、アレー内の出力装置、動作感知器出力およびマイクロホン出力が含まれる請求項39に記載のシステム。
  41. 処理要素は、特定のユーザ入力を無視するよう構成される請求項1に記載のシステム。
  42. 処理要素は、最低一つの予め決められたカメラ出力を選択することによりユーザ入力を無視するよう構成され、ユーザに予め決められた視野を提供する請求項41に記載のシステム。
  43. 処理要素は時間に基づいて予め決められた出力を選択するよう構成された請求項42に記載のシステム。
  44. 処理要素は時間の長さに基づいて予め決められた出力を選択するよう構成された請求項42に記載のシステム。
  45. 処理要素は、許容されるユーザ入力を待つことによりユーザ入力を無視するようにさらに構成される請求項41に記載のシステム。
  46. オペレータ入力装置からのオペレータ入力を受信するため処理要素に連結された入力装置が含まれ、処理要素はオペレータ入力に基づいてユーザ入力を無効にするよう管理された請求項1に記載のシステム。
  47. 追加ソース出力を格納するメモリを含み、ユーザ入力には追加ソース出力を見ることの表示が含まれ、また処理要素は追加ソース出力を見ることの表示を受け取った後、カメラ出力と追加ソース出力をミキシングするよう構成される請求項1に記載のシステム。
  48. 追加ソース出力を見ることの表示が、あらかじめ決められたカメラと関連してユーザに用意されている請求項47に記載のシステム。
  49. 処理要素はカメラ出力と追加ソース出力を複合化することにより、カメラ出力と追加ソース出力をミキシングするよう構成された請求項47に記載のシステム。
  50. 処理要素はカメラ出力を追加ソース出力に切り替えることによりカメラ出力と追加ソース出力をミキシングするよう構成された請求項47に記載のシステム。
  51. 追加ソース出力には、コンピュータグラフィックスイメージ、仮想空間イメージ、アプレット、フィルムクリップやアニメーション等からの出力が含まれる請求項47に記載のシステム。
  52. 複数のマイクロホンが含まれ、各々のマイクロホンは出力を有し、処理要素は受信された第一ユーザへの伝達のための第一ユーザ入力に基づいてマイクロホン出力を選択するよう構成された請求項1に記載のシステム。
  53. 処理要素に連結されたメモリを含み、メモリはカメラとマイクロホンに相関し、処理要素は選択されたカメラ出力をマイクロホン出力に相関させるためにメモリを使用することによってマイクロホンを選択する請求項52に記載のシステム。
  54. 遠隔操作環境下でユーザにリアルタイム画像を提供する方法には以下のものが含まれる。
    対象環境内に最低一つのカメラパスをもつカメラアレーから電子的イメージを受信する。
    第一ユーザに対応し第一パスに沿った移動を表示する第一ユーザインターフェース装置から第一入力を受信する。
    第一入力に基づき、第一画像と第二画像を第一処理要素と共にミキシングした第一ミキシング画像を得る。
    第二入力に基づき、第三画像と第四画像を第二処理要素と共にミキシングした第二ミキシング画像を得る。
    第一ユーザに実質的リアルタイムで第一ミキシング画像を提供し、第一パスに沿った移動をシミュレートする。
    第二ユーザに実質的リアルタイムで第二ミキシング画像を提供すると同時に第一ユーザに第一ミキシング画像を提供し、第二パスに沿った移動をシミュレートする。
  55. 第一処理要素は第二処理要素と異なる請求項54に記載の方法。
  56. アレーには複数の移動可能なパスがあり、第一パスと第二パスは異なる請求項54に記載の方法。
  57. 第一画像は第三画像と異なる請求項54に記載の方法。
  58. 第一画像と第二画像のミキシングには、第一切り替え速度での第一画像から第二画像へ切り替えおよび第二画像を含む第一ミキシング画像が含まれ、また第三画像と第四画像のミキシングには、第二切り替え速度での第三画像から第四画像への切り替えおよび第四画像を含む第二ミキシング画像が含まれる請求項54に記載の方法。
  59. 第一入力を受領することは第一経路に沿っての動きの第一速度の表示を受領することを含み、第一切り替え速度は動きの第一速度の表示に基づく請求項58に記載の方法。
  60. 第二入力の受信には、第二パスに沿った移動の第二速度表示の受信および第一速度よりも速い第二速度が含まれ、また第二切り替え速度が移動の第二速度表示により決定される場合は第一切り替え速度よりも速い第二切り替え速度が含まれる請求項59に記載の方法。
  61. 第三及び第四画像をミキシングすることは第二ユーザに第三画像を第一画像が第一ユーザに供給された期間より比較的長い時間の間供給することを含む請求項60に記載の方法。
  62. 第三及び第四画像をミキシングすることは第二ユーザに第四画像を第二画像が第一ユーザに供給された期間より比較的長い時間の間供給することを含む請求項60に記載の方法。
  63. 第一画像への第二画像のミキシングには、第一画像と第二画像の複合化が含まれる請求項54に記載の方法。
  64. 第三画像を第四画像にミキシングすることは第三画像と第四画像の間でスイッチングすることを含む請求項63に記載の方法。
  65. 第一画像への第二画像のミキシングには、第一画像の第二画像への融合が含まれる請求項54に記載の方法。
  66. 第一画像は第一カメラから、第二画像は第二カメラからであるが、アレーは第一および第二カメラの間に挿入されたもう一つのカメラ、また第一画像と第二画像のミキシングには挿入されたカメラからの第一ユーザへの画像の提供が含まれる請求項54に記載の方法。
  67. 第一入力および第三ミキシング画像の最初の使用の提供に基づき、第二画像に第五画像をミキシングし第三ミキシング画像を得ることが含まれる請求項54に記載の方法。
  68. 第一ユーザインターフェース装置からの第三入力の受信および第三入力のオーバーライドが含まれる請求項54に記載の方法。
  69. 受領された第三入力を無効とすることは第一ユーザに予め決められた画像を提供することを含む請求項68に記載の方法。
  70. 受領された第三入力を無効とすることは第一ユーザに継続して第一ミキシング画像を提供し第四入力を待つことを含む請求項68に記載の方法。
  71. 第一入力の受信には、追加ソース出力のミキシングの表示の受信が含まれ、さらにこの方法は第二画像と追加ソース出力のミキシングにより第三ミキシング出力を得ることが含まれる請求項54に記載の方法。
  72. 追加ソース出力を第二画像にミキシングすることは第二画像から追加ソース出力に切り替えることを含む請求項71に記載の方法。
  73. 対象環境のディスプレーをユーザに提供する装置は、以下のもので構成される。
    対象環境に関連した視野を持つカメラおよび関連した視野を示す関連したカメラ出力を持つカメラアレー。
    最低一つの処理要素が連結されたアレー、その出力がユーザに提供される許容カメラ、およびその出力がユーザに提供されない非許容カメラを識別するよう構成された処理要素。
  74. 許容カメラが時と共に変わる請求項73に記載の装置。
  75. 許容カメラが時間に基づいて変わる請求項74に記載の装置。
  76. 見られている対象環境が公演であり、許容カメラはその公演の開始時点からの時間の長さに基づいて変わる請求項73に記載の装置。
  77. 許容カメラが予め決められている請求項73に記載の装置。
  78. 処理要素に連結されたメモリを含み、そのメモリは予め決められた許容カメラの表示を格納している請求項77に記載の装置。
  79. ユーザに関連し、処理要素に連結されたユーザインタフェース装置を含み、そのユーザインタフェース装置はユーザ入力をアレーを通しての動きを表示する処理要素に提供し、その処理要素はユーザ入力に基づいて許容カメラの出力を選択する請求項73に記載の装置。
  80. 処理要素は非許容カメラに対応するユーザ入力を無視するよう構成される請求項79に記載の装置。
  81. 許容カメラに対応する新しいユーザ入力を待つことにより処理要素は非許容カメラに対応するユーザ入力を無視するよう構成される請求項80に記載の装置。
  82. 許容カメラ出力を選択することにより処理要素は非許容カメラに対応するユーザ入力を無視するよう構成される請求項80に記載の装置。
  83. 少なくとも一つの処理要素に連結されている出力を持つカメラ以外のデータ装置を含み、許容カメラはそのデータ装置の出力に基づく請求項73に記載の装置。
  84. データ装置が動作感知器である請求項83に記載の装置。
  85. データ装置がマイクロホンである請求項83に記載の装置。
  86. ユーザ入力に基づく複数のカメラから対象環境の視野をユーザに提供する方法には以下のものが含まれる。
    非許容カメラおよびユーザに提供可能な視野を示す、希望のカメラからの視野のユーザ入力指示の電子的受信。
    希望のカメラが許容されるカメラかどうかの判断。
    もし希望のカメラが許容されるカメラでない場合、そのカメラからユーザが視野を得ることを防ぐ。
  87. 許容カメラはユーザが対象環境を見ている間に変わる請求項86に記載の方法。
  88. 許容カメラの識別は時間に基づく請求項86に記載の方法。
  89. ユーザが対象環境を見はじめた時間に留意することを含み、許容カメラはユーザが対象環境を見はじめた時点からの時間の長さに基づく請求項86に記載の方法。
  90. 対象環境は公演であり、許容カメラはその公演に基づく請求項86に記載の方法。
  91. ユーザ入力に呼応する対象環境のディスプレーをユーザに提供する装置は、以下のもので構成される。
    環境に関連した視野を持つカメラおよび関連した視野を示す関連したカメラ出力を持つカメラのアレー。
    追加ソース出力の記憶メモリ。
    追加ソース出力の受信のため最低一つの処理要素がメモリに連結されており、処理要素はユーザの入力と選択を解釈し、ユーザ入力に従いユーザにカメラ出力を提供し、ユーザに追加ソース出力を提供またはカメラの視野および追加ソース出力をユーザに提供する。
  92. 処理要素は追加ソース出力をカメラ出力にミキシングするよう構成された請求項91に記載の装置。
  93. カメラ出力を追加ソース出力に切り替えることにより処理要素は追加ソース出力をカメラ出力にミキシングするよう構成された請求項92に記載の装置。
  94. 処理要素に連結された複数のユーザインタフェース装置を含み、各々が異なるユーザに関連し、アレーのカメラの動きに関連するユーザ入力を持つ請求項91に記載のシステム。
  95. アレーのカメラは雄端部と雌端部を持つ多くのモジュール式レールを含み、レールの雄端部は他のレールの雌端部に接続可能で、複数のカメラは各々のレールに接続可能である請求項91に記載のシステム。
  96. アレーはカメラの少なくとも一つのユーザ操作パスを含み、ユーザ入力は経路における移動速度の表示を含む請求項91に記載のシステム。
  97. 処理要素はユーザ入力を無効とし、少なくとも一つの予め決められたカメラ出力を選択し、ユーザを予め決められた視野に導くよう構成された請求項91に記載のシステム。
  98. 処理要素は移動管理要因に基づいて予め決められた出力を選択するよう構成された請求項97に記載のシステム。
  99. ユーザに対象環境の視野を提供する方法で、その方法は下記を含む:
    カメラのアレーから対象環境の電子画像を受領する;
    遠隔通信リンクによりアレーにおける移動を表示するユーザ入力を受領する;
    ユーザ入力に基づいてカメラ画像を選択する;
    追加ソース出力を見たいとの表示のあるユーザ入力に基づいてメモリから追加ソース出力を抽出する; かつ
    アレーの一点または複数点においてユーザに追加ソース出力を提供する。
  100. 各々が対象環境の画像を表す出力を有し、カメラのアレーから対象環境を遠隔地からシームレスに見るシステムは、以下のもので構成される。
    対象環境を見るアレーの最低一部を通過するパス選択の入力を持つインターフェース装置。パスにはカメラシーケンスが含まれ、それぞれのカメラシーケンスは異なる視点を持ち、また隣接したカメラに視野が重なる。
    シーケンス内の各カメラからの画像の連続的表示のためのディスプレー装置での、シームレスな対象環境視野をユーザに提供。
  101. 選択されたカメラの画像は1秒につき約24画像の割合で表示される請求項100に記載のシステム。
  102. ユーザインタフェース装置は次の少なくとも一つを含む請求項100に記載のシステム: キーボード、ジョイスティック、マウス、タッチスクリーン、バイオフィードバック装置、音声認識装置。
  103. ディスプレー装置に表示された画像はミキシングされている請求項100に記載のシステム。
  104. 表示画像は、シーケンス内の現在のカメラの画像からシーケンス内の次のカメラの画像へ連続的に切り替えられることによりミキシングされる請求項103に記載のシステム。
  105. 入力はパス進行速度を選択するためであり、選択された速度に応じて画像が切り替えられる請求項104に記載のシステム。
  106. アレーの次のカメラの画像と現行カメラの画像を継続的に複合化することにより表示された画像はミキシングされる請求項103に記載のシステム。
  107. 入力は経路進行速度を選択するためである請求項100に記載のシステム。
  108. ディスプレー装置は複数の画像を立体的に表示する請求項100に記載のシステム。
  109. 対象環境をシームレスに見る方法には、以下のものが含まれる。
    第一フィールド視野を持つカメラアレーから第一画像を電子的に受信する。
    第一フィールド視野とオーバーラップする第二フィールド視野を持つアレーから第二画像を電子的に受信する。
    第二フィールド視野とオーバーラップする第三フィールド視野を持つアレーから第三画像を電子的に受信する。
    第二、第三画像を連続的に表示し、対象環境のシームレスな視野を得る。
  110. 表示は与えられた速度で第一画像から、第二、第三画像へ切り替わることを含む請求項109に記載の方法。
  111. アレーを通しての移動速度を選択することを含み、与えられた速度は選択された速度に基づく請求項110に記載の方法。
  112. 表示は与えられたフレームリフレッシュ速度を画像に与えることを含む請求項109に記載の方法。
  113. 表示は第一画像を第二画像に複合化し、次に第二画像を第三画像に複合化することを含む請求項109に記載の方法。
  114. 表示は第一画像を第二画像に融合し、次に第二画像を第三画像に融合することを含む請求項109に記載の方法。
  115. 追加ソース出力が表示されることを選択し、追加ソース出力を第三画像にミキシングさせることを含む請求項109に記載の方法。
  116. 第一、第二及び第三画像が各々第一、第二及び第三カメラに対応する請求項109に記載の方法。
  117. 第二カメラが第一及び第三カメラに隣接する請求項116に記載の方法。
  118. 少なくとも一つの画像がアレーの複数のカメラから得られた立体画像である請求項109に記載の方法。
  119. 対象環境のディスプレーをユーザに提供する遠隔臨場システムは、以下のもので構成される。
    対象環境に関連した視野を持つカメラおよび関連した視野を示す関連したカメラ出力を持つカメラアレー。
    電子的記憶装置。
    カメラ出力受信のため最低一つの処理要素がアレーに連結され、また処理要素は電子的記憶装置に連結され、処理要素はカメラ出力を電子的に記憶するように構成されまた電子的記憶装置に関連するカメラ出力が表示される。
    第一ユーザに対して環境の第一画面、第二ユーザに対してカメラのアレーを含めた環境の第二画面を提供する遠隔臨場装置。各カメラには環境の関連視野が存在し、関連カメラの出力は関連視野を表している。当該アレーにはまた、少なくとも1つのカメラパスが含まれる。第一ユーザのインタフェース装置にはアレーの第一経路に沿った動きに関連した第一ユーザの入力を備え、第二ユーザのインタフェース装置にはアレーの第二経路に沿った、関連した第二ユーザの入力を備えている。当該ユーザインタフェース装置はユーザの入力を受信し、解釈する、少なくとも1つの処理要素と連結している。処理要素は第一の入力を解釈し、第一経路中のカメラの出力を選択し、第二の入力を解釈し、第一の入力とは別に第二経路中のカメラの出力を選択する。従って、当該アレーを通して、第一ユーザおよび第二ユーザが同時かつ別々に進行することができる。その他の実施例においては、遠隔臨場装置はアレー中の許容カメラとアレー中の非許容カメラを区別する少なくとも1つの処理要素を含む。
JP2000542921A 1998-04-02 1999-04-01 カメラのアレーを利用した操作可能な遠隔臨場方法およびシステム Pending JP2004502321A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US8041398P 1998-04-02 1998-04-02
US09/283,413 US6535226B1 (en) 1998-04-02 1999-04-01 Navigable telepresence method and system utilizing an array of cameras
PCT/US1999/007255 WO1999052288A1 (en) 1998-04-02 1999-04-01 A navigable telepresence method and system utilizing an array of cameras

Publications (1)

Publication Number Publication Date
JP2004502321A true JP2004502321A (ja) 2004-01-22

Family

ID=22157205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000542921A Pending JP2004502321A (ja) 1998-04-02 1999-04-01 カメラのアレーを利用した操作可能な遠隔臨場方法およびシステム

Country Status (11)

Country Link
US (2) US6535226B1 (ja)
EP (1) EP1068730A4 (ja)
JP (1) JP2004502321A (ja)
KR (1) KR20010074470A (ja)
CN (1) CN1298607A (ja)
AU (1) AU761950B2 (ja)
BR (1) BR9909429A (ja)
CA (1) CA2326731A1 (ja)
IL (1) IL138808A0 (ja)
MX (1) MXPA00009686A (ja)
WO (1) WO1999052288A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015119476A (ja) * 2013-12-19 2015-06-25 アクシス アーベー モニタ装置機構

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9929870D0 (en) * 1999-12-18 2000-02-09 Roke Manor Research Improvements in or relating to security camera systems
JP2002132602A (ja) * 2000-07-31 2002-05-10 Hewlett Packard Co <Hp> 画像機器を導入しリンクする方法
US7101988B2 (en) * 2000-10-12 2006-09-05 Marical, Inc. Polyvalent cation-sensing receptor in Atlantic salmon
US7027083B2 (en) 2001-02-12 2006-04-11 Carnegie Mellon University System and method for servoing on a moving fixation point within a dynamic scene
WO2002065761A2 (en) 2001-02-12 2002-08-22 Carnegie Mellon University System and method for stabilizing rotational images
US20020190991A1 (en) * 2001-05-16 2002-12-19 Daniel Efran 3-D instant replay system and method
US20030030658A1 (en) * 2001-08-10 2003-02-13 Simon Gibbs System and method for mixed reality broadcast
US7091989B2 (en) * 2001-08-10 2006-08-15 Sony Corporation System and method for data assisted chroma-keying
US7339609B2 (en) * 2001-08-10 2008-03-04 Sony Corporation System and method for enhancing real-time data feeds
US7173672B2 (en) * 2001-08-10 2007-02-06 Sony Corporation System and method for transitioning between real images and virtual images
US20030112508A1 (en) * 2001-08-17 2003-06-19 Byoungyi Yoon Method and system for controlling space magnification for stereoscopic images
US6940538B2 (en) * 2001-08-29 2005-09-06 Sony Corporation Extracting a depth map from known camera and model tracking data
GB2380885A (en) * 2001-10-11 2003-04-16 Hewlett Packard Co Multiple camera arrangement
US7239345B1 (en) * 2001-10-12 2007-07-03 Worldscape, Inc. Camera arrangements with backlighting detection and methods of using same
US20030076413A1 (en) * 2001-10-23 2003-04-24 Takeo Kanade System and method for obtaining video of multiple moving fixation points within a dynamic scene
US20030187820A1 (en) 2002-03-29 2003-10-02 Michael Kohut Media management system and process
CA2390621C (en) * 2002-06-13 2012-12-11 Silent Witness Enterprises Ltd. Internet video surveillance camera system and method
JP2004264492A (ja) * 2003-02-28 2004-09-24 Sony Corp 撮影方法及び撮像装置
US20040199622A1 (en) * 2003-04-07 2004-10-07 Huscher Anthony Alan eRoom operations console
US20080129818A1 (en) * 2004-02-11 2008-06-05 Jacob James Miller Methods for practically simulatnig compact 3d environments for display in a web browser
US20060114251A1 (en) * 2004-02-11 2006-06-01 Miller Jacob J Methods for simulating movement of a computer user through a remote environment
US20060146132A1 (en) * 2005-01-05 2006-07-06 Hy Mayerson Video system having multiple video cameras for capturing events
US7982777B2 (en) * 2005-04-07 2011-07-19 Axis Engineering Technologies, Inc. Stereoscopic wide field of view imaging system
US7884848B2 (en) * 2005-05-25 2011-02-08 Ginther Mark E Viewing environment and recording system
US20070038945A1 (en) * 2005-08-10 2007-02-15 Miller Jacob J System and method allowing one computer system user to guide another computer system user through a remote environment
TW200718457A (en) * 2005-08-18 2007-05-16 Aruze Corp Gaming machine and terminal device included in gaming machine
KR100719097B1 (ko) 2005-11-03 2007-05-28 (주)이즈미디어 카메라 배열 방식 영상 취득 시스템
US8125481B2 (en) 2008-03-21 2012-02-28 Google Inc. Lightweight three-dimensional display
US8886669B2 (en) * 2008-03-21 2014-11-11 Trimble Navigation Limited File access via conduit application
US8730863B2 (en) * 2008-09-09 2014-05-20 The Charles Stark Draper Laboratory, Inc. Network communication systems and methods
JP5604921B2 (ja) * 2010-03-19 2014-10-15 セイコーエプソン株式会社 画像表示システム、画像表示方法、画像表示装置
US8937646B1 (en) 2011-10-05 2015-01-20 Amazon Technologies, Inc. Stereo imaging using disparate imaging devices
US8863208B2 (en) 2012-06-18 2014-10-14 Micropower Technologies, Inc. Synchronizing the storing of streaming video
US9769365B1 (en) 2013-02-15 2017-09-19 Red.Com, Inc. Dense field imaging
US9294757B1 (en) 2013-03-15 2016-03-22 Google Inc. 3-dimensional videos of objects
WO2014189927A2 (en) * 2013-05-20 2014-11-27 Sebring Steven Systems and methods for producing visual representations of objects
US9123172B2 (en) 2013-05-20 2015-09-01 Steven Sebring Systems and methods for producing visual representations of objects
US20150195644A1 (en) * 2014-01-09 2015-07-09 Microsoft Corporation Structural element for sound field estimation and production
WO2015170186A2 (en) * 2014-01-17 2015-11-12 Jaber Alexander Tactical surveillance and monitoring system designed for being carried by an animal
US10033992B1 (en) 2014-09-09 2018-07-24 Google Llc Generating a 3D video of an event using crowd sourced data
US9706187B2 (en) * 2014-10-06 2017-07-11 Electronics And Telecommunications Research Institute Camera rig for shooting multi-view images and videos and image and video processing method for use with same
ES2538012B1 (es) * 2014-10-23 2016-03-30 Digital Centre, S.L. Fotomatón multicámara de efecto tridimensional y procedimiento de funcionamiento del mismo
US10178325B2 (en) 2015-01-19 2019-01-08 Oy Vulcan Vision Corporation Method and system for managing video of camera setup having multiple cameras
GB2535706A (en) * 2015-02-24 2016-08-31 Nokia Technologies Oy Device with an adaptive camera array
US9848212B2 (en) * 2015-07-10 2017-12-19 Futurewei Technologies, Inc. Multi-view video streaming with fast and smooth view switch
CN109074629A (zh) 2015-10-29 2018-12-21 Oy沃肯视觉有限公司 使用联网照相机对关注的区域进行视频摄像
USD812671S1 (en) 2015-12-03 2018-03-13 Durst Sebring Revolution, Llc 3D imaging system
USD781948S1 (en) 2015-12-03 2017-03-21 Durst Sebring Revolution, Llc Photographic imaging system
USD798936S1 (en) 2015-12-03 2017-10-03 Durst Sebring Revolution, Llc Photo booth
USD782559S1 (en) 2015-12-03 2017-03-28 Durst Sebring Revolution, Llc Photo booth
USD822746S1 (en) 2016-02-05 2018-07-10 Durst Sebring Revolution, Llc Photo booth
DE102016223171A1 (de) 2016-11-23 2018-05-24 Robert Bosch Gmbh Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
WO2018209156A1 (en) * 2017-05-10 2018-11-15 Grabango Co. Series-configured camera array for efficient deployment
NO346392B1 (en) * 2020-08-05 2022-07-04 Muybridge As Multiple camera sensor system and method of providing a target image by a virtual camera

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4355328A (en) 1981-02-23 1982-10-19 The United States Of America As Represented By The Secretary Of The Navy 360 Degree closed circuit television system
US4463380A (en) 1981-09-25 1984-07-31 Vought Corporation Image processing system
US4847700A (en) 1987-07-16 1989-07-11 Actv, Inc. Interactive television system for providing full motion synched compatible audio/visual displays from transmitted television signals
US5023725A (en) 1989-10-23 1991-06-11 Mccutchen David Method and apparatus for dodecahedral imaging system
GB9001468D0 (en) 1990-01-23 1990-03-21 Sarnoff David Res Center Computing multiple motions within an image region
US5130794A (en) 1990-03-29 1992-07-14 Ritchey Kurtis J Panoramic display system
US5257349A (en) 1990-12-18 1993-10-26 David Sarnoff Research Center, Inc. Interactive data visualization with smart object
US5187571A (en) 1991-02-01 1993-02-16 Bell Communications Research, Inc. Television system for displaying multiple views of a remote location
US5185808A (en) 1991-06-06 1993-02-09 Eastman Kodak Company Method for merging images
GB9119964D0 (en) 1991-09-18 1991-10-30 Sarnoff David Res Center Pattern-key video insertion
US5259040A (en) 1991-10-04 1993-11-02 David Sarnoff Research Center, Inc. Method for determining sensor motion and scene structure and image processing system therefor
US5724091A (en) 1991-11-25 1998-03-03 Actv, Inc. Compressed digital data interactive program system
US5253168A (en) * 1991-12-06 1993-10-12 Berg Jacqueline L System for creative expression based on biofeedback
US5343871A (en) * 1992-03-13 1994-09-06 Mindscope Incorporated Method and apparatus for biofeedback
US5325449A (en) 1992-05-15 1994-06-28 David Sarnoff Research Center, Inc. Method for fusing images and apparatus therefor
US5495576A (en) * 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
JP3734829B2 (ja) 1993-06-04 2006-01-11 サーノフ・コーポレーション 電子画像安定化システム及び方法
US5497188A (en) * 1993-07-06 1996-03-05 Kaye; Perry Method for virtualizing an environment
GB2282505A (en) 1993-09-23 1995-04-05 Sharp Kk Three dimensional imaging apparatus
US5562572A (en) 1995-03-10 1996-10-08 Carmein; David E. E. Omni-directional treadmill
US5999641A (en) 1993-11-18 1999-12-07 The Duck Corporation System for manipulating digitized image objects in three dimensions
JPH07222202A (ja) 1994-02-02 1995-08-18 Rohm Co Ltd 立体ビジョンカメラ
US5537141A (en) 1994-04-15 1996-07-16 Actv, Inc. Distance learning system providing individual television participation, audio responses and memory for every student
US5508734A (en) 1994-07-27 1996-04-16 International Business Machines Corporation Method and apparatus for hemispheric imaging which emphasizes peripheral content
US5632007A (en) 1994-09-23 1997-05-20 Actv, Inc. Interactive system and method for offering expert based interactive programs
US5598208A (en) * 1994-09-26 1997-01-28 Sony Corporation Video viewing and recording system
US5600368A (en) 1994-11-09 1997-02-04 Microsoft Corporation Interactive television system and method for viewer control of multiple camera viewpoints in broadcast programming
US5649032A (en) 1994-11-14 1997-07-15 David Sarnoff Research Center, Inc. System for automatically aligning images to form a mosaic image
US5644694A (en) * 1994-12-14 1997-07-01 Cyberflix Inc. Apparatus and method for digital movie production
US5659323A (en) 1994-12-21 1997-08-19 Digital Air, Inc. System for producing time-independent virtual camera movement in motion pictures and other media
US5703961A (en) * 1994-12-29 1997-12-30 Worldscape L.L.C. Image transformation and synthesis methods
US5581629A (en) 1995-01-30 1996-12-03 David Sarnoff Research Center, Inc Method for estimating the location of an image target region from tracked multiple image landmark regions
US5850352A (en) 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US5729471A (en) 1995-03-31 1998-03-17 The Regents Of The University Of California Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene
US5745305A (en) 1995-04-28 1998-04-28 Lucent Technologies Inc. Panoramic viewing apparatus
GB2301216A (en) * 1995-05-25 1996-11-27 Philips Electronics Uk Ltd Display headset
US5963664A (en) 1995-06-22 1999-10-05 Sarnoff Corporation Method and system for image combination using a parallax-based technique
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
WO1997003416A1 (en) 1995-07-10 1997-01-30 Sarnoff Corporation Method and system for rendering and combining images
US5706416A (en) 1995-11-13 1998-01-06 Massachusetts Institute Of Technology Method and apparatus for relating and combining multiple images of the same scene or object(s)
EP0781049B1 (en) * 1995-12-19 2004-05-06 Canon Kabushiki Kaisha Apparatus and method for controlling a plurality of remote cameras
US6208379B1 (en) * 1996-02-20 2001-03-27 Canon Kabushiki Kaisha Camera display control and monitoring system
US6020931A (en) 1996-04-25 2000-02-01 George S. Sheng Video composition and position system and media signal communication system
US5708469A (en) * 1996-05-03 1998-01-13 International Business Machines Corporation Multiple view telepresence camera system using a wire cage which surroundss a plurality of movable cameras and identifies fields of view
US6084979A (en) 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
US6151009A (en) 1996-08-21 2000-11-21 Carnegie Mellon University Method and apparatus for merging real and synthetic images
US6384820B2 (en) * 1997-12-24 2002-05-07 Intel Corporation Method and apparatus for automated dynamics of three-dimensional graphics scenes for enhanced 3D visualization
US6522325B1 (en) * 1998-04-02 2003-02-18 Kewazinga Corp. Navigable telepresence method and system utilizing an array of cameras

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015119476A (ja) * 2013-12-19 2015-06-25 アクシス アーベー モニタ装置機構

Also Published As

Publication number Publication date
WO1999052288A1 (en) 1999-10-14
EP1068730A1 (en) 2001-01-17
AU3464699A (en) 1999-10-25
AU761950B2 (en) 2003-06-12
CN1298607A (zh) 2001-06-06
MXPA00009686A (es) 2004-09-10
US6535226B1 (en) 2003-03-18
US20030229735A1 (en) 2003-12-11
KR20010074470A (ko) 2001-08-04
EP1068730A4 (en) 2005-03-30
BR9909429A (pt) 2001-09-11
IL138808A0 (en) 2001-10-31
CA2326731A1 (en) 1999-10-14

Similar Documents

Publication Publication Date Title
JP2004502321A (ja) カメラのアレーを利用した操作可能な遠隔臨場方法およびシステム
US9055234B2 (en) Navigable telepresence method and system
US10582182B2 (en) Video capture and rendering system control using multiple virtual cameras
US9751015B2 (en) Augmented reality videogame broadcast programming
US20060114251A1 (en) Methods for simulating movement of a computer user through a remote environment
US11703942B2 (en) System and method for interactive 360 video playback based on user location
WO2021230073A1 (ja) 情報処理装置、情報処理方法、及び表示装置
WO2001028309A2 (en) Method and system for comparing multiple images utilizing a navigable array of cameras
CN105324995A (zh) 用于生成多投影图像的方法和***
JPH08279054A (ja) 映像生成/表示システム
KR20190031220A (ko) Vr 콘텐츠 제공 시스템 및 방법
JP5457668B2 (ja) 映像表示方法及び映像システム
WO1995019093A1 (en) Viewing imaged objects from selected points of view
JPH09311383A (ja) 映像表示システム
JPH1049134A (ja) 3次元ビデオキーシステム
JPH08279058A (ja) 映像生成/表示システム
JPH08279055A (ja) 映像生成/表示システム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040413

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20040713

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20040721

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20041207