JP2009094701A - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
JP2009094701A
JP2009094701A JP2007262116A JP2007262116A JP2009094701A JP 2009094701 A JP2009094701 A JP 2009094701A JP 2007262116 A JP2007262116 A JP 2007262116A JP 2007262116 A JP2007262116 A JP 2007262116A JP 2009094701 A JP2009094701 A JP 2009094701A
Authority
JP
Japan
Prior art keywords
information
video
processing
audio
video information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007262116A
Other languages
English (en)
Inventor
剛 ▲高▼澤
Go Takazawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2007262116A priority Critical patent/JP2009094701A/ja
Publication of JP2009094701A publication Critical patent/JP2009094701A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

【課題】通信ネットワークを介してセッションを行うに際し、映像に変化を与えて娯楽性を高める。
【解決手段】情報送信装置110は、マイクMICa〜MICcにより収音された演奏音を表す音声情報を送信するとともに、カメラCAMa〜CAMcにより撮影された映像を表す映像情報をこれに対応する位置情報と対応付けて送信する。情報処理装置120は、音声情報と、位置情報が対応付けられた映像情報とを受信し、これらを適宜に加工してスピーカSPa〜SPc及びスクリーンSCRa〜SCRcに供給する。情報処理装置120は、映像情報を位置情報に応じて、複数の演奏者の映像が違和感なく表示されるように加工する。
【選択図】図1

Description

本発明は、映像情報を加工する技術に関する。
通信ネットワークを介してセッションを行うための技術が知られている(例えば、特許文献1参照)。このような技術を用いれば、遠隔の地にいる演奏者同士でも気軽にセッションを行うことが可能となる。通信ネットワークを介してセッションを行う場合、演奏音等の音声に加えて演奏者の映像を再生すれば、より臨場感が高まり、セッションの娯楽性を高めることができる。
特許第3846344号公報
しかし、単に演奏者の映像を映し出すだけでは、映像の再生が単調に終始し、実際に演奏者が会してセッションを行う場合に比べて現実味や面白味に欠けるという問題点があった。
そこで、本発明は、通信ネットワークを介してセッションを行うに際し、映像に変化を与えて娯楽性を高めることを目的としている。
本発明に係る情報処理装置は、音声情報と、複数の映像情報と、各々が前記複数の映像情報のいずれかに対応付けられた複数の位置情報とを通信ネットワークを介して取得する取得手段と、前記取得手段により取得された複数の映像情報を、当該映像情報に対応付けられた前記位置情報に応じた態様で加工する映像加工手段と、前記映像加工手段により加工された複数の映像情報と前記取得手段により取得された音声情報とを出力する出力手段とを備えることを特徴とする。
本発明に係る情報処理装置において、前記映像加工手段は、前記映像情報が出力されることにより表示される映像の位置又は大きさを変更する加工を行う構成としてもよい。
また、前記映像加工手段は、前記複数の映像情報を合成する加工を行う構成としてもよい。
本発明に係る情報処理装置において、前記位置情報は、対応する前記映像情報が表す映像を撮影した撮影手段と被写体との距離を表す情報であり、前記映像加工手段は、前記映像情報が表す映像の大きさを前記位置情報が表す距離に応じて変更する加工を行う構成としてもよい。
また、前記位置情報は、対応する前記映像情報が表す映像を撮影した撮影手段のある撮影方向を基準とした撮影角度を表す情報であり、前記映像加工手段は、前記映像情報が表す映像の表示位置を当該映像情報に対応する前記位置情報が表す撮影角度に応じて変更する加工を行う構成としてもよい。
あるいは、前記位置情報は、対応する前記映像情報が表す映像を撮影した撮影手段の位置を表す情報であり、前記映像加工手段は、前記映像情報が表す映像の表示位置を前記複数の位置情報が表す位置に応じて変更する加工を行う構成としてもよい。
本発明に係る情報処理装置において、前記音声情報及び前記映像情報は、それぞれ、対象者の音声及び映像を表し、前記位置情報は、測位手段により計測された前記対象者の位置を表し、前記映像加工手段は、前記映像情報が表す映像の表示位置を前記複数の位置情報が表す位置に応じて変更する加工を行う構成としてもよい。
本発明に係る情報処理装置において、前記映像情報に対する加工の態様を指定する指定手段を備え、前記映像加工手段は、前記位置情報に応じた態様の加工と、前記指定手段により指定された態様の加工とを行う構成としてもよい。
本発明に係る情報処理装置は、前記音声情報に対応付けられる位置情報を取得する位置情報取得手段と、前記位置情報取得手段により取得された位置情報に応じた態様で前記音声情報を加工する音声加工手段とを備える構成としてもよい。
あるいは、本発明に係る情報処理装置は、前記映像加工手段により前記複数の映像情報に行われた加工の態様に応じて前記音声情報を加工する音声加工手段を備える構成としてもよい。
本発明に係る情報処理装置において、前記取得手段により取得された音声情報と映像情報とを同期させる同期手段を備え、前記取得手段は、前記音声情報及び映像情報のそれぞれについて、各々の再生タイミングを表す時間情報を対応付けて取得し、前記同期手段は、前記映像加工手段による加工の前又は後に、前記音声情報及び映像情報のそれぞれに対応付けられた前記時間情報に基づいて当該音声情報及び映像情報を同期させる構成としてもよい。
なお、本発明の実施の形態は、上述した情報処理装置に限らず、コンピュータにかかる情報処理装置の機能を実現させるためのプログラムや、かかるプログラムを記憶した記録媒体であってもよい。
本発明によれば、通信ネットワークを介してセッションを行うに際し、映像に変化を与えて娯楽性を高めることが可能となる。
[実施形態]
図1は、本発明の一実施形態であるネットワークセッションシステムの全体構成を概略的に示す図である。同図に示すように、ネットワークセッションシステム10は、第1セッション地点と第2セッション地点とをネットワーク130を介して接続した構成を有する。ネットワーク130は、第1セッション地点と第2セッション地点との間の通信を可能にする通信ネットワークであり、例えば、インターネットである。
本実施形態において、第1セッション地点には、3人の演奏者がいるものとする。また、第2セッション地点は、第1セッション地点において記録された音声や映像を再生する地点であり、ここには1人の演奏者がいるものとする。第1セッション地点の3人の演奏者は、それぞれ、ここではキーボード、ドラム又はギターのいずれかを演奏し、第2セッション地点の演奏者は、第1セッション地点の演奏に合わせて歌唱するヴォーカリストであるとする。
第1セッション地点には、複数のマイクMICa、MICb及びMICcと、複数のカメラCAMa、CAMb及びCAMcと、情報送信装置110とが設けられている。マイクMICa、MICb及びMICcは、それぞれ、キーボードの演奏者(以下「演奏者a」という。)、ドラムの演奏者(以下「演奏者b」という。)又はギターの演奏者(以下「演奏者c」という。)のいずれかに対応するマイクロホンであり、対応する演奏者の演奏音や歌唱音を収音する。カメラCAMa、CAMb及びCAMcは、それぞれ、演奏者a、b又はcのいずれかに対応するビデオカメラであり、対応する演奏者を撮影する。なお、カメラCAMa、CAMb及びCAMcは、被写体である演奏者までの距離を測定できるよう構成されている。被写体までの距離は、例えば、オートフォーカス機構を有するビデオカメラであればフォーカス時の測距により求めることができる。情報送信装置110は、マイクMICa、MICb及びMICcにより収音された演奏音を表す音声情報と、カメラCAMa、CAMb及びCAMcにより撮影された映像を表す映像情報とを取得し、適当なデータ処理を施して第2セッション地点へと送信する。なお、情報送信装置110は、自動で処理を行ってもよいが、演奏者以外の操作者が操作できるように構成されている。
第2セッション地点には、情報処理装置120と、複数のスクリーンSCRa、SCRb及びSCRcと、複数のスピーカSPa、SPb及びSPcと、マイクMICdとが設けられている。情報処理装置120は、情報送信装置110から送信された音声情報及び映像情報と、マイクMICdから供給された音声情報とを取得し、適当なデータ処理を施すことによりこれらを加工して出力する。なお、情報処理装置120も、自動で処理を行ってもよいが、演奏者以外の操作者が操作できるように構成されている。スクリーンSCRa、SCRb及びSCRcは、それぞれ、情報処理装置120から出力された映像情報を投影するためのスクリーンである。スクリーンSCRa、SCRb及びSCRcは、ここでは、液晶等の表示素子により構成されたスクリーンであるとするが、別途設けられる投影装置(プロジェクタ等)により投影された映像を表示する布や幕であってもよい。この場合には、投影装置が映像情報を取得するように構成すればよい。スピーカSPa、SPb及びSPcは、それぞれ、いわゆるマルチスピーカであり、情報処理装置120から出力された音声情報を音声として再生する。スピーカSPa、SPb及びSPcは、それぞれ、いわゆるアレイスピーカであると望ましい。ここにおいて、スピーカSPaは、他のスピーカSPb及びSPcから見て相対的に「左」、スピーカSPbは相対的に「中央」、スピーカSPcは相対的に「右」に、それぞれ位置している。マイクMICdは、ヴォーカリスト(以下「演奏者d」という。)に対応するマイクロホンであり、演奏者dの歌唱音声を収音する。なお、本実施形態においては、マイクMICdの位置は固定であり、あらかじめ決められた位置であるとする。
以上の構成のもと、本実施形態のネットワークセッションシステム10においては、情報送信装置110が音声情報及び映像情報を送信し、情報処理装置120が再生地点での再生に適した態様となるようにこれらを加工して出力する。
本実施形態の情報処理装置120は、情報の加工に際して2通りの態様をとり得る。一方は、取得した映像情報に対応する位置情報に基づいて映像情報を加工するものであり、他方は、取得した映像情報に対応する位置情報に基づいて映像情報及び音声情報を加工するものである。そこで、以下では、前者を第1実施例、後者を第2実施例として説明する。なお、第2実施例においては、第1実施例と重複する説明を適宜省略する。
(1)第1実施例
図2は、本実施例に係る情報送信装置110の構成を示すブロック図である。同図に示すように、情報送信装置110は、入力部111と、制御部112と、記憶部113と、操作部114と、通信部115とを備える。なお、情報送信装置110は、汎用のパーソナルコンピュータであってもよいし、図2の構成を備えた専用の装置であってもよい。
入力部111は、音声情報及び映像情報を入力するインタフェースである。入力部111は、マイクMICa、MICb及びMICc並びにカメラCAMa、CAMb及びCAMcと接続され、それぞれから音声情報又は映像情報を取得する。図2において、符号Aaは演奏者aに対応する音声情報を表し、符号Vaは演奏者aに対応する映像情報を表している。同様に、符号Ab、Ac、Vb及びVcは、それぞれ、添字に対応する演奏者の音声情報又は映像情報を表している。
また、入力部111は、映像情報Va、Vb及びVcとともに、各々の映像情報に対応付けられた位置情報Pa、Pb及びPcを取得する。位置情報としては、例えば、各カメラCAMa〜CAMcの相対的な位置関係を表す情報(以下「相対位置情報」という。)や、各カメラCAMa〜CAMcから対応する演奏者までの距離を表す情報(以下「距離情報」という。)を用いることができる。相対位置情報とは、図1に示す構成でいえば、カメラCAMaが相対的に「左」、カメラCAMbが相対的に「中央」、カメラCAMcが相対的に「右」であることを示す情報をいう。これらの位置情報は、映像情報に対応付けられて付加された形式でもよいし、映像情報に含まれる形式でもよい。
制御部112は、CPU(Central Processing Unit)等の演算装置やメモリを備え、記憶部113に記憶されたプログラムを実行することにより情報送信装置110の各部の動作を制御する。制御部112は、プログラムを実行することにより、音声情報や映像情報にデータ処理を実行する。制御部112が実行するデータ処理には、音声情報や映像情報を所定のフォーマットに変換するエンコード処理と、音声情報に位置情報及び時間情報を付加するとともに、映像情報に時間情報を付加する付加処理とが含まれる。
記憶部113は、ハードディスク等の書き換え可能な記憶媒体を備え、制御部112が実行するプログラムを記憶する。操作部114は、ボタンやスライダ(ツマミ)等の操作子を備え、操作者による操作を受け付ける。操作部114は、操作者による操作を受け付けると、これを表すデータを制御部112に供給する。通信部115は、ネットワーク130を介して通信を行うためのインタフェースであり、制御部112から供給された音声情報や映像情報を情報処理装置120に送信する。
図3は、本実施例に係る情報処理装置120の構成を示すブロック図である。同図に示すように、情報処理装置120は、通信部121と、制御部122と、記憶部123と、操作部124と、音声入力部125と、音声出力部126と、映像出力部127とを備える。なお、情報処理装置120は、汎用のパーソナルコンピュータであってもよいし、図3の構成を備えた専用の装置であってもよい。
通信部121は、通信部115と同様のインタフェースであり、情報送信装置110から送信された音声情報や映像情報を受信し、制御部122に供給する。制御部122は、演算装置やメモリを備え、記憶部123に記憶されたプログラムを実行することにより情報処理装置120の各部の動作を制御する。制御部122は、プログラムを実行することにより、音声情報や映像情報にデータ処理を実行する。制御部122が実行するデータ処理には、所定のフォーマットでエンコードされた音声情報や映像情報をデコードするデコード処理と、映像情報を位置情報に基づいて加工する加工処理と、複数の音声情報をミキシングするミキシング処理とが含まれる。なお、制御部122は、音声情報と映像情報のそれぞれに対する専用のDSP(Digital Signal Processor)などによってデータ処理を行う構成であってもよい。
記憶部123は、書き換え可能な記憶媒体を備え、制御部122が実行するプログラムを記憶する。操作部124は、操作者による操作を操作子により受け付け、これを表すデータを制御部122に供給する。音声入力部125は、マイクMICdと接続され、マイクMICdから音声情報を取得する。音声出力部126は、制御部122によりミックス処理が実行された音声情報を取得し、これをスピーカSPa、SPb及びSPcに出力する。映像出力部127は、制御部122により加工処理が実行された映像情報を取得し、これをスクリーンSCRa、SCRb及びSCRcに出力する。
情報送信装置110及び情報処理装置120の構成は、以上のとおりである。続いて、情報送信装置110及び情報処理装置120のそれぞれの動作を説明する。
図4は、本実施例における情報送信装置110の動作を示すフローチャートである。同図に示すように、情報送信装置110の制御部112は、まず、入力部111を介して演奏者a、b及びcに対応する音声情報と映像情報とを取得する(ステップS11)。次に、制御部112は、映像情報に位置情報を付加するか否かを判断する(ステップS12)。制御部112は、この判断を操作部114からのデータがあるか否かにより行う。すなわち、ここにおいて映像情報に位置情報を付加するか否かは、操作者の任意である。操作者は、映像情報に必要な位置情報が付加されていない場合や、映像情報に付加されている位置情報を変更する場合などに、必要に応じて、操作部114を操作することにより位置情報を付加することができる。よって、制御部112は、映像情報に付加すべき位置情報がある場合に、その位置情報を付加する(ステップS13)。
続いて、制御部112は、音声情報と映像情報のそれぞれに時間情報を付加する処理を実行する(ステップS14)。ここにおいて、時間情報とは、複数の音声情報及び映像情報を同期して再生できるようにするための情報をいう。時間情報は、例えば、音声情報及び映像情報の再生タイミングを示す情報であり、情報処理装置120は、この時間情報が示すタイミングで複数の音声情報及び映像情報を読み出すことによって、時間的なずれを生じさせることなくこれらを再生することができる。
音声情報及び映像情報に時間情報を付加したら、制御部112は、音声情報及び映像情報を所定のフォーマットで符号化するエンコード処理を実行し(ステップS15)、エンコードされた音声情報及び映像情報を通信部115に出力し、通信部115を介して情報処理装置120に送信する(ステップS16)。
図5は、本実施例における情報処理装置120の動作を示すフローチャートである。情報処理装置120は、情報送信装置110から以上のように音声情報及び映像情報が送信されると、同図に示す処理を実行する。まず、情報処理装置120の制御部122は、音声情報及び映像情報を受信すると、通信部121を介してこれらを取得する(ステップS21)。また、制御部122は、第1セッション地点の音声情報及び映像情報を取得しつつ、音声入力部125を介してマイクMICdからの音声情報、すなわち第2セッション地点の演奏者(演奏者d)の音声情報を取得する(ステップS22)。
次に、制御部122は、通信部121を介して取得した音声情報及び映像情報を同期させる処理を実行する(ステップS23)。制御部122は、音声情報及び映像情報に付加された時間情報を参照し、これらが時間的なずれを生じることなく再生されるように各音声情報及び映像情報の再生タイミングを調整する。
制御部122は、映像情報を同期させたら、これを加工する加工処理を実行する(ステップS24)。このとき、制御部122は、各々の映像情報に対応付けられた位置情報を参照し、映像情報を加工する。例えば、制御部122は、位置情報に含まれる距離情報に基づき、スクリーンSCRa〜SCRcに表示される演奏者がほぼ等しい大きさとなるように各映像情報を拡大又は縮小する加工を行う。
また、制御部122は、マイクMICdとスクリーンSCRa〜SCRcとの距離を表す情報を更に用いて、演奏者a〜dが一堂に会しているように見えるように映像情報の倍率を変更する加工を行ってもよい。この場合、マイクMICdとスクリーンSCRa〜SCRcとの距離を表す情報は、制御部122のメモリ等にあらかじめ記憶されていると望ましいが、操作者が入力してもよい。
制御部122は、音声情報を同期させたら、これにミキシング処理を実行する(ステップS25)。このとき、制御部122は、マイクMICa〜MICdのそれぞれから取得した音声情報を、スピーカSPa〜SPcにおいて適当なバランスで再生されるように分配する比率を決定し、ミキシングを行う。本実施例においては、マイクMICaからの音声情報は主にスピーカSPaから出力され、マイクMICbからの音声情報は主にスピーカSPbから出力される、といったように、第2セッション地点において、第1セッション地点における演奏者の相対的な位置関係と一致する態様で音声情報が再生される。なお、マイクMICdからの音声情報については、スピーカSPa〜SPcに配分する比率を特に問わない。
その後、制御部122は、ミキシングされた音声情報と加工された映像情報とを出力し、音声出力部126及び映像出力部127を介してスピーカSPa〜SPc及びスクリーンSCRa〜SCRcに供給する(ステップS26)。これにより、第2セッション地点においては、演奏者a〜dの演奏音や歌唱音がミキシングされて再生され、演奏者a〜cの加工された映像が演奏者dの背後に再生される。
本実施形態のネットワークセッションシステム10は、以上のように動作することによって、複数の音声情報及び映像情報の再生タイミングを同期させるとともに、加工した映像情報により表示される映像の大きさを適宜に変更することが可能となる。ゆえに、本実施形態のネットワークセッションシステム10によれば、遠隔の地で撮影された複数の映像を違和感なく再生し、あたかも全演奏者が実際に会しているような臨場感のあるリアルなセッションを行うことが可能となる。
なお、本実施形態においては、セッション地点が2箇所であるが、セッション地点が3箇所以上に分かれていてもよい。このような場合は、表示される複数の映像の大きさが等しくなるように複数のカメラの設置位置を調整するのが比較的困難であるため、本実施例による効果がより顕著となるといえる。
(2)第2実施例
図6は、本実施例に係る情報送信装置110の構成を示すブロック図である。本実施例において、情報送信装置110は、音声情報に位置情報を対応付ける点が第1実施例と異なっている。また、情報処理装置120は、音声情報に対応付けられた位置情報に基づいて音声情報を加工する点が第1実施例と異なっている。そこで、本実施例ではこれらの点を中心に説明する。
制御部112は、音声情報Aa、Ab及びAcに位置情報を付加する。制御部112が音声情報Aa、Ab及びAcに付加する位置情報は、それぞれ、同一の演奏者に係る映像情報に付加された位置情報である。すなわち、音声情報Aaには映像情報Vaと同一の位置情報Paが付加され、以下同様に、音声情報Abには位置情報Pb、音声情報Acには位置情報Pcが付加される。すなわち、制御部112は、映像情報に対応付けられた位置情報を特定し、特定した位置情報を音声情報に付加して対応付ける処理を行う。
図7は、本実施例における情報送信装置110の動作を示すフローチャートである。同図に示すように、本実施例における情報送信装置110の動作は、音声情報に位置情報を付加するステップ(ステップS1A)がステップS13とS14の間に追加される点を除けば、第1実施例における動作(図4参照)と同様である。ステップS1Aにおいて、制御部112は、上述した要領で音声情報に位置情報を付加する。なお、制御部112は、ステップS13において、ユーザの操作による位置情報が映像情報に付加された場合には、その位置情報も音声情報に付加する。その後、制御部112は、音声情報及び映像情報を出力し、情報処理装置120に送信する。
図8は、本実施例における情報処理装置120の動作を示すフローチャートである。同図に示すように、本実施例における情報処理装置120の動作は、音声情報を加工するステップ(ステップS2A)がステップS24とS25に追加される点を除けば、第1実施例における動作(図5参照)と同様である。ステップS2Aにおいて、制御部122は、ステップS24において映像情報に行われた加工の態様に応じて音声情報を加工する。制御部122は、例えば、ある映像情報に対して、その映像情報が表す映像を拡大する加工を行った場合には、当該映像情報と同一の位置情報が付加された音声情報が表す演奏音の音量を増加させ、その映像情報が表す映像を縮小する加工を行った場合には、当該映像情報と同一の位置情報が付加された音声情報が表す演奏音の音量を低減させる加工を行う。その後、制御部122は、同期及び加工が行われた音声情報をミキシングし、これを加工した映像情報とともに出力する。
なお、本実施例において、音声情報は、付加された位置情報が映像情報に付加されたものと同一のものであるため、映像情報に行われた加工の態様と同様の態様で加工される。しかしながら、音声情報は、映像情報に行われた加工の態様によるのではなく、付加された位置情報に基づいて加工されてもよい。
本実施形態のネットワークセッションシステム10は、以上のように動作することによって、再生される映像の加工の態様に応じて演奏音を加工することが可能となる。ゆえに、本実施形態のネットワークセッションシステム10は、本実施例に従って動作することにより、第1実施例の場合に比べ、よりリアリティのあるセッションを行うことが可能となる。
[変形例]
本発明は、上述した実施形態に限らず、その他の形態でも実施し得る。本発明に対しては、例えば、以下のような変形を適用することが可能である。なお、以下に示す変形例は、各々を適宜に組み合わせてもよい。
(1)変形例1
本発明に係る情報処理装置は、音声情報や映像情報の加工を操作者の指定に基づいて行ってもよい。例えば、操作者は、上述した操作部124を介して加工の態様を指定し、制御部122は、操作者により指定された態様の加工を行うようにすることができる。このとき、操作者は、演奏の内容に応じて音声情報や映像情報の加工の態様を決定する。例えば、ギターの演奏者cが楽曲のあるパートをソロで演奏する場合、操作者は、演奏者cに対応する映像を右側のスクリーンSCRcではなく中央のスクリーンSCRbに表示させるよう指定したり、演奏者cに対応する音声を他の音声よりも音量が大きくなるよう指定したりしてもよい。また、この場合、操作者は、演奏者cに対応する映像が拡大されるよう指定を行ってもよい。すなわち、操作者は、映像情報については、映像の拡大又は縮小や表示されるスクリーンの切り替えなどを指定することが可能であり、音声情報については、演奏音の音量や再生されるスピーカの切り替えなどを指定することが可能である。例えば、制御部122は、表示されるスクリーンを入れ替えるよう指定された場合には、相対位置情報によらずに、操作者の指定のみによって映像情報の出力先を決定してもよい。
なお、本発明に係る情報処理装置は、音声情報や映像情報の加工に際し、位置情報に応じた態様の加工と操作者の指定に応じた態様の加工の双方を行ってもよいが、位置情報に応じた態様の加工に代えて操作者の指定に応じた態様の加工を行うようにしてもよい。
また、上述した実施形態においては、音声情報や映像情報の加工が同期処理(ステップS23)の後に行われたが、本発明に係る情報処理装置は、音声情報や映像情報の加工を同期処理の前に行ってもよい。
(2)変形例2
本発明において、位置情報は、上述した相対位置情報や距離情報に限らない。例えば、上述したカメラCAMa〜CAMcの撮影方向が天地方向又は左右方向に回転可能であり、その回転角が計測可能である場合、位置情報は、その回転角を表す情報であってもよい。ここにおいて、回転角を表す情報とは、ある撮影方向を基準とし、演奏者を撮影している方向とその基準となる方向とのずれ(角度)を表す情報である。
かかる情報を位置情報として用いた場合、本発明に係る情報処理装置は、この位置情報に基づいて映像の位置や演奏音の定位点を制御することができ、これらを変更するように映像情報や音声情報を加工することが可能である。例えば、上述した実施形態において、ギターの演奏者cがドラムの演奏者bに近づくように(すなわち、右から左に)移動し、カメラCAMcが演奏者cを追うように回転しながら撮影を行った場合、位置情報は、時間の経過に従って回転角が変化する情報となる。制御部122は、このような位置情報を取得した場合、スクリーンSCRcに表示される演奏者cの映像が右から左に移動するような加工を映像情報に対して行う。また、このとき、制御部122は、演奏者cの演奏音が映像に伴って移動しているように知覚されるような加工を音声情報に対して行ってもよい。
また、位置情報は、測位手段により計測された演奏者の位置を表す情報であってもよい。この場合において、測位手段は、例えば、いわゆるICタグ等の情報(電波等)を発信する発信手段と、この情報を受信する受信手段とにより構成することができる。この構成において、演奏者は、発信手段を自身と共に移動するように携帯し、受信手段は、発信手段から発信された情報を受信することにより、演奏者の位置を特定することができる。この場合、本発明に係る情報送信装置は、この発信手段が特定した位置を位置情報として取得し、これを映像情報と対応付けて送信する。
なお、かかる測位手段を実現する技術としては、例えば、UWB(Ultra Wide Band)などが挙げられる。
(3)変形例3
本発明に係る情報処理装置は、複数の映像情報を合成する加工を行ってもよい。例えば、スクリーンに表示される複数の映像の隣り合う辺の部分を合成し、複数の映像が1つの映像になるように映像情報を加工してもよい。このようにすれば、1つのスクリーンで映像を再生することが可能となる。
なお、このような加工を行う場合、第1セッション地点においては、演奏者をいわゆるブルーバック(ブルースクリーン)を用いて撮影するのが望ましい。このようにすれば、映像情報から演奏者の映像を抽出することが容易となるからである。この場合、演奏者の映像情報の他に演奏者の背景を構成する映像情報を別途取得し、これらを合成するようにしてもよい。なお、背景部分に相当する映像情報は、情報処理装置がこれを記憶していてもよいし、通信ネットワークを介して外部装置から取得してもよい。
この変形例は、上述した変形例2と組み合わせて適用されると、より好適である。
(4)変形例4
第2セッション地点には、光の照射方向が映像に応じて変化する照明装置が設けられてもよい。この照明装置は、いわゆるスポットライトのように、局所的な照明であると望ましい。このようにすれば、映像上の演奏者があたかもその場にいるような演出効果を行うことができる。
照明装置の照射方向を制御するためには、映像情報に対応付けられた位置情報を用いればよい。例えば、位置情報が回転角を表す情報である場合、照明装置は、照射方向をこの回転角に応じて変化させることにより光の照射方向を映像に応じて変化させることが可能となる。
なお、この照明装置は、操作者により点灯及び消灯を制御される構成でもよい。
(5)変形例5
第2セッション地点には、演奏者dが映像を確認するための表示装置が設けられてもよい。この表示装置は、いわゆるカラオケ装置の表示部のように、演奏者dが歌唱する楽曲の歌詞を表示してもよい。また、この表示装置は、スクリーンに表示される映像と同様の映像を表示してもよい。
(6)変形例6
本発明において、取得する音声情報及び映像情報の数は、上述した実施形態に限定されない。上述した実施形態においては、第1セッション地点から3人の演奏者に対応する音声情報及び映像情報が送信されたが、演奏者をより多数としてもよいし、2人としてもよい。また、第1実施例においては、3人の演奏音を3つのマイクで収音せずに1つのマイクで収音してもよい。
また、第2セッション地点の演奏者の人数も、変更可能である。例えば、第2セッション地点に複数の演奏者がおり、それぞれの演奏音を複数のマイクで収音してもよい。あるいは、第2セッション地点には演奏者がおらず、第1セッション地点の演奏音と映像を再生するのみであってもよい。
また、第2セッション地点における出力先(スクリーン及びスピーカ)の数も、変更可能である。
さらに、セッション地点は、3箇所以上あってもよい。本発明に係る情報処理装置は、このような場合であっても、時間情報を参照することによって複数の音声情報及び映像情報を同期させることが可能である。
(7)変形例7
本発明におけるセッションは、歌唱や演奏を目的としたものに限らず、複数の対象者が集団で行う種々の活動を含み得る。例えば、通信ネットワークを介した会議において本発明を適用してもよいし、学校での授業等に本発明を適用してもよい。すなわち、本発明において収音や撮影の対象となる者は、演奏者に限らない。
(8)変形例8
本発明は、コンピュータに上述した制御部122の機能を実現させるためのプログラムとしても提供され得る。かかるプログラムは、これを記憶させた光ディスク等の記録媒体としても提供可能であり、また、インターネット等の通信ネットワークを介して所定のサーバ装置からコンピュータにダウンロードされ、これをインストールして利用可能にするなどの形態でも提供され得る。
本発明のネットワークセッションシステムの構成を示す図である。 情報送信装置の構成を示すブロック図である。 情報処理装置の構成を示すブロック図である。 情報送信装置の動作を示すフローチャートである。 情報処理装置の動作を示すフローチャートである。 情報送信装置の構成を示すブロック図である。 情報送信装置の動作を示すフローチャートである。 情報処理装置の動作を示すフローチャートである。
符号の説明
10…ネットワークセッションシステム、110…情報送信装置、111…入力部、112…制御部、113…記憶部、114…操作部、115…通信部、120…情報処理装置、121…通信部、122…制御部、123…記憶部、124…操作部、125…音声入力部、126…音声出力部、127…映像出力部、130…ネットワーク

Claims (12)

  1. 音声情報と、複数の映像情報と、各々が前記複数の映像情報のいずれかに対応付けられた複数の位置情報とを通信ネットワークを介して取得する取得手段と、
    前記取得手段により取得された複数の映像情報を、当該映像情報に対応付けられた前記位置情報に応じた態様で加工する映像加工手段と、
    前記映像加工手段により加工された複数の映像情報と前記取得手段により取得された音声情報とを出力する出力手段と
    を備えることを特徴とする情報処理装置。
  2. 前記映像加工手段は、前記映像情報が出力されることにより表示される映像の位置又は大きさを変更する加工を行う
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記映像加工手段は、前記複数の映像情報を合成する加工を行う
    ことを特徴とする請求項1に記載の情報処理装置。
  4. 前記位置情報は、対応する前記映像情報が表す映像を撮影した撮影手段と被写体との距離を表す情報であり、
    前記映像加工手段は、前記映像情報が表す映像の大きさを前記位置情報が表す距離に応じて変更する加工を行う
    ことを特徴とする請求項1に記載の情報処理装置。
  5. 前記位置情報は、対応する前記映像情報が表す映像を撮影した撮影手段のある撮影方向を基準とした撮影角度を表す情報であり、
    前記映像加工手段は、前記映像情報が表す映像の表示位置を当該映像情報に対応する前記位置情報が表す撮影角度に応じて変更する加工を行う
    ことを特徴とする請求項1に記載の情報処理装置。
  6. 前記位置情報は、対応する前記映像情報が表す映像を撮影した撮影手段の位置を表す情報であり、
    前記映像加工手段は、前記映像情報が表す映像の表示位置を前記複数の位置情報が表す位置に応じて変更する加工を行う
    ことを特徴とする請求項1に記載の情報処理装置。
  7. 前記音声情報及び前記映像情報は、それぞれ、対象者の音声及び映像を表し、
    前記位置情報は、測位手段により計測された前記対象者の位置を表し、
    前記映像加工手段は、前記映像情報が表す映像の表示位置を前記複数の位置情報が表す位置に応じて変更する加工を行う
    ことを特徴とする請求項1に記載の情報処理装置。
  8. 前記映像情報に対する加工の態様を指定する指定手段を備え、
    前記映像加工手段は、前記位置情報に応じた態様の加工と、前記指定手段により指定された態様の加工とを行う
    ことを特徴とする請求項1に記載の情報処理装置。
  9. 前記音声情報に対応付けられる位置情報を取得する位置情報取得手段と、
    前記位置情報取得手段により取得された位置情報に応じた態様で前記音声情報を加工する音声加工手段と
    を備えることを特徴とする請求項1に記載の情報処理装置。
  10. 前記映像加工手段により前記複数の映像情報に行われた加工の態様に応じて前記音声情報を加工する音声加工手段を備えることを特徴とする請求項1に記載の情報処理装置。
  11. 前記取得手段により取得された音声情報と映像情報とを同期させる同期手段を備え、
    前記取得手段は、前記音声情報及び映像情報のそれぞれについて、各々の再生タイミングを表す時間情報を対応付けて取得し、
    前記同期手段は、前記映像加工手段による加工の前又は後に、前記音声情報及び映像情報のそれぞれに対応付けられた前記時間情報に基づいて当該音声情報及び映像情報を同期させる
    ことを特徴とする請求項1に記載の情報処理装置。
  12. コンピュータを、
    音声情報と、複数の映像情報と、各々が前記複数の映像情報のいずれかに対応付けられた複数の位置情報とを通信ネットワークを介して取得する取得手段と、
    前記取得手段により取得された複数の映像情報を、当該映像情報に対応付けられた前記位置情報に応じた態様で加工する映像加工手段と、
    前記映像加工手段により加工された複数の映像情報と前記取得手段により取得された音声情報とを出力する出力手段
    として機能させるためのプログラム。
JP2007262116A 2007-10-05 2007-10-05 情報処理装置及びプログラム Pending JP2009094701A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007262116A JP2009094701A (ja) 2007-10-05 2007-10-05 情報処理装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007262116A JP2009094701A (ja) 2007-10-05 2007-10-05 情報処理装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2009094701A true JP2009094701A (ja) 2009-04-30

Family

ID=40666237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007262116A Pending JP2009094701A (ja) 2007-10-05 2007-10-05 情報処理装置及びプログラム

Country Status (1)

Country Link
JP (1) JP2009094701A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015025934A (ja) * 2013-07-26 2015-02-05 ブラザー工業株式会社 楽曲演奏装置及び楽曲演奏プログラム
WO2022196073A1 (ja) * 2021-03-18 2022-09-22 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07193798A (ja) * 1993-12-27 1995-07-28 Hitachi Ltd 映像音響通信装置
JP2000165831A (ja) * 1998-11-30 2000-06-16 Nec Corp 多地点テレビ会議システム
JP2001184044A (ja) * 1999-12-24 2001-07-06 Hitachi Ltd 画像合成装置
JP2005117285A (ja) * 2003-10-07 2005-04-28 Hitachi Ltd 情報入力装置、通信端末及び通信方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07193798A (ja) * 1993-12-27 1995-07-28 Hitachi Ltd 映像音響通信装置
JP2000165831A (ja) * 1998-11-30 2000-06-16 Nec Corp 多地点テレビ会議システム
JP2001184044A (ja) * 1999-12-24 2001-07-06 Hitachi Ltd 画像合成装置
JP2005117285A (ja) * 2003-10-07 2005-04-28 Hitachi Ltd 情報入力装置、通信端末及び通信方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015025934A (ja) * 2013-07-26 2015-02-05 ブラザー工業株式会社 楽曲演奏装置及び楽曲演奏プログラム
WO2022196073A1 (ja) * 2021-03-18 2022-09-22 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Similar Documents

Publication Publication Date Title
JP5772111B2 (ja) 表示制御装置
JP2010112981A (ja) 遠隔実演再生方法、装置
JP5349463B2 (ja) パノラマ式音像の生成及び再生方法並びにパノラマ式音像の再生装置
CN108766408A (zh) 一种电子乐器合奏***和方法
WO2015151766A1 (ja) 投影撮影システム、カラオケ装置及びシミュレーション装置
JP5748078B2 (ja) 楽曲演奏装置及び楽曲演奏プログラム
JP3956179B2 (ja) ビデオ画像の製作方法及び装置
KR101414217B1 (ko) 실시간 영상합성 장치 및 그 방법
JP4539639B2 (ja) 歌唱・演奏用装置及び歌唱・演奏用システム
JP2005026739A (ja) 映像コンテンツ制作装置およびプログラム
JP2017005371A (ja) 共演映像演出装置および共演映像演出システム
JPH09247532A (ja) 画像合成方法および装置
JP2009094701A (ja) 情報処理装置及びプログラム
JP5256682B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2014186177A (ja) 再生装置
JP5109496B2 (ja) データ配信装置、データ配信方法およびプログラム
JP6227456B2 (ja) 楽曲演奏装置及びプログラム
KR101405091B1 (ko) 개인영상 제작시스템
JP6110731B2 (ja) ジェスチャーによるコマンド入力識別システム
JP5780258B2 (ja) 携帯端末装置、携帯端末用プログラム、サーバ、及び画像閲覧システム
JP5803956B2 (ja) カラオケシステム及びカラオケ装置
JP2006325161A (ja) 映像システム
JP6220576B2 (ja) 複数人による通信デュエットに特徴を有する通信カラオケシステム
KR19980087624A (ko) 노래방 연주기기
JPH07146687A (ja) カラオケ演出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121009

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130326