JP6588016B2 - サーバ装置、およびサーバ装置の情報処理方法、並びにプログラム - Google Patents

サーバ装置、およびサーバ装置の情報処理方法、並びにプログラム Download PDF

Info

Publication number
JP6588016B2
JP6588016B2 JP2016534368A JP2016534368A JP6588016B2 JP 6588016 B2 JP6588016 B2 JP 6588016B2 JP 2016534368 A JP2016534368 A JP 2016534368A JP 2016534368 A JP2016534368 A JP 2016534368A JP 6588016 B2 JP6588016 B2 JP 6588016B2
Authority
JP
Japan
Prior art keywords
unit
content
reproduction
playback device
adjustment information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016534368A
Other languages
English (en)
Other versions
JPWO2016009863A1 (ja
Inventor
竜二 徳永
竜二 徳永
弘行 福地
弘行 福地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of JPWO2016009863A1 publication Critical patent/JPWO2016009863A1/ja
Application granted granted Critical
Publication of JP6588016B2 publication Critical patent/JP6588016B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/173Transcoding, i.e. converting between two coded representations avoiding cascaded coding-decoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/611Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for multicast or broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/762Media network packet handling at the source 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4852End-user interface for client configuration for modifying audio parameters, e.g. switching between mono and stereo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • H04N21/2335Processing of audio elementary streams involving reformatting operations of audio signals, e.g. by converting from one coding standard to another

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本技術は、サーバ装置、およびサーバ装置の情報処理方法、並びにプログラムに関し、特に、サーバより配信されるコンテンツの再生にあたって再生装置に特別な構成を付加すること無く、再生装置の性能に最適な状態のコンテンツに調整し、再生装置で再生できるようにしたサーバ装置、およびサーバ装置の情報処理方法、並びにプログラムに関する。
スマートフォンに代表される携帯端末やテレビジョン受像機などを利用して、サーバからストリーム配信されるコンテンツを視聴するといったサービスが一般に普及している(例えば、特許文献1参照)。
このとき、例えば、携帯端末において、視聴していたコンテンツが気に入ったので、住居などに備え付けられたテレビジョン受像機やオーディオシステムといった高品位の再生装置で視聴したいと思うようなことがある。このような場合、ユーザは、それまで携帯端末で視聴していたコンテンツをテレビジョン受像機やオーディオシステムなどの高品位な再生装置を利用して視聴することになる。
このような場合、ユーザは、テレビジョン受像機やオーディオシステムといった高品位の再生装置を利用して視聴することにより、より迫力のある高品質の画像や音声で視聴できることを期待する。
再公表特許(国際公開第2003/098960、特願2004−506308)
しかしながら、コンテンツのデータの状態と、再生装置の性能との組み合わせにより、必ずしも高品質の画像や音声を出力できないことがあった。
そこで、従来においては、再生装置側で画像改善処理や音質改善処理を施すためのDSP(Digital Signal Processor)を備えて、DSPで画質や音質を改善させることにより、配信されたコンテンツを高品質な画像や音声として出力するようにしていた。
しかしながら、この場合、再生装置に高価なDSPを設けることになるため、再生装置そのものがコストアップしてしまうことがあった。
本技術は、再生装置に特別な構成を付加すること無く、コンテンツを再生装置の性能に適した音声や画像に改善し、改善されたコンテンツを視聴できるようにするものである。
本技術の一側面のサーバ装置は、コンテンツを再生装置に配信するサーバ装置において、前記再生装置の再生機能に対応するように、前記コンテンツのコンテンツデータを調整する調整部と、前記再生装置より出力される音声を解析する解析部と、前記解析部の解析結果に基づいた、前記再生装置毎の再生機能に対応するように、前記コンテンツデータの調整に必要な調整情報を、前記再生装置を識別する情報に対応付けて記憶する調整情報記憶部とを含み、前記解析部は、前記再生装置より出力される音声の周波数特性および位相特性を解析し、前記調整情報記憶部は、前記解析部の解析結果に基づいて、前記再生装置の再生機能の周波数特性および位相特性に対応するように、前記コンテンツデータを調整するのに必要な調整情報を記憶し、前記調整部は、前記調整情報に基づいて、前記再生装置の再生機能の周波数特性および位相特性に対応するように、前記コンテンツデータを調整する
前記解析部には、前記再生装置より出力される音声に基づいて、前記再生装置のバーチャライザの有無を解析させ、前記調整情報記憶部には、前記解析部の解析結果に基づいて、前記再生装置の再生機能にバーチャライザが設けられていない場合、前記コンテンツデータにバーチャライザによる調整が必要であることを示す情報を調整情報として記憶し、前記調整部には、前記調整情報に基づいて、前記再生装置の再生機能に対応するように、前記コンテンツデータにバーチャライザによる処理を施して調整させるようにすることができる。
前記解析部には、前記再生装置より出力される音声に基づいて、前記再生装置の符号化形式を解析させ、前記調整情報記憶部には、前記解析部の解析結果に基づいた、前記再生装置の再生機能に対応する符号化形式を示す情報を調整情報として記憶させ、前記調整部には、前記調整情報に基づいて、前記再生装置の再生機能に対応する符号化形式となるように、前記コンテンツデータに処理を施して調整させるようにすることができる。
前記解析部には、前記再生装置より出力される音声に基づいて、前記再生装置のチャンネル数を解析させ、前記調整情報記憶部には、前記解析部の解析結果に基づいた、前記再生装置の再生機能に対応するチャンネル数を示す情報を調整情報として記憶させ、前記調整部には、前記調整情報に基づいた、前記再生装置の再生機能に対応するチャンネル数となるように、前記コンテンツデータに処理を施して調整させるようにすることができる。
前記解析部には、前記再生装置より出力される音声に基づいて、前記再生装置のサンプリング周波数を解析させ、前記調整情報記憶部には、前記解析部の解析結果に基づいて、前記再生装置の再生機能に対応するサンプリング周波数を示す情報を調整情報として記憶させ、前記調整部には、前記調整情報に基づいた、前記再生装置の再生機能に対応するサンプリング周波数となるように、前記コンテンツデータにサンプリングレートの変換処理を施して調整させる。
前記再生装置には、再生するコンテンツの音質を調整する音質調整部を含ませるようにすることができ、前記サーバ装置には、前記音質調整部の動作を停止させるコマンドを出力するコマンド出力部を含ませるようにすることができ、前記解析部には、前記コマンド出力部により、前記音質調整部による動作中の状態と停止中の状態における両方の前記再生装置より出力される音声を解析させ、前記調整情報記憶部には、前記音質調整部による動作中の状態および停止中の状態のそれぞれについて、前記解析部の解析結果に基づいた、前記再生装置毎の再生機能に対応するように、前記コンテンツデータの調整に必要な調整情報を、前記再生装置を識別する情報に対応付けて記憶させ、前記調整部には、前記音質調整部による動作中の状態および停止中の状態のそれぞれについての前記調整情報に基づいた、前記再生装置の再生機能に対応するように調整させるようにすることができる。
前記調整部によりコンテンツデータが調整されたコンテンツのタイムスタンプを、前記調整部により前記コンテンツデータが調整される際に発生する遅延を加味したタイムスタンプに振り直す遅延処理部をさらに含ませるようにすることができる。
前記コンテンツは、放送波により配信されるコンテンツを含むようにしてもよく、前記コンテンツが放送波により前記再生装置に配信され、配信された前記コンテンツが前記再生装置より前記サーバ装置に供給され、供給された前記コンテンツが、前記調整部により前記再生装置の再生機能に対応するように調整され、調整されたコンテンツが前記サーバ装置より前記再生装置に送信される場合、前記遅延処理部には、前記調整部によりコンテンツデータが調整されたコンテンツのタイムスタンプを、前記調整部により前記コンテンツデータが調整される際に発生する遅延を加味したタイムスタンプ振り直すようにさせてもよい
前記サーバ装置には、前記再生装置より出力される音声を集音する携帯端末、および前記再生装置と共に配信システムを構成し、前記解析部には、前記携帯端末により集音された、前記再生装置より出力される音声を解析させるようにしてもよい。
前記サーバ装置には、ネットワークを介して接続された複数のサーバ装置より構成されるクラウドサーバ装置を含ませるようにしてもよい。
本技術の一側面のサーバ装置の情報処理方法は、コンテンツを再生装置に配信するサーバ装置の情報処理方法であって、前記再生装置の再生機能に対応するように、前記コンテンツのコンテンツデータを調整するステップと、前記再生装置より出力される音声を解析するステップと、解析結果に基づいた、前記再生装置毎の再生機能に対応するように、前記コンテンツデータの調整に必要な調整情報を、前記再生装置を識別する情報に対応付けて記憶するステップを含み、前記音声を解析するステップでは、前記再生装置より出力される音声の周波数特性および位相特性を解析し、前記記憶するステップでは、解析結果に基づいて、前記再生装置の再生機能の周波数特性および位相特性に対応するように、前記コンテンツデータを調整するのに必要な調整情報を記憶し、前記調整するステップでは、前記調整情報に基づいて、前記再生装置の再生機能の周波数特性および位相特性に対応するように、前記コンテンツデータを調整する。
本技術の一側面のプログラムは、コンテンツを再生装置に配信するサーバ装置を制御するコンピュータであって、前記再生装置の再生機能に対応するように、前記コンテンツのコンテンツデータを調整する調整部と、前記再生装置より出力される音声を解析する解析部と、前記解析部の解析結果に基づいた、前記再生装置毎の再生機能に対応するように、前記コンテンツデータの調整に必要な調整情報を、前記再生装置を識別する情報に対応付けて記憶する調整情報記憶部として機能するように実行させ、前記解析部は、前記再生装置より出力される音声の周波数特性および位相特性を解析し、前記調整情報記憶部は、前記解析部の解析結果に基づいて、前記再生装置の再生機能の周波数特性および位相特性に対応するように、前記コンテンツデータを調整するのに必要な調整情報を記憶し、前記調整部は、前記調整情報に基づいて、前記再生装置の再生機能の周波数特性および位相特性に対応するように、前記コンテンツデータを調整する。
本技術の一側面においては、コンテンツを再生装置に配信するにあたって、前記再生装置の再生機能に対応するように、前記コンテンツのコンテンツデータが調整され、前記再生装置より出力される音声が解析され、前記解析部の解析結果に基づいた、前記再生装置毎の再生機能に対応するように、前記コンテンツデータの調整に必要な調整情報が、前記再生装置を識別する情報に対応付けて記憶され、前記再生装置より出力される音声の周波数特性および位相特性が解析され、解析結果に基づいて、前記再生装置の再生機能の周波数特性および位相特性に対応するように、前記コンテンツデータを調整するのに必要な調整情報が記憶され、前記調整情報に基づいて、前記再生装置の再生機能の周波数特性および位相特性に対応するように、前記コンテンツデータが調整される。
本技術の一側面のサーバ装置は、独立した装置であっても良いし、サーバ装置として機能するブロックであっても良い。
本技術の一側面によれば、再生装置に特別な構成を付加すること無く、再生装置の持つ性能に対して最適化されたコンテンツを配信することが可能となる。
一般的な配信システムの一実施の形態の構成例を示す図である。 本技術を適用したコンテンツの配信システムの一実施の形態の構成例を示す図である。 図2の配信システムによる音質機能測定処理を説明するフローチャートである。 図2の配信システムによるコンテンツ出力処理を説明するフローチャートである。 第1の変形例を説明する図である。 第2の変形例を説明する図である。 第3の変形例を説明する図である。 汎用のパーソナルコンピュータの構成例を説明する図である。
<一般的な配信システムの構成例>
図1は、一般的なコンテンツの配信システムの構成例を示している。
図1の配信システムは、携帯端末11、クラウドサーバ装置12、オーディオシステム13、およびテレビジョン受像機14−1,14−2を備えている。尚、テレビジョン受像機14−1,14−2を特に区別する必要が無い場合、単に、テレビジョン受像機14を称するものとし、その他の構成についても、同様に称するものとする。
クラウドサーバ装置12は、複数のサーバ(コンピュータ)がネットワークを介して有機的に構成され、あたかも1台のサーバとして機能するものであり、コンテンツを携帯端末11、オーディオシステム13、およびテレビジョン受像機14−1,14−2からの要求に応じて配信するものである。
携帯端末11は、例えば、いわゆるスマートフォンでありクラウドサーバ装置12に対してコンテンツの配信を要求し、この要求に応じて配信されるコンテンツを受信して画像および音声として再生する。
オーディオシステム13は、ネットワークを介してクラウドサーバ装置12に対してコンテンツの配信を要求し、クラウドサーバ装置12より配信されるコンテンツを受信して、音声を再生する。
テレビジョン受像機14−1,14−2は、ネットワークを介して、クラウドサーバ装置12に対してコンテンツの配信を要求し、クラウドサーバ装置12より配信されるコンテンツを受信して、画像および音声として再生する。
これまでの構成においては、例えば、携帯端末11でコンテンツを視聴していたユーザが、視聴により気に入ったコンテンツを迫力のある画像や音声で楽しむため、オーディオシステム13やテレビジョン受像機14からクラウドサーバ装置12に対してコンテンツを要求して、要求に応じて配信されるコンテンツを視聴するものであった。
しかしながら、この場合、オーディオシステム13やテレビジョン受像機14が、クラウドサーバ装置12より配信されるコンテンツの画像や音声を出力しても、必ずしもコンテンツの画像および音声のデータが、オーディオシステム13やテレビジョン受像機14のHW(Hard Ware)の性能に最適化されていないことがあり、十分に性能を発揮させることができず、出力される画像および音声を高品位なものとさせることができない恐れがある。
そこで、オーディオシステム13やテレビジョン受像機14に、DSP(Digital Signal Processor)を設けるようにして、独自に最適化を図って、より迫力のある画像や音声に向上させることが考えられる。
しかしながら、この場合、DSPの設置に係るコストが増大してしまう恐れがあった。
<本技術の配信システムの構成例>
次に、図2を参照して、本技術の一側面のコンテンツの配信システムについて説明する。
図2の配信システムは、サーバ装置31、ネットワーク32、テレビジョン受像機33、および携帯端末34より構成されている。この他にも、コンテンツのうち、音声のみを再生するオーディオシステムが含まれるようにしてもよい。
サーバ装置31は、ネットワーク32と共にクラウドシステムにより構成されるようにしてもよいものである。従って、図2においては、1台のサーバ装置31により構成されているが、ネットワーク32を含めて複数のコンピュータなどからなるクラウドサーバ装置により実現されるようにしても良い。
より詳細には、サーバ装置31は、制御部51、通信部52、音声データ取得部53、対応機能判定部54、再生装置別データベース55、性能測定部56、補正パラメータ算出部57、音声調整部58、コンテンツ記憶部59、コマンド送信部60、および測定用音源データ記憶部61を備えている。
制御部51は、CPU(Central Processing Unit)、RAM(Random Access Memory)、およびROM(Read Only Memory)を有するマイクロコンピュータなどからなり、サーバ装置31の動作の全体を制御している。
通信部52は、イーサネット(登録商標)ボードなどから構成されており、ネットワーク32を介してテレビジョン受像機33および携帯端末34などと各種のデータを授受する。
音声データ取得部53は、通信部52を介して、携帯端末34より送信されてくる、携帯端末34により集音された、テレビジョン受像機33により発生された音声からなる音声データを取得して、対応機能判定部54、および性能測定部56に出力する。
対応機能判定部54は、音声データを解析して、テレビジョン受像機33のコーデック、サンプリング周波数、チャンネル数、およびバーチャライズの有無といった再生装置としての対応機能を判定し、再生装置であるテレビジョン受像機33を識別する情報に対応付けて再生装置別データベース55に登録する。
性能測定部56は、音声データを解析して、周波数特性および位相特性を判定し、判定結果を補正パラメータ算出部57に供給する。
補正パラメータ算出部57は、周波数特性、および位相特性に基づいて、それぞれの補正パラメータを算出し、算出した補正パラメータを再生装置であるテレビジョン受像機33を識別する情報に対応付けて、調整情報として再生装置別データベース55に登録する。
再生装置別データベース55は、再生装置であるテレビジョン受像機33を識別する情報に対応付けて、対応する機能の情報として、コーデック、サンプリング周波数、チャンネル数、およびバーチャライズの有無を記憶すると共に、周波数特性および位相特性に基づいて算出された補正パラメータを調整情報として記憶する。また、再生装置別データベース55は、記憶している対応機能の情報、および補正パラメータの情報からなる調整情報を、再生装置を識別する情報に対応付けて、音声調整部58に供給する。
音声調整部58は、再生装置であるテレビジョン受像機33や携帯端末34より要求のあったコンテンツをコンテンツ記憶部59より読み出して、再生装置別データベース55に記憶されている情報に基づいて、コンテンツの音声データを調整し、通信部52を制御して、再生装置であるテレビジョン受像機33や携帯端末34に配信させる。
より詳細には、音声調整部58は、周波数位相特性補正処理部71、レート変換部72、ダウンミックスアップミックス処理部73、トランスコード処理部74、および遅延処理部75を備えている。
周波数位相特性補正処理部71は、コンテンツ記憶部59より再生が要求されたコンテンツのデータを読み出して、このうち、音声データについて、再生装置別データベース55に調整情報として記憶されている補正パラメータに基づいて、周波数特性および位相特性を補正する。周波数位相特性補正処理部71は、補正パラメータにより周波数特性および位相特性が補正された音声データを含むコンテンツをレート変換部72に供給する。すなわち、複数のスピーカユニットにより音響システムを構成する場合、各スピーカの持つ周波数特性が異なる。また、各スピーカの駆動面は、聴取者の位置からみて、必ずしも揃っていないため、各スピーカの位相特性も異なる。このようなことから、聴取者の位置に応じて、適切な音像定位を構成するためには、周波数特性および位相特性を調整する必要がある。そこで、周波数位相特性補正処理部71は、補正パラメータにより各スピーカの周波数特性および位相特性を補正し、聴取者の存在する位置において最適な音像定位を構成する。
レート変換部72は、コンテンツ記憶部59より再生要求に基づいて読み出されたコンテンツの音声データについて、再生装置別データベース55に記憶されている調整情報のうち、サンプリング周波数の情報に基づいて、コンテンツデータの音声データにおけるサンプリングレートを変換し、ダウンミックスアップミックス処理部73に出力する。
ダウンミックスアップミックス処理部73は、コンテンツ記憶部59より再生要求に基づいて読み出されたコンテンツのデータの音声データについて、再生装置別データベース55に記憶されている調整情報のうちのチャンネル数およびバーチャライザの有無の情報に基づいて、コンテンツデータの音声データのチャンネル数およびバーチャライザの付加処理等を行い、トランスコード処理部74に出力する。尚、ここでいうバーチャライザとは、音声データに対して、物理的に存在しないチャンネルを仮想的に存在するかの如く、聴取者に聴取させるための処理、または、その機能である。すなわち、例えば、聴取者の前方の左右に合計2個のスピーカしか存在しない2チャンネルの音響システムが構成されているものとする。このとき、聴取者からみて後方にも左右に2個のサラウンドスピーカが設けられ、そこからも音声が発生している4チャンネルの音響システムであるかのよう聴取できるようにする処理、または、その機能が、バーチャライザである。
トランスコード処理部74は、コンテンツ記憶部59より再生要求に基づいて読み出されたコンテンツのデータの音声データについて、再生装置別データベース55に記憶されている調整情報のうちのコーデックの情報に基づいて、所定の圧縮形式にトランスコードし、遅延処理部75に出力する。
遅延処理部75は、テレビジョン受像機33に対して配信するコンテンツの音声データの処理に係る時間により画像に対して発生する遅延を調整するようにタイムスタンプを振り直し、通信部52に出力する。
コマンド送信部60は、制御部51により制御され、テレビジョン受像機33に対して音質と機能を測定するためのコマンド、およびストリーミングを開始するためのコマンドを、通信部52を介して送信する。より詳細には、コマンド送信部60は、テレビジョン受像機33に対して音質と機能を測定するための音質機能測定コマンド91、およびストリーミングを開始するためのストリーミングコマンド92を記憶している。コマンド送信部60は、この音質機能測定コマンド91およびストリーミングコマンド92を適宜必要なタイミングで通信部52に出力してテレビジョン受像機33に送信する。
測定用音源データ記憶部61は、音質や機能を測定する際にテレビジョン受像機33により音声を発生させるための測定用音源データを記憶しており、音質や機能を測定する際、制御部51により読み出されて、通信部52を介してテレビジョン受像機33に送信される。
テレビジョン受像機33は、制御部121、音質調整部122、通信部123、スピーカ124、表示部125、デコード処理部126、および操作入力部127を備えている。
制御部121は、テレビジョン受像機33の動作の全体を制御している。
音質調整部122は、操作ボタンなどからなる操作入力部127の操作内容に応じて、通信部123によりネットワーク32を介して、サーバ装置31より送信されてくるコンテンツの音声データの音質を調整してスピーカ124より出力する。
通信部123は、イーサネット(登録商標)ボードなどからなり、制御部121により制御されて、ネットワーク32を介してサーバ装置31と各種のデータを授受する。
表示部125は、LCD(Liquid Crystal Display)などからなり、通信部123によりネットワーク32を介してサーバ装置31より受信したコンテンツデータの画像を表示する。
デコード処理部126は、通信部123によりネットワーク32を介してサーバ装置31より受信したコンテンツデータをデコードし、デコード結果である画像データおよび音声データを制御部121に出力する。
携帯端末34は、制御部101、マイクロフォン102、および通信部103を備えた、いわゆる、スマートフォンや携帯電話機などである。
制御部101は、携帯端末34の動作の全体を制御している。マイクロフォン102は、制御部101により制御されて、音声を集音し制御部101に供給する。また、制御部101は、通信部103を制御して、ネットワーク32または図示せぬ公衆回線網を通じて、他の携帯端末34と通信し、例えば、供給されてくる音声データをスピーカ106より出力させる。
通信部103は、イーサネット(登録商標)ボードなどから構成されており、制御部101により制御されて、ネットワーク32を介して、サーバ装置31およびテレビジョン受像機33等と各種のデータを授受する。
操作入力部104は、操作ボタンなどからなり、例えば、LCD(Liquid Crystal Display)などからなる表示部105と一体にされたタッチパネルなどであり、操作内容に応じた信号を制御部101に供給する。
<音質機能測定処理>
次に、図3のフローチャートを参照して、図の配信システムにおける音質機能測定処理について説明する。すなわち、携帯端末34は、サーバ装置31に対して、テレビジョン受像機33の音質や機能を測定するための音声を出力させるように要求する。そして、携帯端末34は、テレビジョン受像機33により発生された測定用音声を集音し、集音結果をサーバ装置31に送信する。そして、サーバ装置31が、テレビジョン受像機33の識別情報に対応付けて、音質や機能の測定結果となる調整情報を再生装置別データベース55に記憶させる。これにより、サーバ装置31は、この調整情報を利用することにより、テレビジョン受像機33に配信されるコンテンツの音声データをテレビジョン受像機33の機能や性能に最適なものとして配信させることが可能となる。
すなわち、ステップS1において、ユーザが携帯端末34の操作入力部104を操作して、自らがコンテンツを再生させようとする(対象となる)再生機器としてテレビジョン受像機33を指定する情報が入力されると共に、テレビジョン受像機33の音質と機能を測定して登録するように指令されると、制御部101は、通信部103を制御して、音質機能の測定をサーバ装置31に指示する情報を送信させる。
ステップS11において、サーバ装置31の制御部51は、通信部52を制御して、音質機能の測定が指示されたか否かを判定し、送信されてくるまで、同様の処理を繰り返す。ステップS11において、例えば、ステップS1の処理により音質機能の測定が指示されると、処理は、ステップS12に進む。
ステップS12において、制御部51は、測定用音源データ記憶部61より測定用音源データを読み出し、コマンド送信部60を制御して、音質機能測定コマンド91と共に通信部52を介して、対象となる再生装置であるテレビジョン受像機33に送信させる。
ステップS51において、制御部121は、通信部123を制御して、音質機能測定コマンド91および測定用音源データを受信すると、音質調整部122をOFFにして動作を停止させる。すなわち、この処理により、テレビジョン受像機33のスピーカ124より出力される、測定用音源データに基づいた音声には、音質調整部122による調整が加えられていない状態とされ、これによりスピーカ124の正確な性能を測定することが可能となる。
ステップS52において、制御部121は、デコード処理部126を制御して測定用音源データをデコードさせて、スピーカ124より音声として出力させる。すなわち、ここでは、測定用音源データに基づいてデコードされた音声が、スピーカ124の特性や、その他の機能を認識し易い音声として出力される。また、複数の機能を認識するのに必要な音声が、機能毎に複数に存在する場合、測定用音源データには、複数の音声データが含まれるようにし、所定の時間間隔で、複数の機能を認識するための音声を順次音声を切り替えてスピーカ124から出力させるようにする。
これに応じて、ステップS2において、携帯端末34の制御部101は、マイクロフォン102を制御して、集音させる。ここでは、携帯端末34は、テレビジョン受像機33の傍で操作されていることが前提とされるため、マイクロフォン102は、テレビジョン受像機33において、デコードされた測定用音源データに基づいて、スピーカ124より出力された測定用音源の音声を集音することになる。
ステップS3において、制御部101は、マイクロフォン102により集音された測定用音源に基づいた音声のデータを所定の形式に圧縮して、通信部103を制御して、サーバ装置31に送信する。
ステップS13において、制御部51は、通信部52を制御して、携帯端末34より送信されてくる、所定の形式に圧縮されている集音された音声データを受信し、伸張して、音声データ取得部53に供給する。
ステップS14において、音声データ取得部53は、供給されてきた集音結果である音声データを対応機能判定部54および性能測定部56に出力する。性能測定部56は、音声データに基づいて、インパルス応答を測定する。
ステップS15において、性能測定部56は、インパルス応答の測定結果に基づいて、周波数特性が十分であるか否かを判定し、十分ではないとみなした場合、処理は、ステップS16に進む。
ステップS16において、性能測定部56は、音声データとインパルス応答の測定結果を補正パラメータ算出部57に供給する。補正パラメータ算出部57は、音声データとインパルス応答の測定結果に基づいて、周波数特性を補正するのに必要な補正パラメータを算出する。そして、補正パラメータ算出部57は、対象となる再生装置であるテレビジョン受像機33を識別する情報と対応付けて、周波数特性の補正の必要があることを示す情報と、その補正に必要な補正パラメータとを、コンテンツの音声データの調整情報として再生装置別データベース55に登録する。すなわち、周波数特性において、補正が必要であるとみなされた場合、補正パラメータ算出部57は、例えば、インパルス応答に基づいた逆インパルス応答を発生するデジタルフィルタを構成することができるような補正パラメータを算出する。
尚、ステップS15において、周波数特性が十分であるとみなした場合、ステップS16の処理は、スキップされる。すなわち、この場合、再生装置別データベース55には、周波数特性の補正が必要であるという情報が登録されないことにより、実質的に、周波数特性の補正が不要であることが登録されることになる。
ステップS17において、性能測定部56は、測定結果に基づいて、位相特性が十分であるか否かを判定し、十分ではないとみなした場合、処理は、ステップS18に進む。
ステップS18において、性能測定部56は、音声データと測定結果を補正パラメータ算出部57に供給する。補正パラメータ算出部57は、音声データと測定結果に基づいて、位相特性を補正するのに必要な補正パラメータを算出する。そして、補正パラメータ算出部57は、対象となる再生装置であるテレビジョン受像機33を識別する情報と対応付けて、位相特性の補正の必要があることを示す情報と、その補正に必要な補正パラメータとを、コンテンツの音声データの調整情報として再生装置別データベース55に登録する。すなわち、音声データと測定結果とから、補正パラメータ算出部57は、位相特性を求め、例えば、各チャンネルの位相差が0になるように位相を補正する補正パラメータを算出する。
尚、ステップS17において、位相特性が十分であるとみなした場合、ステップS18の処理は、スキップされる。すなわち、この場合、再生装置別データベース55には、位相特性の補正が必要であるという情報が登録されないことにより、実質的に、位相特性の補正が不要であることが登録されることになる。
ステップS19において、対応機能判定部54は、音声データに基づいて、コーデックを測定する。
ステップS20において、対応機能判定部54は、配信するコンテンツに使用されているコーデックが、テレビジョン受像機33において対応可能なコーデックであるか否かを判定し、対応可能ではない場合、処理は、ステップS21に進む。
ステップS21において、対応機能判定部54は、トランスコーディングが必要であることを示す情報を、対象となる再生装置であるテレビジョン受像機33を識別する情報と対応付けて、調整情報として再生装置別データベース55に登録する。
尚、ステップS20において、トランスコードが十分であるとみなした場合、ステップS21の処理は、スキップされる。すなわち、この場合、再生装置別データベース55には、トランスコードが必要であるという情報が登録されないことにより、実質的に、トランスコードが不要であることが登録されることになる。
ステップS22において、対応機能判定部54は、音声データに基づいて、サンプリング周波数、およびチャンネル数を測定する。
より詳細には、例えば、ステップS12の処理において、制御部51が、測定用音源データ記憶部61に記憶されているチャンネル数の測定用音源データとして、1ch音源、2ch音源、5.1ch音源、および7.1ch音源を以下のような音源データをテレビジョン受像機33に送信する。
すなわち、1ch音源を、100Hzのサインウェーブのみを含む音源とし、2ch音源を、L(左)=100Hz、R(右)=200Hzのサインウェーブのみを含む音源とする。また、5.1chの音源を、L(左)=100Hz、R(右)=200Hz、C(センター)=500Hz、Ls(サラウンド左)=1kHz、Rs(サラウンド右)=2kHz、LFE(低域効果音)=50Hzのサインウェーブのみを含む音源とする。さらに、7.1chの音源を、L(左)=100Hz、R(右)=200Hz、C(センター)=500Hz、Ls(サラウンド左)=1kHz、Rs(サラウンド右)=2kHz、Lrs(サラウンドリア左)=3kHz、Rsr(サラウンドリア右)=4kHz、LFE(低域効果音)=50Hzのサインウェーブのみを含む音源とする。
そして、ステップS52において、テレビジョン受像機33の制御部121は、デコード処理部126を制御して測定用音源データをデコードさせて、スピーカ124より1ch音源、2ch音源、5.1ch音源、および7.1ch音源を、順番に出力させる。このとき、対応できないチャンネルに達すると、制御部121は、表示部125上に、再生できない旨のメッセージを表示すると共に、1ch音源、2ch音源、5.1ch音源、および7.1ch音源以外のサインウェーブ(たとえば5kHz)からなる音声をスピーカ124より出力する。このとき、携帯端末34の制御部101は、マイクロフォン102により音声を集音させ、集音結果である音声ファイルをサーバ装置31に送信する。サーバ装置31の対応機能判定部54は、周波数解析を行うことで、5kHzの周波数成分が含まれていれば、直前に再生した計測用音源のChannel数が非対応であることを認識する。
ステップS23において、対応機能判定部54は、配信するコンテンツに使用されているサンプリング周波数が、テレビジョン受像機33において対応可能なサンプリング周波数であるか否かを判定し、対応可能ではない場合、処理は、ステップS24に進む。
ステップS24において、対応機能判定部54は、サンプリング周波数の変換が必要であることを示す情報を、対象となる再生装置であるテレビジョン受像機33を識別する情報と対応付けて、調整情報として再生装置別データベース55に登録する。
尚、ステップS23において、サンプリング周波数が対応可能であるとみなした場合、ステップS24の処理は、スキップされる。すなわち、この場合、再生装置別データベース55には、サンプリング周波数の変換が必要であるという情報が登録されないことにより、実質的に、サンプリング周波数の変換が不要であることが登録されることになる。
ステップS25において、対応機能判定部54は、テレビジョン受像機33において対応可能なチャンネル数が5.1チャンネルより多いか否かを判定し、5.1チャンネルより多く対応可能ではない場合、処理は、ステップS26に進む。すなわち、通常のコンテンツの音声データは5.1チャンネルであるので、これよりもチャンネル数が多いか否かが判定されることになる。
ステップS26において、対応機能判定部54は、チャンネル数を増やすアップミックスが必要であることを示す情報を、対象となる再生装置であるテレビジョン受像機33を識別する情報と対応付けて、調整情報として再生装置別データベース55に登録する。
ステップS25において、テレビジョン受像機33において対応可能なチャンネル数が5.1チャンネルより多くない場合、ステップS27において、対応機能判定部54は、テレビジョン受像機33において対応可能なチャンネル数が5.1チャンネルより少ないか否かを判定し、チャンネル数が5.1チャンネルより少なく、対応可能ではない場合、処理は、ステップS28に進む。
ステップS28において、対応機能判定部54は、チャンネル数を減らすダウンミックスが必要であることを示す情報を、対象となる再生装置であるテレビジョン受像機33を識別する情報と対応付けて、調整情報として再生装置別データベース55に登録する。
尚、ステップS27において、チャンネル数が5.1chであって対応可能であるとみなした場合、ステップS28の処理は、スキップされる。すなわち、この場合、再生装置別データベース55には、チャンネル数のアップミックス、またはダウンミックスが必要であるという情報が登録されないことにより、実質的に、5.1チャンネルなのでチャンネル数の変換が不要であることが登録されることになる。
ステップS29において、対応機能判定部54は、音声データに基づいて、バーチャライザの有無を測定する。
より詳細には、ステップS52において、テレビジョン受像機33の制御部121は、例えば、デコード処理部126を制御して測定用音源データをデコードさせて、スピーカ124より再生開始位置を全チャンネルで揃えた、チャンネル毎に周波数の異なるWav音源をスピーカ124より出力する。そして、携帯端末34の制御部101は、マイクロフォン102により音声を集音させ、集音結果である音声ファイルをサーバ装置31に送信する。ここで、サーバ装置31の対応機能判定部54は、サラウンド成分について、バーチャライズ処理でのフィルタ処理による、ディレイが生じて、相対的にみれば、他のフロントチャンネルと比べ、サラウンド成分がディレイすると考えられるので、このディレイの有無によりバーチャライザの有無を測定するようにしてもよい。
ステップS30において、対応機能判定部54は、バーチャライザが掛けられているか否かを判定し、バーチャライザが掛けられていないと判定した場合、処理は、ステップS31に進む。
ステップS31において、対応機能判定部54は、バーチャライザをかける必要があることを示す情報を、対象となる再生装置であるテレビジョン受像機33を識別する情報と対応付けて、調整情報として再生装置別データベース55に登録する。
尚、ステップS30において、バーチャライザが掛けられているとみなした場合、ステップS31の処理は、スキップされる。すなわち、この場合、再生装置別データベース55には、バーチャライザをかける必要があるという情報が登録されないことにより、実質的に、バーチャライザをかける必要がないことが登録されることになる。
以上の処理により、コンテンツの再生装置としてのテレビジョン受像機における音質と機能とが測定されることにより、再生装置別データベース55に、再生装置を識別する情報に対応付けて、周波数特性および位相特性の補正の有無と、その補正パラメータ、トランスコーディングの有無、サンプリング周波数の変換の有無、チャンネル数に応じたアップミックスおよびダウンミックスの有無、並びに、バーチャライザの有無といったコンテンツの音声データを調整するための調整情報が登録されることになる。
結果として、後述するコンテンツ出力処理において、再生装置毎に再生装置別データベース55に登録された調整情報に基づいて、コンテンツを再生する再生装置毎に最適な音声データに調整してコンテンツを配信することが可能となる。
<コンテンツ出力処理>
次に、図4のフローチャートを参照して、図の配信システムにおけるコンテンツ出力処理について説明する。
ステップS71において、テレビジョン受像機33の操作入力部127がユーザにより操作されて、指定されたコンテンツを再生するように指示されると、操作入力部127が、操作内容に応じた操作信号を制御部121に出力する。
ステップS72において、制御部121は、通信部123を制御して、指定されたコンテンツの再生の要求を、自らのテレビジョン受像機33を識別する識別情報と共にネットワーク32を介してサーバ装置31に送信させる。
ステップS91において、制御部51は、通信部52を制御して、ネットワーク32を介して、テレビジョン受像機33からの、識別情報と、指定されたコンテンツの再生を要求する情報を取得する。
ステップS92において、音声調整部58に対して、コンテンツの再生を要求してきたテレビジョン受像機33の識別情報と共に、指定されたコンテンツを読み出し、音声調整を加えるように指示する。
ステップS93において、音声調整部58の周波数位相特性補正処理部71は、指定されたコンテンツのデータをコンテンツ記憶部59より読み出す。さらに、周波数位相特性補正処理部71は、識別情報により特定される再生装置としてのテレビジョン受像機33に対応付けて再生装置別データベース55に登録されている調整情報を読み出して、周波数特性について補正が必要であるか否かを判定する。
ステップS93において、例えば、周波数特性について補正が必要であると判定された場合、処理は、ステップS94に進む。
ステップS94において、周波数位相特性補正処理部71は、コンテンツデータの音声データについて、調整情報に含まれる補正パラメータを利用して、周波数特性をコンテンツの再生を要求してきたテレビジョン受像機33に対応するように補正する。
尚、ステップS93において、例えば、周波数特性について補正が必要ではないと判定された場合、ステップS94の処理はスキップされる。
ステップS95において、周波数位相特性補正処理部71は、識別情報により特定される再生装置としてのテレビジョン受像機33に対応付けて再生装置別データベース55に登録されている調整情報を読み出して、位相特性について補正が必要であるか否かを判定する。
ステップS95において、例えば、位相特性について補正が必要であると判定された場合、処理は、ステップS96に進む。
ステップS96において、周波数位相特性補正処理部71は、コンテンツデータの音声データについて、調整情報に含まれる補正パラメータを利用して、位相特性をコンテンツの再生を要求してきたテレビジョン受像機33に対応するように補正し、コンテンツデータをレート変換部72に出力する。
尚、ステップS95において、例えば、位相特性について補正が必要ではないと判定された場合、ステップS96の処理はスキップされ、コンテンツデータがレート変換部72に出力される。
ステップS97において、レート変換部72は、識別情報により特定される再生装置としてのテレビジョン受像機33に対応付けて再生装置別データベース55に登録されている調整情報を読み出して、サンプリングレートの変換が必要であるか否かを判定する。
ステップS97において、例えば、サンプリングレートの変換が必要であると判定された場合、処理は、ステップS98に進む。
ステップS98において、レート変換部72は、コンテンツデータの音声データについて、コンテンツの再生を要求してきたテレビジョン受像機33に対応するようにサンプリングレートを変換し、ダウンミックスアップミックス処理部73に供給する。
尚、ステップS97において、例えば、サンプリングレートの変換が必要ではないと判定された場合、ステップS98の処理はスキップされ、コンテンツデータが、ダウンミックスアップミックス処理部73に供給される。
ステップS99において、ダウンミックスアップミックス処理部73は、識別情報により特定される再生装置としてのテレビジョン受像機33に対応付けて再生装置別データベース55に登録されている調整情報を読み出して、アップミックスが必要であるか否かを判定する。
ステップS99において、例えば、アップミックスが必要であると判定された場合、処理は、ステップS100に進む。
ステップS100において、ダウンミックスアップミックス処理部73は、コンテンツデータの音声データについて、コンテンツの再生を要求してきたテレビジョン受像機33に対応するようにアップミックスする。
一方、ステップS99において、例えば、アップミックスが必要ではないと判定された場合、処理は、ステップS101に進む。
ステップS101において、ダウンミックスアップミックス処理部73は、識別情報により特定される再生装置としてのテレビジョン受像機33に対応付けて再生装置別データベース55に登録されている調整情報を読み出して、ダウンミックスが必要であるか否かを判定する。
ステップS101において、例えば、ダウンミックスが必要であると判定された場合、処理は、ステップS102に進む。
ステップS102において、ダウンミックスアップミックス処理部73は、コンテンツデータの音声データについて、コンテンツの再生を要求してきたテレビジョン受像機33に対応するようにダウンミックスする。
尚、ステップS101において、例えば、ダウンミックスが必要ではないと判定された場合、ステップS102の処理はスキップされる。
ステップS103において、ダウンミックスアップミックス処理部73は、識別情報により特定される再生装置としてのテレビジョン受像機33に対応付けて再生装置別データベース55に登録されている調整情報を読み出して、バーチャライザが必要であるか否かを判定する。
ステップS103において、例えば、バーチャライザが必要であると判定された場合、処理は、ステップS104に進む。
ステップS104において、ダウンミックスアップミックス処理部73は、コンテンツデータの音声データについて、コンテンツの再生を要求してきたテレビジョン受像機33に対応するようにバーチャライザをかけて、トランスコード処理部74に供給する。
尚、ステップS103において、例えば、バーチャライザが必要ではないと判定された場合、ステップS104の処理はスキップされ、コンテンツデータが、トランスコード処理部74に供給される。
ステップS105において、トランスコード処理部74は、識別情報により特定される再生装置としてのテレビジョン受像機33に対応付けて再生装置別データベース55に登録されている調整情報を読み出して、テレビジョン受像機33に応じたトランスコードが必要であるか否かを判定する。
ステップS105において、例えば、トランスコードが必要であると判定された場合、処理は、ステップS106に進む。
ステップS106において、トランスコード処理部74は、コンテンツデータの音声データについて、コンテンツの再生を要求してきたテレビジョン受像機33に対応するようにトランスコードし、遅延処理部75に供給する。
尚、ステップS105において、例えば、トランスコードが必要ではないと判定された場合、ステップS106の処理はスキップされ、コンテンツデータが、遅延処理部75に供給される。
ステップS107において、遅延処理部75は、各種の処理がなされたコンテンツデータを、処理により発生する遅延時間に応じてタイムスタンプを振り直す。尚、この処理は、サーバ装置31が自ら記憶しているコンテンツを配信する場合については、画像と音声とを同時に出力することが可能であるので、その場合、タイムスタンプの振り直しは必要とされない。ここでの処理は、例えば、外部のサーバからコンテンツが読み出されて、画像の調整がなされず、音声データのみが、再生装置別データベース55に登録された調整情報により調整される際に、遅延時間が発生しない画像と、処理に伴った遅延の発生する音声とのタイミングを調整するためになされる処理である。
ステップS108において、制御部51は、コマンド送信部60を制御して、通信部52を介してストリーミングコマンドを、テレビジョン受像機33に送信させる。これにより、コマンド送信部60は、ストリーミングコマンド92を通信部52およびネットワーク32を介して、テレビジョン受像機33に送信させる。
ステップS73において、テレビジョン受像機33の制御部121は、通信部123を制御して、ストリーミングコマンド92を受信すると、ストリームが開始されることを認識すると共に、音質調整部122を制御して、音質の調整を停止させる。
ステップS109において、サーバ装置31の制御部51は、音声調整部58よりコンテンツデータを通信部52に出力させて、ネットワーク32を介して、コンテンツデータをテレビジョン受像機33に送信させる。
ステップS74において、テレビジョン受像機33の制御部121は、通信部123を制御してコンテンツデータを受信させると共に、デコード処理部126を制御してデコードさせ、デコードされたコンテンツデータに基づいた画像を表示部125に表示させると共に、音声をスピーカ124より出力させて、コンテンツを再生させる。
尚、以上においては、再生装置がテレビジョン受像機33である場合の例について説明してきたが、音声出力を備えた再生装置であれば、その他の装置であってもよく、例えば、オーディオシステムなどであってもよい。また、再生装置として、高機能な携帯端末を利用するような場合においても同様の手法で、同様の動作を実現することが可能となる。
以上の処理により、コンテンツの音声を出力する再生装置に応じた、必要な周波数特性および位相特性、トランスコーディング、サンプリング周波数、チャンネル数、並びに、バーチャライザを考慮した適切な音声データを含んだコンテンツの配信を実現することが可能となる。
結果として、再生装置の構成を変更することなく、テレビジョン受像機33等の再生装置の性能に適した音声を含んだコンテンツの再生を実現することが可能となる。
また、以上においては、再生装置の音声機能について、最適化した音声データを生成して配信する例について説明してきたが、画像の表示機能についても、上述した手法を適用するようにして最適化を図るようにしてもよい。すなわち、テレビジョン受像機33に測定用画像データを表示させて、携帯端末34が撮像し、撮像結果に基づいて、サーバ装置31が、テレビジョン受像機33がコンテンツを表示する際に最適な画像として表示できるようにコンテンツデータを調整してテレビジョン受像機33に供給して表示させるようにしてもよい。このような処理を音声データおよび画像データの双方に施すことで、音声データにおいても、画像データにおいても、再生装置において最適な状態で再生することが可能となる。
さらに、以上においては、調整情報を登録する際(音質機能測定処理が実行される際)、およびコンテンツを再生する際(コンテンツ出力処理が実行される際)のいずれにおいても、音質調整部122の機能を停止する例について説明してきた。しかしながら、いずれにおいても音質調整部122の機能を停止させない状態とするようにしてもよい。さらに、音質調整部122の機能を停止させる場合の調整情報と、停止させない場合の調整情報とをそれぞれ再生装置データベース55に登録させて、それぞれの状態に応じて使い分けるようにしても良い。
<第1の変形例>
以上においては、サーバ装置(クラウドサーバ装置)31が、再生装置が配信を要求したコンテンツにおける音声データを、再生装置の音声出力機能に最適化した状態で配信する例について説明してきたが、再生装置であるテレビジョン受像機33により放送波を介してコンテンツを受信し、受信したコンテンツをサーバ装置31に供給して、調整情報に基づいて、最適な音声データに変換させた後、再びテレビジョン受像機33に送信して再生させるようにしてもよい。
すなわち、図5で示されるように、ステップS201において、テレビジョン受像機33が放送波(図中のBroadcast)により配信されたコンテンツを受信する。
ステップS202において、テレビジョン受像機33が放送波(図中のBroadcast)により配信されたコンテンツをTS(Transport) Streamとしてクラウドサーバ装置(図2のサーバ装置)31に送信する。
ステップS203において、サーバ装置31は、上述した再生装置別データベース55に登録された調整情報を利用して、音声データの最適化処理を施したコンテンツからなるAV Streamをテレビジョン受像機33に送信する。
ステップS204において、テレビジョン受像機33が、最適化された音声データからなるコンテンツを再生する。
以上のような処理により、放送波により配信され、テレビジョン受像機33により受信されたコンテンツにおいても、クラウドサーバ装置31によりテレビジョン受像機33の音声出力機能の性能に最適な音声データとされた状態で再生することが可能となる。
<第2の変形例>
以上においては、サーバ装置(クラウドサーバ装置)31が、再生装置の調整情報を再生装置別データベース55に記憶させ、この調整情報を利用して音声データを最適化する例について説明してきた。
しかしながら、再生装置の調整情報を再生装置別データベース55に記憶させる機能と、調整情報を利用して音声データを最適化する機能とを個別の装置構成により実現するようにしてもよい。例えば、図6で示されるように、再生装置の調整情報を再生装置別データベース55に記憶させる機能を備えたクラウドサーバ装置31と、調整情報からなるパラメータを利用して音声データを最適化する機能を備えた携帯端末34とからなる配信システムとするようにしてもよい。
すなわち、図6で示されるように、ステップS221において、テレビジョン受像機33が放送波(図中のBroadcast)により配信されたコンテンツを受信する。
ステップS222において、テレビジョン受像機33が放送波(図中のBroadcast)により配信されたコンテンツのTS Streamを、調整情報を利用して音声データを最適化する機能を備えた携帯端末34に送信する。
ステップS223において、再生装置(テレビジョン受像機33)の調整情報を再生装置別データベース55に記憶させる機能を備えたサーバ装置(クラウドサーバ装置)31は、調整情報からなるパラメータを携帯端末34に送信する。
ステップS224において、携帯端末34は、サーバ装置(クラウドサーバ装置)31より供給された調整情報からなるパラメータを利用して、コンテンツの音声データの最適化処理を実現し、最適化したコンテンツのAV Streamをテレビジョン受像機33に送信する。
ステップS225において、テレビジョン受像機33が、最適化された音声データからなるコンテンツを再生する。
以上のような処理により、放送波により配信され、テレビジョン受像機33により受信されたコンテンツを、携帯端末34が、クラウドサーバ装置31より供給される調整情報からなるパラメータにより、テレビジョン受像機33の音声出力機能の性能に最適な音声データに変換し、テレビジョン受像機33に供給することで、テレビジョン受像機33において、最適な音声データからなるコンテンツの再生が可能となる。
<第3の変形例>
以上においては、サーバ装置(クラウドサーバ装置)31が、再生装置の調整情報を再生装置別データベース55に記憶させ、調整情報を利用して、テレビジョン受像機33が放送波により配信されたコンテンツの音声データを最適化する例について説明してきた。
しかしながら、再生するコンテンツデータは、放送波により配信されるコンテンツ以外のコンテンツでもよく、例えば、再生装置の調整情報を再生装置別データベース55に記憶させる機能と、調整情報からなるパラメータを利用して音声データを最適化する機能とを個別の装置構成により実現し、携帯端末34がサーバに蓄積されたコンテンツの音声データを最適化した後に、テレビジョン受像機33に供給して再生させるようにしてもよい。
すなわち、例えば、図7で示されるように、再生装置の調整情報を再生装置別データベース55に記憶させる機能を備えたクラウドサーバ装置31と、調整情報からなるパラメータを利用して音声データを最適化する機能を備えた携帯端末34とからなる配信システムとし、携帯端末34がコンテンツのデータをコンテンツサーバ201より読み出すようにしてもよい。
すなわち、図7で示されるように、ステップS231において、再生装置(テレビジョン受像機33)の調整情報を再生装置別データベース55に記憶させる機能を備えたサーバ装置(クラウドサーバ装置)31は、調整情報からなるパラメータを携帯端末34に送信する。
ステップS232において、調整情報からなるパラメータを利用して音声データを最適化する機能を備えた携帯端末34が、コンテンツをコンテンツサーバ201より読み出す。
ステップS233において、携帯端末34は、サーバ装置(クラウドサーバ装置)31より供給された調整情報からなるパラメータを利用して、コンテンツサーバ201より読み出したコンテンツデータの音声データを最適化し、音声データを最適化したコンテンツのAV Streamをテレビジョン受像機33に送信する。
ステップS234において、テレビジョン受像機33が、最適化された音声データからなるコンテンツを再生する。
以上のような処理により、コンテンツサーバ201に蓄積されたコンテンツを、携帯端末34が、クラウドサーバ装置31により供給される調整情報からなるパラメータにより、テレビジョン受像機33の音声出力機能の性能に最適な音声データに変換し、テレビジョン受像機33に供給することで、テレビジョン受像機33において、最適な音声データからなるコンテンツの再生が可能となる。
以上の如く、いずれにおいても、再生装置に特別な装置等を付加すること無く、音声データを最適化した状態でコンテンツを再生させることが可能となる。
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
図8は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタ-フェイス1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
入出力インタ-フェイス1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。
CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011ら読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
尚、本技術は、以下のような構成も取ることができる。
(1) コンテンツを再生装置に配信するサーバ装置において、
前記再生装置の再生機能に対応するように、前記コンテンツのコンテンツデータを調整する調整部を含む
サーバ装置。
(2) 前記再生装置より出力される音声を解析する解析部と、
前記解析部の解析結果に基づいた、前記再生装置毎の再生機能に対応するように、前記コンテンツデータの調整に必要な調整情報を、前記再生装置を識別する情報に対応付けて記憶する調整情報記憶部とを含み、
前記調整部は、前記調整情報に基づいて、前記コンテンツデータを調整する
(1)に記載のサーバ装置。
(3) 前記解析部は、前記再生装置より出力される音声の周波数特性および位相特性を解析し、
前記調整情報記憶部は、前記解析部の解析結果に基づいて、前記再生装置の再生機能の周波数特性および位相特性に対応するように、前記コンテンツデータを調整するのに必要な調整情報を記憶し、
前記調整部は、前記調整情報に基づいて、前記再生装置の再生機能の周波数特性および位相特性に対応するように、前記コンテンツデータを調整する
(2)に記載のサーバ装置。
(4) 前記解析部は、前記再生装置より出力される音声に基づいて、前記再生装置のバーチャライザの有無を解析し、
前記調整情報記憶部は、前記解析部の解析結果に基づいて、前記再生装置の再生機能にバーチャライザが設けられていない場合、前記コンテンツデータにバーチャライザによる調整が必要であることを示す情報を調整情報として記憶し、
前記調整部は、前記調整情報に基づいて、前記再生装置の再生機能に対応するように、前記コンテンツデータにバーチャライザによる処理を施して調整する
(2)または(3)に記載のサーバ装置。
(5) 前記解析部は、前記再生装置より出力される音声に基づいて、前記再生装置の符号化形式を解析し、
前記調整情報記憶部は、前記解析部の解析結果に基づいた、前記再生装置の再生機能に対応する符号化形式を示す情報を調整情報として記憶し、
前記調整部は、前記調整情報に基づいて、前記再生装置の再生機能に対応する符号化形式となるように、前記コンテンツデータに処理を施して調整する
(2)乃至(4)のいずれかに記載のサーバ装置。
(6) 前記解析部は、前記再生装置より出力される音声に基づいて、前記再生装置のチャンネル数を解析し、
前記調整情報記憶部は、前記解析部の解析結果に基づいた、前記再生装置の再生機能に対応するチャンネル数を示す情報を調整情報として記憶し、
前記調整部は、前記調整情報に基づいた、前記再生装置の再生機能に対応するチャンネル数となるように、前記コンテンツデータに処理を施して調整する
(2)乃至(5)に記載のサーバ装置。
(7) 前記解析部は、前記再生装置より出力される音声に基づいて、前記再生装置のサンプリング周波数を解析し、
前記調整情報記憶部は、前記解析部の解析結果に基づいて、前記再生装置の再生機能に対応するサンプリング周波数を示す情報を調整情報として記憶し、
前記調整部は、前記調整情報に基づいた、前記再生装置の再生機能に対応するサンプリング周波数となるように、前記コンテンツデータにサンプリングレートの変換処理を施して調整する
(2)乃至(6)のいずれかに記載のサーバ装置。
(8) 前記再生装置は、再生するコンテンツの音質を調整する音質調整部を含み、
前記サーバ装置は、前記音質調整部の動作を停止させるコマンドを出力するコマンド出力部を含み、
前記解析部は、前記コマンド出力部により、前記音質調整部による動作中の状態と停止中の状態における両方の前記再生装置より出力される音声を解析し、
前記調整情報記憶部は、前記音質調整部による動作中の状態および停止中の状態のそれぞれについて、前記解析部の解析結果に基づいた、前記再生装置毎の再生機能に対応するように、前記コンテンツデータの調整に必要な調整情報を、前記再生装置を識別する情報に対応付けて記憶し、
前記調整部は、前記音質調整部による動作中の状態および停止中の状態のそれぞれについての前記調整情報に基づいた、前記再生装置の再生機能に対応するように調整する
(2)乃至(7)のいずれかに記載のサーバ装置。
(9) 前記コンテンツは、放送波により配信されるコンテンツを含み、
前記コンテンツが放送波により配信される場合、前記調整部により前記コンテンツデータが調整される際に発生する遅延を加味したタイムスタンプの振り直しを行う遅延処理部をさらに含む
(1)乃至(8)のいずれかに記載のサーバ装置。
(10) 前記サーバ装置は、前記再生装置より出力される音声を集音する携帯端末、および前記再生装置と共に配信システムを構成し、
前記解析部は、前記携帯端末により集音された、前記再生装置より出力される音声を解析する
)乃至()のいずれかに記載のサーバ装置。
(11) 前記サーバ装置は、ネットワークを介して接続された複数のサーバ装置より構成されるクラウドサーバ装置を含む
(1)乃至(10)のいずれかに記載のサーバ装置。
(12) コンテンツを再生装置に配信するサーバ装置の情報処理方法において、
前記再生装置の再生機能に対応するように、前記コンテンツのコンテンツデータを調整するステップを含む
サーバ装置の情報処理方法。
(13) コンテンツを再生装置に配信するサーバ装置を制御するコンピュータを、
前記再生装置の再生機能に対応するように、前記コンテンツのコンテンツデータを調整する調整部として機能するように実行させる
プログラム。
31 サーバ装置(クラウドサーバ装置), 32 ネットワーク, 33 テレビジョン受像機, 34 携帯端末, 51 制御部, 52 通信部, 53 音声データ取得部, 54 対応機能判定部, 55 再生装置別データベース, 56 性能測定部, 57 補正パラメータ算出部, 58 音質調整部, 59 コンテンツ記憶部, 60 コマンド送信部, 61 測定用音源データ記憶部, 71 周波数位相特性補正処理部, 72 レート変換部, 73 ダウンミックスアップミックス処理部, 74 トランスコード処理部, 75 遅延処理部, 91 音質機能測定コマンド, 92 ストリーミングコマンド, 101 制御部, 102 マイクロフォン, 103 通信部, 104 操作入力部, 105 表示部, 106 スピーカ, 121 制御部, 122 音質調整部, 123 通信部, 124 スピーカ, 125 表示部, 126 デコード処理部, 127 操作入力部

Claims (12)

  1. コンテンツを再生装置に配信するサーバ装置において、
    前記再生装置の再生機能に対応するように、前記コンテンツのコンテンツデータを調整する調整部と、
    前記再生装置より出力される音声を解析する解析部と、
    前記解析部の解析結果に基づいた、前記再生装置毎の再生機能に対応するように、前記コンテンツデータの調整に必要な調整情報を、前記再生装置を識別する情報に対応付けて記憶する調整情報記憶部とを含み、
    前記解析部は、前記再生装置より出力される音声の周波数特性および位相特性を解析し、
    前記調整情報記憶部は、前記解析部の解析結果に基づいて、前記再生装置の再生機能の周波数特性および位相特性に対応するように、前記コンテンツデータを調整するのに必要な調整情報を記憶し、
    前記調整部は、前記調整情報に基づいて、前記再生装置の再生機能の周波数特性および位相特性に対応するように、前記コンテンツデータを調整する
    サーバ装置。
  2. 前記解析部は、前記再生装置より出力される音声に基づいて、前記再生装置のバーチャライザの有無を解析し、
    前記調整情報記憶部は、前記解析部の解析結果に基づいて、前記再生装置の再生機能にバーチャライザが設けられていない場合、前記コンテンツデータにバーチャライザによる調整が必要であることを示す情報を調整情報として記憶し、
    前記調整部は、前記調整情報に基づいて、前記再生装置の再生機能に対応するように、前記コンテンツデータにバーチャライザによる処理を施して調整する
    請求項1に記載のサーバ装置。
  3. 前記解析部は、前記再生装置より出力される音声に基づいて、前記再生装置の符号化形式を解析し、
    前記調整情報記憶部は、前記解析部の解析結果に基づいた、前記再生装置の再生機能に対応する符号化形式を示す情報を調整情報として記憶し、
    前記調整部は、前記調整情報に基づいて、前記再生装置の再生機能に対応する符号化形式となるように、前記コンテンツデータに処理を施して調整する
    請求項1または2に記載のサーバ装置。
  4. 前記解析部は、前記再生装置より出力される音声に基づいて、前記再生装置のチャンネル数を解析し、
    前記調整情報記憶部は、前記解析部の解析結果に基づいた、前記再生装置の再生機能に対応するチャンネル数を示す情報を調整情報として記憶し、
    前記調整部は、前記調整情報に基づいた、前記再生装置の再生機能に対応するチャンネル数となるように、前記コンテンツデータに処理を施して調整する
    請求項1乃至3のいずれかに記載のサーバ装置。
  5. 前記解析部は、前記再生装置より出力される音声に基づいて、前記再生装置のサンプリング周波数を解析し、
    前記調整情報記憶部は、前記解析部の解析結果に基づいて、前記再生装置の再生機能に対応するサンプリング周波数を示す情報を調整情報として記憶し、
    前記調整部は、前記調整情報に基づいた、前記再生装置の再生機能に対応するサンプリング周波数となるように、前記コンテンツデータにサンプリングレートの変換処理を施して調整する
    請求項1乃至4のいずれかに記載のサーバ装置。
  6. 前記再生装置は、再生するコンテンツの音質を調整する音質調整部を含み、
    前記サーバ装置は、前記音質調整部の動作を停止させるコマンドを出力するコマンド出力部を含み、
    前記解析部は、前記コマンド出力部により、前記音質調整部による動作中の状態と停止中の状態における両方の前記再生装置より出力される音声を解析し、
    前記調整情報記憶部は、前記音質調整部による動作中の状態および停止中の状態のそれぞれについて、前記解析部の解析結果に基づいた、前記再生装置毎の再生機能に対応するように、前記コンテンツデータの調整に必要な調整情報を、前記再生装置を識別する情報に対応付けて記憶し、
    前記調整部は、前記音質調整部による動作中の状態および停止中の状態のそれぞれについての前記調整情報に基づいた、前記再生装置の再生機能に対応するように調整する
    請求項1乃至5のいずれかに記載のサーバ装置。
  7. 前記調整部によりコンテンツデータが調整されたコンテンツのタイムスタンプを、前記調整部により前記コンテンツデータが調整される際に発生する遅延を加味したタイムスタンプに振り直す遅延処理部をさらに含む
    請求項1乃至6のいずれかに記載のサーバ装置。
  8. 前記コンテンツは、放送波により配信されるコンテンツを含み、
    前記コンテンツが放送波により前記再生装置に配信され、配信された前記コンテンツが前記再生装置より前記サーバ装置に供給され、供給された前記コンテンツが、前記調整部により前記再生装置の再生機能に対応するように調整され、調整されたコンテンツが前記サーバ装置より前記再生装置に送信される場合、前記遅延処理部は、前記調整部によりコンテンツデータが調整されたコンテンツのタイムスタンプを、前記調整部により前記コンテンツデータが調整される際に発生する遅延を加味したタイムスタンプに振り直す
    請求項7のいずれかに記載のサーバ装置。
  9. 前記サーバ装置は、前記再生装置より出力される音声を集音する携帯端末、および前記再生装置と共に配信システムを構成し、
    前記解析部は、前記携帯端末により集音された、前記再生装置より出力される音声を解析する
    請求項1乃至8のいずれかに記載のサーバ装置。
  10. 前記サーバ装置は、ネットワークを介して接続された複数のサーバ装置より構成されるクラウドサーバ装置を含む
    請求項1乃至8のいずれかに記載のサーバ装置。
  11. コンテンツを再生装置に配信するサーバ装置の情報処理方法において、
    前記再生装置の再生機能に対応するように、前記コンテンツのコンテンツデータを調整するステップと
    前記再生装置より出力される音声を解析するステップと
    解析結果に基づいた、前記再生装置毎の再生機能に対応するように、前記コンテンツデータの調整に必要な調整情報を、前記再生装置を識別する情報に対応付けて記憶するステップを含み、
    前記音声を解析するステップでは、前記再生装置より出力される音声の周波数特性および位相特性を解析し、
    前記記憶するステップでは、解析結果に基づいて、前記再生装置の再生機能の周波数特性および位相特性に対応するように、前記コンテンツデータを調整するのに必要な調整情報を記憶し、
    前記調整するステップでは、前記調整情報に基づいて、前記再生装置の再生機能の周波数特性および位相特性に対応するように、前記コンテンツデータを調整する
    サーバ装置の情報処理方法。
  12. コンテンツを再生装置に配信するサーバ装置を制御するコンピュータを、
    前記再生装置の再生機能に対応するように、前記コンテンツのコンテンツデータを調整する調整部と、
    前記再生装置より出力される音声を解析する解析部と、
    前記解析部の解析結果に基づいた、前記再生装置毎の再生機能に対応するように、前記コンテンツデータの調整に必要な調整情報を、前記再生装置を識別する情報に対応付けて記憶する調整情報記憶部として機能するように実行させ、
    前記解析部は、前記再生装置より出力される音声の周波数特性および位相特性を解析し、
    前記調整情報記憶部は、前記解析部の解析結果に基づいて、前記再生装置の再生機能の周波数特性および位相特性に対応するように、前記コンテンツデータを調整するのに必要な調整情報を記憶し、
    前記調整部は、前記調整情報に基づいて、前記再生装置の再生機能の周波数特性および位相特性に対応するように、前記コンテンツデータを調整する
    プログラム。
JP2016534368A 2014-07-18 2015-07-06 サーバ装置、およびサーバ装置の情報処理方法、並びにプログラム Active JP6588016B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014147596 2014-07-18
JP2014147596 2014-07-18
PCT/JP2015/069380 WO2016009863A1 (ja) 2014-07-18 2015-07-06 サーバ装置、およびサーバ装置の情報処理方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JPWO2016009863A1 JPWO2016009863A1 (ja) 2017-05-25
JP6588016B2 true JP6588016B2 (ja) 2019-10-09

Family

ID=55078361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016534368A Active JP6588016B2 (ja) 2014-07-18 2015-07-06 サーバ装置、およびサーバ装置の情報処理方法、並びにプログラム

Country Status (3)

Country Link
US (1) US20170142178A1 (ja)
JP (1) JP6588016B2 (ja)
WO (1) WO2016009863A1 (ja)

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000092486A (ja) * 1998-09-10 2000-03-31 Toshiba Corp 動画像送信装置および動画像再生装置ならびに動画像送信方法および動画像再生方法
JP2001204001A (ja) * 1999-10-29 2001-07-27 Matsushita Electric Ind Co Ltd 動画像配信システム,再生端末装置,及び配信装置
US6877043B2 (en) * 2000-04-07 2005-04-05 Broadcom Corporation Method for distributing sets of collision resolution parameters in a frame-based communications network
JP2002297496A (ja) * 2001-04-02 2002-10-11 Hitachi Ltd メディア配信システム及びマルチメディア変換サーバ
EP1532734A4 (en) * 2002-06-05 2008-10-01 Sonic Focus Inc ACOUSTIC VIRTUAL REALITY ENGINE AND ADVANCED TECHNIQUES FOR IMPROVING THE DELIVERED SOUND
JP2004159037A (ja) * 2002-11-06 2004-06-03 Sony Corp 自動音響調整システム、音響調整装置、音響解析装置および音響解析処理プログラム
US20040181811A1 (en) * 2003-03-13 2004-09-16 Rakib Selim Shlomo Thin DOCSIS in-band management for interactive HFC service delivery
JP4241229B2 (ja) * 2003-07-15 2009-03-18 ヤマハ株式会社 コンテンツサーバ、携帯端末、及びデータ配信システム
JP2005321661A (ja) * 2004-05-10 2005-11-17 Kenwood Corp 情報処理システム、情報処理装置、情報処理方法、および音響環境改善用プログラム
EP1759531A2 (en) * 2004-06-14 2007-03-07 ROK Productions Limited Media player
JP2006115200A (ja) * 2004-10-14 2006-04-27 Fujitsu Ten Ltd 受信機
CN1936829B (zh) * 2005-09-23 2010-05-26 鸿富锦精密工业(深圳)有限公司 声音输出***及方法
US7584289B2 (en) * 2006-07-14 2009-09-01 Abroadcasting Company System and method to efficiently broadcast television video and audio streams through the internet from a source in single leading time zone to multiple destinations in lagging time zones
US8570446B2 (en) * 2007-03-14 2013-10-29 Chris Ouslis Method and apparatus for processing a signal with a coarsely positioned IF frequency
JP2010093403A (ja) * 2008-10-06 2010-04-22 Panasonic Corp 音響再生システム、音響再生装置及び音響再生方法
EP2175670A1 (en) * 2008-10-07 2010-04-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Binaural rendering of a multi-channel audio signal
WO2010070016A1 (en) * 2008-12-19 2010-06-24 Dolby Sweden Ab Method and apparatus for applying reverb to a multi-channel audio signal using spatial cue parameters
JP2011065093A (ja) * 2009-09-18 2011-03-31 Toshiba Corp オーディオ信号補正装置及びオーディオ信号補正方法
US8752083B2 (en) * 2009-11-05 2014-06-10 Viacom International Inc. Integration of an interactive advertising unit containing a fully functional virtual object and digital media content
US8818175B2 (en) * 2010-03-08 2014-08-26 Vumanity Media, Inc. Generation of composited video programming
US9003455B2 (en) * 2010-07-30 2015-04-07 Guest Tek Interactive Entertainment Ltd. Hospitality media system employing virtual set top boxes
US20120054355A1 (en) * 2010-08-31 2012-03-01 Nokia Corporation Method and apparatus for generating a virtual interactive workspace with access based on spatial relationships
US8799395B2 (en) * 2010-11-22 2014-08-05 Deluxe Media Inc. Methods and systems of dynamically managing content for use by a media playback device
US20120155650A1 (en) * 2010-12-15 2012-06-21 Harman International Industries, Incorporated Speaker array for virtual surround rendering
TR201815799T4 (tr) * 2011-01-05 2018-11-21 Anheuser Busch Inbev Sa Bir audio sistemi ve onun operasyonunun yöntemi.
JP2013135320A (ja) * 2011-12-26 2013-07-08 Toshiba Corp 周波数特性調整システムおよび周波数特性調整方法
EP2803066A1 (en) * 2012-01-11 2014-11-19 Dolby Laboratories Licensing Corporation Simultaneous broadcaster -mixed and receiver -mixed supplementary audio services
CN104041081B (zh) * 2012-01-11 2017-05-17 索尼公司 声场控制装置、声场控制方法、程序、声场控制***和服务器
EP2832112A4 (en) * 2012-03-28 2015-12-30 Nokia Technologies Oy DETERMINING A TIME SHIFT
US8694306B1 (en) * 2012-05-04 2014-04-08 Kaonyx Labs LLC Systems and methods for source signal separation
ES2606678T3 (es) * 2012-08-31 2017-03-27 Dolby Laboratories Licensing Corporation Presentación de sonido reflejado para audio con base de objeto
EP2926339A4 (en) * 2012-11-27 2016-08-03 Nokia Technologies Oy COMMONLY USED AUDIOSCENE DEVICE
US9318116B2 (en) * 2012-12-14 2016-04-19 Disney Enterprises, Inc. Acoustic data transmission based on groups of audio receivers

Also Published As

Publication number Publication date
US20170142178A1 (en) 2017-05-18
JPWO2016009863A1 (ja) 2017-05-25
WO2016009863A1 (ja) 2016-01-21

Similar Documents

Publication Publication Date Title
US11563411B2 (en) Metadata for loudness and dynamic range control
KR102124547B1 (ko) 인코딩된 오디오 메타데이터-기반 등화
US20090192638A1 (en) device for and method of generating audio data for transmission to a plurality of audio reproduction units
RU2617553C2 (ru) Система и способ для генерирования, кодирования и представления данных адаптивного звукового сигнала
TWI549527B (zh) 使用物件式元資料來產生音訊輸出信號之裝置與方法(一)
KR20200014428A (ko) 3차원 오디오 사운드트랙의 인코딩 및 재현
KR20100063092A (ko) 오디오 신호의 디코딩 방법 및 장치
US11564050B2 (en) Audio output apparatus and method of controlling thereof
EP3809709A1 (en) Apparatus and method for audio encoding
Quackenbush et al. MPEG standards for compressed representation of immersive audio
JP6588016B2 (ja) サーバ装置、およびサーバ装置の情報処理方法、並びにプログラム
US20240163629A1 (en) Adaptive sound scene rotation
KR20160002319U (ko) 오디오 일체형 셋톱박스

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180606

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190911

R150 Certificate of patent or registration of utility model

Ref document number: 6588016

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150