JP6582722B2 - コンテンツ配信装置 - Google Patents

コンテンツ配信装置 Download PDF

Info

Publication number
JP6582722B2
JP6582722B2 JP2015162183A JP2015162183A JP6582722B2 JP 6582722 B2 JP6582722 B2 JP 6582722B2 JP 2015162183 A JP2015162183 A JP 2015162183A JP 2015162183 A JP2015162183 A JP 2015162183A JP 6582722 B2 JP6582722 B2 JP 6582722B2
Authority
JP
Japan
Prior art keywords
content
data
unit
distribution
sound source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015162183A
Other languages
English (en)
Other versions
JP2017041743A (ja
Inventor
治 小原
治 小原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2015162183A priority Critical patent/JP6582722B2/ja
Priority to PCT/JP2016/073061 priority patent/WO2017030015A1/ja
Publication of JP2017041743A publication Critical patent/JP2017041743A/ja
Priority to US15/724,700 priority patent/US10448156B2/en
Application granted granted Critical
Publication of JP6582722B2 publication Critical patent/JP6582722B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43076Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of the same content streams on multiple devices, e.g. when family members are watching the same movie on different devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/231Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43632Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • H04N21/43635HDMI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43637Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wireless protocol, e.g. Bluetooth, RF or wireless LAN [IEEE 802.11]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R27/00Public address systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/07Applications of wireless loudspeakers or wireless microphones

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Details Of Audible-Bandwidth Transducers (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Description

本発明は、クライアント装置へコンテンツを配信するコンテンツ配信装置に関する。
特許文献1には、コンテンツを配信するコンテンツ配信装置と、配信されたコンテンツを再生するクライアント装置と、が開示されている。
特許文献1に開示されたコンテンツ配信装置は、コンテンツを記録するハードディスクと、当該ハードディスクより読みだしたコンテンツを一時保持するFIFOを備えている。特許文献1に開示されたコンテンツ配信装置は、このFIFOに一時保存する時間を調整することで、自装置及び各クライアント装置におけるコンテンツの再生を同期している。
特開2005−148565号公報
上述の通り、特許文献1のコンテンツ配信装置ではFIFOにコンテンツデータを一時記憶させてハードディスクからの読み出し量を制御することにより、配信先クライアントで同期再生を実現していた。しかし、外部入力端子から入力されたコンテンツを配信する場合、例えば、外部の光ディスク装置から連続して出力されるコンテンツの映像をコンテンツ配信装置が再生し、そのコンテンツの音声を各クライアント装置が再生することがある。このように外部からコンテンツが入力される場合、各クライアント装置による音声の再生は、コンテンツ配信装置による映像の再生に比べて遅れることがあるため、コンテンツ配信装置への入力から出力までの遅延を小さくする必要がある。
そこで、本発明の目的は、配信する対象となるコンテンツに応じて最適なコンテンツの配信方法を選択するコンテンツ配信装置を提供することにある。
本発明のコンテンツ配信装置は、コンテンツを受信するコンテンツ受信部と、コンテンツが入力される外部入力部と、クライアント装置へコンテンツを配信する配信部と、を備える。
外部入力部は、例えば、コンポジットケーブルが接続されるコネクタを有する。ただし、外部入力部は、コンテンツを伝送する無線信号が入力されるネットワークインターフェースを有する態様であってもよい。
外部入力部に入力されるコンテンツは、例えば、光ディスク装置が出力するコンテンツの一部(音声データ)である。光ディスク装置は、他の装置(例えばテレビ)に映像データを出力しつつ、音声データをコンテンツ配信装置に出力する場合がある。このような場合、テレビ側の映像の再生に対して各クライアント装置側での音声データの再生が遅れないように、リアルタイム再生が要求される。
コンテンツ受信部が受信するコンテンツは、例えば、NAS(Network Attached Storage)、又はコンテンツ配信装置の内蔵ストレージに記憶されているコンテンツ、等である。このようなコンテンツの場合は、他の装置(例えばテレビ)に映像データを出力しつつ音声データを配信する必要がないため、コンテンツをバッファしたとしてもクライアント装置の再生だけが遅れる、という状況にはならない。
配信部は、コンテンツの基本成分及び拡張成分を配信する。例えば、配信部は、音声圧縮コーデックであるWavPackコーデックを用いて、音声データを基本成分及び拡張成分に分けて2つの圧縮データを生成する。基本成分のみの圧縮データを用いるだけでも音声の再生は可能である。基本成分と拡張成分の両方の圧縮データを用いれば、圧縮による損失がない状態の再生が可能となる。
配信部は、コンテンツ受信部が受信したコンテンツを配信する場合、コンテンツの基本成分及び拡張成分をバッファに一時保持してから配信する。すなわち、配信部は、リアルタイム再生が要求されないコンテンツを、バッファしてから配信する。これにより、コンテンツ配信装置は、クライアント装置間でのコンテンツ再生を確実に同期させることができる。さらに、クライアント装置は、コンテンツの基本成分及び拡張成分を受信するので、高品質なコンテンツを再生できる。
配信部は、外部入力部に入力されたコンテンツ(リアルタイム再生が必要なコンテンツ)を、バッファせずに入力後すぐに配信する。さらに、配信部は、外部入力部に入力されるコンテンツを配信する場合、コンテンツの基本成分を複数回配信する。これにより、クライアント装置は、配信するデータの抜けが生じる可能性があっても、コンテンツの基本成分をより確実に受信する。クライアント装置は、より確実に受信できる基本成分のみでコンテンツ再生が可能であるので、コンテンツの再送要求を不要とする。コンテンツ配信装置は、コンテンツの再送要求にかかる時間を不要とするので、クライアント装置におけるコンテンツ再生の遅延を防止することができる。
本発明のコンテンツ配信装置は、配信する対象となるコンテンツに応じて最適なコンテンツの配信方法を選択できる。
実施形態1に係るコンテンツ配信システムの概要を説明するための図である。 (A)は、AVレシーバの構成の一部を示すハードウェアブロック図であり、(B)は、無線スピーカの構成の一部を示すハードウェアブロック図である。 AVレシーバの構成の一部を示す機能ブロック図である。 AVレシーバの動作を示すフローチャートである。 実施形態1におけるAVレシーバの動作の変形例に係る動作を示すフローチャートである。
実施形態1に係るコンテンツ配信システム900について、図1、図2(A)、図2(B)を用いて説明する。図1は、コンテンツ配信システム900の概要を説明するための図である。図2(A)は、AVレシーバ100の構成の一部を示すハードウェアブロック図である。図2(B)は、無線スピーカ301SLの構成の一部を示すハードウェアブロック図である。
図1に示すように、コンテンツ配信システム900は、AVレシーバ100と、プレーヤ150と、NAS(Network Attached Storage)170と、スピーカ200Lと、スピーカ200Rと、テレビ210と、無線スピーカ301SLと、無線スピーカ301SRと、を備えている。
例えば、プレーヤ150は、光ディスクドライブを備える。プレーヤ150は、光ディスクに記憶されたPCM音源データを出力する。NAS170は、複数のPCM音源データを記憶している。AVレシーバ100は、プレーヤ150から出力されるPCM音源データと、NAS170に記憶されているPCM音源データとを、無線スピーカ301SL、及び無線スピーカ301SRに配信する。本実施形態におけるAVレシーバ100は、配信対象となるコンテンツに応じて、最適な配信方法を選択するものである。
図2(A)に示すように、AVレシーバ100は、CPU(Central Processing Unit)1と、メモリ2と、DSP(Digital Signal Processor)3と、無線モジュール4と、AMP(Amplifier)5と、HDMI(High Definition Multimedia Interface(HDMIは登録商標)6と、複数の操作ボタン7と、を備えている。これら構成は、共通のBUSに接続されている。
DSP3は、PCM音源データに対する各種音響処理のためのプロセッサである。無線モジュール4は、Wi−Fi(登録商標)規格等の無線信号を生成する。また、無線モジュール4は、アンテナ(不図示)で無線信号を入出力する。これにより、無線モジュール4は、無線通信で情報を送受信する。AMP5は、音声信号を増幅する回路である。AMP5によって増幅された音声信号は、スピーカ200L及びスピーカ200Rへ出力される。スピーカ200LへはLチャンネルの音声信号が出力される。スピーカ200RへはRチャンネルの音声信号が出力される。HDMI6は、コンテンツを入出力するためのインターフェースである。HDMI6は、プレーヤ150のHDMI(不図示)に接続されている。複数の操作ボタン7は、ユーザに操作されると、操作を示す信号を出力する。メモリ2は、無線スピーカ301SL、及び無線スピーカ301SRのIPアドレスを記憶している。メモリ2は、プログラムを記憶している。CPU1は、メモリ2からプログラムを読み出し、読み出したプログラムを実行する。
図2(B)に示すように、無線スピーカ301SLは、CPU31と、メモリ32と、無線モジュール34と、AMP35と、を備えている。これら構成は、共通のBUSに接続されている。
無線モジュール34は、Wi−Fi(登録商標)規格等の無線信号を生成する。また、無線モジュール34は、アンテナ(不図示)で無線信号を入出力する。これにより、無線モジュール34は、無線通信で情報を送受信する。AMP35は、音声信号を増幅する回路である。AMP35によって増幅された音声信号は、スピーカユニット(不図示)に出力される。メモリ32は、プログラムを記憶している。CPU31は、メモリ32からプログラムを読み出し、読み出したプログラムを実行する。
図示は省略するが、無線スピーカ301SRは、無線スピーカ301SLと同様の構成を備えている。無線スピーカ301SLは、SLチャンネルの音声データを受信する。無線スピーカ301SRは、SRチャンネルの音声データを受信する。
AVレシーバ100は、プログラムを実行することで、図3の機能ブロック図に示す各機能部を実現する。
図3に示すように、AVレシーバ100は、機能部として、外部入力部10と、コンテンツ受信部12と、音声出力部14と、配信部16と、映像出力部18と、を備えている。外部入力部10は、少なくともHDMI6によって実現されている。コンテンツ受信部12は、少なくとも無線モジュール4によって実現されている。音声出力部14は、少なくともAMP5及び音声出力端子14Aによって実現されている。配信部16は、少なくともメモリ2及び無線モジュール4によって実現されている。映像出力部18は、少なくともHDMI6によって実現されている。
外部入力部10には、プレーヤ150から出力されたPCM音源データが入力される。外部入力部10に入力されたPCM音源データは、音声出力部14と、配信部16とへ出力される。コンテンツ受信部12は、NAS170に記憶されているPCM音源データを受信する。コンテンツ受信部12が受信するPCM音源データは、音声出力部14と、配信部16とへ出力される。なお、各PCM音源データは、音声出力部14及び配信部16に入力される前に、DSP3によって音響処理(例えばイコライジング)が施されてもよい。
音声出力部14は、入力されたPCM音源データのうち、Lチャンネルの音声データをデジタルアナログ変換したうえでスピーカ200Lへ出力する。音声出力部14は、入力された音声データのうち、Rチャンネルの音声データをデジタルアナログ変換したうえでスピーカ200Rへ出力する。
配信部16は、入力されたPCM音源データのうち、SLチャンネルの音声データを無線スピーカ301SLへ配信する。配信部16は、入力された音声データのうち、SRチャンネルの音声データを無線スピーカ301SRへ配信する。
配信部16は、無線スピーカ301SL及び無線スピーカ301SRにおける音声データの再生の遅延を防止するために、FIFO形式のバッファ17を備えている。配信部16は、バッファ17を用いて、次のように動作する。図4は、配信部16の動作を示すフローチャートである。なお、バッファ17はメモリ2によって実現されている。
図4に示すように、配信部16は、配信すべき音声データを設定する(S1)。まず、配信部16は、複数のボタン7で受け付けたソース選択操作に基づいて、外部入力部10が出力するPCM音源データを配信するか、又は、コンテンツ受信部12が受信するPCM音源データを配信するかを設定する。配信部16は、コンテンツ受信部12が受信するPCM音源データを配信すると設定した場合、さらに、複数の操作ボタン7で受け付けたデータ選択操作に基づいて、NAS170が記憶する複数のPCM音源データから、配信すべきPCM音源データを選択する。
次に、配信部16は、ステップS1で設定したPCM音源データのソースに応じて異なる配信処理を実行する(S2)。
<コンテンツ受信部が受信するPCM音源データの配信>
配信部16は、コンテンツ受信部12が受信するPCM音源データを配信すると設定した場合(S2:コンテンツ受信部)、当該PCM音源データの先頭データをバッファ17に一時保持する(S21)。NAS170に記憶されているPCM音源データは、コンテンツ受信部12が必要に応じて受信するPULL型のデータである。換言すれば、NAS170に記憶されているPCM音源データは、バッファ可能でリアルタイム再生を要求しないものである。そこで、配信部16は、ステップS21では、所望の量のPCM音源データをバッファする。所望の量は、例えば、PCM音源データの2秒間の再生時間分に対応する。
そして、配信部16は、PCM音源データをバッファ17から取出し、取り出したPCM音源データを圧縮する(S22)。ここで、配信部16は、WavPackコーデックを用いてPCM音源データを、基本成分及び拡張成分のデータに分けて圧縮する。基本成分のデータは、非可逆圧縮で生成される。基本成分のデータのみでも音声の再生は可能である。基本成分のデータを拡張成分のデータで補正すれば、圧縮による損失がない音声データPCM音源(例えば、1,411kbpsのビットレートデータ)が復元される。配信部16は、例えば、200kbpsのビットレートでPCM音源データの基本成分のデータを生成し、600kbpsのビットレートでそのPCM音源データの拡張成分のデータを生成する。
次に、配信部16は、生成した基本成分及び拡張成分のデータを含むパケットを生成する(S23)。配信部16は、生成したパケットを送信する(S24)。このパケットは、無線アクセスポイント500を介して無線スピーカ301SL及び無線スピーカ301SRへ送信される。
無線スピーカ301SL及び無線スピーカ301SRのCPU31は、AVレシーバ100からパケットを受信すると、受信したパケットからデータを取り出す。そして、CPU31は、WavPackコーデックを用いて取り出したデータを復元する。すると、損失がない状態のPCM音源データが復元される。その後、CPU31は、復元されたPCM音源データから生成されるアナログ音声信号をスピーカユニット(不図示)へ出力する。
配信部16は、さらに配信すべき次のデータが存在するか否かを判断する(S25)。配信部16は、ステップS24で配信したデータの次のデータが存在する場合(S25:Y)、ステップS21に戻る。配信部16は、ステップS21に戻ると、配信したデータの次のデータを対象にして、ステップS21〜S24の処理を行う。配信部16は、ステップS24で配信したデータがPCM音源データの最後のデータの場合(S25:N)、処理を終える。すなわち、配信部16は、配信すべきPCM音源データの先頭データから最後尾データまでステップS21〜S24の処理を繰り返し実行する。
なお、図示は省略するが、音声出力部14は、SLチャンネル及びSRチャンネルのPCM音源データの配信中に、Lチャンネル及びRチャンネルのPCM音源データに対応する音声信号をスピーカ200L及びスピーカ200Rへ出力する。この際、音声出力部14は、FIFO形式のバッファ15(図3を参照)にPCM音源データを一時保持してから音声信号を出力する。バッファ15に一時保持する時間は、配信部16による配信処理、パケット伝送、及び無線スピーカ301SL及び無線スピーカ301SRによる再生処理に必要な時間が考慮されて設定される。これにより、スピーカ200L、スピーカ200R、無線スピーカ301SL、及び無線スピーカ301SRは、PCM音源データを同期再生する。
配信部16は、例えばPCM音源データのバッファ処理(S21)に0.5秒間の遅延が生じたとしても、バッファ17に2秒間の再生時間分のPCM音源データが一時保持されているので、一時保持されているPCM音源データを送信することができる(S22〜S24)。これにより、AVレシーバ100は、無線スピーカ301SL及び無線スピーカ301SRにおけるPCM音源データの再生の遅延を防止することができる。なお、配信部16は、バッファ処理(S21)に遅延が生じた場合、再び、2秒間の再生時間分のPCM音源データをバッファ17に一時保持されているように、コンテンツ受信部12からより多くのPCM音源データを取得する。
<外部入力部に入力された音声データの配信>
プレーヤ150が出力するPCM音源データは、プレーヤ150が順次出力するPUSH型のデータである。換言すれば、プレーヤ150が出力するPCM音源データは、リアルタイム再生を必要とするものである。なお、本実施形態においてリアルタイム再生とは、外部入力部10に音声データが入力されたタイミングと、スピーカ200L、スピーカ200R、無線スピーカ301SL及び無線スピーカ301SRがその音声データを再生するタイミングと、が略同時であることを意味する。従って、本実施形態では、外部入力部10に音声データが入力されたタイミングと、各スピーカがその音声データを再生するタイミングとの間に数十ミリ秒の時間差がある再生もリアルタイム再生である。
配信部16は、外部入力部10に入力されたPCM音源データを配信すると設定した場合(S2:外部入力部)、当該PCM音源データの先頭データをバッファせずに、当該データを圧縮して基本成分及び拡張成分のデータを生成する(S11)。この基本成分及び拡張成分のデータの生成処理は、ステップS22の処理と同様であるので、説明を省略する。そして、配信部16は、生成した基本成分及び拡張成分のデータを含むパケットを生成する(S12)。ここで、配信部16は、無線スピーカ301SL及び無線スピーカ301SRにパケットがより早く到達するために、コネクションレス型通信で伝送されるUDP(User Datagram Protocol)パケットを生成することが好ましい。そして、配信部16は、生成したパケットを配信する(S13)。配信部16は、コネクションレス型通信を行う場合、接続状態を確認しないので、より早くパケットを送信できる。
配信部16は、基本成分及び拡張成分のデータを含むパケットを送信すると(S13)、基本成分のデータを含むパケットのみを再度送信する(S14)。この際、配信部16は、パケットが再送されたものである旨を示す情報(例えば、フラグ情報)を再送するパケットに含めて送信する。これにより、無線スピーカ301SL及び無線スピーカ301SRは、重複する音声データを含むパケットを判別できるので、音声データを重複して再生することがない。なお、基本成分のデータの再送は、複数回行われてもよい。
配信部16は、さらに配信すべき次のデータが存在するのか否かを判断する(S15)。配信部16は、外部入力部10にPCM音源データが入力され続けている場合(S15:Y)、ステップS11へ戻る。配信部16は、外部入力部10へのPCM音源データの入力がなくなった場合(S15:N)、処理を終える。すなわち、配信部16は、外部入力部10にPCM音源データが入力され続ける限り、ステップS11〜S14を繰り返し実行する。
配信部16は、外部入力部10に入力されたPCM音源データをバッファせずにすぐ送信するので、PCM音源データを無線スピーカ301SL及び無線スピーカ301SRにより早く配信することができる。
また、無線スピーカ301SL及び無線スピーカ301SRは、パケットロスが生じたとしても、配信部16が基本成分のデータを含むパケットを2回送信するので、基本成分のデータをより確実に受信する。これにより、無線スピーカ301SL及び無線スピーカ301SRがより確実に受信できる基本成分のデータを用いて音声を再生するので、音声データの再送の要求をしなくてもよい。このようにAVレシーバ100は、音声データの再送にかかる時間を不要とすることで、無線スピーカ301SL及び無線スピーカ301SRにおける音声データの再生の遅延を防止することができる。
以上のように、AVレシーバ100は、リアルタイム再生が必要な音声データの配信の遅延を防止しつつ、リアルタイム再生が必要ない音声データを高品質な状態で配信する。従って、AVレシーバ100は、配信対象の音声データに応じて、最適な配信方法を選択することができる。
なお、本実施形態では、スピーカ200L及びスピーカ200Rは、AVレシーバ100に接続されていたが、スピーカケーブルによってプレーヤ150に直接的に接続されてもよい。AVレシーバ100は、スピーカ200L及びスピーカ200Rが直接的にプレーヤ150に接続されても、外部入力部10に入力されたPCM音源データを配信する場合(S2:外部入力部)、PCM音源データをバッファせずに、かつ圧縮後のPCM音源データの基本成分のデータのみを2回送信する。これにより、AVレシーバ100は、スピーカ200L及びスピーカ200Rが直接的にプレーヤ150に接続されても、無線スピーカ301SL及び無線スピーカ301SRにおける音声データの再生が遅延することを防止することができる。
また、本実施形態では、AVレシーバ100は、スピーカ200L及びスピーカ200Rを用いて音声データのみを再生したが、音声データに加えて映像データを再生してもよい。より具体的には、外部入力部10には、音声データ及び映像データが入力される。コンテンツ受信部12は、音声データ及び映像データを受信する。外部入力部10に入力された映像データは、図3に示すように、映像出力部18へ出力される。コンテンツ受信部12が受信した映像データは、映像出力部18へ出力される。
図3に示すように、映像出力部18は、FIFO形式のバッファ19を備えている。映像出力部18は、コンテンツ受信部12が受信する音声データが配信される場合、映像データをバッファ19に一時保持してからテレビ210へ出力する。バッファ19に一時保持する映像データの量は、バッファ15に一時保持する音声データの量と同様に、配信部16による配信処理、パケット伝送、及び無線スピーカ301SL及び無線スピーカ301SRによる再生処理に必要な時間が考慮されて設定される。これにより、スピーカ200L、スピーカ200R、無線スピーカ301SL、及び無線スピーカ301SRにおける音声の再生と、テレビ210による映像の再生とは同期する。
映像出力部18は、配信部16が外部入力部10に入力された音声データを配信する場合、HDMI6から映像データをテレビ210へ出力する。この場合であっても、AVレシーバ100は、音声データをバッファせずに、かつ音声データの基本成分のデータのみを2回配信するので、テレビ210による映像の再生に対して、無線スピーカ301SL及び無線スピーカ301SRにおける音声の再生が遅延することを防止することができる。
なお、外部入力部10は、HDMI6以外にコンポジット端子を備えてもよい。さらに、外部入力部10は、連続して無線送信されるコンテンツを受信するネットワークインターフェース(例えば無線モジュール4)を備えてもよい。
また、ステップS21におけるバッファ処理は、パケット送信前(S24の前)であればいつでもよい。例えば、AVレシーバ100は、PCM音源データそのものに代えて、PCM音源データの基本成分及び拡張成分のデータをバッファ17に一時保持してもよい。
次に、図5は、配信部16の動作の変形例に係る動作を示すフローチャートである。図5のフローチャートは、ステップS3、及びステップS11A〜S15Aを実行する点において、図4に示すフローチャートと相違する。なお、図5において、図4のフローチャートと重複するステップS21〜S24の図示は省略している。
配信部16は、ステップS3では、無線スピーカのIPアドレスが記憶されているメモリ2を参照することで、音声データの配信先の台数が3台以上であるか否かを判断する(S3)。
配信部16は、配信先の台数が3台以上の場合(S3:Y)、ステップS11A〜S15Aを順次実行する。配信部16は、PCM音源データの基本成分のデータのみを生成し、基本成分のデータのみを対象としてパケットの生成及び送信を行う(S11A〜S13A)。ステップS14A及びステップS15Aの各処理は、ステップS14及びステップS15の各処理と同じであるので、説明を省略する。
この変形例に係る動作では、配信部16は、パケットの生成時間及びパケット伝送時間をさらに短くすることができる。従って、無線スピーカ301SL及び無線スピーカ301SRに音声データが届くまでの時間はさらに短くなる。
配信部16は、配信先のスピーカの台数が3台未満の場合(S3:N)、ステップS11〜S15を順次実行する。
なお、配信部16は、配信先のスピーカの台数に関わらず、外部入力部10に入力されたPCM音源データの基本成分のデータのみを配信してもよい。
また、上述の例は、NAS170に記憶されているコンテンツがバッファ17に一時保持された後に配信されたが、AVレシーバ100の内蔵ストレージに記憶されているコンテンツがバッファ17に一時保持された後に配信されてもよい。
また、上述の例は、配信されるコンテンツを音声データとして示したが、配信されるコンテンツは映像データを含んでもよい。映像データを基本成分及び拡張成分に分けて圧縮するには、例えば、MPEG4 SLSコーデックを用いる。
また、AVレシーバ100は、Wi−Fi(登録商標)規格に限らず、Bluetooth(登録商標)規格の無線通信でコンテンツを配信してもよい。
900…コンテンツ配信システム
100…AVレシーバ
150…プレーヤ
170…NAS
200L,200R…スピーカ
210…テレビ
301SL,301SR…無線スピーカ
500…無線アクセスポイント
1…CPU
2…メモリ
3…DSP
4…無線モジュール
5…AMP
6…HDMI
7…操作ボタン
10…外部入力部
12…コンテンツ受信部
14…音声出力部
14A…音声出力端子
15…バッファ
16…配信部
17…バッファ
18…映像出力部
19…バッファ
31…CPU
32…メモリ
34…無線モジュール
35…AMP

Claims (4)

  1. リアルタイム再生を必要としない第1コンテンツを受信するコンテンツ受信部と、
    リアルタイム再生を必要とする第2コンテンツが入力される外部入力部と、
    無線通信でクライアント装置へ前記第1コンテンツまたは前記第2コンテンツを配信する配信部と、
    前記第1コンテンツを一時保持するバッファと、
    を備え、
    前記配信部は、
    前記第1コンテンツまたは前記第2コンテンツの基本成分及び拡張成分を配信し、
    前記コンテンツ受信部が受信した前記第1コンテンツを配信する場合、前記第1コンテンツの基本成分及び拡張成分を前記バッファに一時保持させてから配信し、
    前記外部入力部に入力された前記第2コンテンツを配信する場合、前記第2コンテンツの基本成分及び拡張成分を配信した後、前記第2コンテンツの基本成分を複数回配信する、
    コンテンツ配信装置。
  2. 前記配信部は、前記外部入力部に入力された前記第2コンテンツを配信する場合、前記クライアント装置との接続状態を確認せずに、前記第2コンテンツの基本成分を配信する、
    請求項1に記載のコンテンツ配信装置。
  3. 前記配信部は、前記外部入力部に入力された前記第2コンテンツを配信する場合、前記第2コンテンツの拡張成分を配信しない、
    請求項1又は2に記載のコンテンツ配信装置。
  4. 前記配信部は、前記外部入力部に入力された前記第2コンテンツを配信し、かつ配信先の前記クライアント装置の台数が所定台数以上の場合、前記第2コンテンツの拡張成分を配信せず、前記基本成分を配信する、
    請求項1〜3のいずれかに記載のコンテンツ配信装置。
JP2015162183A 2015-08-19 2015-08-19 コンテンツ配信装置 Active JP6582722B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015162183A JP6582722B2 (ja) 2015-08-19 2015-08-19 コンテンツ配信装置
PCT/JP2016/073061 WO2017030015A1 (ja) 2015-08-19 2016-08-05 コンテンツ配信装置、コンテンツ配信システム、およびコンテンツ配信方法
US15/724,700 US10448156B2 (en) 2015-08-19 2017-10-04 Content delivery apparatus, content delivery system and content delivery method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015162183A JP6582722B2 (ja) 2015-08-19 2015-08-19 コンテンツ配信装置

Publications (2)

Publication Number Publication Date
JP2017041743A JP2017041743A (ja) 2017-02-23
JP6582722B2 true JP6582722B2 (ja) 2019-10-02

Family

ID=58050941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015162183A Active JP6582722B2 (ja) 2015-08-19 2015-08-19 コンテンツ配信装置

Country Status (3)

Country Link
US (1) US10448156B2 (ja)
JP (1) JP6582722B2 (ja)
WO (1) WO2017030015A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6210607B2 (ja) * 2013-07-23 2017-10-11 株式会社ディーアンドエムホールディングス オーディオポートを用いた遠隔システム構成
US10752454B2 (en) 2016-04-14 2020-08-25 Richard S. Burns & Company, Inc. Debris carts and systems and methods of using same
JP7059013B2 (ja) 2018-01-05 2022-04-25 キヤノン株式会社 画像形成装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4100182B2 (ja) 2003-01-30 2008-06-11 松下電器産業株式会社 通信端末装置及びその制御方法
JP4289129B2 (ja) 2003-11-18 2009-07-01 ヤマハ株式会社 オーディオ配信システム
CN1989563B (zh) 2005-02-01 2011-06-22 松下电器产业株式会社 再现装置、程序和再现方法
US20070030986A1 (en) * 2005-08-04 2007-02-08 Mcarthur Kelly M System and methods for aligning capture and playback clocks in a wireless digital audio distribution system
JP2009111882A (ja) * 2007-10-31 2009-05-21 Toshiba Corp 動画像およびオーディオ再生装置およびオーディオ再生方法
US8724600B2 (en) * 2008-01-07 2014-05-13 Tymphany Hong Kong Limited Systems and methods for providing a media playback in a networked environment
JP5262536B2 (ja) * 2008-10-02 2013-08-14 日本電気株式会社 コンテンツ配信システム、配信装置、再生装置、配信方法、再生方法およびプログラム
JP2014131140A (ja) * 2012-12-28 2014-07-10 Yamaha Corp 通信システム、avレシーバ、および通信アダプタ装置

Also Published As

Publication number Publication date
WO2017030015A1 (ja) 2017-02-23
US20180027328A1 (en) 2018-01-25
JP2017041743A (ja) 2017-02-23
US10448156B2 (en) 2019-10-15

Similar Documents

Publication Publication Date Title
US10454604B2 (en) Encoded audio synchronization
TWI545971B (zh) 藍牙發聲裝置的音頻同步方法
US9837093B2 (en) Packet based delivery of multi-channel audio over wireless links
US10587954B2 (en) Packet based delivery of multi-channel audio over wireless links
JP6582722B2 (ja) コンテンツ配信装置
JP6122626B2 (ja) 復号装置およびプログラム
KR100917716B1 (ko) 네트워크를 이용한 전관 방송 시스템의 로컬 방송 장치
JP6720566B2 (ja) オーディオ機器
JP4986229B2 (ja) 同期した異なる種類のストリーミングデータを受信し且つ同時に再生する受信システム、受信装置及びプログラム
JP5532638B2 (ja) データ配信システム
US10209952B2 (en) Content reproduction device, content reproduction system, and control method for a content reproduction device
US11516272B2 (en) Method of improving synchronization of the playback of audio data between a plurality of audio sub-systems
JP2008271415A (ja) 受信音声出力装置
US10531160B2 (en) Content transmission apparatus, content delivery system, and content transmission method
US11438400B2 (en) Content data delivery system, server, and content data delivery method
JP6578808B2 (ja) コンテンツデータ受信装置
JP6972576B2 (ja) 通信装置、通信システム、通信方法及びプログラム
JP2022006536A (ja) 通信システム、通信装置、及び通信プログラム
JP2013135355A (ja) 通信システム
JP4947295B2 (ja) 送受信装置、データ量調整方法、データ量調整プログラムおよび通信システム
JP2017017383A (ja) 送信装置、送信方法、並びに、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190618

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190819

R151 Written notification of patent or utility model registration

Ref document number: 6582722

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151