JP5982791B2 - 情報処理装置及び情報処理方法、情報提供装置、並びに、情報提供システム - Google Patents

情報処理装置及び情報処理方法、情報提供装置、並びに、情報提供システム Download PDF

Info

Publication number
JP5982791B2
JP5982791B2 JP2011250718A JP2011250718A JP5982791B2 JP 5982791 B2 JP5982791 B2 JP 5982791B2 JP 2011250718 A JP2011250718 A JP 2011250718A JP 2011250718 A JP2011250718 A JP 2011250718A JP 5982791 B2 JP5982791 B2 JP 5982791B2
Authority
JP
Japan
Prior art keywords
content
audio
feature point
information
point information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011250718A
Other languages
English (en)
Other versions
JP2013105146A (ja
Inventor
中村 仁
仁 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2011250718A priority Critical patent/JP5982791B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to CN201280055207.8A priority patent/CN103931202B/zh
Priority to PCT/JP2012/071567 priority patent/WO2013073250A1/ja
Priority to EP12849962.1A priority patent/EP2782336B1/en
Priority to US14/348,960 priority patent/US10477267B2/en
Priority to CA2849062A priority patent/CA2849062C/en
Priority to MX2014005650A priority patent/MX350619B/es
Publication of JP2013105146A publication Critical patent/JP2013105146A/ja
Priority to IN882MUN2014 priority patent/IN2014MN00882A/en
Application granted granted Critical
Publication of JP5982791B2 publication Critical patent/JP5982791B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/10Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
    • G06F21/16Program or content traceability, e.g. by watermarking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2389Multiplex stream processing, e.g. multiplex stream encrypting
    • H04N21/23892Multiplex stream processing, e.g. multiplex stream encrypting involving embedding information at multiplex stream level, e.g. embedding a watermark at packet level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6582Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8358Generation of protective data, e.g. certificates involving watermark

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Technology Law (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本明細書で開示する技術は、自動コンテンツ認識のためにコンテンツから特徴点情報を抽出する情報処理装置及び情報処理方法、コンテンツから抽出した特徴点情報に基づいてコンテンツの情報を提供する情報提供装置、並びに、コンテンツから抽出した特徴点情報に基づいてコンテンツの情報を提供する情報提供システムに関する。
近年、画像や音声を認識並びに理解する技術が発展し、民生機器のさまざまなアプリケーションに画像や音声など各種の認識・理解技術が利用されることが多くなってきている。一例として、インターネットを利用したクライアント・サーバー・システムで構築された、ACR(Automatic Content Recognition:自動コンテンツ認識)が挙げられ、ACRサービスと呼ばれて、さまざまなアプリケーションが提案されている。
ACRサービスの用途の1つとして、違法コピー検出などコンテンツの権利統制を挙げることができる。例えば、インターネット経由でコンテンツを配信する際に、認識・理解技術を利用してコンテンツを識別し、そのコンテンツが合法なものか否かを照会する。最近では、ファイル共有サービスの普及とも相まって、画像や音声からコンテンツをより正確に識別するニーズが高まってきている。
また、ACRサービスの他の用途として、コンテンツを視聴するユーザーに付加価値を提供するサービスを挙げることができる。例えば、放送又は配信されたコンテンツを同定して、コンテンツの視聴と同期するように、コンテンツに関連する情報をインターネット経由で提供する。米グレースノート社(Gracenote,Inc.Berkeley,California)から提供されているCDDB楽曲識別サービスは、コンパクト・ディスク(CD)を識別して、識別されたCDに関する情報(アルバム名やアーティスト名、トラック名、インターネット上の関連コンテンツ(アルバム・カバーやアーティスト、ファンのウェブサイト)など)へのアクセスを提供する。
ACRサービスでは、例えば、コンテンツをデコードして表示する最終段において、コンテンツ内からWatermark(電子透かし)やfingerprint(特徴点情報)を抽出して、そのコンテンツを同定するものであり、コンテンツのデリバリー・チェーンには依存しない。
放送番組などのビデオ情報とオーディオ情報を含むコンテンツを同定する場合、ビデオ情報とオーディオ情報のうち片方のみを利用してコンテンツを同定する方法や、両方を利用してコンテンツを同定する方法が考えられる。
例えば、オーディオ情報のみを利用してコンテンツを同定する方法として、ディジタル的にサンプリングされた波形の1つ以上のセグメントを使用して、複数の振幅バンド又はスロットの各々において、波形のセグメント内の発生回数をカウントすることによって波形の振幅シグネチャを形成し、データベース内の振幅シグネチャとのファジー比較を実行し、1つ以上の潜在的な整合が発見された場合にはより正確な比較を実行することによって、波形を示すレコードのデータベースに波形の整合を発見する方法について提案がなされている(例えば特許文献1を参照のこと)。
コンテンツを同定する際に、ビデオ情報とオーディオ情報のうち片方のみを利用するか、両方を利用するかは、ACRサービスの目的用途、コンテンツ認識率の目標、システム設計及び運用コストの制約などに応じて、システム設計時にサービス仕様又はアプリケーション仕様の一環で定義される。
現状では、システム設計及び運用コストの面で、オーディオ情報だけを利用してACRサービスを実現することが、扱う情報量と処理量の観点から、最も負荷を軽くするには有利であると考えられている。何故ならば、オーディオ情報は、ビデオ情報よりも、コンテンツを同定するための特徴点情報のデータ量が少なくて済む場合が多いからである。
しかしながら、たとえコンテンツ毎の特徴点情報のデータ量が少なくても、扱うコンテンツの数が多くなればなるほど、ACRサービスのサーバー側に用意すべき特徴点情報のデータ量は増大する。オーディオ情報を扱うACRサービスのデータベースの物理的な容量の肥大化は、システム設計及び運用上、大きな課題となる。
システム設計上の課題として、扱うコンテンツの数が増えれば、各コンテンツを同定するための特徴点情報を蓄えておくデータベースの容量が大きくなり、同定するための処理と、同定できるまでの時間が増大する。また、システム運用上の課題として、扱うコンテンツの数が増えれば、各コンテンツを同定するための特徴点情報を蓄えておくデータベースの容量が大きくなり、物理的なデータベースを用意する設備投資、維持する経費などが増える。オーディオ情報だけを利用する場合であっても、これらの課題に対策を講じる必要がある、と本発明者らは思料する。
特表2004−511838号公報
本明細書で開示する技術の目的は、ACRサービスのサーバー側のシステム設計及び運用上の負担を軽減するよう、オーディオ情報を含んだコンテンツから特徴点情報を好適に抽出することができる、優れた情報処理装置及び情報処理方法を提供することにある。
本明細書で開示する技術のさらなる目的は、システム設計及び運用上の負担が軽くなるよう、コンテンツのオーディオ情報から抽出された特徴点情報に基づいてコンテンツの情報を好適に提供することができる、優れた情報提供装置を提供することにある。
また、本明細書で開示する技術のさらなる目的は、ACRサービスのサーバー側のシステム設計及び運用上の負担を軽減するよう、コンテンツのオーディオ情報から抽出された特徴点情報に基づいてコンテンツの情報を好適に提供することができる、優れた情報提供システムを提供することにある。
本願は、上記課題を参酌してなされたものであり、請求項1に記載の技術は、
主音声と1以上の副音声を含むコンテンツを入力する入力部と、
入力されたコンテンツに含まれる主音声と1以上の副音声のうちいずれかをデコード再生して音声出力する音声出力部と、
入力されたコンテンツに含まれる主音声から特徴点情報を生成する特徴点情報生成部と、
を具備し、音声ACR機能を主音声データだけで実現する情報処理装置である。
本願の請求項2に記載の技術によれば、請求項1に記載の情報処理装置の特徴点情報生成部は、自動コンテンツ認識動作を行なうときに、特徴点情報の生成処理を実行するように構成されており、音声の主副を認識して、副音声視聴時でも、常に主音声の特徴点情報を生成することができる。
本願の請求項3に記載の技術によれば、請求項1に記載の情報処理装置の視聴用音声出力部で副音声をデコード再生して音声出力しているときには、前記特徴点情報生成部は、自動コンテンツ認識動作を行なうときに、主音声をデコード再生し、その主音声デコード結果に対して特徴点情報を生成するように構成されている。すなわち、情報処理装置は、自動コンテンツ認識動作をきっかけにして主音声のデコード再生を開始するようにして、常に主副同時再生をする必要がないことを特徴とするものである。
本願の請求項4に記載の技術によれば、請求項3に記載の情報処理装置は、副音声視聴時には、デコード再生した主音声から特徴点情報を生成するが、主音声を音声出力しないように構成されている。
本願の請求項5に記載の技術によれば、入力部に入力されるコンテンツは、画像とともにマルチプレクスされている。そして、請求項1に記載の情報処理装置は、入力されたコンテンツをデマルチプレクスするデマルチプレクサー部をさらに備え、前記デマルチプレクサー部は、コンテンツに含まれるすべての音声を対象として処理し、前記音声出力部は、デマルチプレクスされた主音声と1以上の副音声のうち視聴対象の音声信号のみデコード再生して音声出力し、副音声視聴時において自動コンテンツ認識動作を行なうときに、前記特徴点情報生成部は、デマルチプレクスされた主音声をデコード再生し、その主音声デコード結果に対して特徴点情報を生成するように構成されている。すなわち、情報処理装置は、主副信号のうち視聴対象となるどちらか一方のみをデコードしておき、副音声視聴時には、自動コンテンツ認識動作をきっかけにして主音声のデコード再生を開始するようになっており、常に主副同時再生する必要がないことを特徴とするものである。
本願の請求項6に記載の技術によれば、請求項1に記載の情報処理装置は、特徴点情報生成部が主音声から生成した特徴点情報を基に、入力されたコンテンツを同定するコンテンツ同定部をさらに備えている。
本願の請求項7に記載の技術によれば、請求項6に記載の情報処理装置は、ネットワークに接続する通信インターフェース部をさらに備えており、コンテンツ同定部は、コンテンツ識別情報とコンテンツに含まれる主音声の特徴点情報を対応付けた参照特徴点情報データベースに、前記通信インターフェース部を介して照会して、コンテンツ識別情報を取得するように構成されている。
本願の請求項8に記載の技術によれば、請求項7に記載の情報処理装置は、各コンテンツの関連情報を蓄積する関連情報データベースに、前記通信インターフェース部を介して照会して、前記コンテンツ同定部が同定したコンテンツの関連情報を取得する関連情報取得部をさらに備えている。
また、本願の請求項9に記載の技術は、
主音声と1以上の副音声を含むコンテンツを入力する入力ステップと、
入力されたコンテンツに含まれる主音声と1以上の副音声のうちいずれかをデコード再生して音声出力する音声出力ステップと、
入力されたコンテンツに含まれる主音声から特徴点情報を生成する特徴点情報生成ステップと、
を有する情報処理方法である。
また、本願の請求項10に記載の技術は、
主音声と1以上の副音声を含むコンテンツの主音声から生成された特徴点情報とコンテンツ識別情報を対応付けた参照特徴点情報データベースを備え、
特徴点情報を含んだ問い合わせに対して、コンテンツ識別情報を返す、
情報提供装置であり、主音声のみの特徴点情報をデータベース化し、コンテンツの特徴点情報の照会時には主音声のみを使用することで、データベースの容量を最小限にしている。
また、本願の請求項11に記載の技術は、
主音声と1以上の副音声を含むコンテンツを配信するコンテンツ配信装置と、
前記コンテンツ配信装置から配信されたコンテンツをいずれかの音声チャネルで視聴するとともに、主音声から特徴点情報を生成するクライアント装置と、
コンテンツの主音声から生成された特徴点情報とコンテンツ識別情報を対応付けた参照特徴点情報データベースを備え、前記クライアント装置からの特徴点情報に問合せに対して該当するコンテンツ識別情報を提供する情報提供サーバーと、
を具備する情報提供システムである。
但し、ここで言う「システム」とは、複数の装置(又は特定の機能を実現する機能モジュール)が論理的に集合した物のことを言い、各装置や機能モジュールが単一の筐体内にあるか否かは特に問わない。
本明細書で開示する技術によれば、コンテンツのオーディオ情報のうち必ず主音声から特徴点情報を抽出することにより、ACRサービスのサーバー側のシステム設計及び運用上の負担を軽減することができる、優れた情報処理装置及び情報処理方法を提供することができる。
また、本明細書で開示する技術によれば、コンテンツのオーディオ情報のうち主音声から抽出された特徴点情報のみに基づいてコンテンツの情報を提供することにより、システム設計及び運用上の負担が軽くすることができる、優れた情報提供装置を提供することができる。
また、本明細書で開示する技術によれば、コンテンツのオーディオ情報の主音声から抽出された特徴点情報のみに基づいてコンテンツの情報を提供することにより、ACRサービスのサーバー側のシステム設計及び運用上の負担を軽減することができる、優れた情報提供システムを提供することができる。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、視聴と同期してコンテンツに関連する付加価値情報を提供する情報提供システム100の構成を示した図である。 図2は、クライアント装置140の構成例を示した図である。 図3は、複数の音声チャネルを含むコンテンツに対応したデマルチプレクサー部217及び音声復号部219の内部構成を模式的に示した図である。 図4は、制御マイコン部214の制御下で、ACR機能動作を実行する処理手順を示したフローチャートである。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
図1には、ACRサービスの一例として、コンテンツを視聴するユーザーに、視聴と同期してコンテンツに関連する付加価値情報を提供する情報提供システム100の構成を示している。図示の情報提供システム100は、放送コンテンツを配信するコンテンツ配信装置110と、ユーザーが配信コンテンツを視聴するTV受像機などのクライアント装置140と、コンテンツに関連する付加情報を提供する情報提供サーバー150で構成される。
コンテンツ配信装置110は、放送局やコンテンツ・プロバイダーなどで運用され、ケーブル、衛星、IPTVなどの形態でコンテンツを配信する。コンテンツは、ビデオ情報とオーディオ情報を含むが、オーディオ情報として主音声のほかに1以上の副音声を有する場合もある。また、昨今の放送のディジタル化などに相俟って、コンテンツと同時に、関連アプリケーション配信制御情報などを含むメタデータが配信される。メタデータにはコンテンツの識別子などが含まれている。クライアント装置140に本来のメタデータが届く場合には、メタデータからコンテンツの識別子を抽出してACRサービスを実現することができる。
放送局やコンテンツ・プロバイダーなどで運用されるコンテンツ配信装置110から配信(若しくは放送される)コンテンツがTV受像機などのクライアント装置140で直接受信されるとは限らず、図示のように、地域毎のケーブル会社などの放送中継局120で一旦受信された後に再配信される場合もある。複数の放送中継局が介在することも想定される。放送中継局120では、元の放送時間帯からは時間を空けて配信したり、番組の編成を変更したりすることもある。このため、放送中継局120で放送コンテンツを再配信する際に、コンテンツ配信装置110から配信された本来のメタデータに変更を加えたり、あるいは、放送中継局120独自のメタデータに置き換えたりすることもある。このようなメタデータの変更や置き換えに伴い、コンテンツの識別子など本来のメタデータに含まれている一部又は全部の情報が失われることもある。メタデータが失われた以降、コンテンツの素性は不明となる。
このようにして、各家庭には、コンテンツ配信装置110や放送中継局120から配信される放送コンテンツがメタデータとともに届く。但し、TV受像機などのクライアント装置140で直接受信されるとは限らず、図示のように、ケーブル、衛星放送、IPTV用の専用セットボックス(STB)130で一旦受信される場合もある。セットトップボックス130は、一般に、受信した放送コンテンツを、ビデオ情報及びオーディオ情報からなるコンテンツ本体と、メタデータとに分離し、コンテンツ本体のみをRF(Radio Frequency)ケーブルなどを介して、TV受像機などのクライアント装置140に伝送する。
要するに、図1に示した情報提供システム100は、放送局からのメタデータが、ケーブル会社などの放送中継局120や、セットトップボックス130で遮断されるというユース・ケースである。このような場合、クライアント装置140側では、視聴しているコンテンツを、メタデータに含まれるコンテンツの識別子から同定できなくなる。したがって、本実施形態に係る情報提供システム100では、ACRサービスを実現するために、コンテンツの識別子の代わりに、コンテンツを構成するビデオ情報やオーディオ情報から抽出される特徴点情報を用いてコンテンツの同定を行なうようにする。
放送局やコンテンツ・プロバイダーなどが運営するコンテンツ配信装置110は、配信コンテンツに付随するメタデータを、例えばインターネットを経由して情報提供サーバー150に送信する。また、コンテンツ配信装置110は、配信コンテンツ毎に特徴点情報を抽出して、インターネットなどを経由して情報提供サーバー150に送信する。
情報提供サーバー150は、メタデータを蓄積するメタデータ・データベース151と、各コンテンツの特徴点情報を蓄積する参照特徴点情報データベース152を備えている。メタデータ・データベース151では、各コンテンツのメタデータや、コンテンツに関連する広告、番組連動のアプリケーションなどを、コンテンツの識別子と対応付けて管理している。また、参照特徴点情報データベース152では、各コンテンツの特徴点情報をコンテンツの識別子と対応付けて管理している。
一方、TV受像機などのクライアント装置140側では、ユーザーが視聴しているコンテンツから特徴点情報を抽出すると、インターネットなどを経由して、情報提供サーバー150に問い合わせる。
情報提供サーバー150は、クライアント装置140からの特徴点情報の問合せに応答して、参照特徴点情報データベース152に照会して、照会結果として該当するコンテンツの識別子をクライアント装置140に返す。このようにして、クライアント装置140は、メタデータを失ったコンテンツの素性を知ることができる。
クライアント装置140は、照会結果としてコンテンツの識別子を得ると、さらにコンテンツの識別子を基に情報提供サーバー150に問い合わせる。そして、情報提供サーバー150は、コンテンツの識別子の問合せに応答して、メタデータ・データベース151に照会して、コンテンツのメタデータや、コンテンツに関連する広告、番組連動のアプリケーションなどをユーザーに提供する。提供する方法として、クライアント装置140に直接送信する他、スマートフォンなどのクライアント装置140に関連付けられたモバイル機器に対して配信するようにしてもよい。
上記のように、コンテンツの識別子の代わりに、コンテンツから抽出される特徴点情報に基づいてコンテンツを同定して、ACRサービスを実現させる場合、ビデオ情報とオーディオ情報のうち片方のみを利用してコンテンツを同定する方法や、両方を利用してコンテンツを同定する方法が考えられる。本実施形態では、システム設計及び運用コストの面で、オーディオ情報だけを利用してACRサービスを実現することにしている。何故ならば、オーディオ情報は、ビデオ情報よりも、コンテンツを同定するための特徴点情報のデータ量が少なくて済むため、扱う情報量と処理量の観点から、最も負荷を軽くするには有利であると考えられるからである。
しかしながら、扱うコンテンツの数が多くなればなるほど、ACRサービスのサーバー側に用意すべき特徴点情報のデータ量は増大する。オーディオ情報を扱うACRサービスのデータベースの物理的な容量の肥大化は、システム設計及び運用上、大きな課題となる。
システム設計上の課題として、扱うコンテンツの数が増えれば、各コンテンツを同定するための特徴点情報を蓄えておく参照特徴点情報データベース152の容量が大きくなり、同定するための処理と、同定できるまでの時間が増大する。また、システム運用上の課題として、扱うコンテンツの数が増えれば、参照特徴点情報データベース152の容量が大きくなり、物理的なデータベースを用意する設備投資、維持する経費などが増える。
ここで、主音声に加えて副音声など複数のオーディオ情報を持っているコンテンツについて、特徴点情報を抽出する場合について考察してみる。クライアント装置140で、主音声ではなく副音声を視聴中に、ACRサービスを動作させると、副音声から特徴点情報を抽出し、情報提供サーバー150に問い合わせることになる。この場合、コンテンツを同定するためには、情報提供サーバー150側では、主音声だけでなく副音声の特徴点情報も参照特徴点情報データベース152に用意しておく必要があり、データベースの容量を削減するという上記の課題を解決できない。また、参照特徴点情報データベース152に主音声の特徴点情報しか用意していないと、クライアント装置140側で副音声を視聴しているときにACRサービスが機能しないことがある。
そこで、本実施形態では、クライアント装置140が、副音声を視聴中であっても、主音声からのみ特徴点情報を抽出して、情報提供サーバー150に問い合わせるようにすることで、情報提供サーバー150が副音声の特徴点情報を用意していない場合であっても、副音声の視聴中にACRサービスが正しく機能するようにしている。また、コンテンツ配信装置110から主音声と複数のオーディオ情報を持っているコンテンツを配信している場合であっても、クライアント装置140からは主音声から抽出した特徴点情報で問い合わせを行なうので、情報提供サーバー150側では副音声の特徴点情報を用意する必要がなく、データベースの容量を増やさずに済む。
図2には、クライアント装置140の構成例を示している。
パラボラ・アンテナやケーブル線、STBなど(いずれも図示しない)から出力された入力変調(RF)信号は、入力端子201から、フロントエンド部210内のチューナー部211に入力供給され、選局される。復調部212では例えばQPSK(Quadrature Phase Shift Keying)復調される。復調部212からの出力は、エラー検出・訂正部213に供給される。エラー検出・訂正部213は、エラーを検出すると同時に、可能な限り訂正処理を行なう。
制御マイコン部214、ROM(Read Only Memory)部215及びRAM(Random Access Memory)部216などには、暗号を解読するのに必要なキーが解読プログラムとともに格納してある。送信されてきたディジタル信号が暗号化されている場合は、この暗号を解読するキーと解読処理が必要となる。そこで、制御マイコン部214、ROM部215、RAM部216などから解読するキーを読み出し、このキーをデマルチプレクサー部(DEMUX)217に供給する。
デマルチプレクサー部217では、このキーを利用して、暗号化されたディジタル信号を解読する。なお、この解読のために必要なキーとともに、解読プログラム及び課金情報等もメモリー内に一緒に格納する。
デマルチプレクサー部217は、エラー検出・訂正部213からの出力信号を受け、これをデータ・バッファー・メモリ用のRAM部216の適切なメモリー領域(あるいはデマルチプレクサー部217内部のメモリー領域)に一旦格納する。そして、適宜RAM部216からデータを読み出して解読してビデオ・エレメンタリー・ストリームとオーディオ・エレメンタリー・ストリームに分離し、ビデオ・エレメンタリー・ストリームを画像復号部218に供給するとともに、オーディオ・エレメンタリー・ストリームを音声復号部219に供給する。このとき、多重化されている符号化データ・ストリームから、システム・クロックを再形成するのに必要な情報をクロック発生部220で抽出し、画像復号部218及び音声復号部219の処理に用いる。
デマルチプレクサー部217で抽出されるオーディオ・エレメンタリー・ストリームは、コンテンツが複数の音声チャネルを持つ場合、その分だけ抽出される。例えば、主副の音声チャネルがある場合は、デマルチプレクサー部217で2本のエレメンタリー・ストリームが抽出される。
なお、デマルチプレクサー部217の処理は、例えばISO (International Organization for Standardization)/IEC(International Electrotechnical Commission)13818−1(Geneva 1995)の規格書に詳細にわたって規定されている。
画像復号部218は、入力された符号化データを、RAM部216に適宜格納し、MPEG(Moving Picture Coding Experts Group)方式により圧縮符号化されている画像信号の復号処理を実行する。復号化された画像信号は、表示画像構成部221に供給される。表示画像構成部221では、例えば、NTSC(National Television System Committee)方式の輝度信号(Y)、クロマ信号(C)及びコンポジット信号(CV)に変換される。そして、この信号は、D/Aコンバーター部222でアナログ変換され、出力される。出力端子223からは、例えばSビデオ信号形式でビデオ信号が出力される。画像復号部218の処理は、例えばISO/IEC13818−2(Geneva 1995)の規格書に詳細にわたって規定されている。
音声復号部219は、デマルチプレクサー部217より供給された符号化音声信号をRAM部216に適宜格納し、MPEG方式により圧縮符号化されている音声信号の復号処理を実行する。復号化されたディジタル音声信号は、D/Aコンバーター部224に供給され、アナログ変換される。このとき、左右のチャンネルの音声信号が適切に処理され、左右チャンネルの音声出力として、出力端子25から出力される。音声復号部219の処理は、例えばISO/IEC13818−3(Geneva 1995)の規格書に詳細にわたって規定されている。
コンテンツが複数の音声チャネルを持つ場合、デマルチプレクサー部217で複数のオーディオ・エレメンタリー・ストリームが抽出されるが(前述)、音声復号部219は、音声チャネル毎の復号部を備えている。
制御マイコン部214は、ROM部215に格納されているプログラムに従い、各種の処理を実行する。例えば、システム・バス203を介してチューナー部211、復調部212、エラー検出・訂正部213などでの処理を制御する。また、システム・バス203を介してデマルチプレクサー部217、画像復号部218、音声復号部219、表示画像構成部221の処理ブロックを制御し、ROM部215、RAM部216に対する各メモリー・アドレスの読み出し・書込み処理などを制御する。一方、制御マイコン部214には、リモート・コマンダー(図示しない)などからの入力情報を受けたユーザー・インターフェース部227からの所定の命令を直接入力することができる。ユーザー・インターフェース部227からは、選局や音量調整、音声チャネルの選択、ACR機能動作の指示などが入力される。
IP(Internet Protocol)インターフェース部(IP I/F)部230は、イーサネット(登録商標)やWi−Fiなどの局所ネットワークを通じて、クライアント装置140をインターネットのような広域ネットワークに接続する。IPインターフェース部230は、例えばACRサービスの起動時において、情報提供サーバー150に接続し、コンテンツから抽出した特徴点情報の送信や、コンテンツに関連するメタデータの取得に利用される。
図3には、複数の音声チャネルを含むコンテンツに対応したデマルチプレクサー部217及び音声復号部219の内部構成を模式的に示している。上述したように、クライアント装置140に入力されるコンテンツが複数の音声チャネルを持つ場合、デマルチプレクサー部217では、その分だけオーディオ・エレメンタリー・ストリームが抽出される。また、音声復号部219は、音声チャネル毎の復号部を備えている。また、複数の音声チャネルを持つコンテンツを視聴しているときに、ユーザー・インターフェース部227から制御マイコン部214に、視聴対象となる音声チャネルの切り換えが入力される。
本実施形態では、クライアント装置140の低消費電力化とACR動作の高速化のために、デマルチプレクサー部217までは主副すべての音声チャネルを対象に処理しておくが、音声復号部219では、内部のスイッチ(SW)機能を使用して、視聴対象となるいずれか1つの音声チャネルについてのみ復号処理を行なう。例えば各音声チャネルのデータには主副を識別する識別情報が付されており、デコード時に主音声又は副音声のいずれであるかを判別できるものとする。
この状態で、ユーザー・インターフェース部227からACR機能動作の指示が入力されると、音声復号部219は、デマルチプレクサー部217がRAM部216に一旦格納した所望の音声チャネルのデコード結果データに対して、制御マイコン部214の制御下で、主音声の特徴点情報を取得する処理を実行する。
そして、クライアント装置140は、取得した主音声の特徴点情報を、IPインターフェース部230からインターネットなどを経由して、情報提供サーバー150に問い合わせる。
情報提供サーバー150側では、コンテンツ配信装置110から配信されるすべてのコンテンツの少なくとも主音声についての特徴点情報を、コンテンツの識別子と対応付けて参照特徴点情報データベース152で管理している。情報提供サーバー150は、クライアント装置140からの主音声の特徴点情報の問合せに応答して、参照特徴点情報データベース152に照会してコンテンツを同定すると、照会結果として該当するコンテンツの識別子をクライアント装置140に返す。
クライアント装置140は、照会結果としてコンテンツの識別子を得ると、さらにコンテンツの識別子を基に情報提供サーバー150に問い合わせる。そして、情報提供サーバー150は、コンテンツの識別子の問合せに応答して、メタデータ・データベース151に照会して、コンテンツのメタデータや、コンテンツに関連する広告、番組連動のアプリケーションなどをユーザーに提供する。
なお、情報提供サーバー150がクライアント装置140にコンテンツの識別子を返すのではなく、参照特徴点情報データベース152に照会して得たコンテンツの識別子でさらにメタデータ・データベース151に照会してメタデータを取得し、クライアント装置140に照会結果として返すようにしてもよい。
クライアント装置140は、IPインターフェース部230を介して情報提供サーバー150から受け取ったメタデータや、コンテンツに関連する広告、番組連動のアプリケーションなどを、RAM部216に一旦格納する。
制御マイコン部214は、RAM部216に一旦格納されたメタデータや、コンテンツに関連する広告、番組連動のアプリケーションなどを、アプリケーション仕様に従って処理する。
情報提供サーバー150からメタデータなどを提供する方法として、クライアント装置140に直接送信する他、スマートフォンなどのクライアント装置140に関連付けられたモバイル機器に対して配信するようにしてもよい。
図4には、制御マイコン部214の制御下で、ACR機能動作を実行する処理手順をフローチャートの形式で示している。
クライアント装置140上でコンテンツを視聴中に、ユーザー・インターフェース部227などからACR動作の開始が指示されると(ステップS401のYes)、制御マイコン部214は、主音声を視聴中かどうかチェックする(ステップS402)。
ここで、主音声を視聴中でない、すなわち副音声を視聴しているときには(ステップS402のNo)、音声復号部219は、デマルチプレクサー部217がRAM部216に一旦格納した主音声チャネルのデコードを開始する(ステップS407)。また、主音声を視聴しているときには(ステップS402のYes)、音声復号部219は、視聴対象である主音声チャネルのデコードを行なっている。
そして、制御マイコン部214は、主音声チャネルのデコード結果データに対して、その特徴点情報を取得する処理を開始する(ステップS403)。
主音声の特徴点情報の作成を終了すると(ステップS404のYes)、制御マイコン部214の制御下で、特徴点情報を基に視聴中のコンテンツの同定を行なう(ステップS405)。具体的には、取得した主音声の特徴点情報を、IPインターフェース部230からインターネットなどを経由して、情報提供サーバー150に問い合わせる。
情報提供サーバー150側では、コンテンツ配信装置110から配信されるすべてのコンテンツの少なくとも主音声についての特徴点情報を、コンテンツの識別子と対応付けて参照特徴点情報データベース152で管理している。情報提供サーバー150は、クライアント装置140からの主音声の特徴点情報の問合せに応答して、参照特徴点情報データベース152に照会する。クライアント装置が、情報提供サーバー150から照会結果を受け取り、コンテンツを同定することができると(ステップS406のYes)、本処理ルーチンを終了する。
クライアント装置が視聴中の音声チャネルからしか特徴点情報を抽出できないと、複数の音声チャネルを含むコンテンツに対して、クライアント装置側で副音声を視聴中は、データベースに主音声の特徴点情報しか用意していない情報提供サーバーと連携しても音声ACR機能が働かないことがある。これに対し、本実施形態では、クライアント装置140はいずれの音声チャネルを視聴中であっても主音声の特徴点情報を確実に生成することができるので、データベースに主音声の特徴点情報しか用意していない情報提供サーバーと連携して、音声ACR機能を実現することができる。
また、情報提供サーバー150側では、複数の音声チャネルを含むコンテンツに対しても、主音声の特徴点情報のみのデータベースを運用すればよいので、データベースの容量を最小限に抑えることができ、動作効率、運用コスト、メンテナンス・コストなどの観点で最適な情報提供システム100を実現することができる。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)主音声と1以上の副音声を含むコンテンツを入力する入力部と、入力されたコンテンツに含まれる主音声と1以上の副音声のうちいずれかをデコード再生して音声出力する音声出力部と、入力されたコンテンツに含まれる主音声から特徴点情報を生成する特徴点情報生成部と、を具備する情報処理装置。
(2)前記特徴点情報生成部は、自動コンテンツ認識動作を行なうときに、特徴点情報の生成処理を実行する、上記(1)に記載の情報処理装置。
(3)前記視聴用音声出力部で副音声をデコード再生して音声出力しているときには、前記特徴点情報生成部は、自動コンテンツ認識動作を行なうときに、主音声をデコード再生し、その主音声デコード結果に対して特徴点情報を生成する、上記(1)に記載の情報処理装置。
(4)デコード再生した主音声を音声出力しない、上記(3)に記載の情報処理装置。
(5)前記入力部に入力されるコンテンツは、画像とともにマルチプレクスされており、入力されたコンテンツをデマルチプレクスするデマルチプレクサー部をさらに備え、前記デマルチプレクサー部は、コンテンツに含まれるすべての音声を対象として処理し、前記音声出力部は、デマルチプレクスされた主音声と1以上の副音声のうち視聴対象の音声信号のみデコード再生して音声出力し、副音声視聴時において自動コンテンツ認識動作を行なうときに、前記特徴点情報生成部は、デマルチプレクスされた主音声をデコード再生し、その主音声デコード結果に対して特徴点情報を生成する、上記(1)に記載の情報処理装置。
(6)前記特徴点情報生成部が主音声から生成した特徴点情報を基に、入力されたコンテンツを同定するコンテンツ同定部をさらに備える、上記(1)に記載の情報処理装置。
(7)ネットワークに接続する通信インターフェース部をさらに備え、前記コンテンツ同定部は、コンテンツ識別情報とコンテンツに含まれる主音声の特徴点情報を対応付けた参照特徴点情報データベースに、前記通信インターフェース部を介して照会して、コンテンツ識別情報を取得する、上記(6)に記載の情報処理装置。
(8)各コンテンツの関連情報を蓄積する関連情報データベースに、前記通信インターフェース部を介して照会して、前記コンテンツ同定部が同定したコンテンツの関連情報を取得する関連情報取得部をさらに備える、上記(7)に記載の情報処理装置。
(9)主音声と1以上の副音声を含むコンテンツを入力する入力ステップと、入力されたコンテンツに含まれる主音声と1以上の副音声のうちいずれかをデコード再生して音声出力する音声出力ステップと、入力されたコンテンツに含まれる主音声から特徴点情報を生成する特徴点情報生成ステップと、を有する情報処理方法。
(10)主音声と1以上の副音声を含むコンテンツの主音声から生成された特徴点情報とコンテンツ識別情報を対応付けた参照特徴点情報データベースを備え、特徴点情報を含んだ問い合わせに対して、コンテンツ識別情報を返す、情報提供装置。
(11)主音声と1以上の副音声を含むコンテンツを配信するコンテンツ配信装置と、前記コンテンツ配信装置から配信されたコンテンツをいずれかの音声チャネルで視聴するとともに、主音声から特徴点情報を生成するクライアント装置と、コンテンツの主音声から生成された特徴点情報とコンテンツ識別情報を対応付けた参照特徴点情報データベースを備え、前記クライアント装置からの特徴点情報に問合せに対して該当するコンテンツ識別情報を提供する情報提供サーバーと、を具備する情報提供システム。
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書で開示する技術は、複数の音声チャネルを含むコンテンツから特徴点情報を生成し、特徴点情報を基にコンテンツを同定する処理に主な特徴があり、コンテンツを同定した以降の処理は特に限定されない。本明細書では、コンテンツのメタデータや、コンテンツに関連する広告、番組連動のアプリケーションなどを、TV受像機などのクライアントや、スマートフォンなどのモバイル機器に配信する情報提供システムに関する実施形態を中心に説明してきたが、本明細書で開示する技術は、コンテンツの権利統制など、ACR機能を利用したさまざまなサービスに利用することができる。
要するに、例示という形態で本発明を開示してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
100…情報提供システム
110…コンテンツ配信装置
120…中継局
130…セットトップボックス
140…クライアント装置
150…情報提供サーバー
151…メタデータ・データベース
152…参照特徴点情報データベース
201…入力端子
203…システム・バス
210…フロントエンド部
211…チューナー部、212…復調部、213…エラー検出・訂正部
214…制御マイコン部、215…ROM部、216…RAM部
217…デマルチプレクサー部
218…画像復号部、219…音声復号部、220…クロック発生部
221…表示画像構成部
222…D/Aコンバーター部、223…出力端子
224…D/Aコンバーター部、225…出力端子
227…ユーザー・インターフェース部、230…IPインターフェース部

Claims (9)

  1. 主音声と1以上の副音声を含むコンテンツを入力する入力部と、
    入力されたコンテンツに含まれる主音声と1以上の副音声のうちいずれかをデコード再生して音声出力する音声出力部と、
    入力されたコンテンツに含まれる主音声から特徴点情報を生成する特徴点情報生成部と、
    を具備し、
    前記音声出力部で副音声をデコード再生して視聴用の音声出力しているときには、前記特徴点情報生成部は、自動コンテンツ認識動作を行なうときに、主音声をデコード再生し、その主音声デコード結果に対して特徴点情報を生成する、
    情報処理装置。
  2. デコード再生した主音声を音声出力しない、
    請求項1に記載の情報処理装置。
  3. 主音声と1以上の副音声を含むコンテンツを入力する入力部と、
    入力されたコンテンツに含まれる主音声と1以上の副音声のうちいずれかをデコード再生して音声出力する音声出力部と、
    入力されたコンテンツに含まれる主音声から特徴点情報を生成する特徴点情報生成部と、
    入力されたコンテンツをデマルチプレクスするデマルチプレクサー部と、
    を具備し、
    前記入力部に入力されるコンテンツは、画像とともにマルチプレクスされており、
    前記デマルチプレクサー部は、コンテンツに含まれるすべての音声を対象として処理し、
    前記音声出力部は、デマルチプレクスされた主音声と1以上の副音声のうち視聴対象の音声信号のみデコード再生して音声出力し、
    副音声視聴時において自動コンテンツ認識動作を行なうときに、前記特徴点情報生成部は、デマルチプレクスされた主音声をデコード再生し、その主音声デコード結果に対して特徴点情報を生成する、
    情報処理装置。
  4. 前記特徴点情報生成部が主音声から生成した特徴点情報を基に、入力されたコンテンツを同定するコンテンツ同定部をさらに備える、
    請求項1乃至3のいずれかに記載の情報処理装置。
  5. ネットワークに接続する通信インターフェース部をさらに備え、
    前記コンテンツ同定部は、コンテンツ識別情報とコンテンツに含まれる主音声の特徴点情報を対応付けた参照特徴点情報データベースに、前記通信インターフェース部を介して照会して、コンテンツ識別情報を取得する、
    請求項に記載の情報処理装置。
  6. 各コンテンツの関連情報を蓄積する関連情報データベースに、前記通信インターフェース部を介して照会して、前記コンテンツ同定部が同定したコンテンツの関連情報を取得する関連情報取得部をさらに備える、
    請求項に記載の情報処理装置。
  7. 主音声と1以上の副音声を含むコンテンツを入力する入力ステップと、
    入力されたコンテンツに含まれる主音声と1以上の副音声のうちいずれかをデコード再生して音声出力する音声出力ステップと、
    入力されたコンテンツに含まれる主音声から特徴点情報を生成する特徴点情報生成ステップと、
    を有し、
    前記音声出力ステップにおいて副音声をデコード再生して視聴用の音声出力しているときには、前記特徴点情報生成ステップでは、自動コンテンツ認識動作を行なうときに、主音声をデコード再生し、その主音声デコード結果に対して特徴点情報を生成する、
    情報処理方法。
  8. 主音声と1以上の副音声を含むコンテンツの主音声から生成された特徴点情報とコンテンツ識別情報を対応付けた参照特徴点情報データベースを備え、
    請求項5に記載の情報処理装置からの特徴点情報を含んだ問い合わせに対して、コンテンツ識別情報を返す、
    情報提供装置。
  9. 主音声と1以上の副音声を含むコンテンツを配信するコンテンツ配信装置と、
    前記コンテンツ配信装置から配信されたコンテンツをいずれかの音声チャネルで視聴するとともに、主音声から特徴点情報を生成するクライアント装置と、
    コンテンツの主音声から生成された特徴点情報とコンテンツ識別情報を対応付けた参照特徴点情報データベースを備え、前記クライアント装置からの特徴点情報に問合せに対して該当するコンテンツ識別情報を提供する情報提供サーバーと、
    を具備し、
    前記クライアント装置は、副音声をデコード再生して視聴用の音声出力中に、自動コンテンツ認識動作を行なうときに、主音声をデコード再生し、その主音声デコード結果に対して特徴点情報を生成する、
    情報提供システム。
JP2011250718A 2011-11-16 2011-11-16 情報処理装置及び情報処理方法、情報提供装置、並びに、情報提供システム Active JP5982791B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2011250718A JP5982791B2 (ja) 2011-11-16 2011-11-16 情報処理装置及び情報処理方法、情報提供装置、並びに、情報提供システム
PCT/JP2012/071567 WO2013073250A1 (ja) 2011-11-16 2012-08-27 情報処理装置及び情報処理方法、情報提供装置、並びに、情報提供システム
EP12849962.1A EP2782336B1 (en) 2011-11-16 2012-08-27 Information processing device and information processing method
US14/348,960 US10477267B2 (en) 2011-11-16 2012-08-27 Information processing device, information processing method, information provision device, and information provision system
CN201280055207.8A CN103931202B (zh) 2011-11-16 2012-08-27 信息处理装置、信息处理方法、信息提供装置和信息提供***
CA2849062A CA2849062C (en) 2011-11-16 2012-08-27 Information processing device, information processing method, information provision device, and information provision system
MX2014005650A MX350619B (es) 2011-11-16 2012-08-27 Dispositivo de procesamiento de información, método de procesamiento de información, dispositivo de provisión de información y sistema de provisión de información.
IN882MUN2014 IN2014MN00882A (ja) 2011-11-16 2014-05-09

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011250718A JP5982791B2 (ja) 2011-11-16 2011-11-16 情報処理装置及び情報処理方法、情報提供装置、並びに、情報提供システム

Publications (2)

Publication Number Publication Date
JP2013105146A JP2013105146A (ja) 2013-05-30
JP5982791B2 true JP5982791B2 (ja) 2016-08-31

Family

ID=48429330

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011250718A Active JP5982791B2 (ja) 2011-11-16 2011-11-16 情報処理装置及び情報処理方法、情報提供装置、並びに、情報提供システム

Country Status (8)

Country Link
US (1) US10477267B2 (ja)
EP (1) EP2782336B1 (ja)
JP (1) JP5982791B2 (ja)
CN (1) CN103931202B (ja)
CA (1) CA2849062C (ja)
IN (1) IN2014MN00882A (ja)
MX (1) MX350619B (ja)
WO (1) WO2013073250A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104303517B (zh) * 2012-05-23 2018-06-01 索尼公司 信息处理设备和方法、用户设备以及计算机可读记录介质
US9578436B2 (en) 2014-02-20 2017-02-21 Bose Corporation Content-aware audio modes
EP3016362A1 (en) 2014-11-03 2016-05-04 OpenTV Europe SAS Method and system to share advertisement content from a main device to a secondary device
JP6569315B2 (ja) * 2015-06-12 2019-09-04 日本電気株式会社 動画監視システム、動画監視方法、および動画監視用プログラム
US11683566B2 (en) 2015-06-18 2023-06-20 Relgic, Llc Live content streaming system and method
WO2016205364A1 (en) * 2015-06-18 2016-12-22 Placement Labs, LLC Live content streaming system and method
US9913056B2 (en) 2015-08-06 2018-03-06 Dolby Laboratories Licensing Corporation System and method to enhance speakers connected to devices with microphones
JP6345726B2 (ja) * 2016-03-30 2018-06-20 デジタル・アドバタイジング・コンソーシアム株式会社 番組関連情報処理方法
CA3075249A1 (en) * 2017-09-15 2019-03-21 Sony Corporation Information processing apparatus and information processing method
US11150920B2 (en) * 2018-05-25 2021-10-19 Vmware, Inc. 3D API redirection for virtual desktop infrastructure

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5154714A (en) * 1974-10-16 1976-05-14 Nippon Telegraph & Telephone Tajuonseidensohoshiki
US5953485A (en) * 1992-02-07 1999-09-14 Abecassis; Max Method and system for maintaining audio during video control
US6972802B2 (en) * 1997-10-21 2005-12-06 Bray J Richard Language filter for home TV
AT408868B (de) * 2000-05-31 2002-03-25 Hoerbiger Hydraulik Betätigungsanordnung für schwenkbare teile von verdecken
WO2002008943A2 (en) 2000-07-21 2002-01-31 Cddb, Inc. Method and system for finding match in database related to waveforms
JP4615166B2 (ja) * 2001-07-17 2011-01-19 パイオニア株式会社 映像情報要約装置、映像情報要約方法及び映像情報要約プログラム
DE10154290B4 (de) * 2001-11-05 2009-10-29 Hain Lifescience Gmbh Verfahren zum Nachweis Parodontitis und Karies assoziierter Bakterien
JP2003256309A (ja) 2002-02-28 2003-09-12 Promenade:Kk 電子情報内容配信処理システム、情報配信装置、情報処理装置及び情報処理方法
EP1457889A1 (en) * 2003-03-13 2004-09-15 Koninklijke Philips Electronics N.V. Improved fingerprint matching method and system
US20040260682A1 (en) * 2003-06-19 2004-12-23 Microsoft Corporation System and method for identifying content and managing information corresponding to objects in a signal
US20050197724A1 (en) * 2004-03-08 2005-09-08 Raja Neogi System and method to generate audio fingerprints for classification and storage of audio clips
JP2007048212A (ja) * 2005-08-12 2007-02-22 Dainippon Printing Co Ltd 情報提供システム及び情報提供装置
US7516074B2 (en) * 2005-09-01 2009-04-07 Auditude, Inc. Extraction and matching of characteristic fingerprints from audio signals
JP4432877B2 (ja) * 2005-11-08 2010-03-17 ソニー株式会社 情報処理システム、および、情報処理方法、情報処理装置、プログラム、並びに、記録媒体
US20080013094A1 (en) * 2006-07-14 2008-01-17 Honeywell International Inc. Semiconductor substrate for interferometer fiber optic gyroscopes
TWM312121U (en) * 2006-10-27 2007-05-11 Amtran Technology Co Ltd Wireless multi-channel audio system
JP2008140461A (ja) * 2006-11-30 2008-06-19 Toshiba Corp ウォーターマーク検出装置
JP5142769B2 (ja) * 2008-03-11 2013-02-13 株式会社日立製作所 音声データ検索システム及び音声データの検索方法
JP5365060B2 (ja) 2008-04-30 2013-12-11 富士通モバイルコミュニケーションズ株式会社 情報処理装置
JP2010161434A (ja) * 2009-01-06 2010-07-22 Sony Corp 記録装置および方法、並びにプログラム
US8886531B2 (en) * 2010-01-13 2014-11-11 Rovi Technologies Corporation Apparatus and method for generating an audio fingerprint and using a two-stage query
US9280598B2 (en) * 2010-05-04 2016-03-08 Soundhound, Inc. Systems and methods for sound recognition
US8886009B2 (en) * 2011-04-26 2014-11-11 Sony Corporation Creation of video bookmarks via scripted interactivity in advanced digital television
CA2843382C (en) * 2011-08-05 2020-10-27 Sony Corporation Receiving device, receiving method, program, and information processing system
US8793274B2 (en) * 2011-08-08 2014-07-29 Lei Yu System and method for auto content recognition

Also Published As

Publication number Publication date
EP2782336B1 (en) 2020-10-07
CN103931202B (zh) 2018-05-22
IN2014MN00882A (ja) 2015-04-17
JP2013105146A (ja) 2013-05-30
CA2849062C (en) 2021-04-27
US20140245338A1 (en) 2014-08-28
US10477267B2 (en) 2019-11-12
EP2782336A4 (en) 2015-05-20
EP2782336A1 (en) 2014-09-24
CN103931202A (zh) 2014-07-16
MX2014005650A (es) 2014-08-27
WO2013073250A1 (ja) 2013-05-23
MX350619B (es) 2017-09-11
CA2849062A1 (en) 2013-05-23

Similar Documents

Publication Publication Date Title
JP5982791B2 (ja) 情報処理装置及び情報処理方法、情報提供装置、並びに、情報提供システム
JP3925586B2 (ja) データ受信装置および方法ならびにデータ送受信システムおよび方法
CN101213835B (zh) 向家用网络中的iptv提供关于数字广播节目的附加信息的方法和设备
EP3270601B1 (en) Self-adaptive streaming medium processing method and apparatus
US20090041418A1 (en) System and Method for Audio Identification and Metadata Retrieval
US11343549B2 (en) Reception apparatus, reception method, transmission apparatus, and transmission method
JP2015530800A (ja) デジタルサービス信号処理方法及び装置
CN101472138A (zh) 一种数字机顶盒节目流分享实现***及方法
US11792254B2 (en) Use of in-band metadata as basis to access reference fingerprints to facilitate content-related action
US9055351B2 (en) Method for processing information in content receiver
JP2015530801A (ja) デジタルサービス信号処理方法及び装置
CN105812961A (zh) 自适应流媒体处理方法及装置
CN109196871B (zh) 用于个人多媒体内容分发的方法和装置
US20170311032A1 (en) Content Identifier Remapping for Fast Channel Change
KR101325802B1 (ko) 디지털 방송 송신기 및 디지털 방송 수신기와 그를 이용한디지털 방송 시스템 및 그 서비스 방법
CN113475088B (zh) 收发方法、收发装置
KR101403969B1 (ko) 타임코드를 상실한 동영상의 자막 재생 시점 인식 방법
JP2022143276A (ja) 放送サービス通信ネットワーク配信装置および方法
KR101187425B1 (ko) 선호 프로그램을 인지하는 방법 및 장치
CN1988609A (zh) 图像显示设备及其显示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160718

R151 Written notification of patent or utility model registration

Ref document number: 5982791

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250