JP2006033811A - 電子透かし埋め込み方法および電子透かし埋め込みプログラムを格納した記録媒体 - Google Patents

電子透かし埋め込み方法および電子透かし埋め込みプログラムを格納した記録媒体 Download PDF

Info

Publication number
JP2006033811A
JP2006033811A JP2005170295A JP2005170295A JP2006033811A JP 2006033811 A JP2006033811 A JP 2006033811A JP 2005170295 A JP2005170295 A JP 2005170295A JP 2005170295 A JP2005170295 A JP 2005170295A JP 2006033811 A JP2006033811 A JP 2006033811A
Authority
JP
Japan
Prior art keywords
digital
audio data
watermark embedding
digital watermark
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005170295A
Other languages
English (en)
Other versions
JP4774820B2 (ja
Inventor
Mizuho Narimatsu
瑞穂 成松
Takashi Kudo
敬 工藤
Takeo Tomokane
武郎 友兼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2005170295A priority Critical patent/JP4774820B2/ja
Priority to US11/152,066 priority patent/US20060012831A1/en
Publication of JP2006033811A publication Critical patent/JP2006033811A/ja
Application granted granted Critical
Publication of JP4774820B2 publication Critical patent/JP4774820B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • G06T1/0085Time domain based watermarking, e.g. watermarks spread over several images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/254Management at additional data server, e.g. shopping server, rights management server
    • H04N21/2541Rights Management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8358Generation of protective data, e.g. certificates involving watermark
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/018Audio watermarking, i.e. embedding inaudible data in the audio signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Systems (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

【課題】 デジタル映像コンテンツに電子透かしを埋め込む処理の演算量を削減して処理効率向上および処理時間短縮を実現でき、またハードウェアリソースの増強が望めないプラットフォームにおいても処理時間短縮が可能となる技術を提供する。
【解決手段】 デジタル映像コンテンツを構成するビデオデータに対し電子透かしを埋め込む処理を行う際、これに同期再生されるオーディオデータについてサンプリング特性の違い等から音声のタイプを判別し、音声のタイプに応じて電子透かしを埋め込む処理の対象となるビデオデータの領域を限定する。
【選択図】図1

Description

本発明は、電子透かし技術に関し、特にデジタル映像コンテンツに電子透かしを埋め込む技術に関する。
デジタル映像コンテンツの著作権保護等のための技術として電子透かし技術がある。電子透かし技術は、静止画像、映像(動画像)、音などのデータに対し、人間の知覚特性を利用して電子透かし情報を知覚できないように埋め込む技術である。埋め込まれる電子透かし情報は、著作権情報や利用者情報等である。例えば、電子透かし処理用のプログラムにより、デジタル映像コンテンツを構成する映像データに対し、そのコンテンツについての著作権保護等のための電子透かし情報が埋め込まれる。また、電子透かし検出処理により、電子透かし入りのデジタル映像コンテンツデータから電子透かし情報が検出される。
従来技術では、映像への電子透かし埋め込み処理を行う場合、無条件で、映像を構成するビデオストリーム全体すなわち全フレーム及びフレーム内全画像領域に対し均一に電子透かし埋め込み処理を実行していた。
特開2002−171492号公報には、電子透かし情報埋め込みを行う技術について開示されている。具体的には、符号圧縮した画像信号に電子透かし情報を埋め込む装置において、画像信号をデジタル符号圧縮するときに、MPEGにおけるIフレームごとに電子透かし情報の埋め込みを行う等の旨が記載されている。この技術では、扱えるデータがMPEG形式に限定される。
特開2002−171492号公報
従来の映像全体に対し電子透かし埋め込み処理を実行する方法では、多数のフレーム及び画素に対し処理を施す必要があるため、大量の演算を必要とする。そのため、処理時間が長くかかるという問題がある。また、この映像全体への電子透かし埋め込み処理について高速化を図ろうとする場合、処理実行のプラットフォームとなるハードウェアの性能向上、すなわちCPU(中央処理装置)クロックやHDD(ハードディスクドライブ)アクセス等の性能向上を図る以外に方法が無く、ハードウェアリソースの増強には大きなコストがかかるという問題がある。また、電子透かし埋め込み処理の際、処理実行のプラットフォームとなるハードウェアにおいて使用CPUが現状で最高性能のものであるなどの性能面での限界がある場合、望ましい電子透かし処理性能が得られないという問題もある。
本発明の目的は、デジタル映像コンテンツに電子透かしを埋め込む処理に関して演算量を削減して処理効率向上および処理時間短縮を実現でき、また、ハードウェアリソースの増強が望めないプラットフォームの場合においても処理時間短縮が可能となる技術を提供することにある。
本発明は、デジタル映像コンテンツを構成するビデオデータに対し電子透かしを埋め込む処理を行う際、これに同期再生されるオーディオデータについてサンプリング特性の違い等から音声の種類を判別し、音声の種類に応じて電子透かしを埋め込む処理の対象となるビデオデータの領域を限定する。
電子透かし埋め込みプログラムを含んで構成される電子透かし処理システムまたは電子透かし処理を施したデジタルコンテンツ作成システム及び方法の効率化を実現できる。また、ハードウェアリソースの増強が望めないプラットフォームの場合においても処理時間短縮が可能となる。
以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一部には原則として同一符号を付し、その繰り返しの説明は省略する。
図1は、電子透かし埋め込みプログラムおよび方法および装置における基本的な処理概要の一例を示す説明図である。
本実施の形態の電子透かし埋め込みプログラムは、ビデオデータ(ビデオストリーム)とオーディオデータ(オーディオストリーム)とを含んで構成されるデジタル映像コンテンツについてビデオデータに対し電子透かし情報を埋め込む際、オーディオデータについての音声の種類を判別し、音楽であると判断したオーディオデータ部分領域に対応するビデオデータ部分領域を対象として限定的に電子透かしを埋め込む処理をコンピュータに実行させる。
デジタル映像コンテンツは、多くの場合、映像を構成するビデオデータ部分と音声を構成するオーディオデータ部分とがセットになっている。すなわち、デジタル映像コンテンツは、再生手段によりビデオデータとオーディオデータとが時間的に同期して再生されることでコンテンツとして機能する形式のデータである。また、デジタル映像コンテンツ中で著作権を主張するビデオデータ部分に対応するオーディオデータ部分は、多くの場合、音声の種類として音楽あるいは人声のどちらかに分類できる。例えば、ある映像のシーンにおいて背景音楽(BGM)が流れている場合や人声として演説が流れている場合などである。
このように、複数の音声の種類(音楽や人声)がデジタル映像コンテンツを構成するオーディオデータに含まれている場合、オーディオデータについて音声の種類の判別を行い、オーディオデータ部分領域に応じて音楽や人声などのタイプに分類する。この判別に基づき、電子透かし埋め込み処理対象となる映像領域を、音楽が同期再生されるシーン(ビデオデータ部分領域)に限定する。そしてこの限定に基づき、電子透かし埋め込み処理対象とされたビデオデータ部分領域に対しその著作権保護等のための電子透かし埋め込み処理を施す。
オーディオデータ部分領域とは、オーディオデータ全体における、ある再生期間内のオーディオデータである。ビデオデータ部分領域とは、ビデオデータ全体における、ある再生期間内のビデオデータ(フレームの集合)である。
オーディオデータにおける音声の種類の判別処理としては、例えばオーディオデータ部分領域について音楽/その他の音声の二種類への分類を行う。あるいは音楽/人声/その他の複数種類への分類を行う処理形態としてもよい。
本発明の各実施の形態では、デジタル映像コンテンツにおいて映像を構成するビデオデータに対しその著作権保護等のための電子透かし情報を埋め込むに際し、ビデオデータ(図1における「Video」)に対応するすなわち同期再生されるオーディオデータ(図1における「Audio」)について音声の種類の判別を行う。
音声の種類についての判別のために、デジタル映像コンテンツ中のオーディオストリームすなわちオーディオデータ再生時の波形における特徴を調べる。特に、オーディオストリームの部分で音が連続して流れるか、それとも断続して流れるかに着目する。言い換えれば、サンプリング時のアナログ音波形における周波数の変動の大小及びそのサンプリング時におけるサンプリング幅の長短に着目する。
この判別でオーディオデータが音声の種類ごとのオーディオデータ部分領域に区分される。例えば図1の場合、オーディオデータを、オーディオタイプA、オーディオタイプBの二種類に分類している。この判別は、オーディオストリームにおけるサンプリング特性の違いに基づき行う。オーディオデータにおける音声の種類の判別に基づき、ビデオデータ領域全体に対して電子透かし埋め込み処理対象となる領域を、特定のオーディオタイプが同期再生される部分領域に限定する。例えば図1の場合、電子透かし埋め込み処理対象となる領域を、オーディオタイプBの領域に限定している。そしてこの限定に基づき、電子透かし埋め込み処理対象とされたビデオデータ部分領域に対しその著作権保護等のための電子透かし埋め込み処理を施す。これにより、電子透かし埋め込み処理に要する総演算量が減少される。
図2(a),(b)は、アナログ音に対するサンプリング(A/D変換)の特徴について示す図である。(a)は、アナログ音の波形の例を示し、(b)はそれをサンプリングしたデジタルの波形を示す。この図に示すように、アナログ音をデジタル化する場合、一般的に、音楽のように比較的音が連続して流れ周波数の変動が少ない性質の領域についてはサンプリング幅(サンプリング時間)を長くとり、人声のように比較的音が断続的に流れ周波数の変動が多い性質の領域についてはサンプリング幅(サンプリング時間)を短くとる方法で処理が行われる。オーディオデータ中で、サンプリング前のアナログ波形における周波数変動が少ない部分に対応するサンプリング後のデジタル波形の部分は、そのサンプリング幅(サンプリング時間)が比較的長くなっている。
一般的なサンプリングの特徴を踏まえ、例えば、オーディオデータにおけるサンプリング幅の長短を調べることによって、オーディオデータ部分領域について音楽の部分を判断する。さらには、例えばサンプリング幅が長い割合が大きいオーディオデータ部分領域については音楽であると判断する。そしてこのオーディオデータ部分領域に対応するビデオデータ部分領域について電子透かし埋め込み処理対象とし、これに限定して電子透かし埋め込み処理を施す。
また、オーディオデータ部分領域における音声の種類の判別を、オーディオデータ部分領域におけるサンプリング時のサンプリング幅の長短、特にロング・ウィンドウやショート・ウィンドウの出現割合や出現回数を調べることによって行う。そしてその出現割合等を所定のしきい値と比較してその上下で音楽と人声に区分する。
またサンプリング幅の長短等についての情報は、デジタル映像コンテンツ中にヘッダ情報等の形式で含まれるサンプリング幅情報等を参照することで取得してもよいし、オーディオデータに対しサンプリング幅の長短等を算出する処理を別途行ってもよい。
図3は、電子透かし埋め込みプログラムの処理概要を示す一例である。また、図4は、本実施の形態における電子透かし埋め込みプログラムの処理と入出力データを示すブロック図である。
本実施の形態では、デジタル映像コンテンツを構成するうちのオーディオデータについて音声の種類の判別を行い、オーディオデータ部分領域に応じて音楽と人声の二種類のタイプに分類する。この判別に基づき、電子透かし埋め込み処理対象となるビデオデータ領域を、音楽が同期再生されるビデオデータ部分領域に限定する。そしてこの限定に基づき、電子透かし埋め込み処理対象とされたビデオデータ部分領域に対しその著作権保護等のための電子透かし埋め込み処理を施す。図中の斜線領域は、ビデオデータ中で電子透かしデータが埋め込まれた領域である。この電子透かしデータによりそれに対応する映像部分が保護される。
図4で、実施の形態の電子透かし埋め込みプログラムの処理対象となるデジタル映像コンテンツ101は、ディジタル化されたビデオデータ102と同じくディジタル化されたオーディオデータ103とを含んで構成される。デジタル映像コンテンツ101の対象となる形式としては、例えばMPEG-2等がある。MPEG-2の場合は、ビデオデータ、オーディオデータがディジタル化されているだけでなく、ともに符号化処理が行われている。デジタル映像コンテンツ101は、例えばMPEG−2の場合は再生手段により復号化され、ビデオデータ102とオーディオデータ103とが時間的に同期して再生されることでコンテンツとして機能する。本実施の形態の電子透かし埋め込みプログラムは、大別して、音声判別部104と電子透かし埋め込み処理部109とで構成される。
音声判別部104は、デジタル映像コンテンツ101のオーディオデータ103の部分について音楽と人声とで別々に扱うための、音声の種類の判別処理を行う処理部である。音声判別部104は、デジタル映像コンテンツ101を入力し、それに含まれるオーディオデータ103について音声の種類を後述の方法により判別して、音楽であると判断される部分と人声であると判断される部分とに分類する。また無音等のその他部分への分類を行ってもよい。特に図3の実施の形態では、オーディオデータ103について音楽部分がないかどうかを判断し、音楽と判断されるオーディオデータ部分領域を、電子透かし埋め込み処理部109における電子透かし埋め込み処理対象とする。音声判別部104は、この判別処理により、オーディオデータ103を、音楽と判断されたオーディオ音楽領域106と、人声と判断されたオーディオ人声領域108とに区分する。またビデオデータ102を、各領域106,108に対応する部分領域に区分する。ビデオ領域105は、オーディオ音楽領域106に同期再生されるビデオデータ部分領域である。またビデオ領域107は、オーディオ人声領域106に同期再生されるビデオデータ部分領域である。
電子透かし埋め込み処理部109は、ビデオデータ102に対し電子透かし情報を埋め込む処理を行う処理部である。電子透かし埋め込み処理部109は、音声判別部104での処理後、ビデオ領域105を電子透かし埋め込み処理対象として電子透かしデータの埋め込み処理を施す。電子透かし埋め込み処理部109で処理後に出力される電子透かし入りのビデオデータ部分領域は、電子透かし埋め込み処理対象とならなかったビデオ領域107と結合される。
このようにして製造される電子透かし入りデジタル映像コンテンツ110は、電子透かし入りビデオデータ111とオーディオデータ112とを含んで構成される。電子透かし入りビデオデータ111は、電子透かし埋め込み処理部109での電子透かし埋め込み処理によりビデオデータ102のうちのビデオ領域105に電子透かしデータが埋め込まれたデータである。
次に、音声判別部104の処理動作について説明する。音声判別部104では、入力されたデジタル映像コンテンツ101のオーディオデータ103について各部分のサンプリング幅を認識してその長短により、音楽に対応するオーディオデータ部分領域を特定する。例えば、オーディオデータ103の部分領域において、サンプリング幅が長い部分の割合が多い場合あるいはサンプリング幅が長い部分が続く場合、その部分領域を音楽に対応すると判断する。これがオーディオ音楽領域106となる。そして、音声判別部104は、このオーディオ音楽領域106と同期再生されるビデオデータ部分領域に対し電子透かし埋め込み処理が必要であると判定する。これがビデオ領域105となる。ビデオデータ102全体のうちでビデオ領域105が電子透かし埋め込み処理対象として設定される。電子透かし埋め込み処理対象と設定されたビデオ領域105は、電子透かし埋め込み処理部109に入力されて電子透かし埋め込み処理がなされる。また、オーディオデータ103の部分領域において、サンプリング幅が短い部分の割合が多い場合あるいはサンプリング幅が短い部分が続く場合、その部分領域を人声に対応すると判断する。これがオーディオ人声領域108となる。
音声判別部104において電子透かし埋め込み処理対象と判断されたビデオ領域105以外のビデオデータ部分領域、すなわちここではオーディオ人声領域108に対応するビデオ領域107については電子透かし埋め込み処理対象とはせずそのまま出力する。
音声判別部104での音楽と人声のタイプの判別は、主にデジタル映像コンテンツ101のメタデータやオーディオデータ103に含まれるヘッダ情報等から行う。多くの場合、デジタル映像コンテンツ101の作成時点で、そのデータについての各種情報がメタデータあるいはヘッダ情報として作成され、デジタル映像コンテンツ101の内部あるいは関連付けされた外部に記述されるのでそれを利用する。本実施の形態では、オーディオデータ103に、オーディオストリームにおけるサンプリング幅情報を含む属性情報が付随している。音声判別部104は、判別処理の際このサンプリング幅情報を参照してオーディオデータ部分領域におけるサンプリング幅の長短を認識し、この認識をもとに音楽部分を含むか否か、またはその箇所の特定を行う。
または、音声判別部104は、このサンプリング幅等の情報について、オーディオデータ103を別途分析処理することにより取得してもよい。またサンプリング幅情報以外で、サンプリング幅の長短の情報を算出できる別の情報を利用してもよい。または、オーディオデータ103において各部分領域ごとにあらかじめ音楽や人声等の音声の種類を教える識別情報(フラグ)が含まれている場合はそれをそのまま利用して音楽や人声等の分類を行ってもよい。
音声判別部104での処理例を示す。判別処理用のメモリにデジタル映像コンテンツ101中のオーディオデータ103を適宜読み込みながら処理を行う。例えば、読み込まれたうちの一定時間分のオーディオデータ部分領域について、長短のサンプリング幅の出現の回数を計算し、一定時間分のうち長いサンプリング幅と判断した場合の時間が占める割合が、短いサンプリング幅と判断した場合の時間が占める割合より多い場合に、音楽データと判断する。判断するためのオーディオデータの分割方法としては、例えば、ビデオデータ102を構成するフレーム(映像を構成する各画面)に対応するように時間領域で区分する。そして、その区分されたオーディオデータ部分領域ごとにサンプリング幅の長短を調べることによる音声の種類の判別処理を行う。
あるいは、少なくとも長いサンプリング幅であると判断するための閾値を設け、その閾値を超えた場合のサンプリング幅の累積値が一定時間分の半分等、出現割合が所定値以上となる場合、この部分領域ではサンプリング幅を長くとっている割合が大きいので、このオーディオデータ部分領域を音楽に対応すると判断する。人声部分を判断する場合は、逆にショート・ウィンドウの出現割合が高い部分領域については、人声であると判断する。
音声判別部104は、サンプリング幅の認識のために、オーディオデータ103に含まれる、アナログ音サンプリング時のロング・ウィンドウ(long windows)、ショート・ウィンドウ(short windows)の情報を利用する。ウィンドウは、オーディオデータ103を構成する元となるアナログ音の波形に対する単位サンプリングにおいて使用されたサンプリング幅を表わす。アナログ音サンプリング時に、入力となるアナログ音の周波数特性に応じてショート・ウィンドウとロング・ウィンドウの二種類のサンプリング幅を用いてサンプリングを行う方法がある。本実施の形態の場合、オーディオデータ103は、この方法でサンプリングしたデータであるものとする。オーディオデータ103には、オーディオストリーム再生のためにこのウィンドウ情報が付随している。
ロング・ウィンドウとショート・ウィンドウによる音声判別処理例を説明する。簡単にアナログデータのデジタルデータ化の方法について説明する。アナログデータのデジタルデータへの変換は、ある区間(例えば1024点とか2048点)のデータについて行われる。このとき、解析データ長(ウィンドウの長さ)がアナログデータの周期の整数倍と一致していない場合は、ひずんだ波形を処理することになり、アナログデータにおける実際の波形とデジタルデータにおける波形との誤差が大きくなる。そこで、アナログデータの変化の周期が短い場合は、解析データ長を短くして、誤差を少なくする。アナログデータの変化の周期が長い場合の解析データ長をロング・ウィンドウと呼び、変化の周期が短い場合の解析データ長をショート・ウィンドウと呼ぶ。音楽のデジタルデータ化の場合、音楽では音が連続して流れるため予測を超える周波数の変動は少ない。そのため、ロング・ウィンドウでも実際の波形に近い波形が得られ、ショート・ウィンドウの出現率は低い。人声のデジタルデータ化の場合、人声には破裂音等を含み、間が在るため音が連続せず、頻繁にショート・ウィンドウが出現する。また無音の箇所もみられる。
従って、音声処理部104は、オーディオデータ部分領域においてそれぞれのウィンドウの割合や出現数を計算する。例えばあるオーディオデータ部分領域においてロング・ウィンドウの出現数が所定値以上の場合、サンプリング幅が長い部分の割合が大きいので、これに対応するアナログ波形における周波数変動が少ないと判断してこの領域を音楽に対応すると判断する。このオーディオデータ部分領域を音楽に対応すると判断する。
また、別の判別基準としては、長短のサンプリング幅の連続出現数や連続時間を計算してもよい。あるいはサンプリング幅の平均を計算してもよい。そして計算した値を所定のしきい値と比較してその上下により音楽/人声への区分を行う。更に別の判別基準としては、オーディオデータ中でロング・ウィンドウあるいはショート・ウィンドウがどの程度連続して出現するかを調べてもよい。オーディオデータ中でロング・ウィンドウの出現が一定以上連続して続く部分領域すなわちサンプリング幅を長くとっている箇所が続く部分領域については、音楽に対応すると判断する。逆の場合は人声であると判断する。
本実施の形態の電子透かし埋め込みプログラムでは、映像シーンに対応して流されるオーディオストリームから任意範囲のウィンドウ形状すなわちロング・ウィンドウとショート・ウィンドウの情報を取得し、取得したウィンドウ形状におけるショート・ウィンドウの出現頻度が所定のしきい値未満である場合は、その部分領域を音楽シーンすなわち音楽が流れるシーンであると判断する。またそれ以外すなわちショート・ウィンドウの出現頻度がしきい値以上である場合は、その部分領域を人声シーン(会話シーン)であると判断する。ロング・ウィンドウ及びショート・ウィンドウの情報を用いた解析方法は、例えば、「MPEG-2 AAC」や「MP3」、「Dolby(商標登録) AC3(商標登録)」等の形式において利用することができる。
なお、図4には、ディジタルオーディオデータを音楽または人声のいずれかに判別する構成であったが、また無音等のその他部分への分類を行ってもよい。さらには、オーディオデータ103中で音声の種類として音声に判別しにくい部分がある場合に、そのオーディオデータ部分領域については音声への区分を行わず、この領域に同期再生されるビデオデータ部分領域を電子透かし埋め込み処理対象と設定して電子透かしを埋め込んでおくようにしてもよい。
また他の処理として、ビデオデータ102の部分領域における色や動き等の判別との組み合わせにより音声の判別を行ってもよい。例えば、ビデオデータ部分領域で、色として人間の肌色が多く含まれているかどうかを調べる。肌色が多く含まれている場合にそれと同期再生されるオーディオデータ部分領域は人声である可能性が高いと判断する。
図5は、電子透かし埋め込みプログラムを実行するプラットフォームとなるハードウェア構成例を示す。PC(パーソナルコンピュータ)501は、CPU502、キャプチャボード504、エンコーダ505、メモリ506を有する構成である。PC501のキャプチャボード504にビデオカメラ503が通信線で接続されている。PC501は、本電子透かし埋め込みプログラムを図示しないメインメモリ上に有する。HDDもしくはフレキシブルディスクが格納することにしてもよい。CPU502が本電子透かし埋め込みプログラムをメインメモリ等から読み込んで実行することで各処理が実現される。従って、本実施の形態では、音声処理部104および電子透かし埋め込み処理部109をCPU502が実現する。ビデオカメラ503は、デジタル映像コンテンツ101を作成するための元となる映像と音を入力して撮影及び録音を行う装置である。ここでは音を録音するマイク等については図示を省略し、映像と音とを一つの線でまとめて示す。
ビデオカメラ503に入力された映像及び音は、アナログ信号として処理されてキャプチャボード504に入力される。キャプチャボード504は、入力された映像と音のアナログ信号についてデジタル化すなわちサンプリングを行い、デジタル映像コンテンツ101の構成部分となるビデオデータ102とオーディオデータ103を生成する処理を行う。このサンプリングの際は、アナログ音の波形に対して例えばロング・ウィンドウとショート・ウィンドウの二種類のサンプリング幅を使用した処理を行い、そのサンプリング幅情報をデータにヘッダ情報として付随させる。アナログ音がその周波数特性に応じたサンプリング幅でサンプリングされる。エンコーダ505は、ビデオデータ102とオーディオデータ103についてMPEG形式等での必要な符号化(圧縮)処理等を施すためのものである。これはキャプチャボード504内に一体構成されていてもよい。キャプチャボード504及びエンコーダ505を通じて生成されたビデオデータ102とオーディオデータ103は、メモリ506に保存される。このデータをもとにしてデジタル映像コンテンツ101が構成される。
メモリ506上のビデオデータ102及びオーディオデータ103に対して、CPU502により、本電子透かし埋め込みプログラムによる音声判別処理及び電子透かし埋め込み処理を施す。これにより、電子透かし入りデジタル映像コンテンツ110が作成される。
なお、本実施の形態では、音声判別処理及び電子透かし埋め込み処理を、一旦完成後のデジタル映像コンテンツ101のデータ(オーディオ及びビデオ)に対し実行する処理形態としている。これに限らず、完成前のデジタル映像コンテンツ101のデータに対し処理を実行する処理形態としてもよい。また、作成済みのデジタル映像コンテンツ101のデータが外部に有る場合は、これをPC501のメモリ506に読み込んで、これに対しCPU502により本電子透かし埋め込みプログラムを実行して、電子透かし入りデジタル映像コンテンツ110を作成してもよい。
電子透かし情報検出側のシステムは従来技術に従うことができる。さらに映像部分とは別に音部分の著作権保護等を行いたい場合には、所定の電子透かし埋め込み技術によりオーディオデータ103に対しても電子透かし埋め込み処理を施してもよい。
本実施の形態では、デジタル映像コンテンツ101のオーディオデータ103部分についての電子透かし情報の埋め込みは別の処理であり、本実施の形態における処理では、音声判別部104が人声と判別、または音楽とは判別しないオーディオデータ103に対しては電子透かし埋め込み処理を施さない構成としている。しかしながら、肖像権を保護する目的等のため、逆に人声の部分について電子透かし埋め込み処理を行う構成とすることもできる。
その場合は、例えば図4の処理のなかでデジタル映像コンテンツを構成するうちのオーディオデータについて音声の種類の判別を行い、オーディオデータ部分領域に応じて音楽と人声の二種類のタイプに分類する。判別は例えば、オーディオデータにおけるサンプリング幅の長短を調べることによって、オーディオデータ部分領域について人声の部分を判別する。例えばサンプリング幅が短くなる割合が大きいオーディオデータ部分領域については人声であると判別する。そしてこのオーディオデータ部分領域に対応するビデオデータ部分領域について電子透かし埋め込み対象とし、これに限定して電子透かし埋め込み処理を施す。
さらに具体的には、音声処理部104は、サンプリング幅の認識のためにロング・ウィンドウ、ショート・ウィンドウの情報を利用する。オーディオデータ部分領域においてそれぞれのウィンドウの割合や出現数を計算し、所定のしきい値と比較してその上下により音声への区分を行う。映像シーンに対応するオーディオストリームから任意範囲のウィンドウ形状すなわちロング・ウィンドウとショート・ウィンドウの情報を取得し、取得したウィンドウ形状におけるショート・ウィンドウの出現頻度が所定のしきい値以上である場合は、その部分領域を人声シーン(会話シーン)であると判断する。
この判別に基づき、音声判別部104が例えばサンプリング幅が短いと判別された場合には、図4の場合とは逆に、そのビデオ領域とオーディオ音楽領域が電子透かし埋め込み処理部109に送られ、電子透かし処理が行われる。サンプリング幅が長いと判断された場合は、電子透かし埋め込み処理が行われないことになる。
または、電子透かし処理を行う音声の種類を設定できる構成としていもよい。例えば図5で図示しない入力装置によって、図6に示す設定値を変更することが可能な構成とする。図6は、各音声の種類601に対して、判別する基準例602と電子透かしを行うか否かをフラグで設定する場合の設定値603の一例を示す図である。この設定は、プログラム立上げ時に毎回行う構成としてもよいし、処理の途中で任意に設定変更可能な構成としてもよい。
さらに、図5の例では、CPUが図4の音声処理部104および電子透かし埋め込み処理部109を実現する構成としたが、電子透かし埋め込み処理部109は別構成の電子透かし埋め込み装置を用いる構成としてもよい。その場合のハードウェア構成を図7に示す。図7の場合、エンコーダ505から音声処理部104と電子透かし埋め込み装置701に対してデータが送付される。音楽に対して電子透かし埋め込み処理を行うことを前提として説明する。音楽と判断されるオーディオデータ部分領域がある場合、音声処理部104(CPU502)はその部分を特定し、その部分領域を特定する情報、例えばフレーム番号を電子透かし埋め込み装置701に出力する。
電子透かし埋め込み装置701では、図7Bで示すように、CPU502からの指示の有無をチェックする(ステップ705)。CPU502から何らかの信号を入力した場合に、それがオーディオデータ部分領域に対する特定、すなわち、音楽データの位置情報であるか否かを確認する(ステップ707)。ない場合には、CPUからの指示を受けるまで待機する。音楽データの位置情報であった場合は、特定されたオーディオデータ部分領域に対応するビデオデータ部分領域に対して電子透かし埋め込み処理を実施する(ステップ709)。音楽データの位置情報でない場合は、CPUからの指示をうけるまで待機する。
このような構成にすることにより、電子透かし埋め込み処理については、高速なハードウェアを利用することができるため、さらなる高速化を図ることが可能となる。
以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は上記の実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。
上述のように、電子透かし埋め込み処理対象となるビデオデータ領域を、音楽が同期再生される部分に限定することで、デジタル映像コンテンツ101のビデオデータ102部分への電子透かし埋め込み処理に要する総処理時間を短縮できる。電子透かし埋め込みプログラムを含んで構成される電子透かし処理システムまたは電子透かし処理を施したデジタルコンテンツ作成システム及び方法の効率化を実現できる。また、ハードウェアリソースの増強が望めないプラットフォームの場合においても処理時間短縮が可能となる。
図1は、電子透かし埋め込みプログラムにおける基本的な処理概要を示す説明図である。 図2は、一般的な、アナログ音に対するサンプリングの特徴について示す図である。 図3は、電子透かし埋め込みプログラムの処理概要を示す説明図である。 図4は、電子透かし埋め込みプログラムの処理と入出力データを示すブロック図である。 図5は、ハードウェア構成例を示す図である。 図6は、音声の判断基準及び処理対象とする場合の設定値の一例を示す。 図7は、ハードウェア構成の他の例を示す図である。
符号の説明
101…デジタル映像コンテンツ、102…ビデオデータ、103…オーディオデータ、104,201…音楽/音声判別部、105…ビデオ領域、106…オーディオ音楽領域、107…ビデオ領域、108…オーディオ音声領域、109,202…電子透かし埋め込み処理部、110,203…電子透かし入りデジタル映像コンテンツ、111,204…電子透かし入りビデオデータ、112…オーディオデータ、501…PC、502…CPU、503…ビデオカメラ、504…キャプチャボード、505…エンコーダ、506…メモリ。

Claims (9)

  1. ディジタルビデオデータと複数の音声の種類を含むディジタルオーディオデータを有するディジタルコンテンツに対する電子透かし埋め込みプログラムであって、
    ディジタルビデオデータと前記ディジタルビデオデータに時間的に関連するディジタルオーディオデータをメモリに格納するステップと、
    前記ディジタルオーディオデータが電子透かし処理対象となる種類のディジタルオーディオデータ部分を含むか否かをプロセッサが判別するステップと、
    前記ディジタルオーディオデータが電子透かし処理対象となる種類のディジタルオーディオデータ部分を含む場合には、前記電子透かし処理対象となる種類のディジタルオーディオデータ部分に時間的に関連するディジタルビデオデータ部分に対し電子透かしをプロセッサが埋め込むステップを有することを特徴とするプログラム。
  2. 請求項1記載の電子透かし埋め込みプログラムであって、
    判別するステップでは、前記プロセッサは前記ディジタルオーディオデータの所定範囲に分割し、前記所定範囲内のサンプリング時のロング・ウィンドウの出現割合によって前記電子透かし処理対象となる種類のディジタルオーディオデータ部分を含むか否かを判別することを特徴とする電子透かし埋め込みプログラム。
  3. 請求項2記載の電子透かし埋め込みプログラムであって、
    することを特徴とする電子透かし埋め込みプログラム。
    判別するステップでは、前記プロセッサは各々の範囲のサンプリング時のロング・ウィンドウの出現割合が所定値よりも高い場合に前記範囲のディジタルオーディオデータを前記電子透かし処理対象となる種類のディジタルオーディオデータ部分であるとして判別することを特徴とする電子透かし埋め込みプログラム。
  4. 請求項1記載の電子透かし埋め込みプログラムであって、
    判別するステップでは、前記プロセッサは前記ディジタルオーディオデータが音楽である場合に、前記電子透かし処理対象となる種類のディジタルオーディオデータ部分として判別することを特徴とする電子透かし埋め込みプログラム。
  5. 請求項1記載の電子透かし埋め込みプログラムであって、
    前記ディジタルビデオデータ及び前記ディジタルオーディオデータをアナログビデオデータ及びディジタルオーディオデータからA/D変換するステップをさらに有することを特徴とする電子透かし埋め込みプログラム。
  6. 請求項1記載の電子透かし埋め込みプログラムであって、
    電子透かし処理対象となる種類を設定するステップをさらに有することを特徴とする電子透かし埋め込みプログラム。
  7. ビデオデータと前記ビデオデータに同期して再生されるオーディオデータを含むディジタル映像コンテンツに対し電子透かしを埋め込む電子透かし埋め込みプログラムにおいて、
    前記オーディオデータを部分ごとに音声の種類を判別するステップと、
    前記オーディオデータの音声の種類が電子透かし処理対象の音声の種類と一致した場合に前記オーディオデータに同期するビデオデータ部分に対して電子透かしを埋め込むステップを有することを特徴とする電子透かし埋め込みプログラム。
  8. 請求項7記載の電子透かし埋め込みプログラムにおいて、
    前記電子透かし処理対象の音声の種類は音楽であることを特徴とする電子透かし埋め込みプログラム。
  9. 請求項7記載の電子透かし埋め込みプログラムにおいて、
    前記音声の種類の判別は、前記オーディオデータの一部分におけるサンプリング時のロング・ウィンドウとショート・ウィンドウの出現割合の情報によることを特徴とする電子透かし埋め込みプログラム。
JP2005170295A 2004-06-16 2005-06-10 電子透かし埋め込み方法 Active JP4774820B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005170295A JP4774820B2 (ja) 2004-06-16 2005-06-10 電子透かし埋め込み方法
US11/152,066 US20060012831A1 (en) 2004-06-16 2005-06-15 Electronic watermarking method and storage medium for storing electronic watermarking program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2004178377 2004-06-16
JP2004178377 2004-06-16
JP2005170295A JP4774820B2 (ja) 2004-06-16 2005-06-10 電子透かし埋め込み方法

Publications (2)

Publication Number Publication Date
JP2006033811A true JP2006033811A (ja) 2006-02-02
JP4774820B2 JP4774820B2 (ja) 2011-09-14

Family

ID=35599096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005170295A Active JP4774820B2 (ja) 2004-06-16 2005-06-10 電子透かし埋め込み方法

Country Status (2)

Country Link
US (1) US20060012831A1 (ja)
JP (1) JP4774820B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101973766B1 (ko) * 2017-12-12 2019-05-07 주식회사 이니셜티 모바일을 위한 효율적 워터마킹 방법 및 장치

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100963005B1 (ko) * 2008-07-09 2010-06-10 한국전자통신연구원 자유시점 av 서비스에 따른 파일 생성 방법
US9401153B2 (en) 2012-10-15 2016-07-26 Digimarc Corporation Multi-mode audio recognition and auxiliary data encoding and decoding
US9305559B2 (en) 2012-10-15 2016-04-05 Digimarc Corporation Audio watermark encoding with reversing polarity and pairwise embedding
US20180097572A1 (en) * 2016-10-04 2018-04-05 Hitachi, Ltd. Wireless sensor network localization
US11562761B2 (en) * 2020-07-31 2023-01-24 Zoom Video Communications, Inc. Methods and apparatus for enhancing musical sound during a networked conference

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000165248A (ja) * 1998-11-27 2000-06-16 Canon Inc 電子透かし埋め込み装置、出力制御装置及びコンピュータ読み取り可能な記憶媒体
JP2002027225A (ja) * 2000-07-06 2002-01-25 Hitachi Ltd 電子透かし情報の埋め込み方法、および、電子透かし情報の埋め込み可能性分析方法
JP2002112012A (ja) * 2000-10-04 2002-04-12 Sony Corp データ出力方法および装置、データ再生方法および装置、データ記録方法および装置、記録媒体並びにコンテンツデータ
JP2002171492A (ja) * 2000-11-30 2002-06-14 Nec Corp キーワード検出装置およびキーワード検出装置を用いた懸賞方法
JP2004080094A (ja) * 2002-08-09 2004-03-11 Canon Inc 情報処理装置及び情報処理方法並びにプログラム及びコンピュータ読み取り可能な記録媒体

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5701389A (en) * 1995-01-31 1997-12-23 Lucent Technologies, Inc. Window switching based on interblock and intrablock frequency band energy
US7562392B1 (en) * 1999-05-19 2009-07-14 Digimarc Corporation Methods of interacting with audio and ambient music
US7644282B2 (en) * 1998-05-28 2010-01-05 Verance Corporation Pre-processed information embedding system
US6912315B1 (en) * 1998-05-28 2005-06-28 Verance Corporation Pre-processed information embedding system
US6330673B1 (en) * 1998-10-14 2001-12-11 Liquid Audio, Inc. Determination of a best offset to detect an embedded pattern
WO2001076128A2 (en) * 2000-04-04 2001-10-11 Ecd Systems, Inc. Method and system for digital data delivery and reproduction
US6674876B1 (en) * 2000-09-14 2004-01-06 Digimarc Corporation Watermarking in the time-frequency domain
US7376242B2 (en) * 2001-03-22 2008-05-20 Digimarc Corporation Quantization-based data embedding in mapped data
CN100395817C (zh) * 2001-11-14 2008-06-18 松下电器产业株式会社 编码设备、解码设备和解码方法
EP3522163A1 (en) * 2003-01-02 2019-08-07 Samsung Electronics Co., Ltd. Multimedia apparatus with "slide-show" accompanied audio output
TW594674B (en) * 2003-03-14 2004-06-21 Mediatek Inc Encoder and a encoding method capable of detecting audio signal transient
KR100547445B1 (ko) * 2003-11-11 2006-01-31 주식회사 코스모탄 디지털 오디오신호 및 오디오/비디오신호의 변속처리방법및 이를 이용한 디지털 방송신호의 변속재생방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000165248A (ja) * 1998-11-27 2000-06-16 Canon Inc 電子透かし埋め込み装置、出力制御装置及びコンピュータ読み取り可能な記憶媒体
JP2002027225A (ja) * 2000-07-06 2002-01-25 Hitachi Ltd 電子透かし情報の埋め込み方法、および、電子透かし情報の埋め込み可能性分析方法
JP2002112012A (ja) * 2000-10-04 2002-04-12 Sony Corp データ出力方法および装置、データ再生方法および装置、データ記録方法および装置、記録媒体並びにコンテンツデータ
JP2002171492A (ja) * 2000-11-30 2002-06-14 Nec Corp キーワード検出装置およびキーワード検出装置を用いた懸賞方法
JP2004080094A (ja) * 2002-08-09 2004-03-11 Canon Inc 情報処理装置及び情報処理方法並びにプログラム及びコンピュータ読み取り可能な記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101973766B1 (ko) * 2017-12-12 2019-05-07 주식회사 이니셜티 모바일을 위한 효율적 워터마킹 방법 및 장치

Also Published As

Publication number Publication date
JP4774820B2 (ja) 2011-09-14
US20060012831A1 (en) 2006-01-19

Similar Documents

Publication Publication Date Title
TWI519157B (zh) 將配音併入已剪輯之視訊與音訊錄製品中之方法以及音訊標籤
Liu et al. Detection of double MP3 compression
US7796860B2 (en) Method and system for playing back videos at speeds adapted to content
JP4600828B2 (ja) 文書対応付け装置、および文書対応付け方法
JP4774820B2 (ja) 電子透かし埋め込み方法
EP1610557A1 (en) System and method for embedding multimedia processing information in a multimedia bitstream
US7706663B2 (en) Apparatus and method for embedding content information in a video bit stream
JP4683116B2 (ja) 情報処理装置、情報処理方法、情報処理プログラムおよび撮像装置
CN100369469C (zh) 语音驱动头部图像合成影音文件的方法
US20100008641A1 (en) Electronic apparatus, video content editing method, and program
US7418393B2 (en) Data reproduction device, method thereof and storage medium
JP2007101945A (ja) 音声付き映像データ処理装置、音声付き映像データ処理方法及び音声付き映像データ処理用プログラム
JP2009278202A (ja) 映像編集装置及び方法及びプログラム及びコンピュータ読み取り可能な記録媒体
JP3607450B2 (ja) オーディオ情報分類装置
JP2011055386A (ja) 音響信号処理装置及び電子機器
JP2007048378A5 (ja)
JP2006340066A5 (ja)
JP4990375B2 (ja) 記録再生装置
JP4032122B2 (ja) 映像編集装置、映像編集プログラム、記録媒体、および映像編集方法
JP3377463B2 (ja) 映像/音声ずれ補正システム、方法および記録媒体
JP2004172879A (ja) 動画像記録再生装置
JP5389594B2 (ja) 画像ファイル生成方法、そのプログラム、その記録媒体および画像ファイル生成装置
JP2019213160A (ja) 動画編集装置、動画編集方法、及び動画編集プログラム
JP4884163B2 (ja) 音声分類装置
JP2005204003A (ja) 連続メディアデータ高速再生方法、複合メディアデータ高速再生方法、多チャンネル連続メディアデータ高速再生方法、映像データ高速再生方法、連続メディアデータ高速再生装置、複合メディアデータ高速再生装置、多チャンネル連続メディアデータ高速再生装置、映像データ高速再生装置、プログラム、および、記録媒体

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060426

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110613

R151 Written notification of patent or utility model registration

Ref document number: 4774820

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250