JP4792703B2 - 音声解析装置、音声解析方法及び音声解析プログラム - Google Patents

音声解析装置、音声解析方法及び音声解析プログラム Download PDF

Info

Publication number
JP4792703B2
JP4792703B2 JP2004051998A JP2004051998A JP4792703B2 JP 4792703 B2 JP4792703 B2 JP 4792703B2 JP 2004051998 A JP2004051998 A JP 2004051998A JP 2004051998 A JP2004051998 A JP 2004051998A JP 4792703 B2 JP4792703 B2 JP 4792703B2
Authority
JP
Japan
Prior art keywords
unit
pages
phoneme
segment
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004051998A
Other languages
English (en)
Other versions
JP2005241997A (ja
Inventor
裕一 工藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Sega Games Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp, Sega Games Co Ltd filed Critical Sega Corp
Priority to JP2004051998A priority Critical patent/JP4792703B2/ja
Priority to US11/060,754 priority patent/US7680660B2/en
Priority to EP05250981A priority patent/EP1569201B1/en
Priority to DE602005000896T priority patent/DE602005000896T2/de
Priority to ES05250981T priority patent/ES2284133T3/es
Priority to CNB2005100510306A priority patent/CN1319042C/zh
Publication of JP2005241997A publication Critical patent/JP2005241997A/ja
Application granted granted Critical
Publication of JP4792703B2 publication Critical patent/JP4792703B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、音声解析装置、音声解析プログラム及び音声解析方法に関する。更に、本発明の音声解析方法を使用する画像生成装置に関し、特に、音声に合わせて口の形状が変化するアニメーション(リップシンクアニメーション)を作成するリップシンクアニメーション画像生成装置に関する。
現在さまざまな場面で音声解析技術が使用される。例えば、音声から話者を照合したり、音声を文字に変換したり、音声に合わせて口の形状が変化するリップシンクアニメーションを作成する際等である。音声解析技術においては、言葉の意味の区別を表すのに用いられる単位である音素が音声から抽出され、話者照合に対しては予め登録された標準パターンと抽出された音素との類似度により話者を照合し、文字変換に対しては抽出された音素に対応する文字をディスプレイ等に表示し、リップシンクアニメーション作成に対しては抽出された音素に対応する画像をディスプレイ等に表示する、といった処理がそれぞれ行われる。
従来技術として、音声から音素を抽出する方法には、次のようなものがある。例えば、特許文献1の話者照合方式においては、予め入力された標準パターンと話者の音声との距離が所定値以下となる区間を母音毎に決定し、その区間を母音に対応させることで音素が抽出される。
このように音素を抽出するための区間をセグメントと呼ぶ。特許文献2のアニメーション画像生成装置においては、複合正弦波モデル(CSM)等に基づくフォルマント分析を行い、母音を特徴付けるフォルマント情報に基づき音素が抽出される。
特公平6−32007号公報 特開2003−233389号公報
しかしながら、セグメントの決定を標準パターンとの距離により行うには、話者毎に標準パターンを登録したデータベースを用意しなければならない。これは、話者数に応じてデータ量も膨大となり、音声解析処理にかかる時間を遅らせる原因になりかねない。従って、リアルタイムによる処理を必要とする場面(例えば、リップシンクアニメーション作成等)への適用が難しい。また、新たな話者が加入する場合データベースへその新たな話者の標準パターンを追加する作業が発生するため、データベースの管理作業が負担となり、かつ、不特定多数の話者を対象とすることが難しい。
また、フォルマント情報に基づく音素の抽出は、実際はその処理に要する時間のため、リアルタイムによる処理を必要とする場面への適用が難しいという実状がある。これらの他にも、例えばLPC(Linear Planning Coefficient)ケプストラム分析を利用した音素の抽出法が知られているが、この方法による音素の抽出精度は、回数を重ねると上昇する学習効果があることが認められている。逆にいうと、抽出精度を高めるには、予め大量の学習信号に対する分析結果を用意しておく必要があり、不特定多数の話者を対象とすることが難しい。
加えて、スペクトル包絡の性質は次数の決定や繰り返し数など表現法や抽出法によって大きく異なることが知られており、分析者のスキルを要求される。
従って、本発明の目的は、標準パターンを話者毎に用意することなく、リアルタイムによる音声解析処理を可能にし、また不特定多数の話者を対象として適用が可能な音声解析装置及び音声解析方法を提供することにある。また、その音声解析方法を適用し、リアルタイムによる処理を可能とするアニメーション画像生成装置を提供することにある。
上記目的は、本発明の第一の側面によれば、入力される音声から音素の区切りを検出する、コンピュータで実行可能な音声解析方法であって、前記コンピュータにより、周波数分解部として、前記入力される音声のデジタル信号の所定長の時間範囲を、最も短い音素より短い時間単位でずらしながら複数のページに分割し、前記複数のページ毎の周波数成分を求めるステップと、変化度算出部として、前記複数のページにおいて、隣接するページ間の同一周波数成分に対応する振幅同士の積を総和した値である相関度を求めるステップと、セグメント決定部として、前記相関度の差分を変化度として、前後2つの変化度と比較して前記2つの変化度より大きい変化度を有する2つの相関度に対応する隣接するページの組を特定し、前記特定された隣接するページの組を新たな音素の開始位置とするセグメントを抽出するステップを実行することを特徴とする音声解析方法により達成される。
また上記目的は、本発明の第二の側面によれば、第一の側面において、更に、前記コンピュータにより、音素抽出部として、前記セグメント決定部として実行されるステップにおいて抽出されるセグメント毎に特徴量を算出し、記憶部に格納されている基準データと前記算出された特徴量を比較して音素を抽出するステップを実行することを特徴とする音声解析方法により達成される。
また上記目的は、本発明の第三の側面によれば、第一又は第二の側面において、更に、前記周波数分解部として、前記入力される音声のデジタル信号の所定長の時間範囲を、最も短い音素より短い時間単位でずらしながら複数のページに分割する際の前記時間単位を、互いに重複部分を有するようにずらすことを特徴とする音声解析方法により達成される。
また上記目的は、本発明の第四の側面によれば、第一又は第二の側面において、前記周波数分解部として、前記複数のページ毎の周波数成分を、前記音声のデジタル信号をフーリエ変換して求めることを特徴とする音声解析方法により達成される。
また上記目的は、本発明の第五の側面によれば、第二の側面において、前記セグメントに含まれる前記音声信号をフーリエ変換して得られる周波数成分毎の振幅を前記音素抽出部としてセグメント毎に算出する特徴量とすることを特徴とする音声解析方法により達成される。
また上記目的は、本発明の第六の側面によれば、入力される音声から音素の区切りに対応して画像を表示する画像生成装置におけるアニメーション画像生成方法であって、コンピュータにより、周波数分解部として、前記入力される音声のデジタル信号の所定長の時間範囲を、最も短い音素より短い時間単位でずらしながら複数のページに分割し、前記複数のページ毎の周波数成分を求めるステップと、変化度算出部として、前記複数のページにおいて、隣接するページ間の同一周波数成分に対応する振幅同士の積を総和した値である相関度を求めるステップと、セグメント決定部として、前記相関度の差分を変化度として、前後2つの変化度と比較して前記2つの変化度より大きい変化度を有する2つの相関度に対応する隣接するページの組を特定し、前記特定された隣接するページの組を新たな音素の開始位置とするセグメントを抽出するステップと、音素抽出部として、前記セグメント決定部として実行されるステップにおいて抽出されるセグメント毎に特徴量を算出し、記憶部に格納されている基準データと比較して音素を抽出するステップを実行し、更に、画像生成手段として、前記抽出される音素に対応する画像を前記セグメント区間に合わせて切り替えて表示するステップを実行することを特徴とするアニメーション画像生成方法により達成される。
また上記目的は、本発明の第七の側面によれば、入力される音声から音素の区切りを検出する、コンピュータで実行可能な音声解析プログラムであって、前記コンピュータを、前記入力される音声のデジタル信号の所定長の時間範囲を、最も短い音素より短い時間単位でずらしながら複数のページに分割し、前記複数のページ毎の周波数成分を求める周波数分解部として、前記複数のページにおいて、隣接するページ間の同一周波数成分に対応する振幅同士の積を総和した値である相関度を求める変化度算出部として、前記相関度の差分を変化度として、前後2つの変化度と比較して前記2つの変化度より大きい変化度を有する2つの相関度に対応する隣接するページの組を特定し、前記特定された隣接するページの組を新たな音素の開始位置とするセグメントを抽出するセグメント決定部として、機能させることを特徴とする音声解析プログラムにより達成される。
また上記目的は、本発明の第八の側面によれば、第七の側面において、更に、前記コンピュータに、前記セグメント決定部として実行されるステップにおいて抽出されるセグメント毎に特徴量を算出し、記憶部に格納されている基準データと比較して音素を抽出する音素抽出部として、機能させることを特徴とする音声解析プログラムにより達成される。
また上記目的は、本発明の第九の側面によれば、第七又は第八の側面において、前記周波数分解部として、前記入力される音声のデジタル信号の所定長の時間範囲を、最も短い音素より短い時間単位でずらしながら複数のページに分割する際の前記時間単位は、互いに重複部分を有するようにずらすことを特徴とする音声解析プログラムにより達成される。
また上記目的は、本発明の第十の側面によれば、第七又は第八の側面において、前記周波数分解部として、前記複数のページ毎の周波数成分を、前記音声のデジタル信号をフーリエ変換して求めることを特徴とする音声解析プログラムにより達成される。
また上記目的は、本発明の第十一の側面によれば、第八の側面において、前記セグメントに含まれる前記音声信号をフーリエ変換して得られる周波数成分毎の振幅を前記音素抽出部としてセグメント毎に算出する特徴量とすることを特徴とする音声解析プログラムにより達成される。
また上記目的は、本発明の第十二の側面によれば、入力される音声から音素の区切りに対応して画像を表示する画像生成装置におけるアニメーション画像生成プログラムであって、コンピュータに、前記入力される音声のデジタル信号の所定長の時間範囲を、最も短い音素より短い時間単位でずらしながら複数のページに分割し、前記複数のページ毎の周波数成分を求める周波数分解部として、前記複数のページにおいて、隣接するページ間の同一周波数成分に対応する振幅同士の積を総和した値である相関度を求める変化度算出部として、前記相関度の差分を変化度として、前後2つの変化度と比較して前記2つの変化度より大きい変化度を有する2つの相関度に対応する隣接するページの組を特定し、前記特定された隣接するページの組を新たな音素の開始位置とするセグメントを抽出するセグメント決定部として、前記セグメント決定部として実行されるステップにおいて抽出されるセグメント毎に特徴量を算出し、記憶部に格納されている基準データと比較して音素を抽出する音素抽出部として、更に、前記抽出される音素に対応する画像を前記セグメント区間に合わせて切り替えて表示する画像表示部として機能させることを特徴とするアニメーション画像生成プログラムにより達成される。
また上記目的は、本発明の第十三の側面によれば、入力される音声から音素の区切りを検出する音声解析装置であって、前記入力される音声のデジタル信号の所定長の時間範囲を、最も短い音素より短い時間単位でずらしながら複数のページに分割し、前記複数のページ毎の周波数成分を求める周波数分解部と、前記複数のページにおいて、隣接するページ間の同一周波数成分に対応する振幅同士の積を総和した値である相関度を求める変化度算出部と、前記相関度の差分を変化度として、前後2つの変化度と比較して前記2つの変化度より大きい変化度を有する2つの相関度に対応する隣接するページの組を特定し、前記特定された隣接するページの組を新たな音素の開始位置とするセグメントを抽出するセグメント決定部を有することを特徴とする音声解析装置により達成される。
また上記目的は、本発明の第十四の側面によれば、入力される音声から音素の区切りに対応して画像を表示する画像生成装置におけるアニメーション画像生成装置であって、前記入力される音声のデジタル信号の所定長の時間範囲を、最も短い音素より短い時間単位でずらしながら複数のページに分割し、前記複数のページ毎の周波数成分を求める周波数分解部と、前記複数のページにおいて、隣接するページ間の同一周波数成分に対応する振幅同士の積を総和した値である相関度を求める変化度算出部と、前記相関度の差分を変化度として、前後2つの変化度と比較して前記2つの変化度より大きい変化度を有する2つの相関度に対応する隣接するページの組を特定し、前記特定された隣接するページの組を新たな音素の開始位置とするセグメントを抽出するセグメント決定部と、前記セグメント決定部として実行されるステップにおいて抽出されるセグメント毎に特徴量を算出し、記憶部に格納されている基準データと比較して音素を抽出するステップを実行し音素抽出部と、更に、前記抽出される音素に対応する画像を前記セグメント区間に合わせて切り替えて表示する画像表示手段を有することを特徴とするアニメーション画像生成装置により達成される。
本発明を使用すれば、標準パターンを話者毎に用意することなく、予め複数の被験者の入力音声を解析した結果を基準データとして用意するだけで、軽快な音声解析処理をリアルタイムに実現することができる。また、話者毎の標準パターンの登録作業を要せず、基準データを一度用意すれば済むため、不特定多数の話者を対象とすることが可能である。さらに、話者毎の標準パターンを格納するデータベースを必要としないため、記憶容量の小さな機器に対しても実装が可能である。
以下、本発明の実施の形態について図面に従って説明する。しかしながら、本発明の技術的範囲はかかる実施の形態に限定されるものではなく、特許請求の範囲に記載された発明とその均等物にまで及ぶものである。
図1は、本発明の実施形態の画像生成装置の構成ブロック図であり、入力された音声に対応するアニメーションを生成するリップシンクアニメーション生成装置である。本実施形態の画像生成装置は、本発明の音声解析装置を音声解析部1として含み、他に、CPU2、ワークRAM3、ジオメトリ演算部4、レンダラー5、テクスチャ生成部6、テクスチャRAM7、表示部8、フレームバッファ9を有する。各機能ブロックはプログラムで実現され、画像生成装置に備えられたCPU(Central Processing Unit)2にてそのプログラムが実行されるが、ハードウェアで構成することも可能である。
CPU2は、画像を生成するプログラムを制御する。ワークRAM3には、CPU2で使用するプログラムやデータを格納する。音声解析部1は、入力された音声を解析し、入力された音声に含まれる音素を抽出すると共に、各音素に対応する画像を表示する時間を決定するためのタイミング情報を出力する。
ジオメトリ演算部4には、CPU2の制御の下に、ワークRAM3からワールド座標系の3次元オブジェクトデータとしてのポリゴンデータが読み出されて入力される。次いで、視点を原点とする視点座標系のデータに座標変換を行う。ジオメトリ演算部4で処理されたポリゴンデータはレンダラー5に入力され、レンダラー5において、ポリゴン単位のデータがピクセル単位のデータに変換される。
ピクセル単位のデータは、テクスチャ生成部6に入力され、テクスチャRAM7に格納されるテクスチャデータに基づき、ピクセル単位にテキスチャカラーを生成する。表示部8は、テクスチャ生成部6からの画像データを、必要に応じて陰面除去処理や陰影付けを行い、次いで、2次元座標に変換しながらフレームバッファ9に書き込む。フレームバッファ9に書き込まれたデータは、繰り返し読み出され、ビデオ信号に変換され出力される。こうして、タイミング情報を基に各音素に対応する画像が切り替えられ図示省略されたディスプレイ等に表示される。
図1において音声解析部1以外の機能ブロックは、アニメーションを表示させるためのアニメーション表示部である。
図2は、本発明の音声解析部(音声解析装置)の構成ブロック図である。音声解析部1は、入力部11、AD変換部12、周波数分解部13、変化度算出部14、セグメント決定部15、音素抽出部16、記憶部17を有する。各機能ブロックはプログラムで実現され、CPU(Central Processing Unit)にてそのプログラムが実行されるが、ハードウェアで構成することもできる。またCPUに関しては、音声解析部1に含まれる場合その音声解析部1に含まれる図示省略されたCPUが利用されてもよいし、外部のCPU(例えば図1のCPU2)が利用されてもよい。
入力部11は、音声が入力されるインターフェースである。音声解析部1への音声は、マイクからの入力信号やオーディオケーブルで接続されたオーディオ機器の出力信号等により入力される。この場合、マイクやオーディオケーブル接続用の入力端子がそれぞれ入力部11である。また、waveファイルやmp3 (MPEG-1 Audio Layer 3)ファイル等のデジタルデータにより音声が入力されてもよい。この場合、データ転送用の接続インタフェース(USB(Universal Serial Bus)インタフェース、パラレルインタフェース、IEEE(Institute of Electrical and Electronic Engineers)1394インタフェース、内部バス等)が入力部11である。
入力された音声データがアナログ信号の場合、アナログデジタル(AD)変換部12によりデジタルデータに変換される。こうしてデジタル変換された音声データは、ある時間における振幅が対応付けられた時系列データであり、周波数分解部13に入力される。そして、周波数分解部13にて、所定長の時間範囲(これをページと呼ぶ)をずらしながら切り取ることで音声データは複数のページに分割され、ページ毎に周波数成分に分解される(例えば、離散フーリエ変換される)。なお、ページは、別名フレームあるいは音声フレームとも呼ばれるものである。
ページ毎の周波数成分データは変化度算出部14に入力され、隣接ページ間の相関度(算出方法は後述する)に基づき変化度が算出される。算出された変化度はセグメント決定部15に入力され、その相関度に基づき音素を抽出するための区間であるセグメントが特定される。これは、セグメントの境界(より具体的には開始位置)が隣接するページの組として特定される。そして、決定されたセグメント毎に音素抽出部16は、記憶部17に格納された基準データとマッチングを行って音素を抽出する。セグメントの境界はページ数として特定されるため、セグメントが決定されると、音素が切り替わるタイミング情報、言い換えると、各音素に対応する画像を表示する時間を決定するためのタイミング情報が得られる。
記憶部17に格納される基準データは、予め複数の被験者の音声を、入力音声が解析される手順に従って解析された結果を平均したデータである。こうして、音声解析部1は、入力された音声に含まれる音素を抽出すると共に、各音素に対応する画像を表示する時間を決定するためのタイミング情報を出力する。
図3は、本発明の実施形態の画像生成装置における処理を説明するフローチャートである。また図4から図10は、図3のフローチャートにおけるステップを説明するための図であり、適宜これらを参照して図3を説明する。
まず、入力された音声のアナログデジタル(AD)変換が行われる(S1)。これは入力部11を介して入力された音声がAD変換部12に入力されることで行われ、例えば、マイク等から入力されるアナログ信号がデジタルデータに変換される。ただし、入力された音声がデジタルデータの場合、ステップS1は省略される。
次に、周波数分解部13にて、所定長の時間範囲(これをページと呼ぶ)をずらしながら切り取ることで音声データは複数のページに分割され、ページ毎に周波数成分に分解される(S2)。所定長は、最も短い音素(1/10秒程度)より短くする。経験上、最も短い音素の10分の1(1/100秒程度)あれば十分な精度が得られる。それ以上所定長を短くしても処理量が増大するのみであり効果がない。従って、所定長は1/10〜1/100秒程度にすることが好ましい。
図4は、図3ステップS2のページ分割を説明する図である。横軸に時間、縦軸に振幅が取られたグラフは、入力音声の波形を示すものである。この波形を、開始時刻D(音声の入力開始時刻)から始めて所定長の時間範囲(ここでは1024ポイント、1ポイントは(1/44100)秒)を1ページとし、それを441ポイントずつすらしながら、複数のページに分割する。
なお、ここでは所定長を1024ポイントに設定したが、音声信号のサンプリング周波数、話者の発話スピードなどを勘案し、適宜変更してよい。また、ここでは、ずらす時間が所定長の時間範囲より短いため、各時間範囲に重複部分が存在するが、重複部分が存在しないように所定長の時間範囲をとってもよい。
図5は、図3ステップS2の周波数成分への分解を行ったときの周波数と振幅の関係を示す図である。これは、図4の各ページに含まれる波形をN点離散フーリエ変換を施すことにより得られる図である。すなわち、ページmでのN点の振幅を{x(m,k)|k=0…N-1}と表すと、離散フーリエ変換は次式(A)で表される。
Figure 0004792703
ただし、
Figure 0004792703
である。ここでは、振幅軸を中心に対称であるため(図5参照)、周波数が正の領域のみを使用すれば十分である。
図6は、複数のページについて周波数分解を行った結果を示す図である。図6では簡単化のため、同じ形状の周波数成分グラフが並んでいるが、実際は、時間の経過により入力音声の波形が異なるためページ毎の周波数成分グラフは変化することとなる。
そして、変化度算出部14は、まず隣接ページ間の相関度を次式(B)により算出する(S3)。
Figure 0004792703
相関度の算出の様子及び式(B)の意味について図7を用いて説明する。
図7は、隣接ページ間の相関度の算出を行う様子を説明する図である。図7は、図6に示される隣接ページのうち、例えば、mページと、(m+1)ページの相関度を算出する例である(つまり、式(B)においてx = mの場合)。各ページで同一周波数成分に対応する振幅を掛け合わせた値をN点分総和を取ったものである。図7でいうと、同一周波数成分kに対応するmページの振幅A(m,k)と(m+1)ページの振幅A(m+1,k)がまず掛け合わされる。kを0からN-1まで変化させながら総和をとることにより、mページと(m+1)ページの相関度が算出される。
そして、変化度算出部14は、ノイズを除去する為に、次式(C)により式(B)により求められた相関度を平均化する(S4)。
Figure 0004792703
式(C)により求まる相関度Q(x)は、ページが変化したとき周波数成分のグラフ形状に変化がないほど、値の変化が小さく、逆に、周波数成分のグラフ形状に変化があるとその前後の隣接ページの相関度と比べて値の変化が大きい。そして周波数成分のグラフが変化するページは、新たな音素の境界位置(セグメントの境界)と捉えることができる。従って、相関度の差分を変化度とし、変化度を前後2つの変化度と比較して、両者より大きいという条件を満たす隣接ページを特定し、セグメントを決定する(S5)。ステップS5は、セグメント決定部15が、相関度の差分関数から、前述した条件を満たす隣接ページを特定する。ここでは、ノイズ除去された相関度Q(x)を用いる。次図8を用いて説明する。なお、相関度の差分である変化度を、S(y)=Q(y+1)-Q(y)で表すとする。
図8は、ページ関連パラメータyと変化度S(y)との関係を示す図である。ページ関連パラメータy = 1に対応するS(1)の意味するところは、隣接する2ページと3ページの相関度(Q(2))から隣接する1ページと2ページの相関度(Q(1))を減算した値である。ページ関連パラメータにより直接ページが特定されることはないが、セグメントの境界となる隣接ページの組が特定される。
そして、この変化度S(y)が S(y-1) < S(y) かつ S(y+1) < S(y) なる自然数yに対応する隣接ページの組が新たな音素の開始位置として特定される。先にも述べたように、音素の切り替わりにおいては、入力音声の波形が大きく変化し、その変化が顕著な位置は、新たな音素の開始位置を意味している。図8の場合、S(y-1) < S(y) かつ S(y+1) < S(y) なる自然数yを満たす箇所が4箇所あり(それぞれページ関連パラメータy1、y2、y3、y4とする)、第1セグメントから第4セグメントまで4音素が抽出されることになる。
ページ関連パラメータy1により、セグメントの開始ページがy1ページとy1+1ページに絞られるが、どちらを使用しても構わないが、解析対象となる音声信号においては統一しておく。各セグメントの開始位置となる他のページ関連パラメータに関しても同様である。次いで、音素抽出部16はステップS5で決定されたセグメント毎に、特徴量を算出する(S6)。例えば、一般的な特徴量の算出方法として、セグメント毎に入力音声を周波数成分へ分解した後、逆フーリエ変換を施し、更にケプストラム分析を行う、といった手法がある。ここでは一例として、セグメント毎に入力音声を周波数成分へ分解し、各周波数成分の振幅を特徴量として使用する。セグメントとページが一致すれば、ステップS2で求めたページ毎の周波数分解の結果を援用してもよい。
図9は、セグメント毎の周波数分解を説明する図である。セグメント毎にN点離散フーリエ変換によって周波数成分が算出される様子が描かれている。図9では簡単化のため、同じ形状の周波数成分グラフが並んでいるが、実際は、時間の経過により入力音声の波形が異なるためページ毎の周波数成分グラフは変化することとなる。
そして、次に基準データとのマッチングを行い音素を抽出する(S7)。基準データには、予め複数の被験者に対して上記ステップS1からS6までの手順を施した結果を平均化したデータを用いる。このような基準データを一度作成し、記憶部17に格納しておけば、その後の利用者の変動に左右されることなく安定した音素の抽出が可能であり、特に、不特定多数の話者を対象とすることができる。マッチングの方法は、DPマッチング等の周知な手法を適用すればよい。
以上のステップS1からS7までの処理により、入力音声に含まれるセグメント及び音素、セグメントの境界のページが特定される。またセグメント境界のページが特定されると、本実施形態においては、{開始時刻D+441ポイント×(セグメント境界のページ−1)}により時刻に変換できるため、タイミング情報の取得も完了する。そして、音声解析部1より出力される音素及びタイミング情報に基づき、図1に説明した構成に従って音素に対応するアニメーションが表示される(S8)。
図10は、音素に対応するアニメーションを説明する図である。例えば、抽出する音素として母音を選択し、母音毎の基準データを記憶部17に格納しておき、図10に示される各母音のアニメーションに対応するデータをワークRAM3に格納しておけば、図1の画像生成装置を使用して、入力音声に含まれる各母音に対応して、アニメーションを表示させることが可能となる。例えば、母音「ア」に、図10の画像アを対応させ、母音「イ」に、図10の画像イを対応させ、という具合に各母音に対応するアニメーション画像が表示される。
以上に説明したように本発明の実施形態によれば、標準パターンを話者毎に用意することなく、予め複数の被験者の入力音声を解析した結果を基準データとして用意するだけで、軽快な音声解析処理をリアルタイムに実現することができる。また、話者毎の標準パターンの登録作業を要せず、基準データを一度用意すれば済むため、不特定多数の話者を対象とすることが可能である。さらに、話者毎の標準パターンを格納するデータベースを必要としないため、記憶容量の小さな機器に対しても実装が可能である。
適用対象としては、オンラインチャット時のアニメーション、ビデオゲームにおけるアニメーション(特に対話形式でゲームが行われるものやロールプレイングゲーム)、病院や金融機関等での無人受付システム等が挙げられる。
なお本実施形態においては、画像生成装置として実現する方法を説明したが、図3に示されるフローチャートに従って処理される方法又はプログラムとして実現することも可能である。また、本実施形態においては、画像生成装置として実現する方法を説明したが、例えば、音素に対応する文字を表示させる音声文字変換装置等に適用することもできる。その場合、図1の構成においてアニメーションを表示させる機能ブロック(図1の音声解析部1以外の機能ブロック)が文字を表示する機能ブロックに置き換えられ、アニメーションを表示させるステップS8(図3のフローチャート)が文字を表示するステップとなるような構成とすれば済む。また、本実施形態においては、音声解析部1を含む画像生成装置として実現する方法を説明したが、音声解析部を単独の装置(音声解析装置)として実現することも可能である。その場合、図3に示されるフローチャートのステップS8が削除され、音声解析装置から出力される音素やタイミング情報は、その接続先の別の装置にて加工処理される。
本発明の実施形態の画像生成装置の構成ブロック図である。 本発明の音声解析部(音声解析装置)の構成ブロック図である。 本発明の実施形態の画像生成装置における処理を説明するフローチャートである。 図3ステップS2のページ分割を説明する図である。 図3ステップS2の周波数成分への分解を行ったときの周波数と振幅の関係を示す図である。 複数のページについて周波数分解を行った結果を示す図である。 隣接ページ間の相関度の算出を行う様子を説明する図である。 ページ関連パラメータyと相関度の差分S(y)との関係を示す図である。 セグメント毎の周波数分解を説明する図である。 音素に対応するアニメーションを説明する図である。
符号の説明
1 音声解析部、2 CPU、3 ワークRAM、4 ジオメトリ演算部、5 レンダラー、6 テクスチャ生成部、7 テクスチャRAM、8 表示部、9 フレームバッファ、11 入力部、12 アナログデジタル変換部、13 周波数分解部、14 変化度算出部、15 セグメント決定部、16 音素抽出部、17 記憶部

Claims (14)

  1. 入力される音声から音素の区切りを検出する、コンピュータで実行可能な音声解析方法であって、
    前記コンピュータにより、
    周波数分解部として、前記入力される音声のデジタル信号の所定長の時間範囲を、最も短い音素より短い時間単位でずらしながら複数のページに分割し、前記複数のページ毎の周波数成分を求めるステップと、
    変化度算出部として、前記複数のページにおいて、隣接するページ間の同一周波数成分に対応する振幅同士の積を総和した値である相関度を求めるステップと、
    セグメント決定部として、前記相関度の差分を変化度として、前後2つの変化度と比較して前記2つの変化度より大きい変化度を有する2つの相関度に対応する隣接するページの組を特定し、前記特定された隣接するページの組を新たな音素の開始位置とするセグメントを抽出するステップを実行する、
    ことを特徴とする音声解析方法。
  2. 請求項1において、
    更に、前記コンピュータにより、音素抽出部として、前記セグメント決定部として実行されるステップにおいて抽出されるセグメント毎に特徴量を算出し、記憶部に格納されている基準データと前記算出された特徴量を比較して音素を抽出するステップを実行することを特徴とする音声解析方法。
  3. 請求項1又は2において、
    前記周波数分解部として、前記入力される音声のデジタル信号の所定長の時間範囲を、最も短い音素より短い時間単位でずらしながら複数のページに分割する際の前記時間単位を、互いに重複部分を有するようにずらすことを特徴とする音声解析方法。
  4. 請求項1又は2において、
    前記周波数分解部として、前記複数のページ毎の周波数成分を、前記音声のデジタル信号をフーリエ変換して求めることを特徴とする音声解析方法。
  5. 請求項2において、
    前記セグメントに含まれる前記音声信号をフーリエ変換して得られる周波数成分毎の振幅を前記音素抽出部としてセグメント毎に算出する特徴量とすることを特徴とする音声解析方法。
  6. 入力される音声から音素の区切りに対応して画像を表示する画像生成装置におけるアニメーション画像生成方法であって、
    コンピュータにより、
    周波数分解部として、前記入力される音声のデジタル信号の所定長の時間範囲を、最も短い音素より短い時間単位でずらしながら複数のページに分割し、前記複数のページ毎の周波数成分を求めるステップと、
    変化度算出部として、前記複数のページにおいて、隣接するページ間の同一周波数成分に対応する振幅同士の積を総和した値である相関度を求めるステップと、
    セグメント決定部として、前記相関度の差分を変化度として、前後2つの変化度と比較して前記2つの変化度より大きい変化度を有する2つの相関度に対応する隣接するページの組を特定し、前記特定された隣接するページの組を新たな音素の開始位置とするセグメントを抽出するステップと、
    音素抽出部として、前記セグメント決定部として実行されるステップにおいて抽出されるセグメント毎に特徴量を算出し、記憶部に格納されている基準データと比較して音素を抽出するステップを実行し、
    更に、画像生成手段として、前記抽出される音素に対応する画像を前記セグメント区間に合わせて切り替えて表示するステップを実行する、
    ことを特徴とするアニメーション画像生成方法。
  7. 入力される音声から音素の区切りを検出する、コンピュータで実行可能な音声解析プログラムであって、
    前記コンピュータを、
    前記入力される音声のデジタル信号の所定長の時間範囲を、最も短い音素より短い時間単位でずらしながら複数のページに分割し、前記複数のページ毎の周波数成分を求める周波数分解部として、
    前記複数のページにおいて、隣接するページ間の同一周波数成分に対応する振幅同士の積を総和した値である相関度を求める変化度算出部として、
    前記相関度の差分を変化度として、前後2つの変化度と比較して前記2つの変化度より大きい変化度を有する2つの相関度に対応する隣接するページの組を特定し、前記特定された隣接するページの組を新たな音素の開始位置とするセグメントを抽出するセグメント決定部として、
    機能させることを特徴とする音声解析プログラム。
  8. 請求項7において、
    更に、前記コンピュータに、前記セグメント決定部として実行されるステップにおいて抽出されるセグメント毎に特徴量を算出し、記憶部に格納されている基準データと比較して音素を抽出する音素抽出部として、
    機能させることを特徴とする音声解析プログラム。
  9. 請求項7又は8において、
    前記周波数分解部として、前記入力される音声のデジタル信号の所定長の時間範囲を、最も短い音素より短い時間単位でずらしながら複数のページに分割する際の前記時間単位は、互いに重複部分を有するようにずらすことを特徴とする音声解析プログラム。
  10. 請求項7又は8において、
    前記周波数分解部として、前記複数のページ毎の周波数成分を、前記音声のデジタル信号をフーリエ変換して求めることを特徴とする音声解析プログラム。
  11. 請求項8において、
    前記セグメントに含まれる前記音声信号をフーリエ変換して得られる周波数成分毎の振幅を前記音素抽出部としてセグメント毎に算出する特徴量とすることを特徴とする音声解析プログラム。
  12. 入力される音声から音素の区切りに対応して画像を表示する画像生成装置におけるアニメーション画像生成プログラムであって、
    コンピュータに、
    前記入力される音声のデジタル信号の所定長の時間範囲を、最も短い音素より短い時間単位でずらしながら複数のページに分割し、前記複数のページ毎の周波数成分を求める周波数分解部として、
    前記複数のページにおいて、隣接するページ間の同一周波数成分に対応する振幅同士の積を総和した値である相関度を求める変化度算出部として、
    前記相関度の差分を変化度として、前後2つの変化度と比較して前記2つの変化度より大きい変化度を有する2つの相関度に対応する隣接するページの組を特定し、前記特定された隣接するページの組を新たな音素の開始位置とするセグメントを抽出するセグメント決定部として、
    前記セグメント決定部として実行されるステップにおいて抽出されるセグメント毎に特徴量を算出し、記憶部に格納されている基準データと比較して音素を抽出する音素抽出部として、
    更に、前記抽出される音素に対応する画像を前記セグメント区間に合わせて切り替えて表示する画像表示部として機能させる、
    ことを特徴とするアニメーション画像生成プログラム。
  13. 入力される音声から音素の区切りを検出する音声解析装置であって、
    前記入力される音声のデジタル信号の所定長の時間範囲を、最も短い音素より短い時間単位でずらしながら複数のページに分割し、前記複数のページ毎の周波数成分を求める周波数分解部と、
    前記複数のページにおいて、隣接するページ間の同一周波数成分に対応する振幅同士の積を総和した値である相関度を求める変化度算出部と、
    前記相関度の差分を変化度として、前後2つの変化度と比較して前記2つの変化度より大きい変化度を有する2つの相関度に対応する隣接するページの組を特定し、前記特定された隣接するページの組を新たな音素の開始位置とするセグメントを抽出するセグメント決定部を、
    有することを特徴とする音声解析装置。
  14. 入力される音声から音素の区切りに対応して画像を表示する画像生成装置におけるアニメーション画像生成装置であって、
    前記入力される音声のデジタル信号の所定長の時間範囲を、最も短い音素より短い時間単位でずらしながら複数のページに分割し、前記複数のページ毎の周波数成分を求める周波数分解部と、
    前記複数のページにおいて、隣接するページ間の同一周波数成分に対応する振幅同士の積を総和した値である相関度を求める変化度算出部と、
    前記相関度の差分を変化度として、前後2つの変化度と比較して前記2つの変化度より大きい変化度を有する2つの相関度に対応する隣接するページの組を特定し、前記特定された隣接するページの組を新たな音素の開始位置とするセグメントを抽出するセグメント決定部と、
    前記セグメント決定部として実行されるステップにおいて抽出されるセグメント毎に特徴量を算出し、記憶部に格納されている基準データと比較して音素を抽出するステップを実行し音素抽出部と、
    更に、前記抽出される音素に対応する画像を前記セグメント区間に合わせて切り替えて表示する画像表示手段を、
    有することを特徴とするアニメーション画像生成装置。
JP2004051998A 2004-02-26 2004-02-26 音声解析装置、音声解析方法及び音声解析プログラム Expired - Lifetime JP4792703B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2004051998A JP4792703B2 (ja) 2004-02-26 2004-02-26 音声解析装置、音声解析方法及び音声解析プログラム
US11/060,754 US7680660B2 (en) 2004-02-26 2005-02-18 Voice analysis device, voice analysis method and voice analysis program
EP05250981A EP1569201B1 (en) 2004-02-26 2005-02-22 Speech segmentation
DE602005000896T DE602005000896T2 (de) 2004-02-26 2005-02-22 Sprachsegmentierung
ES05250981T ES2284133T3 (es) 2004-02-26 2005-02-22 Segmentacion del habla.
CNB2005100510306A CN1319042C (zh) 2004-02-26 2005-02-25 语音分析设备和语音分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004051998A JP4792703B2 (ja) 2004-02-26 2004-02-26 音声解析装置、音声解析方法及び音声解析プログラム

Publications (2)

Publication Number Publication Date
JP2005241997A JP2005241997A (ja) 2005-09-08
JP4792703B2 true JP4792703B2 (ja) 2011-10-12

Family

ID=34747518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004051998A Expired - Lifetime JP4792703B2 (ja) 2004-02-26 2004-02-26 音声解析装置、音声解析方法及び音声解析プログラム

Country Status (6)

Country Link
US (1) US7680660B2 (ja)
EP (1) EP1569201B1 (ja)
JP (1) JP4792703B2 (ja)
CN (1) CN1319042C (ja)
DE (1) DE602005000896T2 (ja)
ES (1) ES2284133T3 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5119700B2 (ja) * 2007-03-20 2013-01-16 富士通株式会社 韻律修正装置、韻律修正方法、および、韻律修正プログラム
EP2259610B1 (en) * 2009-06-02 2012-08-08 Vodafone Holding GmbH Registering a mobile device in a mobile communication network
US20110143768A1 (en) * 2009-12-14 2011-06-16 Lane Sean L Methods and apparatus related to region-specific mobile device and infrastructure detection, analysis and display
RU2445718C1 (ru) * 2010-08-31 2012-03-20 Государственное образовательное учреждение высшего профессионального образования Академия Федеральной службы охраны Российской Федерации (Академия ФСО России) Способ выделения сегментов обработки речи на основе анализа корреляционных зависимостей в речевом сигнале
US20120089392A1 (en) * 2010-10-07 2012-04-12 Microsoft Corporation Speech recognition user interface
US10264990B2 (en) * 2012-10-26 2019-04-23 The Regents Of The University Of California Methods of decoding speech from brain activity data and devices for practicing the same
US9302393B1 (en) * 2014-04-15 2016-04-05 Alan Rosen Intelligent auditory humanoid robot and computerized verbalization system programmed to perform auditory and verbal artificial intelligence processes
US10002543B2 (en) * 2014-11-04 2018-06-19 Knotbird LLC System and methods for transforming language into interactive elements
US10057681B2 (en) 2016-08-01 2018-08-21 Bose Corporation Entertainment audio processing
TWI606390B (zh) * 2016-09-23 2017-11-21 元鼎音訊股份有限公司 可自動調整聲音輸出之方法及電子裝置
JP6337362B1 (ja) * 2017-11-02 2018-06-06 パナソニックIpマネジメント株式会社 認知機能評価装置、及び、認知機能評価システム
CN108170710A (zh) * 2017-11-28 2018-06-15 苏州市东皓计算机***工程有限公司 一种计算机声音识别***
CN108538308B (zh) * 2018-01-09 2020-09-29 网易(杭州)网络有限公司 基于语音的口型和/或表情模拟方法及装置
JP6672380B2 (ja) * 2018-05-29 2020-03-25 株式会社コロプラ ゲームプログラム、キャラクタ制御プログラム、方法、および情報処理装置
CN109087629A (zh) * 2018-08-24 2018-12-25 苏州玩友时代科技股份有限公司 一种基于语音识别的口型动画实现方法及装置
CN113112993B (zh) * 2020-01-10 2024-04-02 阿里巴巴集团控股有限公司 一种音频信息处理方法、装置、电子设备以及存储介质
CN111540344B (zh) * 2020-04-21 2022-01-21 北京字节跳动网络技术有限公司 声学网络模型训练方法、装置及电子设备
CN116129926B (zh) * 2023-04-19 2023-06-09 北京北信源软件股份有限公司 智能设备自然语言交互信息处理方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58148443A (ja) 1982-03-01 1983-09-03 Seiko Epson Corp 半導体集積回路装置
JPS6136798A (ja) * 1984-07-30 1986-02-21 松下電器産業株式会社 音声セグメンテ−シヨン法
JPS61100956A (ja) 1984-10-22 1986-05-19 Nec Corp モノブリツド集積回路
NL8500377A (nl) 1985-02-12 1986-09-01 Philips Nv Werkwijze en inrichting voor het segmenteren van spraak.
JP2664136B2 (ja) * 1985-08-30 1997-10-15 株式会社日立製作所 音声認識装置
JP2863818B2 (ja) * 1990-08-31 1999-03-03 工業技術院長 動画像の変化点検出方法
JPH04263298A (ja) * 1991-02-16 1992-09-18 Nippon Sheet Glass Co Ltd 音声認識装置
US5630017A (en) * 1991-02-19 1997-05-13 Bright Star Technology, Inc. Advanced tools for speech synchronized animation
JP3269162B2 (ja) 1992-03-23 2002-03-25 日本電気株式会社 エレクトロルミネッセンス表示パネル駆動回路
JPH0632007A (ja) 1992-07-15 1994-02-08 Sony Corp リボンカートリッジ
US5878396A (en) * 1993-01-21 1999-03-02 Apple Computer, Inc. Method and apparatus for synthetic speech in facial animation
US5657426A (en) * 1994-06-10 1997-08-12 Digital Equipment Corporation Method and apparatus for producing audio-visual synthetic speech
JP3081108B2 (ja) 1994-08-11 2000-08-28 株式会社トレンディ 話者分類処理装置及び方法
CA2281746A1 (en) * 1997-03-25 1998-10-01 Robert William Series Speech analysis system
JP2000100072A (ja) * 1998-09-24 2000-04-07 Sony Corp 情報信号処理方法及び装置
JP2000324499A (ja) * 1999-05-14 2000-11-24 Fujitsu Ltd 画像処理装置及びシーンチェンジ検出方法
JP2002108382A (ja) * 2000-09-27 2002-04-10 Sony Corp リップシンクを行うアニメーション方法および装置
JP2002215180A (ja) 2001-01-17 2002-07-31 Digital Media Lab Inc 通信装置
JP2003233389A (ja) 2002-02-12 2003-08-22 Yamaha Corp アニメーション画像生成装置、及び同装置を内蔵した携帯電話、並びにアニメーション画像生成方法

Also Published As

Publication number Publication date
CN1319042C (zh) 2007-05-30
JP2005241997A (ja) 2005-09-08
DE602005000896T2 (de) 2008-01-17
CN1661675A (zh) 2005-08-31
EP1569201A1 (en) 2005-08-31
EP1569201B1 (en) 2007-04-18
ES2284133T3 (es) 2007-11-01
DE602005000896D1 (de) 2007-05-31
US7680660B2 (en) 2010-03-16
US20050192805A1 (en) 2005-09-01

Similar Documents

Publication Publication Date Title
JP4792703B2 (ja) 音声解析装置、音声解析方法及び音声解析プログラム
WO2019196306A1 (zh) 基于语音的口型动画合成装置、方法及可读存储介质
JP5967838B2 (ja) 人間型ロボットのジェスチャと音声の同期
CN110808034A (zh) 语音转换方法、装置、存储介质及电子设备
CN111145777A (zh) 一种虚拟形象展示方法、装置、电子设备及存储介质
CN108538308B (zh) 基于语音的口型和/或表情模拟方法及装置
WO2022170848A1 (zh) 人机交互方法、装置、***、电子设备以及计算机介质
CN114895817B (zh) 交互信息处理方法、网络模型的训练方法及装置
CN112995736A (zh) 语音字幕合成方法、装置、计算机设备及存储介质
CN112785670B (zh) 一种形象合成方法、装置、设备及存储介质
JP2008052628A (ja) アニメーションデータ作成装置及びアニメーションデータ作成プログラム
CN114121006A (zh) 虚拟角色的形象输出方法、装置、设备以及存储介质
JP2015038725A (ja) 発話アニメーション生成装置、方法、及びプログラム
WO2024060873A1 (zh) 动态影像的生成方法和装置
CN114363691A (zh) 语音字幕合成方法、装置、计算机设备及存储介质
CN112908308A (zh) 一种音频处理方法、装置、设备及介质
CN115619897A (zh) 图像处理方法、装置、电子设备及存储介质
JP4177751B2 (ja) 声質モデル生成方法、声質変換方法、並びにそれらのためのコンピュータプログラム、当該プログラムを記録した記録媒体、及び当該プログラムによりプログラムされたコンピュータ
JP6627625B2 (ja) 応対支援装置、応対支援方法、応対支援プログラム、応対評価装置、応対評価方法、及び応対評価プログラム
JP2011180368A (ja) 合成音声修正装置および合成音声修正方法
WO2020167304A1 (en) Real-time lip synchronization animation
CN117115318B (zh) 口型动画合成方法及装置和电子设备
CN116580721B (zh) 表情动画的生成方法、装置和数字人平台
JP7409475B2 (ja) 発話終端検出装置、制御方法、及びプログラム
CN109817205B (zh) 基于语义解析的文本确认方法、装置及终端设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110628

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110711

R150 Certificate of patent or registration of utility model

Ref document number: 4792703

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140805

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140805

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term