JP3794597B2 - 話題抽出方法及び話題抽出プログラム記録媒体 - Google Patents
話題抽出方法及び話題抽出プログラム記録媒体 Download PDFInfo
- Publication number
- JP3794597B2 JP3794597B2 JP16095497A JP16095497A JP3794597B2 JP 3794597 B2 JP3794597 B2 JP 3794597B2 JP 16095497 A JP16095497 A JP 16095497A JP 16095497 A JP16095497 A JP 16095497A JP 3794597 B2 JP3794597 B2 JP 3794597B2
- Authority
- JP
- Japan
- Prior art keywords
- word
- topic
- sentence
- frequency
- relevance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Description
【発明の属する技術分野】
この発明は、連続発生された音声の単語認識結果やテキストを形態素解析により分割された単語などの単語列に対し、その内容を表す話題単語を抽出する方法と話題単語抽出プログラムを記録した記録媒体に関する。
【0002】
【従来の技術】
連続発声された音声からのその内容を表わす話題抽出では5〜10種類の分野のうちのいずれかの分野に依存度の高いキーワードを予め選択しておき、それらのキーワードを音声区間中から検出(キーワードスポッティング)して、検出されたキーワード集合が最も高い依存度を示す話題を結果として出力する方法が多くとられる。例えば横井、河原、堂下、“キーワードスポッティングに基づくニュース音声の話題同定”、情処研報、SLP6−3、1995.櫻井、有木、“キーワードスポッティングによるニュース音声の索引付けと分類”、信学技法、SP96−66、1996.R.C.Rose,E.L.Chang ,and R.P.Lippmann,“Techniques for Information Retrieval from Voice Messages”,Proc.ICASSP-91,pp.317-320,1991.などに示されている。
【0003】
また従来の文章(テキスト)から話題を抽出する方法は文中の特定の個所を抽出して行うもので、その処理が複雑であった。
【0004】
【発明が解決しようとする課題】
従来の連続音声の話題抽出方法では、限られた数のキーワードしか用いることができず、またキーワードの数を増やした場合には、誤って検出されるキーワードが増えてしまう、また話題の分野が少ないため、情報検索や索引付けに使うことができないという問題があった。また従来のテキストよりの話題抽出方法は、特定の個所を探して行うため、その処理が複雑であった。これを連続音声の話題抽出に適用すると、その所定個所についての単語認識を誤ると、話題抽出は誤ってしまう。
【0005】
この発明の目的は比較的簡単な処理で話題単語を抽出することができる話題単語抽出方法、そのプログラムを記録した記録媒体とを提供することにある。
【0006】
【課題を解決するための手段】
この発明の話題抽出モデルは、本文とその見出しよりなるテキストを多数用いて、それぞれ形態素解析を用い、本文単語と話題単語(見出し中の)と得、これら本文単語の出現頻度、話題単語の出現頻度、1テキスト中に本文単語と話題単語の組み合せが同時に存在する共起頻度をそれぞれ求め、これら頻度から各話題単語と、本文単語との関連度を求め、これらを話題抽出モデルとして格納しておく。
【0007】
この発明の話題抽出方法では前記の話題抽出モデルを用い、入力音声の音声認識や入力テキストの形態素解析で、入力単語系列を得、各話題単語と入力単語系列中の各単語との関連度とを話題抽出モデルを参照して求めて話題単語ごとの関連度系列を得、これら関連度系列から各話題単語の入力単語系列との関連度をそれぞれ求め、これら入力単語系列の関連度中の大きいものと対応する話題単語を入力音声又はテキストに対する話題として出力する。
【0008】
この発明の記録媒体はこの発明の話題抽出方法をコンピュータで実行させるためのプログラムが記録されている。
【0009】
【発明の実施の形態】
まずこの発明の話題抽出モデルとこの作成方法の実施例を説明する。
話題抽出モデルの学習(作成)はある話題について述べられているテキストとその内容を表わす複数の話題単語との組を大量に用いて行う。一例として新聞記事の本文と見出しを用いて話題抽出モデルを学習(作成)する場合、約5年分の新聞記事よりその見出しと本文とをそれぞれ取出し(S1)、これらを形態素解析を行い(S2)、単語(形態素)に分割し、見出しの形態素(話題単語)と、本文の形態素(文中単語)とを得る。
【0010】
これら話題単語と文中単語について、大量のデータにおける出現頻度と、共起頻度とを用いて、文中単語と話題単語との関連度を求める。しかし、文中単語と話題単語の組み合わせは非常に莫大な数になる。従ってこの実施例では話題単語については、出現回数が2回以上の単語に限り(S3)、文中単語については出現頻度が上位15万の単語のみを選出し(S4)、更に情報検索という観点からより意味的情報を伝達すると考えられる名詞、動詞などの内容語に着目し、ここでは話題単語、文中単語の何れについても名詞、動詞、形容詞、形容動詞、副詞のみを取出す(S5)。更に話題単語と文中単語との組合せで同一記事に出現するのが1度しかなかったものは除外し、つまり話題単語と文中単語の組み合わせで同一記事に出現することが2回以上のもののみを残した(S6)。このようにして話題単語の総頻度12.3×106 が6.3×106 となり総数136×103 が74×103 となり、文中単語の総頻度218.8×106 が90.1×106 となり総数640×103 が147×103 となり、2回以上起きた共起の組み合わせは約5800万種類となった。
【0011】
この約5800万種類について、これら単語の出現頻度と共起頻度を用いて文中単語と話題単語との関連度を求める。文中単語wi と話題単語tj との関連度は以下のようにして求める。
相互情報量に基づく関連度
I(wi :tj )= log(P(wi ,tj )/P(wi )P(tj )) …(1)
P(wi ,tj ):wi とtj が同時に出現する確率
P(wi ):wi の出現確率、P(tj ):tj の出現確率
χ 2 法に基づく関連度
χ ij 2 =(fij−Fij)2 /Fij
【0012】
【数1】
N:文中単語の種類数、M:話題単語の種類数、
fij:話題単語tj に対する文中単語wi の頻度、
Fij:話題単語tj に対する文中単語wi の理論(期待)度数
相互情報量の計量において、学習データ中に文中単語wi と話題単語tj の共起が観測されない場合、P(wi ,tj )=0となり、関連度の合計を求める際に問題が生じる。そこで、共起が観測されなかった場合には情報が得られなかったものとして、実際には次式のように相互情報量に基づく関連度を計算する。
【0013】
一方、χ 2 法における理論度数Fijとは、全ての話題単語に対して文中単語wi が等確率で出現した場合の出現頻度である。実際の出現頻度と理論度数とのずれが大きければ、その文中単語はその話題単語に対して偏って出現していることになる。しかし、上述のχ 2 法の式では、実際の出現頻度fijが理論度数Fijより小さい場合にも、関連度が正の値となってしまうため、実際には次式のようにχ 2 法に基づく関連度を計算する。
【0014】
従って、ステップS6で得られた文中単語wi と話題単語tj との各組み合せについて、その各頻度P(wi ):P(tj ),P(wi ,tj )、またはfij,をそれぞれ演算し(S7)、頻度テーブル11に格納する。これを学習データが終るまで行う(S8)。学習データが終ると、頻度テーブル11内に演算した頻度を用いて関連度I(wi ,tj )又はFijの計算を行って話題抽出モデルを得る(S9 )。
【0015】
従って話題抽出モデルは図2Aに示すように、話題単語の種類t1 ,t2 ,…tM それぞれについて、これと2回以上共起する文中単語、つまりt1 についてはw11,w12,w13,…との関連度r111 ,r112 ,r113 ,…が、またt2 についてはw21,w22,w23,…との関連度r211 ,r212 ,r213 ,…が、以下同様に文中単語との関連度が格納されている。
【0016】
次にこの話題抽出モデルを用いて連続入力単語列から話題を抽出する方法を図2Bを参照して説明する。連続発声される音声を入力とする場合、その入力音声を単語音声認識し(S1)、認識結果として単語系列w1 ,w2 ,…wn を得る(S2)、これら単語系列w1 ,w2 ,…wn の各単語について、話題抽出モデル11を参照して、その各話題単語t1 ,t2 ,…tM に対する関連度を求める。つまり認識単語w1 に対する話題単語t1 ,t2 ,…tM との各関連度r11,r21,…,rM1を求め、単語w2 に対する話題単語t1 ,t2 ,…tM との各関連度r12,r22,…,rM2を求め、以下同様に求める。
【0017】
各話題単語t1 ,t2 ,…,tM についての各認識単語w1 ,w2 ,…,wn との関連度の合計、つまり単語系列に対する関連度Rj を計算する。即ち、話題単語t1 についてはr11,r12,…,r1nの和R1 =Σk=1 n r1kを求め、t2 についてはr21,r22,…,r2nの和R2 =Σk=1 n r2kを求め、以下同様にR3 ,…,RM を求める(S3)。これら単語系列に対する関連度R1 ,…,RM 中で関連度が大きいものから順にQ個(Qは1以上の整数)のものとそれぞれ対応する話題単語tj の組合せを、その単語系列に対する話題とする(S4)。Qは1でもよいが、通常は複数で例えば5程度である。関連度R1 ,…,RM 中の大きいものから順に対応する話題単語の複数個を候補として出力してもよい。
【0018】
単語系列から話題の抽出としてはテキストを入力し(S5)、これを形態素解析し(S6)、形態素つまり単語列w1 ,w2 ,…,wn を得て、これを音声入力の場合と同様に話題抽出モデル11を用いて処理して、テキストに対する話題を抽出することもできる。
関連度をwi とtj の相互情報量に基づいて求める場合は式(1)、つまり2点間の相互情報量に基づいて決めた。一方、n点間の相互情報量は次式で定義される。
【0019】
【数2】
Πは、あい異なる添字の全ての組み合せについて計算する。
従ってx1 ,x2 ,…,xn 中1つの話題単語と他のn−1個を文中単語との相互情報量をI(x1 :x2 :…:xn )により求めることができる。このように、複数の文中単語と1つの話題単語との関連度を求めておくと、例えば「コンピュータ」と「インターネット」の関連度、また「ネットワーク」と「インターネット」の関連度はそれ程大きくないが、「コンピュータ」と「ネットワーク」が同じ文中にあった場合の「インターネット」への関連度が大きくなるような話題抽出モデルの学習ができる。つまり式(1)の関連度では話題として「インターネット」を抽出できない場合に、式(2)の関連度によると「インターネット」を話題として抽出でき、適切な話題を抽出することができることがある。
【0020】
話題単語tk と単語系列w1 ,w2 ,…,wn との関連度Rk はtk に対する各単語の関連度の和rk1+rk2+,…,+rknで求められるが、その加算の際に各単語に対する重みs1 ,s2 ,…,sn をそれぞれ付けて、rk1×s1 +rk2×s2+,…,+rkn×sn というようにして、より適切な関連度Rk を得るようにすることもできる。ここで重みs1 ,s2 ,…,sn としては、各単語w1 ,w2 ,…,wn のその音声認識時の単語の確からしさ(音響的尤度)や言語的尤度、つまりその単語がその前の単語に対し、文法や言語上存在する確からしさ(大語彙音声認識に用いられる言語モデルに示されている)を用いることができ
る。
【0021】
音声認識結果の単語系列に対して話題抽出を行う際に、認識言語系列候補の第1位だけでなく、上位b位までの候補(w1-1 ,w1-2 ,…,w1-n1),(w2-1 ,w2-2 ,…,w2-n2)…(wb-1 ,wb-2 ,…,wb-nb)を用いて話題抽出を行う。この際、順位の高い程重みが大きくなるようにすることもできる。この場合第1位から第b位までの候補系列は、相互に1単語又は2単語しか違いがない候補系列が多くなる。よってこれら候補系列を、その同一単語を排除して複数単語木構造乃至単語ネットワークあるいは単語ラティスの配列とし、これを用いて第1位〜第b位の候補系列について話題抽出をするようにすれば、その複数の候補系列を少ない容量のメモリに格納して処理することができる。
【0022】
【発明の効果】
評価は、ニュース音声の書き起こし文および2万語彙の大語彙連続音声認識システムによる音声認識結果に対してこの発明の評価を行った。書き起こし文に対して3人の被験者が人手で付与した話題を評価対象とした。話題抽出モデルが出力した話題単語のうち上位5単語までを出力結果とした場合の適合率(抽出した話題単語のうち、正解の話題単語の割合)は、3人の被験者の付与した話題に対して70%以上となった。また、単語誤り率25%の音声認識結果に対する話題抽出結果の適合率も65%以上となった。各被験者が付与した話題間の重複は約70%であるので、この話題抽出結果は利用可能な精度であるといえる。関連度の尤度としてχ 2 法を用いた方が相互情報量を用いた場合より良い結果が得られた。
【0023】
この発明によれば、大量のテキストデータを用いて非常に多くの文中単語および話題単語間の関連度を学習した話題抽出モデルを用いることにより、テキストおよび誤りを含む大語彙連続音声認識結果から詳細な話題抽出を行うことができるという利点がある。
つまり、音声からの話題抽出において、連続音声認識技術を用いることにより、限られた数のキーワードを検出するキーワードスポッティングに基づく方法に比べ、音声中の多くの情報を用いて話題抽出を行うことが可能であり、また、音声の内容を表す単語(話題単語)を複数抽出することにより、音声をいくつかの分野に分類する話題抽出(話題同定・話題認識)に比べ、詳細な話題が抽出できるという利点がある。
【0024】
特に従来のテキストに対する話題抽出では、特定の関係のものを抽出するため、複雑な処理を必要としたが、この発明では比較的簡単に行うことができる。特に連続音声に対する抽出ではその特定部分に対して認識誤りが生じると、致命的であるが、この発明は文全体の各単語に対して関連性をみるため正しく話題を抽出することができる。
【0025】
またこのような正しい抽出ができるのは、大量のテストデータを用いて作成した話題単語と各単語との関連度を記憶した話題抽出モデルを用いるからである。
【図面の簡単な説明】
【図1】この発明に用いられるモデル作成方法を示す流れ図。
【図2】Aはこの発明に用いられる話題抽出モデルの例を示す図、Bはこの発明の話題抽出方法を示す図である。
Claims (7)
- 単語系列を入力とし、その単語系列の内容を表す複数の話題単語を話題抽出モデルを用いて抽出する、頻度テーブルと話題抽出メモリを有するコンピュータが行う処理方法であって、
本文とその見出しよりなる多数の記事テキストを学習データとし記事テキストを解析して、記事テキストの見出しから話題単語を、記事テキストの本文から文中単語を得る工程と、
上記各話題単語の出現頻度と、上記各文中単語の出現頻度と、1つの記事テキスト中の上記話題単語と上記文中単語の各組み合せが同時に得られる共起頻度とをそれぞれ計数し、記録手段である頻度テーブルに格納する工程と、
上記頻度テーブルを参照し、話題単語の出現頻度と文中単語の出現頻度と各共起頻度とを用いて各話題単語と各文中単語との関連度を相互情報量に基づいて求める工程と、
話題単語と文中単語の共起が観測されなかった場合には、当該話題単語と当該文中単語との関連度をゼロに設定する工程と、
求められた話題単語と文中単語との関連度、当該関連度の話題単語、当該関連度の文中単語とからなる話題抽出モデルを話題抽出メモリに格納する工程と、
入力された単語系列に対して、上記話題抽出モデル中の各話題単語について、上記話題抽出メモリに格納された話題抽出モデルを参照し、単語系列の各入力単語を上記話題抽出モデルにおける文中単語に対応させて、当該話題単語と各入力単語との関連度を求めて当該話題単語の関連度系列を作り、
各話題単語について、当該話題単語の関連度系列の各関連度の和を求めて、上記入力された単語系列に対する当該話題単語の関連度の合計値とし、
これら話題単語の関連度の合計値の大きいものから順にQ個(Qは1以上の整数)のものとそれぞれ対応する話題単語を出力する
ことを特徴とするコンピュータが行う話題単語抽出方法。 - 単語系列を入力とし、その単語系列の内容を表す複数の話題単語を話題抽出モデルを用いて抽出する、頻度テーブルと話題抽出メモリを有するコンピュータが行う処理方法であって、
本文とその見出しよりなる多数の記事テキストを学習データとし記事テキストを解析して、記事テキストの見出しから話題単語を、記事テキストの本文から文中単語を得る工程と、
上記各話題単語の出現頻度と、上記各文中単語の出現頻度と、1つの記事テキスト中の上記話題単語と上記文中単語の各組み合せが同時に得られる共起頻度とをそれぞれ計数し、記録手段である頻度テーブルに格納する工程と、
上記頻度テーブルを参照し、話題単語の出現頻度と文中単語の出現頻度と各共起頻度とを用いて各話題単語と各文中単語との関連度を、話題単語に対する文中単語の頻度fと期待度数Fからχ 2 法に基づいて求める工程と、
出現頻度fが期待度数Fより小さい場合には、当該話題単語と当該文中単語との関連度をゼロに設定する工程と、
求められた話題単語と文中単語との関連度、当該関連度の話題単語、当該関連度の文中単語とからなる話題抽出モデルを話題抽出メモリに格納する工程と、
入力された単語系列に対して、上記話題抽出モデル中の各話題単語について、上記話題抽出メモリに格納された話題抽出モデルを参照し、単語系列の各入力単語を上記話題抽出モデルにおける文中単語に対応させて、当該話題単語と各入力単語との関連度を求めて当該話題単語の関連度系列を作り、
各話題単語について、当該話題単語の関連度系列の各関連度の和を求めて、上記入力された単語系列に対する当該話題単語の関連度の合計値とし、
これら話題単語の関連度の合計値の大きいものから順にQ個(Qは1以上の整数)のものとそれぞれ対応する話題単語を出力する
ことを特徴とするコンピュータが行う話題単語抽出方法。 - 上記関連度系列の各関連度に対し、これと対応する入力単語の尤度で重み付けて上記各関連度の和を求めることを特徴とする請求項1乃至2の何れかに記載の話題単語抽出方法。
- 連続した音声信号を単語音声認識して、上記入力単語系列を得ることを特徴とする請求項1乃至3の何れかに記載の話題単語抽出方法。
- 入力テキストを、形態素解析し、その解析結果の形態素を上記入力単語系列とすることを特徴とする請求項1乃至3の何れかに記載の話題単語抽出方法。
- 上記認識結果又は上記解析結果として複数の上位の候補系列を上記入力単語系列とし、順位の高いほど大きい重みで上記関連度の和を求めることを特徴とする請求項4又は5に記載の話題単語抽出方法。
- 請求項1乃至6の何れかに記載のコンピュータが行う話題単語抽出方法を、コンピュータが実行するためのコンピュータプログラムで実現し、当該コンピュータプログラムを記録した記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP16095497A JP3794597B2 (ja) | 1997-06-18 | 1997-06-18 | 話題抽出方法及び話題抽出プログラム記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP16095497A JP3794597B2 (ja) | 1997-06-18 | 1997-06-18 | 話題抽出方法及び話題抽出プログラム記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH117447A JPH117447A (ja) | 1999-01-12 |
JP3794597B2 true JP3794597B2 (ja) | 2006-07-05 |
Family
ID=15725794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP16095497A Expired - Fee Related JP3794597B2 (ja) | 1997-06-18 | 1997-06-18 | 話題抽出方法及び話題抽出プログラム記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3794597B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100327584B1 (ko) | 1999-07-01 | 2002-03-14 | 박종섭 | 반도체소자의 고정전용량 커패시터 형성방법 |
JP4489994B2 (ja) | 2001-05-11 | 2010-06-23 | 富士通株式会社 | 話題抽出装置、方法、プログラム及びそのプログラムを記録する記録媒体 |
DE602004025616D1 (de) * | 2003-12-26 | 2010-04-01 | Kenwood Corp | Einrichtungssteuereinrichtung, -verfahren und -programm |
JP3923513B2 (ja) | 2004-06-08 | 2007-06-06 | 松下電器産業株式会社 | 音声認識装置および音声認識方法 |
US20060025995A1 (en) * | 2004-07-29 | 2006-02-02 | Erhart George W | Method and apparatus for natural language call routing using confidence scores |
JP4423327B2 (ja) | 2005-02-08 | 2010-03-03 | 日本電信電話株式会社 | 情報通信端末、情報通信システム、情報通信方法、情報通信プログラムおよびそれを記録した記録媒体 |
JP4791984B2 (ja) * | 2007-02-27 | 2011-10-12 | 株式会社東芝 | 入力された音声を処理する装置、方法およびプログラム |
JP5676552B2 (ja) * | 2012-12-17 | 2015-02-25 | 日本電信電話株式会社 | デイリーワード抽出装置、方法、及びプログラム |
-
1997
- 1997-06-18 JP JP16095497A patent/JP3794597B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH117447A (ja) | 1999-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Halteren et al. | Improving accuracy in word class tagging through the combination of machine learning systems | |
US11182435B2 (en) | Model generation device, text search device, model generation method, text search method, data structure, and program | |
US8543565B2 (en) | System and method using a discriminative learning approach for question answering | |
James | The application of classical information retrieval techniques to spoken documents | |
US20080249764A1 (en) | Smart Sentiment Classifier for Product Reviews | |
Vivaldi et al. | Improving term extraction by system combination using boosting | |
CN108538286A (zh) | 一种语音识别的方法以及计算机 | |
CN111159363A (zh) | 一种基于知识库的问题答案确定方法及装置 | |
Santos et al. | Assessing the impact of contextual embeddings for Portuguese named entity recognition | |
CN109063182B (zh) | 一种基于语音搜题的内容推荐方法及电子设备 | |
Ali et al. | Genetic approach for Arabic part of speech tagging | |
CN108345694B (zh) | 一种基于主题数据库的文献检索方法及*** | |
Jayasiriwardene et al. | Keyword extraction from Tweets using NLP tools for collecting relevant news | |
Weerasinghe et al. | Feature Vector Difference based Authorship Verification for Open-World Settings. | |
JP3794597B2 (ja) | 話題抽出方法及び話題抽出プログラム記録媒体 | |
Chifu et al. | A system for detecting professional skills from resumes written in natural language | |
Onyenwe et al. | Toward an effective igbo part-of-speech tagger | |
CN111767733A (zh) | 一种基于统计分词的文献密级甄别方法 | |
CN110874408B (zh) | 模型训练方法、文本识别方法、装置及计算设备 | |
US20110106849A1 (en) | New case generation device, new case generation method, and new case generation program | |
Llitjós et al. | Improving pronunciation accuracy of proper names with language origin classes | |
Rolih | Applying coreference resolution for usage in dialog systems | |
Sonbhadra et al. | Email classification via intention-based segmentation | |
De Kruijf et al. | Training a Dutch (+ English) BERT model applicable for the legal domain | |
Nothman | Learning named entity recognition from Wikipedia |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060306 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060407 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090421 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100421 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100421 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110421 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120421 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130421 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |