JP6770709B2 - 機械学習用モデル生成装置及びプログラム。 - Google Patents

機械学習用モデル生成装置及びプログラム。 Download PDF

Info

Publication number
JP6770709B2
JP6770709B2 JP2016175389A JP2016175389A JP6770709B2 JP 6770709 B2 JP6770709 B2 JP 6770709B2 JP 2016175389 A JP2016175389 A JP 2016175389A JP 2016175389 A JP2016175389 A JP 2016175389A JP 6770709 B2 JP6770709 B2 JP 6770709B2
Authority
JP
Japan
Prior art keywords
classes
similarity
class
machine learning
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016175389A
Other languages
English (en)
Other versions
JP2018041300A (ja
Inventor
元樹 谷口
元樹 谷口
大熊 智子
智子 大熊
鈴木 星児
星児 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2016175389A priority Critical patent/JP6770709B2/ja
Publication of JP2018041300A publication Critical patent/JP2018041300A/ja
Application granted granted Critical
Publication of JP6770709B2 publication Critical patent/JP6770709B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、機械学習用モデル生成装置及びプログラムに関する。
自然言語処理を用いたアプリケーションの要素技術としても用いられる固有表現抽出は、テキストに含まれる固有名詞等の固有表現を抽出する技術であり、Support Vector Machine(SVM)や、Conditional Random Fields(CRFs)などの識別問題(分類問題)を扱う機械学習手法を用いたシステムが知られている。
下記特許文献1には、既存のモデルのパラメータへの影響を少なくしたままで、追加データに適応したモデルパラメータを推定することができる、モデルパラメータ推定方法が開示されている。
下記非特許文献1には、CRFsに隠れユニット層が追加されたCRFsの派生の一種であるHidden-Unit CRF(HUCRF)が開示されている。
下記非特許文献2には、ラベル付けされていないデータ群に対して正準相関分析を利用したクラスタリングによって仮のラベル付けをしたデータをHUCRFに学習させ、得られるパラメータを初期値として実際にラベルがつけられているデータで追加学習を行う事前学習の方法が開示されている。
特開2015− 38709号公報
L.maaten, M.welling, L.K.Saul "Hidden-Unit Conditional Random Fields" Int. Conf. on Artificial Intelligence & Statistics pp.479-488, 2011 Y.B.Kim, K.Stratos, R.Sarikaya, "Pre-training of Hidden-Unit CRFs" Association for Computational Linguistics, pp.192-198, 2015
識別問題においては、一般的に、ラベル(「タグ」等ともいわれる)が既に付与されている学習データ(既知データ)を与えて学習させる教師あり学習が行われ、学習の結果得られたモデルパラメータを用いて未知データの識別(いずれかのラベルを付与することによるクラス分類)を行う。このような、機械学習手法を用いて高い精度を達成するためには、一般的に大量の学習データ(コーパスや辞書)が必要となる。
例えば、企業内の文書には機密性の高い情報を含むものや、各企業独自の知識やルールを前提にしないと意味を理解できないものが多いため、企業内文書に対して固有表現抽出を行うためには、学習用コーパスを独自に用意する必要が生じる。このような企業内文書に対して大量のアノテーション(関連する注釈情報)を付与するには極めてコストがかかるため、結果として、企業内文書に対して固有表現抽出を行おうとしても、高精度を達成できるだけの大量の学習データを用意することは現実的ではない。
学習データを大量に用意できないタスクの場合でも、大量の学習データが存在する別のタスクで事前学習させたモデルパラメータ(「モデル」ともいう)の一部を初期条件として、目的のタスクで追加学習することで、学習精度(識別問題であれば、得られたモデルを用いて未知データを識別する場合の精度)を向上させられる場合があるが、精度が高くなるような適切な事前学習の条件が不明であるため、条件の探索に時間がかかる。
本発明は、事前学習の際にクラスの統合を行わない場合と比較して、学習精度が高くなるようなモデルを生成することのできる機械学習用モデル生成装置及びプログラムの提供を目的とする。
[機械学習用モデル生成装置]
請求項1に係る本発明は、予め関係性が定義されたクラスの互いの関係性に基づいて、前記クラス間の類似度を算出する、第一類似度算出手段と、
前記クラスの特徴量に基づいて、前記クラス間の類似度を算出する、第二類似度算出手段と、
前記第一算出手段及び前記第二算出手段の算出結果に基づき、前記クラス間が類似しているか否かを判定する、判定手段と、
前記判定手段によって類似していると判定されたクラス同士を、一つのクラスに統合するクラス統合手段と、
教師あり機械学習処理を行う機械学習手段と、
を具えた、機械学習用モデル生成装置である。
請求項2に係る本発明は、前記関係性が階層構造またはグラフ構造である、請求項1記載の機械学習用モデル生成装置である。
請求項3に係る本発明は、前記機械学習手段が、モデルパラメータを推定するモデルパラメータ推定手段と、学習されたモデルパラメータからデータの各クラスにおける事後確率を推定する手段と、を具えている請求項1又は2記載のモデル生成装置である。
[プログラム]
請求項4に係る本発明は、予め関係性が定義されたクラスの互いの関係性に基づいて、前記クラス間の類似度を第一類似度として算出するステップと、
前記クラスの特徴量に基づいて、前記クラス間の類似度を第二類似度として算出するステップと、
前記第一類似度及び前記第二類似度に基づき、前記クラス間が類似しているか否かを判定するステップと、
類似していると判定されたクラス同士を、一つのクラスに統合するステップと、
教師あり機械学習処理を行うステップと、
をコンピュータに実行させるためのプログラムである。
請求項1に係る本発明よれば、事前学習の際にクラスの統合を行わない場合と比較して、学習精度が高くなるようなモデルを生成することが可能となる。
請求項2に係る本発明よれば、請求項1の効果に加えて、クラスの関係性が階層構造又はグラフ構造の場合に適用可能となる。
請求項3に係る本発明よれば、請求項1又は2の効果に加えて、事後確率に基づいて算出された第二類似度に基づいてクラス間が類似しているか否かを判定される、機械学習用モデル生成装置が得られる。
請求項4に係る本発明よれば、事前学習の際にクラスの統合を行わない場合と比較して、学習精度が高くなるようなモデルを生成することが可能となる。
本発明の実施形態に係るモデル生成装置10の機能構成を示すブロック図である。 本発明の実施形態に係るモデル生成装置10のハードウェア構成を示すブロック図である。 本発明の実施形態に係るモデル生成装置10の動作を説明するためのフローチャートである。 実施例1に係るクラスの階層構造の例を示す。 実施例1に係るクラスにおける、各インスタンスの推定確率の例である。 実施例1に係る学習クラス間の相関係数を示す行列である。 実施例1に係る学習クラス間の階層構造上の類似度と、クラスの階層構造との関係を示す。 実施例1において、クラスの統合処理がされた後の階層構造を示す。 実施例2に係るクラスのグラフ構造の例を示す。 実施例2に係るクラスにおける、各インスタンスの推定確率の例である。 実施例2に係る学習クラス間の相関係数を示す行列である。 実施例2に係る学習クラス間のグラフ構造上の類似度と、クラスのグラフ構造との関係を示す。 実施例2において、クラスの統合処理がされた後のグラフ構造を示す。
図1は、本発明の実施形態に係るモデル生成装置10の機能構成を示すブロック図である。本実施形態のモデル生成装置10は、機械学習部11と、第一類似度算出部12と、第二類似度算出部13と、判定部14と、クラス統合部15と、出力部16を具えている。
機械学習部11では、ラベル付き学習データが記録された学習データ17から機械学習処理が行われ、モデルパラメータの推定、及び、インスタンス(一件ごとの学習データ)がどのクラスに該当するのかというクラス分類に関する事後確率の推定、を行う。
第一類似度算出部12では、機械学習部11で推定された各インスタンスの事後確率(以下、「推定確率」ともいう)を基にして生成されるベクトル量を各クラスの特徴量として、当該特徴量に基づいて各クラス間の類似度(「特徴量類似度」)を算出する。
第二類似度算出部13では、クラスの関係性の情報18(例えば「クラスの階層」の情報)に基づいて、各クラス間の類似度(「関係性類似度」)を算出する。クラスの関係性の情報の初期値は、学習データ16のラベルを基に人手で構築する。
判定部14では、特徴量類似度と関係性類似度のそれぞれにおいて、各所定の閾値を超えている場合、そのクラスペアを「類似している」と判定する。
クラス統合部15では、判定部14において「類似している」と判定されたクラスペアを一つのクラスに統合する処理を行い、学習データ17のラベルとクラスの関係性の情報18を更新する。
出力部16では、判定部14において「類似している」と判定されたクラスペアが存在しない場合、機械学習部11によって推定されたモデルパラメータを出力する。
図2は、モデル生成装置10ハードウェア構成を示す図である。モデル生成装置10は、CPU21、メモリ22、ハードディスクドライブ(HDD)等の記憶装置23、表示装置24を有し、これらの構成要素は、制御バス25を介して互いに接続されている。
CPU21は、メモリ22または記憶装置23に格納された(あるいはCD−ROM等の記憶媒体(図示しない)から提供される)制御プログラム、に基づいて所定の処理を実行して、モデル生成装置10の動作を制御する。
なお、本発明の実施に当たっては、モデル生成装置10が、キーボード、タッチパネルなどの各種入力用インターフェイス装置を更に具えていても良い。
次に、図3のフローチャートを参照しながら、各クラスの特徴量を各インスタンスの推定確率を基に算出する場合を例に、本実施形態に係るモデル生成装置の動作を説明する。以下に示す実施例は、事前に定義されたクラスの関係性が、図4に示す階層構造を有している場合(実施例1)、図9に示すグラフ構造を有している場合(実施例2)である。
ステップS1では、階層構造の最下位のクラス(「法人名」、「政治組織名」、「都道府県名」、「市町村名」、「人名」)で機械学習処理が実行された後、各インスタンスについて推定確率が算出され、ステップS2へ進む。以下、各インスタンスの推定確率が、図5に示した値となった場合を例として説明する。(インスタンス1のデータの推定確率は、法人名:0.1、政治組織名:0.1、都道府県名:0.4、市町村名:0.3、人名:0.1となっている。)
各クラスの特徴量は、例えば、各インスタンスの推定確率の値を各次元の値として持つベクトル量として算出することができる。
ステップS2では、各インスタンスの推定確率から各学習クラスの特徴量が生成された後、生成された各学習クラスの特徴量に基づいて学習クラス間の相関係数が算出される。図6には、特徴量の相関行列として表現した。
ステップS1、S2と並列で行うことが可能なステップS3では、クラスの階層構造に基づいて、各学習クラス間の階層構造上の類似度を算出する。例えば、同一の上位階層(親)の配下に存在するクラス同士(兄弟クラス)を類似度「1」とし、それ以外のクラス間については類似度「0」とすることで、階層構造上の類似度を算出することができる。
図4の階層構造を例にした場合、「法人名」と「政治組織名」、及び、「都道府県名」と「市町村名」の組み合わせは、それぞれ、同一の親(「組織名」、「地名」)を親としているため、階層構造上の類似度は「1」となり、これら以外の組み合わせについては、階層構造上の類似度は「0」となる。図7には、各学習クラス間の類似度を行列として表現した。
ステップS2及びS3の完了後にステップS4へ進み、ステップS4では、ステップS2で算出された特徴量の相関係数、及び、ステップS3で算出された階層構造上の類似度、がそれぞれ所定の閾値以上である学習クラスペアが、類似しているクラスペアとして抽出される。例として、特徴量の相関係数の閾値を0.5、階層構造上の類似度の閾値を0.5とした場合は、「市町村名」と「都道府県名」のペアが類似しているクラスペアとして抽出されることになる。
ステップS4に続くステップS5では、類似しているクラスペアが存在するかどうかの判定が行われ、類似しているペアが存在する場合は、ステップS6へ進み、類似しているクラスペアが存在しない場合は、ステップS7へ進む。
ステップS6では、ステップS4で抽出された類似しているクラスペアを一つのクラスに統合する。具体的には、階層構造として記録されているクラスの関係性の情報(階層構造の情報)と学習データのラベルの更新を行う。「市町村名」と「都道府県名」のペアが類似しているクラスペアであった場合、両者が統合され、統合後のクラス名(ラベル)としては、例えば、階層構造上の上位階層名(例:「地名」)を用いることができる(図8)。クラスの統合処理後、ステップS1、S3へ進む。
再び進んだステップS1及びS3では、更新された階層構造の情報及び学習データのラベルに基づいて、それぞれ機械学習処理、各学習クラス間の階層構造上の類似度の算出が再度行われる。階層構造の更新により、「地名」が追加され、「市町村名」と「都道府県名」が削除された結果、階層構造の最下位のクラスは、「法人名」、「政治組織名」、「地名」、「人名」となる。
このように、類似しているペアが存在しなくなるまでループが繰り返され、最終的にステップS7では、モデルが出力されて終了となる。
実施例2では、小説のテキストから作者を推定するというタスクを想定したものであり、師弟・友人関係などから定義される作者間の関係性は、図9に示したようなグラフ構造を取る(線で結ばれるクラス(小説家名)間に、師弟関係や友人関係が存在することを示している)。
ステップS1では、グラフ構造を構成する全クラスで機械学習処理が実行された後、各インスタンスについて推定確率が算出され、ステップS2へ進む。以下、各インスタンスの推定確率が、図5に示した値となった場合を例として説明する。(インスタンス1のデータの推定確率は、小説家A:0.1、小説家B:0.1、小説家C:0.4、小説家D:0.3、小説家E:0.1となっている。)
各クラスの特徴量は、例えば、各インスタンスの推定確率の値を各次元の値として持つベクトル量として算出することができる。
ステップS2では、各インスタンスの推定確率から各学習クラスの特徴量が生成された後、生成された各学習クラスの特徴量に基づいて学習クラス間の相関係数が算出される。図11には、特徴量の相関行列として表現した。
ステップS1、S2と並列で行うことが可能なステップS3では、クラスのグラフ構造に基づいて、各学習クラス間のグラフ構造上の類似度を算出する。例えば、線で直接接続されているクラス同士を類似度「1」とし、それ以外のクラス間については類似度「0」とすることで、グラフ構造上の類似度を算出することができる。
図12のグラフ構造を例にした場合、例えば「小説家A」は、「小説家B」、「小説家C」及び「小説家D」との組み合わせについて、グラフ構造上の類似度が「1」となり、「小説家E」との類似度は「0」となる。図12には、各学習クラス間の類似度を行列として表現した。
ステップS2及びS3の完了後にステップS4へ進み、ステップS4では、ステップS2で算出された特徴量の相関係数、及び、ステップS3で算出されたグラフ構造上の類似度、がそれぞれ所定の閾値以上である学習クラスペアが、類似しているクラスペアとして抽出される。例として、特徴量の相関係数の閾値を0.5、グラフ構造上の類似度の閾値を0.5とした場合は、「小説家C」と「小説家D」のペアが類似しているクラスペアとして抽出されることになる。
ステップS4に続くステップS5では、類似しているクラスペアが存在するかどうかの判定が行われ、類似しているペアが存在する場合は、ステップS6へ進み、類似しているクラスペアが存在しない場合は、ステップS7へ進む。
ステップS6では、ステップS4で抽出された類似しているクラスペアを一つのクラスに統合する。具体的には、グラフ構造として記録されているクラスの関係性の情報(グラフ構造の情報)と学習データのラベルの更新を行う。例として、「小説家C」と「小説家D」のペアが類似しているクラスペアであった場合の統合処理後のグラフ構造を図13に示す。統合後のクラス名(ラベル)としては、例えば、統合前の両者の名称を結合した名称を用いることができる。クラスの統合処理後、ステップS1、S3へ進む。
再び進んだステップS1及びS3では、更新されたグラフ構造の情報及び学習データのラベルに基づいて、それぞれ機械学習処理、各学習クラス間のグラフ構造上の類似度の算出が再度行われる。
このように、類似しているペアが存在しなくなるまでループが繰り返され、最終的にステップS7では、モデルが出力されて終了となる。
以上で説明をしたように、本発明は、機械学習用モデル生成装置及びプログラムに適用することができる。
10 モデル生成装置
11 機械学習部
12 第一類似度算出部
13 第二類似度算出部
14 判定部
15 クラス統合部
16 出力部
17 学習データ
18 クラスの関係性の情報
21 CPU
22 メモリ
23 記憶装置
24 表示装置
25 制御バス

Claims (4)

  1. 予め関係性が定義されたクラスの互いの関係性に基づいて、前記クラス間の類似度を算出する、第一類似度算出手段と、
    前記クラスの特徴量に基づいて、前記クラス間の類似度を算出する、第二類似度算出手段と、
    前記第一算出手段及び前記第二算出手段の算出結果に基づき、前記クラス間が類似しているか否かを判定する、判定手段と、
    前記判定手段によって類似していると判定されたクラス同士を、一つのクラスに統合するクラス統合手段と、
    前記クラス統合手段により統合されたクラスで教師あり機械学習処理を行う機械学習手段と、
    を具えた、機械学習用モデル生成装置。
  2. 前記関係性が階層構造またはグラフ構造である、請求項1記載の機械学習用モデル生成装置。
  3. 前記機械学習手段が、モデルパラメータを推定するモデルパラメータ推定手段と、学習されたモデルパラメータからデータの各クラスにおける事後確率を推定する手段と、を具えている請求項1又は2記載のモデル生成装置。
  4. 予め関係性が定義されたクラスの互いの関係性に基づいて、前記クラス間の類似度を第一類似度として算出するステップと、
    前記クラスの特徴量に基づいて、前記クラス間の類似度を第二類似度として算出するステップと、
    前記第一類似度及び前記第二類似度に基づき、前記クラス間が類似しているか否かを判定するステップと、
    類似していると判定されたクラス同士を、一つのクラスに統合するステップと、
    統合されたクラスで教師あり機械学習処理を行うステップと、
    をコンピュータに実行させるためのプログラム。
JP2016175389A 2016-09-08 2016-09-08 機械学習用モデル生成装置及びプログラム。 Active JP6770709B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016175389A JP6770709B2 (ja) 2016-09-08 2016-09-08 機械学習用モデル生成装置及びプログラム。

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016175389A JP6770709B2 (ja) 2016-09-08 2016-09-08 機械学習用モデル生成装置及びプログラム。

Publications (2)

Publication Number Publication Date
JP2018041300A JP2018041300A (ja) 2018-03-15
JP6770709B2 true JP6770709B2 (ja) 2020-10-21

Family

ID=61626017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016175389A Active JP6770709B2 (ja) 2016-09-08 2016-09-08 機械学習用モデル生成装置及びプログラム。

Country Status (1)

Country Link
JP (1) JP6770709B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3418944B1 (en) 2017-05-23 2024-03-13 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
CN112585544B (zh) * 2018-08-20 2024-06-07 西门子股份公司 用于人工智能的基于可编程逻辑控制器的模块化加速模块
KR102144975B1 (ko) * 2019-11-08 2020-08-14 주식회사 알체라 머신 러닝 시스템 및 머신 러닝 시스템의 동작 방법
KR102528405B1 (ko) * 2020-04-08 2023-05-02 에스케이텔레콤 주식회사 이미지를 분류하도록 훈련된 신경망을 이용하는 이미지 분류 장치 및 방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4631005B2 (ja) * 2005-07-15 2011-02-16 公立大学法人大阪府立大学 付加情報を用いたパターン認識に係るプログラム、装置および方法
JP2010152561A (ja) * 2008-12-24 2010-07-08 Toshiba Corp 類似表現抽出装置、サーバ装置及びプログラム
JP5660078B2 (ja) * 2012-05-31 2015-01-28 カシオ計算機株式会社 多クラス識別器、方法、およびプログラム
EP2884434A1 (en) * 2013-12-10 2015-06-17 Televic Education NV Method and device for automatic feedback generation
JP6365024B2 (ja) * 2014-07-02 2018-08-01 富士通株式会社 サービス提供装置、方法、及びプログラム

Also Published As

Publication number Publication date
JP2018041300A (ja) 2018-03-15

Similar Documents

Publication Publication Date Title
US11657231B2 (en) Capturing rich response relationships with small-data neural networks
CN111444320A (zh) 文本检索方法、装置、计算机设备和存储介质
US20190317986A1 (en) Annotated text data expanding method, annotated text data expanding computer-readable storage medium, annotated text data expanding device, and text classification model training method
JP6770709B2 (ja) 機械学習用モデル生成装置及びプログラム。
US11669740B2 (en) Graph-based labeling rule augmentation for weakly supervised training of machine-learning-based named entity recognition
CN111985229A (zh) 一种序列标注方法、装置及计算机设备
JP6070501B2 (ja) 情報処理装置及び情報処理プログラム
CN112805715A (zh) 识别实体属性关系
WO2023088309A1 (zh) 用于改写叙事性文本的方法、设备、装置和介质
JP2018097468A (ja) 文分類学習装置、文分類装置、文分類学習方法、及び文分類学習プログラム
JP2020021343A (ja) 解析装置、解析方法及びプログラム
US20220222442A1 (en) Parameter learning apparatus, parameter learning method, and computer readable recording medium
CN111859238B (zh) 基于模型的预测数据变化频率的方法、装置和计算机设备
JP7236501B2 (ja) 文書類似度学習に基づくディープラーニングモデルの転移学習方法およびコンピュータ装置
JP2023181819A (ja) 言語処理装置、機械学習方法、推定方法及びプログラム
JP2017538226A (ja) スケーラブルなウェブデータの抽出
JP2019159918A (ja) クラスタリングプログラム、クラスタリング方法およびクラスタリング装置
US20240202495A1 (en) Learning apparatus, information processing apparatus, learning method, information processing method and program
JP2021163477A (ja) 画像処理方法及び装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラム
JP7135730B2 (ja) 要約生成方法及び要約生成プログラム
JP2022185799A (ja) 情報処理プログラム、情報処理方法および情報処理装置
JP5824429B2 (ja) スパムアカウントスコア算出装置、スパムアカウントスコア算出方法、及びプログラム
Umare et al. A survey on machine learning techniques to extract chemical names from text documents
JP5342574B2 (ja) トピックモデリング装置、トピックモデリング方法、及びプログラム
Zaikis et al. Dacl: A domain-adapted contrastive learning approach to low resource language representations for document clustering tasks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200615

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200910

R150 Certificate of patent or registration of utility model

Ref document number: 6770709

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350