JP2009282783A - リスク融合認識システム - Google Patents

リスク融合認識システム Download PDF

Info

Publication number
JP2009282783A
JP2009282783A JP2008134687A JP2008134687A JP2009282783A JP 2009282783 A JP2009282783 A JP 2009282783A JP 2008134687 A JP2008134687 A JP 2008134687A JP 2008134687 A JP2008134687 A JP 2008134687A JP 2009282783 A JP2009282783 A JP 2009282783A
Authority
JP
Japan
Prior art keywords
risk
recognition
state
fusion
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008134687A
Other languages
English (en)
Other versions
JP5204552B2 (ja
Inventor
Motoya Ogawa
原也 小川
Katsuyuki Kise
勝之 喜瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP2008134687A priority Critical patent/JP5204552B2/ja
Publication of JP2009282783A publication Critical patent/JP2009282783A/ja
Application granted granted Critical
Publication of JP5204552B2 publication Critical patent/JP5204552B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)

Abstract

【課題】並列に動作する複数のリスク要素認識からの情報を総合的に判断して実際の運転環境に適応した認識を可能とし、個々のドライバに最適な安全運転環境を実現する。
【解決手段】シーンリスク認識部2で外界を撮像した画像情報から画像全体のリスク分布を認識し、抽出リスク認識部3で画像中のリスク対象を認識する。そして、互いに独立して動作するシーンリスク認識部2及び抽出リスク認識部3の各認識結果を、リスク融合部4の処理結果ベクトル生成部41でベクトルデータ化し、このベクトルデータを入力データとして融合リスク認識部42で総合的なリスクを認識し、音声装置5や画像表示装置6へ出力してドライバへの警告や情報伝達を行うことで、複数のリスク要素認識からの情報を総合的に判断して実際の運転環境に適応した認識を可能とし、個々のドライバに最適な安全運転環境を実現する。
【選択図】図1

Description

本発明は、自動車等の移動体の外部環境に含まれるリスクを認識する複数のリスク認識要素を融合するリスク融合認識システムに関する。
近年、自動車等の移動体における予防安全技術として、カメラを搭載して外界環境を撮像し、撮像した画像を処理して外界環境に含まれる危険度(リスク)の情報を認識し、ドライバに警告する、又は運転をアシストするといった技術が開発されている。
このような危険情報の認識技術は、例えば、特許文献1に開示されている。特許文献1の技術は、車両周囲の環境の対象物に対して、その種類や属性毎に危険度パラメータを設定し、この危険度パラメータに基づいて危険度を演算するものである。
特開2003−81039号公報
特許文献1に開示されているような従来の技術では、歩行者、対向車、障害物、白線等といった危険に結びつく要因を設定し、それらに基づいてリスクの認識を行っており、実際のシステムとしては、開発者が想定したリスク要因や認識を予めシステム内に組み込んでおくという形で実現されている。
しかしながら、自動車の走行環境のような実際の環境は、天候の変化、歩行者、車、路上の構造物等の存在といったように多様であり、更には、運転する人間も多様であるため、従来の予め設定した一つの認識モデルでは限界があり、危険に結びつく要因についての認識が高精度で行われなければ、全体としてのリスクを認識できないばかりでなく、予め想定していた以外の危険な場面では認識できないという問題がある。
本発明は上記事情に鑑みてなされたもので、並列に動作する複数のリスク要素認識からの情報を総合的に判断して実際の運転環境に適応した認識を可能とし、個々のドライバに最適な安全運転環境を実現することのできるリスク融合認識システムを提供することを目的としている。
上記目的を達成するため、本発明によるリスク融合認識システムは、移動体の外界環境を検出し、この外界環境に含まれるリスクを認識する複数のリスク認識部と、上記複数のリスク認識部を並列に動作させたときの各認識結果を融合処理し、該融合処理の結果に基づいて認識したリスク情報を出力するリスク融合部とを備えることを特徴とする。
本発明によるリスク融合認識システムは、並列に動作する複数のリスク要素認識からの情報を総合的に判断して実際の運転環境に適応した認識を可能とし、個々のドライバに最適な安全運転環境を実現することができる。
以下、図面を参照して本発明の実施の形態を説明する。図1〜図16は本発明の実施の一形態に係り、図1はリスク融合認識システムの基本構成図、図2はシーンリスク認識部の構成を示すブロック図、図3は抽出リスク認識部の構成を示すブロック図、図4は隠れマルコフモデルによる状態遷移の説明図、図5は入力データの決定方法を示す説明図、図6は閾値を用いたSOMの距離変換を示す説明図、図7はシーンリスク情報の説明図、図8は抽出リスク情報の説明図、図9は状態の設定を示す説明図、図10は音声提示の設定を示す説明図、図11は状態遷移確率の例を示すグラフ、図12は状態0−4の出力確率分布を示すグラフ、図13は状態5−9の出力確率分布を示すグラフ、図14は状態10−14の出力確率分布を示すグラフ、図15は状態15−21の出力確率分布を示すグラフ、図16は出力画像の例を示す説明図である。
本発明によるリスク融合認識システムは、例えば自動車等の移動体に搭載され、走行中の危険に関する要素を外界環境から認識する複数のリスク認識部(リスク要素認識部)の認識結果を融合して総合的にリスクを判断するシステムであり、単一のコンピュータシステム或いはネットワーク等を介して接続された複数のコンピュータシステムで構成される。本実施の形態においては、リスク融合認識システム1を自動車に適用し、ドライバへの警告や情報伝達を行う例について説明する。
図1に示すように、本実施の形態のリスク融合認識システム1は、個々のリスク要素認識部として、車載カメラによって外界を撮像した画像情報から画像全体のリスク分布を認識するシーンリスク認識部2と、画像中のリスク対象を認識する抽出リスク認識部3とを備え、更に、シーンリスク認識部2及び抽出リスク認識部3の各認識結果を融合処理するリスク融合部4を備えている。シーンリスク認識部2と抽出リスク認識部3とは、互いに独立して動作する。
また、リスク融合部4は、シーンリスク認識部2及び抽出リスク認識部3のそれぞれの処理結果をベクトル化する処理結果ベクトル生成部41と、処理結果ベクトル生成部41で生成されたベクトルデータを入力データとして総合的なリスクを認識する融合リスク認識部42とを備えている。融合リスク認識部42の出力は、音声装置5や画像表示装置6へ出力され、ドライバへの警告や情報伝達が行われる。
尚、本リスク融合認識システム1は、図1中に破線で示すように、融合処理の対象として、白線検出、道路標識認識、ドライバ状態等を認識する認識部を加えることも可能であり、高い拡張性を有している。
シーンリスク認識部2は、画像から得られた情報から直接リスクとの関連付けを行うことでリスクを認識すると共に、その関連付けを実際の走行で遭遇した環境から学習し、適応的にリスク認識を行うものであり、ドライバを認識器の学習においての教師とし、ドライバの運転操作からリスク情報を抽出し、その運転操作に基づくリスク情報と、カメラから得られる画像情報との関連を学習する。リスク情報の抽出に際しては、リスクを確率的に取り扱い、似たような状況でもリスクが異なる場合や、得られている画像情報だけでは判断が出来ないリスクも取り扱うことを可能としている。
また、抽出リスク認識部3は、入力画像データを並列に処理する複数の認識器を有し、これらの複数の認識器の出力結果を統合するものであり、統合結果を教師データを用いて評価し、複数の認識器を適応的に学習更新する。抽出リスク認識部3では、処理時間やメモリ空間等の関係から認識器に制限がある状況においても、天候等の環境変化、歩行者、車、路上の構造物等、多様な環境、対象に合わせて適応的に学習することができ、高精度且つロバストな認識を可能としている。
このような個々のリスク要素認識部(シーンリスク認識部2,抽出リスク認識部3)は、本出願人の提案による特願2007−077625号,特願2007−038440号に詳述されている認識システムを適用することができる。以下では、シーンリスク認識部2及び抽出リスク認識部3の概要について説明する。
図2に示すように、シーンリスク認識部2は、主要構成として、リスク情報抽出部21、特徴量抽出部22、状態認識部23、リスク認識部24、リスク情報出力部25を備えており、最終的に、画像から認識した状態がリスクをどの程度の確率で持つかということを表したリスク確率を出力する。各部の機能は、以下の通りである。
リスク情報抽出部21は、所定の周期(例えば、30Hz)でサンプリングした車両情報(ドライバの操作情報)、例えば、車速、ハンドル角、アクセル開度、ブレーキ圧力等から所定のルール等を用いてリスク情報を抽出し、教師情報(リスクの大きさや種類)を作成する。
特徴量抽出部22は、カメラの撮像画像を処理して得られる所定の階調のデジタル画像から、エッジ情報、動き情報、色情報等の特徴量を抽出し、それらの情報をN次元ベクトルとして保持する。尚、このN次元ベクトルには、画像特徴量以外の車両情報、例えば車速やヨー角の変化といった情報も含めることができる。
状態認識部23は、得られたN次元の特徴量ベクトルを1次元の状態という量に変換する。ここでの状態とは、入力された画像を走行している場所や、天候、走行状態などによりシーン分けしているイメージであり、実際には、オンライン学習時、今はどのシーンであるかを明示的に教師することはできないため、入力データ及び教師データを用いて実環境に学習的に適応させる。この状態認識部23での学習は、プロトタイプ型の識別処理で識別した各状態(状態番号)を、自己組織化マップ(SOM;Self-Organization Maps)を用いて学習的に更新する処理である。
リスク認識部24は、状態認識部23で得られた状態と、リスク情報抽出部21で作成された教師との相関関係を求めて状態のリスクを学習・認識し、認識したリスクを、リスク情報出力部25からリスク融合部4に出力する。リスクの認識は、認識した状態のリスク確率で出力する。これは、その状態が、リスクをどの程度の確率で持つかということを表したものであり、時刻tでの入力データがドライバ情報から得られたリスクレベルRという教師情報を持つ場合、認識された状態が持つリスク確率において、リスクレベルRの確率が大きければ教師情報による学習を強くし、リスクレベルRの確率が小さければ教師情報による学習を弱くする。
一方、抽出リスク認識部3は、主要構成として、図3に示すように、複数の認識器31,…を有する認識処理部32、各認識器31,…の出力を統合する統合部33、処理の目標となる教師データを用いて認識器を学習的に更新する学習部34を備え、最終的に、画像中のリスクに応じた複数の認識領域を出力する。各部の機能は、以下の通りである。
認識処理部32は、入力画像を複数の認識器31,…で並列に処理し、対象を抽出した処理画像を出力する。認識器31としては、複数の画像フィルタを木構造状に組み合わせた木構造状画像フィルタ、ニューラルネットワーク、サポートベクタマシン、ファジー等による認識器、ステレオ画像をマッチング処理する認識器、レーザ・レーダによるスキャン画像を処理する認識器等を用いることが可能であり、オンラインで送られてくる入力画像がこれらの複数の認識器で並列に処理されると、その並列出力が統合部33で統合され、リスク認識の対象となる複数の領域が認識される。
学習部34は、オンラインで常に送られている入力画像の中から対象を認識する認識処理部32及び統合部33の処理とは別に、教師データの入力をトリガとして、現在用いている認識器を環境に合わせて適応的に更新する処理をバックグラウンドにて実行する。このため、学習部34は、過去に作成された認識器及び新たに作成する認識器を保存する認識器データベースDB1と、過去に入力された教師データ及び新たに入力される教師データを保存する教師データベースDB2とを備え、内部構成として、個々の認識器を評価する認識器評価部34a、全ての認識器(現在使用している認識器及びストックしている認識器)の中から最適な組み合わせを求め、現在使用している認識器の組み合わせを最適な組み合わせに入れ替える入替選択部34b、教師データを元に新たに認識器を作成する逐次学習部34cを備えている。
概略的には、入力データから教師データが作成されると、この教師データが教師データベースDB2にストックされ、また、この教師データを用いて、現在用いている認識器、認識器データベースDB1にストックされている認識が、認識器評価部34aで個別に評価される。
個々の認識器の評価結果は、入替選択部34bで参照され、最適な認識器の組み合わせが決定される。最適な認識器の組み合わせは、認識処理部32を形成する現在の認識器、すなわち現在使用している複数の認識器の統合結果よりも良好な評価を得られることが前提であり、絶対的な条件として、現在の認識器の組み合わせよりも評価が悪くならないことが必要である。
使うべき候補の認識器がない場合には、逐次学習部34cにおいて、所定の最適化手法、例えば遺伝的プログラミング(GP;Genetic Programming)等を用いた学習により、新たな認識器が作成される(逐次学習)。そして、逐次学習で順次追加された認識器を含めた組み合わせが反復評価され、最終的に決定された最適な認識器の組み合わせにより、現在の認識処理部32の複数の認識器が部分的或いは全面的に入れ替えられる。
以上のシーンリスク認識部2からの認識情報(シーンリスク情報)及び抽出リスク認識部3の認識情報(抽出リスク情報)は、リスク融合部4で融合処理され、音声装置5や画像表示装置6へ出力されてドライバへの警報やリスク情報の提示が行われる。尚、リスク融合部4からの出力は、音声装置5を介した音声出力を主とするが、同時に、シーンリスク処理・抽出リスク処理で得られた結果表示画像を統合した結果画像が生成され、画像表示装置6へ出力される。
リスク融合部4では、先ず処理結果ベクトル生成部41において、シーンリスク認識部2及び抽出リスク認識部3の認識結果を処理し、融合リスク認識部42へ出力するベクトルデータを生成する。後述するように、融合リスク認識部42は、時系列データの認識等で用いられる隠れマルコフモデル(HMM;Hidden Markov Model)を用いて認識処理を行っている。HMMは、図4に示すように、確率的な状態遷移を表現するモデルであり、番号を付与した円記号が対象の状態(ステート)を表現し、このステートが確率的な条件分岐によって遷移すること、遷移したステートによって異なる確率で外部に信号(確率的操作出力)が出力されることを想定している。
尚、図4においては、状態を5段階として各ステートに1〜5の番号を付与した場合を例示しているが、後述するように、本システムで実際に扱う状態は、0,1,…,21の22段階である。
本システムにおいては、状態、及び状態からの出力を以下のように設定し、ドライバに提示すべき状態を現在の状態の存在確率として、状態の時系列な変化を状態遷移で表現する。
各状態 :ドライバに或る提示をすべき状態
出力値(観測値):その状態のとき、各リスク要素認識部が出力するリスク情報
すなわち、ドライバに提示すべき状態がHMMのステートに相当し、そのときに観測されるデータが外部に出力される信号に相当する。つまり、観測される出力値から現在の状態を推定することで認識が行われ、現在、或るシーンリスク情報、或る抽出リスク情報が出ているということは、ドライバに提示すべき状態は、そのときのリスクに対応した或る状態であろうと推定する。
このとき、推定時に観測されるデータがどのステートから出力されたのかを推定するためには、状態の遷移確率と、各状態の出力確率との2つの確率計算を行う必要があり、これらがHMMのモデルパラメータとなる。これらのパラメータは、学習により得られるか若しくは明示的に与えられる。学習に関しては後述する。
このように、並列に動作する個々のリスク要素認識部からの情報を確率的モデルを用いて総合的に判断し、ドライバに警告や情報伝達を行うことで、実際の運転環境に適応した認識が可能となり、車両の開発・販売時には想定することのできない個々のドライバに最適な安全運転環境を実現することが可能となる。
尚、以上のことから、処理結果ベクトル生成部41で処理されて融合リスク認識部42へ出力されるベクトルデータは、HMMにとってのモデル出力値であり、以下では、処理結果ベクトル生成部41から融合リスク認識部42へ送られるベクトルデータを、適宜、「処理結果ベクトル」と記載する。
次に、処理結果ベクトル生成部41の動作について詳細に説明する。処理結果ベクトル生成部41は、先ず、シーンリスク認識部2及び抽出リスク認識部3から入力されるリスク要素認識結果を所定のタイミングでサンプリングする。この場合、シーンリスク認識部2及び抽出リスク認識部3は、リスク融合部4とは独立で動作しており、その認識周期も各データ毎に異なるものとなっている。一方、処理結果ベクトル生成部41からのデータを処理する融合リスク認識部42は、それまでに入力された最新値を用いて融合処理を行う。
このため、入力データ値(処理結果ベクトル)を決定する際には、以下の(1−1),(1−2)に示すような状況が想定される。
(1−1)リスク融合認識処理よりもリスク要素認識処理の処理周期が長い場合
(1−2)リスク融合認識処理よりもリスク要素認識処理の処理周期が短い場合
従って、処理結果ベクトル生成部41は、以下の(2−1)〜(2−3)に示す方法をシステム環境を考慮する等して適宜選択或いは組み合わせ、シーンリスク認識部2及び抽出リスク認識部3からのデータをサンプリングする。
(2−1)最新値を取り込む。
(2−2)前の周期の処理後に入力された複数データの最大値を取り込む。
(2−3)前の周期の処理後に入力された複数データの平均値を取り込む。
例えば、図5に示すように、融合認識の1周期のうちにリスク要素認識結果が4回入力された場合について説明すると、(2−1)の方法では入力データはD、(2−2)の方法ではC、(2−3)の方法ではA,B,C,Dの値の平均値となる。
最新値を用いる(2−1)の方法では、処理時間遅れを最小にすることができる。最大値を用いる(2−2)の方法では、例えば危険度が高いか低いかという指標を表す場合には、一番高い値を取ることで、誤って低い危険度と認識することを防止することができる。また、平均値を用いる(2−3)の方法では、ノイズに影響を受け難くすることができる。
更に、処理結果ベクトル生成部41は、入力データ(リスク要素認識結果)を離散化及び次元圧縮する。すなわち、融合リスク認識部42では、HMMのパラメータを離散値として扱っているため、融合リスク認識部42へ送るベクトルデータは離散化する必要がある。
また、本実施の形態では、融合リスク認識部42への入力ベクトル(処理結果ベクトル)は39次元であり、各次元毎に離散化を行うと膨大なメモリが必要となり、現実的ではない。従って、入力データ(リスク要素認識結果)に対して次元圧縮を含めた離散化を行い、連続値を離散値として扱う。この離散化及び次元圧縮は、本実施の形態においては、自己組織化マップ(SOM;Self-Organization Maps)を用いて行う。
SOMは、生物の大脳皮質のうち視覚野等をモデル化したニューラルネットワークの一種であり、M次元に並べられたユニットが、それぞれベクトル値(通常入力との結線の重みと呼ばれる)を持ち、入力に対して勝者ユニットをベクトルの距離を基準として決定する。そして、勝者ユニット及びその周辺のユニットの参照ベクトル値を、入力ベクトルに近づくように更新してゆく。これを繰り返すことで、全体が入力データの分布を最適に表現できるように学習し、この学習に基づいて入力データの次元を圧縮すると共に、データの特徴に応じて離散化を行うことができる。
尚、本実施の形態では、SOMを用いた教師無し競合学習によりデータの離散化及び次元圧縮を行う例について説明するが、教師有り競合学習であるベクトル量子化(LVQ;Learning Vector Quantization)モデルを用いることも可能である。
以下、処理結果ベクトル生成部41におけるSOMの距離計算、SOMの勝者決定、SOMの学習について説明する。
[SOMの距離計算]
本実施の形態においては、1次元256段階のSOMを用いており、各ユニットの番号をu、各ユニットの代表値をprotu(i)とすると、代表値protu(i)は、N次元のベクトルであり、i=0,1,…,N−1となる。更に、入力ベクトルをIn(i)とすると、入力ベクトルとSOMユニットとの距離L(u)は、以下の(1)式によって求められ、(2)式に示すように、この距離L(u)が最も短いユニットが勝者ユニット(ユニット番号K)として選択され、認識結果となる。
L(u)=(Σi(protu(i)−In(i))2)1/2 …(1)
K=argminu(L(u)) …(2)
(1)式による距離計算では、入力ベクトルの各次元(本実施の形態においては39次元)は均等に扱っているが、通常、それぞれの次元の認識における重要度は異なる。また、入力次元間に分布の偏りがある場合には、重要でない特徴がノイズとなって現れる。
従って、本システムにおいては、(1)式による距離計算に代えて、以下の(3)式に示すような入力の各次元毎に重みを付加した距離計算、或いは、以下の(4)式に示すように、変量間の相関に基づくマハラノビス距離(Mahalanobis distance)を用いた距離計算を行う。
L(u)=(ΣiW(i)・(protu(i)−In(i))2)1/2 …(3)
但し、W(i):次元iの重み
L(u)=(Σi(protu(i)−In(i))Σ-1(protu(i)−In(i)))1/2 …(4)
但し、Σ-1:入力ベクトルIn(i)の共分散行列の逆行列
マハラノビス距離を用いた距離計算では、入力ベクトルの次元間の相関を考慮した距離計算として、入力次元間の分布の偏りの影響を排除することが可能であり、これにより、重要でない特徴によるノイズへの耐性を向上することができる(但し、重み付けとの同時使用は不可)。
また、以上の距離計算においては、図6に示すように、入力データの各次元で閾値th以上は距離は一定であるという変換を前処理として入れることで、「似ている部分」での一致度を重視した認識が可能になる。つまり、本来選択されるべきユニットが、或る次元での誤認識への影響で距離が大きくなってしまい、勝者とならないという問題を回避できる。この閾値thによる変換を、以下の(5)式に示す。
L(u)=(ΣiF(i)2)1/2 …(5)
但し、│protu(i)−In(i)│<thのとき、F(i)=protu(i)−In(i)
│protu(i)−In(i)│≧thのとき、F(i)=th
また、それとは別に、入力データは、多くがリスクデータであることから、値1は値0よりも重要であることが多い。そのため、この性質を利用して、以下の(6)式により距離を求めるようにしても良い。
L(s)=(ΣiF(i)2)1/2 …(6)
但し、F(i)=α1(protu(i)−In(i))
(6)式のF(i)におけるα1は、入力とユニットとの差の正負に応じた重みを示しており、protu(i)<In(i)のとき、α1<1、protu(i)≧In(i)のとき、α1=1であり、過剰認識を低減してリスク認識を適正化することが可能となる。
[SOMの勝者決定]
SOMは入力データに距離が一番近いユニットが選ばれるという構造のため、2つのユニットと距離が等しくなる領域(境界付近)では、認識がハンチングする可能性があり、状態認識自体がハンチングしてしまう虞がある。そのため、1周期前の勝者ユニットに関しては、距離に定数β(β<1)をかけることでヒステリシス的な処理を行い、ハンチングを防止する。すなわち、勝者ユニットを過去の計算時の情報を用いて決定することで、時間的に安定したSOM出力とすることができる。
また、通常のSOMは、勝者ユニット番号Kを出力値として扱うが、以下の(7)式に示すように、SOM出力を勝者ユニットとするのではなく確率的にすることで、ハンチングを防止することができ、更には認識精度の向上が期待できる。確率分布Q(u)の設定は、勝者ユニットとの距離比を用いる。尚、(7)式中のσはゲインであり、ゲインσが0に近づく程、確定的な表現になる。
Q(u)=exp(−L(u)/minu(L(u))/σ)/z …(7)
但し、z=Σiexp(−L(u)/minu(L(u))/σ)
尚、1ステップ前の確率が大きい場合は、定数βを用いて距離を小さくする変換を入れることも可能である。
[SOM学習]
SOMは、入力ベクトルから自律的に学習を行うことが可能であり、どのデータも均等に学習される。しかしながら、一般の走行中は安全な状態が圧倒的に多いことから、危険状態のユニットに対する十分な学習がなされないことが予想される。そこで、後述するHMMの教師有り学習を行う場合、SOM学習にリスクレベルの事前確率分布で重みをつける。すなわち、HMMの状態Sにおいて、事前確率をp(s)とすると、そのときのSOM学習時にかけるゲインG(s)をG(s)=const/p(s)とする。但し、ゲインが最大設定値以上になった場合は、最大設定値で制限する。また、このゲインは、HMMの各状態の重要度によって明示的に設定しても良い。
SOM学習における代表値の更新則は、上記のゲインG(s)を用いた場合、以下の(8)式のようになる。
protu(i)=protu(i)+α2(In(i)−protu(i)) …(8)
但し、α2=a・b(t)・c(D(u,K),t)・G(s)
(8)式の係数α2を決定する各パラメータa,b,cのうち、パラメータaは学習係数であり、各教師状態の登場確率若しくは各状態の重要度に応じて変更する。また、パラメータb,cは、通常のSOMの更新則に用いられるパラメータであり、bは時間減衰、cは領域減衰を示している。
図7,図8は、シーンリスク認識部2からのシーンリスク情報と抽出リスク認識部3からの抽出リスク情報とを処理して生成した処理結果ベクトルの例を示しており、この例では、計39次元のベクトルデータとして設定されている。尚、このデータは、シーンリスク認識部2及び抽出リスク認識部3の最終出力値だけでなく、計算時に算出される情報も含んでいる。
シーンリスク情報は、図7においては19次元のベクトルデータとする例を示しており、番号4〜14のデータは、最尤状態のリスク強度確率分布から求め、番号15〜18のデータは、SOMの勝者判定時に距離により確率に変換したときの上位から順のデータとしている。また、抽出リスク情報は、図8においては20次元のベクトルデータとする例を示しており、歩行者や車を認識した複数の認識領域における平均や分散をとって番号19〜38の20次元のベクトルデータとしている。
次に、融合リスク認識部42における認識処理について説明する。本実施の形態においては、HMMを用いてリスク認識処理を行う例について説明するが、このリスク認識処理は、ファジィルールの推論モデルやニューラルネットワークの学習モデルを用いて行うことも可能である。本実施の形態では、以下、HMMの状態設定、状態推定、学習、融合認識結果について説明する。
[HMMの状態設定]
HMMの状態の設定は、本実施の形態においては、音声提示を基本として「…の音声提示をすべき状態」として設定し、また、リスクに関しては、リスクの大きさ(リスクレベル)、リスクの種類、リスクの位置(画像上の位置)の3つの指標を尺度として状態を設定している。
例えば、図9に示すように、リスレベルの値を0〜100、状態番号を0〜22として、0−30のリスクレベルでは状態番号0(音声提示無し)、30−50のリスクレベルでは状態番号1−9、50−70のリスクレベルでは状態番号10−18、70以上のリスクレベルでは状態番号19−21を対応させて設定する。各状態の発話音声(警告音声)は、図10に示すように、状態と1対1で対応させ、ドライバ、歩行者、相手車両といったように、HMMで推定した状態に応じて自車内外に警告音声を発する。
[HMMによる状態の推定]
HMMによる状態の推定は、以下の(3−1),(3−2)に示すように、一般的に用いられるビタビアルゴリズム(Viterbi algorithm)若しくは前向きアルゴリズム(forward algorithm)を用いて行われる。この推定は、1周期前の状態St-1、現在観測された入力データを離散値に変換したユニット番号Ktにより行われ、現在が状態Stである確率P(st)が出力される。
(3−1)ビタビアルゴリズム
ビタビアルゴリズムは、HMMに対する最尤系列推定手法の一つであり、最尤系列推定は、現在観測されているデータがどのステートから出力されているとするのが最も尤もらしいかを推定(最尤推定)する手法である。遷移系列を計算する際の最も尤もらしい系列とは、発生する確率が最大となる系列を特定することに相当する。
このビタビアルゴリズムは、状態遷移確率と出力信号確率を元に、時系列観測データの先頭から、順次、各時間ステップにおいてそれぞれのステートに存在する最大確率を計算する手法であり、動的計画法に類似した計算手法を用いるために計算量が少ないという特徴を持っている。
以下の(9)式に計算例を示す。(9)式においては、確率が小さくなることによる計算上のアンダーフローを回避するため、確率の対数をとり、計算を全てその対数値で行っている。左辺のLPt(Sj)は時刻tで状態Sjである確率の対数、右辺第1項内のLA(Sj|Si)は状態Siから状態Sjへ遷移する確率の対数、第2項のLB(K|Sj)は状態Sjのときの時刻tで観測値Xを出力する確率の対数を示している。
LPt(Sj)=maxi(LPt-1(Si)+LA(Sj|Si))+LB(K|Sj) …(9)
(3−2)前向きアルゴリズム
前向きアルゴリズムは、イベントと各ステートとのトレリス上を前向きに辿る手法であり、以下の(10)式に示すように、ステップ毎の逐次計算により、各時刻、各状態の存在確率を再帰的に計算する。(10)式においては、左辺のPt(Sj)は時刻tに状態Sjである確率、右辺第1項内のA(Sj|Si)は状態Siから状態Sjへ遷移する確率、第2項のB(K|Sj)は状態Sjのときの時刻tで観測値Xを出力する確率である。
t(Sj)=Σi(Pt-1(Si)・A(Sj|Si))+B(K|Sj) …(10)
この前向きアルゴリズムによる状態推定は、各時刻の各ステップにおいて全ての遷移確率を計算しており、存在確率の低いステートも考慮した状態推定であることから、高精細な内部状態の推定が可能となる。
推定状態は、確率が一番高い状態となり、ビタビアルゴリズム、前向きアルゴリズムのそれぞれの推定結果は、状態系列の最大値argmaxj(LPt(Sj)),argmaxj(Pt(Sj))となる。
ここで、推定した状態Sの確率P(S)はわかっているので、これを、推定の信頼度とする。そして、この信頼度により、実際の音声出力を行うか否かを決定する。つまり、推定により得られた状態の確率が低い場合には、音声出力をしないようにする。
また、認識周期によっては、前の状態の音声出力が終了しないうちに音声出力命令が出る場合がある。そのような場合には、前の状態よりリスクレベルが小さい場合は音声出力を行わず、前の状態よりリスクレベルが大きい場合、前の音声出力を強制的に止めて、新たな音声出力を行う。
また、HMMを用いて、現在の状態の遷移確率から今後の状態の予測も行うことができる。その場合、観測値Xtの時間推移はわからないので、前述の(9),(10)式とも右辺第2項を省いて計算を行うことにより、繰り返し計算で各時刻t+1,t+2,…の予測状態確率Pt+1(S),Pt+2(S)…を求めることが可能となる。
尚、処理結果ベクトル生成部41においてSOM出力を確率的に扱った場合には、(9),(10)式の右辺第2項を、それぞれ、前述の(7)式による確率分布Q(u)を用いて、LOG10uB(u|Sj)・Q(u))、ΣuB(u|Sj)・Q(u)に置き換えることで、確率的な、より安定した認識結果を得ることが可能になる。
[HMMの学習]
次に、HMMの学習について説明する、HMMの学習は、2段階のステップを踏んでおり、第1段階は基本的な認識処理を学習するためのオフラインの事前学習フェーズ、第2段階は走行中に環境に合わせて学習を行うオンライン学習フェーズである。
前者の事前学習フェーズでは、入力情報と、そのときのあるべき状態を教師情報を用いて学習する教師有り学習を行う。この教師有り学習では、入力データXと、教師データS(正解の状態)があるため、HMMのパラメータ(状態存在確率、出力確率)は、データの累積頻度から直接求めることができる。
後者のオンライン学習フェーズは、教師情報のない教師無し学習となる。これには、バウムウェルチ(Baum Welch)アルゴリズムを用いることにより学習が可能である。バウムウェルチアルゴリズムは、EMアルゴリズムの一種であり、前向き確率と後ろ向き確率とを用いて学習データの尤度を大きくするようにモデルのパラメータを更新していき、これによって収束したパラメータをHMMの学習結果とする。但し、教師無し学習であるため、正解の状態を推定しない誤った学習を行う虞がある。そのため、事前に学習したパラメータから一定値以上更新されないように学習を進める必要がある。
[融合認識結果]
以上の処理を経て得られるHMMのモデルパラメータは、図11〜図15に示される。図11は、各リスク要素認識部が出力するリスク情報を観測値として計算される状態遷移確率を示しており、ステート番号は大きいほど高いリスクレベルであることを示している。このグラフから所定のHMM駆動周波数の枠組みでは、自己遷移(同じ番号のステートにとどまる遷移)と、上下1ステート分の遷移確率が大きいこと、高リスクステートでは急激にリスクレベルが下がる遷移確率も比較的大きいこと等が見て取れる。これは、一般的に、中低程度のリスクは連続的に上下することや、高いリスク要因は車両の通過等と共に急激に解消すること等に相当し、一般的な運転状況の感覚との乖離は無いものと判断することができる。
また、図12〜図15は各状態であるときの出力確率の例を示しており、図12は状態0−4の出力確率分布、図13は状態5−9の出力確率分布、図14は状態10−14の出力確率分布、図15は状態15−21の出力確率分布であり、番号が小さい状態(安全と見做される状態)で、出力確率が多様に変化し、状態番号が大きい状態(危険と見做される状態)になると、出力確率のピークが出現して対応する警告音声が出力されることを意味している。
このようなHMMによる認識結果は、音声装置5を介した音声出力を基本とするが、同時に、図16に示すようなシーンリスク処理・抽出リスク処理で得られた画像を統合した画像が生成され、画像表示装置6へ出力される。図16の例では、対人リスク抽出と対車リスク抽出とが例えば画像内の赤や青の領域といったように色別に表示され、画面下のバー表示で全体のシーンリスクのリスクレベルを表している。また、図示を省略しているが、その他、記号や文字で中間の計算値も表示する。
以上のように、本実施の形態においては、複数のリスク要素認識処理の結果を観測値として確率的な状態遷移でドライバに提示すべき状態を決定しているため、複数のリスク認識要素からの情報を総合的に判断して実際の運転環境に適応した認識を可能とすることができ、個々のドライバに最適な安全運転環境を実現することができる。
リスク融合認識システムの基本構成図 シーンリスク認識部の構成を示すブロック図 抽出リスク認識部の構成を示すブロック図 隠れマルコフモデルによる状態遷移の説明図 入力データの決定方法を示す説明図 閾値を用いたSOMの距離変換を示す説明図 シーンリスク情報の説明図 抽出リスク情報の説明図 状態の設定を示す説明図 音声提示の設定を示す説明図 状態遷移確率の例を示すグラフ 状態0−4の出力確率分布を示すグラフ 状態5−9の出力確率分布を示すグラフ 状態10−14の出力確率分布を示すグラフ 状態15−21の出力確率分布を示すグラフ 出力画像の例を示す説明図
符号の説明
1 リスク融合認識システム
2 シーンリスク認識部
3 抽出リスク認識部
4 リスク融合部
5 音声装置
6 画像表示装置
41 処理結果ベクトル生成部
42 融合リスク認識部

Claims (17)

  1. 移動体の外界環境を検出し、この外界環境に含まれるリスクを認識する複数のリスク認識部と、
    上記複数のリスク認識部を並列に動作させたときの各認識結果を融合処理し、該融合処理の結果に基づいて認識したリスク情報を出力するリスク融合部と
    を備えることを特徴とするリスク融合認識システム。
  2. 上記リスク融合部は、上記リスク情報として、音声出力と各リスク認識部からのリスク情報を統合した画像とのうち、少なくとも上記音声出力を提示することを特徴とする請求項1記載のリスク融合認識システム。
  3. 上記リスク融合部は、状態の時系列的な変化を状態遷移で表現した確率的状態遷移モデルを用いて、上記リスク情報をドライバに提示すべき状態を現在の状態の存在確率として認識することを特徴とする請求項1又は2記載のリスク融合認識システム。
  4. 上記確率的状態遷移モデルにおける状態として、上記複数のリスク認識部で認識したリスクのレベルと位置と種類とを指標とした設定を行うことを特徴とする請求項3記載のリスク融合認識システム。
  5. 上記確率的状態遷移モデルをオフライン及びオンラインで学習し、自律的に認識構造を構築することを特徴とする請求項3記載のリスク融合認識システム。
  6. 認識される現在の状態の確率を信頼度として、上記リスク情報の提示を行うか否かを判断することを特徴とする請求項3記載のリスク融合認識システム。
  7. 推定される現在の状態の遷移確率を用いて、未来の状態の予測を行うことを特徴とする請求項3記載のリスク融合認識システム。
  8. 上記確率的状態遷移モデルの1回の認識周期に対して、上記複数のリスク認識部のそれぞれから複数回の認識情報が出力される場合、該複数回の認識情報の最大値若しくは最新値若しくは平均値を、上記確率的状態遷移モデルへの入力情報とすることを特徴とする請求項3記載のリスク融合認識システム。
  9. 上記確率的状態遷移モデルの状態の出力値を、上記複数のリスク認識部の各認識結果を自己組織化マップを用いて離散化した変換値とすることを特徴とする請求項3記載のリスク融合認識システム。
  10. 上記確率的状態遷移モデルの状態推定に際して、上記自己組織化マップの確率的出力を用いることを特徴とする請求項9記載のリスク融合認識システム。
  11. 上記自己組織化マップの距離計算に際して、認識の重要度に応じたゲインを用いることを特徴とする請求項9記載のリスク融合認識システム。
  12. 上記自己組織化マップの距離計算に際して、入力ベクトルの共分散行列によるマハラノビス距離を用いることを特徴とする請求項9記載のリスク融合認識システム。
  13. 上記自己組織化マップの距離計算に際して、各次元の入力データとユニットとの差が閾値以上の場合には、同じ入力値とすることを特徴とする請求項9記載のリスク融合認識システム。
  14. 上記自己組織化マップの距離計算に際して、入力の各次元毎にユニットとの差に応じた重みを用いることを特徴とする請求項9記載のリスク融合認識システム。
  15. 上記自己組織化マップの勝者ユニットを過去の計算時の情報を用いて決定し、時間的に安定した出力とすることを特徴とする請求項9記載のリスク融合認識システム。
  16. 上記自己組織化マップの出力を、勝者ユニットではなく各ユニットとの距離に基づく確率分布とすることを特徴とする請求項9記載のリスク融合認識システム。
  17. 上記自己組織化マップの教師有り学習を行う際に、各教師状態の登場確率若しくは各状態の重要度に応じて学習係数を変更することを特徴とする請求項9記載のリスク融合認識システム。
JP2008134687A 2008-05-22 2008-05-22 リスク融合認識システム Expired - Fee Related JP5204552B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008134687A JP5204552B2 (ja) 2008-05-22 2008-05-22 リスク融合認識システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008134687A JP5204552B2 (ja) 2008-05-22 2008-05-22 リスク融合認識システム

Publications (2)

Publication Number Publication Date
JP2009282783A true JP2009282783A (ja) 2009-12-03
JP5204552B2 JP5204552B2 (ja) 2013-06-05

Family

ID=41453170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008134687A Expired - Fee Related JP5204552B2 (ja) 2008-05-22 2008-05-22 リスク融合認識システム

Country Status (1)

Country Link
JP (1) JP5204552B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010016482A1 (de) 2009-04-17 2010-12-09 Denso Corporation, Kariya-City Anlasser zum Starten einer internen Verbrennungsmaschine
JP2011129010A (ja) * 2009-12-21 2011-06-30 Denso It Laboratory Inc 運転シーン判定装置、運転シーン判定方法およびプログラム、ならびに、ワークロード推定装置、ワークロード推定方法およびプログラム
JP2012128799A (ja) * 2010-12-17 2012-07-05 Denso Corp 運転シーンの遷移予測装置及び車両用推奨運転操作提示装置
JP2013242615A (ja) * 2012-05-17 2013-12-05 Denso Corp 運転シーン遷移予測装置および車両用推奨運転操作提示装置
JP2018173862A (ja) * 2017-03-31 2018-11-08 アイシン・エィ・ダブリュ株式会社 走行支援装置及びコンピュータプログラム
CN112434955A (zh) * 2020-11-27 2021-03-02 广东电网有限责任公司肇庆供电局 一种基于多数据融合的配网线路运行风险感知方法
CN113064963A (zh) * 2021-03-19 2021-07-02 北京沃东天骏信息技术有限公司 一种内容风险控制方法和装置
JP2021519462A (ja) * 2018-04-09 2021-08-10 バイエリシエ・モトーレンウエルケ・アクチエンゲゼルシヤフト 自動車の環境情報を融合させるためのフュージョンシステム
CN113344326A (zh) * 2021-04-30 2021-09-03 西安交通大学 多信息融合特殊作业现场动态隐患识别和风险评估***和方法
WO2022107330A1 (ja) * 2020-11-20 2022-05-27 日本電気株式会社 状態判定装置、状態判定システム、状態判定方法、及び、記録媒体
CN114997748A (zh) * 2022-08-01 2022-09-02 中通客车股份有限公司 基于模型融合的新能源汽车运行安全风险预测方法及***

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002260146A (ja) * 2001-03-02 2002-09-13 Toyota Central Res & Dev Lab Inc 運転者危険認知特性記憶方法、運転者危険度演算装置、運転能力診断・評価装置、及び車両用予防安全装置
JP2002300573A (ja) * 2001-03-30 2002-10-11 Toshiba Corp 車載型映像監視装置の映像診断システム
JP2005122263A (ja) * 2003-10-14 2005-05-12 Nissan Motor Co Ltd 車両のリスク回避ガイド装置
JP2006169661A (ja) * 2004-12-15 2006-06-29 Murata Mach Ltd 解析装置及びこれを備えた機械設備と解析プログラム
JP2006202015A (ja) * 2005-01-20 2006-08-03 Ntt Docomo Inc 注視状態検出装置および注視状態推定方法
JP2007233470A (ja) * 2006-02-27 2007-09-13 Mazda Motor Corp 車両用走行支援装置
JP2007334554A (ja) * 2006-06-14 2007-12-27 Nissan Motor Co Ltd 障害物検出装置および障害物検出方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002260146A (ja) * 2001-03-02 2002-09-13 Toyota Central Res & Dev Lab Inc 運転者危険認知特性記憶方法、運転者危険度演算装置、運転能力診断・評価装置、及び車両用予防安全装置
JP2002300573A (ja) * 2001-03-30 2002-10-11 Toshiba Corp 車載型映像監視装置の映像診断システム
JP2005122263A (ja) * 2003-10-14 2005-05-12 Nissan Motor Co Ltd 車両のリスク回避ガイド装置
JP2006169661A (ja) * 2004-12-15 2006-06-29 Murata Mach Ltd 解析装置及びこれを備えた機械設備と解析プログラム
JP2006202015A (ja) * 2005-01-20 2006-08-03 Ntt Docomo Inc 注視状態検出装置および注視状態推定方法
JP2007233470A (ja) * 2006-02-27 2007-09-13 Mazda Motor Corp 車両用走行支援装置
JP2007334554A (ja) * 2006-06-14 2007-12-27 Nissan Motor Co Ltd 障害物検出装置および障害物検出方法

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010016482A1 (de) 2009-04-17 2010-12-09 Denso Corporation, Kariya-City Anlasser zum Starten einer internen Verbrennungsmaschine
JP2011129010A (ja) * 2009-12-21 2011-06-30 Denso It Laboratory Inc 運転シーン判定装置、運転シーン判定方法およびプログラム、ならびに、ワークロード推定装置、ワークロード推定方法およびプログラム
JP2012128799A (ja) * 2010-12-17 2012-07-05 Denso Corp 運転シーンの遷移予測装置及び車両用推奨運転操作提示装置
JP2013242615A (ja) * 2012-05-17 2013-12-05 Denso Corp 運転シーン遷移予測装置および車両用推奨運転操作提示装置
JP2018173862A (ja) * 2017-03-31 2018-11-08 アイシン・エィ・ダブリュ株式会社 走行支援装置及びコンピュータプログラム
US11836987B2 (en) 2018-04-09 2023-12-05 Bayerische Motoren Werke Aktiengesellschaft Fusion system for fusing environment information for a motor vehicle
JP7323548B2 (ja) 2018-04-09 2023-08-08 バイエリシエ・モトーレンウエルケ・アクチエンゲゼルシヤフト 自動車の環境情報を融合させるためのフュージョンシステム
JP2021519462A (ja) * 2018-04-09 2021-08-10 バイエリシエ・モトーレンウエルケ・アクチエンゲゼルシヤフト 自動車の環境情報を融合させるためのフュージョンシステム
WO2022107330A1 (ja) * 2020-11-20 2022-05-27 日本電気株式会社 状態判定装置、状態判定システム、状態判定方法、及び、記録媒体
CN112434955B (zh) * 2020-11-27 2023-01-24 广东电网有限责任公司肇庆供电局 一种基于多数据融合的配网线路运行风险感知方法
CN112434955A (zh) * 2020-11-27 2021-03-02 广东电网有限责任公司肇庆供电局 一种基于多数据融合的配网线路运行风险感知方法
CN113064963A (zh) * 2021-03-19 2021-07-02 北京沃东天骏信息技术有限公司 一种内容风险控制方法和装置
CN113344326A (zh) * 2021-04-30 2021-09-03 西安交通大学 多信息融合特殊作业现场动态隐患识别和风险评估***和方法
CN113344326B (zh) * 2021-04-30 2023-10-10 西安交通大学 特殊作业现场动态隐患识别和风险评估***和方法
CN114997748A (zh) * 2022-08-01 2022-09-02 中通客车股份有限公司 基于模型融合的新能源汽车运行安全风险预测方法及***

Also Published As

Publication number Publication date
JP5204552B2 (ja) 2013-06-05

Similar Documents

Publication Publication Date Title
JP5204552B2 (ja) リスク融合認識システム
US10739773B2 (en) Generative adversarial inverse trajectory optimization for probabilistic vehicle forecasting
KR102313773B1 (ko) 신경망 학습에 기반한 입력 처리 방법 및 이를 위한 장치
CN110949398B (zh) 一种车辆编队行驶中头车驾驶员异常驾驶行为检测方法
US11531899B2 (en) Method for estimating a global uncertainty of a neural network
US6430523B1 (en) Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object
US11189171B2 (en) Traffic prediction with reparameterized pushforward policy for autonomous vehicles
JP2011014037A (ja) リスク予測システム
US20210125061A1 (en) Device and method for the generation of synthetic data in generative networks
KR20180048407A (ko) 차선 검출 장치 및 방법
JP2009262702A (ja) 安全運転支援システム
JP2009073465A (ja) 安全運転支援システム
CN115038936A (zh) 用于场景感知交互的***和方法
KR20220004491A (ko) 인공지능 기반 수목 데이터 관리 시스템 및 수목 데이터 관리 방법
US20230244924A1 (en) System and method for robust pseudo-label generation for semi-supervised object detection
JP5572339B2 (ja) オンラインリスク認識システム
JP2008238831A (ja) オンラインリスク学習システム
JP5005492B2 (ja) 安全運転支援システム
CN114118349A (zh) 用于用户可理解的可解释学习模型的方法、***和设备
CN115600145A (zh) 利用局部神经变换的异常区域检测
JP2011003076A (ja) リスク認識システム
CN115527134A (zh) 基于大数据的城市园林景观照明监测***及其方法
CN113469023A (zh) 确定警觉度的方法、装置、设备和存储介质
US20230281999A1 (en) Infrastructure analysis using panoptic segmentation
Lim et al. Temporal early exiting with confidence calibration for driver identification based on driving sensing data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120918

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130215

R150 Certificate of patent or registration of utility model

Ref document number: 5204552

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160222

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees