JP7156741B1 - 傷検知システム、傷検知方法およびプログラム - Google Patents
傷検知システム、傷検知方法およびプログラム Download PDFInfo
- Publication number
- JP7156741B1 JP7156741B1 JP2022043742A JP2022043742A JP7156741B1 JP 7156741 B1 JP7156741 B1 JP 7156741B1 JP 2022043742 A JP2022043742 A JP 2022043742A JP 2022043742 A JP2022043742 A JP 2022043742A JP 7156741 B1 JP7156741 B1 JP 7156741B1
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- data
- sound data
- impact sound
- audio data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 144
- 238000012545 processing Methods 0.000 claims abstract description 74
- 238000004891 communication Methods 0.000 claims description 28
- 238000010801 machine learning Methods 0.000 claims description 21
- 230000005540 biological transmission Effects 0.000 description 15
- 238000000034 method Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000002547 anomalous effect Effects 0.000 description 1
- 239000010426 asphalt Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
このようなレンタカーやカーシェアリングでは、複数の利用者が車両を利用し、しかも、利用者の利用中にレンタル車両等に傷等が発生した場合には、その利用者が修理費用を負担することになるため、レンタル車両の貸出時と返却時とのそれぞれにおいて担当者がレンタル車両の外周部の状態を比較することにより、レンタル車両の貸出の最中にレンタル車両に傷等が発生したか否かを確認するようにしている。
しかしながら、この種の確認に人手がかかること、および傷等の発生を的確に検知することが困難であったという問題があった。
図1から図6を用いて、本実施形態に係る傷検知システム1について説明する。
図1に示すように、本実施形態に係る傷検知システム1は、車両VC内部に設けられる処理装置100と、マイク200A、200B、200C、200Dと、を含んで構成されている。
なお、処理装置100の詳細な構成に関しては、後述する。
マイク200A、200B、200C、200Dは、例えば、車両VC内部の四隅に配置され、各マイク200A、200B、200C、200Dが集音した音声データは、処理装置100に出力される。
また、各マイク200A、200B、200C、200DのON/OFF状態は、処理装置100により制御される。
マイク200A、200B、200C、200Dは、指向性を持ったものでもよいし、台座に載置され、回動するような形態であってもよい。
処理装置100は、図2に示されるように、音声データ情報入力部110と、記憶部120と、検知部130と、推定部140と、通信部150と、ネットワーク検出部160と、データ送受信部170と、を含んで構成されている。
音声データ情報入力部110は、音声データ情報の入力時刻を示す図示しない計時部からの時刻情報を入力した音声データに付した音声データ情報を後述する記憶部120内の所定の記憶領域に、格納する。
記憶部120は、図3に示すように、音声データ情報記憶領域1、音声データ情報記憶領域2、音声データ情報記憶領域3、音声データ情報記憶領域4、学習モデル記憶領域、正常音声データ記憶領域、衝撃音音声データ記憶領域、学習結果記憶領域等の様々な記憶領域を有している。
上記のマイク200A、200B、200C、200Dからの音声データ情報は、例えば、マイク200Aに関する情報が、音声データ情報記憶領域1に格納され、マイク200Bに関する情報が、音声データ情報記憶領域2に格納され、マイク200Cに関する情報が、音声データ情報記憶領域3に格納され、マイク200Dに関する情報が、音声データ情報記憶領域4に格納されている。
なお、検知部130において、機械学習に用いられる学習モデルは、例えば、後述するデータ送受信部170を介して、サーバ300から得られ、学習モデル記憶領域に格納された学習モデルが用いられる。
ここで、学習モデルは、車両の音声データを学習して得られた学習モデルであって、車両の車種ごとに異なっている。
具体的には、検知部130は、音声データに対する学習結果と車両の通常走行時の音声データに対する学習結果とが予め定められた閾値を超える乖離度である場合に、音声データが衝撃音データであることを検知する。
なお、乖離度は、機械学習の正答率によって、適宜、変更することも可能である。
また、検知部130は、音声データに対する学習結果と衝撃音データに対する学習結果とが予め定められた閾値以下の乖離度である場合に、音声データが衝撃音データであることを検知するようにしてもよい。
なお、検知部130の詳細な構成については、後述する。
小石の衝突にはスリングショット等の道具を用い、スピードガンなどを用いて衝突時の速度を記録する。異常音の録音には通常時と同様に、小型のパーソナルコンピュータとマイクアレイを用いる。
なお、廃車は走行できる状態で入手できるとは限らないため、廃車が走行できない場合には、キズ発生音に以下で詳述するノイズが含まれていないため、任意に切り出した正常な走行音にキズ発生音を重畳して、擬似的な異常データとする。
走行音には、(1)路面状況や雨などの車室外で発生するノイズと、(2)乗員の声や使用機器類が発する音声等の車室内で発生するノイズが含まれる。これらのノイズの構成要素をまとめ、教師データとしてAIの学習データに加えることによって、キズ発生時の音を検知する精度の向上が見込める。
ここで、(1)車室外で発生するノイズについては、(i)路面とタイヤとの振動音、(ii)エンジン音、(iii)気象状況によるノイズの主に、3つが想定できる。
また、その他の車室外で発生するノイズについては、十分な量のデータを集めることによって、統計的に無視できる程度の影響度とすることができる。
路面とタイヤの振動音については、教師データとして タイヤの型番、タイヤの使用期間、タイヤ装着時からの走行距離、走行路面の路面種別等を教師データとする。
ここで、使用期間及び走行距離は必ずしも正確な値である必要はなく、例えば、1週間以内、1ヶ月以内、1年以内等の有限種類からなる離散的なデータとして与える。
また、路面種別は走行地点の路面がどのようなものかをカテゴリ変数として与える。カテゴリ変数は、例えば、アスファルト、土、砂利道等である。路面種別はアノテーションによってデータを作成する。
エンジン音については、エンジンの型番、車検からの経過月数等を教師データとして与える。なお、教師データとして エンジン回転量 を与えることも考えられる。
気象状況によるノイズについて、温度、雲度、過去1時間の降水量、前日の1時間平均降水量等を教師データとして与える。ここで、前日の降水量をデータに加えるのは、路面のぬかるみを考慮するためである。
車室内で発生するノイズについては、(i)乗員の会話、(ii)車載機器の使用によるノイズの主に、2つが想定できる。
また、その他の車室外で発生するノイズについては、十分な量のデータを集めることによって、統計的に無視できる程度の影響度とすることができる。
乗客の会話については、会話の有無をアノテーションとして与える。これは、会話していない場合を「0」、会話している場合を「1」とする2通りの値を持つカテゴリデータである。
車載機器のうち、オーディオ機器の使用については、音楽再生の有無をアノテーションとして与える。これは、会話していない場合を「0」、会話している場合を「1」とする2通りの値を持つカテゴリデータである。
また、車載機器のうち、空調機器の使用については、機器の作動の有無をアノテーションとして与える。これは、作動していない場合を「0」、作動している場合を「1」とする2通りの値を持つカテゴリデータである。
具体的には、推定部140は、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、各マイクの音声データの音量の違いから、衝撃音データの発生エリアを推定する。
図4を用いて、より詳細に説明すると、図4は、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、マイク200B、マイク200Dの音声データの音量が、マイク200A、マイク200Cの音声データの音量よりも十分に大きい。
そのため、マイク200B、マイク200Dの音声データの音量によって、衝撃音データの発生エリアを推定する例を示している。
ここで、マイク200Bの音声データの音量とマイク200Dの音声データの音量との比が、3:2で、マイク200Bの音声データの音量が、マイク200Dの音声データの音量よりも1.5倍大きいとすると、衝撃音データの発生エリアまでの距離は、マイク200Dがマイク200Bよりも1.5倍長いということになる。
そのため、この比に相当する半径の円をマイク200Dおよびマイク200Bの中心から描き、この2つの円弧と車両のボディラインBDとが近接する箇所周辺を推定部140が、衝撃音データの発生エリアとして推定する。
ここで、通信部150より外部装置に送信される情報としては、衝撃音の発生時刻および衝撃音データの発生エリア等である。
通信部150は、後述するネットワーク検出部160が、所定のネットワークを検出した場合に、衝撃音の発生時刻および衝撃音データの発生エリア等のメッセージを外部装置に送信する。
ここで、所定のネットワークとは、Wi-Fi(登録商標)等を例示することができるが、ネットワークによらず、Bluetooth(登録商標)等の近距離無線を用いてもよい。
なお、データ送受信部170がサーバ300に送信する情報には、正常音声データや学習結果等を含んでもよい。
検知部130は、図5に示すように、検出対象データセット131と、学習済みデータセット132と、機械学習部133と、を含んで構成されている。
より具体的には、機械学習部133は、検出対象データセット131と、学習済みデータセット132との、例えば、類似度あるいは乖離度に対するスコアを算出する。
図6を用いて、本実施形態に係る処理装置100の処理について説明する。
そして、音声データ情報入力部110は、音声データ情報の入力時刻を示す図示しない計時部からの時刻情報を入力した音声データに付した音声データ情報を記憶部120内の所定の記憶領域に、格納する(ステップS110)。
具体的には、検知部130は、音声データに対する学習結果と車両の通常走行時の音声データに対する学習結果とが予め定められた閾値を超える乖離度である場合に、音声データが衝撃音データであることを検知する。
具体的には、推定部140は、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、各マイクの音声データの音量の違いから、衝撃音データの発生エリアを推定する。
そして、ネットワーク検出部160は、車両が所定のネットワークの通信領域内に入っていないと判定した場合(ステップS140の「NO」)には、待機モードに移行する。
以上、説明したように、本実施形態に係る傷検知システム1における処理装置100は、複数のマイク200A、200B、200C、200Dから入力した音声データをマイク200A、200B、200C、200Dごとに定められた格納エリアに格納し、検知部130は、格納された音声データに対して、学習モデルを用いた機械学習を実行して、衝撃音データを検知する。
そのため、様々な条件によらず、的確に、車両における傷等の発生を素早く検知することができる。
そのため、様々な条件によらず、的確に、車両における傷等の発生と発生エリアとを速やかに特定することができる。
つまり、本実施形態に係る学習モデルは、膨大な量の車両の通常走行時における音声データおよび傷等の発生時における衝撃音データを学習して得られた学習モデルである。
そのため、様々な条件によらず、的確に、車両における傷等の発生を素早く検知することができる。
つまり、車両の車種によっては、車体を構成する素材や厚み、塗料の種別、車室空間の大きさ等が異なり、マイク200A、200B、200C、200Dで捉える通常走行時の音声データおよび衝撃音データに差が生ずる。
しかしながら、本実施形態における処理装置100においては、車両の車種ごとの学習モデルが準備されている。
そのため、車両の車種によらず、様々な条件においても、的確に、車両における傷等の発生と発生エリアとを速やかに特定することができる。
つまり、検知部130は、音声データに対する学習結果と車両の通常走行時の音声データに対する学習結果とを比較して、そのスコアの乖離度が、予め定められた閾値を超える乖離度である場合に、音声データが衝撃音データであることを検知する。
そのため、車両の車種によらず、様々な条件においても、的確に、車両における傷等の発生と発生エリアとを速やかに特定することができる。
つまり、マイク200A、200B、200C、200Dで捉えた音声データの音量は、傷の発生エリアとの距離に比例して、音量の大きさが異なる。
この関係を利用すれば、各マイク200A、200B、200C、200Dの音声データの音量の違いを傷の発生エリアまでの距離に変換することにより、衝撃音データの発生エリアを推定することができる。
そのため、車両の車種によらず、様々な条件においても、的確に、車両における傷等の発生と発生エリアとを速やかに特定することができる。
つまり、レンタカーであれば、レンタカーの帰庫前に、事業者に対して、車両のどのエリアに傷がついた可能性がある旨のメッセージが送信される。
そのため、事業者は、レンタカーの帰庫後、速やかに傷の有無を確認することが可能となり、責任の所在を明確にすることができる。
そのため、サーバ300は、処理装置100から受信した車両の走行中に取得した衝撃音データを含むデータをも用いて、再学習することにより、学習モデルを最適化することができる。
本実施形態においては、4つのマイク200A、200B、200C、200Dを車両内に配置することを例示したが、マイクが2つ以上であれば、傷の発生エリアを特定することも可能である。
つまり、マイクの数が多い方が傷の発生エリアの特定精度は向上するが、ピンポイントで傷の発生箇所を特定するのではなく、傷の発生箇所が大体この辺りという程度の精度が許容されるのであれば、マイクの数を減らすことにより、システム全体のコストダウンを図ることができる。
本実施形態においては、理解を容易にするために、推定部140が、各マイク200A、200B、200C、200Dの音声データの音量の違いを傷の発生エリアまでの距離に変換し、変換したそれぞれの距離をそれぞれのマイク200A、200B、200C、200Dの中心から半径として描いた円が交わる箇所と車両のボディラインBDの近傍から傷の発生エリアを推定する方法を示した。
しかしながら、変換したそれぞれの距離をそれぞれのマイク200A、200B、200C、200Dの中心から半径として描いた球が交わる箇所と車両のボディラインBDの近傍から傷の発生エリアを推定するようにしてもよい。
このようにすることにより、3次元空間における傷の発生エリアを推定することができるため、傷の発生エリアの推定精度を高めることができる。
図7から図9を用いて、本実施形態に係る傷検知システム1Aについて説明する。
本実施形態に係る傷検知システム1Aは、車両VC内部に設けられ、処理装置100Aと、マイク200A、200B、200C、200Dと、を含んで構成されている。
本実施形態においては、特に、処理装置100Aは、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、音声データの各マイクへの到達時間の違いから、衝撃音データの発生エリアを推定する。
処理装置100Aは、図7に示されるように、音声データ情報入力部110と、記憶部120と、検知部130と、推定部140Aと、通信部150と、ネットワーク検出部160と、データ送受信部170と、を含んで構成されている。
なお、第1の実施形態と同一の符号を付す構成要素については、同様の機能を有することから、その詳細な説明は、省略する。
具体的には、推定部140Aは、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、音声データの各マイクへの到達時間の違いから、衝撃音データの発生エリアを推定する。
図8を用いて、より詳細に説明すると、図8は、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、マイク200B、マイク200Dへの音声データの到達時間が、マイク200A、マイク200Cへの音声データの音量よりも十分に早い。
そのため、マイク200B、マイク200Dへの音声データの到達時間によって、衝撃音データの発生エリアを推定する例を示している。
ここで、マイク200Bへの音声データの到達時間とマイク200Dへの音声データの到達時間との比が、2:3で、マイク200Bへの音声データの到達時間が、マイク200Dへの音声データの到達時間よりも1.5倍早いとすると、衝撃音データの発生エリアまでの距離は、マイク200Dがマイク200Bよりも1.5倍長いということになる。
そのため、この比に相当する半径の円をマイク200Dおよびマイク200Bの中心から描き、この2つの円弧と車両のボディラインBDとが近接する箇所周辺を推定部140Aが、衝撃音データの発生エリアとして推定する。
図9を用いて、本実施形態に係る処理装置100Aの処理について説明する。
そして、音声データ情報入力部110は、音声データ情報の入力時刻を示す図示しない計時部からの時刻情報を入力した音声データに付した音声データ情報を記憶部120内の所定の記憶領域に、格納する(ステップS110)。
具体的には、検知部130は、音声データに対する学習結果と車両の通常走行時の音声データに対する学習結果とが予め定められた閾値を超える乖離度である場合に、音声データが衝撃音データであることを検知する。
具体的には、推定部140Aは、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、各マイクへの音声データの到達時間の違いから、衝撃音データの発生エリアを推定する。
そして、ネットワーク検出部160は、車両が所定のネットワークの通信領域内に入っていないと判定した場合(ステップS140の「NO」)には、待機モードに移行する。
以上、説明したように、本実施形態に係る傷検知システム1における処理装置100Aの推定部140Aは、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、音声データの各マイクへの到達時間の違いから、衝撃音データの発生エリアを推定する。
つまり、マイク200A、200B、200C、200Dへの音声データの到達時間は、傷の発生エリアとの距離に比例して、到達時間が異なる。
この関係を利用すれば、各マイク200A、200B、200C、200Dへの音声データの到達時間の違いを傷の発生エリアまでの距離に変換することにより、衝撃音データの発生エリアを推定することができる。
そのため、車両の車種によらず、様々な条件においても、的確に、車両における傷等の発生と発生エリアとを速やかに特定することができる。
本実施形態においては、理解を容易にするために、推定部140Aが、各マイク200A、200B、200C、200Dの音声データの音量の違いを傷の発生エリアまでの距離に変換し、変換したそれぞれの距離をそれぞれのマイク200A、200B、200C、200Dの中心から半径として描いた円が交わる箇所と車両のボディラインBDの近傍から傷の発生エリアを推定する方法を示した。
しかしながら、変換したそれぞれの距離をそれぞれのマイク200A、200B、200C、200Dの中心から半径として描いた球が交わる箇所と車両のボディラインBDの近傍から傷の発生エリアを推定するようにしてもよい。
このようにすることにより、3次元空間における傷の発生エリアを推定することができるため、傷の発生エリアの推定精度を高めることができる。
図10から図12を用いて、本実施形態に係る傷検知システム1Bについて説明する。
本実施形態に係る傷検知システム1Bは、車両VC内部に設けられ、処理装置100Bと、マイク200A、200B、200C、200Dと、を含んで構成されている。
本実施形態においては、特に、処理装置100Bは、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、各マイク200A、200B、200C、200Dの音声データに対する学習結果の乖離度の違いから、衝撃音データの発生エリアを推定する。
処理装置100Bは、図10に示されるように、音声データ情報入力部110と、記憶部120と、検知部130と、推定部140Bと、通信部150と、ネットワーク検出部160と、データ送受信部170と、を含んで構成されている。
なお、第1の実施形態および第2の実施形態と同一の符号を付す構成要素については、同様の機能を有することから、その詳細な説明は、省略する。
具体的には、推定部140Bは、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、各マイク200A、200B、200C、200Dの音声データに対する学習結果の乖離度の違いから、衝撃音データの発生エリアを推定する。
図11を用いて、より詳細に説明すると、図11は、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、マイク200B、マイク200Dの音声データに対する学習結果の乖離度が、マイク200A、マイク200Cの音声データに対する学習結果の乖離度よりも十分に少ない。
そのため、マイク200B、マイク200Dの音声データに対する学習結果の乖離度によって、衝撃音データの発生エリアを推定する例を示している。
ここで、マイク200Bの音声データに対する学習結果の乖離度とマイク200Dの音声データに対する学習結果の乖離度との比が、2:3で、マイク200Bの音声データに対する学習結果の乖離度が、マイク200Dの音声データに対する学習結果の乖離度よりも1.5倍少ないとすると、衝撃音データの発生エリアまでの距離は、マイク200Dがマイク200Bよりも1.5倍長いということになる。
そのため、この比に相当する半径の円をマイク200Dおよびマイク200Bの中心から描き、この2つの円弧と車両のボディラインBDとが近接する箇所周辺を推定部140Aが、衝撃音データの発生エリアとして推定する。
図12を用いて、本実施形態に係る処理装置100Bの処理について説明する。
そして、音声データ情報入力部110は、音声データ情報の入力時刻を示す図示しない計時部からの時刻情報を入力した音声データに付した音声データ情報を記憶部120内の所定の記憶領域に、格納する(ステップS110)。
具体的には、検知部130は、音声データに対する学習結果と車両の通常走行時の音声データに対する学習結果とが予め定められた閾値を超える乖離度である場合に、音声データが衝撃音データであることを検知する。
具体的には、推定部140Bは、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、各マイク200A、200B、200C、200Dの音声データに対する学習結果の乖離度の違いから、衝撃音データの発生エリアを推定する。
そして、ネットワーク検出部160は、車両が所定のネットワークの通信領域内に入っていないと判定した場合(ステップS140の「NO」)には、待機モードに移行する。
以上、説明したように、本実施形態に係る傷検知システム1における処理装置100Bの推定部140Bは、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、各マイク200A、200B、200C、200Dの音声データに対する学習結果の乖離度の違いから、衝撃音データの発生エリアを推定する。
つまり、マイク200A、200B、200C、200Dの音声データに対する学習結果の乖離度は、傷の発生エリアとの距離に比例して、学習結果の乖離度が異なる。
この関係を利用すれば、各マイク200A、200B、200C、200Dへの音声データに対する学習結果の乖離度の違いを傷の発生エリアまでの距離に変換することにより、衝撃音データの発生エリアを推定することができる。
そのため、車両の車種によらず、様々な条件においても、的確に、車両における傷等の発生と発生エリアとを速やかに特定することができる。
本実施形態においては、理解を容易にするために、推定部140Bが、各マイク200A、200B、200C、200Dの音声データに対する学習結果の乖離度の違いを傷の発生エリアまでの距離に変換し、変換したそれぞれの距離をそれぞれのマイク200A、200B、200C、200Dの中心から半径として描いた円が交わる箇所と車両のボディラインBDの近傍から傷の発生エリアを推定する方法を示した。
しかしながら、変換したそれぞれの距離をそれぞれのマイク200A、200B、200C、200Dの中心から半径として描いた球が交わる箇所と車両のボディラインBDの近傍から傷の発生エリアを推定するようにしてもよい。
このようにすることにより、3次元空間における傷の発生エリアを推定することができるため、傷の発生エリアの推定精度を高めることができる。
1A;傷検知システム
1B;傷検知システム
100;処理装置
100A;処理装置
100B;処理装置
110;音声データ情報入力部
120;記憶部
130;検知部
140;推定部
140A;推定部
140B;推定部
150;通信部
160;ネットワーク検出部
170;データ送受信部
200A;マイク
200B;マイク
200C;マイク
200D;マイク
300;サーバ
Claims (10)
- 車両の内部に設けられた処理装置と、少なくとも複数のマイクと、からなる車両の傷検知システムであって、
前記処理装置は、
前記複数のマイクから入力した音声データをマイクごとに定められた格納エリアに格納する記憶部と、
前記記憶部に格納された前記音声データに対して、学習モデルを用いた機械学習を実行して、衝撃音データを検知する検知部と、
前記検知部において、1の前記マイクの前記音声データから前記衝撃音データが検知された場合に、すべてのマイクの前記音声データに基づいて、前記衝撃音データの発生エリアを推定する推定部と、
を備え、
前記学習モデルは、通常走行時における車両内部で観測可能な走行音データと、通常走行時における路面状況や雨などの車室外で発生するノイズや乗員の声、使用機器類が発する音声等の車室内で発生するノイズを含む車両内部で観測可能な走行音に小石を複数の速度に変化させて車両に衝突させたキズ発生音を重畳させた前記衝撃音データと、を教師データとする学習データにより生成されることを特徴とする傷検知システム。 - 前記学習モデルは、前記車両の車種ごとに異なることを特徴とする請求項1に記載の傷検知システム。
- 前記検知部は、前記音声データに対する学習結果と前記車両の通常走行時の前記音声データに対する前記学習結果とが予め定められた閾値を超える乖離度である場合に、前記音声データが前記衝撃音データであることを検知することを特徴とする請求項1から2のいずれか1項に記載の傷検知システム。
- 前記推定部は、前記検知部が前記1の前記マイクの前記音声データから前記衝撃音データを検知した場合に、各マイクの前記音声データの音量の違いから、前記衝撃音データの発生エリアを推定することを特徴とする請求項1から3のいずれか1項に記載の傷検知システム。
- 前記推定部は、前記検知部が前記1の前記マイクの前記音声データから前記衝撃音データを検知した場合に、前記音声データの各マイクへの到達時間の違いから、前記衝撃音データの前記発生エリアを推定することを特徴とする請求項1から3のいずれか1項に記載の傷検知システム。
- 前記推定部は、前記検知部が前記1の前記マイクの前記音声データから前記衝撃音データを検知した場合に、各マイクの前記音声データに対する前記学習結果の乖離度の違いから、前記衝撃音データの前記発生エリアを推定することを特徴とする請求項3に記載の傷検知システム。
- 前記処理装置が外部装置に情報を送信する通信部と、
所定のネットワークを検出するネットワーク検出部と、
を備え、
前記ネットワーク検出部が、前記所定のネットワークを検出した場合に、前記通信部が、前記車両のどのエリアに傷がついた可能性がある旨のメッセージを前記外部装置に送信することを特徴とする請求項1から6のいずれか1項に記載の傷検知システム。 - サーバを含み、
前記車両の走行中に取得した前記衝撃音データを含むデータを前記サーバに送信する請求項1から7のいずれか1項に記載の傷検知システム。 - 車両の内部に設けられた処理装置と少なくとも3つ以上のマイクとからなる傷検知システムにおける傷検知方法であって、
前記処理装置が、前記少なくとも3つ以上のマイクから入力した音声データをマイクごとに定められた格納エリアに格納する第1の工程と、
前記処理装置が、記憶部に格納された前記音声データに対して、学習モデルを用いた機械学習を実行して、衝撃音データを検知する第2の工程と、
前記処理装置が、1の前記マイクの前記音声データから前記衝撃音データを検知した場合に、すべてのマイクの前記音声データに基づいて、衝撃音データの発生エリアを推定する第3の工程と、
を備え、
前記学習モデルは、通常走行時における車両内部で観測可能な走行音データと、通常走行時における路面状況や雨などの車室外で発生するノイズと、乗員の声や使用機器類が発する音声等の車室内で発生するノイズを含む車両内部で観測可能な走行音に小石を複数の速度に変化させて車両に衝突させたキズ発生音を重畳させた前記衝撃音データを教師データとする学習データにより生成されることを特徴とする傷検知方法。 - 車両の内部に設けられた処理装置と少なくとも3つ以上のマイクとからなる傷検知システムにおける傷検知方法をコンピュータに実行させるためのプログラムであって、
前記処理装置が、前記少なくとも3つ以上のマイクから入力した音声データをマイクごとに定められた格納エリアに格納する第1の工程と、
前記処理装置が、記憶部に格納された前記音声データに対して、学習モデルを用いた機械学習を実行して、衝撃音データを検知する第2の工程と、
前記処理装置が、1の前記マイクの前記音声データから前記衝撃音データを検知した場合に、すべてのマイクの前記音声データに基づいて、衝撃音データの発生エリアを推定する第3の工程と、
を備え、
前記学習モデルは、通常走行時における車両内部で観測可能な走行音データと、通常走行時における路面状況や雨などの車室外で発生するノイズと、乗員の声や使用機器類が発する音声等の車室内で発生するノイズを含む車両内部で観測可能な走行音に小石を複数の速度に変化させて車両に衝突させたキズ発生音を重畳させた前記衝撃音データを教師データとする学習データにより生成されることを特徴とする傷検知方法をコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022043742A JP7156741B1 (ja) | 2022-03-18 | 2022-03-18 | 傷検知システム、傷検知方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022043742A JP7156741B1 (ja) | 2022-03-18 | 2022-03-18 | 傷検知システム、傷検知方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7156741B1 true JP7156741B1 (ja) | 2022-10-19 |
JP2023137503A JP2023137503A (ja) | 2023-09-29 |
Family
ID=83688435
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022043742A Active JP7156741B1 (ja) | 2022-03-18 | 2022-03-18 | 傷検知システム、傷検知方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7156741B1 (ja) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004299473A (ja) | 2003-03-28 | 2004-10-28 | Mazda Motor Corp | 遠隔故障診断システム及びその制御方法、並びに車両 |
JP2006023208A (ja) | 2004-07-08 | 2006-01-26 | Fuji Heavy Ind Ltd | 車体の異常検出装置 |
JP2017117492A (ja) | 2017-03-13 | 2017-06-29 | 株式会社日立製作所 | 見守りシステム |
JP2021001872A (ja) | 2019-05-08 | 2021-01-07 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh | 自動車の損傷を検出するための方法及び装置 |
US20210048449A1 (en) | 2019-08-13 | 2021-02-18 | Hyundai Motor Company | Impact detection system for vehicle and impact detection system method therefor |
CN112484845A (zh) | 2020-12-11 | 2021-03-12 | 湖北亿咖通科技有限公司 | 振动源查找方法及振动源测试设备 |
US20210086763A1 (en) | 2019-09-24 | 2021-03-25 | Volvo Car Corporation | Low-impact collision detection |
-
2022
- 2022-03-18 JP JP2022043742A patent/JP7156741B1/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004299473A (ja) | 2003-03-28 | 2004-10-28 | Mazda Motor Corp | 遠隔故障診断システム及びその制御方法、並びに車両 |
JP2006023208A (ja) | 2004-07-08 | 2006-01-26 | Fuji Heavy Ind Ltd | 車体の異常検出装置 |
JP2017117492A (ja) | 2017-03-13 | 2017-06-29 | 株式会社日立製作所 | 見守りシステム |
JP2021001872A (ja) | 2019-05-08 | 2021-01-07 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh | 自動車の損傷を検出するための方法及び装置 |
US20210048449A1 (en) | 2019-08-13 | 2021-02-18 | Hyundai Motor Company | Impact detection system for vehicle and impact detection system method therefor |
US20210086763A1 (en) | 2019-09-24 | 2021-03-25 | Volvo Car Corporation | Low-impact collision detection |
CN112484845A (zh) | 2020-12-11 | 2021-03-12 | 湖北亿咖通科技有限公司 | 振动源查找方法及振动源测试设备 |
Also Published As
Publication number | Publication date |
---|---|
JP2023137503A (ja) | 2023-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200216081A1 (en) | Vehicle Telematics Based Driving Assessment | |
JP4352790B2 (ja) | 音響モデル作成方法および音声認識装置ならびに音声認識装置を有する乗り物 | |
US11043044B2 (en) | Systems and methods for vehicle condition inspection for shared vehicles | |
US11348175B1 (en) | Total loss evaluation and handling system and method | |
CN110341620B (zh) | 车辆预后和补救响应 | |
JP5434912B2 (ja) | 運転状態判定方法、運転状態判定システム及びプログラム | |
CN107458383A (zh) | 使用音频信号的车辆故障自动检测 | |
CN102120455A (zh) | 车辆保养提示***和车辆保养提示方法 | |
CN107031628A (zh) | 使用听觉数据的碰撞规避 | |
CN105844211A (zh) | 用于分类路面的***和方法 | |
CN105966405A (zh) | 驾驶员分心检测*** | |
US11437056B1 (en) | Vehicle sound analysis | |
US20150019069A1 (en) | Reverse event signature for identifying hit and run vehicles | |
US11830077B1 (en) | Vehicle damage estimation | |
US11044566B2 (en) | Vehicle external speaker system | |
CN108627349A (zh) | 用于识别机动车的特殊运行状态的方法和移动设备 | |
US20200365140A1 (en) | Detection of anomalies in the interior of an autonomous vehicle | |
JP2009113659A (ja) | 車両用ノイズキャンセル装置 | |
CN110767215A (zh) | 一种训练语音识别模型、识别语音的方法及装置 | |
US10757248B1 (en) | Identifying location of mobile phones in a vehicle | |
JP7156741B1 (ja) | 傷検知システム、傷検知方法およびプログラム | |
Pepe et al. | Detecting road surface wetness using microphones and convolutional neural networks | |
CN112308723A (zh) | 车辆检测方法及*** | |
US11958422B2 (en) | Road condition reporter | |
US11562762B2 (en) | Systems and methods of assessing driver safety based on vehicle noise levels |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220318 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220320 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220822 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220929 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7156741 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |