JP7032837B1 - 音波伝播シミュレーションシステム - Google Patents

音波伝播シミュレーションシステム Download PDF

Info

Publication number
JP7032837B1
JP7032837B1 JP2021101951A JP2021101951A JP7032837B1 JP 7032837 B1 JP7032837 B1 JP 7032837B1 JP 2021101951 A JP2021101951 A JP 2021101951A JP 2021101951 A JP2021101951 A JP 2021101951A JP 7032837 B1 JP7032837 B1 JP 7032837B1
Authority
JP
Japan
Prior art keywords
sound
sound wave
wave propagation
model
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021101951A
Other languages
English (en)
Other versions
JP2023000885A (ja
Inventor
保次 瀬古
正吾 沼倉
Original Assignee
シンメトリー・ディメンションズ・インク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シンメトリー・ディメンションズ・インク filed Critical シンメトリー・ディメンションズ・インク
Priority to JP2021101951A priority Critical patent/JP7032837B1/ja
Application granted granted Critical
Publication of JP7032837B1 publication Critical patent/JP7032837B1/ja
Publication of JP2023000885A publication Critical patent/JP2023000885A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Stereophonic System (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】音波伝播シミュレーションを簡易に実行できるシミュレーションシステムを提供する。【解決手段】音波伝播シミュレーションシステム10は、携帯端末中に備えられる3次元モデル生成装置20と、眼鏡型ディスプレイ、HMD(Head Mount Display)又は携帯型PC(Personal Computer)である表示装置30と、コンピュータであるシミュレータ装置40と、データベース装置50と、で構成され、携帯端末が有する3Dスキャナとカメラを用いて対象物の3次元モデルを生成し、その構成要素をコンピュータが有する形状認識と画像認識の機能により認識して、各構成要素の音波伝播特性データをデータベース装置から取得し、3次元モデルの音波伝播シミュレーションを実行する。【選択図】図1

Description

本開示は、音波の伝播をシミュレーションするシステムに関する。
従来、音波の伝播や反射、透過の状況を知ることは遮音性の評価や音楽の音響効果を知る上で重要であり、従来から様々な方法で音波伝播シミュレーションが実施されてきた。音波の反射や吸収をシミュレーションする音波伝播シミュレーションでは、音源や受音点を取り囲む現実世界の3次元構造物に対応する 3次元モデルをコンピュータ内に構築する必要があり、かつ、その3次元構造物を構成する材料の音の反射・吸収特性を知る必要がある。特許文献1ではハウスメーカーが家の間取り構造と材料の吸音率を利用して音波伝播シミュレーションを実施しているが、家の設計図や材料に詳しくない一般の人にとっては家の間取りや家具などの配置を考慮した 3次元モデルを構築し、その材料の吸音率などの音波伝播特性データを収集して、それを3次元モデルに適用し、音波伝播シミュレーションを実施することは容易なことではなかった。また、音波伝播シミュレーションを実施して得た音響効果を、現実の音として聞いて評価することは容易ではなかった。
特開2014―167442号公報
このように一般の人が、現実世界の 3次元構造物に対応する3次元モデルをコンピュータ内に作成し、3次元構造物を構成する材料の音波伝播特性データをその 3次元モデルに適用して、音波伝播シミュレーションを行うことは容易ではないという問題があった。さらには、そのような音波伝播シミュレーションを行って得た音響効果を現実の音として聞いて評価することは容易なことではなかった。
本開示は、上記事情に鑑みてなされたものであり、一般の人が簡易に現実世界の 3次元構造物に対応する3次元モデルをコンピュータ内に構築し、3次元構造物を構成する音波伝播特性データを取得して、簡易に音波伝播シミュレーションを実施できるシステム、及び音波伝播シミュレーションの結果得た音響効果を現実の音として聞くことが出来るシステムを提供することを目的とする。
本開示の一態様は、3次元モデル生成装置と、データベース装置と、シミュレータ装置とを含んで構成される音波伝播シミュレーションシステムであって、前記3次元モデル生成装置は、物体をカメラで撮影して取得した画像、又は前記物体を3 Dスキャニングして取得した3次元形状及び前記画像、を用いて、前記物体の3次元モデルを生成し、前記データベース装置は、前記物体を構成する素材の音波伝播に関連する音波伝播特性データを有し、前記シミュレータ装置は、前記3次元モデル、及び前記音波伝播特性データを用いて、音波伝播シミュレーションを実施することを特徴とする音波伝播シミュレーションシステムである。
本開示によれば、現実世界の3次元構造やそれを構成する素材に詳しくない一般の人であっても簡易に現実世界に対応する3次元モデルを生成し、それを構成する素材の音波伝播特性データを簡易に取得して、音波伝播シミュレーションを簡易に実行することができ、現実世界の音響効果などを調査することができる。
第1の実施形態に係る音波伝播シミュレーションシステムの全体構成の例を示す図である。 第1の実施形態に係る各装置の機能構成の例を示す図である。 第1の実施形態に係る音波伝播特性データに関するデータベースの構成例を示す図である。 第1の実施形態に係る音の反射と透過を示す模式図である。 第1の実施形態に係る音波伝播シミュレーションを実行する手順を示したフローチャートである。 第1の実施形態に係る音波伝播シミュレーションの 3次元モデルを示した図である。 第1の実施形態に係る音波伝播シミュレーション結果を視覚的に表現した図である。 第2の実施形態に係る音波伝播シミュレーションを実行する手順を示したフローチャートである。 第2の実施形態に係る仮想音源と仮想受音点を配置した 3次元モデルの部屋を示した図である。 第3の実施形態に係る音波伝播シミュレーション結果を現実の音として聞く手順を示すフローチャートである。
以下、適宜図面を参照しながら、実施形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、すでによく知られた事項の詳細説明や実質的に同一の構成に対する重複説明は省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。尚、添付図面及び以下の説明は当業者が本開示を十分に理解するために提供されるものであり、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
実施形態で示される1つの構成が有する機能が2つ以上の物理的構成により実現されても、又は2つ以上の構成の機能が例えば1つの物理的構成によって実現されていても構わない。
<第1の実施形態>
以下、本願発明の第1の実施形態について説明する。
[システム構成]
図1は、音波の伝播をシミュレーションする音波伝播シミュレーションシステム10の構成例を示す図である。音波伝播シミュレーションシステム10は 3次元モデル生成装置20と表示装置30とシミュレータ装置40とデータベース装置50を含んで構成される。 3次元モデル生成装置20と表示装置30とシミュレータ装置40とデータベース装置50は通信ネットワーク60を介して通信可能に接続される。
3次元モデル生成装置20は音波伝播シミュレーションを行う対象物の 3次元モデルを生成する。3次元モデルは、対象物の 3次元形状と画像を取得し、これらを3次元モデル生成装置20に搭載した 3次元モデル生成部に入力して生成される。生成された3次元モデルは通信ネットワーク60を経由してシミュレータ装置40に送信される。 3次元モデル生成装置20はスマートフォンやタブレット端末などの携帯端末や、携帯型コンピュータなどの情報処理装置であってよい。携帯可能であることで、どこででも利用できるという便利さを実現できる。
シミュレータ装置40は3次元モデル生成装置20で生成された 3次元モデルを受信し、3次元モデルの構成要素を検出して、各構成要素に対応する音波伝播特性データをデータベース装置50から取得し、これらを用いて音波伝播シミュレーションを行う。音波伝播シミュレーションの結果は表示装置30に送信される。シミュレータ装置40はデスクトップ型コンピュータや演算処理に優れたGPU( graphic processing unit)を有するコンピュータであってよい。また、シミュレータ装置40は、ノート型コンピュータやスマートフォンやタブレット端末などの携帯端末であってよい。また、シミュレータ装置40は、通信基地局に設置されたコンピュータや通信ネットワークに接続されたコンピュータであってよく、この場合には、 3次元モデル生成装置20との通信距離を近くすることができ、高速のレスポンスが可能となる。
データベース装置50は様々な素材の音波伝播特性データのデータベースを有する。データベース装置50はシミュレータ装置40の要求に応答して、データベースの中から対応する素材の音波伝播特性を検出して、それをシミュレータ装置40に送信する。データベース装置50は、例えば、サーバやコンピュータなどの情報処理装置、スマートフォンやタブレット端末などの携帯端末であってよい。
表示装置30はシミュレータ装置40が行った音波伝播シミュレーションの結果を表示する装置である。表示装置30は眼鏡型ディスプレイやHMD( Head Mount Display)、または携帯型PC(Personal Computer)であってよい。眼鏡型ディスプレイの場合は、その装着者に対して音波伝播シミュレーションの結果を現実世界の対象物に重ね合わせて表示することが可能で、より現実感を持たせて表示することができる。
通信ネットワーク60は、その通信規格や有線/無線を特に限定するものではない。通信ネットワーク60はシミュレータ装置40と3次元モデル生成装置20と表示装置30とデータベース装置50との間でのデータの送受信をすることができる。通信ネットワーク60の例として、無線(Local Area Network)、有線LAN、移動体通信網(例えばLTE(Long Term Evolution)、インターネット網、ブルートゥース(Bluetooth)、赤外線通信があげられる。図1においては、各装置はそれぞれ1つずつが示されているが、複数の装置が含まれてもよい。
[機能構成]
図2は、音波伝播シミュレーションシステムを構成する各装置の機能構成を示す図である。
(3次元モデル生成装置)
図2(a)は3次元モデル生成装置20の構成例を示す。 3次元モデル生成装置20は持ち運び可能な端末であり、3次元モデル生成部21、 3次元スキャナ22、カメラ23、記憶部24、表示部25、制御部26、通信部27を含んで構成される。 3次元モデル生成部21は、3次元スキャナ22が取得した 3次元形状と、カメラ23が撮像した画像を用いて、3次元モデルを生成する。記憶部24は 3次元形状、画像、3次元モデルを記憶する。表示部25は 3次元スキャナ22が取得した3次元形状やカメラ23が撮像した画像を表示する。また、表示部25は 3次元モデル生成部21が生成した3次元モデルを表示する。通信部27は、外部装置との通信を行う機能を有する。制御部26は音波伝播シミュレーションを実行するために 3次元モデル生成装置20を構成する各部を統括して制御する。以下で各部の詳細を説明する。
3Dスキャナ22は、音波伝播シミュレーションの対象物の 3次元形状を取得し、記憶部24に記憶する。3Dスキャナ22は、ToF( Time of Flight)方式、LiDAR(Light Detection and Ranging)、レーザ光切断方式、ステレオカメラ方式など公知の方法を用いてよく、測量対象に合わせて用いられてよい。ここでは、 3次元形状の取得方法の一例としてToF方式ついて説明する。
ToF方式は出射した光が対象物の対象点に当たって反射して戻って来るまでの時間、即ち飛行時間を測定して光の速度から対象点までの距離を測定する方式である。ToF方式を採用した3 Dスキャナ22は光を出射する発光素子(不図示)と受光点を2次元配列した受光素子(不図示)と光学系(不図示)を有する。発光素子が光を出射し、対象物で反射した光を受光素子が光学系を通して受光し、受光素子の各受光点に到達するまでの光の飛行時間を計測する。光学系の作用により、各受光点には特定の方角の光しか入射しないので、各受光点が捉えた光の入射角度は既知となる。光の入射角度と各受光点が検知した対象点までの距離から対象点の 3次元位置を算出することができる。一般には、2次元配列された受光点が検知する対象点までの距離を画像の濃淡で表した距離画像を一旦作成し、それから対象物の 3次元形状を取得することが多い。対象物の距離画像を様々な位置と角度から取得することで、対象物全体の 3次元形状を取得することができる。
カメラ23は、音波伝播シミュレーションの対象物のカラー画像を撮像し、記憶部24に記憶する。カラー画像は白黒画像やグレースケール画像でなどであってもよいが、以下ではカラー画像として説明する。通常、カメラ23の光学系(不図示)の光軸は3 Dスキャナ22の光学系の光軸と平行にし、かつこれら光軸間の距離が近接するように設定する。これにより、3 Dスキャナ22が取得する距離画像とカメラ23が撮像するカラー画像は、光軸間の距離だけ平行移動した画像となるため、距離画像の対象物とカラー画像の対象物との対応関係が分かり易く、距離画像から生成した 3次元形状とカラー画像との対応関係も分かり易いという特徴がでる。カメラ23はミラーレスカメラ、一眼レフカメラ、二眼レフカメラなどであってよい。
3次元モデル生成部21は、3Dスキャナ22が取得した対象物の 3次元形状とカメラ23が撮像した対象物のカラー画像を記憶部24より取得して、3次元モデルを生成する。3次元モデル生成部21は3 Dスキャナ22の光学系とカメラ23の光学系の光軸間の距離のデータ、3Dスキャナ22が取得した距離画像の倍率、カメラ23が撮像した画像の倍率、などのデータを記憶部24より取得し、距離画像の倍率を画像の倍率に合わせ、各光学系の光軸間の距離だけ移動した位置にある同一対象点を検出する。検出した同一対象点の距離画像の画素位置とカラー画像の画素位置の対応関係を同一対象点の対応関係として記憶部24に記憶する。距離画像から 3次元形状を作成し、距離画像とカラー画像の対応関係に基づいて、3次元形状にカラー画像を貼り付けて、3次元モデルを生成する。3次元モデルは記憶部24に記憶する。
3次元モデル生成部21は、3Dスキャナ22が取得した対象物の 3次元形状を使わずに、カメラ23が撮像した対象物のカラー画像だけを記憶部24より取得し、3次元モデルを生成することも出来る。その場合、対象物を撮影した複数のカラー画像を用いて、 3次元復元技術により3次元形状を生成する。 3次元復元技術の手法としては、公知の技術であるフォトグラメトリーなどを利用することができる。フォトグラメトリーでは、対象物を異なる位置から撮影した複数の画像において、各画像の捉えた対象物上の同一点を多数検出して、各画像を撮影したカメラの 3次元位置を算出し、そのカメラの3次元位置を用いて、対象物の同一点の 3次元位置をステレオカメラの原理で算出する。対象物上の同一点を画像上で多数検出することで、対象物表面の多数の 3次元位置を算出することができる。これにより対象物の3次元形状を生成することができる。この手法では、画像と 3次元形状との位置がずれないというメリットがある。このようにカメラ23が撮像した対象物のカラー画像だけから、 3次元形状を算出して、3次元モデルを生成して、3次元モデルを記憶部24に記憶してもよい。
記憶部24は3次元モデル生成部21が生成した3次元モデルや3 Dスキャナ22が取得した3次元形状やカメラ23が撮像したカラー画像などを記憶する。これはフラッシュメモリやHDD( Hard Disk Drive)などの不揮発性の記憶領域であってよい。また、記憶部24はRAM( Random Access Memory)などの揮発性の記憶領域であってもよい。
表示部25は3次元モデル生成部21が生成した3次元モデルや、3 Dスキャナ22が取得した3次元形状や、カメラ23が撮像したカラー画像などを表示する。また、表示部25に表示された3次元モデルや 3次元形状は、制御部25の機能により、3次元の回転、拡大、縮小、移動などを実施することができる。これにより3次元モデルや 3次元形状が正常であるかどうかをチェックすることができる。表示部25に表示された画像は、制御部25の機能により、 2次元の拡大縮小、移動、回転などができ、所望の画像が撮影できたかどうかをチェックすることができる。
制御部26は、3次元モデル生成部21、 3次元スキャナ22、カメラ23、記憶部24、表示部25、通信部27を制御し、各々の機能を動作させる。
通信部27は通信ネットワーク60を介して外部と通信する機能を有する。通信部27は3次元モデル生成部21が生成し、記憶部24が記憶する3次元モデルや、 3次元スキャナ22が取得し、記憶部24が記憶する3次元形状や、カメラ23が撮像し、記憶部24が記憶する画像などを、シミュレータ装置40や表示装置30に送信することができる。
(表示装置)
図2(b)は表示装置30の構成例を示す。表示装置30は表示機能を有する携帯可能な端末であり、表示部31、記憶部32、制御部33、通信部34を含んで構成される。表示装置30は眼鏡型ディスプレイやVR( Virtual Reality)ゴーグルや携帯型PCなどであってよい。ここでは眼鏡型ディスプレイの例を取り上げて説明する。
表示部31は、表示装置30である眼鏡型ディスプレイの表示部である。表示部31は表示装置30の装着者の視野範囲を覆うように構成されたグラス部(不図示)を含んで構成される。グラス部は所定の位置に映像を投影する透過型であってもよいし、装着者の網膜に映像を投影する網膜投影型であってもよい。表示部31は現実世界に重畳して制御部33が提供する3次元モデル、 3次元形状、画像、テキストなどの情報を表示することができる。制御部33が提供する情報の具体例については後述する。
通信部34は通信ネットワーク60を介して 3次元モデル生成装置20やシミュレータ装置40と通信しデータを送受信することができる。通信方法として、無線であってもよく、また有線であってもよい。
記憶部32は通信部34が受信した3次元モデル、 3次元形状、画像、テキスト、その他のデータを記憶する。これらのデータは3次元モデル生成装置20の通信部27か、シミュレータ装置40の通信部48が送信し、通信ネットワーク60を経由して受信したデータである。
制御部33は眼鏡型ディスプレイである表示装置30を制御する機能を有する。制御部33は、通信部34が外部とデータを送受信する機能を制御し、通信部34と記憶部32との間でのデータ転送を制御し、記憶部32のデータから表示部31に表示する映像、画像を作成する、などの機能を有する。制御部33は、表示した 3次元モデル、画像、テキスト、などを加工、修正、追加、表示/非表示などを行うユーザインターフェース機能を有する。制御部33は、 3次元モデルの範囲内から注目する3次元領域を設定する機能を有する。
(シミュレータ装置)
図2(c)はシミュレータ装置40の構成例を示す。シミュレータ装置40はシミュレーション部41、構成要素認識部42、素材推定部43、記憶部45、表示部46、制御部47、通信部48を含んで構成される。これらの各部の働きにより、シミュレータ装置40は、 3次元モデル生成装置20から、3次元モデルと3次元モデルの生成に利用した3次元形状と画像を受信し、3次元モデルを構成する要素を抽出し、各要素の素材を推定し、各素材の音波伝播特性データを取得し、その音波伝播特性データを用いて、3次元モデルの音波伝播シミュレーションを実施する。以下、各部の詳細を説明する。
構成要素認識部42は、通信部48が 3次元モデル生成装置20から受信した3次元モデルの構成要素を、3次元モデルの生成に利用した画像と 3次元形状を用いて、抽出する機能を有する。具体的には、先ず、画像の領域抽出手段により画像を構成要素の領域毎にラベル付け(番号づけ)したラベル画像に変換する。例えば、部屋の画像であれば、床、壁、天井、机、ソファーなどの領域を抽出し、領域名を、例えば、床=1、壁=2、天井=3、などのラベル番号に変換したラベル画像を生成する。領域名とラベル番号の対応は記憶部45に記憶される。画像の領域抽出手段としては、一般によく利用されている深層学習ニューラルネットワークのU-NetやSegNet(Semantic Segmentation)、R-CNN (Regions with Convolutional Neural Networks)などを用いることができる。これらの深層学習ニューラルネットワークは、通常の画像を入力画像とし、この画像を構成要素毎に領域分けし、各領域にラベル付けしたラベル画像を教師画像として、事前に機械学習させておくことで、ラベル領域抽出手段として利用することができる。このように事前に機械学習させたニューラルネットワークなどは学習済みニューラルネットワークと呼ばれる。
構成要素認識部42は、次に、画像の構成要素のラベル画像を利用して、3次元モデルの 3次元領域を領域名毎に抽出する。3次元モデルの生成に用いた3次元形状と画像はその位置の対応関係が既知であるので、3次元モデルに貼りつけられた画像の領域抽出ができれば、それを3次元モデルに適用して、 3次元モデルの3次元の領域抽出もできる。このようにして、3次元モデルの構成要素を抽出して、その領域名を取得することができる。
構成要素認識部42は、3次元モデルの 3次元形状を形状認識して、3次元領域を領域名毎に抽出してもよい。形状認識は 2次元の画像認識と原理は同様であり、認識する対象物が3次元となり、それを認識する深層学習AIも 3次元に対応できるように1次元増やした構造となる。一般によく利用される 3次元のニューラルネットワークとして、3D U-Netや3D R-CNNなどがある。これらは教師データを利用して事前に機械学習させておくことで、形状認識を行わせることができる。
素材推定部43は、構成要素認識部42が抽出した構成要素の品名に基づいて、 3次元形状認識や画像認識を行い、構成要素の素材名を推定する。素材名の推定は素材分類器となるニューラルネットワークが行う。 3次元形状認識と画像認識は、ニューラルネットワークを事前に機械学習させることで行う。構成要素の素材名の推定は、構成要素の品名と 3次元形状、または構成要素の品名と画像を入力データとし、その素材名を教師データとして機械学習させて実現してよい。または、構成要素の素材名の推定は、構成要素の品名毎に画像認識または 3次元形状認識のニューラルネットワークを作成し、画像または3次元形状を入力データとし、素材名を教師データとして機械学習させて実現してよい。素材名の推定は、分類器と呼ばれるCNN(Convolutional Neural Network)などで構成された深層学習ニューラルネットワークを利用することができる。
型番推定部44は、構成要素認識部42が抽出した構成要素の品名と素材推定部43が推定した素材名に基づいて、 3次元形状認識や画像認識を行い、構成要素の型番を推定する。構成要素の型番の推定は、構成要素の品名と素材名と形状を入力データとし、型番を教師データとしてニューラルネットワークを機械学習させることで実現してよい。または、構成要素の型番の推定は、構成要素の品名と素材名毎にニューラルネットワークを作成し、 3次元形状認識か画像認識を入力データとし、型番を教師データとして機械学習させて実現してよい。このニューラルネットワークとしては、分類器と呼ばれるCNN( Convolutional Neural Network)などで構成された深層学習ニューラルネットワークを利用することができる。
制御部47は「型番に対応する音波伝播特性データを送信せよ」という要求を通信部48を介してデータベース装置50の制御部53に送信する。制御部53は通信部54経由で受信したその要求に対応して、データベース部51のレコードから素材名に対応する素材の音波伝播特性データを取得し、それを通信部54経由でシミュレータ装置40の通信部48に送信する。制御部47は通信部48が受信した各素材に対応する音波伝播特性データを3次元モデルの構成要素に紐づけて記憶部45に記憶する。
シミュレーション部41は、3次元モデル生成部21が生成した3次元モデルと、素材推定部43が推定した3次元モデルの構成要素と、構成要素に紐づけられて記憶部45に記憶された音波伝播特性データと、を用いて音波伝播シミュレーションを実施する。音波伝播シミュレーションは 3次元空間において音波がどのように伝播するかをシミュレーションするものであり、波動音響学的手法である、有限要素法、境界要素法、時間領域有限差分法などや、幾何音響学的手法である、虚像法、音線法などを用いることができる。本実施例では、時間領域有限差分法(以下、有限差分法と呼ぶ)を用いてインパルス応答特性をシミュレーションする例について説明する。
(データベース装置)
図2(d)はデータベース装置50の一例を示す。データベース装置50は素材の音波伝播特性データのデータベースを有するデータベース部51、記憶部52、制御部53、通信部54を含んで構成される。
データベース部51は、素材に関する音波伝播特性データのデータベースを有する。音波伝播特性データは素材の品名と紐づいて保存されており、例えば、図3のようなテーブル形式で保存されている。データベースは制御部データ53の制御に基づいて、データを追加、修正、保存、削除などを行うことができる。音波伝播特性データのデータベースの詳細については後述する。
記憶部52は、通信部54が受信した内容を一時的に記憶したり、通信部54が送信するデータを、データベース部51から取り出して一時的に記憶したりする機能を有する。
制御部53は、データベース部51、記憶部52、通信部54を統括して制御する機能を有する。制御部53は、通信部54が受信したメッセージに対応して、データベース部51からデータを順次抽出して記憶部52に記憶した後、通信部54経由で送信する。また、通信部54が受信したメッセージに対応して、データベース部51のデータを追加、修正、保存、削除することができる。
(音波伝播特性データのデータベース)
図3はデータベース部51のデータ構造の一例を示す。データベース部51の列には品名51a、素材51b、型番51c、音響インピーダンス51d、密度51e、速度51f、吸収係数51g、周波数51hが記録されている。吸収係数51gは周波数51hに依存して変化するデータである。制御部53は、通信部54が受信した要求に基づいて、品名51aと素材51bと型番51cに対応するデータベース部51の行を検索し、その行の音響インピーダンス51d、密度51e、速度51f、吸収係数51gを抽出し、記憶部52に記憶し、通信部54を介してシミュレータ装置40に送信することができる。制御部53は、通信部54が受信した要求の中に周波数51hが含まれている場合には、品名51aと素材51bと型番51cと周波数51hに対応するデータベース部51の行を検索し、該当するデータを通信部54経由でシミュレータ装置40に送信する。
品名51aは、音波伝播シミュレーションの対象物の構成要素の品名であり、構成要素認識部42が、対象物の各構成要素を認識して、推定する。品名51aは、一例として、車のドアや車のタイヤ、あるいは家の部屋の壁や床などであってよい。素材51bは、品名51aを構成する材料であり、素材推定部43が推定する。素材51bは、一例として、空気、水、鉄、ゴム、ガラス、木、などであってよい。型番51cは製品の型番であり、製造者が付与した番号である。型番が判明することで、製品の詳細を特定することができる。密度51eは素材の密度[kg/m]を表す。吸収係数51gは素材の音波の吸収係数[d B/m]を表す。速度51fは素材を媒質として音波が伝番する場合の音の速度[m/秒]を表す。音響インピーダンス51dは単位として[kg/m]で表され、速度51fと密度51eの掛け算で求められる。これらの音波伝播特性データを用いてシミュレータ装置40のシミュレーション部41は音波伝播シミュレーションを行う。以下に音波伝播シミュレーションの手法の一例を説明する。
[音波伝播シミュレーションの方法]
(波動方程式)
媒質中の音波の伝播は音圧Pに関する次の基本的な波動方程式で表すことができる。
Figure 0007032837000002
ここで、tは時間、C0は音の速度である。∇は
Figure 0007032837000003
( x、y、zは 3次元空間の直交座標)で表される演算子である。音圧Pは、媒質の体積弾性率を K、媒質の体積変化の割合をΔVとすると、 P=―K・ΔVで表される物理量である。音の速度C0はテーブル51の速度51fで与えられるので、式1の未知数は音圧Pだけとなり、音圧Pの時間変化を 3次元空間x、y、zに関連付けて解くことができる。
(差分法)
式1の解法の一つに有限差分法がある。差分法は微分や偏微分を差分に置き換えて数値解析をする方法である。ここでは最もシンプルな差分法を説明するが、差分法には様々な手法があり、テイラー展開をして厳密な差分を定義する方法などもあり、それらを採用してもよい。時間tに関する微分の場合であれば、微小な時間間隔Δtを用いて、 1階偏微分は式2のように、1階差分に変更される。
Figure 0007032837000004
ここで、sは時間間隔Δtの経過回数であり、
Figure 0007032837000005
はΔtがs回経過した時刻における音圧 Pを表している。さらに、2階偏微分は、式2で表した 1階差分を用いて、式3のような差分で表すことができる。
Figure 0007032837000006
差分法は、式1の右辺の空間に関する∇で表される偏微分
Figure 0007032837000007
にも同様に適用でき、式3のΔtをΔx、Δy、Δzに置き換えて差分法を適用することが出来る。このように時間の差分と空間座標の差分を持つ方程式は、時間領域有限差分法、あるいは単に有限差分法とよばれ、従来からよく利用されてきた。
有限差分法を用いる場合、音波伝播シミュレーションの対象となる 3次元空間を微小な直方体ΔxΔyΔzの集合体として捉え、一つの直方体ΔxΔyΔzに一つの格子点を設け、その格子点を 3次元空間に配列して、各格子点の音圧Pの時系列変化を式1に基づいた有限差分法で算出する。この計算で留意すべき事が三つある。一つは媒質による音波の吸収、即ち音圧の減衰であり、二つ目は媒質中を伝播する音波が異なる媒質に当たった場合の反射と透過の処理であり、三つ目はシミュレーション対象となる 3次元モデル領域とその外側との境界条件である。それらについて説明する。
(音圧の減衰)
まず留意すべき一つ目、音波の減衰について解説する。吸収係数αの媒質中を音波が伝播すると、その音圧は式5のように減衰する。
Figure 0007032837000008
ここで、lは音波の伝播距離、P0はある格子点の音圧、PlはP0から距離l離れた位置にある格子点の音圧、eはオイラー数、即ち、自然対数の底を表す。音圧Pはその伝播距離lに対応して式4によって減衰する。このように媒質の吸収係数を設定することで、音波の減衰を算出することができる。
(音圧の反射と透過)
留意すべき二つ目、音波の反射と透過について解説する。図4は音波が異なる媒質に当たった場合の反射と透過を模式的に表した図である。音波73は、空気媒質70の中を縦波で伝播し、 A媒質71に入射し、その境界面で一部が反射して反射波74となり、残りが境界面を透過し、透過波75となって媒質 Aに侵入する。媒質Aへの入射角をθi、反射波74の反射角をθrとすると、θi=θrとなる。媒質Aに侵入した音波75の屈折角をθeとすると、スネルの法則により、音波の空気中での速度Ciと媒質A中での速度Ceの比は同じであり、式5で表される。
Figure 0007032837000009
境界面の左右において、音圧が等しいことと、境界に垂直な粒子速度が等しいことから、空気の音響インピーダンスと媒質 Aの音響インピーダンスをそれぞれZa、Zbとすると、境界面で反射した音圧の反射係数 Rpは式6で、音圧の透過係数Tpは式7で表される。
Figure 0007032837000010
Figure 0007032837000011
透過した音波は、A媒質を伝播し、再び空気媒質に到達するが、この場合にも式6と式7を用いて、反射率と透過率が計算できる。但し、入射角と透過角は、図4のθ eとθtとした。
式5、式6、式7で表された公知の基本的な関係式を用いて、音波が異なる媒質に当たった場合に、その境界面でどのような角度で反射し、どのような角度で透過するか、また、反射率はいくらで透過率はいくらかを算出することができる。
空気媒質中を伝播する入射波と反射波の音圧は、式4に従って空気の吸収係数α 0で減衰し、透過率Tpで媒質Aに入った透過波の音圧もまた式4に従って媒質 Aの吸収係数αaで減衰する。同様に、媒質Aに入った透過波は媒質 Aを伝播し、再び空気媒質との境界面に当たり、反射と透過をするが、各々の媒質の吸収係数に応じて音圧は減衰する。
(シミュレーションの境界条件)
留意すべき三つ目、境界条件について説明する。本実施例では、簡単のために、シミュレーションの対象である 3次元空間とその外側との境界に到達した音波は、全て透過し、反射率はゼロと設定した。但し、その他の境界条件を設定しても同様にシミュレーションできることは言うまでもない。
このように、媒質中を伝播する音波の吸収と、異なる媒質との境界面での音波の反射、透過の挙動と、シミュレーション対象領域の境界条件を設定することで、複雑な 3次元形状の中を伝播する音波をシミュレーションすることができる。
[音波伝播シミュレーションの実施手順]
音波伝播シミュレーションの実施手順を図5に示したフローチャートと、図6に示した音波伝播シミュレーションの対象となる 3次元モデルと、図7に示した音波伝播シミュレーションの結果のビジュアル表示を用いて説明する。
(3次元モデルの生成)
音波伝播シミュレーションの最初の手順は、音波伝播シミュレーションの対象に関して、 3次元モデル生成装置20が備える3Dスキャナ22で 3次元形状を取得し、3次元モデル生成装置20が備えるカメラ23でカラー画像を撮影することである(S01)。本実施例では、音波伝播シミュレーションの対象として、現実世界に存在する、床(不図示)の上に置かれた車(不図示)を選定した。現実の車の外周全体について、3 Dスキャナ22で3次元形状を取得し、カメラ23でカラー画像を撮影する。同様に、現実の床についても、 3次元形状とカラー画像を取得する。また、現実の車と現実の床を同時に収めた3次元形状とカラー画像も取得する。 3次元形状の取得とカラー画像の撮影は同時に行ってよいし、同時に行わなくてもよい。3次元形状の取得とそれに対応するカラー画像の撮影は、同一位置にある 3次元モデル生成装置20から行ってよい。対象物の3次元形状とカラー画像は記憶部24に記憶される。
記憶部に記憶された3次元形状とカラー画像は、制御部26により 3次元モデル生成部21に送られる。3次元モデル生成部21はカラー画像を 3次元形状の表面にマッピングして3次元モデルを生成する(S02)。図6に示すように、現実の車に対応する 3次元モデルの車101と、現実の床に対応する3次元モデルの床102が生成される。この段階ではまだ床や車などの認識はされておらず、単なる 3次元モデルとして生成される。生成された3次元モデルは 3次元モデル生成装置20の通信部27から表示装置30の通信部34へ送信され、表示部31に表示され、 3次元モデルが正常に生成されたかどうかをユーザが確認する(S03)。
3次元モデルが正常でない場合は、 3次元形状とカラー画像の取得(S01)に戻る。正常である場合は、音波伝播シミュレーションの対象となる 3次元モデルが直方体の3次元モデル104となるように、制御部33のユーザインターフェース機能を用いて設定し、音波伝播シミュレーションの対象とする(S04)。
(3次元モデルの構成要素認識)
3次元モデル生成装置20の 3次元モデル生成部21が生成した3次元モデルは、通信部27からシミュレータ装置40の通信部48を経て、構成要素認識部42に送信される。構成要素認識部42は、送られてきた 3次元モデルに対して、画像認識と形状認識を行い、これらを構成する要素を抽出し、その品名を特定する(S05)。具体的には、 3次元モデルの表面のカラー画像を画像認識し、3次元モデルの3次元形状を形状認識して、構成要素の品名をその領域毎に推定する。 3次元モデルの車101は車のドアの領域と、車のタイヤの領域と、車の窓の領域などで構成されていることを認識する。 3次元モデルの床102は床であることを認識する。また、構成要素認識部42は、3次元モデルの車101と 3次元モデルの床102以外の透明領域は3次元モデルの空気103であると認識する。領域毎に構成要素を画像認識する方法として、U-NetやR-CNN、SegNetなどの深層学習ニューラルネットワークを利用することができる。また、領域毎に形状認識する方法は、画像という 2次元データに対応するU-NetやR-CNNなどのニューラルネットワークを、3次元データに対応するように 1次元拡張した3D U-Netや3D-RCNNなどを利用することができる。空気領域の認識も、透明領域は空気であるとラベリングした教師データを機械学習させることで実現できる。
素材推定部43は、3次元モデルの構成要素の素材を推定し、型番推定部44は構成要素の型番を推定する(S06)。具体的には、素材推定部43は、画像認識や形状認識を用いて、 3次元モデルの構成要素が鉄か胴かアルミニウムか、または、木か石か布かなど、素材の名前を推定する。型番推定部44は、画像認識や形状認識を用いて、品名と素材に対応する複数の型番の中から、どれが正解であるかを事前に学習させることで、型番を推定する。品名と素材に対応する型番が 1つしか存在しない場合、型番推定部44は、一義的に型番を選定する。
(3次元モデルの構成要素への音波伝播特性データ付与)
型番を推定した後、制御部47は、通信部48を経由して、その型番に対応する音波伝播特性データがデータベース装置50のデータベース部51にあるかどうかを問い合わせる。
データベース装置50の制御部53は、データベース部51を検索する(S07)。型番51cに該当するデータがあれば全てのデータをシミュレータ装置40の制御部47に送付する。型番51cに該当するデータが無い場合は、該当するデータがない旨を制御部47に送付する。
該当するデータがない旨を受け取った制御部47は、品名と素材が同じであるか、又は近いデータを抽出し、その型番を選定する(S08)。品名と素材が同じであれば、型番が異なっても、音波伝播特性は近いことが予想できる。また、品名と素材が近いデータとは、品名が同じで素材が近いもの、例えば、鉄と胴のように同じ金属という種類に属するデータを意味する。また、品名と素材が近いデータとは、品名は異なるが素材が同じであるデータを意味する。素材が同じであれば、音波伝播特性データも近いことが予想できる。このような基準に基づいて音波伝播特性データを選定するための型番を決定する。
制御部47は、新たに選定した型番のデータがあるかどうかをデータベース部51に問い合わせ、S07に戻る。
制御部47は、型番に対応する全ての音波伝播特性データを受け取った後に、実験に用いる周波数のデータを選定して、 3次元モデルの構成要素に紐づけて(S09)、シミュレータ装置40の記憶部45に記憶する。
3次元モデルを表示装置30の表示部31に表示し、制御部33のユーザインターフェース機能を用いて、所望の位置に音波を発生する仮想音源200(図6)を設置する(S10)。
(音波伝播のシミュレーション実施)
シミュレーション部41は、音波伝播シミュレーションの対象となる直方体の3次元モデル104に、微小な間隔で 3次元に配置された格子点を設定し(不図示)、仮想音源200からインパルス音を発生させて、有限差分法による音波の伝播シミュレーションを開始する(S11)。仮想音源200から発せられたインパルス音は、空気(不図示)の中を減衰しながら伝播し、車101に到達し、一部は反射し、残りは透過する。
(シミュレーション結果の表示)
シミュレーション部41が実施したシミュレーションの結果は、表示装置30の表示部31に送信され、表示される。図7は、仮想音源200から発されたインパルス音が車101に当たり、反射した瞬間の音圧の強度と方向を矢印300で模式的に描いた図である。
ユーザは、表示部31に表示された3次元モデルやシミュレーション結果を、制御部33が有するユーザインターフェース機能を用いて、自由に回転、拡大、縮小などが出来、また 3次元モデルやシミュレーション結果を選択的に表示したり、非表示にしたりできる。
表示部31は、音波の伝播の様子を 3次元モデルと共に表示することで、音波と3次元モデルとの相互作用が分かり易く表示部31に表示することができる。
表示装置30の眼鏡型ディスプレイは、その表示部31を透過型に設定することで、現実の世界を見ながら、シミュレーション結果を見ることができる。表示装置30の装着者は、表示部31に映った 3次元モデルの車101が、現実の車に重畳する位置に移動することで、現実の車で音波が反射される様子を、リアリティを持って観察することができる。
表示装置30の眼鏡型ディスプレイが、現実の対象物から作成された3次元モデルを現実の対象物に自動で重畳して表示する機能を持つことで、眼鏡型ディスプレイの装着者が現実の車を見た時に、 3次元モデルの車101に反射された音波のシミュレーション結果を見ることが出来る。このように、眼鏡型ディスプレイが自動で重畳表示する機能は、 3次元モデルに対応する現実の対象物に関する、緯度経度情報と縦横高さなどの3次元形状情報を付与した後、眼鏡型ディスプレイの緯度経度情報と眼鏡型ディスプレイの装着者が向いている方角と上下角度をリアルタイムで計測して、これらを合わせることで実現されている。
本実施形態では、表示装置30は3次元モデル生成装置20とは別の装置として記載したが、 3次元モデル生成装置20の表示機能を表示装置30の代わりに利用してもよい。
本実施形態では、データベース装置50はシミュレータ装置40とは別の装置として記載したが、データベース装置50の機能をシミュレータ装置40の中に備えてもよい。
本実施形態では、3次元モデル生成装置20はシミュレータ装置40とは別の装置として記載したが、シミュレータ装置40の機能を 3次元モデル生成装置20の中に備えてもよい。
<第2の実施形態>
本願発明の第2の実施形態では、現実の部屋の 3次元モデルを作成し、その中の任意の位置に仮想音源と仮想受音点を配置し、現実の部屋の音響効果をシミュレーションで調査する方法について説明する。
[システム構成]
第1の実施形態と同じとした。
[機能構成]
第1の実施形態と同じとした。
[音波伝播シミュレーションの方法]
第1の実施形態と同じとした。
[音波伝播シミュレーションの実施手順]
図8は部屋の音響効果をシミュレーションで調べる方法を記載したフローチャートである。図9は現実世界の部屋を元にして作成した 3次元モデルの部屋110に、仮想音源201、仮想音源202と仮想受音点301を配置した図である。以下、これらの図を用いて、仮想音源201、仮想音源202から出た音が仮想受音点301でどのように聞こえるかを調べる音波伝播シミュレーションの手順について説明する。
(3次元モデルの生成)
音波伝播シミュレーションの対象として、ソファーが配置され、壁と床と天井で囲まれた現実世界に存在する部屋(不図示)を選んだ。
図8のフローチャートに基づいて手順を説明するが、途中までは、図5のS01~S08と同じ内容なので、図8にS01~S08を記載し、以下でもその記号を利用する。
この部屋の壁と床と家具の3次元形状とカラー画像を、 3次元モデル生成装置20が備える3Dスキャナ22とカメラ23で取得する(S01)。 3次元モデル生成装置20の3次元モデル生成部21により、図9に示す 3次元モデルの部屋110を生成する(S02)。生成された 3次元モデルの部屋110は、床111、壁112、壁113、壁114、ソファー115で構成されている。ただし、図 9では部屋110の内部を見やすくするために、手前の壁と天井は図示していない。3次元モデルの床111、壁112、壁113、壁114、ソファー115は 3次元形状として配置されているだけで、まだ各々の属性は認識されていない。
部屋110を表示装置30の表示部31に表示し、正常に 3次元形状が生成されたかをユーザがチェックする(S03)。正常に生成されていない場合(S03のNo)は、S01に戻る。
(3次元モデルの構成要素認識)
図8のフローチャートS03がYesの場合、 3次元モデルの部屋110は現実空間の部屋の内部を反映した直方体の3次元モデルとして生成されているため、壁や床や天井に相当する部分に厚みを持たない。この 3次元モデルの部屋110を現実の部屋に近づけるために、図9の厚み120に示すように、壁と床と天井に相当する 3次元モデルの外側に厚み120を設定する(S04)。
構成要素認識部42は部屋110の内部に対して、画像認識と形状認識を行い、 3次元モデルの構成要素の品名を認識する(S05)。これにより、画像をマッピングした3次元形状として存在していた部屋110は、床111、壁112、壁113、壁114、ソファー115を品名とする構成要素で構成されていることが認識される。また、空間領域が空気(不図示)であることも認識される。
次に素材推定部43は、事前に学習をさせた深層学習ニューラルネットワークを用いて、品名を利用した画像認識と形状認識を行い、ソファー115の素材が布であるか皮革であるか、壁114の素材が土壁であるかクロスであるかなどを推定し、型番推定部44は、事前に学習させた深層学習ニューラルネットワークを用いて、品名と素材に基づいた画像認識と形状認識を行い、型番を推定する(S06)。これにより、床111、壁112、壁113、壁114、ソファー115の型番が推定される。
(3次元モデルの構成要素への音波伝播特性データ付与)
制御部47は、部屋110の構成要素である床111、壁112、壁113、壁114、ソファー115の型番をデータベース装置50に送り、データベース部51にその音波伝播特性データがあるかを問い合わせる(S07)。該当する音波伝播特性データがあれば、データベース装置50は、該当する全てのデータを制御部47に送り(S07のYes)、無ければデータベース装置は該当する音波伝播特性データはない(S07のNo)、と返答する。該当する音波伝播特性データが無い場合、制御部47は品名と素材が同じか近い素材の型番を検出して、再度該当する音波伝播特性データがデータベース装置にあるかを問い合わせ、データベース装置50に該当するデータを要求する(S08)。
(仮想音源と仮想受音点の設置)
本実施形態では、図9に示すように、 3次元モデルの部屋110に、2個の仮想音源201、202を設置する(S21)。この設置は表示装置30の表示部に表示された 3次元モデルの部屋110に対し、制御33のユーザインターフェースを用いて行う。
次に、仮想受音点301を耳の位置に設定したアバター( 3次元モデルの人)130を部屋110内に配置する(S22)。これにより現実の部屋にいる人(不図示)の耳の位置に対応した位置に仮想受音点301を設置することができる。
アパター301は人の3次元モデルであり、その頭部、顔部、胴体部、足部はそれぞれ髪の毛、肌、服、ズボンの代表的な音響インピーダンスや吸収係数などの音波伝播特性データがあらかじめ紐づけられ、記憶部45に記憶されている。これにより現実世界において人の存在が音響効果に及びス影響を精度よく取り入れることができる。
(周波数毎の音波伝播シミュレーション)
音響効果を調べるためには、幅広い周波数の音波伝播特性データが必要となる。人の可聴域は約20Hz~20KHzで、オーディオのCD規格のサンプリング周波数が44.1KHzであることを考慮し、周波数20Hzから開始して、毎回周波数を2倍にして最後は周波数が40KHzになるまで(12回)、各周波数において音波伝播シミュレーションを行う。最初に、周波数を初期値10KHzに設定し(S23)、次にその周波数を 2倍にする(S24)。周波数を2倍にすることで、周波数20KHzからスタートすることになる。制御部47は、記憶部45に記憶されている、型番に対応する音波伝播特性データの中から、その周波数のデータを選定し、 3次元モデルの構成要素に紐づける(S25)。
データベース部51の中に、幅広い周波数に対する音波伝播特性データがそろっているとは限らない。ある周波数の音波伝播特性データが無い場合には、一般的な周波数特性曲線を、他の周波数の音波伝播特性データに当てはめて、その周波数の音波伝播特性データを推定する。このようにして、各周波数に対応する音波伝播特性データを 3次元モデルの各構成要素に紐づけて記憶部45に記憶する(S25)。この時、構成要素の一つである空気に対しても音波伝播特性データが紐づけられて記憶部45に記憶される(S25)。
(残響減衰曲線と残響時間の算出)
シミュレーション部41は、部屋110の各構成要素の 3次元形状に対して各々の音波伝播特性データを紐づける(S25)。その後、部屋110に微小間隔の格子点を配置して、有限差分法により、仮想音源201と仮想音源202からインパルス音圧を同時に出力し、音圧の伝播をシミュレーションする(S26)。仮想受音点301が受音する音圧を時系列に捉え、時系列音圧変化曲線として記憶する(S27)。この時系列音圧変化曲線に、一般によく用いられるシュレーダ積分法を適用して、残響減衰曲線を算出する(S28)。残響減衰曲線の傾きから残響時間を算出する(S29)。周波数が40KHzに到達したかどうかをチェックし(S30)、到達していればシミュレーションを終了し、到達していなければS24に戻り、周波数を倍に増加してS24からS30のステップを繰り返す。
このようにして、現実の部屋に基づいた音波伝播シミュレーションを行うことができ、その部屋の残響時間を調べることができる。残響時間は室内の音響効果を決める重要な要素であり、これを知ることで室内の音響設計に役立てることができる。
仮想受音点301はアバター130の耳に設置していることから、実際に人が音を聞く位置に仮想受音点301があり、人が感じる室内の音響をシミュレーションすることができ、精度よく音響を調査することができる。
本実施形態では、仮想音源の数を2、仮想受音点301の数を1に設定したが、この数は自由に設定できる。仮想音源の数を増やし、それらを任意の位置に配置することで、室内の音響効果をさらに詳しく調査することができる。
本実施形態では、アバター130の数は 1体としたが、複数にすることができる。これにより現実に複数人や多人数で音楽を聴く場合の音響効果を精度よくシミュレーションすることができる。
<第3の実施形態>
本願発明の第3の実施形態では、第 2の実施形態で算出した残響減衰曲線を用いて、仮想受音点で受音する音波を現実の音として発する方法を、図10のフローチャートに基づいて説明する。
[システム構成]
本実施形態では、第2の実施形態に加えて、表示装置30は更に音出力部(不図示)を有し、シミュレータ装置40の制御部47は更にフーリエ変換部を有する。音出力部は、D/Aコンバータ(デジタル/アナログ変換器)、増幅器、ヘッドフォンで構成されている。
[機能構成]
本実施形態では、第2の実施形態に加えて、表示装置30に音出力部(不図示)を有する。音出力部は音波形を読み込むソフトと、読み込んだデジタル音をアナログ音に変換するD/Aコンバータと、D/Aコンバータで変換されたアナログ出力を増幅する増幅器と、増幅されたアナログ出力を空気振動へ変換するヘッドフォンを有する。
本実施形態では、第2の実施形態に加えて、シミュレータ装置40はフーリエ変換を更に有する。これは、周波数分解に関する機能であり、デジタル音波形に対しては、デジタルフーリエ変換やデジタル逆フーリエ変換、離散フーリエ変換や離散逆フーリエ変換などを計算する。
[音波伝播シミュレーションの方法]
第2の実施形態と同じとした。第2の実施形態の音波伝播シミュレーションで取得した残響減衰曲線を以下で利用する。
[音響効果の評価手順]
(時系列音波形の生成)
ある楽器の音をサンプリング周波数44.1KHz、 16ビット、1チャンネルでデジタル録音した音ファイルを利用して、音波形を時系列に生成する(S31)。時系列に生成された音波形を時間Δtでn個に分割し、時刻t1からtnに分割された音波形を作成する(S32)。ここでΔtは人が可聴できる最も小さい周波数20Hzに対応した0.05秒とする。また、音響効果を重畳した音波形を格納するために、強度0の周波数スペクトルを作成しておく(S33)。
(残響減衰曲線の重畳)
時刻t1からtnに分割された音波形を順次処理するために、時刻tを、初期値t1、終り値tn、増加量Δtでループさせる(S34)。Δtの時間幅を持つ時刻tの音波形を、シミュレータ装置40が有するフーリエ変換部により周波数分解し、周波数スペクトルStを生成する(S35)。周波数スペクトルStは横軸が20Hzから20KHzまでの周波数、縦軸が強度Aで表されたグラフであるが、横軸の周波数を、人が聞こえる最も小さい周波数20Hzの幅で、20KHz/20Hz=1000個に区分けする、つまり、周波数fは周波数幅20Hzを持ち、初期値20Hz、終り値20KHzでループさせる(S36)。時刻tにおける、周波数fの強度AをA(t,f)とし、A(t,f)にインパルス応答シミュレーションで得た残響減衰曲線を乗じて残響減衰曲線A‘(t,f)を算出する(S37)。A‘(t,f)を周波数スペクトルSttに加算する。A(t,f)は時間Δtの幅を持つ時刻tの音のみをフーリエ変換しているが、残響減衰曲線を乗じたA‘(t,f)は、一般には時間Δtの幅には収まらず、その後の時刻に延々と残響する。これらの残響状態を周波数スペクトルSttに次々と加算する(S38)。時刻tにおける全ての周波数のStの処理を終了(S39)すれば、次の時刻tに移行する。音波形を時刻t1からtnまで全て処理すれば(S40)、周波数スペクトルStへ残響減衰曲線を重畳加算して作成したSttの作成は終了する。
(現実の音への変換)
周波数スペクトルSttは時間幅Δt(20Hz)の周波数スペクトルのシリーズで構成されている。Sttの終了時刻をtmとし、時刻tをt1からtmまで時間Δtの幅を増加量として、順次変化させながら(S41)、シミュレータ装置40が有するフーリエ変換部により、Sttを逆フーリエ変換して、音波形を生成する(S42)。時刻tが時刻tmに到達すれば終了する(S43)。tmは残響時間の影響から、tm>tnとなる。
周波数スペクトルSttから生成された音波形は、表示装置30の音出力部が有する音波形読み込みソフト、D/Aコンバータ(デジタル/アナログ変換)、増幅器とヘッドフォンを用いて、現実の音として再生することができる(S44)。
本実施形態では、第2の実施形態で作成した 3次元モデルを元にして取得した残響減衰曲線を利用しており、図9に示した部屋のモデル110の音響効果を実際に聞くことで評価できる。つまり、音源201、202が発する音を、アバター130の位置で実際の音として聴くことができ、楽曲の種類を変えたり、音源の位置を変えたり、受音点の位置を変えながら、現実に音を聞いて、その音響効果を調べることができる。
本実施形態では、残響減衰曲線を利用して残響効果を取り入れたが、残響時間だけを利用して残響効果を算出してもよい。
本実施形態では、ある楽曲の音を録音した音ファイルを利用したが、マイクとA/Dコンバータと録音ソフトを利用して、時系列音波形を生成してもよい。
本実施形態で利用した音ファイルは、WAV/AAC/MP3/OCCなどのフォーマット形式であってよい。
本実施形態では現実に音を発するのにヘッドフォンを用いたが、イヤホンやスピーカなどであってよい。
上記の実施形態では、図やチャートを用いて説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。
本開示は、ユーザが現実世界で起きている音響効果を、携帯端末などの簡易な装置を利用してシミュレーションすることで、視覚的あるいは聴覚的に知ることができる点で有用である。
10 音波伝播シミュレーションシステム
20 3次元モデル生成装置
21 3次元モデル生成部
22 3次元スキャナ
23 カメラ
24 記憶部
25 表示部
26 制御部
27 通信部
30 表示装置
31 表示部
32 記憶部
33 制御部
40 シミュレータ装置
41 シミュレーション部
42 構成要素認識部
43 素材推定部
45 記憶部
46 表示部
47 制御部
48 通信部
50 データベース装置
51 データベース部
51a 品名
51b 素材
51c 型番
51d 音響インピーダンス
51e 密度
51f 速度
51g 吸収係数
51h 周波数
52 記憶部
53 制御部
54 通信部
60 通信ネットワーク
101 3次元モデルの車
102 3次元モデルの床
103 3次元モデルの空気
104 直方体の3次元モデル
110 3次元モデルの部屋
111 3次元モデルの床
112、113、114 3次元モデルの壁
115 3次元モデルのソファー
120 壁の厚み
130 アバター
200、201、202 仮想音源
300 インパルス音圧の強度と方向を模した矢印
301 仮想受音点

Claims (8)

  1. 3次元モデル生成装置と、データベース装置と、構成要素認識部と、素材推定部と、型番推定部と、シミュレータ装置と、を含んで構成される音波伝播シミュレーションシステムであって、
    前記3次元モデル生成装置は、物体をカメラで撮影して取得した画像、又は前記物体を3Dスキャニングして取得した3次元形状及び前記画像、を用いて、前記物体の3次元モデルを生成し、
    前記データベース装置は、前記物体を構成する素材の音波伝播に関連する音波伝播特性データを有し、
    前記構成要素認識部は、前記画像又は前記3次元形状の少なくとも一方、に基づいて、前記3次元モデルを構成する構成要素の領域、及び前記構成要素の品名を認識し、
    前記素材推定部は、前記画像又は前記3次元形状のうち少なくとも一方、及び前記構成要素の品名に基づいて、前記構成要素の素材名を推定し、
    前記型番推定部は、前記構成要素に対応する前記画像又は前記構成要素に対応する前記3次元形状の少なくとも一方、前記構成要素の品名、及び前記構成要素の素材名、に基づいて、前記構成要素の型番を推定し、
    前記シミュレータ装置は、前記構成要素の素材名、及び前記構成要素の型番に関係する前記音波伝播特性データを前記データベース装置から取得し、前記音波伝播特性データを、前記構成要素の領域に紐づけ、
    音波伝播シミュレーションを実施することを特徴とする音波伝播シミュレーションシステム。
  2. 前記構成要素認識部は、品名が既知の構成要素で構成された第2の物体をカメラで撮像して取得した画像、又は前記第2の物体を3Dスキャニングして取得した3次元形状、を入力データとし、
    前記品名が既知の構成要素の領域、及び前記品名が既知の構成要素の品名を教師データとして、機械学習させた学習済みニューラルネットワークを有することを特徴とする
    請求項に記載の音波伝播シミュレーションシステム。
  3. 前記素材推定部は、素材名が既知の構成要素で構成された第3の物体をカメラで撮影して取得した画像、又は前記第3の物体を3Dスキャニングして取得した3次元形状、を入力データとし、
    前記素材名が既知の構成要素の素材名を教師データとして、機械学習させた学習済みニューラルネットワークを有することを特徴とする
    請求項に記載の音波伝播シミュレーションシステム。
  4. 前記音波伝播シミュレーションシステムは、表示部を更に有し、
    前記表示部は、前記シミュレータ装置が実施した前記音波伝播シミュレーションの結果を、前記3次元モデルと共に表示することができ、
    前記音波伝播シミュレーションの結果と前記3次元モデルとの相互作用が分かるように表示することを特徴とする
    請求項1乃至3のいずれか一項に記載の音波伝播シミュレーションシステム。
  5. 前記表示部は眼鏡型ディスプレイであり、前記音波伝播シミュレーションの結果を現実空間に重畳して表示できることを特徴とする
    請求項に記載の音波伝播シミュレーションシステム。
  6. 前記シミュレータ装置は、仮想の音源及び仮想の受音点を任意の位置に、任意の個数設置し、
    前記仮想の音源から音圧を発し、前記仮想の受音点が受音する前記音圧をシミュレーションすることを特徴とする
    請求項1乃至5のいずれか一項に記載の音波伝播シミュレーションシステム。
  7. 前記仮想の音源から複数の周波数の音圧を発し、前記仮想の受音点が受音する前記複数の周波数の音圧をシミュレーションし、
    前記仮想の受音点が受音した前記複数の周波数の音圧を合成して、現実の音として発する装置を更に備えることを特徴とする
    請求項に記載の音波伝播シミュレーションシステム。
  8. 前記シミュレータ装置は、通信ネットワークに接続された無線基地局に設置されたコンピュータに備えられ、
    前記3次元モデル生成装置は、前記無線基地局と通信が可能な携帯端末の中に備えられ、
    前記データベース装置は前記通信ネットワークと通信可能なサーバに備えられることを特徴とする
    請求項1乃至7のいずれか一項に記載の音波伝播シミュレーションシステム。
JP2021101951A 2021-06-18 2021-06-18 音波伝播シミュレーションシステム Active JP7032837B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021101951A JP7032837B1 (ja) 2021-06-18 2021-06-18 音波伝播シミュレーションシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021101951A JP7032837B1 (ja) 2021-06-18 2021-06-18 音波伝播シミュレーションシステム

Publications (2)

Publication Number Publication Date
JP7032837B1 true JP7032837B1 (ja) 2022-03-09
JP2023000885A JP2023000885A (ja) 2023-01-04

Family

ID=81213014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021101951A Active JP7032837B1 (ja) 2021-06-18 2021-06-18 音波伝播シミュレーションシステム

Country Status (1)

Country Link
JP (1) JP7032837B1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019144010A (ja) * 2018-02-16 2019-08-29 パイオニア株式会社 音響情報処理装置及び音響情報処理方法、並びに、表示処理装置
WO2019246164A1 (en) * 2018-06-18 2019-12-26 Magic Leap, Inc. Spatial audio for interactive audio environments
WO2019244315A1 (ja) * 2018-06-21 2019-12-26 株式会社ソニー・インタラクティブエンタテインメント 出力制御装置、出力制御システム、および出力制御方法
JP2021073546A (ja) * 2016-09-30 2021-05-13 株式会社ソニー・インタラクティブエンタテインメント 異なるレンダリング及び音像定位を使用する無線ヘッドマウントディスプレイ
JP2021514081A (ja) * 2018-02-15 2021-06-03 マジック リープ, インコーポレイテッドMagic Leap,Inc. 複合現実仮想反響音

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021073546A (ja) * 2016-09-30 2021-05-13 株式会社ソニー・インタラクティブエンタテインメント 異なるレンダリング及び音像定位を使用する無線ヘッドマウントディスプレイ
JP2021514081A (ja) * 2018-02-15 2021-06-03 マジック リープ, インコーポレイテッドMagic Leap,Inc. 複合現実仮想反響音
JP2019144010A (ja) * 2018-02-16 2019-08-29 パイオニア株式会社 音響情報処理装置及び音響情報処理方法、並びに、表示処理装置
WO2019246164A1 (en) * 2018-06-18 2019-12-26 Magic Leap, Inc. Spatial audio for interactive audio environments
WO2019246159A1 (en) * 2018-06-18 2019-12-26 Magic Leap, Inc. Spatial audio for interactive audio environments
WO2019244315A1 (ja) * 2018-06-21 2019-12-26 株式会社ソニー・インタラクティブエンタテインメント 出力制御装置、出力制御システム、および出力制御方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MAVIC,自動車業界における3Dスキャンと3Dデータの活用,[online],2019年07月31日,https://mavic.ne.jp/automotiveindustry-3dscan-faro/
MAVIC: "自動車業界における3Dスキャンと3Dデータの活用", [ONLINE], JPN7021004564, 31 July 2019 (2019-07-31), ISSN: 0004650982 *

Also Published As

Publication number Publication date
JP2023000885A (ja) 2023-01-04

Similar Documents

Publication Publication Date Title
Schissler et al. Acoustic classification and optimization for multi-modal rendering of real-world scenes
CN109076305A (zh) 增强现实耳机环境渲染
Rindel Modelling in auditorium acoustics. From ripple tank and scale models to computer simulations
Tang et al. Learning acoustic scattering fields for dynamic interactive sound propagation
JP7032837B1 (ja) 音波伝播シミュレーションシステム
US20150124999A1 (en) Methods, systems, and computer readable media for synthesizing sounds using estimated material parameters
WO2023246327A1 (zh) 音频信号处理方法、装置和计算机设备
Ratnarajah et al. Listen2Scene: Interactive material-aware binaural sound propagation for reconstructed 3D scenes
TWI640983B (zh) 室內聲響效應模擬方法
Kurniawan et al. Design and user evaluation of a spatial audio system for blind users
JP5002818B2 (ja) 接触音のリアルタイム生成装置、方法、プログラムおよびプログラムを格納した記録媒体
Colombo Vision-based acoustic information retrieval for interactive sound rendering
Kolar et al. Archaeoacoustics Fieldwork for Aural Heritage Conservation: Collaborative Distributed Sound-Sensing at Chavín de Huántar, Perú
FR2895542A1 (fr) Procede et systeme de generation de donnees d'optimisation acoustique d'une salle, et equipement mis en oeuvre dans ce systeme.
Liu et al. Hearing how you touch: Real-time synthesis of contact sounds for multisensory interaction
Goodwin Modeling Sound in Ancient Maya Cities: Moving Towards a Synesthetic Experience using GIS & 3D Simulation
JP6882785B2 (ja) 空間音響生成装置、空間音響生成システム、空間音響生成方法、および、空間音響生成プログラム
Stevens Strategies for Environmental Sound Measurement, Modelling, and Evaluation
WO2015011471A2 (en) Acoustic spatial sensory aid
Tang et al. Scene-aware sound rendering in virtual and real worlds
Wang et al. SOUNDCAM: a dataset for finding humans using room acoustics
JP2012150278A (ja) 仮想空間のビジュアル変化に対応した音響効果の自動生成システム
WO2024084811A1 (ja) 音響特性解析システム及び音響特性解析方法
Xydis et al. GIR dataset: A geometry and real impulse response dataset for machine learning research in acoustics
Okawa et al. Visualization system of measured and simulated sound intensities with mixed reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210618

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220217

R150 Certificate of patent or registration of utility model

Ref document number: 7032837

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350