JP6071845B2 - A system to reconstruct the scene - Google Patents

A system to reconstruct the scene Download PDF

Info

Publication number
JP6071845B2
JP6071845B2 JP2013229101A JP2013229101A JP6071845B2 JP 6071845 B2 JP6071845 B2 JP 6071845B2 JP 2013229101 A JP2013229101 A JP 2013229101A JP 2013229101 A JP2013229101 A JP 2013229101A JP 6071845 B2 JP6071845 B2 JP 6071845B2
Authority
JP
Japan
Prior art keywords
scene
array
reconstruction
solutions
equations
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013229101A
Other languages
Japanese (ja)
Other versions
JP2014122883A5 (en
JP2014122883A (en
Inventor
ペトロス・ティー・ボウフォウノス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/721,350 external-priority patent/US9239387B2/en
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2014122883A publication Critical patent/JP2014122883A/en
Publication of JP2014122883A5 publication Critical patent/JP2014122883A5/en
Application granted granted Critical
Publication of JP6071845B2 publication Critical patent/JP6071845B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Description

本発明は、シーンを再構成することに関し、より詳細には、トランスデューサーの仮想アレイ(アレー)を用いてシーンを再構成することに関する。   The present invention relates to scene reconstruction, and more particularly to scene reconstruction using a virtual array (array) of transducers.

従来技術による通常の検知システムは、単一周波数(狭帯域)トランスデューサー及び時間遅延推定を用いて、シーン内のロケーションへの距離を求める。多くの場合に、狭帯域パルスは、約40kHzの中心周波数及び1kHz〜2kHzの帯域幅を有し、すなわち、例えば、パルスは、40kHz±1kHzの範囲で動作する。   Conventional sensing systems according to the prior art use a single frequency (narrowband) transducer and time delay estimation to determine the distance to a location in the scene. In many cases, narrowband pulses have a center frequency of about 40 kHz and a bandwidth of 1 kHz to 2 kHz, ie, for example, the pulses operate in the range of 40 kHz ± 1 kHz.

特に、このシステムは、送信パルスと受信パルスとの間の時間遅延を測定する。時間遅延にパルスの速度を乗算して、シーンまでの距離を推定する。   In particular, this system measures the time delay between transmitted and received pulses. Multiply the time delay by the speed of the pulse to estimate the distance to the scene.

更なる情報は、トランスデューサー(送信機及び受信機)のアレイによって得ることができる。トランスデューサーのアレイは、各トランスデューサーから同じ周波数パルスを送信するが、異なるトランスデューサーからのパルス間に適切な時間遅延が伴い、それによって送信全体が本質的にシーン内の特定のロケーションに向かって方向付けられる。これは、ビームステアリングと呼ばれることもある。   Further information can be obtained by an array of transducers (transmitters and receivers). An array of transducers transmits the same frequency pulse from each transducer, but with an appropriate time delay between the pulses from different transducers, so that the entire transmission is essentially directed to a specific location in the scene. Oriented. This is sometimes called beam steering.

様々な方向を走査することによって、アレイは、シーン内の様々なロケーションへの距離を推定することができる。その手法は、医学超音波において用いられる方法に類似している。その手法は、有効なアレイを作製するように多数のトランスデューサー又は様々なトランスデューサーロケーションを必要とする。さらに、その走査手法は、ビームの方向ごとに1つずつ、複数のパルス送信を必要とし、それによって、シーンを十分に再構成することができるまでの時間が増大する。また、アレイは、移動するので、アレイ素子を動かすことによって仮想アレイを形成することは容易でない。   By scanning different directions, the array can estimate distances to different locations in the scene. The approach is similar to that used in medical ultrasound. That approach requires multiple transducers or various transducer locations to create an effective array. Furthermore, the scanning technique requires multiple pulse transmissions, one for each beam direction, thereby increasing the time until the scene can be fully reconstructed. Also, since the array moves, it is not easy to form a virtual array by moving the array elements.

トランスデューサーの仮想アレイを用いてシーンを再構成する方法を提供することが求められている。   There is a need to provide a method for reconstructing a scene using a virtual array of transducers.

シーン上にパルスを送信することによってシーンが再構成される。シーンは、パルスを反射する。反射されたパルスは、トランスデューサーの仮想アレイによって受信される。仮想アレイは、位置決め誤差を受ける1組の構成を有する。   The scene is reconstructed by sending a pulse over the scene. The scene reflects the pulse. The reflected pulse is received by a virtual array of transducers. The virtual array has a set of configurations that are subject to positioning errors.

各受信パルスは、サンプリング及び分解され、シーンの反射率をモデリングする1組の線形システム内にスタックされた周波数係数が生成される。構成ごとに1つの線形システムが存在する。   Each received pulse is sampled and decomposed to produce frequency coefficients stacked in a set of linear systems that model the reflectivity of the scene. There is one linear system per configuration.

上記1組の線形システムに再構成方法が適用される。再構成方法は、各線形システムを別個に解いて対応する解を得る。これらの対応する解は、解く間の情報を共有する。次に、これらの解は、結合されてシーンが再構成される。   The reconstruction method is applied to the set of linear systems. The reconstruction method solves each linear system separately to obtain a corresponding solution. These corresponding solutions share information during the solution. These solutions are then combined to reconstruct the scene.

本発明の実施形態は、広帯域超音波パルスを送受信する僅かな数のトランスデューサーを用いる。各トランスデューサーは、異なる幅の周波数成分を有する或る周波数で一意のパルスを放出する。各パルスは、一意であるので、受信機において容易に識別することができ、これによってシステムが、対応する送信機からのシーン内の様々な物体の距離を推定することが可能になる。パルスの広帯域幅は、以下の目的を果たす。各送信機からのパルスは、他の送信機に対し一意である。より多くの周波数を用いることにより、ダイバーシティがもたらされるので、用いるトランスデューサーの数を少なくすることができる。   Embodiments of the present invention use a small number of transducers that transmit and receive broadband ultrasound pulses. Each transducer emits a unique pulse at a frequency with a frequency component of a different width. Since each pulse is unique, it can be easily identified at the receiver, which allows the system to estimate the distance of various objects in the scene from the corresponding transmitter. The wide bandwidth of the pulse serves the following purposes: The pulses from each transmitter are unique to the other transmitters. By using more frequencies, diversity is provided and fewer transducers can be used.

本発明の実施形態による、シーンを再構成するトランスデューサーの仮想アレイの概略図である。FIG. 4 is a schematic diagram of a virtual array of transducers that reconstruct a scene, in accordance with an embodiment of the present invention. 本発明の実施形態による、シーンを再構成する方法のブロック図である。FIG. 4 is a block diagram of a method for reconstructing a scene according to an embodiment of the present invention. 本発明の実施形態による、共同再構成方法のブロック図である。FIG. 4 is a block diagram of a joint reconfiguration method according to an embodiment of the present invention.

ここで、明細書内の実施形態の中で言及する関連出願とは、2010年9月30日にBoufounosによって出願された米国特許出願第12/895,408号(米国特許出願公開第2012/0082004号)「Method and System for Sensing Objects in a Scene Using Transducer Arrays and Coherent Wideband Ultrasound Pulses」のことである。また、この米国特許出願第12/895,408号は、引用により本明細書の一部をなす。この関連出願は、高帯域超音波パルスを用いてシーン内の物体を検出する。この関連出願は、信号取得中に同じ原理を用いるが、異なる再構成手法を用い、この手法は、トランスデューサー相対位置が十分な精度で知られていると仮定している。   Here, the related application referred to in the embodiments in the specification refers to US Patent Application No. 12 / 895,408 filed by Boufounos on September 30, 2010 (US Patent Application Publication No. 2012/0082004). No.) “Method and System for Sensing Objects in a Scene Using Transducer Arrays and Coherent Wideband Ultrapulses”. This US patent application Ser. No. 12 / 895,408 is also incorporated herein by reference. This related application uses high-bandwidth ultrasonic pulses to detect objects in the scene. This related application uses the same principle during signal acquisition, but uses a different reconstruction technique, which assumes that the relative position of the transducer is known with sufficient accuracy.

トランスデューサーの仮想アレイを用いたシーン再構成
図1に示すように、本発明の好ましい実施形態は、トランスデューサー120の仮想アレイ100を用いて、シーンx110を、x(バー)330として再構成する。再構成によって、シーン内の物体111を検出することができる。
Scene Reconstruction Using a Virtual Array of Transducers As shown in FIG. 1, the preferred embodiment of the present invention reconstructs a scene x110 as x (bar) 330 using a virtual array 100 of transducers 120. . The object 111 in the scene can be detected by reconstruction.

各トランスデューサーは、それぞれ、パルスを送信する送信機(S)121と、反射を受信する受信機(R)122とを備える。1つの実施形態では、パルスは、広帯域超音波を用いることができるが、他のシグナリングモダリティ(modality)及び周波数、例えば、光パルス及び無線パルスも可能である。送信機及び受信機は、別々の物理デバイスとすることもできるし、パルスの送信機又は受信機のいずれとしても動作するトランスデューサーとすることもできる。後者の場合、トランスデューサーは、パルスを同時に送信し、次にモードを切り替えてパルスを受信する。   Each transducer includes a transmitter (S) 121 that transmits a pulse and a receiver (R) 122 that receives a reflection. In one embodiment, the pulses can use broadband ultrasound, but other signaling modalities and frequencies, such as light pulses and radio pulses, are possible. The transmitter and receiver can be separate physical devices, or can be transducers that act as either pulse transmitters or receivers. In the latter case, the transducer transmits pulses simultaneously and then switches modes to receive pulses.

1つの構成では、トランスデューサーは、第1の次元に線形に配列され、第2の次元に沿って第1の次元に対し横方向に移動して、(1つ又は複数の)構成の組を有する2D仮想アレイを形成する。トランスデューサーは、個々にアクティベートすることができるので、他の構成(Q)及び3Dアレイも可能である。さらに、アレイは、規則的にすることも不規則にすることもできる。   In one configuration, the transducers are arranged linearly in the first dimension and move laterally relative to the first dimension along the second dimension to form a set of configuration (s). A 2D virtual array is formed. Since the transducers can be activated individually, other configurations (Q) and 3D arrays are possible. Furthermore, the array can be regular or irregular.

再構成方法
図2は、本発明の実施形態による、シーンを再構成する方法を示している。各トランスデューサーによって送信されるパルスは、ナイキストレート、すなわちパルスの帯域幅の2倍における、対応するサンプリング周期(T)での離散時間サンプルによって表すことができる。これは、デジタルパルス生成及び受信パルスの処理210にも有用である。パルス発生器205は、受信パルスの処理に有用なパルス情報206も提供する。
Reconstruction Method FIG. 2 illustrates a method for reconstructing a scene according to an embodiment of the present invention. The pulses transmitted by each transducer can be represented by Nyquist rates, ie, discrete time samples at the corresponding sampling period (T) at twice the pulse bandwidth. This is also useful for digital pulse generation and received pulse processing 210. The pulse generator 205 also provides pulse information 206 useful for processing received pulses.

受信パルスは、サンプリングされ、デジタル化され、アレイにスタックされ、次に線形システム211として処理される。線形システムを形成する手順は、関連出願において記載されたとおりである。次に、再構成方法が線形システム211に適用され(300)、再構成されたシーンx(バー)330が生成される。本方法は、図3を参照して以下でより詳細に説明される。本方法は、当該技術分野において既知のメモリ及び入出力インターフェースに接続されたプロセッサ200において実行することができる。   Received pulses are sampled, digitized, stacked in an array, and then processed as a linear system 211. The procedure for forming the linear system is as described in the related application. Next, the reconstruction method is applied to the linear system 211 (300) to generate a reconstructed scene x (bar) 330. The method is described in more detail below with reference to FIG. The method may be performed in a processor 200 connected to memory and input / output interfaces known in the art.

問題の定式化
組Q内の各構成q(ただし、q=1,...,Q)は、S個の送信機及びR個の受信機を含む。各送信機は、パルスpsq(t)(q=1,...,Q、s=1,...,Sq)を送出し、これは、周波数領域においてPsq(Ω)によって表される。
Problem Formulation Each configuration q in set Q (where q = 1,..., Q) includes S q transmitters and R q receivers. Each transmitter emits a pulse p sq (t) (q = 1,..., Q, s = 1,..., Sq), which is represented by P sq (Ω) in the frequency domain. The

反射パルスは、各受信機において信号yrq(t)(q=1,...,Q、r=1,...,R)として受信される。これは、周波数領域においてYrq(Ω)と表される。 The reflected pulses are received as signals y rq (t) (q = 1,..., Q, r = 1,..., R q ) at each receiver. This is expressed as Y rq (Ω) in the frequency domain.

特定の時点において、シーンは、静的であるとみなすことができ、サイズNに離散化される。シーンは、2次元(2D)又は3次元(3D)とすることができる。シーンを離散化することは、シーン内のN個のロケーションのグリッドが形成されること、例えば2Dシーンの場合、N=N×N、又は3Dシーンの場合、N=N×N×Nであることを意味する。シーン内の各離散ロケーションnにおけるパルスは、そのロケーションnの反射率xに従って反射される。シーン全体の反射率は、 At a particular point in time, the scene can be considered static and is discretized to size N. The scene can be two-dimensional (2D) or three-dimensional (3D). Discretizing the scene, the N number of locations in the grid in the scene is formed, for example, in the case of 2D scene, N = N x × N y, or in the case of a 3D scene, N = N x × N y XN z Pulse at each discrete location n in the scene will be reflected according to the reflection factor x n of the location n. The reflectivity of the entire scene is

Figure 0006071845
Figure 0006071845

を用いて表される。   It is expressed using

シーン内の全てのロケーションnは、シーンロケーションnから反射されるときの、アレイインスタンスqの送信機sから受信機rへのパルスの経路における総距離dnsrqに対して、アレイインスタンスqの送信機sから距離dnsq及びアレイインスタンスqの受信機rから距離dnrqにある。 All the locations n in the scene are transmitted from the array instance q with respect to the total distance d nsrq in the path of the pulse from the transmitter s of the array instance q to the receiver r when reflected from the scene location n. s from the receiver r distance d NSQ and array instances q at a distance d NRQ from.

特定のモダリティの場合の各パルスの速度、例えば超音波検知の場合の音波速度、又は無線検知若しくは光検知の場合の光の速度は、cである。アレイインスタンスqの送信機sから受信機rへの、シーンロケーションnによって反射されたパルスの総遅延は、τnsrq=dnsrq/cである。 The speed of each pulse in the case of a specific modality, for example, the speed of sound in the case of ultrasonic detection, or the speed of light in the case of wireless detection or light detection is c. The total delay of the pulses reflected by scene location n from transmitter s to receiver r of array instance q is τ nsrq = d nsrq / c.

シーン反射率xを所与とすると、アレイインスタンスqの受信信号rは、   Given a scene reflectivity x, the received signal r of the array instance q is

Figure 0006071845
Figure 0006071845

であり、これは線形伝達関数である。周波数Ωにおいて離散化することによって、すなわちF個の離散周波数ロケーション{Ω,...,Ω}において評価することによって、アレイインスタンスqの線形伝達関数は、アレイインスタンスqごとに行列式又は線形システムY=Axとして表すことができる。 This is a linear transfer function. By discretizing at the frequency Ω, ie F discrete frequency locations {Ω 1 ,. . . , Ω F }, the linear transfer function of array instance q can be expressed as a determinant or linear system Y q = A q x for each array instance q.

関連出願において記載されているように、シーンの再構成は、r=Axの形式の線形システムを用いる。ここでは、rの代わりにYを用いて、受信パルスに従ってシーン内の反射率の周波数係数のベクトルを表し、Aは送信演算子を表し、xはシーン(の反射率)を表す。復元方法300は、xに対するAの作用を取り消し、このため、係数Yの測定値から、x(バー)で表されるxの推定値を再構成する。これ以降、バー(例えば、x(バー)又はx(バー))を用いて、推定値である再構成されたシーンを表し、バーなし(例えば、x)を用いて、データを生成する実際のシーンを表す。 As described in the related application, scene reconstruction uses a linear system of the form r = Ax. Here, Y is used instead of r to represent a vector of reflectance frequency coefficients in the scene according to the received pulse, A represents the transmission operator, and x represents the scene (the reflectance). The restoration method 300 cancels the effect of A on x, and thus reconstructs an estimate of x represented by x (bar) from the measured value of the coefficient Y. From now on, the bar (eg, x (bar) or x (bar) q ) is used to represent the reconstructed scene that is an estimate, and the actual generation of data using no bar (eg, x) Represents the scene.

移動可能なトランスデューサーが本発明の実施形態による仮想アレイと同様に用いられるとき、トランスデューサーは、経時的にQ個のアレイインスタンス(異なる位置)のシーンのスナップショットを検知して取得し、線形システムは、Y=AXとなる。ここで、Yはq番目の位置における受信パルスを表し、Aは、q番目の位置におけるトランスデューサーのジオメトリ及びシーンによって導出されるような送信演算子である。このため、以下の1組の線形システムが存在する。 When a movable transducer is used in the same way as a virtual array according to an embodiment of the present invention, the transducer senses and obtains a snapshot of the scene of Q array instances (different locations) over time, linearly The system is Y q = A q X. Where Y q represents the received pulse at the q th position and A q is the transmit operator as derived by the geometry and scene of the transducer at the q th position. For this reason, there is a set of linear systems:

Figure 0006071845
Figure 0006071845

関連出願は、シーンxのスパース性を利用し、圧縮センシングを用いてシステムを反転する。本出願では、アレイ位置は、アレイインスタンスと呼ばれる。   A related application takes advantage of the sparsity of scene x and inverts the system using compressed sensing. In this application, array locations are referred to as array instances.

「インタンス」という用語は、例えば、アレイが経時的に様々な位置を有することができ、任意の特定の位置において様々なトランスデューサーが任意の時間インスタンスでアクティブとなることができる、より一般的な1組のアレイ構成を包含するように用いられる。   The term “instance” is more general, for example, where an array can have various positions over time, and various transducers can be active at any time instance at any particular position. Used to encompass a set of array configurations.

関連出願「Method and System for Sensing Objects in a Scene Using Transducer Arrays and Coherent Wideband Ultrasound Pulses」において取られる手法に伴う課題のうちの1つは、パラメーターの精度の影響を受けやすいことである。特に、上記の定式化は、全てのアレイ素子(送信機及び受信機)の相対的位置が位置決め誤差を受けず、十分に正確であると仮定する。これが必要とされる理由は、再構成が全てのアレイインスタンスにおける全ての信号のコヒーレントな捕捉に依拠するためである。位置決め誤差は、このコヒーレンシの仮定に反し、再構成の精度を低下させる。   One of the challenges associated with the approach taken in the accuracy of parameters is one that is subject to the accuracy of the parameters taken in the related application “Method and System for Sensing Objects in a Scene Using Transducer Arrays and Coherent Wideband Ultrapulses”. In particular, the above formulation assumes that the relative positions of all array elements (transmitter and receiver) are not subject to positioning errors and are sufficiently accurate. This is necessary because reconstruction relies on coherent capture of all signals in all array instances. Positioning errors violate this coherency assumption and reduce the accuracy of reconstruction.

不都合なことに、特に、プラットフォームの動きを用いて位置決めを達成する仮想アレイ(例えばプラットフォームが自動車、船舶、飛行機、又は衛星に取り付けられている)の場合に、十分な精度で全ての構成におけるアレイ素子の正確な相対的位置決めを知ることが多くの場合に可能でない。通常、アレイ素子の位置は、送信信号の半波長の僅かな部分まで正確であることが望ましい。例えば、50kHzの中心周波数付近で動作する無線超音波アレイでは、波長λは、7mmである。したがって、トランスデューサーの位置は、例えば約3.5mmの僅かな部分の範囲内で知られているべきである。多くの場合に、そのような移動するプラットフォームの動きを取得することは不可能であり、したがって、アレイ位置は、位置決め誤差を受け、精度が不十分である。本発明による再構成方法は、これらの誤差にも関わらずこの問題を解決する。   Unfortunately, the array in all configurations with sufficient accuracy, especially in the case of virtual arrays that use platform movement to achieve positioning (eg, the platform is attached to a car, ship, airplane, or satellite) It is often not possible to know the exact relative positioning of the elements. Usually, it is desirable that the position of the array element is accurate up to a small part of the half wavelength of the transmission signal. For example, in a wireless ultrasonic array operating near the center frequency of 50 kHz, the wavelength λ is 7 mm. Thus, the position of the transducer should be known within a small portion, for example about 3.5 mm. In many cases, it is impossible to obtain such moving platform motion, and therefore the array position is subject to positioning errors and is not sufficiently accurate. The reconstruction method according to the invention solves this problem despite these errors.

本出願では、アレイのQ個の構成のそれぞれを、別個に解かれるべき問題として考察し、各解に関する各情報は、他の解と共有される。「共有」は、表記上の目的で用いられるが、以下で説明するように、共通サポートを求めることを可能にする。別個の問題が存在するが、単一のプロセスによって、1つの包括的な解においてQ個全ての解を求めることができ、共有は、プロセス内でのみ行われる。換言すれば、複数のプロセスを用いる必要はない。目標は、全ての再構成されたシーンx(バー)が共同スパース性パターンを共有することを強制することである。 In this application, each of the Q configurations of the array is considered as a problem to be solved separately, and each piece of information about each solution is shared with other solutions. “Shared” is used for notational purposes, but allows common support to be sought, as described below. Although there is a separate problem, a single process can find all Q solutions in one comprehensive solution, and sharing is done only within the process. In other words, it is not necessary to use a plurality of processes. The goal is to force all reconstructed scenes x (bars) q to share a joint sparsity pattern.

各問題を別個に処理することによって、モデルは、Q個の構成のそれぞれの中でのデータのコヒーレンシを維持するために、幾つかの他の素子に対するアレイ素子の正確な位置しか必要としない。例えば、第2の(時間)次元におけるトランスデューサー間の距離の正確度に誤差が生じていても、第1の次元におけるトランスデューサー間の距離が正確であれば十分である。   By processing each problem separately, the model only requires the exact location of the array elements relative to some other elements to maintain data coherency in each of the Q configurations. For example, even if there is an error in the accuracy of the distance between the transducers in the second (time) dimension, it is sufficient that the distance between the transducers in the first dimension is accurate.

特に、上記の単一の線形システムを用いて単一のx(バー)を再構成する代わりに、本方法は、(1)の各インスタンスから1つずつ、Q個のベクトルx(バー)を再構成する。換言すれば、Q個の伝達方程式がxのそれぞれ1つを反転する。
=A ,q=1,...,Q
In particular, instead of reconstructing a single x (bar) using the single linear system described above, the method uses Q vectors x (bar) q , one from each instance of (1). Reconfigure. In other words, Q transfer equations invert each one of x q .
Y q = A q X q , q = 1,. . . , Q

しかしながら、構成インスタンスqごとに別個に線形システムを単に反転するだけでは不十分である。そのタイプの反転は、インスタンス間のコヒーレンスを必要としないが、インスタンスの解間で一切情報の共有も行わないため、準最適解が導かれる。   However, it is not sufficient to simply invert the linear system separately for each configuration instance q. That type of inversion does not require coherence between instances, but does not share any information between the solutions of instances, leading to a sub-optimal solution.

代わりに、本発明の実施形態による方法は、シーンが本質的に全てのアレイインスタンスについて同じであるという知識を利用する。特に、本方法は、シーンのスパース性パターンが全てのインスタンスについて同じである、すなわち、x(バー)が全てのq=1,...,Qについて同じロケーションにおいて非ゼロを有することを利用する。換言すれば、全ての再構成されたシーンx(バー)は、共同スパース性パターンを共有する。これは、非ゼロロケーションが全てのx(バー)において同じであることを意味する。 Instead, the method according to embodiments of the present invention utilizes the knowledge that a scene is essentially the same for all array instances. In particular, the method has the same sparseness pattern of the scene for all instances, i.e., x (bar) q is all q = 1,. . . , Q have the non-zero at the same location. In other words, all reconstructed scenes x (bars) q share a joint sparsity pattern. This means that the non-zero location is the same for all x (bars) q .

図3は、それぞれがアレイ構成qに対応する3つの異なる位置におけるアレイ100について圧縮センシング(CS)再構成方法300をより詳細に示している。CS再構成中、各構成は、他の構成からの再構成と同じロケーションにおいて非ゼロであるシーン再構成を生成する(310)。次に、全ての構成からの再構成を結合し(320)、再構成されたシーン330を生成する。   FIG. 3 illustrates in more detail the compressed sensing (CS) reconstruction method 300 for the array 100 at three different locations, each corresponding to the array configuration q. During CS reconstruction, each configuration generates a scene reconstruction that is non-zero at the same location as reconstructions from other configurations (310). Next, the reconstructions from all configurations are combined (320) to generate a reconstructed scene 330.

各再構成プロセス310は、他の再構成プロセスと情報311を共有し、出力におけるサポートが共通であることを確実にする。概念上、Q個の構成からの再構成は、別個であると考えることができる。しかしながら、実際には、本方法は、各個々のシーンのQ倍の大きさの拡大されたシーンの再構成問題を解く。   Each reconfiguration process 310 shares information 311 with other reconfiguration processes to ensure that support at the output is common. Conceptually, the reconstruction from Q configurations can be considered separate. In practice, however, the method solves an enlarged scene reconstruction problem that is Q times as large as each individual scene.

共同スパース性パターンを求めるために、限定ではないが、貪欲スパース復元、マッチング追跡(MP)、直交マッチング追跡(OMP)、反復ハードしきい値処理(IHT)、圧縮サンプリングマッチング追跡(CoSaMP)等の、複数のプロセスを用いることができる。シーンのモデルが知られている場合、モデルベースの圧縮センシング再構成方法を用いることができる。共通の態様として、再構成は、n個の構成のそれぞれの総エネルギーeを以下のように求める。   To determine the joint sparsity pattern, such as, but not limited to, greedy sparse restoration, matching tracking (MP), orthogonal matching tracking (OMP), iterative hard thresholding (IHT), compressed sampling matching tracking (CoSaMP), etc. Multiple processes can be used. If the scene model is known, a model-based compressed sensing reconstruction method can be used. As a common aspect, the reconstruction determines the total energy e of each of the n configurations as follows.

Figure 0006071845
Figure 0006071845

ここで、eはエネルギーベクトルeのn番目の要素を表す。再構成は、エネルギーベクトルeがスパースのままであることを確実にしながら、 Here, e n denotes the n-th element of the energy vector e. The reconstruction ensures that the energy vector e q remains sparse,

Figure 0006071845
Figure 0006071845

となるようなx(バー)を求める。 Find x (bar) q such that

例えば、モデルベースのCoSaMP又はIHTを用いることができ、或る予め定義されたスパース性レベルKについて   For example, model-based CoSaMP or IHT can be used and for some predefined sparsity level K

Figure 0006071845
Figure 0006071845

を最適化する。代替的に、以下の凸最適化方法   To optimize. Alternatively, the following convex optimization method

Figure 0006071845
Figure 0006071845

若しくは   Or

Figure 0006071845
Figure 0006071845

等の変形、又は任意の他の共同スパース性定式化若しくはプロセスを用いることができる。最適化によって、アレイ構成qごとに解x(バー)が得られる。 Etc., or any other joint sparsity formulation or process can be used. Optimization provides a solution x (bar) q for each array configuration q.

次に、融合手順又は統合手順を用いて解を結合して単一の解330にする。例えば、平均化によって以下を求め、   The solutions are then combined into a single solution 330 using a fusion or integration procedure. For example, the following is obtained by averaging:

Figure 0006071845
Figure 0006071845

大きさ平均化によって以下を求め、   Find the following by size averaging:

Figure 0006071845
Figure 0006071845

二乗平均平方根(RMS)結合によって以下を求める。   The following is determined by root mean square (RMS) coupling:

Figure 0006071845
Figure 0006071845

これはeと同一である。   This is the same as e.

個々の解も、共通サポートを特定することによって結合することができる。   Individual solutions can also be combined by specifying common support.

Figure 0006071845
Figure 0006071845

上記の結合方法は、x(バー)の値に関して、それらの値が非ゼロであること以外のいかなる情報も削除する。換言すれば、結合は、信号の共通サポートのみを特定する。削除される情報が重要であるか否かは、用途に依拠する。例えば、物体検出用途は、多くの場合に物体のロケーション、すなわちx(バー)のサポートのみを必要とし、実際の値を必要としない。   The above combining method deletes any information about the value of x (bar) except that those values are non-zero. In other words, the combination specifies only common support for signals. Whether the information to be deleted is important depends on the application. For example, object detection applications often only require support for the location of the object, i.e., x (bar), and not the actual value.

本発明の実施形態による共同スパース性再構成は、各アレイ構成内の相対的な位置決めが十分に推定されるが、必ずしも全てのアレイ構成について推定されるわけではないと仮定する。アレイインスタンスのグループの位置決めを精密に推定することができる場合、アレイインスタンスのグループを結合することができ、グループごとに別個の解が解かれ、インスタンス解ごとではなく、全てのグループ解について共同スパース性が強制される。そのようなグループ化は、再構成の精密な位置決めの知識を利用する、すなわちデータのコヒーレンスを利用するので、再構成性能を改善する。   The joint sparsity reconstruction according to embodiments of the present invention assumes that the relative positioning within each array configuration is well estimated, but not necessarily for all array configurations. If the positioning of a group of array instances can be accurately estimated, the groups of array instances can be combined and a separate solution is solved for each group, and the joint sparse for all group solutions, not for each instance solution Sex is forced. Such grouping improves the reconstruction performance because it utilizes the precise positioning knowledge of the reconstruction, i.e. it utilizes the coherence of the data.

用途
関連出願において記載されているように、本方法は、車両検知用途における運転者の支援、ロボット用途、衛星用途及びセキュリティ用途に用いることができる。
Applications As described in the related application, the method can be used for driver assistance in vehicle detection applications, robotic applications, satellite applications and security applications.

Claims (12)

シーンを再構成するシステムであって、
前記シーンにパルスを送信し、前記シーンによって反射されたパルスを受信するように構成されたトランスデューサーのアレイであって、前記アレイは、位置決め誤差を受ける1組の構成を有する、アレイと、
前記シーンの反射率をモデリングする方程式の1組の線形システム内にスタックされた周波数係数を生成するために、各受信パルスをサンプリングするとともに分解する、トランスデューサーの前記アレイに接続されたプロセッサであって、前記構成ごとに方程式の1つの線形システムが存在する、プロセッサと、
対応する解を得るために方程式の各線形システムを別個に解くことであって、前記対応する解は、前記再構成中の前記解のそれぞれのサポートである情報を共有する、解くことと、
前記シーンを再構成するために前記解を結合することであって、前記結合することは、前記解の平均を得る、結合することと、によって、
方程式の前記1組の線形システムに再構成方法を適用することと、
を備えるシーンを再構成するシステム。
A system for reconstructing a scene,
Sends said pulse to the scene, an array of the configured transformer inducer to receive pulses reflected by the scene, said array comprises a set of configuration for receiving the positioning error, an array,
A processor connected to the array of transducers that samples and decomposes each received pulse to generate frequency coefficients stacked in a set of linear systems of equations modeling the reflectivity of the scene. A processor in which there is one linear system of equations for each configuration;
Solving each linear system of equations separately to obtain a corresponding solution, wherein the corresponding solution shares information that is support for each of the solutions during the reconstruction ;
Combining the solutions to reconstruct the scene, the combining obtaining an average of the solutions, and combining
Applying a reconstruction method to the set of linear systems of equations;
A system to reconstruct a scene with
前記サポートは、前記再構成中の前記解間で共通である、
請求項に記載のシステム。
The support is common between the solutions during the reconfiguration,
The system of claim 1 .
前記サポートは、前記再構成中の全ての解について同一であるように強制される、
請求項に記載のシステム。
The support is forced to be the same for all solutions during the reconfiguration,
The system of claim 1 .
前記再構成中に共同スパース性モデルが用いられる、
請求項1に記載のシステム。
A joint sparsity model is used during the reconstruction,
The system of claim 1.
前記再構成中に凸最適化が用いられる、
請求項に記載のシステム。
Convex optimization is used during the reconstruction,
The system according to claim 4 .
前記再構成中に貪欲法が用いられる、
請求項に記載のシステム。
Greedy method is used during the reconstruction,
The system according to claim 4 .
前記再構成中に前記シーンのモデルが強制される、
請求項1に記載のシステム。
The scene model is forced during the reconstruction,
The system of claim 1.
前記平均は、前記解の係数の平均の大きさである、
請求項1に記載のシステム。
The average is the average size of the coefficients of the solution.
The system of claim 1.
前記平均は、前記解の係数の大きさの二乗の平均である、
請求項1に記載のシステム。
The average is an average of the squares of the magnitudes of the coefficients of the solution.
The system of claim 1.
前記結合は、前記平均の二乗根をとる、
請求項に記載のシステム。
The combination takes the square root of the mean,
The system according to claim 9 .
前記結合は、前記解の共通サポートを求める、
請求項1に記載のシステム。
The combination seeks common support for the solution;
The system of claim 1.
方程式の前記線形システムを統合することを更に含む、
請求項1に記載のシステム。
Further comprising integrating the linear system of equations;
The system of claim 1.
JP2013229101A 2012-12-20 2013-11-05 A system to reconstruct the scene Active JP6071845B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/721,350 2012-12-20
US13/721,350 US9239387B2 (en) 2010-09-30 2012-12-20 Method and system for reconstructing scenes using virtual arrays of transducers and joint sparsity models

Publications (3)

Publication Number Publication Date
JP2014122883A JP2014122883A (en) 2014-07-03
JP2014122883A5 JP2014122883A5 (en) 2016-08-18
JP6071845B2 true JP6071845B2 (en) 2017-02-01

Family

ID=51403472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013229101A Active JP6071845B2 (en) 2012-12-20 2013-11-05 A system to reconstruct the scene

Country Status (1)

Country Link
JP (1) JP6071845B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016067253A1 (en) 2014-10-30 2016-05-06 Koninklijke Philips N.V. Compressive sensing in forming ultrasound images
JP6977470B2 (en) * 2017-10-19 2021-12-08 株式会社デンソー Decoding device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04204076A (en) * 1990-11-30 1992-07-24 Hitachi Ltd Method for detecting position of object
JP3576532B2 (en) * 2002-01-30 2004-10-13 三菱重工業株式会社 Underwater acoustic exploration method and underwater acoustic exploration system
KR101089745B1 (en) * 2009-12-14 2011-12-07 삼성메디슨 주식회사 Ultrasonograph 3-dimensional image reconstruction method and ultrasonograph sysetem thereof
US8204718B2 (en) * 2009-12-29 2012-06-19 Mitsubishi Electric Research Laboratories, Inc. Method for reconstructing sparse streaming signals using greedy search
US8400876B2 (en) * 2010-09-30 2013-03-19 Mitsubishi Electric Research Laboratories, Inc. Method and system for sensing objects in a scene using transducer arrays and coherent wideband ultrasound pulses
EP2503349A1 (en) * 2011-03-24 2012-09-26 Koninklijke Philips Electronics N.V. MR image reconstruction using prior information-constrained regularization

Also Published As

Publication number Publication date
JP2014122883A (en) 2014-07-03

Similar Documents

Publication Publication Date Title
US9239387B2 (en) Method and system for reconstructing scenes using virtual arrays of transducers and joint sparsity models
JP6071841B2 (en) System for reconstructing a scene using an array of transmitters and receivers
JP5815318B2 (en) Method and system for scene detection
JP6072262B2 (en) How to generate an image
JP5950835B2 (en) System for reconstructing reflectors in the scene
US9533873B2 (en) CMOS ultrasonic transducers and related apparatus and methods
CN109283536A (en) A kind of multibeam echosounding sonar water body imaging beam formation algorithm
JP2017021013A5 (en)
CN101551452B (en) Compensating method with associated movement of synthetic aperture sonar and system
CA3202517A1 (en) Systems and methods for synthetic aperture ultrasound imaging of an object
EP3709891B1 (en) Ice catheter with multiple transducer arrays
JP6945959B2 (en) Radar system, how to generate radar images and computer readable memory
CN101828929B (en) Vector measurement method of Doppler blood flow velocity by utilizing apparent displacement
JP2021529596A (en) Ultrasonic method and equipment
JP6071845B2 (en) A system to reconstruct the scene
CN113454686A (en) Tomographic imaging system, tomographic imaging method, and storage medium
CN107110959B (en) Compressive sensing in forming ultrasound images
Cueto et al. Spatial response identification enables robust experimental ultrasound computed tomography
Roy et al. Robust array calibration using time delays with application to ultrasound tomography
Medina et al. Multiple target 3D location airborne ultrasonic system
JP4201483B2 (en) Method and apparatus for determining relative position of tomographic slices
Boufounos Compressive sensing for over-the-air ultrasound
Thomas et al. Model-based 3D micro-navigation and bathymetry estimation for interferometric synthetic aperture sonar
Yaghoobi et al. Phase recovery for 3D SAR range focusing
JP2023088765A (en) Signal processing device, signal processing method and signal processing program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160705

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160705

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20160705

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20160816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161227

R150 Certificate of patent or registration of utility model

Ref document number: 6071845

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250