JP2022513899A - Non-invasive diffuse acoustic confocal 3D imaging - Google Patents

Non-invasive diffuse acoustic confocal 3D imaging Download PDF

Info

Publication number
JP2022513899A
JP2022513899A JP2021534293A JP2021534293A JP2022513899A JP 2022513899 A JP2022513899 A JP 2022513899A JP 2021534293 A JP2021534293 A JP 2021534293A JP 2021534293 A JP2021534293 A JP 2021534293A JP 2022513899 A JP2022513899 A JP 2022513899A
Authority
JP
Japan
Prior art keywords
acoustic
coherent
source
focuser
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021534293A
Other languages
Japanese (ja)
Inventor
ハーリング ロドニー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/216,938 external-priority patent/US20190117189A1/en
Application filed by Individual filed Critical Individual
Publication of JP2022513899A publication Critical patent/JP2022513899A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/04Analysing solids
    • G01N29/06Visualisation of the interior, e.g. acoustic microscopy
    • G01N29/0654Imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8909Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration
    • G01S15/8931Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration co-operating with moving reflectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8934Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a dynamic transducer configuration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8965Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using acousto-optical or acousto-electronic conversion techniques
    • G01S15/897Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using acousto-optical or acousto-electronic conversion techniques using application of holographic techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52036Details of receivers using analysis of echo signal for target characterisation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52079Constructional features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0808Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4209Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames
    • A61B8/4227Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames characterised by straps, belts, cuffs or braces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • A61B8/4472Wireless probes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/485Diagnostic techniques involving measuring strain or elastic properties
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2291/00Indexing codes associated with group G01N29/00
    • G01N2291/02Indexing codes associated with the analysed material
    • G01N2291/024Mixtures
    • G01N2291/02475Tissue characterisation

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

物体に対して異なる光学濃度を有する第1の材料中の物体を撮像するための方法及び装置。本方法は、第1の材料の外側の流体又は非晶質の第2の材料内の仮想音響ソースに音響コヒーレントビームを集束させるステップと、仮想音響ソースからの少なくとも複数の散乱ビームが物体から反射されて反射ビームを形成し、少なくとも1つの散乱ビームが物体を迂回してバイパスビームを形成するように、流体又は非晶質の材料内の仮想音響ソースを移動させるステップであって、反射ビーム及びバイパスビームは互いに交差してコヒーレント干渉ゾーンを形成するステップと、フレネル縞を提供するようにコヒーレント干渉ゾーンをデフォーカスするステップと、物体の画像を形成するステップと、を含む。【選択図】図3A method and apparatus for imaging an object in a first material having different optical densities with respect to the object. The method comprises focusing an acoustic coherent beam on a virtual acoustic source in a fluid or amorphous second material outside the first material, and at least a plurality of scattered beams from the virtual acoustic source reflected from the object. The step is to move the virtual acoustic source within the fluid or amorphous material so that it forms a reflected beam so that at least one scattered beam bypasses the object to form a bypass beam. The bypass beams include a step of intersecting each other to form a coherent interference zone, a step of defocusing the coherent interference zone to provide Fresnel fringes, and a step of forming an image of the object. [Selection diagram] Fig. 3

Description

本技術は、サイズ、位置、及び形状が決定される3次元画像を得るために身体又は身体の一部を非侵襲的に走査する方法である。本方法は、更に、身体又は身体の一部の状態の判定を可能にする。走査装置も提供される。 The present art is a method of non-invasively scanning a body or part of a body to obtain a three-dimensional image in which the size, position, and shape are determined. The method further allows the determination of the condition of the body or part of the body. A scanning device is also provided.

ビームの振幅又は位相を検出することによって物体に関する情報を得るために放射線ビームを使用することは、科学的及び医学的目的でよく知られている。例えば、物体を通過するビームの位相情報は、物体の温度、組成、磁場又は静電場に関する情報を提供することができ、振幅測定は、物体の不透明度又は密度に関する情報を提供することができる。ビームは、放射の波から構成され、波Φは、振幅Aと位相θとの両方を用いて数学的に、
Φ=Aexp(θ) 1)
として記述することができる。
The use of radiation beams to obtain information about an object by detecting the amplitude or phase of the beam is well known for scientific and medical purposes. For example, phase information of a beam passing through an object can provide information about the temperature, composition, magnetic field or electrostatic field of the object, and amplitude measurement can provide information about the opacity or density of the object. The beam is composed of a wave of radiation, and the wave Φ is mathematically, using both the amplitude A and the phase θ.
Φ = Aexp (θ) 1)
Can be described as.

この方法から得られる情報は、ビーム波の振幅を検出しているのか、ビーム波の振幅と位相との両方を検出しているのかに依存する。この方法がX線の場合のようにビームの振幅のみを測定する場合、物体内の濃度差のみが報告される。これは、物体の温度、組成、弾性、歪み場、磁場又は静電場のような情報を提供しないので、この技術の限界である。X線イメージング法などの多数のイメージング技術のさらなる欠点は、使用される放射線の強度である。診断に使用される場合、使用されるレベルは体内の細胞に損傷を与える可能性がある。 The information obtained from this method depends on whether the amplitude of the beam wave is being detected or both the amplitude and phase of the beam wave are being detected. When this method measures only the amplitude of the beam, as in the case of X-rays, only the concentration difference within the object is reported. This is a limitation of this technique as it does not provide information such as temperature, composition, elasticity, strain field, magnetic field or electrostatic field of the object. A further drawback of many imaging techniques, such as X-ray imaging methods, is the intensity of the radiation used. When used for diagnosis, the levels used can damage cells in the body.

超音波を含む音響顕微鏡は現在、子宮内の胎児及び動脈及び静脈内の血流など、身体の内部を画像化するために広く使用されている。これらの顕微鏡は、平行な音響ビームを放射し、このビームは、骨などの表面、及ぶ胚の流体と胎児との間の界面などの界面に接触すると、拡散及び散乱ビームとして反射される。反射ビームは、音響ビームの強度を測定するために使用される。これらの顕微鏡は、筋肉又は胚性液などの軟組織を通過又は反射するビームの強度及び位相を測定することができない。これらの顕微鏡は、音響ビームの位相ではなく、音響ビームの強度のみを使用するため、温度又は組成を測定することもできない。したがって、画像は、表面又は界面に関係する情報以外の情報を提供するのに適していない。これらの顕微鏡の更なる欠点は、生成された画像が、表面又は界面に衝突後のビームの拡散散乱によって生じる相当量の背景強度を有することである。一例として、前立腺を取り上げると、超音波画像は前立腺と他の組織との間の界面を識別しにくく、また尿道を特定することもできるが、前立腺内の異常を特定することはできない。 Acoustic microscopes, including ultrasound, are now widely used to image the interior of the body, such as the fetus in the womb and blood flow in arteries and veins. These microscopes emit a parallel acoustic beam that is reflected as a diffuse and scattered beam upon contact with a surface such as bone, or an interface such as the interface between the fluid of the embryo and the fetus. The reflected beam is used to measure the intensity of the acoustic beam. These microscopes are unable to measure the intensity and phase of beams that pass through or reflect soft tissues such as muscle or embryonic fluid. Since these microscopes use only the intensity of the acoustic beam, not the phase of the acoustic beam, it is also not possible to measure the temperature or composition. Therefore, the image is not suitable for providing information other than information related to the surface or interface. A further drawback of these microscopes is that the generated image has a significant amount of background intensity caused by the diffuse scattering of the beam after impact on the surface or interface. Taking the prostate as an example, ultrasound images make it difficult to identify the interface between the prostate and other tissues, and can also identify the urethra, but not the abnormalities in the prostate.

ビームの振幅を測定する別の方法は、共焦点顕微鏡法である。共焦点走査レーザ顕微鏡は、3次元物体を見るために1980年代に開発された。共焦点走査レーザ顕微鏡法は、物体を通過するレーザービームを使用して、物体の焦点面上の点と共焦点に配置されたピンホールアパーチャを介してビームの振幅を検出することによって、物体の3次元振幅画像を生成する。 Another method of measuring the amplitude of a beam is confocal microscopy. Confocal scanning laser scanning microscopes were developed in the 1980s to view three-dimensional objects. Confocal scanning laser microscopy uses a laser beam that passes through an object to detect the amplitude of the beam through a pinhole aperture that is cofocal with a point on the focal plane of the object. Generate a 3D amplitude image.

共焦点顕微鏡は、現在、材料、生物学、及び医学において幅広い用途を見出している。診断ツールとしての共焦点顕微鏡は、検出されたビームの振幅差を生じる薄い組織及び物体の濃度差のみを検出することに限定される。ビームは、組織及び他の材料に遠くまで浸透することはできない。それらは、物体の位相情報を測定しない。したがって、共焦点顕微鏡は、物体の組成又は温度を測定することができない。 Confocal microscopes are currently finding a wide range of applications in materials, biology, and medicine. Confocal microscopy as a diagnostic tool is limited to detecting only the concentration differences of thin tissues and objects that cause the amplitude difference of the detected beam. The beam cannot penetrate far into tissue and other materials. They do not measure the phase information of the object. Therefore, a confocal microscope cannot measure the composition or temperature of an object.

仮に、この方法がビームの位相の変化を測定するならば、物体の温度及び組成に関する情報を提供することができる。これには音響ビームを用いることができる。音響ビームの位相は、物体の屈折率によって変化し、屈折率は、物体の温度及び組成に依存し、音響ビームの音速の尺度である。 If this method measures changes in the phase of a beam, it can provide information about the temperature and composition of the object. An acoustic beam can be used for this. The phase of the acoustic beam varies with the refractive index of the object, which depends on the temperature and composition of the object and is a measure of the speed of sound of the acoustic beam.

物体の絶対位相は、米国特許第7,639,365号に記載されているように、共焦点走査ホログラフィー顕微鏡を使用して測定することができる。この試みは、レーザービームが人体を容易に通過しないので、人体の内部を画像化するためには使用することができない。物体の相対位相は、米国特許第8,485,034号に記載されているように、音響共焦点干渉計顕微鏡を使用して測定することができる。この試みは、干渉ビームとミラーとプリズムとの複雑な配置を必要とし、幾何学的制約のために人体の内部を撮像するには適していない。 The absolute phase of an object can be measured using a confocal scanning holographic microscope as described in US Pat. No. 7,639,365. This attempt cannot be used to image the interior of the human body, as the laser beam does not easily pass through the human body. The relative phase of the object can be measured using an acoustic confocal interferometer microscope as described in US Pat. No. 8,485,034. This attempt requires a complex arrangement of interference beams, mirrors and prisms and is not suitable for imaging the interior of the human body due to geometric constraints.

標準的な干渉顕微鏡、標準的なホログラフィック顕微鏡、及び標準的なホログラフィック干渉顕微鏡が、物体の位相及び振幅の両方を測定し、物体の密度、組成及び温度などの重要な情報を与えるために使用されてきた。これらの顕微鏡は、位相と振幅の両方を測定することによって物体の3次元振幅画像及び位相画像を生成する。それらが光学顕微鏡であるので、これらの顕微鏡から測定された3次元情報は、物体の表面からのみ得られ、物体内の点では検出されない。全ての場合、参照ビーム及び物体ビームは、データを収集するために使用され、これは画像の形成をもたらす。これは、これらの顕微鏡の使用を、物体の表面からの又は表面についてのデータを収集することに制限する。したがって、医学的診断において、それらは、皮膚の疾患に潜在的に有用であるが、内部組織又は器官の疾患には有用ではない。 Standard interference microscopes, standard holographic microscopes, and standard holographic interference microscopes measure both the phase and amplitude of an object and provide important information such as the density, composition, and temperature of the object. Has been used. These microscopes produce 3D amplitude and phase images of an object by measuring both phase and amplitude. Since they are optical microscopes, the 3D information measured from these microscopes is obtained only from the surface of the object and is not detected at points within the object. In all cases, reference beams and object beams are used to collect data, which results in the formation of images. This limits the use of these microscopes to collecting data from or about the surface of the object. Therefore, in medical diagnosis, they are potentially useful for diseases of the skin, but not for diseases of internal tissues or organs.

音響ビームを使用して物体の振幅及び位相を測定することができる他の手段は、米国特許第6,679,846号、第6,436,046号、第6,132,375号及び第6,193,663号に開示されている空間フィルタリングされた透過型超音波位相画像である。空間的にフィルタリングされた透過型超音波位相画像化は、放射されたビームの振幅及び位相を測定し、その後、検出器への到着時に物体を通過した後の音響ビームの振幅及び位相を再び測定することを含む。振幅と位相の違いは、物体に起因する。音源から、ビームは外側に拡散して拡散し、必要ではない背景散乱に至る。この背景散乱内又は周囲には、関心のある画像がある。その画像は、画像化されている物体の界面を表す。これは、3次元画像を表すものではなく、関心のある組織又は器官内の病変組織を特定することもできない。同様に、材料においては、液体と固体との間の界面のような界面が存在しない限り、3次元画像を提供することも、材料内に異なる材料又は材料内の異なる物理的特性を有する領域を示すこともできない。 Other means by which the acoustic beam can be used to measure the amplitude and phase of an object are US Pat. Nos. 6,679,846, 6,436,046, 6,132,375 and 6. , 193,663 is a spatially filtered transmissive ultrasonic phase image disclosed in No. 193,663. Spatically filtered transmissive ultrasonic phase imaging measures the amplitude and phase of the emitted beam and then remeasures the amplitude and phase of the acoustic beam after passing through the object upon arrival at the detector. Including doing. The difference in amplitude and phase is due to the object. From the sound source, the beam diffuses outwards and diffuses, leading to unwanted background scattering. There is an image of interest in or around this background scatter. The image represents the interface of the object being imaged. It does not represent a three-dimensional image and cannot identify lesioned tissue within the tissue or organ of interest. Similarly, in a material, providing a three-dimensional image may also provide different materials within the material or regions with different physical properties within the material, as long as there is no interface, such as the interface between the liquid and the solid. I can't even show it.

米国特許出願公開第20040059265号は、組織内の腫瘍などの塊に音響エネルギーを非侵襲的に集束させて、塊を低減又は排除することを開示する。組織中の塊の存在は、物質に音響エネルギーを印加することによって検出される。塊は、その位置を決定するために局在化される。塊上の音響エネルギーを駆動するために時間的特徴が開発される。音響エネルギーを塊に動的に集束させて、それを低減又は排除することは、時間的特徴を利用して達成される。塊の画像化は、定在超音波画像化技術(強度情報を提供するために、体内の対象の物体から反射される患者の体外の音響ソースからの複数の平行ビームの使用[この反射信号は仮想ソースと称されるが、ソースではない])を使用して行われ、その後、モデル化又は時間反転のいずれかが、音響エネルギーを駆動するために使用され、その後、塊を処理するために、塊に集束される。この方法の欠点は、モデル及び仮定に基づくという事実、塊の撮像が超音波を使用して得られる画像よりも良好ではないという事実、それらがどのように撮像されるか、及びこの方法を使用して到達可能な情報が限定されるという事実を含む。また、3次元位置を決定することができないので、塊を処理するために使用される場合、そのような処理は、モデル及び仮定、又は正しいとされる時間反転に依存する。 U.S. Patent Application Publication No. 20040059265 discloses the non-invasive focusing of sound energy on a mass such as a tumor within a tissue to reduce or eliminate the mass. The presence of lumps in tissue is detected by applying sound energy to the substance. The mass is localized to determine its position. Temporal features are developed to drive the sound energy on the mass. Dynamically focusing sound energy on a mass and reducing or eliminating it is achieved by utilizing temporal features. Mass imaging is a stationary ultrasound imaging technique that uses multiple parallel beams from an acoustic source outside the patient's body that are reflected from an object in the body to provide intensity information [this reflected signal is Called a virtual source, but not a source]), then either modeling or time reversal is used to drive the sound energy and then to process the mass. , Focused on a lump. Disadvantages of this method are the fact that it is based on models and assumptions, the fact that imaging of masses is not better than images obtained using ultrasound, how they are imaged, and the use of this method. Includes the fact that reachable information is limited. Also, since the 3D position cannot be determined, when used to process chunks, such processing depends on the model and assumptions, or the time reversal that is justified.

ビームの振幅及び位相の両方を検出することができるデバイス、システム及び方法を提供することが有益である。このようなデバイス、システム及び方法は、物体の密度、温度、組成、弾性、歪み場、磁気又は静電場に関する情報を提供することができる。これは、密度、温度及び組成に関する情報を得ることができるように、医療分野において非常に重要であり、癌などの疾患の治療の有効性を潜在的に診断し、治療し、評価することを可能にする。理想的には、デバイスは、身体の様々な部分(例えば、前立腺、***、頭、及び皮膚などであるが、これらに限定されない)への適用のための様々な異なる形状の検出器ホルダを備えた手持ち型に適している。物体の3次元画像を検出し提供するために使用される同じビームが、物体を処理するために使用され得る場合、有利である。 It is useful to provide devices, systems and methods capable of detecting both the amplitude and phase of the beam. Such devices, systems and methods can provide information about the density, temperature, composition, elasticity, strain field, magnetic or electrostatic field of an object. This is of great importance in the medical field so that information on density, temperature and composition can be obtained, potentially diagnosing, treating and assessing the effectiveness of treatment of diseases such as cancer. enable. Ideally, the device would be equipped with a variety of differently shaped detector holders for application to different parts of the body, such as, but not limited to, the prostate, breast, head, and skin. Suitable for handheld type. It is advantageous if the same beam used to detect and provide a three-dimensional image of the object can be used to process the object.

温度及び乾燥組成の測定が重要である用途の例には、体内の器官、組織及び疾患領域の機能を理解することを目的とする医学診断が含まれる。現在、医学研究者は、身体の内部温度及び組成を非侵襲的に測定するための良好な手段を有していない。本技術の目的は、このような能力を提供することである。 Examples of applications where measurement of temperature and dry composition are important include medical diagnostics aimed at understanding the function of organs, tissues and disease areas within the body. Currently, medical researchers do not have good means for non-invasively measuring the internal temperature and composition of the body. The purpose of this technology is to provide such capabilities.

本技術は、超音波法よりもはるかに優れた異なる光学濃度の別の物体において、1つの光学濃度の物体の3次元画像を作成する方法を提供する。コヒーレントビームは、物体の外部、及び流体又は非晶質内の仮想ソースに集束される。バイパスビームと反射ビームとの干渉ゾーンを作ることにより、干渉ゾーンを作ることができる。この干渉ゾーンは、3次元画像を提供するためにデフォーカスされる。 The present art provides a method of creating a three-dimensional image of an object of one optical density in another object of different optical densities, which is far superior to the ultrasonic method. The coherent beam is focused on the outside of the object and on a virtual source inside the fluid or amorphous. An interference zone can be created by creating an interference zone between the bypass beam and the reflected beam. This interference zone is defocused to provide a 3D image.

一実施形態では、物体に対して異なる光学濃度を有する第1の材料内の前記物体を撮像する方法であって、前記第1の材料の外側の流体又は非晶質の第2の材料内の仮想音響ソースに音響コヒーレントビームを集束させるステップと、前記仮想音響ソースからの少なくとも複数の散乱ビームが前記第1の材料を走査し、少なくとも1つの散乱ビームが前記物体から反射されて反射ビームを形成し、少なくとも1つの散乱ビームが前記物体を迂回してバイパスビームを形成するように、前記流体又は非晶質の材料内の前記仮想音響ソースを移動させるステップであって、前記反射ビーム及び前記バイパスビームは、互いに交差してコヒーレント干渉ゾーンを形成するステップと、フレネル縞を提供するように前記コヒーレント干渉ゾーンをデフォーカスするステップであって、前記フレネル縞は、前記物体の画像を形成するステップと、を含む方法が提供される。 In one embodiment, a method of imaging the object in a first material having different optical densities with respect to the object, in a fluid or amorphous second material outside the first material. A step of focusing an acoustic coherent beam on a virtual acoustic source, and at least a plurality of scattered beams from the virtual acoustic source scan the first material, and at least one scattered beam is reflected from the object to form a reflected beam. A step of moving the virtual acoustic source within the fluid or amorphous material such that at least one scattered beam bypasses the object to form a bypass beam, wherein the reflected beam and the bypass. The beams are a step of intersecting each other to form a coherent interference zone and a step of defocusing the coherent interference zone to provide Fresnel fringes, wherein the Fresnel fringes form an image of the object. , Including methods are provided.

本方法は、前記物体の前記画像を検出する音響検出器を更に備えてもよい。 The method may further include an acoustic detector that detects the image of the object.

本方法は、少なくとも1つの散乱ビームが前記物体を通過して物体ビームとなり、前記音響検出器によって検出されるように、前記流体又は非晶質の材料中の前記仮想音響ソースを移動させるステップを更に含んでもよい。 The method steps to move the virtual acoustic source in the fluid or amorphous material so that at least one scattered beam passes through the object to become an object beam and is detected by the acoustic detector. Further may be included.

本方法は、前記物体ビームの位相を前記バイパスビームの位相と比較して、前記物体に関する情報を提供するステップを更に含んでもよい。 The method may further include a step of comparing the phase of the object beam with the phase of the bypass beam to provide information about the object.

本方法は、前記物体ビームの振幅を前記バイパスビームの振幅と比較して、前記物体に関する情報を提供するステップを更に含んでもよい。 The method may further include a step of comparing the amplitude of the object beam with the amplitude of the bypass beam to provide information about the object.

本方法において、前記位相からの前記情報は、前記物体の温度、組成、磁場、又は静電場であって、前記振幅からの前記情報は、前記物体の前記光学濃度であってもよい。 In the present method, the information from the phase may be the temperature, composition, magnetic field, or electrostatic field of the object, and the information from the amplitude may be the optical density of the object.

本方法では、前記物体の音速が決定されてもよい。 In this method, the speed of sound of the object may be determined.

本方法では、前記物体の前記音速は、前記物体を識別するために使用されてもよい。 In this method, the speed of sound of the object may be used to identify the object.

本方法では、前記物体は、前記第1の材料内の腫瘍又は病変として識別されてもよい。 In the method, the object may be identified as a tumor or lesion within the first material.

本方法では、前記音響コヒーレントビームは、患者の体内の流体又は非晶質の第2の材料内に集束されてもよい。 In the method, the acoustic coherent beam may be focused within a fluid or amorphous second material in the patient's body.

本方法では、前記音響コヒーレントビームは、膀胱内の尿、脂肪組織、脳組織、腹膜液、胃液、胆嚢、及び脾臓のうちの1つに集束されてもよい。 In this method, the acoustic coherent beam may be focused on one of urine, adipose tissue, brain tissue, peritoneal fluid, gastric fluid, gallbladder, and spleen in the bladder.

本方法では、前記音響コヒーレントビームは、対象の身体の少なくとも一部が浸漬されている患者の身体の外側の流体内に集束されてもよい。 In the method, the acoustic coherent beam may be focused in a fluid outside the patient's body in which at least a portion of the subject's body is immersed.

別の実施形態では、物体に対して異なる光学濃度の第1の材料内の前記物体を撮像するためのシステムであって、コヒーレント音響ビームを発するコヒーレント音響ビームソースと、仮想音響撮像ソースに前記コヒーレント音響ビームを集束させるように位置されたフォーカサであって、前記仮想音響撮像ソースは、散乱ビームを発する、フォーカサと、前記コヒーレント音響ビームソースと機械通信するコヒーレント音響ビームソースアクチュエータと、前記フォーカサと機械通信するフォーカサアクチュエータと、前記コヒーレント音響ビームソースアクチュエータ及び前記フォーカサアクチュエータと電気通信するプロセッサと、前記散乱ビームの少なくとも一部が前記物体で反射され反射ビームとなり、前記物体を通過してバイパスビームとなるように、且つ、前記反射ビーム及び前記バイパスビームが干渉ゾーンを形成するように、前記プロセッサと通信し、前記コヒーレント音響ビームソース及び前記フォーカサを移動させるように前記プロセッサに指示する命令を有するメモリであって、前記メモリは、前記コヒーレント音響ビーム及び前記フォーカサを動かして前記干渉ゾーンにフレネル縞を生成するように更に構成される、メモリと、前記フレネル縞を撮像するように位置された音響検出器と、を備えるシステムが提供される。 In another embodiment, a system for imaging the object in a first material having a different optical density with respect to the object, the coherent acoustic beam source emitting a coherent acoustic beam and the coherent to the virtual acoustic imaging source. A focuser positioned to focus the acoustic beam, the virtual acoustic imaging source is a focuser that emits a scattered beam, a coherent acoustic beam source actuator that mechanically communicates with the coherent acoustic beam source, and the focuser and machine. A focusing actuator that communicates, a coherent acoustic beam source actuator, a processor that communicates with the focuser actuator, and at least a part of the scattered beam is reflected by the object to become a reflected beam, which passes through the object and is a bypass beam. And has instructions to communicate with the processor and instruct the processor to move the coherent acoustic beam source and the focuser so that the reflected beam and the bypass beam form an interference zone. A memory, wherein the memory is further configured to move the coherent acoustic beam and the focuser to generate Frenel fringes in the interference zone, and an acoustically located to image the Frenel fringes. A system with a detector is provided.

本システムでは、前記メモリは、前記プロセッサが前記画像を鮮鋭化するための命令を含んでもよい。 In the system, the memory may include instructions for the processor to sharpen the image.

本システムは、前記音響検出器の前に空間フィルタを更に備えてもよい。 The system may further include a spatial filter in front of the acoustic detector.

本システムは、前記コヒーレント音響ビームソースと前記フォーカサとの間に円錐リフレクタを更に備えてもよい。 The system may further include a conical reflector between the coherent acoustic beam source and the focuser.

本システムは、遠位端をそれぞれ有する一対の関節アームと、各音響検出器が前記遠位端に近接してアーム上に取り付けられる第2の音響検出器とを更に備えてもよい。 The system may further include a pair of joint arms, each with a distal end, and a second acoustic detector with each acoustic detector mounted on the arm in close proximity to the distal end.

本システムは、卵巣を画像化するためのサイズであってもよい。 The system may be sized to image the ovaries.

更に別の実施形態では、物体に対して異なる光学濃度の第1の材料内の前記物体を撮像するためのシステムであって、
コヒーレント音響ビームを発するコヒーレント音響ビームソースと、仮想音響撮像ソースに前記コヒーレント音響ビームを集束させるように位置されたフォーカサであって、前記仮想音響撮像ソースは散乱ビームを発する、フォーカサと、前記コヒーレント音響ビームソースと機械通信するコヒーレント音響ビームアクチュエータと、前記フォーカサと機械通信するフォーカサアクチュエータと、音響検出器と、を含む装置と、
プロセッサ、ユーザインタフェース、及びメモリを含む計算デバイスであって、前記プロセッサは、前記音響検出器と電気通信し、前記メモリは、前記プロセッサと通信し、前記ユーザインタフェースに画像を表示するように前記プロセッサに指示する命令を有する、計算デバイスと、を備えるシステムが提供される。
In yet another embodiment, it is a system for imaging the object in a first material having a different optical density with respect to the object.
A coherent acoustic beam source that emits a coherent acoustic beam and a focuser that is positioned to focus the coherent acoustic beam on a virtual acoustic imaging source, wherein the virtual acoustic imaging source emits a scattered beam, the focuser, and the coherent acoustics. A device including a coherent acoustic beam actuator that mechanically communicates with a beam source, a focuser actuator that mechanically communicates with the focuser, and an acoustic detector.
A computing device that includes a processor, a user interface, and a memory, wherein the processor telecommunicationss with the acoustic detector, the memory communicates with the processor, and the processor displays an image on the user interface. A system comprising a computing device, which has an instruction to direct to, is provided.

本システムでは、前記メモリは、前記プロセッサが前記画像を鮮鋭化するための命令を含んでもよい。 In the system, the memory may include instructions for the processor to sharpen the image.

本システムは、前記音響検出器の前に空間フィルタを更に備えてもよい。 The system may further include a spatial filter in front of the acoustic detector.

本システムでは、前記フォーカサは、凹状の湾曲した円錐形状の反射物であってもよい。 In this system, the focuser may be a concave curved conical reflector.

本システムは、前記凹状の湾曲した円錐形状の反射物と前記音響検出器との間に円錐形の鏡面を更に備えてもよい。 The system may further include a conical mirror surface between the concave curved conical reflector and the acoustic detector.

本システムでは、前記プロセッサは、前記コヒーレント音響ビームソースアクチュエータ及び前記フォーカサアクチュエータと電気通信し、前記メモリは、前記プロセッサと通信し、前記コヒーレント音響ビームソース及び前記フォーカサを移動させるように前記プロセッサに指示する命令を有し、その結果、前記散乱ビームの少なくとも一部が前記物体で反射され反射ビームとなり、前記物体を通過してバイパスビームとなり、且つ前記反射ビーム及び前記バイパスビームが干渉ゾーンを形成し、前記メモリは、前記コヒーレント音響ビーム及び前記フォーカサを移動させて前記干渉ゾーンにフレネル縞を生成し、前記音響検出器が前記フレネル縞を撮像するように位置されるように更に構成されてもよい。 In this system, the processor communicates with the coherent acoustic beam source actuator and the focuser actuator, and the memory communicates with the processor to move the coherent acoustic beam source and the focuser to the processor. It has a command to instruct, so that at least a portion of the scattered beam is reflected by the object to become a reflected beam, passes through the object to become a bypass beam, and the reflected beam and the bypass beam form an interference zone. However, the memory may be further configured to move the coherent acoustic beam and the focuser to generate Frenel fringes in the interference zone, and the acoustic detector to be positioned to image the Frenel fringes. good.

本技術の拡散音響共焦点3次元撮像装置の動作の概略図である。It is a schematic diagram of the operation of the diffusion acoustic confocal 3D image pickup apparatus of this technology. 図2Aは、従来技術の超音波撮像素子で使用されるビームを示す概略図であり、図2Bは、本技術で使用されるビームを示す概略図である。FIG. 2A is a schematic view showing a beam used in the ultrasonic image pickup device of the prior art, and FIG. 2B is a schematic view showing a beam used in the present technology. 本技術の検出システムの一実施形態である。It is an embodiment of the detection system of the present technology. 本技術を用いて卵巣を撮像するための一実施形態である。It is an embodiment for imaging an ovary using this technique. 図4の一実施形態を用いて卵巣を走査するための拡散音響共焦点3次元撮像装置の動作の概略図である。FIG. 5 is a schematic diagram of the operation of a diffuse acoustic confocal 3D image pickup device for scanning an ovary using one embodiment of FIG. 本技術を使用して両卵巣を画像化するための一実施形態である。It is an embodiment for imaging both ovaries using this technique. 本技術を使用して***を撮像するための一実施形態である。It is an embodiment for imaging a breast using this technique. 本技術を使用して脳を画像化するための一実施形態である。It is an embodiment for imaging the brain using this technique. 本技術の検出システムの一実施形態である。It is an embodiment of the detection system of the present technology. 図10Aは、図9の検出システムを通る断片の概略図であり、図10Bは、円錐ミラーを通る断片の上面図の概略図であり、図10Cは、円錐ミラーを見る概略図である。10A is a schematic view of the fragment passing through the detection system of FIG. 9, FIG. 10B is a schematic top view of the fragment passing through the conical mirror, and FIG. 10C is a schematic view of the conical mirror. 図9の一実施形態におけるビームの経路を示す概略図である。It is a schematic diagram which shows the path of the beam in one Embodiment of FIG. 図12Aは、図9の検出システムの側面図であり、図12Bは、図9の検出システムの斜視図である。12A is a side view of the detection system of FIG. 9, and FIG. 12B is a perspective view of the detection system of FIG.

特に明示されない限り、以下の解釈の規則は本明細書(詳細な説明、請求項及び図面)に適用される。(a)本明細書で使用される全ての単語は、状況が必要とするような文法上の性又は数(単数又は複数)であると解釈されるものとする。(b)明細書及び添付の特許請求の範囲で使用されている単数の用語「a」、「an」及び「the」は、文脈上他に明確に指示されない限り、複数の参照を含む。(c)引用された範囲又は値に適用される先行用語「約」は、測定方法から当技術分野で公知又は予想される範囲又は値における偏差内の近似値を示す。(d)「ここに」、「これによって」、「そこに」、「そこへ」、「前に」、及び「以後」という単語及び同様の趣旨の単語は、この明細書全体を参照するものであり、特に指定しない限り、何らかの特定の節、請求項又は他の下位区分を参照するものではない。(e)記述の見出しは便宜上のものであり、明細書の如何なる部分の意味又は構成にも規制若しくは影響を与えるものではない。(f)「又は」及び「任意の」は排他的ではなく、「含む」及び「含む」は限定的ではない。さらに、「備える」、「有する」、「含む」及び「含有する」という用語は、特に明記しない限り、無制限の用語(すなわち、「含むが、これに限定されない」を意味する)として構成されている。 Unless otherwise stated, the following rules of interpretation apply herein (detailed description, claims and drawings). (A) All words used herein shall be construed to be grammatical gender or number (singular or plural) as required by the situation. (B) The singular terms "a", "an" and "the" used in the specification and the accompanying claims include multiple references unless expressly specified otherwise in the context. (C) The preceding term "about" applied to a cited range or value indicates an approximation within a deviation within a range or value known or expected in the art from the measurement method. (D) The words "here", "by this", "there", "there", "before", and "after" and words to the same effect refer to the entire specification. And, unless otherwise specified, does not refer to any particular clause, claim or other subdivision. (E) The headings of the description are for convenience only and do not regulate or affect the meaning or composition of any part of the specification. (F) "or" and "arbitrary" are not exclusive, and "include" and "include" are not limited. Further, the terms "prepare", "have", "contain" and "contain" are configured as unlimited terms (ie, meaning "include, but not limited to") unless otherwise specified. There is.

本明細書中の値の範囲の列挙は、本明細書中で別段の指示がない限り、範囲内の各別個の値を個別に指す簡略的方法として便宜になることを意図しており、それぞれの個別値は本明細書に個別に列挙されているかのように、明細書に組み込まれる。特定の範囲の値が提供される場合、下限の単位の10分の1までの各介在値は、その範囲の上限と下限との間の他の記載された値又は介在する値及びその他の記載された範囲内に含まれることが理解される。全てのより小さな下位範囲も含まれている。これらのより小さい範囲の上限及び下限も、記載された範囲内の特定の除外された限界を条件として、そこに含まれる。 The enumeration of the range of values herein is intended to be convenient as a simplified way of pointing to each distinct value within the range individually, unless otherwise indicated in the specification. The individual values of are incorporated herein as if they were individually listed herein. If a range of values is provided, each intervening value up to one tenth of the unit of the lower bound is any other stated or intervening value between the upper and lower bounds of the range and other descriptions. It is understood that it is included within the specified range. All smaller subranges are also included. The upper and lower limits of these smaller ranges are also included, subject to certain excluded limits within the stated range.

別に定義されない限り、本明細書で使用される全ての技術用語及び科学用語は、関連技術分野の当業者によって一般的に理解されるのと同じ意味を有する。本明細書に記載された方法及び材料と類似又は均等の任意の方法及び材料も使用することができるが、ここでは許容可能な方法及び材料を記載する。 Unless otherwise defined, all technical and scientific terms used herein have the same meaning as commonly understood by one of ordinary skill in the art. Any method and material similar to or equivalent to the methods and materials described herein can also be used, but here describes acceptable methods and materials.

図1に、一般に10と呼ばれる、組織、器官、又は体の部位(物体)を画像化するための、一般に8と呼ばれるシステムの概要を概略的に示す。それは、ノイズ(スペックルノイズ)であると考えられる散乱ビームを生成し、使用する。コヒーレント音響エミッタ等のコヒーレント音響ソース12は、単一のコヒーレント音響ビーム14を発する。コヒーレント音響ソース12は、手動で移動することができ、或いはコヒーレント音響ソース12と機械通信しているソースアクチュエータ16と共に移動することができる。ソースアクチュエータ16は、メモリ19の制御下にあるプロセッサ18で制御されることが好ましく、プロセッサ18がソースアクチュエータ16を作動させるように指示する命令を有する。コヒーレント音響ソース12は、哺乳動物の体内の密度、温度、組成、弾性、又は歪み場のうちの1又は複数を含む情報を得るために、約0.5メガヘルツと約100メガヘルツとの間及びそれらを含むビーム周波数を有するコヒーレント音響ビーム14を提供する。 FIG. 1 schematically outlines a system, commonly referred to as 8, for imaging a tissue, organ, or body part (object), commonly referred to as 10. It produces and uses scattered beams that are considered noise (speckle noise). A coherent acoustic source 12, such as a coherent acoustic emitter, emits a single coherent acoustic beam 14. The coherent acoustic source 12 can be moved manually or with the source actuator 16 in mechanical communication with the coherent acoustic source 12. The source actuator 16 is preferably controlled by a processor 18 under the control of the memory 19 and has a command instructing the processor 18 to operate the source actuator 16. The coherent acoustic source 12 is between about 0.5 MHz and about 100 MHz and they to obtain information including one or more of the density, temperature, composition, elasticity, or strain field in the mammalian body. Provided is a coherent acoustic beam 14 having a beam frequency including.

コヒーレント音響ビーム14は、典型的には1センチメートル又は数センチメートルのオーダーの大きな断面積を有する。コヒーレント音響ビーム14は、円錐形状のリフレクタ22に導かれ、次いで、集束(収束)ミラー又はレンズ24に導かれ、曲面によって反射され、流体又は非晶質の媒体32に伝達される収束ビーム30に集束される。集束ミラー24は、プロセッサ18の制御下で、集束ミラーアクチュエータ26の制御下で旋回し、次いで、プロセッサ18にアクチュエータ26を作動させるように指示する命令を有するメモリ19によって制御される。円錐形状のリフレクタ22は、アクチュエータ28の制御下にあり、アクチュエータは、これを音響エミッタ(ソース)12に向かって、及びそこから離れるように移動させる。プロセッサ18の制御下にあるアクチュエータ28は、メモリ19によって制御され、メモリ19は、アクチュエータ28を作動させるようにプロセッサ18に指示するための命令を有する。一実施形態では、流体又は非晶質の媒体32は、体内にあり、例えば、膀胱内の尿、脂肪組織、脳組織、腹膜液、胃液、胆嚢、及び脾臓であるが、これらに限定されない。収束ビーム30は、クロスオーバー点で仮想的に収束された音響撮像ソース34である点に収束する。メモリ19の制御下にあるプロセッサ18は、ソースアクチュエータ16に指向され、コヒーレント音響ソース12がソース34を流体又は非晶質の媒体32内に移動させて、流体又は非晶質の媒体32内の周囲を移動させるように構成される。更に、メモリ19の制御下にあるプロセッサ18は、フォーカスミラー24に向かって且つフォーカスミラー24から離れて円錐形状のリフレクタ22を移動させ、音響エミッタ12に向かって且つ音響エミッタ12から離れて仮想ソース34を移動させ、流体又は非晶質の媒体32に仮想ソース34を再び位置付けするように構成される。仮想ソース34は、撮像される物体の外側であって、流体又は非晶質の媒体32の内側に配置される。ソース34は、全ての方向に3次元的に散乱される複数のビーム36を送信する。散乱ビーム36は、媒体32から通過する。流体又はアモルファス媒体32内でソース34を移動させることによって、複数のビーム36は、媒体32の外側の周りを走査する。ビーム36は、遭遇する任意の物体10内に入り、次いで、物体ビーム38として物体10の外に出て、音響検出器40によって検出される。音響検出器40は、物体ビーム38を検出できるように、ソース34に向けられる。物体ビーム38は、物体10を通過する際に屈折する。音響検出器40は、ある範囲の角度方向を有する物体ビーム38を収集するように移動することができる。物体ビーム28は、物体10を通過する際に屈折する。音響検出器40は、反射ビーム37とバイパスビーム39との組み合わせによって作られた画像をデフォーカスし、その結果、それが写真的に見えるようにするために、物体10に向かって及び物体10から離れて移動する。検出器アクチュエータ42は、音響検出器40と機械通信しており、検出器アクチュエータ42と電子通信しているプロセッサ18の制御下にある。ここでも、プロセッサ18は、メモリ19から命令を受け取る。物体ビーム38は、物体10に関する情報も含む。物体ビーム38によって伝送される情報は、当技術分野で知られている技法に従ってその振幅及び位相を決定するために分析される。物体ビーム38の位相情報は、物体の温度、組成、磁場又は静電場に関する情報を提供し、振幅の測定は、物体の不透明度又は濃度に関する情報を提供する。空間フィルタ46は、望ましくない散乱ビーム36からのノイズを減少させ、音響検出器40の前に配置される。 The coherent acoustic beam 14 typically has a large cross-sectional area on the order of one centimeter or several centimeters. The coherent acoustic beam 14 is guided by a conical reflector 22 and then by a focused mirror or lens 24 to a focused beam 30 that is reflected by a curved surface and transmitted to a fluid or amorphous medium 32. Be focused. The focusing mirror 24 is controlled by a memory 19 having a command to swivel under the control of the focusing mirror actuator 26 under the control of the processor 18 and then instructing the processor 18 to operate the actuator 26. The conical reflector 22 is under the control of the actuator 28, which moves it towards and away from the acoustic emitter (source) 12. The actuator 28 under the control of the processor 18 is controlled by the memory 19, which has an instruction to instruct the processor 18 to operate the actuator 28. In one embodiment, the fluid or amorphous medium 32 is in the body, including, but not limited to, urine, adipose tissue, brain tissue, peritoneal fluid, gastric fluid, gallbladder, and spleen in the bladder. The convergent beam 30 converges to a point that is an acoustic imaging source 34 that is virtually converged at the crossover point. The processor 18 under the control of the memory 19 is directed to the source actuator 16, where the coherent acoustic source 12 moves the source 34 into the fluid or amorphous medium 32 into the fluid or amorphous medium 32. It is configured to move around. Further, the processor 18 under the control of the memory 19 moves the conical reflector 22 toward and away from the focus mirror 24 and toward the acoustic emitter 12 and away from the acoustic emitter 12 as a virtual source. The 34 is configured to move and reposition the virtual source 34 on the fluid or amorphous medium 32. The virtual source 34 is located outside the imaged object and inside the fluid or amorphous medium 32. The source 34 transmits a plurality of beams 36 that are three-dimensionally scattered in all directions. The scattered beam 36 passes from the medium 32. By moving the source 34 within the fluid or amorphous medium 32, the plurality of beams 36 scan around the outside of the medium 32. The beam 36 enters any object 10 encountered and then exits the object 10 as an object beam 38 and is detected by the acoustic detector 40. The acoustic detector 40 is directed at the source 34 so that it can detect the object beam 38. The object beam 38 is refracted as it passes through the object 10. The acoustic detector 40 can be moved to collect an object beam 38 having a range of angular directions. The object beam 28 is refracted as it passes through the object 10. The acoustic detector 40 defocuses the image created by the combination of the reflected beam 37 and the bypass beam 39, and as a result, towards and from the object 10 to make it photographicly visible. Move away. The detector actuator 42 is under the control of a processor 18 that is mechanically communicating with the acoustic detector 40 and electronically communicating with the detector actuator 42. Again, processor 18 receives instructions from memory 19. The object beam 38 also includes information about the object 10. The information transmitted by the object beam 38 is analyzed to determine its amplitude and phase according to techniques known in the art. The phase information of the object beam 38 provides information about the temperature, composition, magnetic field or electrostatic field of the object, and the amplitude measurement provides information about the opacity or density of the object. The spatial filter 46 reduces noise from the unwanted scattered beam 36 and is placed in front of the acoustic detector 40.

伝達媒質60は、患者と、コヒーレント音響ソース12及び音響検出器40の各々との間で使用される。代替的に、患者又は患者の関連部分が患者とデバイス8との間に流体界面が存在するように、流体に浸漬されてもよい。物体10を観察するために、ソース34は、集束ミラー24及び音響検出器40を旋回させることによって、又は顕微鏡6を移動させることによって、又は患者を再位置決めすることによって、媒体32内で移動する。放射及び受信強度の振幅及び位相情報が画像を生成するために使用されないため、ベクトルネットワークアナライザが不要である。しかしながら、時間フィルタのためのベクトルネットワークアナライザを使用して、より良好な強度画像を得ることができる。フレネル縞を使用する強度画像は、時間フィルタ及び空間フィルタを使用せずに形成するが、これらのフィルタを使用すると仮想ソースの見かけのサイズを小さくすることができることによって強度画像が改善される、すなわち、より良い空間分解能が得られる。 The transmission medium 60 is used between the patient and each of the coherent acoustic source 12 and the acoustic detector 40. Alternatively, the patient or a patient-related portion may be immersed in a fluid such that a fluid interface exists between the patient and the device 8. To observe the object 10, the source 34 moves within the medium 32 by swirling the focusing mirror 24 and the acoustic detector 40, or by moving the microscope 6, or by repositioning the patient. .. No vector network analyzer is required because the amplitude and phase information of the radiation and reception intensity is not used to generate the image. However, better intensity images can be obtained using vector network analyzers for time filters. Intensity images using Fresnel fringes are formed without the use of time and spatial filters, but these filters improve the intensity image by allowing the apparent size of the virtual source to be reduced, ie. , Better spatial resolution is obtained.

音像化(sound imaging)の位相又は速度には、ベクトルネットワークアナライザは、検出器内の各要素で音響ビームを受信するための時間差を測定するために必要である。エミッタ/レンズアセンブリから検出器への音響ビームによって進行する経路長であるため、ベクトルネットワークアナライザを用いて時間を測定することにより、速度(m/s)を求めることができる。 For the phase or velocity of sound imaging, a vector network analyzer is needed to measure the time lag for receiving an acoustic beam at each element in the detector. Since it is the path length traveled by the acoustic beam from the emitter / lens assembly to the detector, the velocity (m / s) can be determined by measuring the time using a vector network analyzer.

図2A及び2Bは、従来技術の超音波(2A)及び本開示の拡散音響共焦点撮像装置(2B)において、ビーム及びそれらがどのように画像を生成するかの比較を示す。コヒーレントビーム14は、物体10に当たって、反射ビーム2及び散乱ビーム4を生成する。反射ビーム2は、画像を生成する(界面を識別するためには組織タイプ間の屈折率の比較的大きな差が必要であり、界面のみが識別されることに留意されたい)。散乱ビーム4は、クリーン画像を生成するために除去する必要があるノイズを生成する。 2A and 2B show a comparison of the beams and how they produce images in the prior art ultrasound (2A) and the diffuse acoustic confocal imager (2B) of the present disclosure. The coherent beam 14 hits the object 10 to generate a reflected beam 2 and a scattered beam 4. The reflected beam 2 produces an image (note that a relatively large difference in index of refraction between tissue types is required to identify the interface, only the interface is identified). The scattered beam 4 produces noise that needs to be removed in order to produce a clean image.

拡散音響共焦点撮像装置を使用して、発したコヒーレントビーム14は、非常に平坦(平面)(空間コヒーレンス)であり、一定(時間的コヒーレンス)である。コヒーレントビーム14は、点に収束する収束ビーム30、散乱ビーム36を発する仮想ソース34に集束される。仮想ソース34は、散乱ビーム36が多くのスポット、距離及び角度から物体10に当たることができるように移動することができる。散乱ビーム36は、物体10を避け、物体の縁に当たって縁で反射するか、又は物体10を通過するかのいずれかを行う。 The coherent beam 14 emitted using the diffuse acoustic confocal imager is very flat (planar) (spatial coherence) and constant (temporal coherence). The coherent beam 14 is focused on a virtual source 34 that emits a convergent beam 30 and a scattered beam 36 that converge to a point. The virtual source 34 can move so that the scattered beam 36 can hit the object 10 from many spots, distances and angles. The scattered beam 36 avoids the object 10 and either hits the edge of the object and reflects off the edge or passes through the object 10.

物体から反射されたものは、反射ビーム37と呼ばれる。物体を通過するものは、物体ビーム38と呼ばれる。物体を避けるが反射ビーム37と重なり合うものは、バイパスビーム39と呼ばれる。 What is reflected from the object is called a reflected beam 37. Those that pass through an object are called an object beam 38. Those that avoid objects but overlap the reflected beam 37 are called bypass beams 39.

物体ビーム38は、物体10の診断目的のために考慮することができる。時間的コヒーレンスを用いて音像の速度を形成するために、ビームの放出時間が測定され、次いで、画像中の各画素におけるビームの到達時間が測定される。画像にわたる音速の差は、全て、画像内の構造を診断するために使用することができる。 The object beam 38 can be considered for diagnostic purposes of the object 10. In order to form the velocity of the sound image using temporal coherence, the emission time of the beam is measured, and then the arrival time of the beam at each pixel in the image is measured. Any difference in sound velocity across the image can be used to diagnose the structure within the image.

オーバーラップ内の反射ビーム37とバイパスビーム39との間の空間コヒーレンス干渉は、画像を作成するために使用される。物体10の画像は、物体10の診断目的のためのインラインホログラムと考えることができる。より具体的には、フレネル回折の原理を用いて画像を作成する。バイパスビーム39は、反射ビーム37と重なって干渉ゾーン141を生成する。これら2つのビーム間のこの干渉ゾーン141は、フレネル干渉縞又はデフォーカス縞を形成する。バイパスビーム39及び反射ビーム37におけるコヒーレンスの保持は、画像に干渉縞又はフレネル縞を形成するために必要とされる。デフォーカス又はフレネル縞の強度のうちのある程度は、物体10を出てバイパスビーム39と干渉する屈折物体ビーム38からもたらされ、同様に、バイパスビーム及び反射ビームが干渉するが、屈折物体ビームは、フレネル縞の画像形成処理においてそこまで重要な役割を有しない。 Spatial coherence interference between the reflected beam 37 and the bypass beam 39 in the overlap is used to create the image. The image of the object 10 can be thought of as an in-line hologram for diagnostic purposes of the object 10. More specifically, an image is created using the principle of Fresnel diffraction. The bypass beam 39 overlaps with the reflected beam 37 to form an interference zone 141. This interference zone 141 between these two beams forms a Fresnel interference fringe or a defocus fringe. Preservation of coherence in the bypass beam 39 and the reflected beam 37 is required to form interference fringes or Fresnel fringes in the image. Some of the intensity of the defocus or Fresnel fringes comes from the refracted object beam 38 that exits the object 10 and interferes with the bypass beam 39, as well as the bypass and reflected beams interfering with the refracted object beam. , Does not play such an important role in the image formation process of Fresnel fringes.

フレネル回折は、デフォーカスが生じると音響画像に縞(フレネル縞)を生成する。フレネル縞は、外形と背景(バックグラウンド)との間のコントラストを増強し、軟組織及び異なる軟組織間の界面の画像化を可能にする。これは、屈折率の差が非常に小さい組織、例えば、限定されるものではないが、***組織及び***組織内の乳腺、組織の病変、及び卵管の卵子を含む。 Fresnel diffraction produces fringes (Fresnel fringes) in an acoustic image when defocus occurs. Fresnel fringes enhance the contrast between the contour and the background, allowing imaging of soft tissues and the interface between different soft tissues. This includes tissues with very small refractive index differences, such as, but not limited to, breast tissue and mammary glands within breast tissue, tissue lesions, and oviductal ova.

オーバーラップの幅はデフォーカス(焦点ぼけ)と共に増加し、フレネル縞の幅が増加する。デフォーカスは、物体及びカメラが同じ平面上にあるところでゼロに減少する。この状態では、オーバーラップがないので縞を作ることができないため、物体は消えて見えない。 The width of the overlap increases with defocus and the width of the Fresnel fringes increases. Defocus is reduced to zero where the object and the camera are on the same plane. In this state, since there is no overlap, it is not possible to create stripes, so the object disappears and cannot be seen.

加えて、空間分解能は、フレネル縞の幅によって決定される。画像中に見られるフレネル縞の最小幅は、仮想ソースのサイズの大きさである。仮想ソースのサイズは、エミッタ/レンズアセンブリの集束能力とエミッタからの放出ビームの波長とによって決まる。分解能は、音響ビームの波長に近づくことができ、50MHzの音響ビームに対しては細胞の大きさに近づく(λ=周波数/速度=毎秒50,000,000回/1500m/s=0.00003=30ミクロン)。これは、超音波よりもはるかに高い分解能である。 In addition, spatial resolution is determined by the width of the Fresnel fringes. The minimum width of the Fresnel stripes seen in the image is the size of the virtual source. The size of the virtual source is determined by the focusing ability of the emitter / lens assembly and the wavelength of the emitted beam from the emitter. The resolution can approach the wavelength of the acoustic beam and approach the size of the cell for a 50 MHz acoustic beam (λ = frequency / velocity = 5,000,000 times per second / 1500 m / s = 0.00003 = 30 microns). This is a much higher resolution than ultrasound.

大きな焦点ぼけ、すなわち広い縞線で形成された画像は、デフォーカス量、デルタfを適用することによって、縞幅の減少がデルタf×コーン角度の1/2になるように円錐角、ビームのαを知ることによって、画像中の特徴(すなわちフレネル縞)を鮮明にするプロセッサで処理することができる。同様に、コーン角、及び既知又は測定されたデフォーカスによる縞幅の変化を知ることは、画像内の物体の距離又は位置、z、を決定するために使用することができ、画像内で横方向寸法x、yが既に測定可能であるため、3D画像を生成することが可能になる。これは、反射画像(超音波)に対して、本技術によって生成される透過画像のもう一つの利点である。超音波は、反射ビームの複素反射時間測定によってzを取得する。 For images formed with large defocus, that is, wide stripes, by applying the defocus amount, delta f, the reduction of the stripe width is delta f × 1/2 of the cone angle so that the cone angle and beam By knowing α, it can be processed by a processor that sharpens features (that is, frennel stripes) in an image. Similarly, knowing the cone angle and the change in stripe width due to known or measured defocus can be used to determine the distance or position, z, of an object in the image, laterally in the image. Since the directional dimensions x and y can already be measured, it becomes possible to generate a 3D image. This is another advantage of the transmitted image produced by this technique over the reflected image (ultrasound). Ultrasound acquires z by measuring the complex reflection time of the reflected beam.

仮想ソース34と物体10との間の距離は、物体の倍率を決定する。仮想ソース34が物体10に近づくほど、拡大率は1に近づく。物体の倍率は、仮想ソース34が物体10に近づくほど大きくなる。 The distance between the virtual source 34 and the object 10 determines the magnification of the object. The closer the virtual source 34 is to the object 10, the closer the magnification is to 1. The magnification of the object increases as the virtual source 34 approaches the object 10.

メモリ19内のソフトウェアによって提供される空間フィルタ46及び時間フィルタ54(図1を参照)は、画像に使用される音響仮想ソース34の体積を制限し、体積が小さいほど画像の解像度が良くなる。空間分解能は、部分的には、集束仮想ソース34における収束ビーム30のサイズによって設定される。空間フィルタ46は、仮想ソース34の横方向x、y寸法又は角度受容角を規定する。空間フィルタ46は、仮想ソース34よりも小さくすることができ、空間解像度を決定する因子の1つである。これは、x、y平面における空間分解能を決定する決定因子であり得る。時間フィルタ54は、仮想ソース34のz又は軸方向空間分解能を決定する。これは、音響信号を受信するための受付時間、開始時間、及び停止時間を決定する。 The spatial filter 46 and the time filter 54 (see FIG. 1) provided by the software in the memory 19 limit the volume of the acoustic virtual source 34 used for the image, the smaller the volume, the better the resolution of the image. Spatial resolution is partially set by the size of the focused beam 30 in the focused virtual source 34. The spatial filter 46 defines a lateral x, y dimension or angle acceptance angle of the virtual source 34. The spatial filter 46 can be made smaller than the virtual source 34 and is one of the factors that determine the spatial resolution. This can be a determinant that determines the spatial resolution in the x, y planes. The time filter 54 determines the z or axial spatial resolution of the virtual source 34. It determines the reception time, start time, and stop time for receiving the acoustic signal.

図3に示す実施形態では、流体又は非晶質の媒体132が人体の外にあり、容器102内に収容される。容器102は、好ましくはデバイス110に調節可能に取り付けられる。システムの構成要素は上述の通りである。収束ビーム130は、クロスオーバーの点で仮想収束音響撮像ソース134である点に収束する。プロセッサ18は、メモリ19の制御下にあり、ソースアクチュエータ16を動かして、コヒーレント音響ソース12が流体又は非晶質の媒体132内の仮想ソース134を移動させ、流体又は非晶質の媒体132内の周囲でそれを移動させるように指示するように構成される。仮想ソース134は、全ての方向に3次元的に散乱された複数のビーム136を送信する。これらの散乱ビーム136は、媒体132から通過する。流体又は非晶質の媒体132内で仮想ソース134を移動させることによって、複数の散乱ビーム136は、媒体132の外側を走査する。入射角に応じて、散乱ビーム136は、それらが遭遇する任意の物体10内に入射し、物体10を通過し、音響検出器140によって物体ビーム138として検出される。他の散乱ビーム136は、物体10から反射され、反射ビーム137と呼ばれる。物体を避けるが反射ビーム137と重なる散乱ビーム136は、バイパスビーム139と呼ばれる。音響検出器140は、ソース134に集束され、物体10に近接する複数の散乱ビーム136を検出するように配置される。ソース134は、物体10の完全な画像を得るために必要に応じて媒体132内で移動する。音響検出器140は、図1に示すように、ある範囲の角度方向を有する散乱ビーム136を収集するように移動することができる。検出器アクチュエータ142は、音響検出器140と機械通信しており、検出器アクチュエータ142と電気通信しているプロセッサ144の制御下にある。オーバーラップ(干渉ゾーン141)における反射ビーム137とバイパスビーム139との間のコヒーレント干渉は、画像を作成するために使用される。物体10の画像は、物体10の診断目的のためのインラインホログラムと考えることができる。物体ビーム136によって伝送される情報は、当技術分野で知られている技法に従って、その振幅及び位相を決定するために、プロセッサ18によって分析することもできる。振幅及び位相は、バイパスビーム139の振幅及び位相と比較される。 In the embodiment shown in FIG. 3, the fluid or amorphous medium 132 is outside the human body and is housed in the container 102. The container 102 is preferably adjustablely attached to the device 110. The components of the system are as described above. The convergent beam 130 converges to a point that is a virtual convergent acoustic imaging source 134 at the point of crossover. The processor 18 is under the control of the memory 19 and moves the source actuator 16 so that the coherent acoustic source 12 moves the virtual source 134 in the fluid or amorphous medium 132 and in the fluid or amorphous medium 132. It is configured to instruct it to move around. The virtual source 134 transmits a plurality of beams 136 that are three-dimensionally scattered in all directions. These scattered beams 136 pass through the medium 132. By moving the virtual source 134 within the fluid or amorphous medium 132, the plurality of scattered beams 136 scan the outside of the medium 132. Depending on the angle of incidence, the scattered beams 136 enter into any object 10 they encounter, pass through the object 10, and are detected by the acoustic detector 140 as the object beam 138. The other scattered beam 136 is reflected from the object 10 and is called a reflected beam 137. The scattered beam 136 that avoids the object but overlaps the reflected beam 137 is called the bypass beam 139. The acoustic detector 140 is focused on the source 134 and is arranged to detect a plurality of scattered beams 136 close to the object 10. The source 134 moves within the medium 132 as needed to obtain a complete image of the object 10. As shown in FIG. 1, the acoustic detector 140 can move to collect the scattered beam 136 having a range of angular directions. The detector actuator 142 is under the control of the processor 144, which is in mechanical communication with the acoustic detector 140 and in telecommunications with the detector actuator 142. The coherent interference between the reflected beam 137 and the bypass beam 139 in the overlap (interference zone 141) is used to create the image. The image of the object 10 can be thought of as an in-line hologram for diagnostic purposes of the object 10. The information transmitted by the object beam 136 can also be analyzed by the processor 18 to determine its amplitude and phase according to techniques known in the art. The amplitude and phase are compared to the amplitude and phase of the bypass beam 139.

物体10を観察するために、ソース134は、集束(収束)ミラー124及び音響検出器140を旋回させることによって、デバイス110を移動させることによって、又は患者を再位置決めすることによって、媒体132の内部で移動する。物体110が例えば、病気、塊、腫瘍、成長腫等である場合、オーバーラップ(干渉ゾーン141)内の反射ビーム137とバイパスビーム139との間のコヒーレント干渉が物体の画像を作成するために使用される。フレネル縞は、上述したように、画像を生成し、焦点ぼけによって引き起こされるものである。 To observe the object 10, the source 134 is inside the medium 132 by swirling the focusing (converging) mirror 124 and the acoustic detector 140, by moving the device 110, or by repositioning the patient. Move with. If the object 110 is, for example, a disease, mass, tumor, growth tumor, etc., the coherent interference between the reflected beam 137 and the bypass beam 139 in the overlap (interference zone 141) is used to create an image of the object. Will be done. Fresnel fringes are those that produce the image and are caused by defocus, as described above.

図4に示すように、一実施形態において、卵巣を撮像するためのデバイス200が提供される。音響エミッタ202は、デバイスの一端に位置し、焦点(収束)ミラー204は、デバイス200の他端に又はその近傍に位置する。音響検出器206は、卵巣と位置合わせされる。検出器206は、線形アレイ検出器であってもよい。概略図を図5に示す。上述したように、コヒーレントビーム210は、音響エミッタ202によって発され、集束ミラー204によって集束されて、仮想ソース212となり、次々に3次元で散乱ビーム214を生成する、収束ビーム211となる。音響検出器206は、この場合は卵巣である物体217を通過するビームである物体ビーム216を検出する。音響検出器206は、また、上述したように、バイパスビーム220及び反射ビーム222によって生成されるフレネル縞218を検出する。仮想ソース212は、膀胱213内に配置され、周りを移動し、その結果、散乱ビーム214は、卵巣が見つかるまで周りを走査する。次に、散乱ビーム214は、反射して反射ビーム222となり、卵巣を迂回してビーム220となり、卵巣を通過して物体ビーム216となる。 As shown in FIG. 4, in one embodiment, a device 200 for imaging an ovary is provided. The acoustic emitter 202 is located at one end of the device and the focal (convergence) mirror 204 is located at or near the other end of the device 200. The acoustic detector 206 is aligned with the ovary. The detector 206 may be a linear array detector. A schematic diagram is shown in FIG. As described above, the coherent beam 210 is a focused beam 211 that is emitted by the acoustic emitter 202 and focused by the focusing mirror 204 to become a virtual source 212, which in turn produces a scattered beam 214 in three dimensions. The acoustic detector 206 detects the object beam 216, which is the beam passing through the object 217, which is the ovary in this case. The acoustic detector 206 also detects the Fresnel fringes 218 generated by the bypass beam 220 and the reflected beam 222, as described above. The virtual source 212 is placed in the bladder 213 and travels around, so that the scattered beam 214 scans around until the ovary is found. Next, the scattered beam 214 is reflected to become a reflected beam 222, bypasses the ovary to become a beam 220, passes through the ovary, and becomes an object beam 216.

図6に示すように、両卵巣を撮像するためのデバイス300が提供される。音響放射器302は、焦点(収束)ミラー306も収容する垂直ハウジング304内の中央に配置される。デバイス300は、右アーム308及び左アーム310の2つのアームを有する。アーム308、310の端部312に近接して、右検出器314及び左検出器316は、それぞれ配置される。アーム308、310は、機械的なマニピュレータ322の制御下にある関節セグメント320を含む。ビームを検出する更なる手段として、右検出器アクチュエータ324及び左検出器アクチュエータ326が音響検出器314、316と機械通信しており、検出器アクチュエータ324、326と電気通信するプロセッサ344の制御下にある。 As shown in FIG. 6, a device 300 for imaging both ovaries is provided. The acoustic radiator 302 is centrally located in a vertical housing 304 that also houses the focal (convergent) mirror 306. The device 300 has two arms, a right arm 308 and a left arm 310. The right detector 314 and the left detector 316 are arranged in close proximity to the ends 312 of the arms 308 and 310, respectively. Arms 308, 310 include a joint segment 320 under the control of a mechanical manipulator 322. As a further means of detecting the beam, the right detector actuator 324 and the left detector actuator 326 are in mechanical communication with the acoustic detectors 314 and 316 and under the control of the processor 344 in telecommunications with the detector actuators 324 and 326. be.

図7に示すように、***を撮像するための手持ち式デバイス400が提供される。それは、上述のように配置された、音響放射器402、集束(収束)ミラー404、及び音響検出器406を含む。それは、手動で制御され、プロセッサ410と通信するためのBluetooth(登録商標)無線408を有する。 As shown in FIG. 7, a handheld device 400 for imaging the breast is provided. It includes an acoustic radiator 402, a focused (converging) mirror 404, and an acoustic detector 406 arranged as described above. It is manually controlled and has a Bluetooth® radio 408 for communicating with the processor 410.

図8に示すように、手持ち式エミッタデバイス500を含むシステムを使用して脳を撮像することができる。1つ又は複数の検出器502は、必要に応じて配置され、患者が検出器上で頭部を傾けるだけで、簡単に位置を保持することができる。仮想ソース504は、脳の脂肪組織にフォーカスされ、散乱ビーム506は、仮想ソース504から3次元で発される。物体510を通過するビームは、物体ビーム514である。ここでも、画像は、反射ビーム510とバイパスビーム512との間の干渉ゾーン508をデフォーカスすることによって作成される。 As shown in FIG. 8, a system including a handheld emitter device 500 can be used to image the brain. The detector 502 may be arranged as needed and the patient can easily hold the position by simply tilting his head on the detector. The virtual source 504 is focused on the adipose tissue of the brain and the scattered beam 506 is emitted from the virtual source 504 in three dimensions. The beam passing through the object 510 is the object beam 514. Again, the image is created by defocusing the interference zone 508 between the reflected beam 510 and the bypass beam 512.

図9に示されるように、一実施形態において、一般に600と呼ばれるデバイスは、円錐形状のリフレクタに代わる凹面湾曲円錐形状のリフレクタ610を有し、収束ミラーに代わる円錐ミラー612を有する。機能的には、凹面湾曲円錐形状のリフレクタ610は、集束レンズ/ミラーである。音響エミッタ614は、円錐ミラー612の内部617の基部615に位置し、凹面湾曲円錐形状のリフレクタ610と位置合わせされる。支持基部616及び支持部材618は、円錐ミラー612の内部617内で凹面湾曲円錐形状のリフレクタ610を保持する。検出器620は、また、支持基部616によって保持されてもよい。ハウジング622は、円錐ミラー612を保持する。デバイス600は、デバイス600の2つの特徴によって生成される仮想開口624を含む。まず、平面(コヒーレント640)ビームの強度を光学軸648(図11を参照)から凹面湾曲円錐形状のリフレクタ610の縁部まで、すなわち、その最大直径まで反射する凹面湾曲円錐形状のリフレクタによって生成されるローパスフィルタが本質的に存在する。凹面湾曲円錐形状のリフレクタ610の直径よりも大きい直径を有する音響強度は、それによって反射されず、デバイス600を通過する。それは、円錐ミラー612の縁部までの半径方向距離、すなわち、仮想ソース646位置に焦点を合わせるために音響ビームがそこから通過しなければならない円錐ミラー612によって作られた穴によって決定されるが、通過の外側限界を有する。仮想ソース646位置に到達する強度の他の障害は、凹面湾曲円錐形状のリフレクタ610の下部632(図10Aを参照)によって、円錐ミラー612から仮想ソース646位置に到達する反射強度のカットオフである。 As shown in FIG. 9, in one embodiment, the device, commonly referred to as 600, has a concave curved conical reflector 610 instead of a conical reflector and a conical mirror 612 instead of a convergent mirror. Functionally, the concave curved conical reflector 610 is a condensing lens / mirror. The acoustic emitter 614 is located at the base 615 of the inner 617 of the conical mirror 612 and is aligned with the concave curved conical reflector 610. The support base 616 and the support member 618 hold a concave curved conical reflector 610 within the interior 617 of the conical mirror 612. The detector 620 may also be held by the support base 616. Housing 622 holds the conical mirror 612. The device 600 includes a virtual opening 624 generated by the two features of the device 600. First, the intensity of a planar (coherent 640) beam is generated by a concave curved conical reflector that reflects from the optical axis 648 (see FIG. 11) to the edge of the concave curved conical reflector 610, i.e., to its maximum diameter. There is essentially a low-pass filter. Acoustic intensities with a diameter greater than the diameter of the concave curved conical reflector 610 are not reflected by it and pass through the device 600. It is determined by the radial distance to the edge of the conical mirror 612, that is, the hole made by the conical mirror 612 through which the acoustic beam must pass in order to focus on the virtual source 646 position. Has an outer limit of passage. Another obstacle to the intensity reaching the virtual source 646 position is the cutoff of the reflection intensity from the conical mirror 612 to the virtual source 646 position by the lower 632 of the concave curved conical reflector 610 (see FIG. 10A). ..

音響エミッタ614から円錐ミラー612までの音響エビームの経路を図10A乃至Cに示す。コヒーレントビーム640は、音響エミッタ614から発され、凹面湾曲円錐形状のリフレクタ610に当たる。図10Aは、凹面湾曲円錐形状のリフレクタ610及び円錐ミラー612を通る薄い断片である。この断片から分かるように、円錐ミラー612の側部は平坦である一方、凹面湾曲円錐形状のリフレクタ610の側部は凹状である。コヒーレントビーム640は、凹面湾曲円錐形状のリフレクタ610から反射して収束し、したがって、収束ビーム642を生成する。収束ビーム642は、円錐ミラー612の平坦面626に当たる。図10Bに示されるように、図10Aの断片からの収束ビーム642は、1つの平面において円錐ミラー612の平坦な壁に当たる。図10Cに示されるように、図10Aの断片からの収束ビーム642は、円錐ミラー612の平坦面626上にリング628を形成する。当業者に知られているように、コヒーレントビーム640は、凹面湾曲円錐形状のリフレクタ610の凹面に、凹面湾曲円錐形状のリフレクタ610の周り及び凹面湾曲円錐形状のリフレクタ610の上部630から下部632まで360度衝突する。 The path of the acoustic beam from the acoustic emitter 614 to the conical mirror 612 is shown in FIGS. 10A-10C. The coherent beam 640 is emitted from the acoustic emitter 614 and hits the concave curved conical reflector 610. FIG. 10A is a thin fragment passing through a concave curved conical reflector 610 and a conical mirror 612. As can be seen from this fragment, the sides of the conical mirror 612 are flat, while the sides of the concave curved conical reflector 610 are concave. The coherent beam 640 reflects from the concave curved conical reflector 610 and converges, thus producing a convergent beam 642. The convergent beam 642 hits the flat surface 626 of the conical mirror 612. As shown in FIG. 10B, the convergent beam 642 from the fragment of FIG. 10A hits the flat wall of the conical mirror 612 in one plane. As shown in FIG. 10C, the convergent beam 642 from the fragment of FIG. 10A forms a ring 628 on the flat surface 626 of the conical mirror 612. As is known to those skilled in the art, the coherent beam 640 is provided on the concave surface of the concave curved conical reflector 610 around the concave curved conical reflector 610 and from the upper 630 to the lower 632 of the concave curved conical reflector 610. Collide 360 degrees.

ビームの経路も図11に示されており、コヒーレントビーム640は、音響エミッタ614から放射され、凹面湾曲円錐形状のリフレクタ610に当たる。コヒーレントビーム640は、凹面湾曲円錐形状のリフレクタ610から反射し、収束し、したがって、これらは収束ビーム642である。収束ビーム642は、円錐ミラー612の平坦面626に当たって、クロスオーバー点で仮想的な収束音響撮像ソース646である点に収束する収束ビーム644として反射される。仮想ソース646は、円錐ミラー面612の光軸648に、又はその近傍にある。凹面湾曲円錐形状のリフレクタ610の曲率は、仮想ソース646が光軸648上、又はその近傍にあるように選択されることに留意されたい。 The path of the beam is also shown in FIG. 11, where the coherent beam 640 is emitted from an acoustic emitter 614 and hits a concave curved conical reflector 610. The coherent beam 640 reflects and converges from the concave curved conical reflector 610, thus these are the convergent beams 642. The convergent beam 642 hits the flat surface 626 of the conical mirror 612 and is reflected as a convergent beam 644 that converges to a point that is a virtual convergent acoustic imaging source 646 at the crossover point. The virtual source 646 is at or near the optical axis 648 of the conical mirror surface 612. Note that the curvature of the concave curved conical reflector 610 is selected such that the virtual source 646 is on or near the optical axis 648.

上述のように、仮想ソース646から、音響ビームは、音響ビームを全方向に拡散的に散乱させる。音響検出器620は、凹面湾曲円錐形状のリフレクタ610の端部上、又は仮想ソース646を指す仮想ソース646の周りの任意の場所に配置することができる。理論に拘束されることなく、図9乃至12Bの設計は次のような利点を有する。凹面湾曲円錐形状のリフレクタ610及び湾曲集束(収束)ミラーは、同じ機能性を提供するが、凹面湾曲円錐形状のリフレクタは、湾曲集束(収束)ミラーよりも製造が容易である。凹面湾曲円錐形状のリフレクタ610は、仮想ソース646の焦点深度の変化を可能にする異なる寸法及び湾曲を有する別の凹面湾曲円錐形状のリフレクタ610に容易に置き換えることができる。凹面湾曲円錐形状のリフレクタ610は、仮想ソース646の焦点深度を変化させるために、光軸648上で前後に移動させることができる。その設計は、空間解像度を増加させ、仮想ソースのサイズをより小さくする。凹面湾曲円錐形状のリフレクタ610は、凹面湾曲円錐形状のリフレクタ610が円錐ミラー612内で前後に移動する際に、円錐ミラー612の表面が収束ビーム642に対して一定の角度にある円錐ミラー612に収束ビーム642を反射する。上述のように、これは、プローブ/仮想ソース648を前後に移動させることができる。この設計は、ビームを集束させるための追加の自由度を与えることによってデバイスの能力を増大させ、したがって、仮想ソースを体内で移動させる。 As mentioned above, from the virtual source 646, the echo beam diffusely scatters the echo beam in all directions. The acoustic detector 620 can be placed anywhere on the end of the concave curved conical reflector 610 or around the virtual source 646 pointing to the virtual source 646. Without being bound by theory, the design of FIGS. 9-12B has the following advantages: The concave curved conical reflector 610 and the curved focusing (converging) mirror provide the same functionality, but the concave curved conical reflector is easier to manufacture than the curved focusing (converging) mirror. The concave curved conical reflector 610 can be easily replaced with another concave curved conical reflector 610 with different dimensions and curvatures that allow the depth of focus of the virtual source 646 to vary. The concave curved conical reflector 610 can be moved back and forth on the optical axis 648 to change the depth of focus of the virtual source 646. The design increases spatial resolution and reduces the size of virtual sources. The concave curved conical reflector 610 is a conical mirror 612 in which the surface of the conical mirror 612 is at a constant angle with respect to the convergent beam 642 as the concave curved conical reflector 610 moves back and forth within the conical mirror 612. Reflects the focused beam 642. As mentioned above, this allows the probe / virtual source 648 to be moved back and forth. This design increases the capacity of the device by giving it additional degrees of freedom to focus the beam, thus moving the virtual source within the body.

例示的なデバイスを図12A及び12Bに示す。図12Aに示すように、音響エミッタ614は、ハウジング622の一端にある。図12Bに示すように、凹面湾曲円錐形状のリフレクタは、ハウジング622の内部617に位置し、支持部材618によって保持される。円錐ミラーの表面612は、ハウジング622の内側にある。音響エミッタ614は、ハウジング622の他端にある。デバイス600は、手持ち式であり、ユーザが調整し作動させてもよく、或いは、上述したように、計算デバイス内のプロセッサ及びメモリの制御下にあってもよい。いずれにせよ、計算デバイスは、画像が表示されるユーザインタフェースを含む。 Exemplary devices are shown in FIGS. 12A and 12B. As shown in FIG. 12A, the acoustic emitter 614 is at one end of the housing 622. As shown in FIG. 12B, the concave curved conical reflector is located inside 617 of the housing 622 and is held by a support member 618. The surface 612 of the conical mirror is inside the housing 622. The acoustic emitter 614 is at the other end of the housing 622. The device 600 is handheld and may be adjusted and operated by the user, or, as described above, may be under the control of the processor and memory within the computing device. In any case, the computing device includes a user interface on which the image is displayed.

全ての実施形態において、本方法は、コヒーレントビームを発する音響エミッタを含んでおり、反射されて集束されるか、或いは集束されて反射されて、非晶質の材料又は流体内の仮想ソースである点を提供する。仮想ソースは、散乱ビームを発するように移動し、そのうちの一部は物体を通過し、一部は物体を迂回し、一部は物体から反射する。バイパスビーム及び反射ビームは、干渉ゾーンで互いに干渉して、画像をデフォーカスすることによって、フレネル縞として見える画像を提供する。 In all embodiments, the method comprises an acoustic emitter that emits a coherent beam and is a virtual source within an amorphous material or fluid that is reflected and focused or focused and reflected. Provide points. The virtual source moves to emit a scattered beam, some of which pass through the object, some of which bypass the object, and some of which reflect from the object. The bypass beam and the reflected beam interfere with each other in the interference zone and defocus the image to provide an image that appears as Fresnel fringes.

例示的な実施形態は、現在考えられる最も実用的及び/又は適切な実施形態の例であると現在考えられているものに関連して説明されてきたが、説明は開示された実施形態に限定されるものではなく、例示的な実施形態の趣旨及び範囲内に含まれる様々な修正及び均等な構成を包含することが意図されていること理解されたい。当業者であれば、日常的な実験のみを用いて、本明細書に具体的に記載された具体的な実施形態の多くの均等物を認識するか、又は確認することができるであろう。そのような均等物は、本明細書に添付されるか又はその後に提出される特許請求の範囲に包含されることが意図される。 Exemplary embodiments have been described in relation to those currently considered to be examples of the most practical and / or suitable embodiments currently conceivable, but the description is limited to the disclosed embodiments. It should be understood that it is not intended to be, but is intended to include various modifications and equal configurations contained within the spirit and scope of the exemplary embodiments. One of ordinary skill in the art will be able to recognize or confirm many equivalents of the specific embodiments specifically described herein using only routine experiments. Such equivalents are intended to be included in the claims that are attached to or subsequently filed herein.

Claims (19)

物体に対して異なる光学濃度を有する第1の材料内の前記物体を撮像する方法であって、前記第1の材料の外側の流体又は非晶質の第2の材料内の仮想音響ソースに音響コヒーレントビームを集束させるステップと、前記仮想音響ソースからの少なくとも複数の散乱ビームが前記第1の材料を走査し、少なくとも1つの散乱ビームが前記物体から反射されて反射ビームを形成し、少なくとも1つの散乱ビームが前記物体を迂回してバイパスビームを形成するように、前記流体又は非晶質の材料内の前記仮想音響ソースを移動させるステップであって、前記反射ビーム及び前記バイパスビームは、互いに交差してコヒーレント干渉ゾーンを形成するステップと、フレネル縞を提供するように前記コヒーレント干渉ゾーンをデフォーカスするステップであって、前記フレネル縞は、前記物体の画像を形成するステップと、を含む方法。 A method of imaging the object in a first material having different optical densities with respect to the object, acoustically to a virtual acoustic source in a fluid or amorphous second material outside the first material. The step of focusing the coherent beam and at least a plurality of scattered beams from the virtual acoustic source scan the first material, and at least one scattered beam is reflected from the object to form a reflected beam, at least one. A step of moving the virtual acoustic source within the fluid or amorphous material such that the scattered beam bypasses the object to form a bypass beam, wherein the reflected beam and the bypass beam intersect each other. A method comprising a step of forming a coherent interference zone and a step of defocusing the coherent interference zone to provide Fresnel fringes, wherein the Fresnel fringes form an image of the object. 前記物体の前記画像を検出する音響検出器を更に備える、請求項1に記載の方法。 The method of claim 1, further comprising an acoustic detector for detecting the image of the object. 少なくとも1つの散乱ビームが前記物体を通過して物体ビームとなり、前記音響検出器によって検出されるように、前記流体又は非晶質の材料中の前記仮想音響ソースを移動させるステップを更に含む、請求項2に記載の方法。 A claim further comprising moving the virtual acoustic source in the fluid or amorphous material such that at least one scattered beam passes through the object to become an object beam and is detected by the acoustic detector. Item 2. The method according to Item 2. 前記物体ビームの位相を前記バイパスビームの位相と比較して、前記物体に関する情報を提供するステップを更に含む、請求項3に記載の方法。 The method of claim 3, further comprising a step of comparing the phase of the object beam with the phase of the bypass beam to provide information about the object. 前記物体ビームの振幅を前記バイパスビームの振幅と比較して、前記物体に関する情報を提供するステップを更に含む、請求項4に記載の方法。 The method of claim 4, further comprising a step of comparing the amplitude of the object beam with the amplitude of the bypass beam to provide information about the object. 前記位相からの前記情報は、前記物体の温度、組成、磁場、又は静電場であって、前記振幅からの前記情報は、前記物体の前記光学濃度である、請求項5に記載の方法。 The method of claim 5, wherein the information from the phase is the temperature, composition, magnetic field, or electrostatic field of the object, and the information from the amplitude is the optical density of the object. 前記物体の音速が決定される、請求項6に記載の方法。 The method of claim 6, wherein the speed of sound of the object is determined. 前記物体の前記音速は、前記物体を識別するために使用される、請求項7に記載の方法。 The method of claim 7, wherein the speed of sound of the object is used to identify the object. 前記物体は、前記第1の材料内の腫瘍又は病変として識別される、請求項1に記載の方法。 The method of claim 1, wherein the object is identified as a tumor or lesion within the first material. 前記音響コヒーレントビームは、患者の体内の流体又は非晶質の第2の材料内に集束される、請求項9に記載の方法。 9. The method of claim 9, wherein the acoustic coherent beam is focused within a fluid or amorphous second material in the patient's body. 前記音響コヒーレントビームは、膀胱内の尿、脂肪組織、脳組織、腹膜液、胃液、胆嚢、及び脾臓のうちの1つに集束される、請求項10に記載の方法。 10. The method of claim 10, wherein the acoustic coherent beam is focused on one of urine, adipose tissue, brain tissue, peritoneal fluid, gastric fluid, gallbladder, and spleen in the bladder. 前記音響コヒーレントビームは、対象の身体の少なくとも一部が浸漬されている患者の身体の外側の流体内に集束される、請求項9に記載の方法。 9. The method of claim 9, wherein the acoustic coherent beam is focused in a fluid outside the patient's body in which at least a portion of the subject's body is immersed. 物体に対して異なる光学濃度の第1の材料内の前記物体を撮像するためのシステムであって、コヒーレント音響ビームを発するコヒーレント音響ビームソースと、仮想音響撮像ソースに前記コヒーレント音響ビームを集束させるように位置されたフォーカサであって、前記仮想音響撮像ソースは、散乱ビームを発する、フォーカサと、前記コヒーレント音響ビームソースと機械通信するコヒーレント音響ビームソースアクチュエータと、前記フォーカサと機械通信するフォーカサアクチュエータと、前記コヒーレント音響ビームソースアクチュエータ及び前記フォーカサアクチュエータと電気通信するプロセッサと、前記散乱ビームの少なくとも一部が前記物体で反射され反射ビームとなり、前記物体を通過してバイパスビームとなるように、且つ、前記反射ビーム及び前記バイパスビームが干渉ゾーンを形成するように、前記プロセッサと通信し、前記コヒーレント音響ビームソース及び前記フォーカサを移動させるように前記プロセッサに指示する命令を有するメモリであって、前記メモリは、前記コヒーレント音響ビーム及び前記フォーカサを動かして前記干渉ゾーンにフレネル縞を生成するように更に構成される、メモリと、前記フレネル縞を撮像するように位置された音響検出器と、を備えるシステム。 A system for imaging the object in a first material having different optical densities with respect to the object, such as focusing the coherent acoustic beam on a coherent acoustic beam source that emits a coherent acoustic beam and a virtual acoustic imaging source. The virtual acoustic imaging source is a focuser located in the above, and the virtual acoustic imaging source includes a focuser that emits a scattered beam, a coherent acoustic beam source actuator that mechanically communicates with the coherent acoustic beam source, and a focuser actuator that mechanically communicates with the focuser. A processor that telecommunicationss with the coherent acoustic beam source actuator and the focuser actuator, and at least a part of the scattered beam is reflected by the object to become a reflected beam, and passes through the object to become a bypass beam. A memory having instructions to communicate with the processor so that the reflected beam and the bypass beam form an interference zone and instruct the processor to move the coherent acoustic beam source and the focuser. The memory comprises a memory further configured to move the coherent acoustic beam and the focuser to generate Frenel fringes in the interference zone, and an acoustic detector located to image the Frenel fringes. system. 前記メモリは、前記プロセッサが前記画像を鮮鋭化するための命令を含む、請求項13に記載のシステム。 13. The system of claim 13, wherein the memory comprises instructions for the processor to sharpen the image. 前記音響検出器の前に空間フィルタを更に備える、請求項14に記載のシステム。 14. The system of claim 14, further comprising a spatial filter in front of the acoustic detector. 前記コヒーレント音響ビームソースと前記フォーカサとの間に円錐リフレクタを更に備える、請求項15に記載のシステム。 15. The system of claim 15, further comprising a conical reflector between the coherent acoustic beam source and the focuser. 遠位端をそれぞれ有する一対の関節アームと、各音響検出器が前記遠位端に近接してアーム上に取り付けられる第2の音響検出器とを更に備える、請求項16に記載のシステム。 16. The system of claim 16, further comprising a pair of articulated arms, each having a distal end, and a second acoustic detector in which each acoustic detector is mounted on the arm in close proximity to the distal end. 卵巣を画像化するためのサイズである、請求項17に記載のシステム。 17. The system of claim 17, which is the size for imaging the ovaries. 物体に対して異なる光学濃度の第1の材料内の前記物体を撮像するためのシステムであって、
コヒーレント音響ビームを発するコヒーレント音響ビームソースと、仮想音響撮像ソースに前記コヒーレント音響ビームを集束させるように位置されたフォーカサであって、前記仮想音響撮像ソースは散乱ビームを発する、フォーカサと、前記コヒーレント音響ビームソースと機械通信するコヒーレント音響ビームアクチュエータと、前記フォーカサと機械通信するフォーカサアクチュエータと、音響検出器と、を含む装置と、
プロセッサ、ユーザインタフェース、及びメモリを含む計算デバイスであって、前記プロセッサは、前記音響検出器と電気通信し、前記メモリは、前記プロセッサと通信し、前記ユーザインタフェースに画像を表示するように前記プロセッサに指示する命令を有し、前記プロセッサは、前記コヒーレント音響ビームソースアクチュエータ及び前記フォーカサアクチュエータと電気通信し、前記メモリは、前記プロセッサと通信し、前記コヒーレント音響ビームソース及び前記フォーカサを移動させるように前記プロセッサに指示する命令を有し、その結果、前記散乱ビームの少なくとも一部が前記物体で反射され反射ビームとなり、前記物体を通過してバイパスビームとなり、且つ前記反射ビーム及び前記バイパスビームが干渉ゾーンを形成し、前記メモリは、前記コヒーレント音響ビーム及び前記フォーカサを移動させて前記干渉ゾーンにフレネル縞を生成し、前記音響検出器が前記フレネル縞を撮像するように位置されるように更に構成される、計算デバイスと、
を備えるシステム。
A system for imaging an object in a first material having a different optical density with respect to the object.
A coherent acoustic beam source that emits a coherent acoustic beam and a focuser that is positioned to focus the coherent acoustic beam on a virtual acoustic imaging source, wherein the virtual acoustic imaging source emits a scattered beam, the focuser, and the coherent acoustics. A device including a coherent acoustic beam actuator that mechanically communicates with a beam source, a focuser actuator that mechanically communicates with the focuser, and an acoustic detector.
A computing device that includes a processor, a user interface, and a memory, wherein the processor telecommunicationss with the acoustic detector, the memory communicates with the processor, and the processor displays an image on the user interface. The processor communicates with the coherent acoustic beam source actuator and the focuser actuator, and the memory communicates with the processor to move the coherent acoustic beam source and the focuser. Has an instruction to the processor, and as a result, at least a part of the scattered beam is reflected by the object to become a reflected beam, passes through the object and becomes a bypass beam, and the reflected beam and the bypass beam are Further forming an interference zone, the memory moves the coherent acoustic beam and the focuser to generate Frenel fringes in the interference zone, further such that the acoustic detector is positioned to image the Frenel fringes. Computational device and
A system equipped with.
JP2021534293A 2018-12-11 2019-12-06 Non-invasive diffuse acoustic confocal 3D imaging Pending JP2022513899A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/216,938 US20190117189A1 (en) 2015-01-15 2018-12-11 Non-invasive diffuse acoustic confocal three-dimensional imaging
US16/216,938 2018-12-11
PCT/CA2019/000164 WO2020118406A1 (en) 2018-12-11 2019-12-06 Non-invasive diffuse acoustic con focal three-dimensional imaging

Publications (1)

Publication Number Publication Date
JP2022513899A true JP2022513899A (en) 2022-02-09

Family

ID=71075900

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021534293A Pending JP2022513899A (en) 2018-12-11 2019-12-06 Non-invasive diffuse acoustic confocal 3D imaging

Country Status (3)

Country Link
EP (1) EP3894892A4 (en)
JP (1) JP2022513899A (en)
WO (1) WO2020118406A1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5535751A (en) * 1994-12-22 1996-07-16 Morphometrix Technologies Inc. Confocal ultrasonic imaging system
US6450960B1 (en) * 2000-08-29 2002-09-17 Barbara Ann Karmanos Cancer Institute Real-time three-dimensional acoustoelectronic imaging and characterization of objects
US20040059265A1 (en) 2002-09-12 2004-03-25 The Regents Of The University Of California Dynamic acoustic focusing utilizing time reversal
JP6553210B2 (en) 2015-01-15 2019-07-31 ハーリング、ロドニー Diffuse acoustic confocal imaging device

Also Published As

Publication number Publication date
EP3894892A4 (en) 2022-05-25
EP3894892A1 (en) 2021-10-20
WO2020118406A1 (en) 2020-06-18

Similar Documents

Publication Publication Date Title
KR100647025B1 (en) Method for exploring and displaying tissues of human or animal origin from a high frequency ultrasound probe
JP6489797B2 (en) Subject information acquisition device
JP6643251B2 (en) Device and method for photoacoustic imaging of objects
AU2020257073B2 (en) Diffuse acoustic confocal imager
JP6478572B2 (en) SUBJECT INFORMATION ACQUISITION DEVICE AND ACOUSTIC WAVE DEVICE CONTROL METHOD
US9880381B2 (en) Varifocal lens, optical scanning probe including the varifocal lens, and medical apparatus including the optical scanning probe
KR20150053630A (en) Probe and medical imaging apparatus employing the same
JP2017003587A (en) Device and method for hybrid optoacoustic tomography and ultrasonography
JP2017038917A (en) Subject information acquisition device
JP2017140092A (en) Subject information acquisition device
JP2022513899A (en) Non-invasive diffuse acoustic confocal 3D imaging
US20190117189A1 (en) Non-invasive diffuse acoustic confocal three-dimensional imaging
CN105686800A (en) Object information acquiring apparatus and control method therefor
Gao et al. Laparoscopic photoacoustic imaging system based on side-illumination diffusing fibers
WO2005019984A2 (en) Superresolution ultrasound
JP2020039809A (en) Subject information acquisition device and control method therefor
Tang et al. Actuated reflector-based three-dimensional ultrasound imaging with adaptive-delay synthetic aperture focusing
JP2019047884A (en) Photoacoustic apparatus
JP2004141447A (en) Reflective transmission type ultrasonic inverse scattering ct device
US20110141481A1 (en) Acoustic confocal interferometry microscope
US12004844B2 (en) Information acquisition apparatus and signal processing method
US20190183349A1 (en) Information acquisition apparatus and signal processing method
JP2015211708A (en) Object information acquisition device
JP2017202149A (en) Apparatus, method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230728

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231024

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240123

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240515