JP2022513899A - Non-invasive diffuse acoustic confocal 3D imaging - Google Patents
Non-invasive diffuse acoustic confocal 3D imaging Download PDFInfo
- Publication number
- JP2022513899A JP2022513899A JP2021534293A JP2021534293A JP2022513899A JP 2022513899 A JP2022513899 A JP 2022513899A JP 2021534293 A JP2021534293 A JP 2021534293A JP 2021534293 A JP2021534293 A JP 2021534293A JP 2022513899 A JP2022513899 A JP 2022513899A
- Authority
- JP
- Japan
- Prior art keywords
- acoustic
- coherent
- source
- focuser
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 37
- 230000001427 coherent effect Effects 0.000 claims abstract description 75
- 238000000034 method Methods 0.000 claims abstract description 57
- 239000000463 material Substances 0.000 claims abstract description 34
- 239000012530 fluid Substances 0.000 claims abstract description 32
- 230000003287 optical effect Effects 0.000 claims abstract description 16
- 239000000203 mixture Substances 0.000 claims description 16
- 210000001672 ovary Anatomy 0.000 claims description 12
- 206010028980 Neoplasm Diseases 0.000 claims description 6
- 230000005686 electrostatic field Effects 0.000 claims description 6
- 210000000577 adipose tissue Anatomy 0.000 claims description 4
- 210000003567 ascitic fluid Anatomy 0.000 claims description 3
- 210000005013 brain tissue Anatomy 0.000 claims description 3
- 210000000232 gallbladder Anatomy 0.000 claims description 3
- 230000002496 gastric effect Effects 0.000 claims description 3
- 230000003902 lesion Effects 0.000 claims description 3
- 210000000952 spleen Anatomy 0.000 claims description 3
- 210000002700 urine Anatomy 0.000 claims description 3
- 238000010586 diagram Methods 0.000 abstract description 5
- 210000001519 tissue Anatomy 0.000 description 15
- 238000002604 ultrasonography Methods 0.000 description 7
- 239000012634 fragment Substances 0.000 description 6
- 210000000481 breast Anatomy 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 201000010099 disease Diseases 0.000 description 5
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 210000000056 organ Anatomy 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 210000002307 prostate Anatomy 0.000 description 4
- 230000005855 radiation Effects 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 210000004872 soft tissue Anatomy 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004624 confocal microscopy Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 210000003754 fetus Anatomy 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 210000001367 artery Anatomy 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- -1 biology Substances 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 210000001161 mammalian embryo Anatomy 0.000 description 1
- 210000005075 mammary gland Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000000386 microscopy Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 210000003491 skin Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012285 ultrasound imaging Methods 0.000 description 1
- 210000003708 urethra Anatomy 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
- G01S15/8906—Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
- G01S15/8993—Three dimensional imaging systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N29/00—Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
- G01N29/04—Analysing solids
- G01N29/06—Visualisation of the interior, e.g. acoustic microscopy
- G01N29/0654—Imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
- G01S15/8906—Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
- G01S15/8909—Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration
- G01S15/8931—Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration co-operating with moving reflectors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
- G01S15/8906—Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
- G01S15/8934—Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a dynamic transducer configuration
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
- G01S15/8906—Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
- G01S15/8965—Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using acousto-optical or acousto-electronic conversion techniques
- G01S15/897—Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using acousto-optical or acousto-electronic conversion techniques using application of holographic techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/52017—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
- G01S7/52023—Details of receivers
- G01S7/52036—Details of receivers using analysis of echo signal for target characterisation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/52017—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
- G01S7/52079—Constructional features
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0808—Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the brain
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4209—Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames
- A61B8/4227—Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames characterised by straps, belts, cuffs or braces
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/44—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
- A61B8/4444—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
- A61B8/4472—Wireless probes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/48—Diagnostic techniques
- A61B8/485—Diagnostic techniques involving measuring strain or elastic properties
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N2291/00—Indexing codes associated with group G01N29/00
- G01N2291/02—Indexing codes associated with the analysed material
- G01N2291/024—Mixtures
- G01N2291/02475—Tissue characterisation
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Acoustics & Sound (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- General Health & Medical Sciences (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
物体に対して異なる光学濃度を有する第1の材料中の物体を撮像するための方法及び装置。本方法は、第1の材料の外側の流体又は非晶質の第2の材料内の仮想音響ソースに音響コヒーレントビームを集束させるステップと、仮想音響ソースからの少なくとも複数の散乱ビームが物体から反射されて反射ビームを形成し、少なくとも1つの散乱ビームが物体を迂回してバイパスビームを形成するように、流体又は非晶質の材料内の仮想音響ソースを移動させるステップであって、反射ビーム及びバイパスビームは互いに交差してコヒーレント干渉ゾーンを形成するステップと、フレネル縞を提供するようにコヒーレント干渉ゾーンをデフォーカスするステップと、物体の画像を形成するステップと、を含む。【選択図】図3A method and apparatus for imaging an object in a first material having different optical densities with respect to the object. The method comprises focusing an acoustic coherent beam on a virtual acoustic source in a fluid or amorphous second material outside the first material, and at least a plurality of scattered beams from the virtual acoustic source reflected from the object. The step is to move the virtual acoustic source within the fluid or amorphous material so that it forms a reflected beam so that at least one scattered beam bypasses the object to form a bypass beam. The bypass beams include a step of intersecting each other to form a coherent interference zone, a step of defocusing the coherent interference zone to provide Fresnel fringes, and a step of forming an image of the object. [Selection diagram] Fig. 3
Description
本技術は、サイズ、位置、及び形状が決定される3次元画像を得るために身体又は身体の一部を非侵襲的に走査する方法である。本方法は、更に、身体又は身体の一部の状態の判定を可能にする。走査装置も提供される。 The present art is a method of non-invasively scanning a body or part of a body to obtain a three-dimensional image in which the size, position, and shape are determined. The method further allows the determination of the condition of the body or part of the body. A scanning device is also provided.
ビームの振幅又は位相を検出することによって物体に関する情報を得るために放射線ビームを使用することは、科学的及び医学的目的でよく知られている。例えば、物体を通過するビームの位相情報は、物体の温度、組成、磁場又は静電場に関する情報を提供することができ、振幅測定は、物体の不透明度又は密度に関する情報を提供することができる。ビームは、放射の波から構成され、波Φは、振幅Aと位相θとの両方を用いて数学的に、
Φ=Aexp(θ) 1)
として記述することができる。
The use of radiation beams to obtain information about an object by detecting the amplitude or phase of the beam is well known for scientific and medical purposes. For example, phase information of a beam passing through an object can provide information about the temperature, composition, magnetic field or electrostatic field of the object, and amplitude measurement can provide information about the opacity or density of the object. The beam is composed of a wave of radiation, and the wave Φ is mathematically, using both the amplitude A and the phase θ.
Φ = Aexp (θ) 1)
Can be described as.
この方法から得られる情報は、ビーム波の振幅を検出しているのか、ビーム波の振幅と位相との両方を検出しているのかに依存する。この方法がX線の場合のようにビームの振幅のみを測定する場合、物体内の濃度差のみが報告される。これは、物体の温度、組成、弾性、歪み場、磁場又は静電場のような情報を提供しないので、この技術の限界である。X線イメージング法などの多数のイメージング技術のさらなる欠点は、使用される放射線の強度である。診断に使用される場合、使用されるレベルは体内の細胞に損傷を与える可能性がある。 The information obtained from this method depends on whether the amplitude of the beam wave is being detected or both the amplitude and phase of the beam wave are being detected. When this method measures only the amplitude of the beam, as in the case of X-rays, only the concentration difference within the object is reported. This is a limitation of this technique as it does not provide information such as temperature, composition, elasticity, strain field, magnetic field or electrostatic field of the object. A further drawback of many imaging techniques, such as X-ray imaging methods, is the intensity of the radiation used. When used for diagnosis, the levels used can damage cells in the body.
超音波を含む音響顕微鏡は現在、子宮内の胎児及び動脈及び静脈内の血流など、身体の内部を画像化するために広く使用されている。これらの顕微鏡は、平行な音響ビームを放射し、このビームは、骨などの表面、及ぶ胚の流体と胎児との間の界面などの界面に接触すると、拡散及び散乱ビームとして反射される。反射ビームは、音響ビームの強度を測定するために使用される。これらの顕微鏡は、筋肉又は胚性液などの軟組織を通過又は反射するビームの強度及び位相を測定することができない。これらの顕微鏡は、音響ビームの位相ではなく、音響ビームの強度のみを使用するため、温度又は組成を測定することもできない。したがって、画像は、表面又は界面に関係する情報以外の情報を提供するのに適していない。これらの顕微鏡の更なる欠点は、生成された画像が、表面又は界面に衝突後のビームの拡散散乱によって生じる相当量の背景強度を有することである。一例として、前立腺を取り上げると、超音波画像は前立腺と他の組織との間の界面を識別しにくく、また尿道を特定することもできるが、前立腺内の異常を特定することはできない。 Acoustic microscopes, including ultrasound, are now widely used to image the interior of the body, such as the fetus in the womb and blood flow in arteries and veins. These microscopes emit a parallel acoustic beam that is reflected as a diffuse and scattered beam upon contact with a surface such as bone, or an interface such as the interface between the fluid of the embryo and the fetus. The reflected beam is used to measure the intensity of the acoustic beam. These microscopes are unable to measure the intensity and phase of beams that pass through or reflect soft tissues such as muscle or embryonic fluid. Since these microscopes use only the intensity of the acoustic beam, not the phase of the acoustic beam, it is also not possible to measure the temperature or composition. Therefore, the image is not suitable for providing information other than information related to the surface or interface. A further drawback of these microscopes is that the generated image has a significant amount of background intensity caused by the diffuse scattering of the beam after impact on the surface or interface. Taking the prostate as an example, ultrasound images make it difficult to identify the interface between the prostate and other tissues, and can also identify the urethra, but not the abnormalities in the prostate.
ビームの振幅を測定する別の方法は、共焦点顕微鏡法である。共焦点走査レーザ顕微鏡は、3次元物体を見るために1980年代に開発された。共焦点走査レーザ顕微鏡法は、物体を通過するレーザービームを使用して、物体の焦点面上の点と共焦点に配置されたピンホールアパーチャを介してビームの振幅を検出することによって、物体の3次元振幅画像を生成する。 Another method of measuring the amplitude of a beam is confocal microscopy. Confocal scanning laser scanning microscopes were developed in the 1980s to view three-dimensional objects. Confocal scanning laser microscopy uses a laser beam that passes through an object to detect the amplitude of the beam through a pinhole aperture that is cofocal with a point on the focal plane of the object. Generate a 3D amplitude image.
共焦点顕微鏡は、現在、材料、生物学、及び医学において幅広い用途を見出している。診断ツールとしての共焦点顕微鏡は、検出されたビームの振幅差を生じる薄い組織及び物体の濃度差のみを検出することに限定される。ビームは、組織及び他の材料に遠くまで浸透することはできない。それらは、物体の位相情報を測定しない。したがって、共焦点顕微鏡は、物体の組成又は温度を測定することができない。 Confocal microscopes are currently finding a wide range of applications in materials, biology, and medicine. Confocal microscopy as a diagnostic tool is limited to detecting only the concentration differences of thin tissues and objects that cause the amplitude difference of the detected beam. The beam cannot penetrate far into tissue and other materials. They do not measure the phase information of the object. Therefore, a confocal microscope cannot measure the composition or temperature of an object.
仮に、この方法がビームの位相の変化を測定するならば、物体の温度及び組成に関する情報を提供することができる。これには音響ビームを用いることができる。音響ビームの位相は、物体の屈折率によって変化し、屈折率は、物体の温度及び組成に依存し、音響ビームの音速の尺度である。 If this method measures changes in the phase of a beam, it can provide information about the temperature and composition of the object. An acoustic beam can be used for this. The phase of the acoustic beam varies with the refractive index of the object, which depends on the temperature and composition of the object and is a measure of the speed of sound of the acoustic beam.
物体の絶対位相は、米国特許第7,639,365号に記載されているように、共焦点走査ホログラフィー顕微鏡を使用して測定することができる。この試みは、レーザービームが人体を容易に通過しないので、人体の内部を画像化するためには使用することができない。物体の相対位相は、米国特許第8,485,034号に記載されているように、音響共焦点干渉計顕微鏡を使用して測定することができる。この試みは、干渉ビームとミラーとプリズムとの複雑な配置を必要とし、幾何学的制約のために人体の内部を撮像するには適していない。 The absolute phase of an object can be measured using a confocal scanning holographic microscope as described in US Pat. No. 7,639,365. This attempt cannot be used to image the interior of the human body, as the laser beam does not easily pass through the human body. The relative phase of the object can be measured using an acoustic confocal interferometer microscope as described in US Pat. No. 8,485,034. This attempt requires a complex arrangement of interference beams, mirrors and prisms and is not suitable for imaging the interior of the human body due to geometric constraints.
標準的な干渉顕微鏡、標準的なホログラフィック顕微鏡、及び標準的なホログラフィック干渉顕微鏡が、物体の位相及び振幅の両方を測定し、物体の密度、組成及び温度などの重要な情報を与えるために使用されてきた。これらの顕微鏡は、位相と振幅の両方を測定することによって物体の3次元振幅画像及び位相画像を生成する。それらが光学顕微鏡であるので、これらの顕微鏡から測定された3次元情報は、物体の表面からのみ得られ、物体内の点では検出されない。全ての場合、参照ビーム及び物体ビームは、データを収集するために使用され、これは画像の形成をもたらす。これは、これらの顕微鏡の使用を、物体の表面からの又は表面についてのデータを収集することに制限する。したがって、医学的診断において、それらは、皮膚の疾患に潜在的に有用であるが、内部組織又は器官の疾患には有用ではない。 Standard interference microscopes, standard holographic microscopes, and standard holographic interference microscopes measure both the phase and amplitude of an object and provide important information such as the density, composition, and temperature of the object. Has been used. These microscopes produce 3D amplitude and phase images of an object by measuring both phase and amplitude. Since they are optical microscopes, the 3D information measured from these microscopes is obtained only from the surface of the object and is not detected at points within the object. In all cases, reference beams and object beams are used to collect data, which results in the formation of images. This limits the use of these microscopes to collecting data from or about the surface of the object. Therefore, in medical diagnosis, they are potentially useful for diseases of the skin, but not for diseases of internal tissues or organs.
音響ビームを使用して物体の振幅及び位相を測定することができる他の手段は、米国特許第6,679,846号、第6,436,046号、第6,132,375号及び第6,193,663号に開示されている空間フィルタリングされた透過型超音波位相画像である。空間的にフィルタリングされた透過型超音波位相画像化は、放射されたビームの振幅及び位相を測定し、その後、検出器への到着時に物体を通過した後の音響ビームの振幅及び位相を再び測定することを含む。振幅と位相の違いは、物体に起因する。音源から、ビームは外側に拡散して拡散し、必要ではない背景散乱に至る。この背景散乱内又は周囲には、関心のある画像がある。その画像は、画像化されている物体の界面を表す。これは、3次元画像を表すものではなく、関心のある組織又は器官内の病変組織を特定することもできない。同様に、材料においては、液体と固体との間の界面のような界面が存在しない限り、3次元画像を提供することも、材料内に異なる材料又は材料内の異なる物理的特性を有する領域を示すこともできない。 Other means by which the acoustic beam can be used to measure the amplitude and phase of an object are US Pat. Nos. 6,679,846, 6,436,046, 6,132,375 and 6. , 193,663 is a spatially filtered transmissive ultrasonic phase image disclosed in No. 193,663. Spatically filtered transmissive ultrasonic phase imaging measures the amplitude and phase of the emitted beam and then remeasures the amplitude and phase of the acoustic beam after passing through the object upon arrival at the detector. Including doing. The difference in amplitude and phase is due to the object. From the sound source, the beam diffuses outwards and diffuses, leading to unwanted background scattering. There is an image of interest in or around this background scatter. The image represents the interface of the object being imaged. It does not represent a three-dimensional image and cannot identify lesioned tissue within the tissue or organ of interest. Similarly, in a material, providing a three-dimensional image may also provide different materials within the material or regions with different physical properties within the material, as long as there is no interface, such as the interface between the liquid and the solid. I can't even show it.
米国特許出願公開第20040059265号は、組織内の腫瘍などの塊に音響エネルギーを非侵襲的に集束させて、塊を低減又は排除することを開示する。組織中の塊の存在は、物質に音響エネルギーを印加することによって検出される。塊は、その位置を決定するために局在化される。塊上の音響エネルギーを駆動するために時間的特徴が開発される。音響エネルギーを塊に動的に集束させて、それを低減又は排除することは、時間的特徴を利用して達成される。塊の画像化は、定在超音波画像化技術(強度情報を提供するために、体内の対象の物体から反射される患者の体外の音響ソースからの複数の平行ビームの使用[この反射信号は仮想ソースと称されるが、ソースではない])を使用して行われ、その後、モデル化又は時間反転のいずれかが、音響エネルギーを駆動するために使用され、その後、塊を処理するために、塊に集束される。この方法の欠点は、モデル及び仮定に基づくという事実、塊の撮像が超音波を使用して得られる画像よりも良好ではないという事実、それらがどのように撮像されるか、及びこの方法を使用して到達可能な情報が限定されるという事実を含む。また、3次元位置を決定することができないので、塊を処理するために使用される場合、そのような処理は、モデル及び仮定、又は正しいとされる時間反転に依存する。 U.S. Patent Application Publication No. 20040059265 discloses the non-invasive focusing of sound energy on a mass such as a tumor within a tissue to reduce or eliminate the mass. The presence of lumps in tissue is detected by applying sound energy to the substance. The mass is localized to determine its position. Temporal features are developed to drive the sound energy on the mass. Dynamically focusing sound energy on a mass and reducing or eliminating it is achieved by utilizing temporal features. Mass imaging is a stationary ultrasound imaging technique that uses multiple parallel beams from an acoustic source outside the patient's body that are reflected from an object in the body to provide intensity information [this reflected signal is Called a virtual source, but not a source]), then either modeling or time reversal is used to drive the sound energy and then to process the mass. , Focused on a lump. Disadvantages of this method are the fact that it is based on models and assumptions, the fact that imaging of masses is not better than images obtained using ultrasound, how they are imaged, and the use of this method. Includes the fact that reachable information is limited. Also, since the 3D position cannot be determined, when used to process chunks, such processing depends on the model and assumptions, or the time reversal that is justified.
ビームの振幅及び位相の両方を検出することができるデバイス、システム及び方法を提供することが有益である。このようなデバイス、システム及び方法は、物体の密度、温度、組成、弾性、歪み場、磁気又は静電場に関する情報を提供することができる。これは、密度、温度及び組成に関する情報を得ることができるように、医療分野において非常に重要であり、癌などの疾患の治療の有効性を潜在的に診断し、治療し、評価することを可能にする。理想的には、デバイスは、身体の様々な部分(例えば、前立腺、***、頭、及び皮膚などであるが、これらに限定されない)への適用のための様々な異なる形状の検出器ホルダを備えた手持ち型に適している。物体の3次元画像を検出し提供するために使用される同じビームが、物体を処理するために使用され得る場合、有利である。 It is useful to provide devices, systems and methods capable of detecting both the amplitude and phase of the beam. Such devices, systems and methods can provide information about the density, temperature, composition, elasticity, strain field, magnetic or electrostatic field of an object. This is of great importance in the medical field so that information on density, temperature and composition can be obtained, potentially diagnosing, treating and assessing the effectiveness of treatment of diseases such as cancer. enable. Ideally, the device would be equipped with a variety of differently shaped detector holders for application to different parts of the body, such as, but not limited to, the prostate, breast, head, and skin. Suitable for handheld type. It is advantageous if the same beam used to detect and provide a three-dimensional image of the object can be used to process the object.
温度及び乾燥組成の測定が重要である用途の例には、体内の器官、組織及び疾患領域の機能を理解することを目的とする医学診断が含まれる。現在、医学研究者は、身体の内部温度及び組成を非侵襲的に測定するための良好な手段を有していない。本技術の目的は、このような能力を提供することである。 Examples of applications where measurement of temperature and dry composition are important include medical diagnostics aimed at understanding the function of organs, tissues and disease areas within the body. Currently, medical researchers do not have good means for non-invasively measuring the internal temperature and composition of the body. The purpose of this technology is to provide such capabilities.
本技術は、超音波法よりもはるかに優れた異なる光学濃度の別の物体において、1つの光学濃度の物体の3次元画像を作成する方法を提供する。コヒーレントビームは、物体の外部、及び流体又は非晶質内の仮想ソースに集束される。バイパスビームと反射ビームとの干渉ゾーンを作ることにより、干渉ゾーンを作ることができる。この干渉ゾーンは、3次元画像を提供するためにデフォーカスされる。 The present art provides a method of creating a three-dimensional image of an object of one optical density in another object of different optical densities, which is far superior to the ultrasonic method. The coherent beam is focused on the outside of the object and on a virtual source inside the fluid or amorphous. An interference zone can be created by creating an interference zone between the bypass beam and the reflected beam. This interference zone is defocused to provide a 3D image.
一実施形態では、物体に対して異なる光学濃度を有する第1の材料内の前記物体を撮像する方法であって、前記第1の材料の外側の流体又は非晶質の第2の材料内の仮想音響ソースに音響コヒーレントビームを集束させるステップと、前記仮想音響ソースからの少なくとも複数の散乱ビームが前記第1の材料を走査し、少なくとも1つの散乱ビームが前記物体から反射されて反射ビームを形成し、少なくとも1つの散乱ビームが前記物体を迂回してバイパスビームを形成するように、前記流体又は非晶質の材料内の前記仮想音響ソースを移動させるステップであって、前記反射ビーム及び前記バイパスビームは、互いに交差してコヒーレント干渉ゾーンを形成するステップと、フレネル縞を提供するように前記コヒーレント干渉ゾーンをデフォーカスするステップであって、前記フレネル縞は、前記物体の画像を形成するステップと、を含む方法が提供される。 In one embodiment, a method of imaging the object in a first material having different optical densities with respect to the object, in a fluid or amorphous second material outside the first material. A step of focusing an acoustic coherent beam on a virtual acoustic source, and at least a plurality of scattered beams from the virtual acoustic source scan the first material, and at least one scattered beam is reflected from the object to form a reflected beam. A step of moving the virtual acoustic source within the fluid or amorphous material such that at least one scattered beam bypasses the object to form a bypass beam, wherein the reflected beam and the bypass. The beams are a step of intersecting each other to form a coherent interference zone and a step of defocusing the coherent interference zone to provide Fresnel fringes, wherein the Fresnel fringes form an image of the object. , Including methods are provided.
本方法は、前記物体の前記画像を検出する音響検出器を更に備えてもよい。 The method may further include an acoustic detector that detects the image of the object.
本方法は、少なくとも1つの散乱ビームが前記物体を通過して物体ビームとなり、前記音響検出器によって検出されるように、前記流体又は非晶質の材料中の前記仮想音響ソースを移動させるステップを更に含んでもよい。 The method steps to move the virtual acoustic source in the fluid or amorphous material so that at least one scattered beam passes through the object to become an object beam and is detected by the acoustic detector. Further may be included.
本方法は、前記物体ビームの位相を前記バイパスビームの位相と比較して、前記物体に関する情報を提供するステップを更に含んでもよい。 The method may further include a step of comparing the phase of the object beam with the phase of the bypass beam to provide information about the object.
本方法は、前記物体ビームの振幅を前記バイパスビームの振幅と比較して、前記物体に関する情報を提供するステップを更に含んでもよい。 The method may further include a step of comparing the amplitude of the object beam with the amplitude of the bypass beam to provide information about the object.
本方法において、前記位相からの前記情報は、前記物体の温度、組成、磁場、又は静電場であって、前記振幅からの前記情報は、前記物体の前記光学濃度であってもよい。 In the present method, the information from the phase may be the temperature, composition, magnetic field, or electrostatic field of the object, and the information from the amplitude may be the optical density of the object.
本方法では、前記物体の音速が決定されてもよい。 In this method, the speed of sound of the object may be determined.
本方法では、前記物体の前記音速は、前記物体を識別するために使用されてもよい。 In this method, the speed of sound of the object may be used to identify the object.
本方法では、前記物体は、前記第1の材料内の腫瘍又は病変として識別されてもよい。 In the method, the object may be identified as a tumor or lesion within the first material.
本方法では、前記音響コヒーレントビームは、患者の体内の流体又は非晶質の第2の材料内に集束されてもよい。 In the method, the acoustic coherent beam may be focused within a fluid or amorphous second material in the patient's body.
本方法では、前記音響コヒーレントビームは、膀胱内の尿、脂肪組織、脳組織、腹膜液、胃液、胆嚢、及び脾臓のうちの1つに集束されてもよい。 In this method, the acoustic coherent beam may be focused on one of urine, adipose tissue, brain tissue, peritoneal fluid, gastric fluid, gallbladder, and spleen in the bladder.
本方法では、前記音響コヒーレントビームは、対象の身体の少なくとも一部が浸漬されている患者の身体の外側の流体内に集束されてもよい。 In the method, the acoustic coherent beam may be focused in a fluid outside the patient's body in which at least a portion of the subject's body is immersed.
別の実施形態では、物体に対して異なる光学濃度の第1の材料内の前記物体を撮像するためのシステムであって、コヒーレント音響ビームを発するコヒーレント音響ビームソースと、仮想音響撮像ソースに前記コヒーレント音響ビームを集束させるように位置されたフォーカサであって、前記仮想音響撮像ソースは、散乱ビームを発する、フォーカサと、前記コヒーレント音響ビームソースと機械通信するコヒーレント音響ビームソースアクチュエータと、前記フォーカサと機械通信するフォーカサアクチュエータと、前記コヒーレント音響ビームソースアクチュエータ及び前記フォーカサアクチュエータと電気通信するプロセッサと、前記散乱ビームの少なくとも一部が前記物体で反射され反射ビームとなり、前記物体を通過してバイパスビームとなるように、且つ、前記反射ビーム及び前記バイパスビームが干渉ゾーンを形成するように、前記プロセッサと通信し、前記コヒーレント音響ビームソース及び前記フォーカサを移動させるように前記プロセッサに指示する命令を有するメモリであって、前記メモリは、前記コヒーレント音響ビーム及び前記フォーカサを動かして前記干渉ゾーンにフレネル縞を生成するように更に構成される、メモリと、前記フレネル縞を撮像するように位置された音響検出器と、を備えるシステムが提供される。 In another embodiment, a system for imaging the object in a first material having a different optical density with respect to the object, the coherent acoustic beam source emitting a coherent acoustic beam and the coherent to the virtual acoustic imaging source. A focuser positioned to focus the acoustic beam, the virtual acoustic imaging source is a focuser that emits a scattered beam, a coherent acoustic beam source actuator that mechanically communicates with the coherent acoustic beam source, and the focuser and machine. A focusing actuator that communicates, a coherent acoustic beam source actuator, a processor that communicates with the focuser actuator, and at least a part of the scattered beam is reflected by the object to become a reflected beam, which passes through the object and is a bypass beam. And has instructions to communicate with the processor and instruct the processor to move the coherent acoustic beam source and the focuser so that the reflected beam and the bypass beam form an interference zone. A memory, wherein the memory is further configured to move the coherent acoustic beam and the focuser to generate Frenel fringes in the interference zone, and an acoustically located to image the Frenel fringes. A system with a detector is provided.
本システムでは、前記メモリは、前記プロセッサが前記画像を鮮鋭化するための命令を含んでもよい。 In the system, the memory may include instructions for the processor to sharpen the image.
本システムは、前記音響検出器の前に空間フィルタを更に備えてもよい。 The system may further include a spatial filter in front of the acoustic detector.
本システムは、前記コヒーレント音響ビームソースと前記フォーカサとの間に円錐リフレクタを更に備えてもよい。 The system may further include a conical reflector between the coherent acoustic beam source and the focuser.
本システムは、遠位端をそれぞれ有する一対の関節アームと、各音響検出器が前記遠位端に近接してアーム上に取り付けられる第2の音響検出器とを更に備えてもよい。 The system may further include a pair of joint arms, each with a distal end, and a second acoustic detector with each acoustic detector mounted on the arm in close proximity to the distal end.
本システムは、卵巣を画像化するためのサイズであってもよい。 The system may be sized to image the ovaries.
更に別の実施形態では、物体に対して異なる光学濃度の第1の材料内の前記物体を撮像するためのシステムであって、
コヒーレント音響ビームを発するコヒーレント音響ビームソースと、仮想音響撮像ソースに前記コヒーレント音響ビームを集束させるように位置されたフォーカサであって、前記仮想音響撮像ソースは散乱ビームを発する、フォーカサと、前記コヒーレント音響ビームソースと機械通信するコヒーレント音響ビームアクチュエータと、前記フォーカサと機械通信するフォーカサアクチュエータと、音響検出器と、を含む装置と、
プロセッサ、ユーザインタフェース、及びメモリを含む計算デバイスであって、前記プロセッサは、前記音響検出器と電気通信し、前記メモリは、前記プロセッサと通信し、前記ユーザインタフェースに画像を表示するように前記プロセッサに指示する命令を有する、計算デバイスと、を備えるシステムが提供される。
In yet another embodiment, it is a system for imaging the object in a first material having a different optical density with respect to the object.
A coherent acoustic beam source that emits a coherent acoustic beam and a focuser that is positioned to focus the coherent acoustic beam on a virtual acoustic imaging source, wherein the virtual acoustic imaging source emits a scattered beam, the focuser, and the coherent acoustics. A device including a coherent acoustic beam actuator that mechanically communicates with a beam source, a focuser actuator that mechanically communicates with the focuser, and an acoustic detector.
A computing device that includes a processor, a user interface, and a memory, wherein the processor telecommunicationss with the acoustic detector, the memory communicates with the processor, and the processor displays an image on the user interface. A system comprising a computing device, which has an instruction to direct to, is provided.
本システムでは、前記メモリは、前記プロセッサが前記画像を鮮鋭化するための命令を含んでもよい。 In the system, the memory may include instructions for the processor to sharpen the image.
本システムは、前記音響検出器の前に空間フィルタを更に備えてもよい。 The system may further include a spatial filter in front of the acoustic detector.
本システムでは、前記フォーカサは、凹状の湾曲した円錐形状の反射物であってもよい。 In this system, the focuser may be a concave curved conical reflector.
本システムは、前記凹状の湾曲した円錐形状の反射物と前記音響検出器との間に円錐形の鏡面を更に備えてもよい。 The system may further include a conical mirror surface between the concave curved conical reflector and the acoustic detector.
本システムでは、前記プロセッサは、前記コヒーレント音響ビームソースアクチュエータ及び前記フォーカサアクチュエータと電気通信し、前記メモリは、前記プロセッサと通信し、前記コヒーレント音響ビームソース及び前記フォーカサを移動させるように前記プロセッサに指示する命令を有し、その結果、前記散乱ビームの少なくとも一部が前記物体で反射され反射ビームとなり、前記物体を通過してバイパスビームとなり、且つ前記反射ビーム及び前記バイパスビームが干渉ゾーンを形成し、前記メモリは、前記コヒーレント音響ビーム及び前記フォーカサを移動させて前記干渉ゾーンにフレネル縞を生成し、前記音響検出器が前記フレネル縞を撮像するように位置されるように更に構成されてもよい。 In this system, the processor communicates with the coherent acoustic beam source actuator and the focuser actuator, and the memory communicates with the processor to move the coherent acoustic beam source and the focuser to the processor. It has a command to instruct, so that at least a portion of the scattered beam is reflected by the object to become a reflected beam, passes through the object to become a bypass beam, and the reflected beam and the bypass beam form an interference zone. However, the memory may be further configured to move the coherent acoustic beam and the focuser to generate Frenel fringes in the interference zone, and the acoustic detector to be positioned to image the Frenel fringes. good.
特に明示されない限り、以下の解釈の規則は本明細書(詳細な説明、請求項及び図面)に適用される。(a)本明細書で使用される全ての単語は、状況が必要とするような文法上の性又は数(単数又は複数)であると解釈されるものとする。(b)明細書及び添付の特許請求の範囲で使用されている単数の用語「a」、「an」及び「the」は、文脈上他に明確に指示されない限り、複数の参照を含む。(c)引用された範囲又は値に適用される先行用語「約」は、測定方法から当技術分野で公知又は予想される範囲又は値における偏差内の近似値を示す。(d)「ここに」、「これによって」、「そこに」、「そこへ」、「前に」、及び「以後」という単語及び同様の趣旨の単語は、この明細書全体を参照するものであり、特に指定しない限り、何らかの特定の節、請求項又は他の下位区分を参照するものではない。(e)記述の見出しは便宜上のものであり、明細書の如何なる部分の意味又は構成にも規制若しくは影響を与えるものではない。(f)「又は」及び「任意の」は排他的ではなく、「含む」及び「含む」は限定的ではない。さらに、「備える」、「有する」、「含む」及び「含有する」という用語は、特に明記しない限り、無制限の用語(すなわち、「含むが、これに限定されない」を意味する)として構成されている。 Unless otherwise stated, the following rules of interpretation apply herein (detailed description, claims and drawings). (A) All words used herein shall be construed to be grammatical gender or number (singular or plural) as required by the situation. (B) The singular terms "a", "an" and "the" used in the specification and the accompanying claims include multiple references unless expressly specified otherwise in the context. (C) The preceding term "about" applied to a cited range or value indicates an approximation within a deviation within a range or value known or expected in the art from the measurement method. (D) The words "here", "by this", "there", "there", "before", and "after" and words to the same effect refer to the entire specification. And, unless otherwise specified, does not refer to any particular clause, claim or other subdivision. (E) The headings of the description are for convenience only and do not regulate or affect the meaning or composition of any part of the specification. (F) "or" and "arbitrary" are not exclusive, and "include" and "include" are not limited. Further, the terms "prepare", "have", "contain" and "contain" are configured as unlimited terms (ie, meaning "include, but not limited to") unless otherwise specified. There is.
本明細書中の値の範囲の列挙は、本明細書中で別段の指示がない限り、範囲内の各別個の値を個別に指す簡略的方法として便宜になることを意図しており、それぞれの個別値は本明細書に個別に列挙されているかのように、明細書に組み込まれる。特定の範囲の値が提供される場合、下限の単位の10分の1までの各介在値は、その範囲の上限と下限との間の他の記載された値又は介在する値及びその他の記載された範囲内に含まれることが理解される。全てのより小さな下位範囲も含まれている。これらのより小さい範囲の上限及び下限も、記載された範囲内の特定の除外された限界を条件として、そこに含まれる。 The enumeration of the range of values herein is intended to be convenient as a simplified way of pointing to each distinct value within the range individually, unless otherwise indicated in the specification. The individual values of are incorporated herein as if they were individually listed herein. If a range of values is provided, each intervening value up to one tenth of the unit of the lower bound is any other stated or intervening value between the upper and lower bounds of the range and other descriptions. It is understood that it is included within the specified range. All smaller subranges are also included. The upper and lower limits of these smaller ranges are also included, subject to certain excluded limits within the stated range.
別に定義されない限り、本明細書で使用される全ての技術用語及び科学用語は、関連技術分野の当業者によって一般的に理解されるのと同じ意味を有する。本明細書に記載された方法及び材料と類似又は均等の任意の方法及び材料も使用することができるが、ここでは許容可能な方法及び材料を記載する。 Unless otherwise defined, all technical and scientific terms used herein have the same meaning as commonly understood by one of ordinary skill in the art. Any method and material similar to or equivalent to the methods and materials described herein can also be used, but here describes acceptable methods and materials.
図1に、一般に10と呼ばれる、組織、器官、又は体の部位(物体)を画像化するための、一般に8と呼ばれるシステムの概要を概略的に示す。それは、ノイズ(スペックルノイズ)であると考えられる散乱ビームを生成し、使用する。コヒーレント音響エミッタ等のコヒーレント音響ソース12は、単一のコヒーレント音響ビーム14を発する。コヒーレント音響ソース12は、手動で移動することができ、或いはコヒーレント音響ソース12と機械通信しているソースアクチュエータ16と共に移動することができる。ソースアクチュエータ16は、メモリ19の制御下にあるプロセッサ18で制御されることが好ましく、プロセッサ18がソースアクチュエータ16を作動させるように指示する命令を有する。コヒーレント音響ソース12は、哺乳動物の体内の密度、温度、組成、弾性、又は歪み場のうちの1又は複数を含む情報を得るために、約0.5メガヘルツと約100メガヘルツとの間及びそれらを含むビーム周波数を有するコヒーレント音響ビーム14を提供する。
FIG. 1 schematically outlines a system, commonly referred to as 8, for imaging a tissue, organ, or body part (object), commonly referred to as 10. It produces and uses scattered beams that are considered noise (speckle noise). A coherent
コヒーレント音響ビーム14は、典型的には1センチメートル又は数センチメートルのオーダーの大きな断面積を有する。コヒーレント音響ビーム14は、円錐形状のリフレクタ22に導かれ、次いで、集束(収束)ミラー又はレンズ24に導かれ、曲面によって反射され、流体又は非晶質の媒体32に伝達される収束ビーム30に集束される。集束ミラー24は、プロセッサ18の制御下で、集束ミラーアクチュエータ26の制御下で旋回し、次いで、プロセッサ18にアクチュエータ26を作動させるように指示する命令を有するメモリ19によって制御される。円錐形状のリフレクタ22は、アクチュエータ28の制御下にあり、アクチュエータは、これを音響エミッタ(ソース)12に向かって、及びそこから離れるように移動させる。プロセッサ18の制御下にあるアクチュエータ28は、メモリ19によって制御され、メモリ19は、アクチュエータ28を作動させるようにプロセッサ18に指示するための命令を有する。一実施形態では、流体又は非晶質の媒体32は、体内にあり、例えば、膀胱内の尿、脂肪組織、脳組織、腹膜液、胃液、胆嚢、及び脾臓であるが、これらに限定されない。収束ビーム30は、クロスオーバー点で仮想的に収束された音響撮像ソース34である点に収束する。メモリ19の制御下にあるプロセッサ18は、ソースアクチュエータ16に指向され、コヒーレント音響ソース12がソース34を流体又は非晶質の媒体32内に移動させて、流体又は非晶質の媒体32内の周囲を移動させるように構成される。更に、メモリ19の制御下にあるプロセッサ18は、フォーカスミラー24に向かって且つフォーカスミラー24から離れて円錐形状のリフレクタ22を移動させ、音響エミッタ12に向かって且つ音響エミッタ12から離れて仮想ソース34を移動させ、流体又は非晶質の媒体32に仮想ソース34を再び位置付けするように構成される。仮想ソース34は、撮像される物体の外側であって、流体又は非晶質の媒体32の内側に配置される。ソース34は、全ての方向に3次元的に散乱される複数のビーム36を送信する。散乱ビーム36は、媒体32から通過する。流体又はアモルファス媒体32内でソース34を移動させることによって、複数のビーム36は、媒体32の外側の周りを走査する。ビーム36は、遭遇する任意の物体10内に入り、次いで、物体ビーム38として物体10の外に出て、音響検出器40によって検出される。音響検出器40は、物体ビーム38を検出できるように、ソース34に向けられる。物体ビーム38は、物体10を通過する際に屈折する。音響検出器40は、ある範囲の角度方向を有する物体ビーム38を収集するように移動することができる。物体ビーム28は、物体10を通過する際に屈折する。音響検出器40は、反射ビーム37とバイパスビーム39との組み合わせによって作られた画像をデフォーカスし、その結果、それが写真的に見えるようにするために、物体10に向かって及び物体10から離れて移動する。検出器アクチュエータ42は、音響検出器40と機械通信しており、検出器アクチュエータ42と電子通信しているプロセッサ18の制御下にある。ここでも、プロセッサ18は、メモリ19から命令を受け取る。物体ビーム38は、物体10に関する情報も含む。物体ビーム38によって伝送される情報は、当技術分野で知られている技法に従ってその振幅及び位相を決定するために分析される。物体ビーム38の位相情報は、物体の温度、組成、磁場又は静電場に関する情報を提供し、振幅の測定は、物体の不透明度又は濃度に関する情報を提供する。空間フィルタ46は、望ましくない散乱ビーム36からのノイズを減少させ、音響検出器40の前に配置される。
The coherent
伝達媒質60は、患者と、コヒーレント音響ソース12及び音響検出器40の各々との間で使用される。代替的に、患者又は患者の関連部分が患者とデバイス8との間に流体界面が存在するように、流体に浸漬されてもよい。物体10を観察するために、ソース34は、集束ミラー24及び音響検出器40を旋回させることによって、又は顕微鏡6を移動させることによって、又は患者を再位置決めすることによって、媒体32内で移動する。放射及び受信強度の振幅及び位相情報が画像を生成するために使用されないため、ベクトルネットワークアナライザが不要である。しかしながら、時間フィルタのためのベクトルネットワークアナライザを使用して、より良好な強度画像を得ることができる。フレネル縞を使用する強度画像は、時間フィルタ及び空間フィルタを使用せずに形成するが、これらのフィルタを使用すると仮想ソースの見かけのサイズを小さくすることができることによって強度画像が改善される、すなわち、より良い空間分解能が得られる。
The
音像化(sound imaging)の位相又は速度には、ベクトルネットワークアナライザは、検出器内の各要素で音響ビームを受信するための時間差を測定するために必要である。エミッタ/レンズアセンブリから検出器への音響ビームによって進行する経路長であるため、ベクトルネットワークアナライザを用いて時間を測定することにより、速度(m/s)を求めることができる。 For the phase or velocity of sound imaging, a vector network analyzer is needed to measure the time lag for receiving an acoustic beam at each element in the detector. Since it is the path length traveled by the acoustic beam from the emitter / lens assembly to the detector, the velocity (m / s) can be determined by measuring the time using a vector network analyzer.
図2A及び2Bは、従来技術の超音波(2A)及び本開示の拡散音響共焦点撮像装置(2B)において、ビーム及びそれらがどのように画像を生成するかの比較を示す。コヒーレントビーム14は、物体10に当たって、反射ビーム2及び散乱ビーム4を生成する。反射ビーム2は、画像を生成する(界面を識別するためには組織タイプ間の屈折率の比較的大きな差が必要であり、界面のみが識別されることに留意されたい)。散乱ビーム4は、クリーン画像を生成するために除去する必要があるノイズを生成する。
2A and 2B show a comparison of the beams and how they produce images in the prior art ultrasound (2A) and the diffuse acoustic confocal imager (2B) of the present disclosure. The
拡散音響共焦点撮像装置を使用して、発したコヒーレントビーム14は、非常に平坦(平面)(空間コヒーレンス)であり、一定(時間的コヒーレンス)である。コヒーレントビーム14は、点に収束する収束ビーム30、散乱ビーム36を発する仮想ソース34に集束される。仮想ソース34は、散乱ビーム36が多くのスポット、距離及び角度から物体10に当たることができるように移動することができる。散乱ビーム36は、物体10を避け、物体の縁に当たって縁で反射するか、又は物体10を通過するかのいずれかを行う。
The
物体から反射されたものは、反射ビーム37と呼ばれる。物体を通過するものは、物体ビーム38と呼ばれる。物体を避けるが反射ビーム37と重なり合うものは、バイパスビーム39と呼ばれる。
What is reflected from the object is called a reflected
物体ビーム38は、物体10の診断目的のために考慮することができる。時間的コヒーレンスを用いて音像の速度を形成するために、ビームの放出時間が測定され、次いで、画像中の各画素におけるビームの到達時間が測定される。画像にわたる音速の差は、全て、画像内の構造を診断するために使用することができる。
The
オーバーラップ内の反射ビーム37とバイパスビーム39との間の空間コヒーレンス干渉は、画像を作成するために使用される。物体10の画像は、物体10の診断目的のためのインラインホログラムと考えることができる。より具体的には、フレネル回折の原理を用いて画像を作成する。バイパスビーム39は、反射ビーム37と重なって干渉ゾーン141を生成する。これら2つのビーム間のこの干渉ゾーン141は、フレネル干渉縞又はデフォーカス縞を形成する。バイパスビーム39及び反射ビーム37におけるコヒーレンスの保持は、画像に干渉縞又はフレネル縞を形成するために必要とされる。デフォーカス又はフレネル縞の強度のうちのある程度は、物体10を出てバイパスビーム39と干渉する屈折物体ビーム38からもたらされ、同様に、バイパスビーム及び反射ビームが干渉するが、屈折物体ビームは、フレネル縞の画像形成処理においてそこまで重要な役割を有しない。
Spatial coherence interference between the reflected
フレネル回折は、デフォーカスが生じると音響画像に縞(フレネル縞)を生成する。フレネル縞は、外形と背景(バックグラウンド)との間のコントラストを増強し、軟組織及び異なる軟組織間の界面の画像化を可能にする。これは、屈折率の差が非常に小さい組織、例えば、限定されるものではないが、***組織及び***組織内の乳腺、組織の病変、及び卵管の卵子を含む。 Fresnel diffraction produces fringes (Fresnel fringes) in an acoustic image when defocus occurs. Fresnel fringes enhance the contrast between the contour and the background, allowing imaging of soft tissues and the interface between different soft tissues. This includes tissues with very small refractive index differences, such as, but not limited to, breast tissue and mammary glands within breast tissue, tissue lesions, and oviductal ova.
オーバーラップの幅はデフォーカス(焦点ぼけ)と共に増加し、フレネル縞の幅が増加する。デフォーカスは、物体及びカメラが同じ平面上にあるところでゼロに減少する。この状態では、オーバーラップがないので縞を作ることができないため、物体は消えて見えない。 The width of the overlap increases with defocus and the width of the Fresnel fringes increases. Defocus is reduced to zero where the object and the camera are on the same plane. In this state, since there is no overlap, it is not possible to create stripes, so the object disappears and cannot be seen.
加えて、空間分解能は、フレネル縞の幅によって決定される。画像中に見られるフレネル縞の最小幅は、仮想ソースのサイズの大きさである。仮想ソースのサイズは、エミッタ/レンズアセンブリの集束能力とエミッタからの放出ビームの波長とによって決まる。分解能は、音響ビームの波長に近づくことができ、50MHzの音響ビームに対しては細胞の大きさに近づく(λ=周波数/速度=毎秒50,000,000回/1500m/s=0.00003=30ミクロン)。これは、超音波よりもはるかに高い分解能である。 In addition, spatial resolution is determined by the width of the Fresnel fringes. The minimum width of the Fresnel stripes seen in the image is the size of the virtual source. The size of the virtual source is determined by the focusing ability of the emitter / lens assembly and the wavelength of the emitted beam from the emitter. The resolution can approach the wavelength of the acoustic beam and approach the size of the cell for a 50 MHz acoustic beam (λ = frequency / velocity = 5,000,000 times per second / 1500 m / s = 0.00003 = 30 microns). This is a much higher resolution than ultrasound.
大きな焦点ぼけ、すなわち広い縞線で形成された画像は、デフォーカス量、デルタfを適用することによって、縞幅の減少がデルタf×コーン角度の1/2になるように円錐角、ビームのαを知ることによって、画像中の特徴(すなわちフレネル縞)を鮮明にするプロセッサで処理することができる。同様に、コーン角、及び既知又は測定されたデフォーカスによる縞幅の変化を知ることは、画像内の物体の距離又は位置、z、を決定するために使用することができ、画像内で横方向寸法x、yが既に測定可能であるため、3D画像を生成することが可能になる。これは、反射画像(超音波)に対して、本技術によって生成される透過画像のもう一つの利点である。超音波は、反射ビームの複素反射時間測定によってzを取得する。 For images formed with large defocus, that is, wide stripes, by applying the defocus amount, delta f, the reduction of the stripe width is delta f × 1/2 of the cone angle so that the cone angle and beam By knowing α, it can be processed by a processor that sharpens features (that is, frennel stripes) in an image. Similarly, knowing the cone angle and the change in stripe width due to known or measured defocus can be used to determine the distance or position, z, of an object in the image, laterally in the image. Since the directional dimensions x and y can already be measured, it becomes possible to generate a 3D image. This is another advantage of the transmitted image produced by this technique over the reflected image (ultrasound). Ultrasound acquires z by measuring the complex reflection time of the reflected beam.
仮想ソース34と物体10との間の距離は、物体の倍率を決定する。仮想ソース34が物体10に近づくほど、拡大率は1に近づく。物体の倍率は、仮想ソース34が物体10に近づくほど大きくなる。
The distance between the
メモリ19内のソフトウェアによって提供される空間フィルタ46及び時間フィルタ54(図1を参照)は、画像に使用される音響仮想ソース34の体積を制限し、体積が小さいほど画像の解像度が良くなる。空間分解能は、部分的には、集束仮想ソース34における収束ビーム30のサイズによって設定される。空間フィルタ46は、仮想ソース34の横方向x、y寸法又は角度受容角を規定する。空間フィルタ46は、仮想ソース34よりも小さくすることができ、空間解像度を決定する因子の1つである。これは、x、y平面における空間分解能を決定する決定因子であり得る。時間フィルタ54は、仮想ソース34のz又は軸方向空間分解能を決定する。これは、音響信号を受信するための受付時間、開始時間、及び停止時間を決定する。
The
図3に示す実施形態では、流体又は非晶質の媒体132が人体の外にあり、容器102内に収容される。容器102は、好ましくはデバイス110に調節可能に取り付けられる。システムの構成要素は上述の通りである。収束ビーム130は、クロスオーバーの点で仮想収束音響撮像ソース134である点に収束する。プロセッサ18は、メモリ19の制御下にあり、ソースアクチュエータ16を動かして、コヒーレント音響ソース12が流体又は非晶質の媒体132内の仮想ソース134を移動させ、流体又は非晶質の媒体132内の周囲でそれを移動させるように指示するように構成される。仮想ソース134は、全ての方向に3次元的に散乱された複数のビーム136を送信する。これらの散乱ビーム136は、媒体132から通過する。流体又は非晶質の媒体132内で仮想ソース134を移動させることによって、複数の散乱ビーム136は、媒体132の外側を走査する。入射角に応じて、散乱ビーム136は、それらが遭遇する任意の物体10内に入射し、物体10を通過し、音響検出器140によって物体ビーム138として検出される。他の散乱ビーム136は、物体10から反射され、反射ビーム137と呼ばれる。物体を避けるが反射ビーム137と重なる散乱ビーム136は、バイパスビーム139と呼ばれる。音響検出器140は、ソース134に集束され、物体10に近接する複数の散乱ビーム136を検出するように配置される。ソース134は、物体10の完全な画像を得るために必要に応じて媒体132内で移動する。音響検出器140は、図1に示すように、ある範囲の角度方向を有する散乱ビーム136を収集するように移動することができる。検出器アクチュエータ142は、音響検出器140と機械通信しており、検出器アクチュエータ142と電気通信しているプロセッサ144の制御下にある。オーバーラップ(干渉ゾーン141)における反射ビーム137とバイパスビーム139との間のコヒーレント干渉は、画像を作成するために使用される。物体10の画像は、物体10の診断目的のためのインラインホログラムと考えることができる。物体ビーム136によって伝送される情報は、当技術分野で知られている技法に従って、その振幅及び位相を決定するために、プロセッサ18によって分析することもできる。振幅及び位相は、バイパスビーム139の振幅及び位相と比較される。
In the embodiment shown in FIG. 3, the fluid or
物体10を観察するために、ソース134は、集束(収束)ミラー124及び音響検出器140を旋回させることによって、デバイス110を移動させることによって、又は患者を再位置決めすることによって、媒体132の内部で移動する。物体110が例えば、病気、塊、腫瘍、成長腫等である場合、オーバーラップ(干渉ゾーン141)内の反射ビーム137とバイパスビーム139との間のコヒーレント干渉が物体の画像を作成するために使用される。フレネル縞は、上述したように、画像を生成し、焦点ぼけによって引き起こされるものである。
To observe the
図4に示すように、一実施形態において、卵巣を撮像するためのデバイス200が提供される。音響エミッタ202は、デバイスの一端に位置し、焦点(収束)ミラー204は、デバイス200の他端に又はその近傍に位置する。音響検出器206は、卵巣と位置合わせされる。検出器206は、線形アレイ検出器であってもよい。概略図を図5に示す。上述したように、コヒーレントビーム210は、音響エミッタ202によって発され、集束ミラー204によって集束されて、仮想ソース212となり、次々に3次元で散乱ビーム214を生成する、収束ビーム211となる。音響検出器206は、この場合は卵巣である物体217を通過するビームである物体ビーム216を検出する。音響検出器206は、また、上述したように、バイパスビーム220及び反射ビーム222によって生成されるフレネル縞218を検出する。仮想ソース212は、膀胱213内に配置され、周りを移動し、その結果、散乱ビーム214は、卵巣が見つかるまで周りを走査する。次に、散乱ビーム214は、反射して反射ビーム222となり、卵巣を迂回してビーム220となり、卵巣を通過して物体ビーム216となる。
As shown in FIG. 4, in one embodiment, a
図6に示すように、両卵巣を撮像するためのデバイス300が提供される。音響放射器302は、焦点(収束)ミラー306も収容する垂直ハウジング304内の中央に配置される。デバイス300は、右アーム308及び左アーム310の2つのアームを有する。アーム308、310の端部312に近接して、右検出器314及び左検出器316は、それぞれ配置される。アーム308、310は、機械的なマニピュレータ322の制御下にある関節セグメント320を含む。ビームを検出する更なる手段として、右検出器アクチュエータ324及び左検出器アクチュエータ326が音響検出器314、316と機械通信しており、検出器アクチュエータ324、326と電気通信するプロセッサ344の制御下にある。
As shown in FIG. 6, a
図7に示すように、***を撮像するための手持ち式デバイス400が提供される。それは、上述のように配置された、音響放射器402、集束(収束)ミラー404、及び音響検出器406を含む。それは、手動で制御され、プロセッサ410と通信するためのBluetooth(登録商標)無線408を有する。
As shown in FIG. 7, a
図8に示すように、手持ち式エミッタデバイス500を含むシステムを使用して脳を撮像することができる。1つ又は複数の検出器502は、必要に応じて配置され、患者が検出器上で頭部を傾けるだけで、簡単に位置を保持することができる。仮想ソース504は、脳の脂肪組織にフォーカスされ、散乱ビーム506は、仮想ソース504から3次元で発される。物体510を通過するビームは、物体ビーム514である。ここでも、画像は、反射ビーム510とバイパスビーム512との間の干渉ゾーン508をデフォーカスすることによって作成される。
As shown in FIG. 8, a system including a
図9に示されるように、一実施形態において、一般に600と呼ばれるデバイスは、円錐形状のリフレクタに代わる凹面湾曲円錐形状のリフレクタ610を有し、収束ミラーに代わる円錐ミラー612を有する。機能的には、凹面湾曲円錐形状のリフレクタ610は、集束レンズ/ミラーである。音響エミッタ614は、円錐ミラー612の内部617の基部615に位置し、凹面湾曲円錐形状のリフレクタ610と位置合わせされる。支持基部616及び支持部材618は、円錐ミラー612の内部617内で凹面湾曲円錐形状のリフレクタ610を保持する。検出器620は、また、支持基部616によって保持されてもよい。ハウジング622は、円錐ミラー612を保持する。デバイス600は、デバイス600の2つの特徴によって生成される仮想開口624を含む。まず、平面(コヒーレント640)ビームの強度を光学軸648(図11を参照)から凹面湾曲円錐形状のリフレクタ610の縁部まで、すなわち、その最大直径まで反射する凹面湾曲円錐形状のリフレクタによって生成されるローパスフィルタが本質的に存在する。凹面湾曲円錐形状のリフレクタ610の直径よりも大きい直径を有する音響強度は、それによって反射されず、デバイス600を通過する。それは、円錐ミラー612の縁部までの半径方向距離、すなわち、仮想ソース646位置に焦点を合わせるために音響ビームがそこから通過しなければならない円錐ミラー612によって作られた穴によって決定されるが、通過の外側限界を有する。仮想ソース646位置に到達する強度の他の障害は、凹面湾曲円錐形状のリフレクタ610の下部632(図10Aを参照)によって、円錐ミラー612から仮想ソース646位置に到達する反射強度のカットオフである。
As shown in FIG. 9, in one embodiment, the device, commonly referred to as 600, has a concave curved
音響エミッタ614から円錐ミラー612までの音響エビームの経路を図10A乃至Cに示す。コヒーレントビーム640は、音響エミッタ614から発され、凹面湾曲円錐形状のリフレクタ610に当たる。図10Aは、凹面湾曲円錐形状のリフレクタ610及び円錐ミラー612を通る薄い断片である。この断片から分かるように、円錐ミラー612の側部は平坦である一方、凹面湾曲円錐形状のリフレクタ610の側部は凹状である。コヒーレントビーム640は、凹面湾曲円錐形状のリフレクタ610から反射して収束し、したがって、収束ビーム642を生成する。収束ビーム642は、円錐ミラー612の平坦面626に当たる。図10Bに示されるように、図10Aの断片からの収束ビーム642は、1つの平面において円錐ミラー612の平坦な壁に当たる。図10Cに示されるように、図10Aの断片からの収束ビーム642は、円錐ミラー612の平坦面626上にリング628を形成する。当業者に知られているように、コヒーレントビーム640は、凹面湾曲円錐形状のリフレクタ610の凹面に、凹面湾曲円錐形状のリフレクタ610の周り及び凹面湾曲円錐形状のリフレクタ610の上部630から下部632まで360度衝突する。
The path of the acoustic beam from the
ビームの経路も図11に示されており、コヒーレントビーム640は、音響エミッタ614から放射され、凹面湾曲円錐形状のリフレクタ610に当たる。コヒーレントビーム640は、凹面湾曲円錐形状のリフレクタ610から反射し、収束し、したがって、これらは収束ビーム642である。収束ビーム642は、円錐ミラー612の平坦面626に当たって、クロスオーバー点で仮想的な収束音響撮像ソース646である点に収束する収束ビーム644として反射される。仮想ソース646は、円錐ミラー面612の光軸648に、又はその近傍にある。凹面湾曲円錐形状のリフレクタ610の曲率は、仮想ソース646が光軸648上、又はその近傍にあるように選択されることに留意されたい。
The path of the beam is also shown in FIG. 11, where the
上述のように、仮想ソース646から、音響ビームは、音響ビームを全方向に拡散的に散乱させる。音響検出器620は、凹面湾曲円錐形状のリフレクタ610の端部上、又は仮想ソース646を指す仮想ソース646の周りの任意の場所に配置することができる。理論に拘束されることなく、図9乃至12Bの設計は次のような利点を有する。凹面湾曲円錐形状のリフレクタ610及び湾曲集束(収束)ミラーは、同じ機能性を提供するが、凹面湾曲円錐形状のリフレクタは、湾曲集束(収束)ミラーよりも製造が容易である。凹面湾曲円錐形状のリフレクタ610は、仮想ソース646の焦点深度の変化を可能にする異なる寸法及び湾曲を有する別の凹面湾曲円錐形状のリフレクタ610に容易に置き換えることができる。凹面湾曲円錐形状のリフレクタ610は、仮想ソース646の焦点深度を変化させるために、光軸648上で前後に移動させることができる。その設計は、空間解像度を増加させ、仮想ソースのサイズをより小さくする。凹面湾曲円錐形状のリフレクタ610は、凹面湾曲円錐形状のリフレクタ610が円錐ミラー612内で前後に移動する際に、円錐ミラー612の表面が収束ビーム642に対して一定の角度にある円錐ミラー612に収束ビーム642を反射する。上述のように、これは、プローブ/仮想ソース648を前後に移動させることができる。この設計は、ビームを集束させるための追加の自由度を与えることによってデバイスの能力を増大させ、したがって、仮想ソースを体内で移動させる。
As mentioned above, from the
例示的なデバイスを図12A及び12Bに示す。図12Aに示すように、音響エミッタ614は、ハウジング622の一端にある。図12Bに示すように、凹面湾曲円錐形状のリフレクタは、ハウジング622の内部617に位置し、支持部材618によって保持される。円錐ミラーの表面612は、ハウジング622の内側にある。音響エミッタ614は、ハウジング622の他端にある。デバイス600は、手持ち式であり、ユーザが調整し作動させてもよく、或いは、上述したように、計算デバイス内のプロセッサ及びメモリの制御下にあってもよい。いずれにせよ、計算デバイスは、画像が表示されるユーザインタフェースを含む。
Exemplary devices are shown in FIGS. 12A and 12B. As shown in FIG. 12A, the
全ての実施形態において、本方法は、コヒーレントビームを発する音響エミッタを含んでおり、反射されて集束されるか、或いは集束されて反射されて、非晶質の材料又は流体内の仮想ソースである点を提供する。仮想ソースは、散乱ビームを発するように移動し、そのうちの一部は物体を通過し、一部は物体を迂回し、一部は物体から反射する。バイパスビーム及び反射ビームは、干渉ゾーンで互いに干渉して、画像をデフォーカスすることによって、フレネル縞として見える画像を提供する。 In all embodiments, the method comprises an acoustic emitter that emits a coherent beam and is a virtual source within an amorphous material or fluid that is reflected and focused or focused and reflected. Provide points. The virtual source moves to emit a scattered beam, some of which pass through the object, some of which bypass the object, and some of which reflect from the object. The bypass beam and the reflected beam interfere with each other in the interference zone and defocus the image to provide an image that appears as Fresnel fringes.
例示的な実施形態は、現在考えられる最も実用的及び/又は適切な実施形態の例であると現在考えられているものに関連して説明されてきたが、説明は開示された実施形態に限定されるものではなく、例示的な実施形態の趣旨及び範囲内に含まれる様々な修正及び均等な構成を包含することが意図されていること理解されたい。当業者であれば、日常的な実験のみを用いて、本明細書に具体的に記載された具体的な実施形態の多くの均等物を認識するか、又は確認することができるであろう。そのような均等物は、本明細書に添付されるか又はその後に提出される特許請求の範囲に包含されることが意図される。 Exemplary embodiments have been described in relation to those currently considered to be examples of the most practical and / or suitable embodiments currently conceivable, but the description is limited to the disclosed embodiments. It should be understood that it is not intended to be, but is intended to include various modifications and equal configurations contained within the spirit and scope of the exemplary embodiments. One of ordinary skill in the art will be able to recognize or confirm many equivalents of the specific embodiments specifically described herein using only routine experiments. Such equivalents are intended to be included in the claims that are attached to or subsequently filed herein.
Claims (19)
コヒーレント音響ビームを発するコヒーレント音響ビームソースと、仮想音響撮像ソースに前記コヒーレント音響ビームを集束させるように位置されたフォーカサであって、前記仮想音響撮像ソースは散乱ビームを発する、フォーカサと、前記コヒーレント音響ビームソースと機械通信するコヒーレント音響ビームアクチュエータと、前記フォーカサと機械通信するフォーカサアクチュエータと、音響検出器と、を含む装置と、
プロセッサ、ユーザインタフェース、及びメモリを含む計算デバイスであって、前記プロセッサは、前記音響検出器と電気通信し、前記メモリは、前記プロセッサと通信し、前記ユーザインタフェースに画像を表示するように前記プロセッサに指示する命令を有し、前記プロセッサは、前記コヒーレント音響ビームソースアクチュエータ及び前記フォーカサアクチュエータと電気通信し、前記メモリは、前記プロセッサと通信し、前記コヒーレント音響ビームソース及び前記フォーカサを移動させるように前記プロセッサに指示する命令を有し、その結果、前記散乱ビームの少なくとも一部が前記物体で反射され反射ビームとなり、前記物体を通過してバイパスビームとなり、且つ前記反射ビーム及び前記バイパスビームが干渉ゾーンを形成し、前記メモリは、前記コヒーレント音響ビーム及び前記フォーカサを移動させて前記干渉ゾーンにフレネル縞を生成し、前記音響検出器が前記フレネル縞を撮像するように位置されるように更に構成される、計算デバイスと、
を備えるシステム。 A system for imaging an object in a first material having a different optical density with respect to the object.
A coherent acoustic beam source that emits a coherent acoustic beam and a focuser that is positioned to focus the coherent acoustic beam on a virtual acoustic imaging source, wherein the virtual acoustic imaging source emits a scattered beam, the focuser, and the coherent acoustics. A device including a coherent acoustic beam actuator that mechanically communicates with a beam source, a focuser actuator that mechanically communicates with the focuser, and an acoustic detector.
A computing device that includes a processor, a user interface, and a memory, wherein the processor telecommunicationss with the acoustic detector, the memory communicates with the processor, and the processor displays an image on the user interface. The processor communicates with the coherent acoustic beam source actuator and the focuser actuator, and the memory communicates with the processor to move the coherent acoustic beam source and the focuser. Has an instruction to the processor, and as a result, at least a part of the scattered beam is reflected by the object to become a reflected beam, passes through the object and becomes a bypass beam, and the reflected beam and the bypass beam are Further forming an interference zone, the memory moves the coherent acoustic beam and the focuser to generate Frenel fringes in the interference zone, further such that the acoustic detector is positioned to image the Frenel fringes. Computational device and
A system equipped with.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/216,938 US20190117189A1 (en) | 2015-01-15 | 2018-12-11 | Non-invasive diffuse acoustic confocal three-dimensional imaging |
US16/216,938 | 2018-12-11 | ||
PCT/CA2019/000164 WO2020118406A1 (en) | 2018-12-11 | 2019-12-06 | Non-invasive diffuse acoustic con focal three-dimensional imaging |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022513899A true JP2022513899A (en) | 2022-02-09 |
Family
ID=71075900
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021534293A Pending JP2022513899A (en) | 2018-12-11 | 2019-12-06 | Non-invasive diffuse acoustic confocal 3D imaging |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP3894892A4 (en) |
JP (1) | JP2022513899A (en) |
WO (1) | WO2020118406A1 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5535751A (en) * | 1994-12-22 | 1996-07-16 | Morphometrix Technologies Inc. | Confocal ultrasonic imaging system |
US6450960B1 (en) * | 2000-08-29 | 2002-09-17 | Barbara Ann Karmanos Cancer Institute | Real-time three-dimensional acoustoelectronic imaging and characterization of objects |
US20040059265A1 (en) | 2002-09-12 | 2004-03-25 | The Regents Of The University Of California | Dynamic acoustic focusing utilizing time reversal |
JP6553210B2 (en) | 2015-01-15 | 2019-07-31 | ハーリング、ロドニー | Diffuse acoustic confocal imaging device |
-
2019
- 2019-12-06 JP JP2021534293A patent/JP2022513899A/en active Pending
- 2019-12-06 EP EP19897458.6A patent/EP3894892A4/en not_active Withdrawn
- 2019-12-06 WO PCT/CA2019/000164 patent/WO2020118406A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
EP3894892A4 (en) | 2022-05-25 |
EP3894892A1 (en) | 2021-10-20 |
WO2020118406A1 (en) | 2020-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100647025B1 (en) | Method for exploring and displaying tissues of human or animal origin from a high frequency ultrasound probe | |
JP6489797B2 (en) | Subject information acquisition device | |
JP6643251B2 (en) | Device and method for photoacoustic imaging of objects | |
AU2020257073B2 (en) | Diffuse acoustic confocal imager | |
JP6478572B2 (en) | SUBJECT INFORMATION ACQUISITION DEVICE AND ACOUSTIC WAVE DEVICE CONTROL METHOD | |
US9880381B2 (en) | Varifocal lens, optical scanning probe including the varifocal lens, and medical apparatus including the optical scanning probe | |
KR20150053630A (en) | Probe and medical imaging apparatus employing the same | |
JP2017003587A (en) | Device and method for hybrid optoacoustic tomography and ultrasonography | |
JP2017038917A (en) | Subject information acquisition device | |
JP2017140092A (en) | Subject information acquisition device | |
JP2022513899A (en) | Non-invasive diffuse acoustic confocal 3D imaging | |
US20190117189A1 (en) | Non-invasive diffuse acoustic confocal three-dimensional imaging | |
CN105686800A (en) | Object information acquiring apparatus and control method therefor | |
Gao et al. | Laparoscopic photoacoustic imaging system based on side-illumination diffusing fibers | |
WO2005019984A2 (en) | Superresolution ultrasound | |
JP2020039809A (en) | Subject information acquisition device and control method therefor | |
Tang et al. | Actuated reflector-based three-dimensional ultrasound imaging with adaptive-delay synthetic aperture focusing | |
JP2019047884A (en) | Photoacoustic apparatus | |
JP2004141447A (en) | Reflective transmission type ultrasonic inverse scattering ct device | |
US20110141481A1 (en) | Acoustic confocal interferometry microscope | |
US12004844B2 (en) | Information acquisition apparatus and signal processing method | |
US20190183349A1 (en) | Information acquisition apparatus and signal processing method | |
JP2015211708A (en) | Object information acquisition device | |
JP2017202149A (en) | Apparatus, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221206 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230725 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230728 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231024 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240123 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240416 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240515 |