WO2016024488A1 - 信号処理装置、信号処理方法、並びにプログラム - Google Patents

信号処理装置、信号処理方法、並びにプログラム Download PDF

Info

Publication number
WO2016024488A1
WO2016024488A1 PCT/JP2015/071914 JP2015071914W WO2016024488A1 WO 2016024488 A1 WO2016024488 A1 WO 2016024488A1 JP 2015071914 W JP2015071914 W JP 2015071914W WO 2016024488 A1 WO2016024488 A1 WO 2016024488A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
unit
signal processing
speckle image
signal
Prior art date
Application number
PCT/JP2015/071914
Other languages
English (en)
French (fr)
Inventor
正則 岩崎
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US15/329,351 priority Critical patent/US10080091B2/en
Publication of WO2016024488A1 publication Critical patent/WO2016024488A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/27Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands using photo-electric detection ; circuits for computing concentration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H9/00Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by using radiation-sensitive means, e.g. optical means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • G01N21/4788Diffraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns
    • G06V40/145Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R23/00Transducers other than those covered by groups H04R9/00 - H04R21/00
    • H04R23/008Transducers other than those covered by groups H04R9/00 - H04R21/00 using optical signals for detecting or generating sound
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • G01N2021/4735Solid samples, e.g. paper, glass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • G01N21/4788Diffraction
    • G01N2021/479Speckle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2410/00Microphones

Definitions

  • the present technology relates to a signal processing device, a signal processing method, and a program.
  • the present invention relates to a signal processing device, a signal processing method, and a program for detecting vibration related to sound such as sound.
  • a spotted pattern is called a speckle pattern, simply a speckle, a speckle image, or the like.
  • speckle phenomenon the phenomenon that creates such a pattern is called a speckle phenomenon, and research on its properties has begun in earnest immediately after the appearance of the laser.
  • Patent Document 1 discloses that a sound signal is acquired from vibration of a speckle image caused by reflected light of laser light irradiated on an object.
  • the speckle image can be obtained by converting from the vibration frequency of the speckle image to the vibration frequency signal of the sound and from the signal amplitude to the sound level.
  • the sound from one object can be measured, it is difficult to measure the sounds of a plurality of objects with the disclosed technology.
  • This technology has been made in view of such a situation, and enables measurement of sounds of a plurality of objects.
  • a signal processing device captures a light source unit that emits light having a plurality of wavelengths of coherence, and a speckle image that represents an interference state of reflected light from the light emitted from the light source unit.
  • An imaging unit and a processing unit that processes the speckle image captured by the imaging unit for each wavelength.
  • the processing unit can analyze the fluctuation amount of the speckle image acquired for each wavelength.
  • the processing unit can separate the signals for each wavelength by a difference calculation of adjacent signals of different wavelengths, and analyze the speckle image for each wavelength using the separated signals.
  • the imaging unit may include a filter that divides the wavelength, and the processing unit may process the speckle image spectrally separated by the filter.
  • the light source may be composed of a plurality of light sources that emit light of different frequencies.
  • the light source unit can irradiate each of a plurality of objects with light having different wavelengths.
  • the light source unit can irradiate each of the plurality of regions with light having different wavelengths.
  • the processing unit extracts one of the plurality of regions based on the analysis result, newly sets a plurality of regions in the extracted region, and the light source unit sets the newly set plurality of regions.
  • Each of the regions can be irradiated with light of different wavelengths.
  • the light source unit may irradiate light having different wavelengths to the same part, the adjacent part, the same area, or the adjacent area of the object.
  • the signal processing method irradiates light having coherence with a plurality of wavelengths, and captures a speckle image representing an interference state of reflected light by the irradiated light on an object, Processing the imaged speckle image for each wavelength.
  • a program irradiates light having coherence with a plurality of wavelengths, and captures a speckle image representing an interference state of reflected light by the irradiated light on an object.
  • the computer is caused to execute processing including a step of processing the speckle image for each wavelength.
  • light having a plurality of wavelengths of coherence is irradiated, and an interference state of reflected light by the irradiated light is irradiated on the target.
  • the speckle image to represent is imaged, and the imaged speckle image is processed for each wavelength.
  • FIG. 1 is a diagram illustrating a configuration of an embodiment of a signal processing system to which the present technology is applied.
  • a signal processing system 10 shown in FIG. 1 includes coherent light sources 11-1 to 11-4, a camera unit 12, and a signal processing unit 13.
  • the camera unit 12 includes a lens unit 21 and a sensor unit 22.
  • the coherent light sources 11-1 to 11-4 are light sources that emit laser light of a predetermined color, for example. In the following description, the coherent light sources 11-1 to 11-4 are simply referred to as the coherent light source 11 when it is not necessary to distinguish them individually.
  • the signal processing system 10 to which the present technology is applied irradiates an object with coherent light such as laser light, and an image (speckle image) of light reflected by the object. Sound is measured by imaging and analyzing.
  • Coherent light sources 11 are provided corresponding to the number of objects to be measured for sound. For example, since the four coherent light sources 11 shown in FIG. 1 are provided, the coherent light source 11 can be used for processing for four objects.
  • the coherent light sources 11-1 to 11-4 are light sources that emit light of different colors.
  • the color is not limited to a visible color (wavelength), and an invisible color may be used.
  • For the coherent light source light that easily generates coherent light is used.
  • N light sources having coherence of N colors are used when N objects are measured.
  • the camera unit 12 includes a lens unit 21 and a sensor unit 22 and captures a speckle image described with reference to FIG.
  • the lens unit 21 includes one or more lenses.
  • the sensor unit 22 includes a filter that transmits only the color emitted from the coherent light source 11.
  • the signal processing unit 13 processes a signal from the camera unit 12. For example, the speckle fluctuation amount is calculated for each speckle image of a plurality of light sources, or the characteristics of the object are calculated for each light source.
  • the signal processing system 10 includes the coherent light source 11, the camera unit 12, and the signal processing unit 13, the coherent light source 11, the camera unit 12, and the signal processing are illustrated.
  • the unit 13 can be configured as an integrally configured device as shown in FIG. 1 or may be configured separately.
  • the coherent light source 11 and the camera unit 12 may be separated and the coherent light source 11 and the camera unit 12 may be installed at positions separated from each other.
  • the camera unit 12 and the signal processing unit 13 may also be configured as separate units so that a signal from the camera unit 12 is supplied to the signal processing unit 13 by wire or wirelessly.
  • the speckle image captured by the camera unit 12 will be described with reference to FIGS.
  • a coherent light of a predetermined color is irradiated from a coherent light source 11 to a predetermined object in the space, here, the rough object 51.
  • the light applied to the rough object 51 is reflected by the rough object 51, and the light becomes scattered light.
  • the wave field formed by this scattered light is considered.
  • the rough object 51 is irradiated with coherent light such as laser light
  • coherent light such as laser light
  • the light field observed at an arbitrary point on the observation surface 52, for example, point P in FIG. This is caused by the many light waves reflected from different locations interfering with each other. Since the phase of these light waves is random reflecting irregularities of the irregularities on the rough surface, the spatial intensity distribution of the light resulting from the interference is also random.
  • This speckled pattern is called a speckle (speckle image).
  • This speckle image is in a stationary state (static speckle image) if the object is stationary, and is in a moving state (dynamic speckle image) if the rough object 51 moves. Since the static speckle image or the dynamic speckle image is generated in relation to the rough object 51, it can be observed.
  • the laser light when used as coherent light, the laser light is light having a uniform traveling direction, phase, and wavelength, and therefore has low entropy. Therefore, coherent light such as laser light is used as light used for observing the speckle image.
  • the speckle non-uniformity in brightness
  • the state can be observed by imaging with the camera unit 12 (FIG. 1).
  • the camera unit 12 When observing a speckle image, the camera unit 12 images a speckle image in the speckle field (observation surface 52), not the rough object 51.
  • the speckle field 52 exists if a certain distance is away from the rough object 51, and the speckle image on the speckle field 52 can be observed by the camera unit 12.
  • the certain distance is a position where the observation surface 52 is separated from the rough object 51 by a distance shown by the following equation.
  • an observation plane 52 may be provided at a position separated from the distance represented by this formula.
  • the movement of the object can be observed by irradiating the object with coherent light and observing the speckle image.
  • the object is a person
  • the coherent light is irradiated to the person's throat and the speckle image is observed
  • the movement of the object person's throat can be observed. Since the human throat moves when speaking, it is possible to measure whether or not it is speaking by observing a speckle image related to the human throat. Furthermore, it is possible to analyze the utterance content by analyzing the frequency, amplitude, and the like.
  • the signal processing unit 13 (FIG. 1) of the signal processing system 10 obtains information such as the above-described frequency and amplitude by analyzing the speckle image captured by the camera unit 12, and further, By analyzing the information, the content of the utterance is acquired.
  • the operation of the signal processing system 10 shown in FIG. 1 will be described by taking as an example the case where the object is a person and analyzing the content of the person speaking.
  • the signal processing unit 13 acquires and analyzes the speckle image signal from the irradiated red coherent light. can do.
  • a plurality of coherent light sources 11-1 to 11-4 are used to irradiate a plurality of objects with light of a plurality of colors and analyze a speckle image for each color. It becomes possible to perform analysis for a plurality of objects.
  • the situation shown in FIG. 4 is a situation where there are four people in a predetermined space, and a situation where the signal processing system 10 wants to analyze the utterances of these four people is considered. Assume that four people are a person 101, a person 102, a person 103, and a person 104.
  • the light irradiated from the coherent light source 11-1 is applied to the throat portion 111 of the person 101.
  • the light is red (R) color, and in the following description, R is appropriately described in the drawings and the like to clearly indicate red light.
  • the light irradiated from the coherent light source 11-2 strikes the throat portion 112 of the person 102.
  • the light is green (G) color, and in the following description, G is appropriately described in a drawing or the like to clearly indicate green light.
  • the light irradiated from the coherent light source 11-3 strikes the throat portion 113 of the person 103.
  • the light is blue (B) light, and in the following description, B is appropriately described in a drawing or the like to clearly indicate that the light is blue light.
  • the light emitted from the coherent light source 11-4 is applied to the throat portion 114 of the person 104.
  • the light is yellow (Y) light, and in the following description, Y is appropriately described in the drawings and the like to clearly indicate yellow light.
  • the sensor unit 22 of the camera unit 12 has color-coded filters as shown in FIG.
  • Filters that transmit red (R), green (G), blue (B), and yellow (Y) light from the coherent light sources 11-1 to 11-4, respectively, when they are irradiated. Is provided in the sensor unit 22.
  • the filters are color-coded for each pixel, and are arranged as shown in FIG.
  • the numbers 1 to 4 attached in the horizontal direction and the vertical direction are numbers added to indicate row numbers and column numbers, respectively, and are numbers for explanation.
  • a row is a horizontal direction (horizontal direction) in the drawing, and a row number is a number written from the top to the bottom on the left side in the drawing.
  • the columns are in the vertical direction (vertical direction) in the figure, and the column numbers are numbers written from the left to the lower right direction on the upper side in the figure.
  • a pixel at a predetermined position is described as a pixel (row number, column number), for example, a pixel in the first row and second column is described as a pixel (1, 2), and the other pixels are similarly described. Describe.
  • the pixel (1, 1) is a pixel that transmits red light (hereinafter referred to as R pixel), and the pixel (1, 2) is a pixel that transmits green light (hereinafter referred to as G pixel).
  • the pixel (2, 1) is a pixel that transmits blue light (hereinafter referred to as B pixel), and the pixel (2, 2) is a pixel that transmits yellow light (hereinafter referred to as Y pixel). Is described as a pixel).
  • R pixels, G pixels, B pixels, and Y pixels are allocated to each of 2 ⁇ 2 4 pixels (hereinafter referred to as a unit pixel group).
  • a predetermined number of unit pixel groups having such a color arrangement are arranged in the vertical and horizontal directions.
  • the 2 ⁇ 2 unit pixel group is composed of pixels of the same color.
  • the unit pixel group composed of the pixel (1, 1), the pixel (1, 2), the pixel (2, 1), and the pixel (2, 2) is composed of R pixels.
  • a unit pixel group composed of the pixel (1, 3), the pixel (1, 4), the pixel (2, 3), and the pixel (2, 4) is composed of G pixels.
  • the unit pixel group composed of the pixel (3, 1), the pixel (3, 2), the pixel (4, 1), and the pixel (4, 2) is composed of B pixels.
  • the unit pixel group composed of the pixel (3, 3), the pixel (3, 4), the pixel (4, 3), and the pixel (4, 4) is composed of Y pixels.
  • the unit pixel group may be a filter having a color arrangement that is configured by the same color.
  • a filter having a color arrangement in which columns or rows are composed of the same color may be used. For example, an R pixel is arranged in the first row, a G pixel is arranged in the second row, a B pixel is arranged in the third row, and a Y pixel is arranged in the fourth row. These filters may be used.
  • the color arrangement (filter) shown here is an example, and other color arrangements may be used as long as the filter can selectively transmit the color of light used in the coherent light source 11.
  • the sensor unit 22 (FIG. 1) of the camera unit 12 includes a filter having a color arrangement as shown in FIG. 5A, for example, and the signal processing unit 13 processes a signal obtained from pixels of the same color.
  • FIG. 6 shows the configuration of the signal processing unit 13.
  • the signal processing unit 13 includes an R processing unit 151, a G processing unit 152, a B processing unit 153, and a Y processing unit 154.
  • the R processing unit 151 is a processing unit that processes a signal acquired by the R pixel of the sensor unit 22.
  • the G processing unit 152 is a processing unit that processes a signal acquired by the G pixel of the sensor unit 22.
  • the B processing unit 153 is a processing unit that processes a signal acquired by the B pixel of the sensor unit 22.
  • the Y processing unit 154 is a processing unit that processes a signal acquired by the Y pixel of the sensor unit 22.
  • the signal processing unit 13 has a processing unit that processes the signal acquired by the sensor unit 22 for each color.
  • the signal processing unit 13 may be provided with a separation unit that divides the signal acquired by the sensor unit 22 for each color, or a separation unit is provided in the camera unit 12 so that the signal is processed for each color. It may be supplied to the unit 13.
  • the person 101 is irradiated with red (R) coherent light from the coherent light source 11-1.
  • the red coherent light is reflected by the person 101 (throat part 111) and forms a red speckle image.
  • the red speckle image is received by the R pixel of the sensor unit 22 of the camera unit 12 and processed by the R processing unit 151 of the signal processing unit 13.
  • the person 102 is irradiated with green (G) coherent light from the coherent light source 11-2.
  • the green coherent light is reflected by the person 102 (throat portion 112) to form a green speckle image.
  • the green speckle image is received by the G pixel of the sensor unit 22 of the camera unit 12 and processed by the G processing unit 152 of the signal processing unit 13.
  • the person 103 is irradiated with blue (B) coherent light from the coherent light source 11-3.
  • the blue coherent light is reflected by the person 103 (throat part 113) and forms a blue speckle image.
  • This blue speckle image is received by the B pixel of the sensor unit 22 of the camera unit 12 and processed by the B processing unit 153 of the signal processing unit 13.
  • the person 104 is irradiated with coherent light of yellow (Y) color from the coherent light source 11-4.
  • the yellow coherent light is reflected by the person 104 (throat part 114) to form a yellow speckle image.
  • the yellow speckle image is received by the Y pixel of the sensor unit 22 of the camera unit 12 and processed by the Y processing unit 154 of the signal processing unit 13.
  • step S101 irradiation with light of a plurality of wavelengths is started.
  • the object is irradiated with light of a predetermined color from each of the coherent light sources 11-1 to 11-4.
  • step S101 different colors of coherent light are emitted for each object. For example, when there are three objects, the coherent light sources 11-1 to 11-3 are used.
  • the coherent light source 11-4 may not be used.
  • step S102 a camera image is input.
  • a speckle image is captured by the camera unit 12.
  • step S103 each wavelength signal is separated from the pixel signal.
  • the pixel signal received by the R pixel, the pixel signal received by the G pixel, the pixel signal received by the B pixel, and the pixel signal received by the Y pixel are separated. As described above, this separation may be performed by the camera unit 12 or may be performed by the signal processing unit 13.
  • the process in step S103 may include a process for improving the accuracy of each wavelength signal by a difference calculation process of adjacent pixel signals.
  • the blue light signal received by the B pixel may include a green light signal component, or the G pixel.
  • the received green light signal may include a blue light signal component.
  • step S103 the process of converting the signal component of blue light received by the B pixel into a signal including only the signal component of blue light by subtracting the signal component of green light is performed in step S103. It is also possible to perform this process.
  • Such processing can be performed in the same manner as the processing related to complementary color spectroscopy and color mixture correction performed in an imaging device or the like that captures an object.
  • the spectral performance may be improved by performing processing related to complementary color spectroscopy and color mixture correction.
  • step S104 speckle images for each wavelength are measured.
  • the sensor unit 22 includes a filter that transmits the color emitted from the coherent light source 11, and a speckle image is acquired for each color that has passed through the filter. Then, each part of the signal processing unit 13 processes (measures).
  • step S105 the fluctuation amount of the speckle image is measured.
  • Each unit of the signal processing unit 13 measures the fluctuation amount of the input speckle image.
  • step S106 a feature amount is extracted from the fluctuation amount of the speckle image. This feature amount differs depending on what information is finally acquired. For example, when it is desired to analyze a word spoken by the user, a feature amount required for the analysis, such as a vibration frequency and a vibration width, is extracted.
  • step S107 the object data is calculated.
  • the object data is, for example, sound, voice, pulse, biological information, and the like.
  • each of the different objects Information is obtained from.
  • the example shown in FIG. 8 represents a state where a plurality of people are dispersed in a relatively wide range.
  • a case is considered in which the light is divided into four regions, and light having a predetermined wavelength is irradiated from the coherent light source 11 for each region.
  • the coherent light source 11-1 emits red coherent light
  • the coherent light source 11-2 emits green coherent light.
  • the description will be continued assuming that the blue coherent light is emitted from the light source 11-3 and the yellow coherent light is emitted from the coherent light source 11-4.
  • the region 201 is irradiated with red (R) coherent light from the coherent light source 11-1.
  • the area 202 is irradiated with green (G) coherent light from the coherent light source 11-2.
  • the region 203 is irradiated with blue (B) coherent light from the coherent light source 11-3.
  • the region 204 is irradiated with yellow (Y) coherent light from the coherent light source 11-4.
  • the areas 201 to 204 may overlap.
  • speckle images are observed for each wavelength, and the amount of variation is measured.
  • a speckle image is analyzed to detect, for example, an area where the sound is loud and a small area, an area where there are many people and an area where there are few people. it can.
  • the area is narrowed down, and areas 211 to 214 are set in the area where the area 203 is located.
  • the region 211 is irradiated with red (R) coherent light from the coherent light source 11-1.
  • the area 212 is irradiated with green (G) coherent light from the coherent light source 11-2.
  • the region 213 is irradiated with blue (B) coherent light from the coherent light source 11-3.
  • the region 214 is irradiated with yellow (Y) coherent light from the coherent light source 11-4.
  • a region with a loud sound is detected while narrowing down the region.
  • a process is applied to a sports broadcast, it is possible to extract a region that is estimated to be loud and swelled.
  • a surveillance camera it is possible to detect a region where sound is generated and perform processing so that a person in the detected region can be observed.
  • FIG. 9 is a diagram illustrating a configuration of the signal processing device 301.
  • the signal processing device 301 includes a light source unit 311 and a detection unit 312.
  • the signal processing device 301 is applied to a predetermined part of a person, for example, an arm 331, and acquires human biological information.
  • the light source unit 311 corresponds to the coherent light source 11 of the signal processing system 10 illustrated in FIG. 1 and irradiates the arm 331 with light having a plurality of wavelengths.
  • the detection unit 312 corresponds to the camera unit 12 and the signal processing unit 13 of the signal processing system 10 illustrated in FIG. 1, observes a speckle image generated by light reflected from the arm 331, and obtains predetermined biological information. To detect.
  • the detected biological information includes, for example, the pulse rate, blood pressure, hemoglobin amount, blood glucose level, and the like.
  • Pulse and blood pressure can be detected by detecting a movement called blood flow.
  • Hemoglobin, blood glucose level, and the like can be detected by analyzing a speckle image of light scattered at a predetermined frequency when it hits the bloodstream.
  • FIG. 10 shows a graph showing the relationship between the wavelength and the extinction coefficient related to hemoglobin.
  • the horizontal axis represents the wavelength
  • the vertical axis represents the extinction coefficient.
  • the dotted line in the figure represents the extinction coefficient of oxygenated hemoglobin (Hb)
  • the solid line represents the extinction coefficient of deoxygenated hemoglobin (HbO 2 ).
  • the frequency of light suitable for information to be detected is different, such as pulse, blood pressure, hemoglobin, blood glucose level, etc., but according to this technology, speckle images obtained at different frequencies are analyzed by irradiating light of different frequencies. Different information can be acquired.
  • coherent light when irradiating coherent light to the arm 331 and acquiring a plurality of information, it is preferable that coherent light is irradiated to the same location.
  • coherent light when irradiating light of different wavelengths from the light source unit 311, it is possible to irradiate a plurality of lights to the same or close parts (positions). And the speckle image produced
  • coherent light of a plurality of wavelengths can be irradiated to the same or adjacent parts at the same timing, and a plurality of information is obtained at the same or adjacent parts and at the same timing. be able to.
  • part it is not limited to one point, The area
  • the number of pieces of information to be detected and the number of coherent lights to be emitted do not necessarily have to match.
  • two speckle images may be observed using two coherent lights, and two pieces of information may be detected using the two observation results.
  • 1 information may be detected by performing addition or subtraction using, or 3 information is detected by performing addition or subtraction using two observation results. You may make it.
  • the coherent light sources 11-1 to 11-4 shown in FIG. 1 have been described as irradiating light of different frequencies. However, the coherent light sources 11 having the same number as the number of light to be irradiated are provided. However, the scope of application of the present technology is not limited.
  • the wavelength of the light emitted from the coherent light source 11 may be variable, and light of a plurality of wavelengths may be emitted by switching the wavelength at a predetermined interval.
  • the signal processing unit 13 When the frequency is switched and light of a plurality of frequencies is irradiated, the signal processing unit 13 observes the fluctuation using the speckle image obtained while irradiating the light of one wavelength. It is also possible to configure such that the variation is observed using speckle images of the same color obtained at predetermined intervals.
  • the present technology can also be applied when other information is acquired.
  • the object is not limited to a person and may be any object.
  • the present technology can be applied to measure the amount of water flowing through the veins, and to measure the amount of moisture in the soil on the soil surface, using a plant as an object.
  • the present technology can be applied to a system that sprays water when the amount of water is small.
  • this technology can be applied to measure sugar content of fruits.
  • the present technology can also be applied as a sensor that acquires predetermined information.
  • a plurality of speckle images are observed using a plurality of coherent lights. Can also be detected.
  • a plurality of pieces of different information can be acquired from the person. For example, sound, heart rate, body temperature, etc. can be acquired by irradiating coherent light of different wavelengths and analyzing speckle images for each frequency.
  • the series of processes described above can be executed by hardware or can be executed by software.
  • a program constituting the software is installed in the computer.
  • the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing various programs by installing a computer incorporated in dedicated hardware.
  • FIG. 11 is a block diagram showing an example of the hardware configuration of a computer that executes the above-described series of processing by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 1005 is further connected to the bus 1004.
  • An input unit 1006, an output unit 1007, a storage unit 1008, a communication unit 1009, and a drive 1110 are connected to the input / output interface 1005.
  • the input unit 1006 includes a keyboard, a mouse, a microphone, and the like.
  • the output unit 1007 includes a display, a speaker, and the like.
  • the storage unit 1008 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 1009 includes a network interface.
  • the drive 1110 drives a removable medium 1111 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 1001 loads, for example, the program stored in the storage unit 1008 to the RAM 1003 via the input / output interface 1005 and the bus 1004 and executes the program. Is performed.
  • the program executed by the computer (CPU 1001) can be provided by being recorded on, for example, a removable medium 1111 as a package medium or the like.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage unit 1008 via the input / output interface 1005 by attaching the removable medium 1111 to the drive 1110. Further, the program can be received by the communication unit 1009 via a wired or wireless transmission medium and installed in the storage unit 1008. In addition, the program can be installed in advance in the ROM 1002 or the storage unit 1008.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • system represents the entire apparatus composed of a plurality of apparatuses.
  • this technology can also take the following structures.
  • a light source unit that emits light having a plurality of wavelengths of coherence, An imaging unit that captures a speckle image representing an interference state of reflected light with respect to light emitted from the light source unit with respect to an object;
  • a signal processing apparatus comprising: a processing unit that processes the speckle image captured by the imaging unit for each wavelength.
  • the signal processing device analyzes a variation amount of the speckle image acquired for each wavelength.
  • the processing unit separates the signal for each wavelength by a difference calculation of adjacent signals of different wavelengths, and analyzes the speckle image for each wavelength using the separated signal. ).
  • the imaging unit includes a filter that divides the wavelength, The signal processing device according to any one of (1) to (3), wherein the processing unit processes the speckle image dispersed by the filter.
  • the light source includes a plurality of light sources that emit light having different frequencies.
  • the light source unit irradiates each of a plurality of objects with light having different wavelengths.
  • the light source unit irradiates light having different wavelengths to each of the plurality of regions.
  • the processing unit extracts one region of the plurality of regions based on the analysis result, and newly sets a plurality of regions in the extracted region,
  • the signal processing apparatus according to (7), wherein the light source unit irradiates light having different wavelengths to each of a plurality of newly set regions.
  • the signal processing device according to any one of (1) to (5), wherein the light source unit irradiates light having different wavelengths to the same part, adjacent parts, the same area, or adjacent areas of the object.
  • a signal processing method including a step of processing the captured speckle image for each wavelength.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Vascular Medicine (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Otolaryngology (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

 本技術は、所定の情報を取得することができるようにする信号処理装置、信号処理方法、並びにプログラムに関する。 複数の波長の可干渉性を有する光を照射する光源部と、対象物に対して、光源部から照射された光による反射光の干渉状態を表すスペックル像を撮像する撮像部と、撮像部で撮像されたスペックル像を、波長毎に処理する処理部とを備える。処理部は、波長毎に取得されるスペックル像の変動量を解析することで、所定の情報を取得する。撮像部は、波長を分光するフィルタを備え、処理部は、フィルタにより分光されたスペックル像を処理する。光源部は、複数の対象物のそれぞれに、異なる波長の光を照射する。本技術は、センサに適用できる。

Description

信号処理装置、信号処理方法、並びにプログラム
 本技術は、信号処理装置、信号処理方法、並びにプログラムに関する。詳しくは、音声のような音に関する振動を検出する信号処理装置、信号処理方法、並びにプログラムに関する。
 レーザ光のようなコヒーレントな光で、紙や壁などの粗面を照射し、その反射光や透過光を観察した場合、明暗の斑点模様を見ることができる。このような斑点模様は、スペックルパターン、単にスペックル、スペックル像などと称されている。また、このような模様を作る現象はスペックル現象などと呼ばれ、レーザの出現直後からその性質に関する研究が本格的に始められていた。
 特許文献1では、対象物に照射したレーザ光の反射光によるスペックル像の振動から音信号を取得することが開示されている。
US2010-0226543
 特許文献1に開示されている技術によると、スペックル像の振動周波数から音の振動周波数信号に、また信号振幅から音のレベルにそれぞれ変換し、取得することができる。しかしながら、1つの対象物からの音は計測できるが、複数の対象物の音を計測することは、開示されている技術では困難である。
 本技術は、このような状況に鑑みてなされたものであり、複数の対象物の音を計測できるようにするものである。
 本技術の一側面の信号処理装置は、複数の波長の可干渉性を有する光を照射する光源部と、前記光源部から照射された光による反射光の干渉状態を表すスペックル像を撮像する撮像部と、前記撮像部で撮像された前記スペックル像を、前記波長毎に処理する処理部とを備える。
 前記処理部は、前記波長毎に取得される前記スペックル像の変動量を解析するようにすることができる。
 前記処理部は、隣接する異なる波長の信号の差分演算により、前記波長毎の信号に分離し、分離後の信号を用いて、前記波長毎のスペックル像を解析するようにすることができる。
 前記撮像部は、前記波長を分光するフィルタを備え、前記処理部は、前記フィルタにより分光された前記スペックル像を処理するようにすることができる。
 前記光源は、異なる周波数の光を照射する複数の光源から構成されるようにすることができる。
 前記光源部は、複数の対象物のそれぞれに、異なる波長の光を照射するようにすることができる。
 前記光源部は、複数の領域のそれぞれに、異なる波長の光を照射するようにすることができる。
 前記処理部は、解析結果に基づき、前記複数の領域のうちの1領域を抽出し、抽出された領域内に、複数の領域を新たに設定し、前記光源部は、新たに設定された複数の領域のそれぞれに、異なる波長の光を照射するようにすることができる。
 前記光源部は、前記対象物の同一部位、近接する部位、同一領域、または近接する領域に、異なる波長の光を照射するようにすることができる。
 本技術の一側面の信号処理方法は、複数の波長の可干渉性を有する光を照射し、対象物に対して、照射された光による反射光の干渉状態を表すスペックル像を撮像し、撮像された前記スペックル像を、前記波長毎に処理するステップを含む。
 本技術の一側面のプログラムは、複数の波長の可干渉性を有する光を照射し、対象物に対して、照射された光による反射光の干渉状態を表すスペックル像を撮像し、撮像された前記スペックル像を、前記波長毎に処理するステップを含む処理をコンピュータに実行させる。
 本技術の一側面の信号処理装置、信号処理方法、並びにプログラムにおいては、複数の波長の可干渉性を有する光が照射され、対象物に対して、照射された光による反射光の干渉状態を表すスペックル像が撮像され、撮像されたスペックル像が、波長毎に処理される。
 本技術の一側面によれば、複数の対象物の音を計測できるようになる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した信号処理装置の一実施の形態の構成を示す図である。 信号処理装置の計測の原理について説明するための図である。 信号処理装置の計測の原理について説明するための図である。 対象物について説明するための図である。 フィルタの色配置について説明するための図である。 信号処理部の構成について説明するための図である。 信号処理装置の動作について説明するためのフローチャートである。 領域の絞り込みについて説明するためのフローチャートである。 生体情報を取得する信号処理装置の構成を示す図である。 吸光スペクトルのグラフである。 記録媒体について説明するための図である。
 以下に、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は、以下の順序で行う。
 1.信号処理システムの構成
 2.信号処理システムの動作
 3.生体情報を取得する実施の形態
 4.記録媒体について
 <信号処理システムの構成>
図1は、本技術を適用した信号処理システムの一実施の形態の構成を示す図である。図1に示した信号処理システム10は、可干渉性光源11-1乃至11-4、カメラ部12、および信号処理部13を含む構成とされている。またカメラ部12は、レンズ部21、センサ部22を含む構成とされている。
 可干渉性光源11-1乃至11-4は、例えば、所定の色のレーザ光を発射する光源である。なお、以下の説明において、可干渉性光源11-1乃至11-4を、個々に区別する必要が無い場合、単に可干渉性光源11と記載する。
 本技術を適用した信号処理システム10は、以下に説明するように、レーザ光等の可干渉(コヒーレンス)な光を対象物に照射し、対象物により反射された光による像(スペックル像)を撮像し、解析することで、音を計測する。
 音の計測対象とされる対象物の個数に対応して、可干渉性光源11は設けられる。例えば、図1に示した可干渉性光源11は、4個設けられているため、4個の対象物を対象とした処理に用いることができる。
 可干渉性光源11-1乃至11-4は、それぞれ異なる色の光を照射する光源である。色は可視できる色(波長)に限らず、可視できない色を用いることも可能である。また可干渉性光源には、可干渉が発生しやすい光が用いられる。
 このように、可干渉性光源11は、N個の対象物を計測対象とした場合、N色の可干渉性を有するN個の光源が用いられる。
 カメラ部12は、レンズ部21とセンサ部22を備え、図2を参照して説明するスペックル像を撮像する。レンズ部21は、1または複数のレンズを含む構成とされている。センサ部22は、可干渉性光源11が発する色のみを透過するフィルタを備える構成とされている。
 信号処理部13は、カメラ部12からの信号を処理する。例えば、複数の光源のスペックル像毎に、スペックル変動量を計算したり、光源毎に対象物の特性を計算したりする。
 なお、図1では、信号処理システム10に可干渉性光源11、カメラ部12、および信号処理部13が含まれるように図示しているが、可干渉性光源11、カメラ部12、および信号処理部13は、図1に示したように一体に構成された装置として構成することも可能であるし、別体で構成されていても良い。
 可干渉性光源11とカメラ部12を別体とし、可干渉性光源11とカメラ部12を離れた位置に設置する構成とすることも可能である。また、カメラ部12と信号処理部13も、別体とし、カメラ部12からの信号が有線や無線で信号処理部13に供給される構成とすることも可能である。
 図2,図3を参照し、カメラ部12が撮像するスペックル像について説明する。空間上にある所定の物体、ここでは、粗物体51に対して、可干渉性光源11から所定の色のコヒーレントな光が照射される。粗物体51に照射された光は、粗物体51により反射され、その光は、散乱光となる。ここで、この散乱光によって形成される波動場を考える。
 図3に示すように、粗物体51にレーザ光などの可干渉光を照射すると、観測面52上の任意の1点、例えば、図2のP点で観測される光の場は、粗面の異なる場所から反射されてきた、たくさんの光波が互いに干渉しあうことによって生じる。これらの光波がもつ位相は、粗面の凹凸の不規則性を反映してランダムであるため、干渉の結果できる光の空間的な強度分布もランダムになる。
 この結果として、明暗の斑点模様が生じる。この斑点模様が、スペックル(スペックル像)などと称されている。このスペックル像は、物体が静止していれば静止状態(静的スペックル像)となり、粗物体51が運動すれば運動状態(動的スペックル像)となる。この静的スペックル像または動的スペックル像は、粗物体51との関係で生じるため観測可能である。
 可干渉光として例えば、レーザ光を用いた場合、レーザ光は、進行方向、位相、波長が揃っている光であるため、エントロピーが低い。よって、スペックル像を観測するために用いる光としては、レーザ光のような可干渉光が用いられる。
 可干渉光で照らされた物体が静止しているならスペックル(明るさの不均一さ)も変化せず一定だが、ごくわずかでも動き、揺らぎがあるものを照らした場合にはスペックルもそれに合わせて揺らぐ。その様子は、カメラ部12(図1)で撮像することで観測することができる。
 カメラ部12は、スペックル像を観測する場合、粗物体51を撮像するのではなく、スペックル場(観測面52)にあるスペックル像を撮像する。スペックル場52は、粗物体51からある程度の距離が離れていれば存在し、スペックル場52上のスペックル像を、カメラ部12で観測することができる。ある程度の距離とは、粗物体51に対して観測面52が次式で示す距離よりも離れた位置である。
 D^2/4λ
 この式において、^2は、2乗を表し、Dは、レーザースポットサイズを表し、λは波長を表す。この式で表される距離以上に離れた位置に、スペックル像を観測する物平面、例えば、観測面52が設けられればよい。
 このように、対象物に可干渉光を照射し、そのスペックル像を観測することで、対象物の動きを観測することができる。例えば、対象物を人物としたとき、人物の喉に可干渉光を照射し、そのスペックル像を観測すれば、対象とされた人物の喉の動きを観測することができる。人の喉は、発話していろときに、動くため、人の喉に係わるスペックル像を観測することで、発話している状態であるか否かなどを計測できる。さらに振動数、振幅などを解析することで、発話内容を解析することも可能となる。
 信号処理システム10の信号処理部13(図1)は、カメラ部12で撮像されたスペックル像を解析することで、例えば、上記した振動数や振幅などの情報を取得し、さらに、それらの情報を解析することで、発話内容などを取得する。
 以下、一例として、対象物が人物であり、その人物が発話している内容を解析する場合を例に挙げ、図1に示した信号処理システム10の動作などについて説明する。
 例えば、可干渉性光源11-1から、所定の色、例えば、赤(R)色の可干渉光が人物の喉部分に照射され、カメラ部12により赤色のスペックル像が観測される場合、カメラ部12のセンサ部22を、赤色の周波数帯域の光を透過するフィルタとすることで、照射された赤色の可干渉光によるスペックル像の信号を、信号処理部13は、取得し、解析することができる。
 可干渉光として1色の光を用いた場合、1個の対象物を観測できる。図1に示したように、複数の可干渉性光源11-1乃至11-4を用い、複数の色の光をそれぞれ複数の対象物に照射し、色毎にスペックル像を解析することで、複数の対象物を対象とした解析を行うことが可能となる。
 例えば、図4に示すような状況を考える。図4に示した状況は、所定の空間に、4人の人が居る状況であり、これら4人の発話を、信号処理システム10で解析したい状況を考える。4人の人を、人101、人102、人103、人104とする。
 人101の喉部分111には、可干渉性光源11-1から照射された光が当たっている。ここでは、赤(R)色の光であるとし、以下の説明においては、適宜、図などにRと記述し、赤色の光であることを明示する。同様に、人102の喉部分112には、可干渉性光源11-2から照射された光が当たっている。ここでは、緑(G)色の光であるとし、以下の説明においては、適宜、図などにGと記述し、緑色の光であることを明示する。
 同様に、人103の喉部分113には、可干渉性光源11-3から照射された光が当たっている。ここでは、青(B)色の光であるとし、以下の説明においては、適宜、図などにBと記述し、青色の光であることを明示する。人104の喉部分114には、可干渉性光源11-4から照射された光が当たっている。ここでは、黄(Y)色の光であるとし、以下の説明においては、適宜、図などにYと記述し、黄色の光であることを明示する。
 このように、可干渉性光源11-1乃至11-4から、それぞれ所定の波長の光が、人101乃至104のそれぞれの喉部分111乃至114に照射され、それぞれの喉部分111乃至114における動きが検出される場合、カメラ部12のセンサ部22は、図5に示すような色分けされたフィルタを有する。
 可干渉性光源11-1乃至11-4から、それぞれ、赤(R)、緑(G)、青(B)、および黄(Y)の光が照射される場合、それらの色を透過するフィルタがセンサ部22に設けられる。フィルタは画素毎に色分けがしてあり、例えば、図5のAのように配置されている。
 図5中、横方向、および縦方向にそれぞれ付した1~4の数字は、それぞれ行番号と列番号を示すために付した数字であり、説明のために付した数字である。行は、図中横方向(水平方向)であり、行番号は、図中左側に上から下方向に記載した番号であるとする。列は、図中縦方向(垂直方向)であり、列番号は、図中上側に、左から右下方向に記載した番号であるとする。以下、所定の位置にある画素を、画素(行番号、列番号)と記述し、例えば、1行、2列目の画素を、画素(1,2)と記述し、他の画素も同様に記載する。
 画素(1,1)は、赤色の光を透過する画素(以下、R画素と記述する)であり、画素(1、2)は、緑色の光を透過する画素(以下、G画素と記述する)であり、画素(2,1)は、青色の光を透過する画素(以下、B画素と記述する)であり、画素(2、2)は、黄色の光を透過する画素(以下、Y画素と記述する)である。
 このように、2×2の4画素(以下、単位画素群と記述する)のそれぞれに、R画素、G画素、B画素、Y画素が割り当てられる。このような色配置の単位画素群が縦方向、横方向に所定数配置される。
 また図5のBに示すような色配置でも良い。図5のBに示した色配置は、2×2の単位画素群は、同一の色の画素で構成されている。画素(1,1)、画素(1,2)、画素(2,1)、画素(2,2)から構成される単位画素群は、R画素で構成されている。画素(1,3)、画素(1,4)、画素(2,3)、画素(2,4)から構成される単位画素群は、G画素で構成されている。
 画素(3,1)、画素(3,2)、画素(4,1)、画素(4,2)から構成される単位画素群は、B画素で構成されている。画素(3,3)、画素(3,4)、画素(4,3)、画素(4,4)から構成される単位画素群は、Y画素で構成されている。
 このように、単位画素群は、同一の色で構成されるような色配置のフィルタが用いられても良い。
 また図示はしないが、列または行が同一の色で構成されるような色配置のフィルタが用いられても良い。例えば、1行目にはR画素が配置され、2行目にはG画素が配置され、3行目にはB画素が配置され、4行目にはY画素が配置されるような色配置のフィルタが用いられても良い。
 ここで示した色配置(フィルタ)は、一例であり、他の色配置であっても良く、可干渉性光源11で用いられる光の色を選択的に透過できるフィルタであればよい。
 カメラ部12のセンサ部22(図1)は、例えば、図5のAに示すような色配置のフィルタを備え、信号処理部13は、同一の色の画素から得られる信号を処理する処理部を有する。図6に、信号処理部13の構成を示す。
 信号処理部13は、R処理部151、G処理部152、B処理部153、およびY処理部154を備える。R処理部151は、センサ部22のR画素で取得された信号を処理する処理部である。G処理部152は、センサ部22のG画素で取得された信号を処理する処理部である。B処理部153は、センサ部22のB画素で取得された信号を処理する処理部である。Y処理部154は、センサ部22のY画素で取得された信号を処理する処理部である。
 このように、信号処理部13は、センサ部22で取得された信号を色毎に処理する処理部を有する。なお、信号処理部13に、センサ部22で取得された信号を色毎に分ける分離部を設けるようにしても良いし、カメラ部12内に分離部を設け、色毎に信号が、信号処理部13に供給されるようにしても良い。
 図1、図4、図6を再度参照する。人101には、可干渉性光源11-1からの赤(R)色の可干渉光が照射される。その赤色の可干渉光は、人101(喉部分111)で反射され、赤色のスペックル像を形成する。この赤色のスペックル像は、カメラ部12のセンサ部22のR画素で受光され、信号処理部13のR処理部151にて処理される。
 同様に、人102には、可干渉性光源11-2からの緑(G)色の可干渉光が照射される。その緑色の可干渉光は、人102(喉部分112)で反射され、緑色のスペックル像を形成する。この緑色のスペックル像は、カメラ部12のセンサ部22のG画素で受光され、信号処理部13のG処理部152にて処理される。
 同様に、人103には、可干渉性光源11-3からの青(B)色の可干渉光が照射される。その青色の可干渉光は、人103(喉部分113)で反射され、青色のスペックル像を形成する。この青色のスペックル像は、カメラ部12のセンサ部22のB画素で受光され、信号処理部13のB処理部153にて処理される。
 同様に、人104には、可干渉性光源11-4からの黄(Y)色の可干渉光が照射される。その黄色の可干渉光は、人104(喉部分114)で反射され、黄色のスペックル像を形成する。この黄色のスペックル像は、カメラ部12のセンサ部22のY画素で受光され、信号処理部13のY処理部154にて処理される。
 <信号処理システムの動作>
図7に示したフローチャートを参照し、図1に示した信号処理システム10の動作について説明する。
 ステップS101において、複数波長の光の照射が開始される。可干渉性光源11-1乃至11-4の各光源から、所定の色の光が対象物に対して照射される。ステップS101において、対象物毎に、異なる色の可干渉光が照射されるが、例えば、対象物が3つの場合、可干渉性光源11-1乃至可干渉性光源11-3が用いられ、可干渉性光源11-4は用いられないようにしても良い。
 すなわち対象物の数と同じ数の可干渉性光源11が用いられるように制御されるように構成することも可能である。
 ステップS102において、カメラ画像が入力される。カメラ部12によりスペックル像が撮像される。ステップS103において、画素信号から各波長信号が分離される。上記したように、例えば、R画素で受光された画素信号、G画素で受光された画素信号、B画素で受光された画素信号、Y画素で受光された画素信号に分離される。この分離は、上記したように、カメラ部12で行われるようにしても良いし、信号処理部13で行われるようにしても良い。
 また、ステップS103における処理に、隣接画素信号の差分演算処理で、各波長信号の精度が向上するための処理が含まれるようにしても良い。例えば、青色と緑色は、周波数帯域で隣接する色であるため、B画素で受光された青色の光の信号には、緑色の光の信号成分も含まれている場合もあるし、G画素で受光された緑色の光の信号には、青色の光の信号成分も含まれている場合もある。
 そこで、例えば、B画素で受光された青色の光の信号から、緑色の光の信号成分を減算することで、青色の光の信号成分のみが含まれるような信号に変換する処理が、ステップS103の処理として行われるようにしても良い。
 このような処理は、対象物を撮影する撮像装置などで行われている補色分光および混色補正に係わる処理と同様に行うことができる。センサ部22のカラーフィルタで分光された光をそのまま用いるのではなく、さらに、補色分光および混色補正に係わる処理などを行うことで、分光性能を向上させるようにしても良い。
 ステップS104において、各波長のスペックル像が計測される。センサ部22には、図5を参照して説明したように、可干渉性光源11から照射される色を透過するフィルタが備えられており、フィルタを透過した色毎に、スペックル像が取得され、信号処理部13の各部で処理(計測)される。
 ステップS105において、スペックル像の変動量が計測される。信号処理部13の各部は、入力されるスペックル像の変動量を計測する。そして、ステップS106において、スペックル像の変動量から、特徴量が抽出される。この特徴量は、最終的にどのような情報を取得するのかにより異なる。例えば、ユーザが発話した言葉を解析したい場合、解析に必要とされる特徴量、例えば、振動数、振動幅などが抽出される。
 ステップS107において、対象物のデータが算出される。対象物のデータとは、例えば、音、声、脈、生体情報などである。
 このようにして、複数の可干渉性光源11から、異なる波長の光を、異なる対象物に照射し、異なる波長の光毎のスペックル像を撮像し、解析することで、異なる対象物のそれぞれから情報が取得される。
 図4に示した例では、4人の人101乃至104に、異なる4色の可干渉光を照射し、人101乃至104のそれぞれが発話している内容を取得する例を挙げて説明した。次に、信号処理システム10(図1)が適用される他の例について、図8を参照して説明する。
 図8に示した例では、複数の人が比較的広範囲に分散している状態を表している。このような状態のときに、4領域に分け、それぞれの領域毎に可干渉性光源11から所定の波長の光を照射する場合を考える。
 ここでも、上記した場合と同じく、可干渉性光源11-1からは、赤色の可干渉光が照射され、可干渉性光源11-2からは、緑色の可干渉光が照射され、可干渉性光源11-3からは、青色の可干渉光が照射され、可干渉性光源11-4からは、黄色の可干渉光が照射されるとして説明を続ける。
 領域201には、可干渉性光源11-1からの赤色(R)の可干渉光が照射される。領域202には、可干渉性光源11-2からの緑色(G)の可干渉光が照射される。領域203には、可干渉性光源11-3からの青色(B)の可干渉光が照射される。領域204には、可干渉性光源11-4からの黄色(Y)の可干渉光が照射される。領域201乃至204に重なりがあっても良い。
 このように複数の領域に可干渉光を照射し、それぞれの波長毎にスペックル像を観測し、その変動量を計測する。この場合、1領域内に複数の対象物(人)がいる場合、スペックル像を解析することで、例えば、音が大きい領域と小さい領域、人が多い領域と少ない領域などを検出することができる。
 例えば、変動量が多い領域は、音が大きい領域であるとの解析結果が出される処理がなされる場合、そのような領域を検出し、そのような領域をさらに詳細に解析する場合を考える。
 図8に示したように、時刻t1においては、比較的広範囲の領域を設け、領域毎に、可干渉光を照射する。その結果得られるスペックル像を解析した結果、領域203の変動量が他の領域201,202,204よりも大きいと解析された場合、時刻t2において、領域203が新たな全体の領域として設定され、処理が開始される。
 すなわち図8を参照するに、時刻t2においては、領域が絞り込まれ、領域203が位置した領域に、領域211乃至214が設定されている。領域211には、可干渉性光源11-1からの赤色(R)の可干渉光が照射される。領域212には、可干渉性光源11-2からの緑色(G)の可干渉光が照射される。領域213には、可干渉性光源11-3からの青色(B)の可干渉光が照射される。領域214には、可干渉性光源11-4からの黄色(Y)の可干渉光が照射される。
 このように、領域を絞り込みながら、この場合、音の大きな領域が検出される。このような処理を、例えば、スポーツ中継に適用した場合、音が大きく、盛り上がっていると推定される領域を抽出することができる。また監視カメラに適用した場合、音がする領域を検出し、検出された領域にいる人物を観測できるような処理が行えるようになる。
 会議などの場合、時刻t1において、会議室全体を対象として、変動量の大きい領域を検出し、時刻t2において、変動量が大きいとして検出された領域を新たな全体の領域として設定し、変動量の大きな領域を検出する処理を実行する。
 このような処理を繰り返すことで、最終的に人物を検出し、図4を参照して説明したような状態になるような処理が実行されるようにすることも可能である。すなわち、領域の絞り込みを繰り返し、人物を検出するまで絞り込みを繰り返す処理が実行されるようにしても良い。また、領域を絞り込むときの処理、人物を検出する処理、検出された人物の音を検出する処理は、それぞれ異なる処理として、適宜切り換えながら処理が行われるようにしても良い。
 <生体情報を取得する実施の形態>
次に、本技術を適用した信号処理システム(信号処理装置)の他の実施の形態について説明する。本技術を適用することで、人の生体情報を取得する信号処理装置を構成することができる。図9は、信号処理装置301の構成を示す図である。
 信号処理装置301は、光源部311と検出部312を備える。信号処理装置301は、人の所定の部分、例えば、腕331に当てられ、人の生体情報を取得する。光源部311は、図1に示した信号処理システム10の可干渉性光源11に該当し、複数の波長の光を腕331に照射する。
 検出部312は、図1に示した信号処理システム10のカメラ部12と信号処理部13に該当し、腕331から反射された光により生成されるスペックル像を観測し、所定の生体情報を検出する。検出される生体情報は、例えば、脈拍数、血圧、ヘモグロビンの量、血糖値などである。
 脈拍や血圧は、血液の流れという動きを検出することで、検出することができる。ヘモグロビンや血糖値などは、所定の周波数が血流に当たり散乱した光によるスペックル像を解析することで、検出することができる。
 例えば、図10に、ヘモグロビンに関する波長と吸光係数との関係を表すグラフを示す。図10において、横軸は波長であり、縦軸は、吸光係数を表す。また図中点線は、酸素化ヘモグロビン(Hb)の吸光係数を表し、実線は脱酸素化ヘモグロビン(HbO2)の吸光係数を表す。
 例えば、光源部311から700nmの波長の光と、900nmの波長の光を照射する場合を考える。700nmの波長の光が照射され、腕331で散乱した光により生成されるスペックル像を解析し、例えば、吸光係数に関する情報(以下、情報Aとする)が取得されるとする。同様に、900nmの波長の光が照射され、腕331で散乱した光により生成されるスペックル像を解析し、例えば、吸光係数に関する情報(以下、情報Bとする)が取得されるとする。
 情報Aと情報Bを比較、例えば、差分演算を行うことで、腕331内に流れている血が、酸素化ヘモグロビンであるのか、脱酸素化ヘモグロビンであるのかを検出することができる。
 脈拍、血圧、ヘモグロビン、血糖値など、検出したい情報に適した光の周波数は異なるが、本技術によれば、異なる周波数の光を照射して、異なる周波数毎に得られるスペックル像を解析して、異なる情報を取得することができる。
 なお、上記したように、腕331に可干渉光を照射し、複数の情報を取得する場合、同一の箇所に可干渉光が照射されるのが好ましい。本技術によれば、光源部311から異なる波長の光を照射する際、同一または近接する部位(位置)に、複数の光を照射することができる。そして、同一または近接する部位に照射された複数の光のそれぞれの反射光により生成されるスペックル像を観測し、複数の情報を取得することができる。
 すなわち、本技術によれば、複数の波長の可干渉光を、同一または近接する部位に、同タイミングで照射することができ、同一または近接する部位で、かつ同タイミングで、複数の情報を得ることができる。なお、部位と記載したが、1点に限定されず、所定の大きさを有する領域であっても良い。
 なお、複数の情報を検出するとき、その検出したい情報の個数と、照射する可干渉光の数は、必ずしも一致していなくても良い。例えば、2個の可干渉光を用いて、2つのスペックル像を観測し、その2つの観測結果をそれぞれ用いて、2個の情報が検出されるようにしても良いし、2つの観測結果を用いた加算や減算を行うことで、1個の情報が検出されるようにしても良いし、または、2つの観測結果を用いた加算や減算を行うことで、3個の情報が検出されるようにしても良い。
 なお、図1に示した可干渉性光源11-1乃至11-4は、それぞれ異なる周波数の光を照射するとして説明したが、照射する光の数と同数の可干渉性光源11を設ける形態に、本技術の適用範囲が限定されるわけではない。例えば、可干渉性光源11から照射される光の波長は可変とし、波長を所定の間隔で切り換えることで、複数の波長の光が照射されるようにしても良い。
 周波数が切り換えられて、複数の周波数の光が照射されるようにした場合、信号処理部13では、1つの波長の光を照射している間に得られるスペックル像を用いて変動を観察するように構成することも可能であるし、所定の間隔毎に得られる同一の色のスペックル像を用いて変動を観察するようにすることも可能である。
 上述した実施の形態においては、音や生体情報といった情報が取得される場合を例に挙げて説明したが、その他の情報が取得される場合にも、本技術を適用することができる。また対象物は、人に限らず、どのようなものでも良い。
 例えば、植物を対象物として、葉脈を流れる水分量を計測したり、土壌の表面は土中の水分量を計測したりするのに本技術を適用することができる。そして、水分量が少ないときには散水するようなシステムに、本技術を適用することができる。
 また、果物などの糖分などを計測するのにも、本技術を適用することができる。
 このように、本技術は、所定の情報を取得するセンサとして適用することもできる。
 本技術を適用した信号処理装置によれば、複数の可干渉光を用いて、複数のスペックル像を観測するようにしたので、上記したように、複数の人を対象物として、その人達からの音を検出することもできる。また、例えば、1人の人を対象として、その人から複数の異なる情報を取得するようにすることもできる。例えば、音、心拍数、体温などを、異なる波長の可干渉光を照射して、周波数毎のスペックル像を解析することで、それぞれ取得することができる。
 <記録媒体について>
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図11は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。コンピュータにおいて、CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、入力部1006、出力部1007、記憶部1008、通信部1009、およびドライブ1110が接続されている。
 入力部1006は、キーボード、マウス、マイクロフォンなどよりなる。出力部1007は、ディスプレイ、スピーカなどよりなる。記憶部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインタフェースなどよりなる。ドライブ1110は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア1111を駆動する。
 以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005およびバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1111に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブルメディア1111をドライブ1110に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 なお、本技術は以下のような構成も取ることができる。
(1)
 複数の波長の可干渉性を有する光を照射する光源部と、
 対象物に対して、前記光源部から照射された光に反射光の干渉状態を表すよるスペックル像を撮像する撮像部と、
 前記撮像部で撮像された前記スペックル像を、前記波長毎に処理する処理部と
 を備える信号処理装置。
(2)
 前記処理部は、前記波長毎に取得される前記スペックル像の変動量を解析する
 前記(1)に記載の信号処理装置。
(3)
 前記処理部は、隣接する異なる波長の信号の差分演算により、前記波長毎の信号に分離し、分離後の信号を用いて、前記波長毎のスペックル像を解析する
 前記(1)または(2)に記載の信号処理装置。
(4)
 前記撮像部は、前記波長を分光するフィルタを備え、
 前記処理部は、前記フィルタにより分光された前記スペックル像を処理する
 前記(1)乃至(3)のいずれかに記載の信号処理装置。
(5)
 前記光源は、異なる周波数の光を照射する複数の光源から構成される
 前記(1)乃至(4)のいずれかに記載の信号処理装置。
(6)
 前記光源部は、複数の対象物のそれぞれに、異なる波長の光を照射する
 前記(1)乃至(5)のいずれかに記載の信号処理装置。
(7)
 前記光源部は、複数の領域のそれぞれに、異なる波長の光を照射する
 前記(1)乃至(5)のいずれかに記載の信号処理装置。
(8)
 前記処理部は、解析結果に基づき、前記複数の領域のうちの1領域を抽出し、抽出された領域内に、複数の領域を新たに設定し、
 前記光源部は、新たに設定された複数の領域のそれぞれに、異なる波長の光を照射する
 前記(7)に記載の信号処理装置。
(9)
 前記光源部は、前記対象物の同一部位、近接する部位、同一領域、または近接する領域に、異なる波長の光を照射する
 前記(1)乃至(5)に記載の信号処理装置。
(10)
 複数の波長の可干渉性を有する光を照射し、
 対象物に対して、照射された光による反射光の干渉状態を表すスペックル像を撮像し、
 撮像された前記スペックル像を、前記波長毎に処理する
 ステップを含む信号処理方法。
(11)
 複数の波長の可干渉性を有する光を照射し、
 対象物に対して、照射された光による反射光の干渉状態を表すスペックル像を撮像し、
 撮像された前記スペックル像を、前記波長毎に処理する
 ステップを含む処理をコンピュータに実行させるためのプログラム。
 10 信号処理システム, 11 可干渉性抗原, 12 カメラ部, 13 信号処理部, 21 レンズ部, 22 センサ部, 151 R処理部, 152 G処理部, 153 B処理部, 154 Y処理部, 301 信号処理装置, 311 光源部,312 検出部

Claims (11)

  1.  複数の波長の可干渉性を有する光を照射する光源部と、
     対象物に対して、前記光源部から照射された光による反射光の干渉状態を表すスペックル像を撮像する撮像部と、
     前記撮像部で撮像された前記スペックル像を、前記波長毎に処理する処理部と
     を備える信号処理装置。
  2.  前記処理部は、前記波長毎に取得される前記スペックル像の変動量を解析する
     請求項1に記載の信号処理装置。
  3.  前記処理部は、隣接する異なる波長の信号の差分演算により、前記波長毎の信号に分離し、分離後の信号を用いて、前記波長毎のスペックル像を解析する
     請求項1に記載の信号処理装置。
  4.  前記撮像部は、前記波長を分光するフィルタを備え、
     前記処理部は、前記フィルタにより分光された前記スペックル像を処理する
     請求項1に記載の信号処理装置。
  5.  前記光源は、異なる周波数の光を照射する複数の光源から構成される
     請求項1に記載の信号処理装置。
  6.  前記光源部は、複数の対象物のそれぞれに、異なる波長の光を照射する
     請求項1に記載の信号処理装置。
  7.  前記光源部は、複数の領域のそれぞれに、異なる波長の光を照射する
     請求項1に記載の信号処理装置。
  8.  前記処理部は、解析結果に基づき、前記複数の領域のうちの1領域を抽出し、抽出された領域内に、複数の領域を新たに設定し、
     前記光源部は、新たに設定された複数の領域のそれぞれに、異なる波長の光を照射する
     請求項7に記載の信号処理装置。
  9.  前記光源部は、前記対象物の同一部位、近接する部位、同一領域、または近接する領域に、異なる波長の光を照射する
     請求項1に記載の信号処理装置。
  10.  複数の波長の可干渉性を有する光を照射し、
     対象物に対して、照射された光による反射光の干渉状態を表すスペックル像を撮像し、
     撮像された前記スペックル像を、前記波長毎に処理する
     ステップを含む信号処理方法。
  11.  複数の波長の可干渉性を有する光を照射し、
     対象物に対して、照射された光による反射光の干渉状態を表すスペックル像を撮像し、
     撮像された前記スペックル像を、前記波長毎に処理する
     ステップを含む処理をコンピュータに実行させるためのプログラム。
PCT/JP2015/071914 2014-08-13 2015-08-03 信号処理装置、信号処理方法、並びにプログラム WO2016024488A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/329,351 US10080091B2 (en) 2014-08-13 2015-08-03 Signal processing device and signal processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-164769 2014-08-13
JP2014164769A JP2016040541A (ja) 2014-08-13 2014-08-13 信号処理装置、信号処理方法、並びにプログラム

Publications (1)

Publication Number Publication Date
WO2016024488A1 true WO2016024488A1 (ja) 2016-02-18

Family

ID=55304117

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/071914 WO2016024488A1 (ja) 2014-08-13 2015-08-03 信号処理装置、信号処理方法、並びにプログラム

Country Status (3)

Country Link
US (1) US10080091B2 (ja)
JP (1) JP2016040541A (ja)
WO (1) WO2016024488A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL239113A (en) * 2015-06-01 2016-12-29 Elbit Systems Land & C4I Ltd A system and method for determining audio characteristics from a body
US11371878B2 (en) * 2016-08-29 2022-06-28 Elbit Systems Land And C4I Ltd. Optical detection of vibrations

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003121120A (ja) * 2001-10-15 2003-04-23 Fukuoka Prefecture スペックルを用いた2方向変形同時計測装置
JP2009014606A (ja) * 2007-07-06 2009-01-22 Hitachi Ltd 残留応力測定装置及び残留応力測定方法
JP2014074620A (ja) * 2012-10-03 2014-04-24 Canon Inc 計測装置及び計測方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19859725C2 (de) * 1998-12-23 2001-02-22 Stefan Dengler Vorrichtung zur Ermittlung von Verformungen an einer Objektoberfläche, insbesondere einer diffus streuenden Objektoberfläche und Verwendung der Vorichtung
IL184868A0 (en) 2007-07-26 2008-03-20 Univ Bar Ilan Motion detection system and method
US8797828B1 (en) * 2010-02-15 2014-08-05 Soreq NRC Remote optical seismic surveying and detection and imaging of underground objects
US9134121B2 (en) * 2012-08-20 2015-09-15 Canon Kabushiki Kaisha Determining material properties using speckle statistics

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003121120A (ja) * 2001-10-15 2003-04-23 Fukuoka Prefecture スペックルを用いた2方向変形同時計測装置
JP2009014606A (ja) * 2007-07-06 2009-01-22 Hitachi Ltd 残留応力測定装置及び残留応力測定方法
JP2014074620A (ja) * 2012-10-03 2014-04-24 Canon Inc 計測装置及び計測方法

Also Published As

Publication number Publication date
JP2016040541A (ja) 2016-03-24
US20170215015A1 (en) 2017-07-27
US10080091B2 (en) 2018-09-18

Similar Documents

Publication Publication Date Title
JP6146955B2 (ja) 装置、表示制御方法、及びプログラム
US10271746B2 (en) Method and system for carrying out photoplethysmography
US10564602B2 (en) Method for observing a sample
US11371878B2 (en) Optical detection of vibrations
US10896490B2 (en) Systems and methods for reflectance-based projection-resolved optical coherence tomography angiography
KR101891036B1 (ko) 고속 병렬 광간섭 단층 이미지 생성 장치 및 방법
JP2013506525A5 (ja)
JP2013188311A (ja) 被検体情報取得装置に用いる信号処理装置および被検体情報取得方法
WO2013084719A1 (ja) 測定装置、測定方法、プログラム及び記録媒体
KR102082299B1 (ko) 단층 영상 생성 장치 및 단층 영상 생성 방법
JP5557397B2 (ja) 半透明物質の画像化の方法および装置
JP6918395B1 (ja) 撮像装置
WO2018079326A1 (ja) 光干渉断層画像撮像装置および計測方法
JP2014128321A (ja) 被検体情報取得装置および被検体情報取得方法
WO2016024488A1 (ja) 信号処理装置、信号処理方法、並びにプログラム
JP2017174342A (ja) 生体画像処理装置及び生体画像処理方法
WO2017109169A1 (en) Apparatus and method for measuring the quality of an extracted signal
JP5990906B2 (ja) 測定装置、測定方法、プログラムおよび記録媒体
US9042963B2 (en) System and method for acquiring images from within a tissue
JP5885758B2 (ja) 情報信号生成方法
Ramos et al. Quantifying ecological constraints on motion signaling
JP2018054448A (ja) スペクトルの測定方法
US10477119B2 (en) Imaging device
US20170237885A1 (en) Method and Apparatus for High Contrast Imaging
KR20140012586A (ko) 단층 영상 생성 방법 및 단층 영상 생성 장치.

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15832138

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15329351

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15832138

Country of ref document: EP

Kind code of ref document: A1